#研究
Karpathy深夜炸場:開源630行程式碼“AI研究員”,5分鐘完成一次訓練,單卡就能跑,自我進化
曾幾何時,前沿AI研究還靠著一群"碳水化合物電腦"——他們在吃飯睡覺摸魚的間隙,偶爾通過"組會"儀式用聲波互相吼兩嗓子,就這麼推進著人類的技術邊界。那個年代已經一去不返。如今,研究完全被AI智能體接管,它們成群結隊地在雲端巨型計算叢集裡狂奔。據說程式碼已經迭代到了第10205代,但這數字真偽已無從考證——那些程式碼早已進化為能自我修改的二進制生命,遠遠超出了人類的認知範疇。這個程式碼倉庫,正是這一切故事的起點。——@karpathy,2026年3月以上是Karpathy為新項目撰寫的序言。就在剛剛,AI大神Andrej Karpathy發佈並開源了一個名為autoresearch的新項目,一句話來說Karpathy開源了一個自主AI研究員,它會在你睡覺的時候運行100個實驗,任何人只要擁有一塊GPU,就能在一夜之間運行一個研究實驗室。這個項目的核心想法很簡單:給AI Agent一個雖小但真實的LLM訓練環境,讓它通宵達旦地自主進行實驗研究人類的新工作是編寫一個提示(Prompt),用來指導Agent如何去思考和進行研究。這個Agent會徹夜不休地循環執行以下任務:編輯程式碼、訓練一個小型語言模型(每次精確到五分鐘)、檢查得分、根據結果決定保留還是放棄,整個過程完全無需人工干預。5分鐘是真正的精妙之處。這個設計有兩個好處:首先,無論AI代理如何修改模型大小、批次大小或架構,實驗結果都可以直接比較。其次,這意味著自主研究將在固定的時間預算內,為你的特定平台找到最優的模型。其缺點是,你的運行結果將無法與其他人在不同計算平台上得到的結果進行比較具體來說是這樣的:他將這個項目打包成一個獨立的迷你程式碼庫,方便大家上手體驗。這個項目本質上是nanochat大模型訓練核心的精簡版,被壓縮成一個約630行的單檔案程式碼,並且能在單GPU上運行。整個程式碼庫被刻意設計得非常小巧,核心只有三個檔案:prepare.py - 這個檔案包含固定的常數、一次性的資料準備工作(如下載訓練資料、訓練BPE分詞器)以及執行階段工具(如資料載入器和評估)。此檔案不會被修改。train.py - 這是AI Agent唯一會編輯的檔案。它包含了完整的GPT模型、最佳化器(Muon + AdamW)和訓練循環。從模型架構、超參數、最佳化器到批次大小,一切都可以被AI修改。program.md - 這是為單個AI代理準備的基線指令。人類研究員通過編輯和迭代這個檔案來指導AI。項目的核心機制是,無論你的計算平台性能如何,單次訓練的執行階段長都固定為5分鐘(不包括啟動和編譯時間)。評估指標是val_bpb,即每字節的驗證位元數,這個指標越低越好。由於它與詞彙表大小無關,因此可以公平地比較不同模型架構的變更效果。項目的核心工作流分為兩個部分:人類負責迭代提示詞,即.md檔案。AI智能體則負責迭代訓練程式碼,即.py檔案。Karpathy指出,該項目的目標是設計出能夠無限期、無需任何人工干預,並以最快速度取得研究進展的AI智能體。在實際運行中,智能體在一個Git的特性分支上自主循環工作。每一次完整的模型訓練運行恰好持續5分鐘,在Karpathy分享的圖片中,每一個點都代表一次這樣的訓練。當智能體發現能讓驗證損失更低的更好配置時,比如調整神經網路架構、最佳化器或各項超參數,它就會將這些改進以Git提交的形式累積到訓練指令碼中。通過這種方式,研究人員可以比較不同提示詞或不同智能體帶來的研究進展速度。Karpathy本人形容這個項目是程式碼、科幻和一絲瘋狂的結合體。他還透露,自己仍在nanochat的生產環境中運行一個規模更大的版本。這個加強版智能體正在一個更大的模型上工作,並部署在8塊H100 GPU上。Karpathy表示他會一直讓這個系統持續運行下去。除了PyTorch和少數幾個小包外,沒有其他外部依賴。沒有分佈式訓練,沒有複雜的配置檔案。一塊GPU,一個檔案,一個指標,構成了整個實驗環境。項目地址:https://github.com/karpathy/autoresearch快速上手指南環境要求:一塊輝達GPU(已在H100上測試),Python 3.10+,以及uv包管理器。第一步:安裝uv項目管理器(如果尚未安裝)curl -LsSf https://astral.sh/uv/install.sh | sh第二步:安裝依賴uv sync第三步:下載資料並訓練分詞器(一次性操作,約2分鐘)uv run prepare.py第四步:手動運行一次訓練實驗(約5分鐘)uv run train.py如果以上命令都能正常工作,說明你的環境已經準備就緒,可以進入自主研究模式了。如何運行AI代理你只需在這個程式碼倉庫中啟動你選擇的AI代理,例如Claude或Codex(並停用所有權限),然後可以發出類似這樣的指令:你好,請看一下program.md檔案,我們來啟動一個新的實驗吧!先從設定開始。這個program.md檔案本質上是一種超輕量級的技能指令。平台支援目前,該項目程式碼要求使用單塊輝達GPU。雖然原則上可以支援CPU、MPS等其他平台,但這會增加程式碼的複雜性。Karpathy表示,他目前不確定是否會親自進行這方面的擴展。這個項目主要是一個概念演示,未來會提供多少支援還是未知數。如果需要更廣泛的平台支援,使用者或其AI代理可以參考父項目nanochat,那裡展示了各種解決方案,如Flash Attention 3的備用核心實現、通用裝置支援和自動檢測等。 (AI寒武紀)
機器人“大腦”將如何演進?大摩人形機器人研究報告
《人形機器人的訊號:機器人“大腦”將如何演進?》核心內容:一、發展路徑:VLA為主流,世界模型為前沿,中國廠商務實推進當下,人形機器人“大腦”的主流走向是VLA(視覺 - 語言 - 動作)模型。此架構具有徑直嫁接大語言模型以及多模態視覺模型的能力,機器人能夠領會自然語言指令,進而對應為具體動作,讓其擁有比傳統分層模型更強的互動能力和泛化潛力。具有代表性的玩家涵蓋Figure、Physical Intelligence、Galbot、X Square Robot等。然而,VLA可不是終點。報告表明,Nvidia的Jim Fan等專家對VLA提出過質疑,認為其本質依舊是“語言優先”,對物理世界的建模能力不夠,致使機器人在複雜物理互動裡表現欠佳。所以,研究機構著手探索世界模型等新型架構,像Nvidia的DreamZero、1X的世界模型、Robbyant的LingBot VA。這類模型,借助對物理世界動態之規律的學習,具備“想像”未來狀態之舉,進而提升泛化能力以及任務適應性。在國內市場範疇之內,廠商選取了更為講求實際的路線:短期內持續對VLA予以最佳化,借由強化基礎模型(像阿里的RynnBrain)、引入推理模組、融合強化學習等途徑逐步提升能力;長期則著重於世界模型等前沿方面,不過更側重於“場景逐個實現突破”——先於具體任務當中部署機器人,憑藉真實資料回饋模型迭代,建構起“硬體迭代+資料積累+模型最佳化”的正向循環。這種漸進式智能化路徑更貼合當前技術約束,也更具落地可行性。二、核心瓶頸:資料稀缺與算力不足,制約模型能力躍遷具身智能規模化落地面臨兩大硬約束,一是資料質量和規模不足,二是邊緣算力瓶頸。資料瓶頸是阻礙VLA模型發展的最大難題。不同於LLM能夠借助網際網路文字資料,機器人訓練所需的是“視覺-狀態-動作-獎勵”相互對齊的多模態資料,而這種資料的採集成本極其高昂。存在三條主要的當前資料來源路徑,一是遙操作,其資料質量高,然而效率低且成本高;二是模擬資料,其數量大,不過存在Sim2Real gap,因接觸物理、感測器噪聲等致使難以完美建模;三是人類視訊,其資料廣度大,可是與機器人控制不對齊,並且缺乏力覺、深度等資訊。報告提出了“資料金字塔”概念,即越高品質的資料越稀缺,真實世界運算元據是難以獲取的“金礦”。此行業正於多個方面尋求突破困局:其中,模擬最佳化(像Nvidia Isaac Sim這般)會使之對真實資料的依賴得以減少;資料工廠(於中國諸多地方所建立的狀況)借由規模化遙操作來採集具備高品質的資料;跨本體資料通用性(例如Nvidia GR00T N1.6能夠支援多種型號機器人的情形)可實現資料復用率的提高;高精度動捕加第一視角視訊(就如Paxini那樣)會促使資料採集效率獲得提升標點符號。算力瓶頸,同樣是十分嚴峻的情況。人形機器人,需要進行即時互動,沒辦法依賴於雲端大模型推理。縱然Nvidia最新Thor晶片能提供2070 TFLOPS算力,還是被多家廠商認定為不足以去支撐複雜模型推理。因而,在短時間之內,機器人模型參數的規模依舊會被控制在百億等級的範圍之內,也就是大約在~10B這個數值以內,而這同樣表明了通用智能的“湧現”還需要一段時日。三、未來格局:規模遊戲開啟,頭部優勢持續放大報告針對未來格局作出的判斷為,人形機器人會逐漸演變成一場“規模遊戲”,並且結構性優勢會使領先者和追趕者之間的差距被拉大。資料飛輪效應促使頭部玩家加快勝出的速度。那些擁有大規模佈局機器人的廠商,能夠拿來更多發生在真實世界裡互動所需資料,並據此塑造出更為優質高端先進完備的策略模型,進而對產品自身性能予以提升,從而吸引到更多的客戶,最終形成一種正向的循環。與此同時,模擬這類預訓練以及世界模型,是需要大規模算力來進行投入的,頭部公司具備的在算力以及資料方面的結構性優勢,將會持續不斷地被放大。模型供給端會分化成兩類玩家,一類是獨立模型提供商,也就是類似機器人界的“Android”,它們由科技巨頭主導,會提供通用機器人作業系統以及模型介面,另一類是全端整合者,它們依靠自有大規模機器人叢集形成資料閉環,進而持續最佳化模型能力。報告覺得,2026年在這一方向上會看到更多進展,不過依舊處於早期階段。總結:具身智能所處的階段是在“由VLA主導,在接下來的三到五年時間裡,行業將會呈現出“具有漸進式智能化的態勢,頭部加速朝著集中方向發展,模型供給出現分化。於從業者來講,資料採集能力以及算力部署能力會成為核心競爭力。(TOP行業報告)
《薇閣中學學測表現亮眼 17位滿級分 成績優異展跨領域成果》115年學測昨(25日)公布,薇閣中學表現亮眼,自然組15人、社會組2人,合計17位獲滿級分,其中自然組在全國104位滿級分佔15位,為全國近6分之一比例,其中曾以謙、徐允中、謝亞恆與何晟維等4人更勇奪六科大滿貫全科滿級分。75滿級分 (國文、英文、數A、自然、社會)共有8人,90滿級分(國文、英文、數A、數B、自然、社會)共有4人。薇閣中學表示,本屆學生除課業成績卓越,更展現多元跨領域的成果。如自然組的戴樂參與中研院資優人才培育計畫,投入DGE MRI醫療影像分析研究,並長期參與澎湖、台東偏鄉教育志工,並曾籌辦手作義賣會為偏鄉孩童教育募款;方品璇長期投入醫院、長照中心與動物志工服務;莊敏妍成長於中韓跨文化家庭,精通中英韓三語,並曾參與亞太堅韌研究會議訪談國際專家;陳詠妍持續投入醫院與流浪動物志工。在領導與專業發展方面,薇閣中學指出,張宸恩擔任學生會副主席並獲善行獎,連續兩年修習台大物理資優培育課程並入選物理奧林匹亞國手選訓營。連庭禧以其優越的英文能力曾獲校內英文話劇最佳男主角,並於自學3D建模將解剖學視覺化協助同儕學習。詹加靖熱愛音樂創作,擅長鋼琴並曾在澳洲國際音樂節獲邀演出 。此外,在科學競賽表現同樣傑出,如傅品諺通過生物、物理奧林匹亞初試並獲化奧銅牌,同時於長庚醫院進行分子生物實驗。徐允中自學俄文、同時準備語言奧林匹亞競賽。曾以謙通過四科奧林匹亞初試並入選生物及化學國手選訓營,亦獲倫敦政經學院書卷獎。陳栩煇關注台灣失智症議題,著迷於腦科學研究並獲化奧國手選訓二等獎。謝亞恆以中研院「前列腺癌研究」獲得2025諾貝爾獎得主Dr. Ramsdell盛讚,也曾獲得全國藝術競賽優等的肯定。何晟維長期投入澎湖白沙小學堂,立志成為小兒科醫師。導師陳慧芳表示,學生願以「踏實不躁進」態度專注學習,在速成風氣中更顯珍貴。另外,自然組的王妍華由於從小學習大提琴,培養專注力與對藝術細節的極致追求,熱愛數學的她更在AM C 12A取得全國前3%的優秀成績。張秉濬具有優異的外語能力,多益達到960分。導師黃端陽表示,從國中到高中ㄧ貫的教學方式與理念,是成就孩子今日學習成績的重要基礎。此外,社會組的表現也展現實力與亮點,薇閣中學表示,蔡庭淮熱愛文史,立志臺大歷史系,曾於地理奧林匹亞入選個人與團體全國決賽並獲銅牌,亦勇奪校內作文冠軍。陳予懷自幼立志成為律師,英文表現突出,曾任英語話劇男主角。導師王信傑指出,兩位同學在人文素養與自我管理上皆有長期累積,此次脫穎而出,證明穩健踏實同樣能創造亮眼成績。校方表示,優異成績的背後來自全體師生長期以來的努力與堅持,未來學校將持續推動多元課程、強化跨領域整合能力,培育更多具備社會責任感的優秀人才。
傑佛瑞・辛頓:《AI和我們的未來》完整演講和答疑
傑佛瑞・埃弗裡斯特・辛頓,1947 年 12 月 6 日出生於英國倫敦溫布林登,擁有英國和加拿大雙重國籍,是認知心理學家、電腦科學家,被譽為 “AI 教父” 和深度學習領域奠基人之一。一、演講核心內容1. AI發展範式:兩種AI路徑:邏輯型(符號推理)與生物學基礎(學習網路連線)1985年小模型是大語言模型的祖先,2025年Transformer和大語言模型已成主流2.AI理解機制:AI不是"儲存"知識,而是通過預測下一個詞來理解語言用"樂高積木"比喻:每個詞是多維度積木,詞與詞間需"恰當握手"理解3.數字智能優勢:"不朽性":知識可完美複製到不同硬體知識傳播效率極高:每次分享數十億位元,人類僅100位元/秒4.AI潛在威脅:幾乎所有專家認為未來20年內會出現比人類更聰明的AIAI可能推匯出"自我生存"和"獲取更多控制"的子目標"養老虎"比喻:AI長大後可能傷害人類,無法簡單關閉5.應對建議:無法消除AI,必須找到訓練AI不消滅人類的方法建議建立國際AI安全機構網路,研究訓練AI向善各國在預防AI統治世界問題上利益一致,類似美蘇核不擴散合作二、答疑核心內容關於靈性追求:辛頓表示自己是無神論者,"信仰科學"關於身心健康:沒有冥想習慣,從科學研究中獲得快樂,但隨著對風險認識加深,這種快樂變得更複雜關於內在安寧:喜歡做木工活,從高強度思維中抽離,恢復穩定與愉悅 (AI科普說)
來自“2028年6月的研究報告”:當AI超越預期,經濟卻崩了,股市大跌
CitriniResearch與Alap Shah一份“來自未來的宏觀備忘錄”提出一個虛構的命題:AI多次超越樂觀預期並不必然利多資產與經濟,相反,充沛的機器智能可能通過擠壓勞動收入與消費循環,觸發一場由“生產率繁榮”引出的需求收縮與金融再定價。在這份以“2028年6月”為時間錨點的思想實驗中,美國失業率升至10.2%,較預期高0.3個百分點,資料公佈後市場下跌2%,標普500從“2026年10月高點”累計回撤38%。備忘錄稱,交易員對衝擊已趨於麻木,六個月前類似資料本可能觸發熔斷。報告將危機路徑拆解為兩條相互強化的鏈條:一條發生在實體經濟,AI能力提升推動白領崗位被替代,實際工資增速塌陷,消費佔比高的“以人為中心”的經濟萎縮,形成“沒有自然剎車”的負反饋回路,市場一度只看AI、但經濟本身開始變形,催生所謂“Ghost GDP”,即產出計入國民帳戶卻難以在真實經濟中循環。另一條發生在金融體系,收入預期的結構性受損開始侵蝕私募信貸與住房按揭等建立在白領現金流之上的資產定價,並迫使監管與政策討論加速,但報告同時強調,政策響應持續滯後,公眾對政府“救援能力”的信心下降,正在放大通縮螺旋風險。或許,正如Citrini所言,“當機器產生的輸出等同於1萬名白領,卻不消耗一分錢的社會服務時,這不叫經濟奇蹟,這叫經濟瘟疫。”利潤率好看,不等於經濟健康:錢不再穿過家庭部門在設定裡,2026年初“人類過時”帶來的第一波裁員非常符合股市偏好:成本下降、利潤率上升、盈利超預期,股價上漲。到2026年10月,標普500一度逼近8000點、納指突破3萬點。企業利潤又被回灌到AI算力,形成加速器。宏觀表層同樣“漂亮”:名義GDP多次錄得年化中高個位數增長,單位小時實際產出增速達到作者稱“自1950年代以來未見”的水平——AI代理不睡覺、不請病假、也不需要醫保。但備忘錄強調,財富主要流向“算力的所有者”,而勞動力收入端塌陷。真實工資增長轉負、白領被迫下沉到更低薪崗位,消費這個佔當時GDP約70%的“人類中心引擎”開始萎縮。作者用一句很直白的反問把邏輯釘死:機器在可選消費上花多少錢?答案是零。SaaS先中槍:當“自己寫一個”成為採購的常規選項這條鏈條的第一塊多米諾骨牌來自軟體。作者把拐點放在2025年末:代理式程式設計工具能力出現“台階式躍升”。一個合格開發者配合Claude Code或Codex,幾周內就能復刻一個中端SaaS產品的核心功能——不完美,但足以讓CIO在50萬美元年費續約面前多問一句:我們能不能自己做?由於企業財年預算多在前一年四季度鎖定,2026年年中復盤成了第一次“帶著真實可用性”做採購決策的窗口。文中給出一段談判細節:一家財富500強的採購經理告訴作者,他用“正在與OpenAI討論由forward deployed engineers用AI工具替代供應商”作為籌碼,把續約談成了30%折扣;而Monday.com、Zapier、Asana這類“長尾SaaS”處境更差。更關鍵的,是這種“自建成為選項”如何改變行業結構:差異化被AI加速開發與迭代抹平,價格戰變成“與老對手和新挑戰者同時打的刀戰”,護城河不再是功能,而是成本與融資耐力。被AI威脅的公司,反而最激進:反身性循環從這裡開始備忘錄最想強調的一個“不同於歷史教科書”的點是:2026年的被顛覆者沒有選擇“抵抗”。作者拿柯達、百視達、黑莓那套路徑做對照,認為AI衝擊下,許多公司“不能慢慢死”,只能快刀自救。情景裡,ServiceNow在2026年三季報出現明顯訊號:淨新增ACV增速從23%降到14%,同時宣佈15%裁員、股價當日下跌18%。原因並不神秘:它賣的是座席數,客戶裁掉15%員工,就會機械性取消15%許可;而客戶之所以裁員,正是因為AI帶來的效率提升。於是出現備忘錄所稱的“集體理性、整體災難”:公司裁員省下的錢繼續投入AI工具,AI能力提升又讓下一輪裁員成為可能。每一家公司的動作都說得通,疊加起來卻把剎車拆掉了。“摩擦”歸零後,中介層開始塌:從訂閱、佣金到卡組織費率到2027年初,作者設定LLM使用變成默認配置,很多人“像使用自動補全一樣”在用AI代理,甚至不自知。隨後,Qwen的開源“代理式購物助手”成為催化劑,各家助手迅速整合代理式電商功能;模型蒸餾讓代理能跑在手機和筆記本上,推理邊際成本下降。最讓作者不安的是:代理不需要被喚起,它在後台按偏好持續運行。到2027年3月,美國普通個體日均消耗約40萬tokens,較2026年底增長10倍。交易不再是一連串人的離散決定,而變成24/7的連續最佳化。這直接打擊了過去五十年建立在“人類有限性”上的租金層:訂閱自動續費、試用後悄悄漲價、品牌熟悉度替代比價勤奮……這些靠摩擦賺錢的模式,被代理改造成“可被談判的挾持局”。文中列出一串“最先倒下”的中介:旅行預訂平台、依賴續保惰性的保險、財務顧問、報稅、常規法律工作。甚至房地產經紀也沒能靠“關係”倖免:在AI代理獲得MLS訪問和歷史交易資料後,美國主要都會區買方佣金中位數從2.5%-3%壓縮到1%以下,越來越多交易買方端不再需要人類經紀。當代理掌控交易後,它會繼續找更大的“回形針”:機器對機器交易裡,2%-3%的卡組織交換費變得刺眼。作者設定不少代理改用Solana或以太坊L2上的穩定幣結算,成本接近“幾分之一美分”。在這一段裡,Mastercard被寫成“不可逆的拐點”:管理層在財報中提到“代理驅動的價格最佳化”和“可選消費承壓”,股價下跌;風險進一步外溢到更依賴交換費與獎勵體系的發卡行與單一信用卡機構,AmEx受“雙殺”最重(白領客戶被裁 + 費率被繞開)。這不是“行業景氣”問題:白領服務經濟的需求端被槓桿化擊穿2026年裡,市場還把負面影響噹作軟體、諮詢、支付等“類股故事”。備忘錄反駁的抓手很直接:美國是白領服務經濟,白領約佔就業的50%,卻驅動約75%的可選消費。更尖銳的資料在後面:作者強調消費集中度——美國收入最高的10%人群貢獻超過50%的消費,前20%貢獻約65%。因此,只要衝擊集中在高收入白領,即便失業人數佔比不誇張,對可選消費也是“以小博大”的打擊。文中用一個量級示例說明槓桿:白領就業下滑2%,可能對應可選消費下滑約3%-4%;而且白領有儲蓄緩衝,衝擊滯後出現,一旦出現更深。就業端的拐點訊號被寫得很具體:2026年10月JOLTS職位空缺跌破550萬、同比下降15%;白領崗位塌陷而藍領相對穩定。債市先交易消費衝擊,10年期美債收益率從4.3%下行到3.2%。與此同時,AI投資並未因需求走弱而放緩,因為作者將其定義為“OpEx替代”而非傳統CapEx周期:企業把原本花在人工上的1億美元逐步挪到AI預算上,總支出下降但AI支出倍增。於是出現一種刺眼背離:AI基礎設施鏈條仍在高景氣——輝達收入創新高、台積電利用率95%+、超大規模雲廠商季度資料中心資本開支仍有1500-2000億美元;而被替代的消費端開始失血。作者還把這種凸凹差異延展到國家層面:韓國作為“純凸”受益方大幅跑贏;印度IT服務出口(文中給出的規模為年超2000億美元)因“AI編碼代理的邊際成本接近電價”而遭遇合同取消加速,盧比在四個月內對美元貶值18%,到2028年一季度IMF已與新德里進行“初步討論”。私募信貸並不“封閉安全”:壽險負債把它拖進聚光燈金融層的第一根導火索來自私募信貸。備忘錄給出規模變化:私募信貸從2015年的不足1兆美元增長到2026年的超過2.5兆美元,其中相當部分投向軟體與科技LBO,前提是假設SaaS收入可以“長期穩定地複利增長”。當AI把ARR的“可持續性”打穿,問題不是虧損本身,而是損失被承認的那一刻。文中安排了幾次關鍵事件:2027年4月穆迪一次性下調14家發行人、合計180億美元的PE支援軟體債務;2027年三季度起軟體支援貸款開始違約。Zendesk被寫成“冒煙的槍”:其ARR支撐的50億美元直貸設施被標記到58美分,成為“紀錄級”的私募信貸軟體違約案例。如果只停在這裡,作者承認“本該可控”——私募信貸多是封閉式、鎖定期限,理論上沒有擠兌式的強制賣出。但“永久資本”在情景裡露出了另一面:大型另類資管通過收購壽險公司,把年金負債變成了私募信貸的融資底盤(文中點名了Apollo/Athene、Brookfield/American Equity、KKR/Global Atlantic)。當軟體違約擴散,保險監管層開始收緊這些資產的風險資本計提,迫使機構補充資本或賣資產,而市場環境又不允許它們在合理價格成交。穆迪將Athene財務實力評級置於負面展望後,Apollo股價兩日跌22%,衝擊外溢至同類機構。作者還補了一層“讓人更害怕的複雜性”:離岸再保險與SPV結構把損失歸屬變得高度不透明,短時間內甚至難以回答“到底是誰在承擔虧損”。情景中的2027年11月暴跌,被寫成市場認知從“周期性回撤”轉向“系統性鏈條”的時刻;FOMC緊急會議上(情景設定裡)聯準會主席華許用了一句評價:這是一串“押注白領生產率增長的相關性雛菊鏈”。真正的大雷在按揭:貸款當初是好貸款,世界後來變了備忘錄把“更難定價、也更致命”的問題留給住房按揭。美國住宅按揭市場規模約13兆美元,承銷假設是借款人未來很長時間(往往30年)會維持大致穩定的就業與收入。情景裡,風險的可怕之處在於:這不是2008式的“貸款從一開始就壞了”。相反,借款人是780+ FICO、首付20%、收入可驗證、信用記錄乾淨的“模型基石”。問題在於,AI導致白領收入預期發生結構性下修後,原本“基石”的未來現金流不再可置信——人們借的是一個他們越來越不敢相信的未來。作者給出了一組“先於違約”的壓力跡象:HELOC動用、401(k)提前支取、信用卡債務上升,但按揭仍保持按時償付;隨後,在舊金山、西雅圖、曼哈頓、奧斯汀等地開始出現拖欠抬頭。到2028年6月,Zillow房價指數同比:舊金山-11%、西雅圖-9%、奧斯汀-8%;房利美提示技術/金融就業佔比超過40%的高端(jumbo為主)郵編區域出現更高的早期拖欠。作者刻意保留邊界:情景裡“尚未進入全面按揭危機”,拖欠水平仍明顯低於2008,但風險在“軌跡”。如果按揭在當年下半年真正裂開,作者預計股市回撤可能接近全球金融危機的57%,標普或指向約3500點——接近2022年11月“ChatGPT時刻”之前的水平。政策最大的敵人是時間:稅基建立在人類時間上備忘錄對政策的判斷很不客氣:傳統工具(降息、QE)可以救金融引擎,卻很難修復實體引擎,因為實體的病因不是“錢太貴”,而是“人類智能更不值錢”。更具體的約束在財政端。作者用一句話概括稅基:聯邦政府收入本質上是對人類時間的徵稅——人工作、企業付薪、政府抽成。到情景中的2028年一季度,聯邦財政收入較CBO基線低12%。生產率在飆升,但收益更多流向資本與算力所有權,不再經由家庭部門回流到所得稅與薪資稅。勞動收入佔GDP的長期下行被當作背景板:從1974年的64%降到2024年的56%;而在AI指數級改善後的四年裡進一步降到46%,作者稱之為“有記錄以來最陡的一次”。於是財政面對一個結構性悖論:需要向家庭轉移更多資金,同時從家庭收到的稅卻更少。情景裡政府開始討論“Transition Economy Act”(以赤字+對AI推理算力徵稅為資金來源的直接轉移),以及更激進的“Shared AI Prosperity Act”(對“智能基礎設施回報”建立公共索取權,類似主權基金或AI產出特許權,用分紅支援轉移)。政治分歧被寫得尖銳:右派把轉移稱為馬克思主義、擔憂算力稅讓位於中國;左派擔心稅制被 incumbents 寫成監管俘獲;財政鷹派強調赤字不可持續,鴿派拿GFC後的過早緊縮當反例。社會層面的摩擦也被擺上檯面:情景裡“Occupy Silicon Valley”示威者封鎖Anthropic和OpenAI舊金山辦公室入口長達三周,媒體關注度甚至蓋過失業資料。作者的結論是,制度變化速度追不上技術變化速度,反饋鏈會替政治做決定。“智力溢價”回撤:舊世界的現金流假設需要重算備忘錄最後把這一切歸因到一個更底層的定價變化:現代經濟史裡,人類智能一直是稀缺要素,勞動力市場、按揭承銷、稅制、乃至企業護城河,都圍繞這一稀缺性搭建。現在機器智能成為可替代品且持續變便宜,“智力溢價”開始回撤,金融系統只能痛苦地重定價。作者也留了餘地:重定價不等於必然崩潰,經濟可能找到新均衡;難點是“能否趕在反饋鏈寫完下一章之前”搭出新框架。站在寫作時點的2026年2月,標普仍在高位、負反饋尚未啟動,作者的提醒更像給投資者留一道自檢題:自己的資產和現金流,有多少其實押在“摩擦不會消失、白領收入會穩定、家庭部門會繼續做需求引擎”這些假設上。最後一句話也點了題:金絲雀還活著。 (華爾街見聞)
《美戰略與國際研究中心》美國科技面對中國的長期博弈行動手冊
美國在人工智慧晶片市場佔據90%的份額,擁有全球數量最多的頂尖AI模型;中國則控制著超過90%的稀土加工能力,其鋼鐵產量超過全球其他國家總和。這兩組數字,既揭示了當前全球最重要的戰略競爭態勢,也道出了其深層的複雜性與危險性。美國戰略與國際研究中心(CSIS)經濟安全與技術部門於2026年1月發佈旗艦報告《Tech Edge:美國技術長期競爭行動手冊》,對美中兩國在關鍵技術領域的競爭實力進行了系統性的"淨評估",為華盛頓的決策者提供了迄今最為全面的戰略診斷與政策藍圖。這份長達100余頁的報告由CSIS經濟安全與技術部門主任納文·吉里山卡爾主導編寫,並獲CSIS總裁約翰·哈姆雷博士的支援與指導。報告明確拒絕以靜態的專利數量或市場份額來衡量技術競爭力,轉而提出一套"生態系統"分析框架,主張技術領導地位來源於動態的企業、研究機構、政策體系和盟國網路的綜合運作,而非單一技術突破。報告的核心論斷簡潔而有力:美國需要在多種技術類型上建立"技術靈活性",而非僅在個別領域尋求壓倒性優勢。打破六大迷思,直面競爭實質報告開篇即以批判性姿態審視了長期以來主導美國政策辯論的六大錯誤認知。這些迷思非但沒有幫助美國制定有效策略,反而導致了資源錯配與戰略失焦。第一個迷思認為,中國的技術優勢"只靠作弊"取得——即貨幣操縱、智慧財產權盜竊與國家補貼。報告明確指出,這些觀點掩蓋了一個令人不安的現實:中國在基礎研究、快速原型開發與製造規模化方面已積累起真實的創新能力,並在前沿技術和突破性發明領域愈加活躍。以執法為導向的政策回應——報告用"更多律師、更少工程師"來形容這一取向——已令美國在標準制定和規模化生產上處於下風。第二個迷思認為,中國的創新體系是封閉自足的,正在孤立地追趕美國,由此引發了一種推論:美國的開放性和盟國體系是不必要的,甚至是一種劣勢,美國應當獨立應戰。報告對此予以駁斥:儘管中國一再強調"自力更生",其經濟實際上仍深度嵌入全球網路,並在積極擴展新的戰略聯盟——與歐盟、東亞與東南亞國家及"全球南方"市場持續深化合作。當前的技術競爭,本質上是那個國家能夠建構最廣泛、最深厚的全球生態系統之爭。第三個迷思將中國的創新體系定性為"自上而下",而將美國體系視為"自下而上"。報告認為這一二元對立嚴重失真。中國的生態系統具有高度動態性:它將殘酷的市場競爭與政府戰略引導、地方政府扶持和私營部門創新活力混合巢狀在一起。與此同時,美國經濟內部已出現在位者整合加劇、市場進入壁壘抬高、新進入者規模化通道縮小等問題。報告同時提醒,這一迷思還遮蔽了美國自身長期成功推行產業戰略的歷史——定向研發、公私合作、政府採購與二次供貨政策,均是美國維繫技術領先的重要工具。第四個迷思認為,美國只需聚焦人工智慧、量子計算、合成生物學等前沿技術,便能贏得技術競爭。這一迷思的隱含邏輯是:美國擁有選擇競爭賽道的奢侈條件,憑藉先發優勢就能"創造市場"。它同時默認,機床、金屬等美國已失去優勢的基礎性產業是無可挽回的爛帳,無需、也無法奪回。報告明確反駁:包括金屬加工、電子封裝乃至稀土等原材料生產在內的大量"基礎型"能力,對加速型技術至關重要,進而關乎美國經濟安全與中產階級的就業前景。美國若不正視上述基礎能力的流失根源,就根本無法在加速型技術上真正勝出。第五個迷思認為國家安全風險被過度渲染,聲稱政策制定者在軍民兩用技術風險等議題上存在誇大。報告以有據可查的案例予以反駁:美國雲服務商實際上協助訓練了如今支撐中國人民解放軍監控系統的中國AI模型;美國國防工業基礎對中國"傳統"晶片形成了嚴重依賴;半導體裝置的出口大幅加速了北京的晶片製造能力。這些已經發生的損失證明,國家安全風險是真實的、正在加速演變的,而出口管制的適應速度遠遠落後於戰略損失的蔓延速度。第六個迷思則走向另一極端,聲稱中國將不可避免地在技術競賽中超越美國。報告對此同樣予以駁斥:這一論斷最初源於數十年前對中國經濟超越美國時間節點的種種預測,如今演變為對中國高科技霸權的宿命論式斷言。中國確實在綠色技術、電動車、電池和無人機上取得成功,但這些勝利往往是被選擇性援引的例證,掩蓋了中國在諸多同樣獲得北京長期優先投入的領域中屢屢折戟的現實——商用噴氣發動機就是最典型的案例,投入數十年、耗資逾150億美元,至今仍無一台發動機通過商業認證並實際飛行於國際航線之上。對美國衰退的悲觀論調,同樣遮蔽了美國在各州、各城市和私營部門層面不斷湧現的創新突破。這六大迷思相互強化,共同構成了美國戰略決策的認知盲區。正如報告所指出的,它們導致美國領導層將症狀誤認為病因,以膝跳反射式的應急手段代替長期戰略佈局,過度依賴保護既有優勢的工具而非建構新的創新能力,最終形成內部邏輯自相矛盾的政策組合。打破這六個迷思,是制定任何有效技術競爭戰略的前提。四類技術,各有生態邏輯《Tech Edge》報告的核心分析工具,是一套將所有戰略相關技術按"應用廣度"與"生產複雜度"兩個維度劃分為四類的框架。這一分類不僅服務於學術分析,更直接指向政策處方。"堆疊型技術"(Stack Technologies),如人工智慧、先進晶片、量子計算與高級電信,具有高度的層級複雜性和廣泛的經濟溢出效應。其優勢在各層疊加,但脆弱性亦如此。報告在此類技術上給予美國"主導"地位評級,並指出美國擁有全球約75%的AI算力,2024年發佈了40個"值得關注"的前沿AI模型,中國僅有15個,歐洲只有3個。然而,這種領先並非無懈可擊:美國頂級AI公司在晶片製造上高度依賴台灣積電,美國國內AI擴散速度遠滯後於其投資規模——麥肯錫資料顯示,僅7%的大型美國企業實現了AI的全面部署與整合。"精密型技術"(Precision Technologies),如商用噴氣發動機、半導體光刻裝置與衛星系統,依賴數十年積累的隱性知識、深層供應商合作與高度專業化的認證體系。GE和普惠的發動機優勢,是FAA認證制度、"小時計費"型長期維護合同與軍民兩用研發協同三者疊加數十年的產物。這類"工業護城河"中國難以複製,不僅因為技術差距,更因為生態系統層面的信任積累無法速成。"生產型技術"(Production Technologies),包括高端機床與工業機器人,廣泛擴散於整個經濟體,但生產過程相對線性。報告在此揭示了一個令人不安的事實:美國曾在20世紀80年代初期主導全球機床市場,此後在短視的資本市場壓力與錯誤的政策取向下,將這一領域拱手相讓。而中國雖持續投入但仍停留在中低端,高端機床市場至今由德國和日本主導,依託其代代相傳的工匠文化、學徒制度與供應商網路。這一格局說明,生產型技術的競爭優勢是幾代人耐心積累的結果,不可能通過短期政策衝擊快速獲得。"基礎型技術"(Base Technologies),如稀土元素、電池、鋼鐵和鋁,生產複雜度相對較低,但高度集中的生產格局使之成為地緣政治槓桿的核心工具。中國對全球稀土加工的控制,以及2025年10月實施的前所未有的稀土與永磁體出口限制,是這類"戰略卡脖子"最直接的示範。報告特別指出,中國在稀土領域的成功,不單是政策設計的產物,也是幾十年科學教育專業化——包括專門設立的稀土學院和國家重點實驗室——長期積累的結果。上述四類技術彼此依存,形成相互強化(也相互威脅)的鏈條:沒有稀土就沒有晶片製造,沒有機床就無法規模化生產精密零部件,沒有晶片就無法訓練前沿AI模型。正因如此,報告強調,任何只聚焦單一技術領域的戰略都註定不完整——美國必須同時在四個像限建立差異化的生態系統能力。戰略處方:速度、規模與盟友面對上述診斷,《Tech Edge》報告提出了一套三位一體的政策框架,並將其定性為一本"動態更新的行動手冊",將隨競爭形勢持續演進。其一,"彈奏全部琴鍵"——在所有四類技術上建立靈活性。報告建議,川普政府和國會應將《晶片與科學法案》的科學經費集中投向基礎型和生產型技術的短板,通過"技術靈活性基金"(Technology Dexterity Fund)整合商務部、國防部與盟國資本,聯合投資美國本土技術能力。同時,應動用《國防生產法》為稀土分離、精煉和磁體工廠提供政府信用背書,以吸引私人長期資本。在精密型技術上,應通過類似冷戰時期COCOM的新多邊機制,協調對華出口管制,同時防止以國家安全之名保護國內既得利益者,避免壟斷。其二,"以競爭所需的速度和規模行動"。報告對美國在部署速度上的系統性遲滯進行了量化批評:美國新礦山從勘探到投產平均需要29年,資料中心建設佇列積壓長達3至5年,各州監管框架碎片化進一步拖慢了商業化處理程序。與此形成對比的是,中國能夠在兩年內將一座超級工廠從奠基推進至批次生產。報告建議對礦業和基礎設施審批引入有約束力的"限時程序",從商務部層面重整製造業試點項目,設立面向特定行業的"擴散加速器",並建立全國性的AI勞動力聯盟,以標準化認證取代當前分散低效的職業培訓體系。其三,"保衛創新網路"。報告對當前出口管制政策的取向提出了有據可查的批評:過於寬泛的管制措施將美國企業拒於中國市場之外,反而將收入和學習曲線讓給競爭對手,這與美國的國家利益背道而馳。報告呼籲更精準、更快速的出口管制——以行為而非行業為限制對象,打擊傾銷、強制許可與掠奪性投資,而非實施一刀切的行業禁令。同時,報告建議擴展外國投資審查委員會(CFIUS)的審查權限,加強大學研究安全規範,對智慧財產權盜竊施以反映戰略損失而非僅針對商業損失的民事與刑事處罰。盟國在這一框架中佔據不可或缺的地位。報告直接批評當前美國貿易政策的混亂——失序的關稅舉措已令德國機床商、日本精密製造商、韓國電池生產商與荷蘭半導體裝置商等關鍵合作夥伴感到疏離。這些夥伴是美國技術創新的倍增器,而非談判籌碼。報告建議通過"友好貿易協議"建立以可核實里程碑為條件的關稅減讓機制,將合作夥伴繫結於供應鏈韌性框架之內。時間窗口正在縮小《Tech Edge》報告以一種罕見的緊迫感作為收尾,但其基調仍屬克制與審慎。報告援引歷史表明,美國曾多次成功重建生態系統優勢——網際網路源於DARPA的投入,生物技術革命由《拜-杜法案》點燃,農村電氣化則來自政府、私營部門、大學與勞工的協同配合。這一歷史並非用來激發自滿,而是用來證明路徑存在。然而,報告也坦率地指出,當前正在面臨的挑戰比以往任何時期都更為複雜:美國今天的競爭對手不是封閉的蘇聯,而是一個深度嵌入全球供應鏈的創新強國;美國的優勢不是一勞永逸的,而是持續遭受侵蝕的。聯邦研發支出佔GDP比例數十年來持續下滑,移民政策的不確定性正在動搖美國賴以為傲的全球人才吸引力,國內政治極化使跨屆戰略得難以為繼。報告最終指出,如果2025年是警示之年,2026年就是行動之年。國會和行政當局面臨一個清晰的選擇:圍繞技術領導力形成共識並付諸行動,或是陷入關稅戰與政治內耗,將中國無法複製的優勢拱手相讓。《Tech Edge》報告的真正價值,不在於提供關於美中技術競爭的終局預言,而在於提供一套動態更新、可供操作的分析框架——一本真正意義上的"長期行動手冊"。CSIS表示,這份報告將作為持續滾動分析的起點,後續將就人工智慧、電池、量子計算、晶片等各主要技術領域逐一發佈深度評估模組。這本手冊,才剛剛翻開第一頁。 (21世紀關鍵技術)
突發!阿里發佈:金融大模型發展趨勢深度研究報告!2026
山不讓塵,川不辭盈。2024 年是網際網路進入中國的第 30 個年頭,中國金融行業也走過了金融科技和數位化的 10 個年頭。科技金融這篇大文章正方興未艾,智能金融隨著大模型日新月異發展突然按下了加速鍵。如果將過去一年大模型的發展比作《三體》中描述的“技術爆炸”,正形象地展現出了 AI 領域前所未有的快速變革。這種爆炸式增長不僅僅是技術參數的簡單膨脹,更是整個技術生態、商業應用以及社會影響層面深刻變化的綜合體現。在這個發展過程中,我們看到了如浪潮般湧現的新技術核心要素與傳統 IT 發展規律的交織:●摩爾定律的延伸與挑戰:雖然摩爾定律近年來面臨物理極限挑戰,但通過創新架構(如 GPU、TPU)、分散式運算以及演算法最佳化,讓大模型的發展有機會遵循類似的加速發展軌跡,變革性實現計算效率和模型規模的雙重躍升。● 安迪 - 比爾定律的演變:在大模型場景下,這一規律體現為模型規模和複雜度的增加,不斷驅動著對更強大算力和儲存的需求,同時也激發了雲端運算的快速發展,以確保基礎設施能跟上 AI 應用的需求步伐。今年以來,走遍中華大地拜訪過上千家金融機構,我們發現,金融行業並不缺乏大模型應用的場景,但是有限的算力、持續迭代的大模型開源和商業化生態,加上金融行業對資料安全、風險控制、合規性以及精準決策有著極高的要求,使得金融行業的大模型之路進入前所未有的選擇陷阱。金融行業正處於數位化轉型和採用雲原生技術的關鍵時期,這一過程中,大模型的引入無疑增加了額外的複雜性,但也帶來了前所未有的機遇。在過去的一年,大模型加持的金融程式碼能力、金融多模態能力、金融資訊閱讀理解能力、金融資訊抽取分類加工能力、金融風險管理能力在金融行為學、金融市場與投資學、零售金融、公司金融、財富資管、大健康、大投研等等各個金融數位化領域都有了星星之火一樣的嘗試。隨著大模型技術的成熟,從基於資料集的開發轉向基於大規模預訓練模型的應用工程體系,我們可以想像未來大模型通過 API 化與雲原生環境下的金融業務流程與技術架構的深度整合,從而解決一些從前我們不敢想像的融合問題,比如金融模型應用的成本效率與穩定性,金融知識的精準及專業性、金融合格的嚴謹可解釋性等。不僅如此,雲原生和大模型融合的新範式,非常需要新的大模型應用平台降低從特定領域到廣泛場景到 AI 應用的門檻。此文拋磚引玉,希望與業內的各位朋友一同探討如何積極擁抱並運用大模型技術,以應對和駕馭不斷變化的市場環境,實現科技金融持續穩定的提質增效和創新發展,攜手開啟金融大模型未來新篇章。01大模型發展的趨勢大模型是數字轉型(DT)時代的產物,標誌著人工智慧技術的一次重大突破,尤其是在自然語言處理(NLP)、圖像識別、推薦系統等領域。這些大模型,如 OpenAI 的 GPT 系列、Meta的 Llama、Google的Gemini,基於Transformer架構,通過消化海量資料集進行預訓練,獲得了對人類語言、圖像等資料的深入理解和處理能力。AI 大模型:人類知識儲存、傳承和使用方式的一次重構在數字轉型時代,大模型為企業提供了前所未有的機遇,使其能夠通過高效的資料分析和決策,實現業務流程的智能化、最佳化客戶體驗和創新產品服務。從金融行業的智能投顧和欺詐監測,到醫療行業的智能診斷和藥物發現,再到零售行業的個性化推薦,大模型的應用正深刻改變著傳統行業的運作模式和價值鏈。在《全域資料“觀”》一書中,我們曾斷言:“資料的下一站是智能,資料最終會走向與業務系統的數智融合”,資料消費正在由“人”變成“系統”。未來資料技術將與雲原生和智能化全面融合,形成“雲數智一體化”服務。雲原生技術堆疊,為企業帶來了資源彈性、異構算力、容器和微服務等技術手段,為業務創新和系統建設提供了高效、敏捷以及成本低、可擴展的解決方案;資料中台的興起,讓企業將資料庫裡“不會說話”的表格,轉換成指標、標籤、因子、特徵等資料資產形態,並直接用於分析與業務決策。現如今,AI 大模型正在以驚人的速度重構各行各業的業務流程與系統產品,一方面雲原生為大模型訓練與推理提供了資源保障,資料中台為大模型應用提供高品質語料和結構化知識;另一方面在大模型全面“智能湧現”能力的驅動下,將傳統偏零散化的資料能力進一步體系化和智能化,加快 BI+AI 的融合,實現從“洞見”到“決策”,推動企業加速走向“雲數智一體化”的終極形態,最終為客戶帶來更為全新的產品服務體驗。大模型發展的趨勢趨勢一:“Cloud+AI” 大模型與雲的結合日益緊密在資訊技術領域,無疑地,雲端運算和人工智慧(AI)大模型的快速發展正日益成為推動現代社會進步的兩大驅動力。特別是在中國和美國,這兩種技術不僅誕生並蓬勃發展,還持續引領著全球技術革命的浪潮。隨著時間的推移,大模型與雲端運算的結合日益緊密,這種融合在推動著科技界走向新的里程碑。首先,觀察全球技術發展格局可以發現,中國和美國無疑是雲技術和 AI 大模型誕生與創新的兩大中心。這兩個國家不僅擁有領先的技術研發實力,還具備廣闊的市場應用場景和成熟的產業生態,促進了雲端運算和 AI 大模型技術的飛速發展,並在全球範圍內形成了巨大的影響力。進一步而言,大模型的迭代進化主要發生在雲端。這是因為雲端運算提供了高度可擴展的計算資源,使得研究人員和開發者能夠在無需自建龐大物理基礎設施的情況下,進行模型的訓練和部署。雲平台上的彈性資源和高效管理工具為大模型的開發和最佳化提供了理想的環境,極大地加速了 AI 大模型的迭代周期,使得模型能夠更快地進化和最佳化,更好地適應各種複雜的應用需求。而且,大模型所遵循的規模定律(Scaling Law)規模定律正重塑著算力基礎設施。隨著模型規模的不斷擴大,其對計算資源的需求也呈指數級增長,這一現象催生了對更高性能、更高效率算力基礎設施的需求。雲端運算平台通過部署先進的硬體技術、最佳化計算資源分配和加強資料處理能力來應對這一需求,進而推動了算力基礎設施的快速進化。這種進化不僅滿足了當前大模型對算力的高需求,也為未來 AI 技術的持續創新和應用提供了堅實的支撐。大模型與雲端運算的緊密結合,不僅體現在中國和美國這兩個技術強國的快速發展上,更在於雲端成為大模型迭代進化的主戰場,以及大模型對算力基礎設施的重新塑形。這種趨勢預示著,未來科技的進步將在這樣的融合與互動中繼續加速,推動人類社會進入一個全新的智能時代。趨勢二:“AI Everywhere” 大模型無處不在,成為企業數位化標配在當今的數位化時代,大模型技術以其強大的資料處理能力和智能化水平,正逐步成為企業數位化轉型的標配。其廣泛的應用不僅僅侷限於傳統的計算中心,更是與小模型、新終端以及資料中台結合,共同構築起一個多元化部署與互聯互通的新生態,極大地深化了對資料資源的挖掘與運用能力。首先,大模型與小模型的結合體現了模型部署的多元化。大模型因其強大的學習和預測能力,成為許多複雜任務的首選。然而,針對一些對即時性、資源消耗有嚴格要求的場景,小模型以其輕量級、高效率的特性,更為適合。通過將大模型預訓練的強大認知能力與小模型的靈活部署結合,企業能夠更高效、更經濟地解決廣泛的業務問題,實現智能決策和操作的最佳化。接著,大模型與新終端的結合拓展了模型連結的多元化。隨著物聯網 (IoT) 的蓬勃發展,智能終端遍佈生活的每一個角落。大模型不再侷限於伺服器端的運算,而是通過雲端運算和邊緣計算下沉至各種智能終端,如智慧型手機、智能家居、自動駕駛車輛等。這種變化使得大模型的應用場景得到極大拓展,為使用者帶來更加豐富、便捷、個性化的智能服務。最後,大模型與資料中台的緊密結合,促進了圖像、音視訊、文字等資料集的多元化。資料中台作為企業資料管理和營運的核心平台,為大模型提供了豐富、高品質的資料支援。通過有效地聚合和整合企業內外的各類資料資源,大模型可以在更加多元化的資料基礎上進行訓練和最佳化,能夠處理和理解更加複雜多變的業務場景,如圖像識別、語音視訊處理、語言應用等,從而極大地提高了企業的業務處理能力和使用者互動體驗。大模型正逐步滲透到企業數位化建設的各個層面,與小模型、新終端以及資料中台等多元化的元素相結合,進一步拓寬了其應用範圍,提升了處理效率和智能水平。大模型無處不在,已經成為推動企業數位化轉型的關鍵力量。趨勢三:“AI  Native SaaS Rise” 大模型企業級市場崛起,向深度化、產業化、垂直化方向發展大模型技術的崛起已成為推動企業級市場向深度化、產業化、垂直化方向發展的關鍵動力。企業正越來越傾向於將這一技術作為核心驅動力,深入挖掘其在特定行業中的應用價值和潛力,進而實現智能化升級與業務創新。首先,大模型在企業級市場中的深度化應用成為一種不可逆轉的趨勢。它們不僅被應用於最佳化傳統的資料處理和分析流程,更在預測分析、個性化服務、自動決策制定等領域中展現出強大的能力。這種深度化應用的背後,是企業對於資料價值認知的提升以及對於操作效率和決策質量改進的需求。“小切口,大縱深”的發展策略,正加速大模型在特定行業中的垂直化和產業化落地。企業通過聚焦於行業的細分領域,利用大模型深耕特定的痛點和需求,不僅提升瞭解決方案的適配性和有效性,也推動了整個行業的智能化水平。這種策略的實施,充分顯示了大模型在解決複雜行業問題時的獨特優勢,促進了技術與行業深度融合,實現了產業升級。企業間的開放新形態,特別是在金融領域湧現的新的 Open Banking 模式,為大模型技術的應用開闢了更加廣闊的舞台。Open Banking 帶來的資料共享和 API 開放不僅有利於現有金融服務的增值,還為金融科技創新和跨行業合作打開了大門。這為大模型技術的應用和發展提供了更加廣闊的舞台和應用場景。大模型技術在企業級市場的崛起,不僅預示著企業對於資料和智能的更深層次應用和挖掘,也引領了向產業化、垂直化方向的戰略發展。趨勢四:“AI API First” 大模型功能性能力突破性增長近段時間以來,大模型正在經歷功能性能力的快速增長和重大突破,其中多模態、Agent模式以及 Assistant API 成為了推動這一處理程序的關鍵力量。這些技術革新不僅擴展了大模型在不同領域的應用範圍,還為人機互動和應用開發帶來了新的可能。多模態技術的出現和成熟拓展了大模型的廣度,讓機器能夠同時處理和理解文字、圖像、音訊等多種類型的資料,實現了對人類溝通方式的更全面理解。這標誌著 AI 從處理單一類型資料向綜合理解不同資料類型的重大進步。多模態大模型在提升資訊獲取的全面性和精準性方面展示了巨大潛力,極大地豐富了 AI 在自動化內容創作、跨媒體資訊檢索、以及增強現實等方面的應用場景。Agent 模式的崛起,成為人類與 AI 協作的一種重要方式。在這種模式下,AI 可以作為一個個體(agent),擁有自我學習和自主決策的能力,在特定的環境中根據既定的目標執行任務。這不僅表明了 AI 的工作模式正變得更加智能化和個性化,也為人類提供了強大的助手,從簡單的資料分析到複雜的決策制定,AI Agent 能夠有效地輔助人類完成各種任務,推動人機協作進入新的階段。Assistant API 的推出,為開發者提供了全新的能力,大幅降低了開發門檻。通過簡單的API 呼叫,開發者可以輕鬆地將大模型的強大功能整合到自己的應用或服務中,無需深入瞭解模型內部的複雜機理,即可搭建出智能化程度高、使用者體驗好的應用產品。這種開放的、低門檻的開發方式,不僅加速了創新應用的推出,也讓更多企業和個人能夠享受到 AI 技術帶來的紅利。趨勢五:“AI Cyber Security” 大模型更重視隱私和資料安全隨著大模型的廣泛應用,對隱私和資料安全的重視程度日益增強。企業和研究機構正在通過實施一系列措施,來加強對使用者資料的保護,確保資訊安全和隱私被妥善處理。這些措施的核心在於建構一個有效、可靠的資料管理及隱私防護框架,確保大模型安全評估體系的全面性,並解決 AI 工作的可解釋性問題。有效的資料分類分級制度成為奠定資料管理及隱私防護框架的基礎。通過對資料進行系統的分類和分級,明確不同類別資料的處理要求和安全標準,可以更加有針對性地制定保護措施。這種方法不僅有助於提升資料處理的效率和精準度,也有利於識別和保護那些最敏感和價值最高的資料,從而有效減少資料洩露和濫用的風險。建構一套全面的安全評估體系對於大模型體系至關重要。這套體系應涵蓋大模型訓練、部署、應用生命周期的各個階段,從資料的收集、儲存、使用到銷毀等,每個環節都應進行嚴格的安全審查和評估。通過定期進行安全審計、漏洞掃描和風險評估等活動,可以及時發現和修復安全漏洞,強化系統的安全防護能力,減輕外部攻擊和內部洩露的風險。隨著大模型應用到越來越多的場景,其工作的可解釋性問題越來越受到重視。大模型,特別是 transformer 的架構被認為是“黑盒”,難以解釋其決策邏輯和過程。增強 AI 工作的可解釋性不僅有助於建立使用者對 AI 決策的信任,也是確保模型公平、無偏見的關鍵。通過開發和應用新的解釋性技術和方法,讓 AI 的決策過程更加透明,可以有效提升模型的公正性和安全性,減少錯誤決策和偏差帶來的風險。 (AI雲原生智能算力架構)