#小模型
OpenAI拉響紅色警報!發佈新模型“大蒜”對戰Google
OpenAI急了,大蒜(Garlic)模型重磅登場。2025年,全球AI行業的競爭邁入白熱化階段。今年8月,GPT-5發佈後,OpenAI不僅未能延續此前ChatGPT系列帶來的“技術革命”熱潮,反而暴露了諸多深層問題,讓市場對其領先地位產生質疑。GoogleGemini 3的強勢突圍,更是讓OpenAI陷入了戰略被動。ChatGPT流量在競品發佈後較峰值下降6%,獨立使用者數也同步下降6%這家估值5000億美元的巨頭果斷拉響“紅色警報”,集中資源押注代號“大蒜(Garlic)”的新一代模型。這一命名暗藏深意:Shallotpeat(紅蔥頭)在泥炭中難以生長,而Garlic(大蒜)則能適應更複雜的生長環境。寓意著這款模型將攻克OpenAI在預訓練環節的“土壤缺陷”,在曾經的短板領域實現突破。這場以“大蒜(Garlic)”為核心的戰略反擊,不僅是OpenAI的重點突圍行動,更掀起了AI巨頭在技術和算力領域的全面對抗,行業競爭強度持續升級。大蒜(Garlic)亮劍:OpenAI聚焦預訓練短板的戰略反擊面對Gemini 3在多模態與推理任務上的強勁表現,OpenAI的“大蒜(Garlic)”並非簡單的迭代最佳化,而是一場針對性的戰略重構。此前OpenAI的“紅蔥頭(Shallotpeat)”方案因依賴資料堆砌陷入瓶頸,而“大蒜(Garlic)”模型直指預訓練階段的“土壤短板”,這正是Gemini 3實現領先的關鍵領域。為守住ChatGPT的陣地,OpenAI暫緩了廣告智能體等商業化非核心項目,將算力與人力全部傾斜給AI模型研發,展現出明確的戰略聚焦姿態。結合已知資訊,大蒜(Garlic)在技術層面實現了三大突破性升級。其一,預訓練資料量較Gemini 3提升30%,涵蓋2025年中期前的全網文字、程式碼與多模態資源。其二,採用混合稀疏啟動架構,在保持參數規模的同時,推理成本下降15%。其三,專攻程式設計與邏輯推理,在MATH資料集得分提升12%,ARC資料集提升9%,內部測試中Python程式碼生成精準率達89.7%。OpenAI對這款模型寄予厚望。聯合創始人兼CEO Sam Altman在內部備忘錄中直言,“大蒜(Garlic)是公司最具雄心的賭注”,它的使命是將ChatGPT的整體表現拉回行業領先水平。按照規劃,大蒜(Garlic)模型將於2026年初以GPT-5.2或GPT-5.5版本發佈。AI巨頭暗戰升級:技術與算力的全面對抗今年11月,Google、OpenAI及Anthropic相繼發佈最新模型——Gemini 3、GPT-5.1和Claude Opus 4.5。當前行業已形成“三足鼎立”的穩定格局。OpenAI、Google與Anthropic組成的AI三巨頭,早已跳出單一的模型性能比拚,進入技術路線與算力基建的全方位深層競爭。技術層面,三巨頭各有專攻卻形成精準對標。Google的Gemini主打“原生多模態”優勢,從設計之初就兼顧文字、圖像、音訊和視訊的理解處理,能輕鬆應對長文字分析、視訊內容總結等複雜場景,再加上自研TPU晶片的全端最佳化,讓技術落地更高效。Anthropic則劍走偏鋒,Claude系列模型聚焦企業級市場,以安全合規為核心,在程式碼處理、敏感資料保護等場景中形成壁壘,成為眾多企業的首選工具。OpenAI則依託與微軟的深度繫結,一邊打磨消費級產品的使用者體驗,一邊推進企業級服務落地,借助合作夥伴的生態資源快速補全短板。算力作為AI競爭的“命脈”,已成三巨頭砸錢爭奪的焦點。Google靠自研TPU晶片建構專屬算力體系,通過軟硬體協同降低運行成本。OpenAI聯合微軟、輝達共建超級資料中心,用巨額投入鎖定長期算力供應。Anthropic也不甘落後,一邊佈局自有資料中心,一邊與Google達成算力合作,確保研發與服務無後顧之憂。值得注意的是,這場算力競賽還面臨電力短缺的現實挑戰,巨頭們不僅要拼技術,還要解決能源供給的底層難題。AI競爭的終極意義:從技術競賽到價值創造全球AI格局的動態演變,推動著行業從“技術參數競賽”走向“實際價值創造”。對於普通使用者而言,競爭帶來的是更強大、更實用的AI工具。對於企業來說,AI不再是錦上添花的“炫技工具”,而是降本增效、創新商業模式的核心引擎。隨著全球AI治理框架逐步完善,技術競爭將更加規範,而那些既能堅持創新,又能兼顧安全與倫理的企業,終將在這場長跑中脫穎而出。2025年的AI競爭,不是終局,而是新篇章的開始。與其糾結於“誰將贏得這場戰爭”,不如擁抱AI帶來的變革。真正的勝利者,永遠是那些善於利用技術創造價值的個人與企業。 (創新觀察局)
“木頭姐”的ARK公開Space X“估值模型”:2030年A,2.5兆美元!
近期SpaceX估值因市場樂觀情緒被推高至8000億美元,ARK模型則給出更長遠預測:其2030年估值或達2.5兆美元,核心邏輯在於“飛輪效應”——星鏈現金流驅動星艦迭代以支援火星計畫,但這一目標高度依賴於星艦快速復用等關鍵技術能否實現。近期,埃隆·馬斯克旗下的太空探索技術公司SpaceX再度成為全球資本市場的焦點,SpaceX正以8000億美元的估值進行二級市場股份出售,其估值動態與未來前景引發了持續熱議。這一數字意味著,若交易達成,其估值將較短短7個月前(約4000億美元)實現翻倍,並一舉超越OpenAI,成為美國市值最高的私營公司。同時,公司管理層正評估於2026年進行首次公開募股(IPO) 的可能性,為這家成立近25年的巨頭指明了潛在的上市路徑。市場的狂熱並非憑空而來。回溯至2025年6月10日,知名投資人、“馬斯克長期支持者”“木頭姐”(Cathie Wood)旗下的ARK投資管理公司就發佈了一份開源估值模型報告,預測SpaceX的企業價值到2030年有望達到約2.5兆美元。這一預測意味著,若以公司2024年12月上一輪融資時約3500億美元的估值水平為起點,投資者的復合年回報率將高達約38%。根據ARK採用的蒙特卡洛模擬分析,模型同時勾勒出更廣闊的可能性:在樂觀情境下(75百分位),估值可達約3.1兆美元;而在悲觀情境下(25百分位),估值約為1.7兆美元。該研究也坦承,儘管預測基於包含17個關鍵變數的一百萬次模擬運行,但其結果高度依賴於“星艦”的快速復用能力、“柯博文”人形機器人等核心假設的實現。然而,ARK報告更深層的意義在於,它系統性地拆解了支撐SpaceX宏大願景的“飛輪”邏輯——即“星鏈”業務產生的巨額現金流,如何反哺“星艦”技術的迭代,並最終為火星殖民計畫奠基。這份開源模型,為市場理解SpaceX從一家航天公司向“多行星物種”基礎設施建造者的蛻變,提供了一個至關重要的長期分析框架。因此,從年中ARK的遠期藍圖,到年末市場的即時熱望,SpaceX的故事始終圍繞著一個核心展開:其顛覆性的技術突破與商業化處理程序,正持續重塑人們對這家公司乃至整個航天產業價值空間的想像。以下是ARK報告原文:與 Mach33 合作開發後,ARK 的開源 SpaceX 模型預計在 2030 年的預期企業價值將達到約 2.5 兆美元,從其 2024 年 12 月最後一輪融資(3500 億美元)開始,年復合回報率約為 38%。我們的牛市和熊市預測分別對應於 75 百分位和 25 百分位的蒙特卡羅模擬結果,分別為約 3.1 兆美元和約 1.7 兆美元,如下所示。資料來源:ARK Investment Management LLC,2025。為了便於讀者理解,本文將“預期”(或“基準”)、“熊市”和“牛市”情景分別列示,以闡明我們對2030年估值的預期。在方法論上,我們通過對蒙特卡羅模型生成的100萬次模擬結果取平均值來得出基準估值。熊市和牛市情景分別對應第25和第75百分位數值。預測本身具有侷限性,不能作為投資決策的依據,其基於我們的模型,反映了我們的偏好以及對公司的長期積極看法。我們的開源模型包含 17 個關鍵的獨立輸入,用於模擬 SpaceX 的一系列潛在發展成果,包括火星探測計畫及其在 2030 年和 2040 年的企業價值,如下所示。註:地球企業價值(EV)按我們預測的 EBITDA 計算。乘以 18 倍 EBITDA 與 EV 比率,根據斯特恩的說法,這與航空航天和國防公司的行業平均水平一致。火星企業價值反映了指定用於火星開發的累計現金加上SpaceX在火星上建造的基礎設施的帳面價值。資料來源:ARK Investment Management LLC和Mach33,2025年。本分析使用了截至2025年5月29日的一系列外部資料,如有需要可提供這些資料。本分析僅供參考,不應被視為投資建議或買賣或持有任何特定證券的推薦。預測本身具有侷限性,不能作為投資決策的依據,並且是基於我們反映自身偏好和對公司長期積極看法的模型建構的。資料來源:ARK Investment Management LLC 和 Mach33,2025 年。本分析基於截至 2025 年 5 月 29 日的一系列外部資料來源,如有需要可提供完整資料。本分析僅供參考,不應被視為投資建議或買賣或持有任何特定證券的推薦。預測本身存在侷限性,不能作為投資決策的依據,且基於我們自身的模型,反映了我們對公司的長期積極看法。我們將在以下七個部分詳細介紹我們的模型:模型邏輯潛在市場規模(TAM)和單位經濟效益衛星性能星艦與萊特定律火星遊戲計畫模型及其假設的風險和侷限性結論模型邏輯從分析角度看,該模型運作如同一個具有自我強化勢頭的飛輪,如下圖所示:從現金開始,SpaceX製造火箭和衛星,創造軌道頻寬,獲取星鏈使用者,並再投資產生的現金。隨著循環持續,資金逐步流向火星開發,直至星鏈星座部署完成。資料來源:ARK Investment Management LLC與Mach33,2025年。僅作說明用途。預測本身存在固有侷限性,不可作為投資決策依據,且基於反映我們自身偏見及對公司長期樂觀看法的模型建構。星鏈星座完成後,我們假設SpaceX將維持星座營運,然後加大火星投資。每艘前往火星的火箭都搭載Optimus人形機器人和材料的組合。假設Optimus生產力隨時間提高且成本下降,SpaceX將建立其火星"帳面價值",如下所示。資料來源:ARK Investment Management LLC與Mach33,2025年。僅作說明用途。預測本身存在固有侷限性,不可作為投資決策依據,且基於反映我們自身偏見及對公司長期樂觀看法的模型建構。潛在市場規模(TAM)和單位經濟效益我們的自上而下開源衛星寬頻收入需求模型(連結)根據可用頻寬、可覆蓋人口數量以及各國可接受的寬頻價格和速度來分配SpaceX的收入。蒙特卡洛模擬表明,其頻寬平均在約1.3億吉位元每秒(Gbps)達到平台期,超出此範圍後增加頻寬將不經濟。盈虧平衡點出現在每月每兆位元每秒(Mbps)約0.20美元,比目前美國平均水平低約75%,如下所示。註:美國平均價格僅供參考;每月每Mbps邊際收入(紫線)為基於我們自上而下模型的全球數值。資料來源:ARK Investment Management LLC與Mach33,2025年。本分析使用了截至2025年5月29日的一系列外部資料來源,可應要求提供。本文僅提供資訊,不應視為投資建議或購買、出售或持有任何特定證券的推薦。預測本身存在固有侷限性,不可作為投資決策依據,且基於反映我們自身偏見及對公司長期樂觀看法的模型建構。根據我們的基準情景,星鏈星座約在2035年完成後,ARK研究顯示SpaceX可能產生約3000億美元的年收入,約佔全球通訊總支出的15%,如下所示。資料來源:ARK Investment Management LLC與Mach33,2025年,基於世界銀行和高德納截至2025年5月29日的資料。本文僅提供資訊,不應視為投資建議或購買、出售或持有任何特定證券的推薦。預測本身存在固有侷限性,不可作為投資決策依據,且基於反映我們自身偏見及對公司長期樂觀看法的模型建構。仔細觀察蒙特卡洛模擬中的邊際成本可以發現,隨著星艦可重用性提高,衛星佔總邊際成本的比例隨時間從約30%上升至約90%,如下所示。資料來源:ARK Investment Management LLC與Mach33,2025年。本分析使用了截至2025年5月29日的一系列外部資料來源,可應要求提供。本文僅提供資訊,不應視為投資建議或購買、出售或持有任何特定證券的推薦。預測本身存在固有侷限性,不可作為投資決策依據,且基於反映我們自身偏見及對公司長期樂觀看法的模型建構。因此,以Gbps/千克衡量的衛星性能成為模型中最敏感的輸入變數,影響收入生成和資本支出。衛星性能對頻寬部署的效率和成本至關重要,也是決定SpaceX完成星鏈星座建設速度以及將資本重點轉向火星目標的關鍵。衛星性能從V1到V2 Mini Optimized,星鏈衛星性能一直遵循萊特定律的學習曲線。SpaceX已向美國聯邦通訊委員會提交了關於下一代衛星的檔案,質量約2000千克,並在另一份關於未來衛星的披露中提及1Tbps頻寬。如果這些規格適用於同一顆衛星,性能躍升將是巨大的,如下圖中紅點和黃點所示。然而,我們的研究表明,這兩份披露可能指向不同的衛星。若是如此,1Tbps衛星將與萊特定律保持一致,如下圖中綠點所示。資料來源:ARK Investment Management LLC,2025年,基於SpaceX截至2025年5月29日的資料。本文僅提供資訊,不應視為投資建議或購買、出售或持有任何特定證券的推薦。預測本身存在固有侷限性。星艦與萊特定律星艦是多行星生活的核心。儘管前期資本成本高,但星艦的周轉時間和可重用性對其營運影響至關重要。隨著星艦可重用性不斷提高,更少的飛行器和更頻繁的發射周期應能輸送相同的上行質量。基於獵鷹9號資料,萊特定律表明,每次軌道上行質量累計翻倍,星艦的周轉時間將以約27%的恆定速率下降,如下所示。資料來源:ARK Investment Management LLC,2025年,基於SpaceX截至2025年5月29日的資料。本文僅提供資訊,不應視為投資建議或購買、出售或持有任何特定證券的推薦。我們認為,最小化火箭周轉時間和提高可重用性對於維持SpaceX星座的經濟可行性以及推進其火星雄心至關重要。因此,我們的模型顯示火箭可重用性隨著累計上行質量同步提高,如下所示。註:根據模型,即使實現快速可重用,星艦的可重用元件也永遠不會達到100%,因為每次發射總會產生可變成本,例如燃料。資料來源:ARK Investment Management LLC與Mach33,2025年。本分析使用了截至2025年5月29日的一系列外部資料來源,可應要求提供。本文僅提供資訊,不應視為投資建議或購買、出售或持有任何特定證券的推薦。預測本身存在固有侷限性,不可作為投資決策依據,且基於反映我們自身偏見及對公司長期樂觀看法的模型建構。火星規劃馬斯克創立SpaceX的目標是實現多行星生活,特別是借助其其他公司的力量使人類能夠移居火星。我們認為,埃隆一直在設計Optimus機器人和Boring Company裝置,為挑戰性的外星環境建造基礎設施,以支援火星殖民。根據我們的研究,火星在SpaceX企業價值中的佔比將隨時間增長,如下所示。然而,儘管與火星相關的資本改進將計入SpaceX的資產負債表,但其相關現金流將比星鏈的現金流更具投機性。資料來源:ARK Investment Management LLC與Mach33,2025年。本分析使用了截至2025年5月29日的一系列外部資料來源,可應要求提供。本文僅提供資訊,不應視為投資建議或購買、出售或持有任何特定證券的推薦。預測本身存在固有侷限性,不可作為投資決策依據,且基於反映我們自身偏見及對公司長期樂觀看法的模型建構。因此,我們的模型假設,在星鏈星座完成前,SpaceX僅將一小部分預算用於火星。一旦達到該里程碑,SpaceX可能會將其星鏈資源轉向火星,如下所示。鑑於殖民火星的規模和長期目標,投資者在相當長的時間內可能無法獲得太多資本回報。儘管火星活動可能降低服務地球衛星市場的成本並為小行星採礦鋪平道路,但這些機會超出了本預測的範圍。資料來源:ARK Investment Management LLC與Mach33,2025年。本分析使用了截至2025年5月29日的一系列外部資料來源,可應要求提供。本文僅提供資訊,不應視為投資建議或購買、出售或持有任何特定證券的推薦。預測本身存在固有侷限性,不可作為投資決策依據,且基於反映我們自身偏見及對公司長期樂觀看法的模型建構。我們的蒙特卡洛模擬假設星艦將搭載經過火星改造的Optimus機器人(Optimi)組合,其數量隨時間增長至數百萬,如下所示。根據模型,Optimi將建造基礎設施以支援永久殖民地,其生產力隨時間提高。支援早期人類居住的有效載荷可能相當複雜。我們的合作方Mach33分析了早期火星有效載荷的潛在成本(連結)。在早期,火星上的人類有效載荷對SpaceX帳面價值的貢獻可能不大。資料來源:ARK Investment Management LLC與Mach33,2025年。本分析使用了截至2025年5月29日的一系列外部資料來源,可應要求提供。本文僅提供資訊,不應視為投資建議或購買、出售或持有任何特定證券的推薦。預測本身存在固有侷限性,不可作為投資決策依據,且基於反映我們自身偏見及對公司長期樂觀看法的模型建構。模型及我們假設的風險與侷限性ARK的17個關鍵獨立變數覆蓋了我們認為SpaceX未來幾年可能出現的合理情景。意外事件,如埃隆·馬斯克突然離開公司,或自然災害或疫情,可能顯著影響這些結果。此外,太空本質上是一個具有重大執行風險的挑戰性領域。如果星艦未能實現快速可重用性,可能會嚴重影響我們為公司預測的價值。同樣,無法保證Optimus能夠在模型設定的時間表內支援基礎設施開發,並且鑑於行星際發射窗口的時間限制,延遲可能導致進度大幅滯後。最後,競爭加劇可能減少寬頻的總可定址市場,而政府支出的變化可能影響星盾的收入潛力。 (invest wallstreet)
美股財經週報 2025.12.7市場預期 FOMC 週三降息一碼,關鍵為釋出的利率點陣圖對明年降息的預測、鮑威爾記者會的立場,週二 OpenAI 可能提前發布 ChatGPT-5.2,週三盤後 Oracle、週四盤後 Broadcom 財報可能影響短線市場對 AI 敘事邏輯的看法根據 X 上流傳、未經證實的性能對比,ChatGPT-5.2 幾乎全面碾壓 Google 的 Gemini 3 Pro、Anthropic 的 Claude Sonnet 4.5 …美銀策略師 Hartnett 警告若週三鮑威爾立場偏鴿、聯準會對美國經濟抱持謹慎態度,將危及美股年底行情,因為 ...Bloomberg 報導美股百年道氏理論預告美股將繼續上漲,代表支撐美國經濟的商品和服務的卡車運輸、貨運、航空和鐵路公司的道瓊運輸指數 ...造市商 Citadel 的 Rubner 週五預計美股在年底到 2026 年初將繼續上漲,除 12 月下半月是一年中上漲機率次高的 2 週外 (圖 1-6),更多股票參與了上漲行情 ...華爾街對 2026 年美股預測出爐,美銀首席美股及量化策略師 Subramanian 認為儘管 S&P 500 獲利將成長 2 位數,但 2026 年底目標價僅為 7,100 點、距離週二收盤的 6,829 點只有 4% ...
下一個Transformer可能又被Google做出來了
如果把現在的頂尖大模型比作一個人,那它一定患有一種罕見的神經系統疾病:順行性遺忘症(Anterograde Amnesia)。這是 Google Research 研究員、最近最受關注的一篇論文《Nested Learning: The Illusion of Deep Learning Architectures》第一作者 Ali Behrouz 拋出的一個讓所有人陷入沉思的比喻。看過諾蘭的電影《記憶碎片》(Memento)的人更能理解這種絕望。這種病症的患者擁有完好的“過往記憶”(Retrograde Memory),他們記得發病前的一切,我是誰,我來自那裡,我有什麼技能。但對於發病後發生的所有事情,他們永遠無法形成“新的長期記憶”。他們只能活在短暫的“當下”,幾分鐘後,一切就會被重設。這就是現在 AI 模型的真實寫照。無論Gemini或是ChatGPT多麼博學,如果不聯網搜尋,它們都只能依靠預訓練階段獲得的出廠知識(也就是“發病前”的記憶)來回答問題。而在對話窗口裡,無論你教給它多少新公司的業務邏輯,或者糾正了它多少次程式碼錯誤,這些資訊都只停留在短暫的上下文窗口裡。一旦窗口關閉,或者視訊記憶體被重設,它就像金魚一樣,把剛才發生的一切忘得乾乾淨淨 。下一次見面,它依然是那個出廠時的它,絲毫沒有因為與你的互動而變得更聰明一點。為什麼擁有超級算力的 AI,卻治不好這個健忘症?長期以來,行業有一種二元對立的看法,認為 AI 的“架構”(Architecture)和“最佳化器”(Optimizer)是兩個截然不同的物種。架構是骨架(如 Transformer),它是靜態的,出廠即凍結,負責“推理”。“最佳化器”是雕刻刀(如 Adam、SGD),它是動態的,只在工廠裡用來訓練模型,出廠後就被沒收了。我們習慣了把 AI 當作一個靜態產品,訓練好了,打包發佈,使用者只管用。但在 Google 最新發佈的 52 頁硬核論文《Nested Learning: The Illusion of Deep Learning Architectures》(巢狀學習:深度學習架構的幻覺)中,研究團隊試圖告訴我們,這其實是一種幻覺,是我們人為製造的自我設限。如果架構和最佳化器本質上是同一個東西呢?如果並沒有所謂的“訓練階段”和“推理階段”之分,一切都只是不同頻率的“記憶壓縮”過程呢?基於這個大膽的假設,Google 團隊提出了一個名為 HOPE 的新框架。他們並沒有簡單地堆砌參數,而是試圖從底層邏輯上重構 AI 的“大腦結構”,讓它不再是一個出廠即固化的工具,而是在每一次互動中都能微調自己、擁有“快慢記憶系統”的動態生命體。而這篇論文也被不少人稱為“Attention Is All You Need V2”,這篇論文提出的Transformer 架構成就了今天大模型的火熱,而HOPE讓人們期待它成為下一個Transformer 等級的創新。Ali Behrouz 在 NeurIPS 2025 現場講解Nested Learning。拆解“幻覺”:被遺忘的中間地帶要治好“健忘症”,我們首先得看看現在的 AI 大腦裡到底裝了什麼。在 Ali Behrouz 的解構下,目前的 Transformer 架構呈現出一種極端的“精神分裂”狀態。如果不使用複雜的數學術語,我們可以把它的內部元件看作兩個極端:一個是“極快”的 Attention(注意力機制)。它時刻處於亢奮狀態,對你輸入的每一個字(Token)都進行瞬時的計算和響應。它的更新頻率幾乎是無限的,這讓模型擁有了所謂的上下文學習能力(In-Context Learning),你剛說的話,它馬上就能用。另一個是“極慢”的 MLP(前饋神經網路)。它是模型的長期記憶庫,承載了絕大多數參數。但它的更新頻率是 0。這部分像一塊凍結的硬碟,除非你耗費巨資進行全量微調(Fine-tuning),否則它永遠不會改變。在這兩者之間,存在著一個巨大的真空地帶。這就是“幻覺”的根源。人類的大腦並不是這樣工作的。我們的記憶是一個連續的頻譜,我們有幾秒鐘的感官記憶,有幾小時的工作記憶,也有幾天甚至幾年的長期記憶。我們的腦突觸並不是非黑即白,而是以各種不同的頻率在不斷微調。為了填補這個真空,Google 團隊提出了 Nested Learning(巢狀學習) 的概念。我們可以把它想像成一套精密咬合的齒輪系統”:最外層的小齒輪轉得飛快(處理當前的對話);中間層的齒輪轉得稍慢(記住過去幾小時或幾天的任務);最裡層的大齒輪轉得極慢(沉澱世界觀和基礎知識)。為了證明這種統一性在生物學上的合理性,他甚至在論文中引用了一個非常硬核的神經科學案例,半球切除術(Hemispherectomy) 。醫學發現,即使切掉人類的一半大腦,通常是為了治療嚴重癲癇,剩下的一半腦組織也能通過重組資源,接管幾乎所有功能,人依然能正常生活。這說明大腦並沒有什麼“專門負責 Attention 的模組”或“專門負責 MLP 的模組”,神經組織是通用的、可復用的。同樣的道理,AI 的“架構”和“最佳化器”本質上也是同一種東西,只是處於不同的巢狀層級:傳統的模型記憶的是“資料”(Token);最佳化器(如 Adam)記憶的是“梯度”(Gradient)。即“我上次在這個地方犯了錯,下次要修正” 。既然都是在“記憶資訊”並“更新狀態”,為什麼我們要把它們人為地割裂開來?也許我們不需要在這個二元對立的框架裡修修補補,可以直接設計一個全頻率覆蓋的動態系統。HOPE 的三層設計基於 Nested Learning 的理論,Google 團隊交出了一份具體的工程答卷,還起了一個充滿寓意的名字:HOPE (High-order OPtimization and Expressivity)。如果說傳統的 Transformer 是一個只有短期記憶的“單核處理器”,那麼 HOPE 更像是一個符合神經科學原理的“雙重記憶大腦”。它通過兩個元件,復刻了類似生物大腦中海馬體(Hippocampus)與大腦皮層(Cortex)的協作機制 。1. 快系統:像海馬體一樣敏銳的 Titans在 HOPE 的最前端,是處理即時資訊的“快系統”。這裡 Google 使用了論文一作 Ali Behrouz 之前的另一項成名作Titans。你可以把 Titans 理解為一種“超級 RNN”。它就像人類靈活的海馬體,負責快速捕捉和編碼當下的新知。傳統的 AI 模型在處理新資訊時是被動的,但 HOPE 裡的 Titans 模組具有極強的“主觀能動性”,它是 Self-Modifying(自我修改) 的。它不僅是在讀取資料,更是在根據當前的上下文,即時生成自己這一步學習所需要的 Key、Value,甚至自己決定這一次記憶的 Learning Rate(學習率) 。這意味著,它能敏銳地判斷眼前資訊的重要性,快速形成短期記憶。2. 慢系統:像皮層一樣厚重的 CMS這是整個架構中最具顛覆性的設計。HOPE 引入了 Continuum Memory System (連續記憶系統,CMS)。CMS 就像是厚重的大腦皮層,負責將經過篩選的知識長久地刻印在神經元中。Google 將人腦電波的頻率機制引入了 AI 架構設計,建構了不同更新頻率的層級在 CMS 中,模型內部的 MLP(前饋網路)不再是鐵板一塊,而是被切分成了不同的層級,就像不同轉速的齒輪:高頻層: 可能每處理幾百個字就更新一次,用於捕捉剛才對話裡的新定義。中頻層: 可能每處理幾萬字更新一次,用於適應一個新的項目背景。低頻層: 幾乎不更新,用於穩固語言的語法和常識 。左側的 HOPE 架構擁有豐富的中間層級這種設計避免了災難性遺忘。當新知識湧入時,它會被優先儲存在高頻層,而不會去驚擾低頻層裡的舊知識。隨著時間的推移,真正重要的資訊才會像沙漏裡的沙子一樣,慢慢沉澱到深層。3. 最佳化器也有了“記憶”Google 的激進之處在於,他們不僅改造了大腦(架構),還改造了老師(最佳化器)。為了配合這就這套複雜的系統,他們設計了一個名為 M3 (Multi-scale Momentum Muon) 的新最佳化器。既然模型分了層,最佳化器為什麼不能分層?普通的 Adam 最佳化器只看眼前的梯度(Local Structure),容易陷入短視。而 M3 最佳化器本身也被設計成了巢狀結構,它有一層“快動量”負責看腳下的路,還有一層“慢動量”負責看遠處的山脈(全域 Loss Landscape)。這意味著,連負責訓練的演算法本身,都擁有了更深遠的記憶力。M3 最佳化器在 ImageNet 訓練任務中,展現出了更快的收斂速度和更低的 Loss實驗資料顯示,這種設計在 ImageNet 和大語言模型訓練上,不僅收斂更快,而且最終效果更好。4. 給工程師的“後悔藥”對於工業界的開發者來說,HOPE 最迷人的地方可能不是從頭訓練一個新模型,而是它提供了一種“原地改造”的可能性。Ali Behrouz 在分享中提到了一個名為 Ad-hoc Level Stacking 的技巧,你不需要拋棄手裡現有的 Llama 或 Qwen 模型。你可以直接拿來一個預訓練好的模型,人為地將它的不同層指定為不同的“更新頻率”,把淺層設為高頻,深層設為低頻 。這就像是給一輛已經出廠的舊車,通過刷新韌體就解鎖了自動駕駛功能。這一特性,讓 Nested Learning 成為了一個工程方案。從“靜態產品”到“動態生命”我們把視角從程式碼行中抽離出來,會發現 Nested Learning 真正的野心,不在於刷榜,而在於試圖完成一次 AI 領域的範式轉移。在 NeurIPS 的分享最後,作者提出了一個發人深省的觀點,“深度(Depth)也許不再是唯一的答案。”過去十年,我們一直在堆疊物理層數,把神經網路做得越來越深。這種暴力美學確實帶來了湧現能力,但它也製造了一個巨大的“幻覺”,誤以為智能來源於靜態的深度。而忽略了真正的深度可能來自於巢狀的最佳化。更進一步,論文中提出了一個極其激進的定義:“預訓練本身,其實就是一種超長上下文的 In-Context Learning。”這句話消解了 AI 領域最大的邊界。在 Nested Learning 的願景裡,沒有所謂的“訓練結束”這一天。模型在與使用者互動的每一秒,都在以某種微小的頻率更新自己的突觸。它不再是一個冰冷的、出廠即固化機器,而是一個在資料流中不斷呼吸、代謝、進化的有機體。這或許才是通往 AGI更本質的道路,智能不是被灌輸的,而是在互動中生長的。當然,任何試圖顛覆範式的理論,註定會伴隨著巨大的爭議。這圍繞這篇論文討論區裡,聲音很多樣。樂觀者將其視為 "Attention Is All You Need V2"。社區對於自我修改這一概念尤為著迷。長期以來,我們一直詬病 LLM 只是“統計學的鸚鵡”,而 HOPE 讓 AI 第一次擁有了某種“元認知”能力,即學習如何學習。這種從被動擬合到主動適應的跨越,被認為是 AI 產生質變的關鍵。實用主義者則看到瞭解決災難性遺忘的曙光。如果這一架構能落地,未來的企業級 AI 將不再需要為了更新一點點業務知識而耗資百萬進行全量重訓,AI 可以在業務流中自然地學會新規章,同時不忘記舊制度。這是對降本增效是最直接的。質疑者也大有人在。比如有評論指出,論文中將 SGD(梯度下降)強行解釋為“聯想記憶”的數學證明雖然精彩,但更多依賴直覺,缺乏嚴謹的收斂性保障。更有工程師擔心,這種複雜的“巢狀最佳化”會讓調參難度呈指數級上升,畢竟,調一個 Adam 已經夠頭疼了,現在我們要同時調好幾個不同頻率的“大腦”。但無論如何,Google 這一次沒有在參數量上卷,而是在“學習的本質”上開了一槍。它用一種近乎哲學的方式提醒我們,對於一個真正的智能體來說,存在就是壓縮,活著就是學習。 (矽星人Pro)
訊飛拿下億元大單、華為聯手證交所,大模型玩家們悄悄賺瘋了?
11 月29 日,訊飛醫療中標合肥國家人工智慧應用中試基地(醫療領域基層衛生服務方向)專案軟體服務,訂單金額達 4.3 億元。據悉,該專案涉及6 個大模型採購,其中1 個為通用大模型,5 個為客制化開發的醫療領域大模型。具體而言,分別為通用認知大模型(成品軟體),醫療認知大模型(客制化開發)、醫療語音大模型(客制開發)、醫學影像大模型(客制化開發)、醫療圖文辨識大模型(客制化開發)、醫療多模態大模型(客制開發),招標限價分別為1,600 萬元、2155.557.570 萬元。根據招標公告說法,該計畫除了採購通用大模型底座,以及醫療認知、語音、影像、圖文識別、多模態等5 個國產化自主可控的千億級參數醫學垂類大模型;還將建設醫療高品質資料資源平台,採集匯聚治理不少於5PB 醫療健康行為資料,建設34 個面向醫學大模型增強的醫學知識庫、421616類型醫學知識模型個針對基層醫療疾病研究轉化資料集的醫療資料資源中心。醫學大模型,搭檔資料資源平台,可全面加速AI+ 醫療領域服務應用落地。先前的9 月29 日,科大訊飛中標金華「婺城數智未來」新型基礎建設項目,訂單金額達3.8 億元。此計畫更是涵蓋十大產業AI 落地場景,包括AI+ 教育、AI+ 公安、AI+ 人社、AI+ 招商、AI+ 產業、AI+ 醫療、AI+ 水務、AI+ 管理、AI+ 辦公、AI+ 法院。對報價文件進行細化統計,該項目的軟體部分金額(佔41%)超過硬體部分(佔38%),而這也被一些媒體視作「AI 大模型開始『賣錢』的一個重要訊號」。垂直大模型應用越來越「金貴」。無獨有偶,在科大訊飛拿下最新大單的前一天,華為與深交所聯合發佈基於華為盤古Reasoner 38B 的證券行業法規大模型:整合深交所產業法規知識體系(10 萬多條法規條文標籤資料),結合華為自研精調技術與場景化訓練能力,大模型可實現90%+ 問答精準率,並具備可擴展和即時性等特點。拿下億元大單,垂直大模型率先吃雞相較於垂直大模型,大眾無疑對經常在使用的豆包、千問、元寶、DeepSeek 等通用大模型更為熟知。然而,現階段卻是垂直大模型比一般大模型更容易賺錢。核心原因在於,垂直大模型目標明確,就是用來提升各行各業處理具體實際問題的工作效率,可以讓行業使用者用來解決老大難的「降本增效」問題,這條商業路徑不僅清晰、直接,而且可以更快、更易變現,可以看成是一類「專業技能人才」;通用大模型則是志向高遠,著力建構一個無所不知、無所不能的「類人」交流角色,積極擁抱普羅大眾的同時,卻不能赤裸裸地把賺錢當己任,可以看成是一類「廣博知識人才」。(圖源:訊飛醫療)而從內容輸出角度來看,垂直大模型更擅長解決實際問題、處理具體事務,擔當人類的助手;通用大模型更擅長啟人思考、發散創意,擔當人類的夥伴。助手是用來賺錢的,夥伴是用來陪伴的。從定位到功用,垂直大模型都比一般大模型更容易賺錢。不過,沒有通用大模型提供的底座或者說母體,垂直大模型也就成了「被動之水,無本之木」。故而可以看到,合肥剛完成招標的醫療項目,正是1 個通用認知大模型+ 5 個醫療應用大模型(不同側重)的組合。深耕垂直大模型,許多企業正在默默數錢不只科大訊飛以及華為、阿里、字節跳動、騰訊、百度等科技巨頭企業,國內垂直大模型市場早已湧進了更多派系玩家,包括垂直行業領域內的大企業,以及不少大模型新創企業,而且也都在默默賺錢。產業大類上,金融、醫療、教育、政務等企業領域或公共領域客戶,成為垂直大模型市場首批「大金主」。金融領域,由於涉及細分應用場景較多,而且能較快變現,不僅科技巨頭(例如螞蟻集團、百度等)在積極參與金融類大模型產品的研發和推廣,不少證券、銀行、保險企業也在藉“科技金融”之名參與其中。金融大模型細分應用情境中,智能投研與投顧、智慧風控與合規、 智慧行銷與客服、智慧交易與營運等,成為熱門領域。值得一提的是,DeepSeek 母公司幻方量化,就是一家‌專注於量化投資與AI 技術研發的私募機構。而在A 股,現在的量化交易金額,已經來到相當體量的規模佔比。幻方AI 深度學習訓練平台「螢火二號」(資料來源:幻方量化)對當下的大模型創業企業來說,垂直大模型也是比通用大模型更好的「賺錢養家」之道,畢竟先要活下去,才能有詩與遠方。「AI 大模型六小虎」企業中的智譜AI、零一萬物和階躍星辰,今年以來也都在聚焦垂直大模型領域,或靠B 端應用市場來加速商業變現。其中,智譜AI 除了在C 端應用市場持續刷存在感,也在發力大模型在金融、醫療、教育、政務等多個B 端垂直行業的落地,號稱有數萬合作夥伴企業。值得一提的是,今年以來,這家北京AI 獨角獸企業,還先後拿下了杭州、珠海、成都、北京、上海等全國多地國資或產業基金的戰略投資,或已拿下AI 創業團隊中的政務服務大模型代表之位。李開復創立的零一萬物,今年宣佈不再涉足兆參數以上的超大基礎模型,而是著力打通基座模型到垂直場景的“最後一公里”,並帶來了萬智企業大模型一站式平台。階躍星辰,是「AI 大模型六小虎」中目前估值規模相對靠後的一家。今年,階躍星辰開始裁減C 端產品線,聚焦AI 智能體與大模型研發。有媒體解讀為,這是階躍星辰的公司發展重心,從涵蓋C 端產品應用,收縮至面向開發者群體和B 端產業市場。通用大模型垂直化,垂直大模型加速迭代今年以來,伴隨攻勢愈加猛烈的通用大模型產品,以及持續刷屏面向C 端使用者市場的AI 智能體技術應用(註:B 端大模型市場也有大量智能體技術應用產品),垂直大模型企業和行業的焦慮感,同樣在與日俱增。不少人開始悲觀認為,垂直大模型將在不遠的將來被通用大模型徹底取代。這樣的看法並非毫無道理,但在實現處理程序表上可能並沒有那麼快。正如科大訊飛剛得標的合肥醫療大單計畫(1 個通用認知大模型+ 5 個醫療應用大模型)所展現的:在產業或企業級AI 平台應用中,通用大模型可以負責理解、認知和規劃、互動,垂直大模型可以負責執行專類的子任務,從而可以形成「一個通用大腦指揮多個專業小腦」的協作體系網路。故而,在可預見未來,不管是通用大模型,還是垂直大模型,都將有廣泛的用武之地。產業和企業級AI 應用市場,除了針對各行各業高度適配的垂直大模型,也需要通用大模型的底座和公共屬性能力。同時,聚焦垂直大模型領域的玩家,尤其新創企業,同樣在加速垂直大模型的技術和應用迭代處理程序。醫療大模型領域,除了有科大訊飛這類押注其中的大企業(甚至專門成立旗下子公司訊飛醫療),亦有不少新創企業的身影。作為較早涉足垂直大模型領域發展的新創企業,同樣也是「AI 大模型六小虎」之一,王小川於2023 年創立的百川智能,經過前兩年的探索,和最近一年的調整,於今年進一步確立了專注醫療領域AI 大模型及其應用的公司發展戰略。今年8 月,百川智能帶來全新的醫療大模型Baichuan-M2,參數量只有32B,但在各項基準測試中都超越了比自己規模大數倍的開源/閉源模型。為真實世界的醫療推理任務設計,Baichuan-M2 支援RTX4090 單卡部署——即便是中小型醫療機構,也有條件進行私人部署。今年8 月的醫療健康領域大模型評估測試集排名(資料來源:OpenAI)王小川表示,這款大模型的性能超過了OpenAI 先前剛發佈的兩個開源模型;而在閉源領域,它的能力也僅次於GPT-5。王小川對他的新目標毫不掩飾:在醫療這個垂直領域,實現對通用模型的超越。再接再厲,今年10 月,百川發表Baichuan-M2 Plus,透過首創的「六源實證推理」範式,著力提升醫療​​大模型的回答專業與可信度。具體而言,在知識收集階段,Baichuan-M2 Plus 會主動遮蔽網際網路的非專業資訊來源,只使用權威來源的醫學證據,確保回答建立在“高等級證據”之上;同時,將醫學證據分為六個層級,分別為“原始研究層”“證據綜述層”“指南規範層”“實踐知識層”“公共教育層”“反饋「六源實證推理」典範(資料來源:百川智慧)官方提供的評測結果顯示,基於這套「實證推理」範式,Baichuan-M2 Plus 的醫療回答幻覺率大幅下降,「可信度在多場景評測中達到比肩資深臨床專家的水平,同時其醫學知識運用能力也領先於人類頂尖醫師」。試想,如果將諸如此類的邏輯嚴密「實證推理」範式應用到更多「嚴肅內容產出」行業領域,例如教育等類別,是否可以帶來更多行業領域堪比「業務專家」水平的垂直大模型產品呢?垂直大模型領域玩家在持續發力技術迭代,通用大模型領域玩家也更深地涉足垂直大模型技術及應用。在深度求索剛發佈的DeepSeek V3.2 中,除了面向公眾群體的常規V3.2 版本,還提供了一個V3.2-Speciale 版本(僅支援API 服務存取)。據悉,DeepSeek-V3.2-Speciale 整合了長思考與DeepSeek-Math-V2 的定理證明能力,專注於探索模型推理邊界,並具有更強的指令、數學證明和邏輯驗證能力,其在IMO 2025、CMO 2025、ICPC World Finals 2025 及 IOI 2025、I 斬斬25成績相當於「人類選手中的第二名」。(圖源:深度求索)某種程度上來說,DeepSeek-V3.2-Speciale 何嘗不是深度求索推出的面向推理計算和定理證明領域的一項「垂直大模型」產品技術呢?垂直大模型也將在自身技術加速迭代,和通用大模型玩家更深的介入下,迎來全新的技術和產品應用發展階段。 (雷科技)
中美AI算力中盤博弈:開放與封閉之爭
近日,GoogleTPU攜Gemini3逆襲之勢大幅拓寬增量前景,Meta考慮斥資數十億美元為其買單,機構將TPU產量預期上調67%至500萬塊。基於“晶片-光交換網路-大模型-雲服務”全鏈閉環,Google智算體系重回AI賽道前沿梯隊,標誌著美式封閉壟斷路線更進一步。與此同時,以DeepSeek為代表的開源模型緊追不捨。月初,DeepSeek V3.2及其長思考增強版模型出爐,前者在性能測試中打平ChatGPT,後者直接對標閉源模型頂流Gemini。這也預示著中國開源開放路線漸入佳境,國產智算體系在應用層展現出良好的生態協同潛力。至此,中美AI產業博弈棋至中盤,“開放協同”與“封閉壟斷”對位格局愈發清晰。尤其在智算生態佈局中,兩大陣營或正醞釀著一場體系化能力的巔峰較量。從Gemini 3到TPU v7,軟硬一體閉環臻至極境毋庸置疑,GoogleTPU的突然走紅,很大程度得益於Gemini3的模型能力驗證。作為專為GoogleTensorFlow框架而生的ASIC晶片,TPU憑藉軟硬體一體化設計為其全端閉環完成奠基,同時也在上層應用高位突破時俘獲外部使用者市場,甚至一度被視為輝達GPU的最強平替。所謂“軟硬一體化”,即硬體的設計完全服務於上層的軟體和演算法需求。如Gemini 3訓練和推理過程高度適配TPU叢集,而這種定製化專用模式也在功耗能效方面展現出極高價值——TPU v5e的功耗僅為NVIDIA H100的20%-30%,TPU v7每瓦性能較前代產品翻倍增長。目前,Google通過“晶片+模型+框架+雲服務”的垂直整合,形成了一個封閉且高效的循環。一方面極大地提升了自身AI研發和應用開發效率,另一方面也在NV主流體系下裂土而治,奪得又一智算賽道主導權,Meta對TPU的採購意向則將這一體系熱度推向了高點。業內有觀點指出,從蘋果到Google,美式的垂直封閉玩法幾乎臻至極境,表現出科技巨頭為鞏固和擴張利益版圖,在產業鏈層面泛在的壟斷慾望。但從生態發展角度來看,封閉模式缺乏長期主義精神,極易導致產業長下游喪失創新活性,並形成單一主體高度集權的格局。另外,從TPU的應用場景來看,軟硬一體閉環儼然是專屬於巨頭的遊戲。某分析人士稱,Google的叢集化設計和“軟體黑盒”,需要使用者重新配置一整套異構基礎設施。如果沒有兆參數模型訓練需求,根本填不滿TPU的脈動陣列,省下的電費可能都抵消不了遷移成本。同時,由於TPU技術路線極為封閉,與主流開發環境無法相容,使用者還需要一支專業的工程團隊駕馭其XLA編譯器,重構底層程式碼。也就是說,只有像Google、Meta這種等級的企業才有資格轉向TPU路線,也只有算力規模達到一定程度才能發揮出定製化產物的能效優勢。不可否認,Google等頭部企業通過垂直整合自建閉環,在局部賽道快速實現單點突破,同時也造就了美國科技巨頭林立的蔚然氣象。但在中美AI博弈背景下,美式封閉壟斷路線憑藉先發優勢提前完成了賽道卡位,被動的追隨式趕超已很難滿足中國智算產業的發展需要。“小院高牆”之外,如何充分發揮舉國體制優勢,團結一切力量拆牆修路,成為拉近中美AI體系差距的關鍵。多元異構生態協同,開放路徑通往下一賽點相較於美式寡頭壟斷模式,中國智算產業正基於多元異構體系層層解耦,重塑開放式生態系統。從頂層設計到產業落地,“開源開放+協同創新”已然成為國產軟硬體全端共識。在政策層面,《算力基礎設施高品質發展行動計畫》提出建構佈局合理、泛在連接、靈活高效的算力網際網路,增強異構算力與網路的融合能力,實現多元異構算力跨域調度編排。並且,相關部門多次強調,鼓勵各方主體創新探索智能計算中心建設營運模式和多方協同合作機制。延伸到AI應用層,《關於深入實施“人工智慧+”行動的意見》同樣要求深化人工智慧領域高水平開放,推動技術開源可及......不難看出,國家在人工智慧和智算領域給出了截然不同的中國方案——不在封閉路線中盲目追趕封閉,要在開放格局下謀求錯位趕超。事實上,頂層設計完全基於產業現實需要。在美方科技封鎖下,中國智算產業主要面臨兩大挑戰:單卡算力性能瓶頸、算力成本高。除了在晶片、模型、基礎軟體等核心技術領域持續攻堅外,當前更有效的途徑是發展更大規模、更多元高效的智算叢集,突破AI算力瓶頸。業內調研結果顯示,國內宣佈擁有千卡規模的算力叢集不少於100個,但其中大部分是異構晶片。可以想像,假如不同硬體系統相互封閉,標準介面不統一,軟體棧互不相容,將導致難以實現智算資源的有效整合利用,更無法滿足大規模參數模型的應用需求。根據行業主流觀點,國產AI算力存在多元化、碎片化特徵,同時又具備相當的規模化優勢。當務之急並不是各自埋頭推進單一技術路線,更首要的是盡快打通“技術牆”、“生態牆”,實現產業鏈開放跨層協作,真正釋放總體算力生態潛能,從單點突破邁向整合創新。具體來看,所謂開放路線旨在基於開放的計算架構推動產業生態協同創新。比如通過制定統一的介面規範,聯動晶片、計算系統、大模型等產業鏈上下游企業共同參與生態建設,減少重複性研發和適配投入,共享技術攻關和協同創新效益。同時,隨著開放架構中的協作標準趨於統一,可以進一步打造出商品化的軟硬體技術,用以代替定製化、專有化的系統,進而降低計算產品應用成本,實現覆蓋產業全端的算力普惠。顯然,在中國式開放體系下,國產AI算力正打破GoogleTPU的泛化普及困境,將智算生態系統與各方開發者使用者廣泛連結,最終形成體系化協同戰力,更靈活高效賦能人工智慧+落地。屆時,中美AI博弈也將走出單卡競爭和單一模型比拚,全面迎來生態體系能力的終極對壘。 (伯虎財經)
Anthropic啟動IPO!CEO自曝內部算力財務模型:不確定性圓錐!回應泡沫:增長肯定放緩,舊晶片價值快速下降!規模依舊有效
我們買的算力規模,是在“即便是第 10 百分位的悲觀情景下”,大機率依然付得起帳。YOLO式下注,風險旋鈕擰的太狠了。我認為勝率會在我們這邊。幾個小時前,素有“華爾街、矽谷超級提問者”的DealBook 創始人、紐約時報首席財經記者Andrew Ross Sorkin,與 Anthropic 的 創始人 Dario Amodei 展開了一場年末對話。這次採訪背景一方面是大洋彼岸已經處於聖誕前夕,但更重要的一面是,昨天,Anthropic被曝出已經啟動IPO籌備工作,計畫最快2026年上市,估值或達3000億-3500億美元。在此之前,則是 Transformer 架構和 Scaling Law 終結的爭議,以及 Gemini 3 Pro 模型的爆火,OpenAI  內部拉響紅色警報。這些事件的接連發生,讓此前甚囂塵上的“泡沫爭議”和接下來AI模型的發展走向帶來了新一輪的不確定性。Dario在爆出了自家的算力財務模型,他們內部稱之為一個不確定性圓錐。如果我有 80% 的毛利率,我花 200 億美金買算力,可以支撐 1000 億美金收入。但問題在於,這個“不確定性圓錐”實在太寬了,很難避免在某一側犯錯。此前,Dario 就曾表示,Anthropic 計畫在 2028 年實現盈虧平衡。而對於 AGI 的實現路徑,Dario 對於 Transformer 架構依舊保持樂觀:我仍然認為是 “規模化 + 偶爾的小修小補” 就足夠了。對於業界一直擔心的GPU晶片的折舊周期,Dario 回應道:舊晶片的價值會快速下滑。我們在建模時,已經默認舊晶片價值會快速下滑,同時也假設晶片效率曲線會持續高速演進。對於自己經常發出警告這件事,Dario對美國AI監管隱隱表達了不滿:現在美國監管已經分成了兩個世界,應該讓真正最接近AI技術的人來發聲。對於自己曾說過的“90%的工作會被AI替代”言論,Dario說,那只是半句話,下半句則是——那怕 AI 完成了 90% 的工作,而不是 100%,人類的“剩餘 10%”反而會被放大 10 倍,有時候甚至需要 10 倍的人,去完成原來 100 倍產出的事情。問題不在“會不會替代”,而在“企業願不願意更多選擇創造新價值,而不是只做極致降本”。以下是這次採訪的整理內容,大家enjoy!泡沫存在:接下來速度一定會放緩 但有些公司卻在YOLO 式下注主持人(Andrew Ross Sorkin):今天下午的重頭戲從 Dario 開始。他是當今人工智慧領域最具影響力的人物之一,是 Anthropic 的聯合創始人和 CEO,這家公司以 Claude 模型聞名,是歷史上增長最快的科技公司之一,現在更是同時獲得了三大科技巨頭——亞馬遜、微軟和Google的支援。他比大多數人更早進入這個領域,早年在 BYU 做研究,後來加入Google,又成為 OpenAI 的早期成員,主導了 GPT-2 和 GPT-3 的研發。歡迎你來到現場。Dario Amodei: 謝謝邀請。今天可以聊的話題很多,包括——我們是不是正處在一個 AI 泡沫中?但我保證,我們會慢慢談到那個問題。主持人: 那我就直接問那個一開始提到的問題吧。你也承認,2014 年沒人想到 2025 年會走到今天這個程度。現在這個行業吸納的資金規模,幾乎代表了美國當前 GDP 增長的主要來源之一。我們是不是正處在某種泡沫中?是不是在過度投資?Dario: 這是一個非常複雜的問題,我必須把“技術本身”和“經濟層面”分開來看。從技術角度看,我非常堅定,我可能是最樂觀的那一類人之一。 但從經濟層面看,我確實有擔憂。即便技術真的兌現了承諾,生態裡如果有人在節奏上稍微踩錯一步,後果會非常嚴重。先說技術這部分。之所以我對技術進展並不太驚訝,是因為我和幾位後來成為聯合創始人的同事,最早系統性地總結過 AI 的“Scaling Law”——也就是只要你不斷加算力、加資料,在少量結構微調下,模型能力就會持續提升。像推理模型、測試時算力,本質上都是非常小的改動。我已經跟蹤這個趨勢 12 年了。最震撼的是:你用這樣極其簡單的方式訓練模型,它會在幾乎所有領域同步變強——程式設計、科學、生物醫藥、法律、金融、材料、製造業,這些正是整個經濟的核心價值來源。只看 Anthropic 自身,因為我們更偏企業級市場,我覺得更像一個“純粹的溫度計”。我們過去三年,收入每年 10 倍增長:2023 年從 0 到 1 億美元,2024 年從 1 億到 10 億,今年會落在 80 到 100 億之間。未來還會不會這樣漲?我不知道。但技術確實在推動價值,經濟回報也正在兌現。 它一定會放緩,但依然會非常快。所以我對“長期終局的經濟價值”是有信心的。主持人: 但問題在於,現在有公司每年要燒掉上千億美元,你們也計畫投 500 億。Sam Altman 去年的規劃數字同樣驚人。這是一次超級昂貴的下注。這個帳到底能不能算清,還是更多是一種“直覺賭注”?Dario: 這就進入我剛才說的第二部分——真正的困境來自於:“經濟價值增長速度”的不確定性,與“資料中心建設周期”的滯後性之間,存在巨大張力。 這是擺在所有公司面前的真實兩難。我認為有些參與者是在“YOLO 式下注”,把風險旋鈕擰得太狠了,對此我非常擔憂。主持人: 誰在 YOLO?Dario: 這個我不回答(笑)。但你可以換個視角想:如果你站在我這個位置,連續三年收入 10 倍增長,很自然會去問:明年會怎樣?如果你非常粗暴地外推,下一年可能是千億美元等級——我必須強調,我完全不相信這個數字。但它是數學上的上限之一。如果你從更理性的企業客戶、具體場景、銷售路徑去拆,可能是 200 億、300 億。所以我內部把它稱為一個“不確定性圓錐”——一年後是 200 億,還是 500 億,極其不確定。 我只能按最保守的一側去做規劃,但這種不確定性本身就足夠令人不安。算力財務模型 不確定性圓錐實在太寬了Dario : 還要疊加一個現實因素:資料中心建設有很長的滯後周期,通常是一到兩年。這意味著我必須在“現在”,甚至幾個月前,就決定:在 2024 年初要買多少算力,去服務 2027 年初那個收入規模下的模型。這中間存在兩個強耦合風險:第一,如果我買少了算力,我就沒法服務所有客戶,只能把他們推給競爭對手;第二,如果我買多了算力,而收入又沒跟上,我就付不起這些算力的成本,極端情況下甚至會面臨破產風險。這個“安全緩衝”本質上取決於我的利潤率。如果我有 80% 的毛利率,我花 200 億美金買算力,可以支撐 1000 億美金收入。但問題在於,這個“不確定性圓錐”實在太寬了,很難避免在某一側犯錯。Dario: 我們自認為是一家相對克制、負責的公司。因為我們主做企業市場,我覺得我們的商業模式更健康,利潤更穩,也更謹慎。但如果你換成另一種模式,比如純消費者業務,收入來源沒那麼確定、毛利也不穩定,再加上企業家本身就是那種“偏愛 YOLO、偏愛大數字”的性格,那風險旋鈕就可能被擰得非常狠。只要存在不確定性,就必然存在過度擴張的系統性風險。 我們每家公司都面臨這個問題,再加上彼此之間的競爭壓力,甚至還疊加了與威權國家“國家層面的技術競爭”,整個系統都會被推著往前走。這種風險是不可消除的,只能被管理。 但我確實認為,有些參與者並沒有管理好這種風險,而是在進行不明智的下注。主持人: 你說到這裡,其實大家心裡大概也知道你在暗指誰。你曾對投資人私下說過,Anthropic 計畫在 2028 年實現盈虧平衡;而 Sam Altman 說的是 2030 年。我暫且按他的演算法來算:他需要在兩年內從 740 億美元等級的虧損,轉為兩年後實現盈利。這個在你看來合理嗎?Dario: 說實話,我不瞭解任何其他公司的內部財務情況,也不可能評價別人。我只能回到我們自己的計算邏輯,也就是那個“圓錐式不確定性”:我們買的算力規模,是在“即便是第 10 百分位的悲觀情景下”,大機率依然付得起帳。再糟也會存在“尾部風險”,這從來不可能為零,但我們在盡力把風險控制在可承受範圍內,同時又要確保我們在競爭中不被甩開。我們在訓練和推理上都很高效,利潤結構也不錯。我認為勝率在我們這邊。主持人: 現在市場上很多人開始討論所謂的“循環交易”,以前我們管這叫“廠商融資”。尤其是輝達,以及其他一些公司,直接入股 AI 公司,而這些公司隨後又用這筆錢去買輝達的晶片,相當於形成了資金閉環。你怎麼看?Dario: 我們也做過類似的交易,只是不是某些玩家那樣的大規模操作。我不講具體案例,只講一個“標準化結構”的例子,解釋為什麼它在邏輯上成立:假設你要建 1GW 的算力規模,買晶片、建機房,總資本開支大概是 500 億美元,使用周期可能是 5 年,也就是每年攤 100 億。如果你是一家年收入 80—100 億、處在快速增長期的公司,現在就讓你一次性掏 500 億,現實中根本不可能。那怎麼辦?大型廠商站出來說:“我先投你 100 億,佔 20%,你先用這 100 億覆蓋第一年,其餘的慢慢按收入滾動支付。” 如果你已經接近 100 億年收入,那這並不是一個瘋狂的賭局。資料中心一年建成,第一年融資覆蓋,意味著你只要在兩年後做到 100 億等級收入,就能跑得通這套邏輯。從結構上看,這並不違背商業邏輯。Dario: 真正的危險只發生在一個場景:如果你一層層疊加這種結構,最後變成“到 2027 或 2028 年,我必須做到 2000 億美元年收入”,那你就一定是在過度擴張。規模,決定了一切的風險邊界。一批晶片到底能撐過幾年?舊晶片的價值會快速下滑 保守押注者會活下來主持人: 這裡還有一個關鍵變數,幾乎決定了整個行業的“投資算不算得過帳”——晶片的折舊周期。你買一批新晶片,它到底是有效四年、五年,還是八年、十年?這個假設不同,整個行業的財務模型就完全不同。你怎麼看?Dario: 我們在內部做的是非常保守的假設。嚴格來說,並不存在一個固定、統一的“折舊年限”。晶片本身可以跑很多年,真正的問題不是“它還能不能用”,而是有沒有更快、更便宜的新晶片出現,並且你的競爭對手已經在用它了。 一旦出現這種情況,老晶片的相對價值就會迅速下降,甚至一年之內就會發生。現在不止是輝達,各家都在推新一代 TPU、GPU。我們在建模時,已經默認舊晶片價值會快速下滑,同時也假設晶片效率曲線會持續高速演進。我們在 Anthropic 的所有假設,基本都站在極端保守的一側。 結果是:在“幾乎所有世界線”裡,我們都可以活下來。當然,極端尾部世界線一定存在,但我只能為我們負責,不能替別人背書。我也完全可以想像,有些公司正在“自我欺騙”,建立在過度樂觀假設之上。主持人: 所以,市場上真正理性克制的,其實就你們兩家?Dario: 我不知道你在指誰(笑)。我真的不知道。ps:這裡小編猜測,所謂市場上真正保持克制的這兩家,一家自然是Anthropic,另一家90%的機率是指的 Amazon。(同樣瞄準的是企業市場,而且沒有過度囤卡。用排除法的話,只剩下 Amazon 和 Apple 了。然而Apple 算是大模型玩家嗎???不大會。)不卷C端!GoogleGemini強歸強,Claude清風拂山崗主持人: 那我們換個話題,聊聊模型本身的競爭格局。就在過去一周,矽谷內部幾乎“情緒失控”,因為某位你我都認識的人發佈了新模型,引發了巨大震動。Saraparay 去年也來過這裡,現在大家突然意識到,原本被認為“資料天生佔優、理應贏麻了”的 Google,可能真的開始發力了。 Sam Altman 內部甚至發了“紅色警報”郵件,讓所有人回到工位衝刺下一輪突破。在你看來,現在這些模型的真實排序是怎樣的?以及,這種“當下時刻的領先”,到底有多重要?Dario : 這是少有的幾個時刻之一,我真心覺得 Anthropic 選擇了一條不同的道路,是一件值得慶幸的事。 我們走的是企業市場路線。你剛剛提到的另外兩位玩家,本質上都還是以 消費者市場為核心,雖然也在做企業業務,但主戰場仍在 C 端。這也是為什麼會出現“Code Red”那種等級的內卷——Google 要守住搜尋壟斷,而 OpenAI 的核心陣地也在消費者端,這兩家是在正面肉搏。對他們而言,企業只是“第二戰場”。而我們過去幾年一直在 圍繞企業真實需求反向打磨模型能力,最先爆發的是程式設計,現在已經開始延伸到金融、生物醫藥、零售、能源、製造等領域。模型戰爭當然重要,比如我們上周剛發佈的 Opus 4.5,在程式設計能力上幾乎被公認為目前行業最強模型。但我們真正走的是“不同維度”的競爭路線,所以對這種你來我往的短期廝殺,依賴反而更低。某種意義上,我們處在一個相對“優越”的位置:可以持續增長、持續迭代模型,而不用天天發“紅色警報”。企業級AI很挑模型,遷移成本很高 專精能力會和AGI長期並存主持人: 那這些公司真正的“護城河”到底是什麼?如果有一天真的到了 AGI 等級,所有模型是不是都會趨同?誰還會在乎你用的是那家?是“記憶能力”嗎?還是人格差異?很多人現在就是那個新就用那個。Dario: 我只能從企業側講我的結論。為企業打造的模型,和為消費者打造的模型,在“性格”和“能力結構”上差異非常大。 企業模型更少追求“黏性與娛樂感”,更強調編碼能力、高階智力活動、科學推理能力。我也不認同“只要到了 AGI,所有東西都會收斂成一個形態”。你看看在座的所有人,都具備“通用智能”,但我們沒有變成同一種人。專精能力會和通用智能長期並存。 再加上企業側的現實因素:公司會形成使用習慣,會和某個模型建立長期關係。即便是在 API 這種“賣裸模型”的業務裡,遷移成本也極高。下遊客戶適應了某個模型的“脾氣”,提示詞、互動方式都深度繫結,切換代價很大。這意味著企業級 AI 具備長期穩定的商業粘性。通往AGI,“規模化+小修小補”足夠了主持人: 一個純技術問題:你認為,現在這種基於 Transformer 的架構,加上純算力規模化,本身就足以通向 AGI 嗎?還是說還缺“某個關鍵成分”?Dario: 我仍然認為是 “規模化 + 偶爾的小修小補” 就足夠了。這些修改之小,小到外界可能根本不會注意到,只是實驗室裡的技術迭代。我已經觀察這些 scaling laws 超過 10 年了。主持人: 那你的時間判斷呢?AGI 在什麼時候?Dario: 我其實不太喜歡“AGI”“超人工智慧”這些詞,因為沒有清晰定義。它更像 晶片摩爾定律式的指數曲線——模型會在所有維度持續變強:新模型比上一代程式設計更強、科研更強,現在已經常態化拿下高中數學競賽,正在沖大學數學,甚至開始 首次產生“全新數學發現”。Anthropic 內部已經有人對我說:“我現在已經不寫程式碼了,我只是讓 Claude Code 先打草稿,我負責修改。” 這種狀態,在過去從未真正出現過。 這個節奏只會繼續加快,沒有所謂“質變奇點”,只是能力持續外推,模型的智力不斷抬升,收入曲線不斷往後面加零。美國AI監管已經分成了兩個世界主持人: 你在(美)監管、就業衝擊這些問題上也相當激進。白宮的 David Sacks 曾公開指控 Anthropic 正在通過“製造恐慌”推動監管,從而進行“高階版的監管俘獲”,並且已經傷害了創業生態。你怎麼回應?Dario: 我還是那句話:不要把這場討論變成對個人或單一機構的攻擊。 我從 2016 年起就開始公開寫 AI 風險和治理的論文,那時候 Anthropic 這個公司根本還不存在,更談不上什麼“監管俘獲”。而且我們支援的幾乎所有監管法案,都明確為中小型創業公司設立了豁免條款。 比如我們支援的 SB53 法案,年營收低於 5 億美元的公司根本不在適用範圍內。 我們在這件事上非常謹慎。真正該討論的,不是立場對立,而是具體政策是否合理。Dario: 你可以拋出各種指控,但這些說法和現實完全不符,無論是和我們實際支援過的法律條文,還是和真實情況,都對不上。現在其實存在兩個世界:一邊是 Andreessen Horowitz 等人,他們支援一個超級政治行動委員會;你們這邊也在建構另一個超級 PAC,試圖用完全不同的方式去影響這個行業的監管。問題是,為什麼?你們看到了什麼,是他們沒有看到的?我還是想把討論維持在政策層面。我對這項技術的看法是:我能理解一些人的樂觀來源,但我確實擔心,有一部分人把 AI 視為類似網際網路、通訊技術那樣的技術革命,覺得市場自然會解決一切問題。放在過去那些技術浪潮裡,這種看法也許是成立的。但真正最接近 AI 技術的人,並不這麼看。如果你去問那些真正做 AI 研究、真正建構模型的人——不是投資某些 AI 應用的投資人,也不是自以為懂 AI 的技術評論員——你會發現,他們一方面對潛力感到興奮,另一方面也非常擔憂。他們擔心國家安全風險,擔心模型對齊問題,擔心 AI 對經濟結構的衝擊。 舉個例子,有人曾提出要在十年內凍結所有監管,或者凍結州一級監管,而聯邦層面又沒有統一框架。這種提案去年夏天就出現過,上周又嘗試了一次,結果再次失敗,因為它極不受歡迎。連普通大眾都清楚,這是一個全新而且極具力量的技術。我可能是對 AI 正面效果最樂觀的那一類人之一。 我寫過一整篇文章《Machines of Loving Grace》,我在裡面說,AI 甚至可能把人類的壽命延長到 150 歲。再往後推,當資料中心裡真的出現“天才之國”,我們將擁有一個比任何人類都更快做出生物學發現的虛擬生物學家;它可能把經濟增速推到 5% 甚至 10%。老實說,我對這項技術的樂觀程度,可能比很多自稱“技術布道者”的人還要高。 但一切如此強大的東西,都不可能沒有巨大的副作用。作為一個社會,我們必須提前思考這些代價。 如果你說未來十年都不去監管這種技術,這就好比你在高速路上開車,然後決定把方向盤拆掉,因為“未來十年我都不需要轉向”——這在邏輯上是說不通的。老闆們不應該只做極致降本,而忽視創造新價值 90%的工作被AI替代,但剩下的10%會被放大10倍主持人: 那我們就談談其中一個最具體、最現實的風險——就業。除了駭客攻擊這些問題,你最近在《60 Minutes》裡也談到過工作崗位。我想知道的不是“有沒有可能”,而是,如果真的出現大量入門級崗位被替代,你認為應該怎麼應對?Dario: 我之所以不斷髮出這些警告,並不是為了當什麼末日預言家,而是因為“發出警告本身,就是解決問題的第一步”。如果我們不提醒自己風險的存在,就相當於在雷區裡閉著眼睛往前走;如果我們看見了地雷,就可以繞開它。我這段時間在認真思考這些問題,在 Anthropic 內部也是一樣。現在 Claude 已經開始為我們寫大量程式碼,我們也在親身經歷“工作如何發生變化”。我把應對方式分成三個層級,從短期到長期,也對應從企業就能推動,到需要整個社會投入更多資源。第一層,是企業自身與客戶層面的調整。 每一家客戶都會面臨同樣的權衡,這不是簡單的“取代或不取代”。一部分場景中,AI 會直接完成原本由人類完成的工作,比如保險理賠流程、KYC 全流程自動化,這些都可以端到端由 AI 完成。結果就是:更高效率、更低成本、更少人力。但還有另一種路徑——那怕 AI 完成了 90% 的工作,而不是 100%,人類的“剩餘 10%”反而會被放大 10 倍,有時候甚至需要 10 倍的人,去完成原來 100 倍產出的事情。問題不在“會不會替代”,而在“企業願不願意更多選擇創造新價值,而不是只做極致降本”。 前一種他們一定會做,我們也不打算攔;但如果他們願意更多做第二種,新增崗位也可能超過被替代的崗位。第二層,是政府的介入。 我並不把“再培訓”視為萬能解法,但它一定是必要選項的一部分。企業會做,企業也必須和政府一起做。但從財政層面看,我認為政府遲早要介入。我不確定具體是稅收工具,還是其他政策工具。但在一個高速增長的世界裡,我們曾做過一份報告,即便是今天這些模型,也已經能讓生產率每年提高 1.6%。這幾乎意味著生產率的翻倍,而且模型還在不斷變強。我認為未來有可能到 5%,甚至 10%。 這是一塊極其巨大的“蛋糕”。如果財富過度集中,這塊蛋糕本身也足夠大,大到我們完全有條件照顧到那些並未直接從 AI 中受益的人。第三層,是更長期的社會結構問題。 如果一個社會真正建構出了強大的 AI,它的運行方式必然會發生變化。回到凱恩斯在《我們後代的經濟前景》中提出的“技術性失業”,他設想他的孫輩也許每周只需要工作 15 到 20 個小時。這是一種完全不同的社會結構。當然,總有人會選擇拚命工作,但是否可能出現這樣一個世界:對很多人來說,工作不再是生活的絕對中心,意義的來源發生轉移,工作不再只是為了生存,更偏向於實現感?這種可能性真實存在。 我不是在提任何自上而下的規劃,我只是認為,社會終究會在後 AGI 時代,自己找到新的運行方式。這三層變化,從企業層面最容易、最快發生,到政府層面需要共識,再到社會結構層面最慢、最難推進。但未來很多年裡,我們三件事都必須一起做。主持人: Dario,我真心希望你還能再回來,和我們繼續討論這三件事該怎樣一步一步落地。非常感謝今天這場精彩的對話。Dario: 謝謝你,Andrew。謝謝大家。 (51CTO技術堆疊)