OpenAI和輝達,終究還是到了這一步|AGI焦點

AI頂流們正在加緊“梭哈”晶片。

Meta、OpenAI和Anthropic等公司今年以來已簽下了數千億美元訂單。

憑此賺得盆滿缽滿的,自然還是“賣鏟人”。

在本周ASIC晶片龍頭博通公佈的財報中,一季度(2025年11月至2026年1月)AI半導體收入84億美元,同比大漲106%;Q2預期環比再漲27%達107億美元,同比將暴增143%。

此前,輝達的業績更是炸裂,公司同期總營收已達681億美元,同比增長73%,新財季營收預期更是增至780億美元,預計同比增長77%。核心指標全都大幅刷新紀錄。

這些公司的掌舵者也對未來一致樂觀。

博通CEO陳福陽說,明年,公司光AI晶片營收就能超過1000億美元,比上個財年的公司總營收還高出至少五成。

輝達CEO黃仁勳說,在截至2026年底的五個季度中,公司主力晶片Blackwell和下一代晶片Rubin的訂單至少有5000億美元,這個數字是輝達此前年收入的兩倍還多。

表面上看,“狂飆突進”仍在加速,甚至每一次破紀錄都像是新的指數級增長曲線的起點。

但在風光背後,從晶片到雲,從大模型到應用,一系列技術、產業與社會的變化正在發生,某種約束已若隱若現:Scaling Law(縮放定律)和通用GPU多年來的統治地位受到挑戰,雲廠商巨額Capex(資本開支)的驗證時間窗口縮小,“定製化”和“個性化”等分佈式需求愈發吃重,讓集中式的迅猛增長有落潮之虞。

一邊狂賺千億,一邊“友誼破裂”

作為AI大模型時代並駕齊驅的造浪者,今年以來,輝達與OpenAI之間的關係明顯鬆動。

年初,媒體爆出輝達不滿OpenAI的商業策略,欲大幅削減投資。此後,又有消息稱,OpenAI對輝達最新晶片在推理環節的表現不滿,會繼續探索替代方案。

傳言難以證實,但輝達在OpenAI新一輪融資中出資300億美元,相較此前的千億美元投資方案明顯縮水。

在3月4日的摩根士丹利TMT會議上,黃仁勳親口表示,這次投資“可能是最後一次”,去年11月被他稱為“一代人僅有一次機會”的千億美元合作大機率會不了了之。

為什麼會突然發生這樣的轉變?背後有些行業趨勢值得探討。

首先是,Scaling Law和GPU性能提升飛輪,已有觸頂跡象。

電腦科學家伊利亞·蘇茨維克(Ilya Sutskever)已表示,此前Scaling Law能夠主導大模型發展,是因為預訓練的道路走通了。誰的大模型喂得越飽,就顯得越聰明。但隨著大模型領域競爭白熱化,高品質、結構化的公開資料實際上已被吃盡。

光有算力不足以支撐這條路走到頭。

業界對Scaling Law的未來,有很多討論,比如轉向後訓練,轉向推理時擴展,或者改進Transformer核心架構。

但拆解這些方法,其關鍵詞多與“提升效能”、“合理分配算力”和“特定領域針對性最佳化”相關聯,實際上,也意味著預訓練階段的性能躍遷不會再現。

GPU面臨的境況是相似的。

在Scaling Law時代,成熟度高、通用性和靈活性強、適合大規模平行運算的GPU,無疑是大模型的最佳搭檔。其性能在近十年間飛速進化,是大模型能力提升和規模化復刻的重要動力。所以,儘管輝達產品售價極高,毛利率常年在75%左右,還是屢屢供不應求。

半導體行業知名研究機構SemiAnalysis分析稱,晶片領域先進製程的演進速度已明顯放緩,典型案例是台積電3nm帶來的性能增幅與成本增加已不成正比。

全球計算聯盟GCC資料也顯示,摩爾定律放緩正導致AI晶片性能增幅下滑,2018-2022年間,AI晶片性能年均提升50%,到2023-2025年已降至20%以下(未計入尚未量產投入市場的新一代產品)。

而就在2025年,追求特定場景下更極致的性能,功耗更低、體積更小、量產後成本更優的定製化AISC晶片強勢崛起。

以GoogleTPU的市場良好反饋為標誌,其市佔比開始向GPU發起挑戰。而包括Meta、亞馬遜、微軟乃至OpenAI等都在加緊自研AISC晶片,2026年預計就將迎來量產和商業化的集中爆發期。

資料來源:各公司官網、野村證券、公開報導;作者製表

這條技術多元化路線的核心,又是“定製化”“高效能”“低延遲”和“性價比”,實際就是通用硬體效率狂飆的階段已經落幕。

從這個視角再來看,OpenAI與輝達之間隱現的“友誼裂痕”,所謂不滿晶片推理表現,是因為GPU不再能通過“暴力破局”來“包打天下”。而所謂對商業策略有疑義,則是在大模型能力“無限增長”故事講不下去後,希望確證能有可觀商業回報維持其需求的穩定。

是誰在給輝達們“潑冷水”?

當然,性能增幅放緩絕不意味著需求會驟降,反而可能推動更加平穩、持續的增長。而在2025年“DeepSeek衝擊波”中,描述效率最佳化往往導致消耗總量增加的“傑文斯悖論”也屢被提及。

不過,前提是盡快切換到更加“細水長流”的發展模式,而目前AI產業的慣性動能,卻與此存在一定錯位。

最核心的,是拚命壓縮時間周期可能帶來的系統性病灶。

早期以GPU為主的AI晶片,迭代周期約為18-24個月。隨著AI熱潮來臨,需求方競爭壓力加劇,對迭代速度的渴求愈發極端,這讓輝達和Google等將晶片迭代周期壓縮到“年更”。

但即使這樣還是不夠。

目前,頂尖大模型基本每三個月就要迭代一次。SemiAnalysis創始人迪倫·帕特爾(Dylan Patel)此前在參與The MAD Podcast with Matt Turck播客節目時表示,即使晶片廠商將迭代周期壓縮到半年,也無法很好適配模型進步的速度,也難言確保自身優勢。

即使晶片和模型的性能增幅雙雙放緩,這種“賽跑”也未見稍顯的跡象。

而考慮到前文提到的製程、技術演進等方面的瓶頸,以及美國能源供給方面愈發緊迫的硬性約束,結果可能演變成跑著跑著增長動能斷檔,甚至雙雙“撞牆”,讓原本可能在斜率放緩中更加平衡的供需被打破。

更不可小覷的是這種“賽跑”對Capex的依賴。處在晶片與模型之間,被這種“你追我趕”來回拉扯的雲廠商,承擔了最集中的資本支出,他們往往同時也涵蓋AI業務,投資與回報都面臨風險和壓力。

根據亞馬遜、微軟、Google、Meta和甲骨文這五大雲廠商披露的資訊,其2026年Capex總額將超過7000億美元。

資料來源:公司財報及電話會議;作者製圖

按照較為傳統的算力基礎設施五年折舊周期來計算,大約對應1400億美元的AI銷貨成本,這對AI行業目前的ARR(年度經常性收入)來說是天文數字。雖然OpenAI預計2026年ARR能夠突破450億美元,Anthropic也有望達到類似規模,但這兩巨頭本身的市佔比已接近八成,即使不考慮利潤,行業的淨收入也很難支撐資本開支。

而正是由於晶片和模型迭代速度越來越快,市場對折舊周期的計算也產生了疑惑。

知名投資人“大空頭”麥可·貝瑞(Michael Burry)自去年起,就一再“炮轟”當下的折舊周期不符合實際,認為如今AI晶片的實際經濟價值可能在2-3年內就會因技術過時而大幅衰減。

雖然此類觀點爭議頗多,但如果大模型和晶片的“賽跑”繼續,甚至還要加速,那麼,有關折舊周期的質疑只會越來越多。

而且,資本端的超額支出,往往以Scaling Law和大模型性能的繼續躍遷為由。從前文提及的趨勢來看,Scaling Law的退潮,也會讓Capex的狂飆不再“師出有名”。

2025年下半年至今,雲巨頭的投資回報率(ROI)愈發成為市場矚目的核心指標,美股對缺乏利潤增長的Capex往往報以拋售,典型如微軟,其公佈的財報營收、淨利均超預期,但股價隨即暴跌10%。

而晶片企業即使持續創造新的紀錄,但以去年11月輝達市值從5兆高點回落為節點,市場始終未給出匹配增速的估值溢價,空頭聲音反而愈發顯眼。

這些,也構成了時下盛行的“AI泡沫論”的核心焦慮。

不過,值得注意的是,相較於泡沫本身的存在與規模,人們看待和對待其方式,可能更加重要。

當市場持續不給單純的拼規模、拼速度以正向反饋後,這一趨勢更可能會以幾次陣痛為代價放緩步伐。

目前晶片大廠和部分大模型、雲廠商對未來兩年已有明確規劃,迭代速度和支出規模可能仍然維持高位,高盛也預測2025至2027年是AI伺服器出貨量增長最迅猛的三年,其中增速峰值出現在2026年。

但在這之後,全產業鏈的增長可能都會面臨結構性放緩。

如果只在商業和技術層面考慮,對AI增速形成影響的變數還有很多,但最近兩大標誌性熱門事件,為AI產業的發展,蒙上了一層不確定性陰影。

其中一個就是,Citrini Research的《2028全球智能危機》(The 2028 Global Intelligence Crisis)。

報告幾乎是以“近未來科幻”的方式,描述了從2025年末起Agent(智能體)登堂入室開始,直到2028年人類社會在新的AI時代可能面臨的窘境。

圖片來源:CitriniResearch

報告本身是虛構,且先進技術替代人類工作種類,也不是什麼新鮮論調,但是,當下的時點討論這個問題,卻意外引發空前共鳴。

畢竟,就在2026年初,OpenClaw、Anthropic的Claude Cowork及一系列Agent外掛的出現,將AI的“替代力”十分直接地擺上了檯面。

在種種預警和焦慮下,人類社會加以反制AI嗎?

AI發展得越快,替代性危機的發酵就可能越快,但AI落地真實工作場景的實戰能力和可持續性,卻需要進一步探索,但顯然,我們正在看到的景像是,大小公司集體AI化的步調已經加快了。 (鈦媒體)