AI產業從“參數軍備競賽”轉向“算力效率競賽”。
幾天前,矽谷傳出消息:Google宣佈,未來五年要提供給Anthropic的算力,規模高達5GW。緊接著,5月6日,這筆交易的價格被揭開——Anthropic承諾未來五年向Google雲支付約2000億美元,用於採購5GW的TPU算力和雲服務。
同一天,Anthropic還宣佈租下SpaceX的Colossus1超級電腦,接入超過22萬顆輝達GPU用於推理。
5GW在資料中心行業是什麼概念?它大概相當於5座大型核電站滿負荷運轉的耗電量。這意味著Google幾乎是為了Anthropic新建好幾座超大規模資料中心,裡面塞滿幾十萬塊Google自己設計的TPU晶片。而Anthropic為此付出的承諾採購額高達2000億美元,佔到了Google雲積壓訂單的40%以上。
更有意思的是這筆交易的結構:Google先向Anthropic投入100億美元現金(按3500億估值),若達成里程碑再追加至400億;同時Anthropic承諾2000億美元的雲服務和TPU採購支出。投資是投資,採購是採購,但兩者捆綁在一起,構成了極強的鎖定效應——晶片被指定為Google自研的TPU。
面對這樣一份帶有排他意味的超級大單,Anthropic也順勢調整了自己的算力版圖:在訓練側大幅向GoogleTPU和亞馬遜Trainium傾斜,同時仍保留輝達GPU在推理等場景中的角色。5月6日租下SpaceX的22萬顆GPU,就是Anthropic在GPU推理側的最新動作。
對於行業來說,或許,它標誌著AI產業從“參數軍備競賽”正式轉向“算力效率競賽”的拐點,也標誌著技術路線正在加速分化。這次切換,正在無聲而有力地改變AI晶片的權力格局,重新定義了大模型和底層硬體之間的關係。
1 被輝達“卡脖子”的痛
要理解Anthropic這次的算力佈局為什麼重要,得先看懂過去兩年AI算力市場有多殘酷。
自從ChatGPT橫空出世,大模型就變成了一個“燒錢無底洞”。行業裡心照不宣的潛規則是:不管你融了多少錢,最後都得變成一張張採購輝達H100或B200的訂單。輝達靠著CUDA生態的絕對壟斷,不光拿走了行業裡絕大部分利潤,還捏著模型廠商的命脈——黃仁勳給你發多少貨,你就能訓練多大的模型。
在這種格局下,大模型廠商的大部分利潤最終流向了輝達。
但局中人也不是沒有反抗的心思,尤其是那些手裡有錢的雲巨頭:
•Google心裡很憋屈:TPU研發了十多年,一直在內部訓練Gemini,性能其實不差,但缺少外部頂級大模型的“背書”,總被市場當成非主流。
•亞馬遜也很焦慮:作為全球最大的雲廠商,AWS每年要給輝達交天價保護費。它砸了大錢研發自研晶片Trainium,急需一個標竿客戶來證明“不用輝達也能跑頂級模型”。
•Anthropic有點特殊:由DarioAmodei等前OpenAI核心成員獨立創立,主打安全可控。它同時拿著Google、亞馬遜和微軟的錢——Google400億美元投資、亞馬遜累計330億美元投資,加上2025年11月簽下的300億美元微軟Azure算力合同,處在一個微妙的三角平衡中。面對高昂的算力成本,它比誰都渴望撕開一個口子,找找算力的“平替”。
輝達太貴、太慢、太強勢;Google有晶片但缺生態,亞馬遜有錢想要獨立,Anthropic想活下去還要盈利。四方的訴求,在這一刻正好咬合在了一起。一場針對輝達定價權的多邊博弈已經展開。
2 “用腳投票”:Anthropic 的算力豪賭
Anthropic的選擇,撕開了高昂算力成本的一角。它的本質,是用硬體的確定性,來換取模型迭代的絕對速度和成本護城河。
Google分階段向Anthropic兌現算力承諾,規模預計達到5GW等級的TPU叢集(從2027年起逐步上線)。與此同時,Google對Anthropic的總投資額至多達400億美元,Anthropic對Google雲的採購承諾則高達2000億美元。如此體量的算力叢集,足以讓Claude的訓練效率大幅躍升,或者讓Anthropic同時平行推進多個行業大模型的定製。
這些承諾背後,是TPU在特定任務上對GPU的真實優勢:
•性價比領先:根據Google官方資料,在大型Transformer模型訓練場景下,TPUv6e的性價比(性能/美元)約為同代輝達GPU的3到4倍。
•能效提升:Google資料中心PUE約為1.1,遠低於行業平均1.58,綜合營運成本優勢明顯。SemiAnalysis的研究報告也指出,Anthropic的推理基礎設施毛利已從38%提升至70%以上,定製晶片路線的降本效應可見一斑。
從技術底層來看,Anthropic早就開始謀求“去單一硬體依賴”。2026年3月,Anthropic宣佈已部署百萬顆GoogleTPU,下一財年TPU算力將達1GW;在訓練側,TPU和亞馬遜Trainium已成為核心算力來源;而在推理側,輝達GPU仍然扮演重要角色——5月6日租下SpaceXColossus1的超22萬顆GPU就是最新例證。再加上用JAX框架對TPU叢集做底層調優,Anthropic 已經形成了一個橫跨Google TPU、亞馬遜 Trainium 和輝達 GPU 的多元算力架構,訓練側以 TPU 和 Trainium 為核心,GPU 在推理等場景中持續扮演重要角色。
可以理解為,這是訓練到推理的全端算力重構。Anthropic已經用行動證明:大模型廠商不再只是硬體廠商的“提款機”,而是可以成為算力架構的“設計師”。
3 "務實"的混合算力方案
Anthropic的轉向,像一條鯰魚,直接引爆了全球AI晶片四大陣營的正面對決。現在的算力江湖,已經不是輝達一家獨大了。
Anthropic的轉向,如同一條鯰魚,直接引爆了全球AI晶片四大陣營的正面對決。如今的算力江湖,早已告別輝達一家獨大的格局。
其一,Google–Anthropic:垂直閉環領跑者。“TPU–JAX–Claude”的全端協同路線已成效顯著。摩根士丹利預測,2027年TPU對外銷售有望佔據全球AI加速晶片市場20%的份額。更關鍵的是成本優勢:Claude系列在同等性能段的API定價,相比部分頭部競品更具競爭力,Google通過硬體降本,直接為Anthropic打造了性價比壁壘。
其二,OpenAI:算力堆砌猛,相容性拖後腿。OpenAI正建構龐大的算力矩陣,已鎖定30.5GW的長期算力合約。2025年10月,其與AMD簽署多年期協議,部署總計6GW的AMD Instinct GPU算力(首期1GW MI450將於2026年下半年落地),與輝達GPU平行組成大規模算力叢集。但這種“大雜燴”架構代價高昂:多晶片、多廠商的組合導致算力利用率偏低,規模化紅利被高額相容性成本抵消。
其三,輝達:死守基本盤,高端腹地受侵蝕。作為行業老大哥,輝達仍佔據AI加速器市場80%以上的份額,CUDA生態仍是其不可撼動的護城河。但TPU在大模型核心訓練場景的持續滲透,已讓輝達感受到壓力。2025年7月,輝達宣佈CUDA全面支援RISC-V架構——這在以往難以想像,意味著其生態壁壘正被定製化需求從內部突破。
其四,中國陣營:開源適配,換道超車。受外部環境影響,國產AI晶片市佔率逆勢提升。IDC資料顯示,2025年中國AI加速卡市場總出貨量約400萬張,本土廠商合計出貨約165萬張,境內市場份額首次突破四成,達41%。例如2026年4月發佈的DeepSeek-V4,已在官方技術報告中納入華為昇騰NPU支援,華為昇騰、摩爾線程等國產廠商均完成Day0適配。中國廠商不拼單點極限算力,而是走“晶片+模型+場景”的快速落地路線。
行業格局已發生根本性變化:AI競爭不再是比拚晶片採購量,而是“算力效率×場景適配”的綜合較量。
Anthropic精心設計的混合算力方案,恰恰指明了下一代AI基礎設施的主流方向——分工明確、冗餘可控、拒絕被單一廠商綁架。這套方案極具針對性:以 GoogleTPU和亞馬遜Trainium打造了“雙訓練主力”,承擔核心大模型的高強度訓練任務;以輝達GPU作為“萬金油”,補位推理和多模態資料處理等場景。
這套組合拳的成效立竿見影:供應鏈風險大幅降低,擺脫了對單一供應商的依賴;Anthropic 2025年6月公開的多智能體系統資料顯示,以Claude Sonnet為主導智能體、多個Claude Haiku為子智能體的架構,相比單智能體Claude Opus,任務性能提升約90%;更重要的是,硬體級加密結合Anthropic的倫理框架,讓金融、醫療等高敏感行業客戶敢於放心合作。
4 戴上“金手銬”的 Anthropic
當然,商業世界裡沒有免費的午餐。Anthropic這次向TPU深度傾斜,在換來極致訓練效率和短期成本優勢的同時,也給自己悄悄地戴上了一副“金手銬”——表面金光閃閃,實則勒得越來越緊。
首先,以2000億美元承諾為代表的TPU合作,正在將 Anthropic 的核心訓練算力越來越多地系在Google身上。深度繫結GoogleTPU,意味著Anthropic未來的模型最佳化、算子開發,甚至推理框架選型,都將被TPU的硬體迭代節奏主導。GoogleTPU團隊每推出一代新晶片,Anthropic就需重新適配,甚至重寫部分底層程式碼。短期看這是“聯合最佳化”,長期則會形成“單向依賴”。一旦Google調整TPU產品路線圖,比如放棄某類指令集或硬體特性,Anthropic的適配成本和遷移風險將大幅上升。
其次,多雲協同易變“多雲約束”。Anthropic目前同時依託Google雲、AWS和微軟Azure,看似靈活——TPU主力訓練、Trainium備份訓練、GPU負責推理,但實際操作中,跨雲架構的維護成本遠超預期。資料需在三朵雲之間同步,任務調度要兼顧三套晶片差異,災難恢復方案需單獨適配,再加上三家雲廠商各有訴求,未來難免在價格、頻寬、優先順序上相互掣肘。據知情人士透露,Anthropic內部早已感受到多雲架構的維運複雜度,若未來Google與亞馬遜關係出現微妙變化,Anthropic或將陷入兩難境地。
更隱蔽但更致命的,是技術獨立性的慢性流失。Claude的每一次模型迭代,理論上應該是為了更好的智能和安全性。但未來,如果某個架構改動在TPU上跑得飛快、在GPU或Trainium上卻表現平平,產品經理會怎麼選?大機率會“為了上線”而優先適配TPU。
久而久之,Claude的最佳化方向將越來越受TPU硬體特性的牽引,而不是一個跨平台、可移植的通用大模型。這就好比一個作家,本來可以用任何紙筆寫作,後來被贊助商要求只能用某一種特製鋼筆——寫出來的東西也許更流暢,但那支鋼筆的任何缺陷,都會直接寫進他的作品裡。
拉長視野看,Anthropic的處境其實很微妙。對比一下:
OpenAI走的是多供應商、多晶片的“大雜燴”路線。雖然效率低下、相容成本高,但好處是——沒有那家晶片廠商能真正卡住它的脖子。微軟、輝達、AMD之間互相牽制,OpenAI反而拿到了議價空間。
國產廠商如DeepSeek走的是開源適配路線。昇騰、寒武紀、海光……誰家晶片能在主流模型上跑出好效果,就用誰。生態是碎片化的,但也是自由的。
而Google–Anthropic的閉環,在訓練效率上無疑是最鋒利的刀,但握住刀柄的那個人,是Google。Anthropic的核心訓練算力、迭代速度、甚至一部分技術路線,都被鎖在了Google的生態圍牆之內。不過也要承認,Anthropic同時握有AWSTrainium、微軟Azure和SpaceXGPU等多條後路,這副金手銬目前還沒有完全焊死。
更讓人擔心的是,這副金手銬還有一個時間軸上的陷阱。五年期的2000億美元採購承諾,聽起來是天堂,但合同到期後呢?到那時,Anthropic的整個技術堆疊、程式碼庫、維運體系、人才習慣,都會深度繫結TPU。想要再換回GPU或遷移到其他晶片,成本高到幾乎不可能。屆時Google續簽合同的條件,Anthropic還能說“不”嗎?一位不具名的風投合夥人說得比較直白:“Anthropic不是在租Google的算力,而是在用未來數年的自主權,換今天的一張船票。”
當然,不是說Anthropic做錯了。在AI這個燒錢如燒紙的行業,首先要活下來,其次是跑得快。只是在商業世界裡,沒有完美架構,只有階段性最優解。Anthropic目前拿到的是訓練速度和成本的最優解,代價是——它把一部分未來的選擇權,提前交了出去。
5 晶片沒有靈魂,但定義晶片的模型有
回看電腦這半個多世紀的歷史,Anthropic的轉向,其實是科技界一個經典的“宿命輪迴”。
三十年前,GPU作為專攻圖形渲染的特定晶片,靠異構計算打破了通用CPU的壟斷;三十年後,當GPU自己也變成了橫在AI產業面前的“通用霸權”時,TPU、Trainium這些更專門化的ASIC晶片,正用同樣的邏輯發起反攻。
這意味著,AI底層基礎設施的邏輯,正在從“暴力堆砌”轉向“精耕細作”。大模型不再是可以在任意一張顯示卡上隨便跑通的“上層軟體”,它正在變成必須與特定矽片深度耦合的“重工業實體”。
所以,Anthropic投向定製晶片,絕不意味著GPU會消亡,而是標誌著“通用算力大一統”時代的終結。未來的版圖註定走向分裂:輝達GPU依然會長久統治通用計算和推理,但在超大規模模型訓練的最核心地帶,定製晶片將接管陣地。
輝達的護城河依然深不見底,但水面之下,暗流已經不可逆轉。當“買卡就能做模型”的草莽時代結束,未來的競爭焦點,將從“對算力資源的粗暴囤積”,徹底升級為“對異構算力的精細調度權”和“對底層矽片架構的定義權”。
在這場沒有硝煙的底座重構中,誰掌握了定義硬體的權力,誰就拿到了下一輪競爭的關鍵籌碼。 (鈦媒體AGI)
