2025 年的 AI 晶片市場正處於一個微妙且關鍵的轉折點。
一方面,輝達依靠 Blackwell 架構繼續保持技術與市場份額的絕對主導;
但另一方面,Google TPU 的全面商業化,正在撬動輝達長期穩固的定價權。
據半導體研究機構 SemiAnalysis 測算,OpenAI 僅憑“威脅購買 TPU”,就迫使輝達生態鏈在價格上做出讓步,使其計算叢集的 總擁有成本(TCO)下降約 30%。
隨著 Anthropic 大規模採購超過 1GW 的 TPU,Google徹底撕下“雲服務商”的面具,正式變身為一家對外出售高性能晶片與系統的商用晶片供應商。
當 OpenAI 可以靠“威脅採購”獲得 30% GPU 折扣、Anthropic 用 TPU 訓練出超越 GPT-4 的模型、Google願意開放軟體生態並提供金融槓桿——輝達 75% 毛利率的神話,也開始出現裂縫。
對於輝達來說,那個曾經最大的客戶Google,如今變成了最懂的對手。
Google在主動進攻
長期以來,TPU 一直像Google搜尋演算法一樣,是深藏內部的“核武級”技術。但根據 SemiAnalysis 的供應鏈資訊,這一策略已經出現根本性逆轉。
最典型的案例來自 Anthropic:
其將部署 超過 100 萬顆 TPUv7 “Ironwood”,其中:
- 約 40 萬顆由博通(Broadcom)直接出售給 Anthropic,價值約 100 億美元
- 約 60 萬顆通過Google雲以租賃方式提供,對應 約 420 億美元 的履約義務
這意味著Google正在用“混合銷售”的方式,將最先進的算力系統向外界全面開放。
除了 Anthropic,Meta、SSI、xAI 等一線 AI 實驗室均在考慮採購 TPU。
輝達則首次呈現出明顯的防禦姿態,其財務團隊甚至罕見地發佈長文回應“循環經濟融資”質疑,可見Google的動作已經觸及輝達的核心神經。
成本才是決定生死的關鍵
對客戶來說,選擇倒向 TPU 的理由非常簡單:性能是入場券,但 TCO 才是生死線。
SemiAnalysis 的模型顯示:
- TPUv7 伺服器的 TCO 比輝達 GB200 低約 44%
- 即便通過雲租賃,採用 TPU 的 TCO 仍比採購 GB200 低約 30%
這種優勢並非靠壓縮晶片價格,而是源於Google獨有的“超級雲廠商兜底”的金融工程:
- GPU 叢集壽命僅 4–5 年
- 資料中心租約長達 15 年
- 新興算力服務商難以融資
Google通過“信用擔保”(IOU)形式承諾兜底租金,使加密礦場、電力營運方與 AI 企業之間的算力需求順利對接,建構了一個獨立於輝達體系之外的低成本基礎設施生態。
不僅是晶片,而是系統級優勢
系統工程能力是Google最深的護城河。
雖然單顆 TPUv7 的理論峰值算力略低於輝達 Blackwell,但Google通過更高的模型算力利用率(MFU)和更先進的系統架構抹平了差距。
美股巨量資料獲悉,Google的 ICI 光互連系統 才是真正的殺手鐧:
- 自研 OCS 光交換機
- 3D Torus 拓撲
- 一個 TPUv7 Pod 可擴展至 9216 顆晶片(遠高於輝達的 64/72 卡結構)
- 網路可毫秒級動態重構,繞過故障點
- 光訊號無需光電轉換,功耗與延遲大幅降低
Gemini 3 與 Claude 4.5 Opus 兩大最強模型均在 TPU 上完成預訓練,這是對 TPU 系統能力最有力的背書。
Google最後的阻礙:軟體,終於被推倒
過去外界不採用 TPU 的最大痛點是軟體生態。
Google長期堅持 JAX,而開發者普遍使用 PyTorch + CUDA。
如今,在巨大的商業利益推動下,Google的態度徹底改變:
- 軟體團隊 KPI 從“內部服務”轉向“全面擁抱開源”
- 全力支援 PyTorch Native 在 TPU 上運行(不再依賴低效的 Lazy Tensor)
- XLA 將直接對接 PyTorch 的 eager mode
- 大量投入 vLLM、SGLang 等開源推理框架
Google正在填平 CUDA 護城河。
美股投資網 TradesMax.com 總結:矽谷王座爭奪戰剛剛開始
2025 年,AI 晶片的格局第一次出現根本性鬆動:
- TPU 開放商業化
- Anthropic、Meta、xAI 等前沿實驗室加入 TPU 陣營
- OpenAI 用“TPU 威脅”逼出輝達 TCO 30% 的折扣
- Google在系統、成本、軟體三條戰線上全面反擊
- 輝達的“循環經濟”模式受到市場質疑
- TPUv8 vs Nvidia Rubin 的下一輪正面對決已經在路上
這是輝達面對的 史上最強對手,也是 AI 基礎設施市場 十年來最大結構性變化 的開端。 (美股投資網)
