ASIC崛起,輝達的王座還穩嗎?

“我們為Google的成功感到高興——他們在AI領域取得了巨大進步,我們也將繼續向Google提供產品。輝達目前領先行業一代——我們是唯一一個可以運行所有AI模型、並在各種計算場景中通用的平台。”


11月25日,輝達在社交平台X上的這番聲明,被視為對GoogleTPU近期備受關注的直接回應。

就在聲明前一天,有消息傳出Meta正考慮從2027年開始在其資料中心部署Google的TPU,這一潛在交易金額可能高達數十億美元。受此影響,輝達股價一度重挫逾7%,市值蒸發近3500億美元。這一市場波動清晰地表明,AI算力領域正迎來一場靜默而深刻的變革。

在輝達GPU看似壟斷的市場中,一股新生力量正悄然崛起。OpenAI開始租用Google的TPU晶片為其ChatGPT提供算力支援,亞馬遜宣佈其Trainium2晶片性能價格比優於其他硬體30%到40%,博通和Marvell的AI業務收入暴漲,一個明確的訊號正在釋放:ASIC的時代,已經到來。

01

ASIC晶片的崛起與繁榮

2025年,全球ASIC晶片市場迎來爆發式增長。據中商產業研究院資料,2024年全球ASIC晶片市場規模已約達120億美元,到2030年,這一數字有望超過500億美元。

長期以來,輝達憑藉其GPU和CUDA生態,在AI晶片市場佔據了超過90%的份額。 然而,GoogleTPU作為ASIC晶片的代表,正被視為輝達Blackwell晶片的可行低成本替代方案,逐漸改變市場競爭格局。在AI模型訓練成本呈指數級增長的今天,通用GPU雖然靈活,但其本質上仍是為圖形渲染設計的硬體,在面對神經網路的特定計算模式時,存在大量的效率損失。

TPU和GPU都能處理訓練AI模型所需的大量計算,但實現方式截然不同。輝達的GPU最初為渲染視訊遊戲圖像而開發,通過數千個計算“核心”平行處理多項任務。而TPU專門為矩陣乘法這類AI相關工作而建構,這是訓練神經網路的主要操作。

專用與通用,成為ASIC與GPU的核心差異。輝達在聲明中強調,其晶片相比GoogleTPU等專用積體電路晶片提供“更高的性能、多功能性和互換性”,後者通常只為單一公司或單一功能設計。

Google最新版本的TPU名為Ironwood,於今年4月發佈,採用液冷設計,專為運行AI推理工作負載而設計。它有兩種配置:256個晶片的叢集,或更大的9216個晶片叢集。TPU在某些AI工作上可能表現優於GPU,因為Google可以“去除晶片上許多不適合AI的其他部分”,使其能耗更低、營運成本更低。

先進封裝技術成為ASIC發展的重要支撐。根據TrendForce集邦諮詢研究,隨著雲端服務業者加速自研ASIC,為整合更多複雜功能的晶片,對封裝面積的需求不斷擴大。已有CSP開始考量從台積電的CoWoS方案,轉向英特爾的EMIB技術。EMIB擁有數項優勢:結構簡化,捨棄昂貴且大面積的中介層;熱膨脹係數問題較小;封裝尺寸也較具優勢。隨著Google決定在2027年TPUv9匯入EMIB試用,Meta亦積極評估規劃用於其MTIA產品,EMIB技術有望為英特爾IFS業務帶來重大進展。

02

博通與Marvell,雙足鼎立

在ASIC定製晶片的繁榮背後,兩大巨頭成為最大贏家:博通和Marvell。 這兩家公司已形成近乎壟斷的雙寡頭格局,合計佔據ASIC市場超過60%的份額。

博通作為絕對霸主,單獨拿下55-60%的市佔率。從業績就能直觀感受到它的強勢 ——Q2 財報裡,AI 業務收入直接突破 44 億美元,同比增長 46%,其中定製 AI 加速器還實現了兩位數增長,這種增速在成熟晶片企業裡相當亮眼。更關鍵的是它和大客戶的深度繫結,最典型的就是與Google的合作:從Google第一代 TPU 晶片開始,博通就全程參與設計和製造,現在雙方合作已經推進到 3nm 工藝的第六代 TPU,2023 年Google單在 TPU 相關合作上就給博通付了 35 億美元,2024 年這個數字預計會翻倍到 70 億美元,甚至連第七代 TPU 的供應合同都已經提前鎖定。除了Google,博通還跟 Meta 敲定了未來兩年的 AI 基礎設施合作,預計能帶來數十億美元收入;2025 年更聯手 OpenAI 啟動了 10 吉瓦級的定製 AI 加速器項目,這套系統會裝在 OpenAI 全球的資料中心裡,靠博通的乙太網路解決方案實現算力叢集擴展,整個項目估值超過千億美金。而且博通不只是靠單一產品,它 “定製加速器 + 高速互連” 的策略很見效,乙太網路、PCIe Gen6 這些配套 IP 能牢牢粘住客戶,按照規劃,2025 年它的 AI 總收入預計能突破 110 億美元,差不多是 Marvell 同期 AI 收入的 4 倍多。

再看Marvell 的 “逆襲打法”。它雖然份額不如博通,但增長勢頭極猛:26Q1 資料中心營收達到 14.41 億美元,佔總營收的 76%,同比還暴增了 76%,這背後幾乎全靠 AI 定製晶片的大規模出貨。Marvell 聰明的地方在於不跟博通正面硬剛,而是走差異化路線。在客戶佈局上,它搭建了 “亞馬遜 + Google + 微軟” 的三角合作網:給亞馬遜量產 5nm 的 Trainium 訓練晶片,這款晶片佔了 AWS ASIC 出貨量的 85%,接下來還會接 Inferentia v3 推理晶片的項目;給Google代工 5nm 的 Axion ARM CPU 晶片,剛好和博通給Google做的 TPU 業務形成互補,不搶飯碗反而互相搭配;最近還拿下了微軟 Maia AI 晶片 2026 年的量產訂單,靠著這三大客戶,Marvell 甚至定下了 2028 年 AI 收入衝刺 70-80 億美元的目標。

技術上,Marvell 也有自己的側重點,專門盯著 “能效 + 互聯” 做文章。它已經能用上台積電最新的 3nm 製程工藝,還握有 112G XSR SerDes 高速互連 IP、240Tbps Die-to-Die 互連技術,在雲資料中心場景裡能做到 “性能夠強、功耗夠低”—— 它和美光合作開發的 HBM 高頻寬記憶體架構,能讓 AI 加速器的算力密度提升 25%,待機功耗卻降低 66%,正好戳中雲廠商想控制總擁有成本的需求。另外,Marvell 還搞了資料中心全端佈局,除了 AI 定製晶片,儲存控製器、網路交換晶片這些配套產品也做得不錯,比如它的 112G SerDes IP,既能用在 AI 加速器上,也能裝在自家的乙太網路交換機裡,這種 “晶片 - 互連 - 儲存” 的垂直整合能力,成了它區別於博通的關鍵優勢。

其實這兩家能長期壟斷,核心是有三道別人難跨的門檻。一是技術壁壘高,兩家都掌握了3nm 製程量產能力,還有超 20 年的 ASIC 設計經驗 ——Marvell 過去 25 年交付了超過 2000 個定製項目,博通手裡有覆蓋計算、儲存、網路的全場景 IP 庫,新玩家想跟上,得先闖過 “製程工藝 + 客戶驗證 + 生態適配” 這三關。二是客戶分化合理,博通主要做Google、Meta、OpenAI 這些客戶的 “訓練側” 算力需求,Marvell 聚焦亞馬遜、微軟的 “推理 + 通用計算” 場景,互不搶食,反而能覆蓋更多市場。2025 年全球雲服務提供商的 ASIC 出貨量預計超 500 萬顆,其中Google TPU 的 220 萬顆、AWS ASIC 的 180 萬顆,核心份額還是被這兩家分了。三是行業趨勢助推,現在生成式 AI 對算力的需求,正從通用 GPU 轉向定製 ASIC—— 畢竟 ASIC 在特定任務上算力成本降低了30%到40%,雲廠商為了降成本,更願意跟頭部供應商深度繫結,比如 OpenAI 既選博通做定製加速器,又用輝達的通用算力,這也說明雙寡頭在 ASIC 領域的地位很難被撼動。

03

生態和供應鏈,是關鍵

AI算力競爭遠不止於晶片性能本身,更延伸到軟體生態和供應鏈安全。

輝達憑藉CUDA生態系統建構了深厚的護城河,這是其聲明中“唯一可以運行所有AI模型”的底氣所在。Google則通過垂直整合,強化軟硬體協同優勢。Google上周發佈了公司最強大模型Gemini 3,這款廣受好評的最先進AI模型是在該公司的TPU上訓練的,而非輝達GPU。這一技術成就增強了TPU作為輝達GPU可靠替代方案的可信度。

供應鏈多元化成為雲巨頭的重要考量。研究機構Gartner分析師表示,Google儘管擁有自己的晶片,仍是輝達最大客戶之一,因為它必須為客戶保持靈活性。如果客戶的演算法或模型發生變化,GPU更適合處理更廣泛的工作負載。與輝達不同,Google不向其他公司出售TPU晶片,而是將其用於內部任務,並允許企業通過Google Cloud租用。

這種模式正在獲得認可,當前TPU客戶包括OpenAI聯合創始人Ilya Sutskever去年創起的初創公司Safe Superintelligence,以及Salesforce、Midjourney和Anthropic。

國內市場方面,巨頭企業在ASIC 領域的佈局同樣亮眼,其中阿里巴巴自研的 PPU 晶片走在前列。據機構研判,這款 PPU 晶片在視訊記憶體容量、片間互聯頻寬等關鍵指標上已超越輝達 A800,而在視訊記憶體容量、PCIe 等核心參數上,也能與輝達 H20 比肩。

上市公司中,芯原股份近年來與網際網路巨頭展開深度合作,其AI ASIC 業務在今年第三季度實現了翻倍式增長;翱捷科技則聚焦智能穿戴、端側 SOC 等細分領域,目前 ASIC 業務在手訂單充足,機構預計到 2026 年,該公司這一業務的收入將迎來大幅提升。

對於國產AI 晶片的發展,多家券商也給出積極判斷。中信證券指出,當前國產 AI 晶片自主可控進展順利,除了阿里巴巴自研的含光系列 AI 推理晶片外,華為昇騰、寒武紀等企業的自研 AI 晶片也在持續迭代,這些成果有望緩解國內 AI 領域對海外算力的依賴。西部證券認為,企業擁有自研晶片可替代外部供給,能有效確保模型迭代與規模部署的連續性和可預期性。浙商證券則分析稱,相較於 GPU,ASIC 晶片在特定場景下具備低成本、高性能、低功耗的優勢,專用性和性價比更高,預計到 2028 年,ASIC 市場規模將達到 AI 晶片整體市場的 19%;同時該機構提到,ASIC 晶片單價遠低於 GPU,約為 GPU 的 1/5,隨著 Meta、微軟等企業逐步大規模部署自研 ASIC 解決方案,ASIC 總出貨量有望在 2026 年某個時點超越輝達。

ASIC的崛起並不意味GPU的衰落。正如Google發言人所回應的:“我們定製的TPU和輝達GPU的需求都在加速增長。我們將一如既往地繼續支援這兩者。”這種多元化的策略,可能正是AI算力發展的未來方向——沒有單一解決方案能通吃所有場景。

晶片行業“不是只有一個贏家的零和遊戲”。即使是最積極的ASIC採用者,也仍在大量採購輝達晶片。例如,Anthropic在與Google達成TPU協議幾周後,就宣佈了與輝達的重大交易。

在AI技術快速迭代的今天,算力格局的重塑才剛剛開始。 (半導體產業縱橫)