#ASIC晶片
中美AI算力中盤博弈:開放與封閉之爭
近日,GoogleTPU攜Gemini3逆襲之勢大幅拓寬增量前景,Meta考慮斥資數十億美元為其買單,機構將TPU產量預期上調67%至500萬塊。基於“晶片-光交換網路-大模型-雲服務”全鏈閉環,Google智算體系重回AI賽道前沿梯隊,標誌著美式封閉壟斷路線更進一步。與此同時,以DeepSeek為代表的開源模型緊追不捨。月初,DeepSeek V3.2及其長思考增強版模型出爐,前者在性能測試中打平ChatGPT,後者直接對標閉源模型頂流Gemini。這也預示著中國開源開放路線漸入佳境,國產智算體系在應用層展現出良好的生態協同潛力。至此,中美AI產業博弈棋至中盤,“開放協同”與“封閉壟斷”對位格局愈發清晰。尤其在智算生態佈局中,兩大陣營或正醞釀著一場體系化能力的巔峰較量。從Gemini 3到TPU v7,軟硬一體閉環臻至極境毋庸置疑,GoogleTPU的突然走紅,很大程度得益於Gemini3的模型能力驗證。作為專為GoogleTensorFlow框架而生的ASIC晶片,TPU憑藉軟硬體一體化設計為其全端閉環完成奠基,同時也在上層應用高位突破時俘獲外部使用者市場,甚至一度被視為輝達GPU的最強平替。所謂“軟硬一體化”,即硬體的設計完全服務於上層的軟體和演算法需求。如Gemini 3訓練和推理過程高度適配TPU叢集,而這種定製化專用模式也在功耗能效方面展現出極高價值——TPU v5e的功耗僅為NVIDIA H100的20%-30%,TPU v7每瓦性能較前代產品翻倍增長。目前,Google通過“晶片+模型+框架+雲服務”的垂直整合,形成了一個封閉且高效的循環。一方面極大地提升了自身AI研發和應用開發效率,另一方面也在NV主流體系下裂土而治,奪得又一智算賽道主導權,Meta對TPU的採購意向則將這一體系熱度推向了高點。業內有觀點指出,從蘋果到Google,美式的垂直封閉玩法幾乎臻至極境,表現出科技巨頭為鞏固和擴張利益版圖,在產業鏈層面泛在的壟斷慾望。但從生態發展角度來看,封閉模式缺乏長期主義精神,極易導致產業長下游喪失創新活性,並形成單一主體高度集權的格局。另外,從TPU的應用場景來看,軟硬一體閉環儼然是專屬於巨頭的遊戲。某分析人士稱,Google的叢集化設計和“軟體黑盒”,需要使用者重新配置一整套異構基礎設施。如果沒有兆參數模型訓練需求,根本填不滿TPU的脈動陣列,省下的電費可能都抵消不了遷移成本。同時,由於TPU技術路線極為封閉,與主流開發環境無法相容,使用者還需要一支專業的工程團隊駕馭其XLA編譯器,重構底層程式碼。也就是說,只有像Google、Meta這種等級的企業才有資格轉向TPU路線,也只有算力規模達到一定程度才能發揮出定製化產物的能效優勢。不可否認,Google等頭部企業通過垂直整合自建閉環,在局部賽道快速實現單點突破,同時也造就了美國科技巨頭林立的蔚然氣象。但在中美AI博弈背景下,美式封閉壟斷路線憑藉先發優勢提前完成了賽道卡位,被動的追隨式趕超已很難滿足中國智算產業的發展需要。“小院高牆”之外,如何充分發揮舉國體制優勢,團結一切力量拆牆修路,成為拉近中美AI體系差距的關鍵。多元異構生態協同,開放路徑通往下一賽點相較於美式寡頭壟斷模式,中國智算產業正基於多元異構體系層層解耦,重塑開放式生態系統。從頂層設計到產業落地,“開源開放+協同創新”已然成為國產軟硬體全端共識。在政策層面,《算力基礎設施高品質發展行動計畫》提出建構佈局合理、泛在連接、靈活高效的算力網際網路,增強異構算力與網路的融合能力,實現多元異構算力跨域調度編排。並且,相關部門多次強調,鼓勵各方主體創新探索智能計算中心建設營運模式和多方協同合作機制。延伸到AI應用層,《關於深入實施“人工智慧+”行動的意見》同樣要求深化人工智慧領域高水平開放,推動技術開源可及......不難看出,國家在人工智慧和智算領域給出了截然不同的中國方案——不在封閉路線中盲目追趕封閉,要在開放格局下謀求錯位趕超。事實上,頂層設計完全基於產業現實需要。在美方科技封鎖下,中國智算產業主要面臨兩大挑戰:單卡算力性能瓶頸、算力成本高。除了在晶片、模型、基礎軟體等核心技術領域持續攻堅外,當前更有效的途徑是發展更大規模、更多元高效的智算叢集,突破AI算力瓶頸。業內調研結果顯示,國內宣佈擁有千卡規模的算力叢集不少於100個,但其中大部分是異構晶片。可以想像,假如不同硬體系統相互封閉,標準介面不統一,軟體棧互不相容,將導致難以實現智算資源的有效整合利用,更無法滿足大規模參數模型的應用需求。根據行業主流觀點,國產AI算力存在多元化、碎片化特徵,同時又具備相當的規模化優勢。當務之急並不是各自埋頭推進單一技術路線,更首要的是盡快打通“技術牆”、“生態牆”,實現產業鏈開放跨層協作,真正釋放總體算力生態潛能,從單點突破邁向整合創新。具體來看,所謂開放路線旨在基於開放的計算架構推動產業生態協同創新。比如通過制定統一的介面規範,聯動晶片、計算系統、大模型等產業鏈上下游企業共同參與生態建設,減少重複性研發和適配投入,共享技術攻關和協同創新效益。同時,隨著開放架構中的協作標準趨於統一,可以進一步打造出商品化的軟硬體技術,用以代替定製化、專有化的系統,進而降低計算產品應用成本,實現覆蓋產業全端的算力普惠。顯然,在中國式開放體系下,國產AI算力正打破GoogleTPU的泛化普及困境,將智算生態系統與各方開發者使用者廣泛連結,最終形成體系化協同戰力,更靈活高效賦能人工智慧+落地。屆時,中美AI博弈也將走出單卡競爭和單一模型比拚,全面迎來生態體系能力的終極對壘。 (伯虎財經)
100萬塊TPU訂單!ASIC液冷市場迎來強利多
01. Google獲Anthropic百億美金TPU訂單,ASIC晶片晶片迅速 起量Google有限責任公司已與人工智慧初創公司Anthropic達成一項價值數百億美元的交易。Anthropic官宣原話:今天,我們宣佈計畫擴大對Google雲技術的使用,包括高達一百萬個 TPU,這將大幅提升我們的計算資源,以持續推動人工智慧研究和產品開發的邊界。此次擴展價值數百億美元,預計將在 2026 年上線超過一吉瓦的容量。“Anthropic 決定大幅擴大其對 TPU 的使用團隊在過去幾年中使用 TPU 所觀察到的出色性價比與能效表現。”——Google雲 CEO Thomas Kurian 表示。“我們將繼續在 TPU 上進行創新,不斷提升其效率與算力容量,進一步完善我們已經非常成熟的 AI 加速器產品組合,其中包括第七代 TPU——Ironwood。”Anthropic 表示 ,選擇Google的 TPU 是因為其性價比和效率,同時也因為其之前使用該晶片的良好體驗。Anthropic 獨特的計算策略專注於多元化路徑,高效地同時利用三大晶片平台——Google 的 TPU、Amazon 的 Trainium,以及 NVIDIA 的 GPU。這種多平台策略確保我們能夠在持續提升 Claude 能力的同時,保持與整個行業的緊密合作關係。我們將繼續致力於與 Amazon 的合作——它是我們主要的訓練合作夥伴和雲服務提供商,並將繼續與該公司在 Project Rainier 項目上攜手推進。該項目是一個龐大的計算叢集,涵蓋分佈在美國多個資料中心的數十萬顆 AI 晶片。02.  Google的七代TPU晶片,採用冷板液冷散熱隨著Google的TPU訂單飆升,我們再看液冷市場。Google的第七代 TPU Ironwood 性能比肩輝達的B200,同時晶片的功耗也在飆升,Google的TPU今年功耗單晶片突破600w,叢集功率高達10MW。液冷方面經過多次實驗和迭代,Google於 2018 年正式進軍液冷 TPU 領域。此後,該公司持續開發和改進其冷卻設計。他們目前的液冷解決方案專為資料中心規模設計,液冷回路跨越機架,而非侷限於伺服器內部。03. CSP巨頭爭先與輝達“分手 ”,AISC晶片市場年增速50%在 Deepseek 等低訓練成本 AI 模型推動下,近期 AI 算力需求逐步由訓練算力轉向推理算力,而以Google TPU 為代表的 ASIC 在 AI 推理領域具備不遜色於輝達 GPU 的性能以及更低的功耗,有望在 AI 推理領域對 GPU 實現替代。目前超大規模雲服務商正開始與輝達展開一場漫長的“分手”過程。據行業報告顯示,專用積體電路的採購預計將以每年50%的複合增長率持續上升,而這部分增長主要來自微軟、Google和亞馬遜AWS等公司,這些巨頭正著加速推進的ASIC晶片研發。同時據報導,輝達的核心雲端運算客戶雖然仍在持續採購其硬體,但同時也在加緊訂購ASIC硬體,並預訂台積電的產能。04. ASIC液冷市場展望據媒體報導,預計 2025 年Google和 AWS 的 ASIC 合計出貨量將達到 300 萬片以上,後續 Meta,字節等廠商也將加快部署自研 ASIC 解決方案,ASIC 市場將迎來加速擴張,有望推動液冷需求進一步提升。目前台灣的散熱大廠,Coolermaster,AVC,雙鴻等廠商已經吃到第一波紅利。此前AVC負責人在半年度財報發佈會也表示,最大客戶持續加大ASIC投入,預估明年這部分成長會滿可觀。 ASIC是高度客制化,包括水冷板數量與系統設計較GPU更複雜,儘管目前GPU水冷營收比重較高,但是高階ASIC專案投入速度快於GB系列,而且對水冷解決方案需求明顯升溫,預期將會成為後續重要成長引擎之一。從富邦發佈的台積電晶片研報資料來看,ASIC晶片目前市場份額正在快速升高,預估在AI市場的推動下,預估到明年ASIC晶片市場份額將會快速升高至36%-40左右。 (零氪1+1)
國外ASIC更新:Google/亞馬遜/Meta/OpenAI最新進展,出貨量資料等
上周The information 報導,Google開始加大力度對外推廣其自研的TPU,引發不少關注。我之前沒怎麼花時間關注國外的ASIC,沒想到其發展速度竟然如此之快。美國幾乎每家知名的AI 公司都在自研晶片,OpenAI 的晶片研發進展也比外界預期的要快。關於各家公司自研晶片的路線圖,可參考下圖:今天為大家分享一篇Jefferies 9 月3 日發佈的報告,該報告更新了美國各家AI 公司自研晶片的相關情況,包括研發進度與出貨情況等。主要內容01. Google2026年TPU 預計出貨270萬張Google在AI 領域的發展成果顯著,而TPU 無疑是支撐其成長的關鍵因素。先前,我們認為Google在ASIC(專用積體電路)研發方面已趨於成熟,因此其出貨量理應不會出現意外波動。然而,在本季的更新中,我們大幅上調了對2026 年GoogleTPU 出貨量的預期,從180 萬部上調至270 萬張。在過去幾個月裡,我們注意到TPU 出貨量的預期每月都在持續上升。上游領域(即晶圓代工廠承諾的產能分配)的出貨量預期也在不斷提高,從120 萬部、150 萬部、180 萬部,一路升至目前的200 萬部,且這一增長趨勢不會止步於200 萬部,未來還將進一步提升。根據我們的調查,Google與博通目前的TPU 需求為270 萬至280 萬部。我們認為這項需求目標大機率能夠實現,原因如下:Google是CoWoS領域的第一線ASIC 客戶,近期相關業務進展順利。產能將根據客戶優先順序與終端市場情況逐步分配到位,而Google已滿足所有優先分配條件;滾動預期會及時進行稽核,這也是為何我們能看到TPU 出貨量預期每月上調。隨著需求前景愈發清晰,晶圓代工廠將承諾更多產能分配。根據我們的調查,目前的供應量足以滿足Google與博通270 萬至280 萬部的TPU 需求。02. META 啟動2 奈米ASIC副項目在我們先前的報告中曾提到,Meta 在ASIC 研發方面態度積極。從5 奈米ASIC 到3 奈米ASIC,平均售價(ASP)成長了5 倍,出貨量也幾乎翻倍。如今,Meta 再次帶來驚喜- 啟動了2 奈米製程ASIC 的副計畫。根據我們的調查,Meta 在2 奈米製程階段將推進兩個ASIC 項目,且預計都將於2027 年下半年開始量產。其中定位高階的專案名為「奧林匹斯」(Olympus),將繼續外包給博通(Broadcom)研發,因為Meta 旨在打造效能最強勁的ASIC:每款晶片配備2 個運算核心,且搭載12 組HBM3E(12Hi,即12 層堆疊高頻寬記憶體)。目前,嘗試搭載12 組HBM 的雲端服務供應商(CSPs)並不多,而元宇宙有望成為首家實現此配置的企業。另一定位中低階的ASIC 項目,Meta 正考慮採用客戶自有技術(COT)模式研發,即由其內部團隊負責前端設計,後端設計則外包給第三方。目前該專案的外包合作方仍在篩選中,競爭對手包括邁威爾(MRVL)、聯發科(MTK)、通富微電(Alchip)與日月光(GUC)。我們稱之為“副項目”,是因為該項目的出貨量可能不及“奧林匹斯”,但對於參與競標的設計服務供應商而言,其平均售價(ASP)預期較高,因此該項目仍具備較高的競爭價值。03. 其他ASIC亮點我們對亞馬遜雲端科技(AWS)2026 年ASIC 出貨量的預期基本上保持不變。由於亞馬遜雲端科技是ASIC 領域的二線客戶,能否獲得更多CoWoS產能,取決於兩方面因素:一是其他客戶是否釋放已有產能配額,二是亞馬遜雲端科技本身是否調整產品結構。根據我們的調查,亞馬遜雲端科技正考慮將Trn2.5 晶片產品線升級至Trn3。我們對OpenAI ASIC 出貨量的預期同樣未作調整,預計該晶片將於2026 年第四季開始量產,初期出貨量為13.6 萬片。目前,關於xAI(伊隆・馬斯克旗下人工智慧公司)ASIC 的相關資訊極為有限,前景尚不清楚。本次報告中變化最大的當屬蘋果(Apple)ASIC 的相關預期。根據我們的調查,受內部意見分歧影響,蘋果ASIC 的研發進度已出現延遲:部分團隊認為自研ASIC 至關重要,而另一部分團隊則堅持認為,公司已從輝達(nVidia)採購了足量的GPU(圖形處理器),無需再投入資源自研ASIC。從目前進度來看,蘋果ASIC 在2026 年達到量產的可能性極低。其他新興ASIC 的亮點還包括甲骨文(Oracle)ASIC。根據我們的調查,該晶片預計將於2027-2028 年開始量產,而其終端客戶有可能是中國雲廠。 (傅立葉的貓)