#ASIC晶片
百芯大戰
一年前,我們在《DeepSeek掀起算力革命,輝達挑戰加劇,ASIC晶片悄然崛起》一文中,更多的是看好ASIC帶來類似博通和晶圓代工的產業機會。一年後的今天,ASIC 的發展速度遠超預期。尤其近半年以來,ASIC甚至逐漸成為AI競爭的勝負手:國內外大廠開年以來股價表現最好的分別是百度、Google和阿里。GoogleTPU+自研模型+雲+內部應用的王炸,已經讓其立於不敗之地;國內網際網路大廠,近期被重估的只有自研ASIC晶片拆分獨立IPO的百度(計畫拆分崑崙芯IPO)和阿里(計畫拆分平頭哥IPO)。如今,ASIC 早已不只是單純的產業趨勢,更成為AI巨頭必煉的內功。01. ASIC趨勢比預期還要猛1. AI投資規劃越大,ASIC優勢就越明顯ASIC(Application Specific Integrated Circuit,專用積體電路)與 GPU 的核心差異,在於 ASIC 是針對特定演算法和應用的 “定製化最佳化”,而 GPU 則是適配多場景的 “通用型選手”。每個大廠都有自己獨特的應用、模型、雲和SaaS,ASIC 能精準匹配這些專屬需求,同時具備更低的成本與功耗優勢——這也是我們去年看好其在推理時代爆發的核心原因。當前 AI 軍備競賽愈演愈烈,10 萬美元/顆的 GPU 已讓大廠不堪重負(輝達 FY2025 年整體毛利率達 75.5%,淨利率 57%,單顆 GPU 成本不足 3 萬美元)。頭部廠商的 AI 資本開支已逼近千億美元,甚至需要通過融資、租賃外部算力等方式填補缺口。性價比更高的ASIC因此變得更為重要性:在AI算力向推理端傾斜、資料中心成本控制訴求升級的背景下,ASIC晶片憑藉顯著經濟性,正逐步打破GPU壟斷格局。Google自研晶片的成功,無疑更是行業的一針強心劑。所以近期,超大規模雲服務商都開始嘗試擺脫對輝達的依賴,加速建構自己的晶片護城河,以追求極致的 TCO(總擁有成本)和供應鏈安全。圖:GPU與ASIC比較資料來源:西南證券2. AI專用晶片邁過10億美元經濟生死線理論上,所有領域的晶片都該走向專用化——專用晶片的適配性與效率最優,但能否落地,關鍵在於下游市場能否支撐高昂的自研成本。當前 2nm 晶片流片成本已達 7 億美元,加上團隊搭建費用 3 億美元,自研門檻高達 10 億美元,這需要超 100 億美元的下游市場規模才能覆蓋成本。成功的代表是手機,每年全球近5000億美元的市場,自研主控SoC做的最好的是蘋果和華為,不僅降低了成本,更重要的是提升了手機性能,支撐溢價。但在比如汽車智駕領域,,由於市場空間並不夠大,主機廠自研並不具備經濟性,最終仍是輝達、地平線這樣的企業佔據主流。資料中心市場AI晶片單顆價值非常高,只需要有數百萬顆出貨量即可突破經濟生死線;顯然2025年開始,一個大廠內部採購的AI晶片數量就輕鬆超過100萬顆,容量已經完全能滿足流片和高昂的招聘費用。仍以Google為例,Techinsight資料顯示,其2023年自用TPU就超200萬顆,按年20億美金研發成本計算,單顆分攤成本僅幾千美金。經濟性的釋放,直接驅動資料中心 ASIC 出貨量持續攀升。據芯智訊援引 DIGITIMES 資料,ASIC 出貨量將進入加速通道,2027 年將突破 1000 萬顆,接近同期 GPU 1200 萬顆的水平。出貨量激增將同步帶動市場規模擴容,AI 用 ASIC 有望快速成長為千億美金賽道(對應單顆價值 1 萬美元左右,僅為輝達 GPU 的 1/5-1/10)。作為大廠 ASIC 核心合作方,博通給出更樂觀預期:2027 年大客戶 ASIC 可服務市場將達 600-900 億美元;Marvell 也預測,2028 年定製晶片將佔資料中心加速計算市場 25% 的份額。圖:可服務AISC市場規模估算資料來源:Marvell02. GPU和ASIC之爭繼續,結論是輝達難壟斷先說結論:在高速增長、供不應求的算力需求這一大背景下,輝達GPU作為基石的作用仍不可替代,但其份額將逐漸被ASIC蠶食。我們將在長期看到長期二者共存態勢:小型模型主導場景更利多 GPU 的靈活性,超大型模型持續增長則為 TPU 提供增長空間。具體原因下面展開。1. 輝達的領先,現在靠生態、產業鏈優先供應輝達GPU是當前最昂貴的計算加速器,適配各類 AI 場景,客戶粘性強,因為有兩大優勢。輝達明面上最大的優勢在於演算法生態:CUDA 生態與開發者習慣形成強壁壘、同時輝達 NVLink和InfiniBand長期主導 GPU 互聯。所以中小模型與研發場景長期仍將以 GPU 為主;在大模型訓推中,CUDA 生態仍領先其他方案至少一年半的時間。2. 另外一個在暗處的優勢是產業鏈優先支援輝達。就像即使設計水平一樣,蘋果的晶片也至少領先其他手機廠商一年,因為台積電最先進的晶片產能,蘋果是包圓的。同樣,輝達由於出貨量最大,是產業鏈優先支援的晶片廠,如:代工產能優先:輝達是台積電3nm 產能的優先合作夥伴,而Google等其他廠商在CoWoS 封裝、3nm 晶片產能上面臨競爭劣勢。HBM優先鎖定:全球僅 3 家 HBM 供應商(三星、海力士、美光),2026 年產能已售罄,2027 年仍可能供不應求,美光已明確表示不會因需求增加額外擴產,導致非輝達客戶產能得不到保障。我們最新瞭解到GoogleTPU 在 2026 年上半年有超過50%的產能缺口導致難大規模交付、微軟Maia 200也難產,都是由於產業鏈產能限制。3. 但以上問題,都可以靠時間得到解決。生態上:Google TPU 在AI 計算年支出超10 億美元超大型模型部署場景中已經有成本優勢了,所以將持續滲透大廠內部市場;此外,UALink、Ultra Ethernet 等開放標準正在崛起,有望打破輝達對互聯的壟斷。據測算,在10萬節點叢集中,Ethernet架構相較輝達InfiniBand,總擁有成本TCO最高可節省20%。另外隨著擴產,預計上游產能在2027 年逐步放量,供應鏈瓶頸開始緩解。同時2027年訓練與推理晶片資本開支佔比將趨近 50:50,給ASIC更大施展自己的舞台。圖:未來互聯技術選擇變多資料來源:錦緞研究院總結4. 更大的變局是GoogleTPU撕開輝達壟斷的裂縫如果說去年初我們對ASIC到底是否能分得一杯羹還存在猶豫的話,Google技術和商業閉環上的成功,已經徹底打消了我們的疑慮。Google TPU 的核心競爭力,首先源於技術層面的差異化優勢。自 2016 年首款 TPU V1 發佈並用於資料中心推理以來持續進行迭代,其最新的 TPU v7 搭載 Inter-Chip Interconnect技術,可支援最多 9000 個節點的超大規模叢集,訊號損耗低。硬體配置上,TPU 採用 HBM3E 記憶體,雖在容量和單系統算力上不及輝達產品,但功耗與乙太網路成本更具優勢,FP4 精度下每 PFLOPS 每小時成本僅 0.40 美元,性價比突出。5. 實戰表現是最好的驗證。GoogleNano Banana 等模型 100% 基於 TPU 完成訓練與推理,也支撐其內部語音搜尋、圖片搜尋等核心功能,成本低於 GPU,Google內部性能表現優異,在部分場景優於 GPU。同時成功走向外部市場,尤其是最新的V7版本:Meta,計畫2026年租用 TPU,並從 2027 年開始購買超100萬顆、價值數十億美元的 TPU,用於 Llama 模型部署,通過乙太網路與功耗最佳化實現15%-20% TCO 節省;OpenAI 達成合作協議,將部分推理工作負載從輝達晶片遷移至 TPU ;Anthropic 已承諾在 GCP 叢集中使用 TPU 訓練模型,2025年10月簽署 100 萬 TPU訂單;Apple 2024年就採購TPU用其進行 LLM 訓練;潛在客戶:部分新興雲廠商(如 Fluidstack、TeraWulf)因 GCP 提供付款擔保而嘗試採用 TPU。圖:GoogleTPU有清晰的路線圖資料來源:浙商證券輝達的真正挑戰者,並非 AMD、英特爾等同行,而是Google這樣的跨界玩家。我們調研瞭解到,單顆 TPU 晶片售價預計1—1.5 萬美元,定價瞄準 AMD,意圖通過低價擠壓競爭對手,倒逼輝達降價。僅 Meta 一家就可能為Google帶來 10 億美元以上的收入。樂觀測算,到 2027 年,TPU 可能搶佔輝達15% 的訓練市場份額:現有輝達使用者遷移雖需時間,但新增工作負載更易轉向 TPU。Semianalysis更是預測2027年GoogleTPU(v6-v8)合計出貨量達到600萬顆。這一預測並不激進 ——2027 年推理場景佔比將達 50%,ASIC 將承擔其中 50% 的工作負載,對應 ASIC 在算力晶片中的滲透率超 20%,而Google TPU 拿下其中一半份額(當前份額 75%)難度不大。6. 來自EDA的產業鏈驗證上述趨勢,得到了晶片行業最上游 EDA 領域的雙重驗證。作為整個晶片行業最上游的EDA行業,Synopsys和Cadence最新的指引為:未來EDA 行業增長核心來自蘋果、Google、特斯拉等 “系統公司”,而不是第三方晶片設計廠;具體來說,這類系統性客戶佔當前 EDA 營收的 45%左右,未來 2-3 年將超 50%。這意味著,大廠自研晶片,並通過外售攤薄成本(如Google、百度、阿里)的模式,將從今年起加速推進。03. Google示範效應下,大廠紛紛豪賭自研ASIC1. 成本集約、降低功耗符闔第一性原理在《馬斯克說“中國將最終贏得AI競爭”,有什麼深意?》一文中,我們提到,當前AI用電還只佔美國用電的5%左右,到2030年AI耗電佔到10%,到2035年佔比接近20%,未來更加缺電。除了增加發電容量外,降低單晶片功耗也同樣關鍵。ASIC對於大廠而言,不僅僅是降低成本,還能降低寶貴的額功耗。GPU 作為通用計算晶片存在 30-40% 功能冗餘,必定導致功耗浪費,而 ASIC可針對特定工作負載最佳化,降低成本與功耗,成為大廠的必選。主流ASIC在算力性能上已基本對齊輝達H系列GPU,但能效比優勢突出,同代際晶片具體指標對比:算力方面,輝達H100 FP16算力為990 TFLOPS,GoogleTPU V6e為918 TFLOPS,AWS Trainium2為667 TFLOPS;功耗上,H100達700W,TPU V6e僅383W,Trainium2為500W;互聯頻寬上,H100以900GB/s領先,TPU V6e為448GB/s,Trainium2為512GB/s。2. 北美大廠近兩年加速為搭上ASIC這班高速列車,海外雲廠CSP紛紛加碼自研ASIC,並依託外部晶片設計合作夥伴簡化落地難度,核心合作廠商包括Marvell、Broadcom、Alchip等。這是由於大廠僅具備部分自研能力,例如Google、亞馬遜可完成前端設計(程式碼編寫、綜合),但物理層技術(如SerDes、交換機、相干光模組)存在高壁壘,需依賴外部成熟產品與IP,後端驗證、流片等體力活也需外部支援。圖:合作的ASIC廠商優劣勢對比資料來源:錦緞研究院總結Google已深耕 TPU 十年,前文已有詳細討論;其他北美大廠則是近兩年加速跟上,動作開始變大。亞馬遜:Trainium2於2023年發佈,由16顆Trainium2晶片支援的EC2 Trn2實例,性價比相較GPU-based實例高出30-40%,目前已服務超200位客戶,覆蓋營運商、航空、零售等領域,2024年出貨量年增率突破200%,2025年預計增長70%以上,但項目有些延遲,未來將重點聚焦Trainium3晶片,投入公有雲基礎設施及電商平台AI應用。Meta:MTIA系列專為推薦推理任務設計。2024年MTIA v2採用台積電5nm工藝,TDP僅90W顯著降低功耗,可高效處理社交媒體內容推薦、廣告最佳化等內部任務;2025年推出MTIA v3,將搭載HBM記憶體,2026年有望實現放量。微軟:2024年公佈Maia 100,採用台積電5nm工藝與CoWoS-S技術,當前承載內部10%-20%工作載荷,聚焦大規模AI工作負載的成本與效率最佳化;隨著 Maia 300 量產與 workload 適配深化,目標定製 ASIC 相較輝達件成本節省80%,能耗成本降低 50%,長期 TCO 最佳化達 80%;OpenAI:2024年曝光首顆晶片,將採用台積電A16工藝,專為Sora視訊應用打造,且與博通達成100億美元合作,聯合開發專屬推理晶片,目標12個月內交付。特斯拉:計畫2025年底推出下一代Dojo 2晶片,性能有望媲美輝達B200,核心服務於Dojo訓練電腦項目。xAI則是正式啟動x1晶片自研,計畫今年量產。圖:海外CSP巨頭自研ASIC時間表資料來源:申萬宏源圖:北美廠商ASIC晶片及合作夥伴梳理資料來源:東吳證券3. 中國大廠:晶片項目重要程度跳升中國頭部大廠自研 ASIC 的時間早於北美同行,但此前多為小打小鬧。在Google TPU 驗證可行性、輝達晶片受限的雙重驅動下,ASIC 已上升為核心戰略,並已取得階段性成果。百度崑崙芯:崑崙芯擁有 15 年技術積累,一直錨定AI訓練與推理加速的核心場景,相容CUDA生態,目前已迭代至第三代。崑崙芯2024年出貨量6.9萬片、營收20億,2025年預計出貨13萬片、營收沖35億。對外客戶,實現萬卡叢集部署並中標中國移動10億訂單,實際上外部客戶是2026年高增的主要來源,已進入中國移動、南方電網、比亞迪、招商銀行、地方智算中心等供應鏈。阿里平頭哥:核心產品線包括倚天、含光、PPU三類,其中PPU作為大算力晶片是市場焦點,又分為兩款主力產品:高端款單顆算力超300T、視訊記憶體96G,採用先進製程,僅以整機形式銷售,2024-2025年合計出貨估計30萬張,低端款採用中芯國際12nm(N+1)工藝,由燦芯負責後道IP及介面設計,單價不超2-3萬元,2026年Q1啟動流片量產,預計出貨50萬顆。銷售模式以內部消化為主,對外銷售需搭配阿里雲方案,無獨立適配場景,2026年PPU整體出貨預計80萬顆。字節跳動:字節佈局CPU與ASIC兩類晶片,自研處理程序落後於平頭哥、崑崙芯,當前採取“外采低端晶片+推進海外研發+國內先進製程排隊”策略,2026年將完成海內外先進工藝設計,等待產能流片,計畫2026年前實現量產。騰訊:後發追趕,自研緊迫性較強,終止對燧原投資並重啟“紫霄”自研項目,以數倍薪酬挖角頂尖人才,需求集中在遊戲、AIGC、數字孿生等領域。但相對海外巨頭,中國大廠面臨更大的挑戰,體現在幾個方面:主業掙錢不如海外大廠,股東對於內部晶片業務虧損不滿,所以阿里百度都開始分拆上市平衡短期虧損與長期戰略投入;先進產能資源更加稀缺,中國由於美國的封鎖,中芯國際等先進製程產能供不應求;配套AI晶片服務廠類似博通、Marvell,由於制裁原因也很難為國內企業提供定製服務,國內相關的芯原股份、翱捷科技等在技術積累、IP沉澱、經驗上都有比較明顯的差距。04. 結語:AI競爭錨點之變AI 產業的競爭,已從模型演算法的比拚,延伸到算力底層的硬核博弈。ASIC 晶片憑藉極致的能效比與成本優勢,正在重塑全球 AI格局,成為巨頭們構築競爭壁壘的核心抓手。沒有自研 ASIC 晶片,在這場更燒錢、更考驗綜合實力的 AI 競賽中,終將失去話語權。晶片已經內化成生態的一環了,我們將在此後的文章中進一步展開。對於中國企業而言,這既是順應產業趨勢的必然選擇,也是直面挑戰的艱難征程。儘管在盈利能力、先進產能、產業鏈配套等方面面臨著比海外企業更嚴峻的考驗,但自研 ASIC 已是無法迴避的戰略方向。百度崑崙芯的穩步起量到阿里平頭哥的分拆提速,都宣告2026是中國大廠加速轉向之年。對此我們是偏樂觀的,在技術攻堅與生態建構的持續投入下,中國企業終將在全球 ASIC 賽道佔據一席之地。 (錦緞)
半導體行業的2026,三大關鍵詞
在剛剛過去的2025年,從“寒王”市值飆升,儲存漲價潮席捲全球,到年末摩爾線程、沐曦股份先後上市刷新新股盈利紀錄,半導體毋庸置疑是熱度最高的類股之一。在這一年裡,全球頭部半導體企業合計銷售額突破4000億美元,創下行業歷史新高,2026年這一記錄或有望再度刷新。步入2026年,那些有望成為下一個產業爆點?在外部環境充滿變數的當下,中國半導體產業又將如何前行?綜合各路分析,《科創板日報》為您整理了三個2026年半導體產業關鍵詞:儲存、AI與中國國產化。一場關於成本、技術與供應鏈的全域博弈即將開場。儲存:漲價或將貫穿全年回看2025年,儲存暴漲就引發了高度關注。供需鴻溝面前,行業龍頭報價接連暴漲。多家儲存產業鏈廠商都預計,儲存短缺將持續到2026年。“我們的產品供應與客戶需求之間存在巨大缺口,且這種短缺局面將持續一段時間。” 美光科技首席商務官蘇米特・薩達納表示。TrendForce預計,後續儲存產業資本開支將持續上漲,其中DRAM資本開支將從537億美元增長至613億美元,同比增長14%;NAND產業資本開支將從211億美元增長至222億美元,同比增幅為5%,但對2026年產能助力有限。因此,中銀證券預計,儲存價格上漲趨勢或將貫穿2026年全年。中國中國國產儲存廠商亦在積極開發4F2+CBA的技術架構以應對全球龍頭廠商的技術競爭。4F2+CBA的架構變化有望為供應鏈帶來增量變化。儲存漲價潮下,全球終端產品迎來艱巨成本考驗,手機及PC供應商計畫通過漲價、縮減規格配置、暫緩升級等措施以平衡成本。此前已有消息稱,聯想、惠普、戴爾等PC廠商已著手重新評估2026年產品規劃。其中,聯想已經通知客戶即將進行漲價調整,所有伺服器和電腦報價在2026年1月1日到期,新報價大幅上漲;戴爾正考慮對伺服器和PC產品漲價,漲價幅度預計至少在15~20%區間;惠普 CEO也表示2026年下半年可能“尤其艱難”,必要時將上調產品價格。值得一提的是,上交所官網12月30日晚間顯示,中國第一、全球第四的DRAM廠商長鑫科技申報科創板IPO獲上交所受理,擬募資295億元;招股書披露,公司2025年第四季度利潤超預期。東吳證券指出,長鑫重點在研的CBA這一走向3D的技術將有望釋放後續持續擴產動能,通過這一另闢蹊徑的方式縮小與三星和海力士的代際差,保證擴產量級,其產業鏈公司將充分受益。裝置環節在受益長鑫充裕擴產之餘,部分優質公司還將享受滲透率快速提升,迎來戴維斯連按兩下;部分代工和封測公司將承接長鑫的代工需求。AI:算力資本開支續漲 AI終端創新元年到來AI熱潮持續多時仍未停歇,帶動全球算力產業鏈延續高增長。即便歷經了泡沫論疑慮,但在展望2026年時,多方機構依舊給出了較為樂觀的預期。受益於CSP、主權雲等算力需求擴張、以及AI推理應用的蓬勃發展,TrendForce預計2026年全球八大雲廠商合計資本支出將增長40%,達到6000億美元,全球AI伺服器出貨量將增長20.9%。一方面,產業重點由訓練開始漸漸向推理轉移,同時得益於大模型在架構上的創新,國內外大模型在多模態理解、推理及AI應用層面均實現持續進階,帶動ASIC熱度上升。國海證券預計,2026年資料中心ASIC晶片出貨量有望超800萬顆,2027年有望突破1000萬顆,未來或將與同期GPU出貨量相近。ASIC崛起下,已有公司相關訂單量開始攀升。例如芯原股份日前公告,2025年10月1日至12月25日期間,公司新簽訂單金額達24.94億元,較2024年Q4全期大增129.94%,較2025年Q3全期增長56.54%。其中,Q4新簽訂單金額中絕大部分為一站式晶片定製業務訂單。展望2026年,東吳證券預計中國國產算力晶片龍頭有望進入業績兌現期,看好中國國產GPU受益於先進製程擴產帶來的產能釋放。考慮到中國國產算力晶片各家參與者為爭奪市場份額而搶奪產能資源,看好AIASIC服務商在供應鏈中的關鍵角色。除了上游算力之外,AI產業鏈中,下游終端也是2026年備受期待的一個環節。券商認為,2026年是AI終端創新元年,Meta、蘋果、Google、OpenAI均將有新終端新品推出。AI終端形態以眼鏡為代表,同時有AI pin、攝影機耳機等新形態。伴隨模型迭代和新終端的應用場景開發加速,下一代爆款終端或在大廠創新周期中應運而生。端雲混合為AI場景賦能,端側SoC持續受益於AI創新浪潮。中國國產化:本土晶片設計企業崛起 多環節迎來機遇在半導體產業發展中,“中國國產化”一直是關鍵引擎之一。多家券商認為,從晶圓代工到半導體裝置,產業鏈多環節都有望在2026年進一步打開中國國產化機遇。資料顯示,2017-2025年中國晶片設計企業數量和銷售額均以兩位數復合增速增長。中國晶片設計企業數量由2017年的1380家增長至2025年的3901家,年均復合增速為14%,其中銷售額過億的企業數量由2017年的191家增長至2025年的831家,年均復合增速20%。從銷售額來看,2017年為1946億元,2024年增至6460億元,年均復合增速19%,高於全球半導體銷售額同期6%的增速。此外,此前2022年半導體行業周期下行,中芯國際、華虹半導體、聯電等晶圓代工廠的產能利用率均下降,但中芯國際和華虹半導體產能利用率較早實現觸底回升。券商認為,這主要得益於大陸晶片設計企業的崛起和製造本土化趨勢。晶圓代工方面,東吳證券預計,先進邏輯擴產量級有望翻倍,晶圓代工景氣維持。目前國內先進製程尤其是7nm及以下供給嚴重不足,在海外斷供的潛在壓力和中國國產先進邏輯晶片可預見的需求旺盛,2026年開始出於保供意圖的先進擴產將十分豐厚,中芯國際和華力集團有望持續擴產先進製程;除此之外,更多的主體將擴產14nm。半導體裝置方面,中信建投指出,在行業擴產整體放緩大背景下,中國國產化驅動下的滲透率提升依然是裝置類股後續增長的重要來源。其預計未來裝置中國國產化率將實現快速提升,頭部整機裝置企業2025年訂單有望實現20%-30%以上增長,零部件、尤其是卡脖子零部件中國國產化處理程序有望加快,類股整體基本面向好。頭部客戶的中國國產替代訴求仍較強,不在清單的客戶也在加速匯入中國國產,預計後續中國國產化率提升斜率更陡峭,裝置廠對供應鏈的中國國產化推進也非常迅速。 (財聯社)
中美AI算力中盤博弈:開放與封閉之爭
近日,GoogleTPU攜Gemini3逆襲之勢大幅拓寬增量前景,Meta考慮斥資數十億美元為其買單,機構將TPU產量預期上調67%至500萬塊。基於“晶片-光交換網路-大模型-雲服務”全鏈閉環,Google智算體系重回AI賽道前沿梯隊,標誌著美式封閉壟斷路線更進一步。與此同時,以DeepSeek為代表的開源模型緊追不捨。月初,DeepSeek V3.2及其長思考增強版模型出爐,前者在性能測試中打平ChatGPT,後者直接對標閉源模型頂流Gemini。這也預示著中國開源開放路線漸入佳境,國產智算體系在應用層展現出良好的生態協同潛力。至此,中美AI產業博弈棋至中盤,“開放協同”與“封閉壟斷”對位格局愈發清晰。尤其在智算生態佈局中,兩大陣營或正醞釀著一場體系化能力的巔峰較量。從Gemini 3到TPU v7,軟硬一體閉環臻至極境毋庸置疑,GoogleTPU的突然走紅,很大程度得益於Gemini3的模型能力驗證。作為專為GoogleTensorFlow框架而生的ASIC晶片,TPU憑藉軟硬體一體化設計為其全端閉環完成奠基,同時也在上層應用高位突破時俘獲外部使用者市場,甚至一度被視為輝達GPU的最強平替。所謂“軟硬一體化”,即硬體的設計完全服務於上層的軟體和演算法需求。如Gemini 3訓練和推理過程高度適配TPU叢集,而這種定製化專用模式也在功耗能效方面展現出極高價值——TPU v5e的功耗僅為NVIDIA H100的20%-30%,TPU v7每瓦性能較前代產品翻倍增長。目前,Google通過“晶片+模型+框架+雲服務”的垂直整合,形成了一個封閉且高效的循環。一方面極大地提升了自身AI研發和應用開發效率,另一方面也在NV主流體系下裂土而治,奪得又一智算賽道主導權,Meta對TPU的採購意向則將這一體系熱度推向了高點。業內有觀點指出,從蘋果到Google,美式的垂直封閉玩法幾乎臻至極境,表現出科技巨頭為鞏固和擴張利益版圖,在產業鏈層面泛在的壟斷慾望。但從生態發展角度來看,封閉模式缺乏長期主義精神,極易導致產業長下游喪失創新活性,並形成單一主體高度集權的格局。另外,從TPU的應用場景來看,軟硬一體閉環儼然是專屬於巨頭的遊戲。某分析人士稱,Google的叢集化設計和“軟體黑盒”,需要使用者重新配置一整套異構基礎設施。如果沒有兆參數模型訓練需求,根本填不滿TPU的脈動陣列,省下的電費可能都抵消不了遷移成本。同時,由於TPU技術路線極為封閉,與主流開發環境無法相容,使用者還需要一支專業的工程團隊駕馭其XLA編譯器,重構底層程式碼。也就是說,只有像Google、Meta這種等級的企業才有資格轉向TPU路線,也只有算力規模達到一定程度才能發揮出定製化產物的能效優勢。不可否認,Google等頭部企業通過垂直整合自建閉環,在局部賽道快速實現單點突破,同時也造就了美國科技巨頭林立的蔚然氣象。但在中美AI博弈背景下,美式封閉壟斷路線憑藉先發優勢提前完成了賽道卡位,被動的追隨式趕超已很難滿足中國智算產業的發展需要。“小院高牆”之外,如何充分發揮舉國體制優勢,團結一切力量拆牆修路,成為拉近中美AI體系差距的關鍵。多元異構生態協同,開放路徑通往下一賽點相較於美式寡頭壟斷模式,中國智算產業正基於多元異構體系層層解耦,重塑開放式生態系統。從頂層設計到產業落地,“開源開放+協同創新”已然成為國產軟硬體全端共識。在政策層面,《算力基礎設施高品質發展行動計畫》提出建構佈局合理、泛在連接、靈活高效的算力網際網路,增強異構算力與網路的融合能力,實現多元異構算力跨域調度編排。並且,相關部門多次強調,鼓勵各方主體創新探索智能計算中心建設營運模式和多方協同合作機制。延伸到AI應用層,《關於深入實施“人工智慧+”行動的意見》同樣要求深化人工智慧領域高水平開放,推動技術開源可及......不難看出,國家在人工智慧和智算領域給出了截然不同的中國方案——不在封閉路線中盲目追趕封閉,要在開放格局下謀求錯位趕超。事實上,頂層設計完全基於產業現實需要。在美方科技封鎖下,中國智算產業主要面臨兩大挑戰:單卡算力性能瓶頸、算力成本高。除了在晶片、模型、基礎軟體等核心技術領域持續攻堅外,當前更有效的途徑是發展更大規模、更多元高效的智算叢集,突破AI算力瓶頸。業內調研結果顯示,國內宣佈擁有千卡規模的算力叢集不少於100個,但其中大部分是異構晶片。可以想像,假如不同硬體系統相互封閉,標準介面不統一,軟體棧互不相容,將導致難以實現智算資源的有效整合利用,更無法滿足大規模參數模型的應用需求。根據行業主流觀點,國產AI算力存在多元化、碎片化特徵,同時又具備相當的規模化優勢。當務之急並不是各自埋頭推進單一技術路線,更首要的是盡快打通“技術牆”、“生態牆”,實現產業鏈開放跨層協作,真正釋放總體算力生態潛能,從單點突破邁向整合創新。具體來看,所謂開放路線旨在基於開放的計算架構推動產業生態協同創新。比如通過制定統一的介面規範,聯動晶片、計算系統、大模型等產業鏈上下游企業共同參與生態建設,減少重複性研發和適配投入,共享技術攻關和協同創新效益。同時,隨著開放架構中的協作標準趨於統一,可以進一步打造出商品化的軟硬體技術,用以代替定製化、專有化的系統,進而降低計算產品應用成本,實現覆蓋產業全端的算力普惠。顯然,在中國式開放體系下,國產AI算力正打破GoogleTPU的泛化普及困境,將智算生態系統與各方開發者使用者廣泛連結,最終形成體系化協同戰力,更靈活高效賦能人工智慧+落地。屆時,中美AI博弈也將走出單卡競爭和單一模型比拚,全面迎來生態體系能力的終極對壘。 (伯虎財經)
100萬塊TPU訂單!ASIC液冷市場迎來強利多
01. Google獲Anthropic百億美金TPU訂單,ASIC晶片晶片迅速 起量Google有限責任公司已與人工智慧初創公司Anthropic達成一項價值數百億美元的交易。Anthropic官宣原話:今天,我們宣佈計畫擴大對Google雲技術的使用,包括高達一百萬個 TPU,這將大幅提升我們的計算資源,以持續推動人工智慧研究和產品開發的邊界。此次擴展價值數百億美元,預計將在 2026 年上線超過一吉瓦的容量。“Anthropic 決定大幅擴大其對 TPU 的使用團隊在過去幾年中使用 TPU 所觀察到的出色性價比與能效表現。”——Google雲 CEO Thomas Kurian 表示。“我們將繼續在 TPU 上進行創新,不斷提升其效率與算力容量,進一步完善我們已經非常成熟的 AI 加速器產品組合,其中包括第七代 TPU——Ironwood。”Anthropic 表示 ,選擇Google的 TPU 是因為其性價比和效率,同時也因為其之前使用該晶片的良好體驗。Anthropic 獨特的計算策略專注於多元化路徑,高效地同時利用三大晶片平台——Google 的 TPU、Amazon 的 Trainium,以及 NVIDIA 的 GPU。這種多平台策略確保我們能夠在持續提升 Claude 能力的同時,保持與整個行業的緊密合作關係。我們將繼續致力於與 Amazon 的合作——它是我們主要的訓練合作夥伴和雲服務提供商,並將繼續與該公司在 Project Rainier 項目上攜手推進。該項目是一個龐大的計算叢集,涵蓋分佈在美國多個資料中心的數十萬顆 AI 晶片。02.  Google的七代TPU晶片,採用冷板液冷散熱隨著Google的TPU訂單飆升,我們再看液冷市場。Google的第七代 TPU Ironwood 性能比肩輝達的B200,同時晶片的功耗也在飆升,Google的TPU今年功耗單晶片突破600w,叢集功率高達10MW。液冷方面經過多次實驗和迭代,Google於 2018 年正式進軍液冷 TPU 領域。此後,該公司持續開發和改進其冷卻設計。他們目前的液冷解決方案專為資料中心規模設計,液冷回路跨越機架,而非侷限於伺服器內部。03. CSP巨頭爭先與輝達“分手 ”,AISC晶片市場年增速50%在 Deepseek 等低訓練成本 AI 模型推動下,近期 AI 算力需求逐步由訓練算力轉向推理算力,而以Google TPU 為代表的 ASIC 在 AI 推理領域具備不遜色於輝達 GPU 的性能以及更低的功耗,有望在 AI 推理領域對 GPU 實現替代。目前超大規模雲服務商正開始與輝達展開一場漫長的“分手”過程。據行業報告顯示,專用積體電路的採購預計將以每年50%的複合增長率持續上升,而這部分增長主要來自微軟、Google和亞馬遜AWS等公司,這些巨頭正著加速推進的ASIC晶片研發。同時據報導,輝達的核心雲端運算客戶雖然仍在持續採購其硬體,但同時也在加緊訂購ASIC硬體,並預訂台積電的產能。04. ASIC液冷市場展望據媒體報導,預計 2025 年Google和 AWS 的 ASIC 合計出貨量將達到 300 萬片以上,後續 Meta,字節等廠商也將加快部署自研 ASIC 解決方案,ASIC 市場將迎來加速擴張,有望推動液冷需求進一步提升。目前台灣的散熱大廠,Coolermaster,AVC,雙鴻等廠商已經吃到第一波紅利。此前AVC負責人在半年度財報發佈會也表示,最大客戶持續加大ASIC投入,預估明年這部分成長會滿可觀。 ASIC是高度客制化,包括水冷板數量與系統設計較GPU更複雜,儘管目前GPU水冷營收比重較高,但是高階ASIC專案投入速度快於GB系列,而且對水冷解決方案需求明顯升溫,預期將會成為後續重要成長引擎之一。從富邦發佈的台積電晶片研報資料來看,ASIC晶片目前市場份額正在快速升高,預估在AI市場的推動下,預估到明年ASIC晶片市場份額將會快速升高至36%-40左右。 (零氪1+1)
國外ASIC更新:Google/亞馬遜/Meta/OpenAI最新進展,出貨量資料等
上周The information 報導,Google開始加大力度對外推廣其自研的TPU,引發不少關注。我之前沒怎麼花時間關注國外的ASIC,沒想到其發展速度竟然如此之快。美國幾乎每家知名的AI 公司都在自研晶片,OpenAI 的晶片研發進展也比外界預期的要快。關於各家公司自研晶片的路線圖,可參考下圖:今天為大家分享一篇Jefferies 9 月3 日發佈的報告,該報告更新了美國各家AI 公司自研晶片的相關情況,包括研發進度與出貨情況等。主要內容01. Google2026年TPU 預計出貨270萬張Google在AI 領域的發展成果顯著,而TPU 無疑是支撐其成長的關鍵因素。先前,我們認為Google在ASIC(專用積體電路)研發方面已趨於成熟,因此其出貨量理應不會出現意外波動。然而,在本季的更新中,我們大幅上調了對2026 年GoogleTPU 出貨量的預期,從180 萬部上調至270 萬張。在過去幾個月裡,我們注意到TPU 出貨量的預期每月都在持續上升。上游領域(即晶圓代工廠承諾的產能分配)的出貨量預期也在不斷提高,從120 萬部、150 萬部、180 萬部,一路升至目前的200 萬部,且這一增長趨勢不會止步於200 萬部,未來還將進一步提升。根據我們的調查,Google與博通目前的TPU 需求為270 萬至280 萬部。我們認為這項需求目標大機率能夠實現,原因如下:Google是CoWoS領域的第一線ASIC 客戶,近期相關業務進展順利。產能將根據客戶優先順序與終端市場情況逐步分配到位,而Google已滿足所有優先分配條件;滾動預期會及時進行稽核,這也是為何我們能看到TPU 出貨量預期每月上調。隨著需求前景愈發清晰,晶圓代工廠將承諾更多產能分配。根據我們的調查,目前的供應量足以滿足Google與博通270 萬至280 萬部的TPU 需求。02. META 啟動2 奈米ASIC副項目在我們先前的報告中曾提到,Meta 在ASIC 研發方面態度積極。從5 奈米ASIC 到3 奈米ASIC,平均售價(ASP)成長了5 倍,出貨量也幾乎翻倍。如今,Meta 再次帶來驚喜- 啟動了2 奈米製程ASIC 的副計畫。根據我們的調查,Meta 在2 奈米製程階段將推進兩個ASIC 項目,且預計都將於2027 年下半年開始量產。其中定位高階的專案名為「奧林匹斯」(Olympus),將繼續外包給博通(Broadcom)研發,因為Meta 旨在打造效能最強勁的ASIC:每款晶片配備2 個運算核心,且搭載12 組HBM3E(12Hi,即12 層堆疊高頻寬記憶體)。目前,嘗試搭載12 組HBM 的雲端服務供應商(CSPs)並不多,而元宇宙有望成為首家實現此配置的企業。另一定位中低階的ASIC 項目,Meta 正考慮採用客戶自有技術(COT)模式研發,即由其內部團隊負責前端設計,後端設計則外包給第三方。目前該專案的外包合作方仍在篩選中,競爭對手包括邁威爾(MRVL)、聯發科(MTK)、通富微電(Alchip)與日月光(GUC)。我們稱之為“副項目”,是因為該項目的出貨量可能不及“奧林匹斯”,但對於參與競標的設計服務供應商而言,其平均售價(ASP)預期較高,因此該項目仍具備較高的競爭價值。03. 其他ASIC亮點我們對亞馬遜雲端科技(AWS)2026 年ASIC 出貨量的預期基本上保持不變。由於亞馬遜雲端科技是ASIC 領域的二線客戶,能否獲得更多CoWoS產能,取決於兩方面因素:一是其他客戶是否釋放已有產能配額,二是亞馬遜雲端科技本身是否調整產品結構。根據我們的調查,亞馬遜雲端科技正考慮將Trn2.5 晶片產品線升級至Trn3。我們對OpenAI ASIC 出貨量的預期同樣未作調整,預計該晶片將於2026 年第四季開始量產,初期出貨量為13.6 萬片。目前,關於xAI(伊隆・馬斯克旗下人工智慧公司)ASIC 的相關資訊極為有限,前景尚不清楚。本次報告中變化最大的當屬蘋果(Apple)ASIC 的相關預期。根據我們的調查,受內部意見分歧影響,蘋果ASIC 的研發進度已出現延遲:部分團隊認為自研ASIC 至關重要,而另一部分團隊則堅持認為,公司已從輝達(nVidia)採購了足量的GPU(圖形處理器),無需再投入資源自研ASIC。從目前進度來看,蘋果ASIC 在2026 年達到量產的可能性極低。其他新興ASIC 的亮點還包括甲骨文(Oracle)ASIC。根據我們的調查,該晶片預計將於2027-2028 年開始量產,而其終端客戶有可能是中國雲廠。 (傅立葉的貓)