#ASIC
中美AI算力中盤博弈:開放與封閉之爭
近日,GoogleTPU攜Gemini3逆襲之勢大幅拓寬增量前景,Meta考慮斥資數十億美元為其買單,機構將TPU產量預期上調67%至500萬塊。基於“晶片-光交換網路-大模型-雲服務”全鏈閉環,Google智算體系重回AI賽道前沿梯隊,標誌著美式封閉壟斷路線更進一步。與此同時,以DeepSeek為代表的開源模型緊追不捨。月初,DeepSeek V3.2及其長思考增強版模型出爐,前者在性能測試中打平ChatGPT,後者直接對標閉源模型頂流Gemini。這也預示著中國開源開放路線漸入佳境,國產智算體系在應用層展現出良好的生態協同潛力。至此,中美AI產業博弈棋至中盤,“開放協同”與“封閉壟斷”對位格局愈發清晰。尤其在智算生態佈局中,兩大陣營或正醞釀著一場體系化能力的巔峰較量。從Gemini 3到TPU v7,軟硬一體閉環臻至極境毋庸置疑,GoogleTPU的突然走紅,很大程度得益於Gemini3的模型能力驗證。作為專為GoogleTensorFlow框架而生的ASIC晶片,TPU憑藉軟硬體一體化設計為其全端閉環完成奠基,同時也在上層應用高位突破時俘獲外部使用者市場,甚至一度被視為輝達GPU的最強平替。所謂“軟硬一體化”,即硬體的設計完全服務於上層的軟體和演算法需求。如Gemini 3訓練和推理過程高度適配TPU叢集,而這種定製化專用模式也在功耗能效方面展現出極高價值——TPU v5e的功耗僅為NVIDIA H100的20%-30%,TPU v7每瓦性能較前代產品翻倍增長。目前,Google通過“晶片+模型+框架+雲服務”的垂直整合,形成了一個封閉且高效的循環。一方面極大地提升了自身AI研發和應用開發效率,另一方面也在NV主流體系下裂土而治,奪得又一智算賽道主導權,Meta對TPU的採購意向則將這一體系熱度推向了高點。業內有觀點指出,從蘋果到Google,美式的垂直封閉玩法幾乎臻至極境,表現出科技巨頭為鞏固和擴張利益版圖,在產業鏈層面泛在的壟斷慾望。但從生態發展角度來看,封閉模式缺乏長期主義精神,極易導致產業長下游喪失創新活性,並形成單一主體高度集權的格局。另外,從TPU的應用場景來看,軟硬一體閉環儼然是專屬於巨頭的遊戲。某分析人士稱,Google的叢集化設計和“軟體黑盒”,需要使用者重新配置一整套異構基礎設施。如果沒有兆參數模型訓練需求,根本填不滿TPU的脈動陣列,省下的電費可能都抵消不了遷移成本。同時,由於TPU技術路線極為封閉,與主流開發環境無法相容,使用者還需要一支專業的工程團隊駕馭其XLA編譯器,重構底層程式碼。也就是說,只有像Google、Meta這種等級的企業才有資格轉向TPU路線,也只有算力規模達到一定程度才能發揮出定製化產物的能效優勢。不可否認,Google等頭部企業通過垂直整合自建閉環,在局部賽道快速實現單點突破,同時也造就了美國科技巨頭林立的蔚然氣象。但在中美AI博弈背景下,美式封閉壟斷路線憑藉先發優勢提前完成了賽道卡位,被動的追隨式趕超已很難滿足中國智算產業的發展需要。“小院高牆”之外,如何充分發揮舉國體制優勢,團結一切力量拆牆修路,成為拉近中美AI體系差距的關鍵。多元異構生態協同,開放路徑通往下一賽點相較於美式寡頭壟斷模式,中國智算產業正基於多元異構體系層層解耦,重塑開放式生態系統。從頂層設計到產業落地,“開源開放+協同創新”已然成為國產軟硬體全端共識。在政策層面,《算力基礎設施高品質發展行動計畫》提出建構佈局合理、泛在連接、靈活高效的算力網際網路,增強異構算力與網路的融合能力,實現多元異構算力跨域調度編排。並且,相關部門多次強調,鼓勵各方主體創新探索智能計算中心建設營運模式和多方協同合作機制。延伸到AI應用層,《關於深入實施“人工智慧+”行動的意見》同樣要求深化人工智慧領域高水平開放,推動技術開源可及......不難看出,國家在人工智慧和智算領域給出了截然不同的中國方案——不在封閉路線中盲目追趕封閉,要在開放格局下謀求錯位趕超。事實上,頂層設計完全基於產業現實需要。在美方科技封鎖下,中國智算產業主要面臨兩大挑戰:單卡算力性能瓶頸、算力成本高。除了在晶片、模型、基礎軟體等核心技術領域持續攻堅外,當前更有效的途徑是發展更大規模、更多元高效的智算叢集,突破AI算力瓶頸。業內調研結果顯示,國內宣佈擁有千卡規模的算力叢集不少於100個,但其中大部分是異構晶片。可以想像,假如不同硬體系統相互封閉,標準介面不統一,軟體棧互不相容,將導致難以實現智算資源的有效整合利用,更無法滿足大規模參數模型的應用需求。根據行業主流觀點,國產AI算力存在多元化、碎片化特徵,同時又具備相當的規模化優勢。當務之急並不是各自埋頭推進單一技術路線,更首要的是盡快打通“技術牆”、“生態牆”,實現產業鏈開放跨層協作,真正釋放總體算力生態潛能,從單點突破邁向整合創新。具體來看,所謂開放路線旨在基於開放的計算架構推動產業生態協同創新。比如通過制定統一的介面規範,聯動晶片、計算系統、大模型等產業鏈上下游企業共同參與生態建設,減少重複性研發和適配投入,共享技術攻關和協同創新效益。同時,隨著開放架構中的協作標準趨於統一,可以進一步打造出商品化的軟硬體技術,用以代替定製化、專有化的系統,進而降低計算產品應用成本,實現覆蓋產業全端的算力普惠。顯然,在中國式開放體系下,國產AI算力正打破GoogleTPU的泛化普及困境,將智算生態系統與各方開發者使用者廣泛連結,最終形成體系化協同戰力,更靈活高效賦能人工智慧+落地。屆時,中美AI博弈也將走出單卡競爭和單一模型比拚,全面迎來生態體系能力的終極對壘。 (伯虎財經)
GoogleTPU異軍突起,ASIC液冷將爆發,部署已超1GW !回看Google液冷進化史
01. Google TPU向輝達GPU發起衝擊,ASIC市場有望迎來爆發增長近期,AI市場火熱,Google對輝達發起最大衝擊,此前輝達的GPU一直穩居AI晶片王座,不容挑戰,但在Google發佈Gemini 3後,市場的風向開始轉變,Google的這一模型採用的是自研TPU進,而不是輝達GPU,更重要的是,業內認為其已經“超越”了OpenAI的GPT模型。除了Gemini 3,今年The Information也報導,Meta 正在與 Google 進行秘密談判,計畫大批次採購 Google 的 TPU 晶片,用於部分替代輝達的 GPU 以支援其龐大的資料中心 AI 運算。2027年Meta 可能將直接採購數十億美元的 TPU 晶片,部署於自建的資料中心此前Google有限責任公司已與人工智慧初創公司Anthropic達成一項價值數百億美元的交易。Anthropic官宣原話:宣佈計畫擴大對Google雲技術的使用,包括高達一百萬個 TPU,這將大幅提升計算資源,以持續推動人工智慧研究和產品開發的邊界。此次擴展價值數百億美元,預計將在 2026 年上線超過一吉瓦的容量。零氪認為,在Gemini 3等非GPU AI 模型推動下,近期 AI 算力需求逐步由訓練算力轉向推理算力,以Google TPU 為代表的 ASIC 在 AI 推理領域具備不遜色於輝達 GPU 的性能以及更低的功耗,有望在 AI 推理領域對 GPU 實現部分替代。02.液冷部署超1GW,Google伺服器液冷及整機方案回顧在 2024 年的 Google I/O 開發者大會上,Google CEO 桑達爾·皮查伊透露,Google的液冷裝置數量已增長至……約1吉瓦。Google的液冷技術已從晶片、伺服器、機架到資料中心基礎設施等各個層面進行了大規模開發。在晶片和伺服器層面,Google開發了冷板回路,其中冷板採用串聯和並聯配置,以滿足各個平台特定的散熱管理需求。Google的液冷故事始於 2018 年的 TPUv3,這是Google首次在量產 AI 伺服器上引入直接液冷。TPUv3 的液冷冷板採用銅材質、微通道鰭片結構,並設計了一種獨特的“中心衝擊、雙向分流(split-flow)”內部流道。這種結構相比傳統直通式流道具有更低的熱阻,更能有效覆蓋晶片中心的熱點區域。TPUv3 使用液冷的意義不僅在於溫度下降,而是直接帶來性能提升:它在同體積內實現 1.6 倍的 TDP 支援,頻率提升約 30%,並使得 TPU 超算的規模可以在相同空間內翻倍。TPUv3冷板的橫截面圖。冷板通過機械方式連接到TPUv3上。TPUv3產生的熱量通過導熱介面材料傳遞到冷板底座。Google開發的行內冷卻液分配單元,適配TPU V3。CDU 系統由泵和液-液熱交換器組成,用於將機架冷卻液回路與設施冷卻液回路隔離,從而為 IT 系統回路提供更小、化學成分更可控、更清潔的泵送冷卻液。CDU 由 6 個模組化 CDU (mCDU) 組成。在Google的 CDU 架構中,一個 mCDU 是冗餘的,這使得Google能夠實現整個機房範圍內的 CDU 可用性。約99.999 %自 2020 年以來一直如此。Google CDU 機隊從 2020 年第一季度 (Q1) 到 2024 年第四季度 (Q4) 的正常執行階段間。進入 2021 年,TPUv4 代表Google液冷技術邁向更高的工程複雜度。這一代 TPU 採用裸芯(bare die)封裝,冷板底部增加了“台階式接觸面”,精準穿過晶片封裝的機械圍框,直接觸達裸露的矽片表面。同一代還首次引入並聯液冷流道和主動流量控制閥,通過伺服器級閉環控制實現不同晶片的精準流量與溫度分配。Google特別指出,從 TPUv4 開始,液冷不再只是“去除熱量”,而變成“可控、可調的高性能熱管理系統”,直接服務於 AI 訓練過程中負載波動大、功耗變化快的特點。此時的液冷已經從被動散熱走向主動熱管理,是全新的計算架構能力組成部分。TPUv4 裸晶片封裝的橫截面示意圖。(c)帶底座的 TPUv4 冷板底座。TPU v5p也採用冷板式液冷技術,下圖為Google液冷式 AI 超級電腦方案。Google的第七代 TPU Ironwood 性能比肩輝達的B200,同時晶片的功耗也在飆升,Google的TPU今年功耗單晶片突破600w,叢集功率高達10MW。目前已經確認採用冷板式液冷技術。Ironwood晶片托盤。每個托盤包含4個Ironwood TPU晶片。該托盤採用液冷散熱。再上一層,每個機架可容納 16 個 TPU 托架,共計 64 個 TPU。該機架與另外 16 個 CPU 主機機架相連。機架內的所有互連均採用銅纜;OCS 提供與其他機架的連接。03.Google液冷CDU,加液車產品開發歷史Google開發的行內冷卻液分配單元,適配TPU V3。CDU 系統由泵和液-液熱交換器組成,用於將機架冷卻液回路與設施冷卻液回路隔離,從而為 IT 系統回路提供更小、化學成分更可控、更清潔的泵送冷卻液。CDU 由 6 個模組化 CDU (mCDU) 組成。在Google的 CDU 架構中,一個 mCDU 是冗餘的,這使得Google能夠實現整個機房範圍內的 CDU 可用性。Google發佈的第五代CDU單機可支援高達2MW的散熱能力,並且通過三塊並聯液-液換熱器、無密封高性能泵和全冗餘設計,實現了超高壓差、超高流量與極低溫差的散熱性能,同時相容風冷與液冷混合場景;更重要的是,Google還將該方案開源到OCP社區,為行業提供了一套面向AI時代超高功率資料中心的“液冷心臟”級解決方案。Google還開發了多種工具,其中包括一個相對較大的“注液套件”,用於在部署和日常維護期間向CDU裝置注液和排液。“注液套件”由一個150加侖的液體罐、泵、過濾器和其他輔助裝置組成。Google還開發了一種相對較小的推車,用於為IT托架和IT機架歧管等小型裝置注液和排液,如圖所示。IT托架注液推車由供液罐和回液罐、泵、電磁閥、空氣壓縮機和人機介面(HMI)以及其他輔助元件組成。這些工具由Google及其外部合作夥伴定製開發,並已通過認證,可在Google全球資料中心範圍內使用。Google資料中心大規模部署節能型液冷IT系統,得益於端到端供應商到資料中心模式的開發,該模式用於設計和交付IT規模和資料中心規模的液冷裝置。推薦的模式需要一個強大的多供應商供應鏈和生態系統,以確保端到端熱工水力性能、質量和可靠性達到最高標準。此外,建議資料中心所有者制定部署計畫,並考慮液冷裝置的端到端生命周期。利用開放標準可以加速資料中心液冷技術的規模化應用。04.ASIC液冷市場展望據媒體報導,預計 2025 年Google和 AWS 的 ASIC 合計出貨量將達到 400 萬片以上,後續 Meta,字節等廠商也將加快部署自研 ASIC 解決方案,ASIC 市場將迎來加速擴張,有望推動液冷需求進一步提升。此前台灣負責人在半年度財報發佈會也表示,最大客戶持續加大ASIC投入,預估明年這部分成長會滿可觀。 ASIC是高度客制化,包括水冷板數量與系統設計較GPU更複雜,儘管目前GPU水冷營收比重較高,但是高階ASIC專案投入速度快於GB系列,而且對水冷解決方案需求明顯升溫,預期將會成為後續重要成長引擎之一。從富邦發佈的台積電晶片研報資料來看,ASIC晶片目前市場份額正在快速升高,預估在AI市場的推動下,預估到明年ASIC晶片市場份額將會快速升高至36%-40左右。 (零氪1+1)
ASIC崛起,輝達的王座還穩嗎?
“我們為Google的成功感到高興——他們在AI領域取得了巨大進步,我們也將繼續向Google提供產品。輝達目前領先行業一代——我們是唯一一個可以運行所有AI模型、並在各種計算場景中通用的平台。”11月25日,輝達在社交平台X上的這番聲明,被視為對GoogleTPU近期備受關注的直接回應。就在聲明前一天,有消息傳出Meta正考慮從2027年開始在其資料中心部署Google的TPU,這一潛在交易金額可能高達數十億美元。受此影響,輝達股價一度重挫逾7%,市值蒸發近3500億美元。這一市場波動清晰地表明,AI算力領域正迎來一場靜默而深刻的變革。在輝達GPU看似壟斷的市場中,一股新生力量正悄然崛起。OpenAI開始租用Google的TPU晶片為其ChatGPT提供算力支援,亞馬遜宣佈其Trainium2晶片性能價格比優於其他硬體30%到40%,博通和Marvell的AI業務收入暴漲,一個明確的訊號正在釋放:ASIC的時代,已經到來。01ASIC晶片的崛起與繁榮2025年,全球ASIC晶片市場迎來爆發式增長。據中商產業研究院資料,2024年全球ASIC晶片市場規模已約達120億美元,到2030年,這一數字有望超過500億美元。長期以來,輝達憑藉其GPU和CUDA生態,在AI晶片市場佔據了超過90%的份額。 然而,GoogleTPU作為ASIC晶片的代表,正被視為輝達Blackwell晶片的可行低成本替代方案,逐漸改變市場競爭格局。在AI模型訓練成本呈指數級增長的今天,通用GPU雖然靈活,但其本質上仍是為圖形渲染設計的硬體,在面對神經網路的特定計算模式時,存在大量的效率損失。TPU和GPU都能處理訓練AI模型所需的大量計算,但實現方式截然不同。輝達的GPU最初為渲染視訊遊戲圖像而開發,通過數千個計算“核心”平行處理多項任務。而TPU專門為矩陣乘法這類AI相關工作而建構,這是訓練神經網路的主要操作。專用與通用,成為ASIC與GPU的核心差異。輝達在聲明中強調,其晶片相比GoogleTPU等專用積體電路晶片提供“更高的性能、多功能性和互換性”,後者通常只為單一公司或單一功能設計。Google最新版本的TPU名為Ironwood,於今年4月發佈,採用液冷設計,專為運行AI推理工作負載而設計。它有兩種配置:256個晶片的叢集,或更大的9216個晶片叢集。TPU在某些AI工作上可能表現優於GPU,因為Google可以“去除晶片上許多不適合AI的其他部分”,使其能耗更低、營運成本更低。先進封裝技術成為ASIC發展的重要支撐。根據TrendForce集邦諮詢研究,隨著雲端服務業者加速自研ASIC,為整合更多複雜功能的晶片,對封裝面積的需求不斷擴大。已有CSP開始考量從台積電的CoWoS方案,轉向英特爾的EMIB技術。EMIB擁有數項優勢:結構簡化,捨棄昂貴且大面積的中介層;熱膨脹係數問題較小;封裝尺寸也較具優勢。隨著Google決定在2027年TPUv9匯入EMIB試用,Meta亦積極評估規劃用於其MTIA產品,EMIB技術有望為英特爾IFS業務帶來重大進展。02博通與Marvell,雙足鼎立在ASIC定製晶片的繁榮背後,兩大巨頭成為最大贏家:博通和Marvell。 這兩家公司已形成近乎壟斷的雙寡頭格局,合計佔據ASIC市場超過60%的份額。博通作為絕對霸主,單獨拿下55-60%的市佔率。從業績就能直觀感受到它的強勢 ——Q2 財報裡,AI 業務收入直接突破 44 億美元,同比增長 46%,其中定製 AI 加速器還實現了兩位數增長,這種增速在成熟晶片企業裡相當亮眼。更關鍵的是它和大客戶的深度繫結,最典型的就是與Google的合作:從Google第一代 TPU 晶片開始,博通就全程參與設計和製造,現在雙方合作已經推進到 3nm 工藝的第六代 TPU,2023 年Google單在 TPU 相關合作上就給博通付了 35 億美元,2024 年這個數字預計會翻倍到 70 億美元,甚至連第七代 TPU 的供應合同都已經提前鎖定。除了Google,博通還跟 Meta 敲定了未來兩年的 AI 基礎設施合作,預計能帶來數十億美元收入;2025 年更聯手 OpenAI 啟動了 10 吉瓦級的定製 AI 加速器項目,這套系統會裝在 OpenAI 全球的資料中心裡,靠博通的乙太網路解決方案實現算力叢集擴展,整個項目估值超過千億美金。而且博通不只是靠單一產品,它 “定製加速器 + 高速互連” 的策略很見效,乙太網路、PCIe Gen6 這些配套 IP 能牢牢粘住客戶,按照規劃,2025 年它的 AI 總收入預計能突破 110 億美元,差不多是 Marvell 同期 AI 收入的 4 倍多。再看Marvell 的 “逆襲打法”。它雖然份額不如博通,但增長勢頭極猛:26Q1 資料中心營收達到 14.41 億美元,佔總營收的 76%,同比還暴增了 76%,這背後幾乎全靠 AI 定製晶片的大規模出貨。Marvell 聰明的地方在於不跟博通正面硬剛,而是走差異化路線。在客戶佈局上,它搭建了 “亞馬遜 + Google + 微軟” 的三角合作網:給亞馬遜量產 5nm 的 Trainium 訓練晶片,這款晶片佔了 AWS ASIC 出貨量的 85%,接下來還會接 Inferentia v3 推理晶片的項目;給Google代工 5nm 的 Axion ARM CPU 晶片,剛好和博通給Google做的 TPU 業務形成互補,不搶飯碗反而互相搭配;最近還拿下了微軟 Maia AI 晶片 2026 年的量產訂單,靠著這三大客戶,Marvell 甚至定下了 2028 年 AI 收入衝刺 70-80 億美元的目標。技術上,Marvell 也有自己的側重點,專門盯著 “能效 + 互聯” 做文章。它已經能用上台積電最新的 3nm 製程工藝,還握有 112G XSR SerDes 高速互連 IP、240Tbps Die-to-Die 互連技術,在雲資料中心場景裡能做到 “性能夠強、功耗夠低”—— 它和美光合作開發的 HBM 高頻寬記憶體架構,能讓 AI 加速器的算力密度提升 25%,待機功耗卻降低 66%,正好戳中雲廠商想控制總擁有成本的需求。另外,Marvell 還搞了資料中心全端佈局,除了 AI 定製晶片,儲存控製器、網路交換晶片這些配套產品也做得不錯,比如它的 112G SerDes IP,既能用在 AI 加速器上,也能裝在自家的乙太網路交換機裡,這種 “晶片 - 互連 - 儲存” 的垂直整合能力,成了它區別於博通的關鍵優勢。其實這兩家能長期壟斷,核心是有三道別人難跨的門檻。一是技術壁壘高,兩家都掌握了3nm 製程量產能力,還有超 20 年的 ASIC 設計經驗 ——Marvell 過去 25 年交付了超過 2000 個定製項目,博通手裡有覆蓋計算、儲存、網路的全場景 IP 庫,新玩家想跟上,得先闖過 “製程工藝 + 客戶驗證 + 生態適配” 這三關。二是客戶分化合理,博通主要做Google、Meta、OpenAI 這些客戶的 “訓練側” 算力需求,Marvell 聚焦亞馬遜、微軟的 “推理 + 通用計算” 場景,互不搶食,反而能覆蓋更多市場。2025 年全球雲服務提供商的 ASIC 出貨量預計超 500 萬顆,其中Google TPU 的 220 萬顆、AWS ASIC 的 180 萬顆,核心份額還是被這兩家分了。三是行業趨勢助推,現在生成式 AI 對算力的需求,正從通用 GPU 轉向定製 ASIC—— 畢竟 ASIC 在特定任務上算力成本降低了30%到40%,雲廠商為了降成本,更願意跟頭部供應商深度繫結,比如 OpenAI 既選博通做定製加速器,又用輝達的通用算力,這也說明雙寡頭在 ASIC 領域的地位很難被撼動。03生態和供應鏈,是關鍵AI算力競爭遠不止於晶片性能本身,更延伸到軟體生態和供應鏈安全。輝達憑藉CUDA生態系統建構了深厚的護城河,這是其聲明中“唯一可以運行所有AI模型”的底氣所在。Google則通過垂直整合,強化軟硬體協同優勢。Google上周發佈了公司最強大模型Gemini 3,這款廣受好評的最先進AI模型是在該公司的TPU上訓練的,而非輝達GPU。這一技術成就增強了TPU作為輝達GPU可靠替代方案的可信度。供應鏈多元化成為雲巨頭的重要考量。研究機構Gartner分析師表示,Google儘管擁有自己的晶片,仍是輝達最大客戶之一,因為它必須為客戶保持靈活性。如果客戶的演算法或模型發生變化,GPU更適合處理更廣泛的工作負載。與輝達不同,Google不向其他公司出售TPU晶片,而是將其用於內部任務,並允許企業通過Google Cloud租用。這種模式正在獲得認可,當前TPU客戶包括OpenAI聯合創始人Ilya Sutskever去年創起的初創公司Safe Superintelligence,以及Salesforce、Midjourney和Anthropic。國內市場方面,巨頭企業在ASIC 領域的佈局同樣亮眼,其中阿里巴巴自研的 PPU 晶片走在前列。據機構研判,這款 PPU 晶片在視訊記憶體容量、片間互聯頻寬等關鍵指標上已超越輝達 A800,而在視訊記憶體容量、PCIe 等核心參數上,也能與輝達 H20 比肩。上市公司中,芯原股份近年來與網際網路巨頭展開深度合作,其AI ASIC 業務在今年第三季度實現了翻倍式增長;翱捷科技則聚焦智能穿戴、端側 SOC 等細分領域,目前 ASIC 業務在手訂單充足,機構預計到 2026 年,該公司這一業務的收入將迎來大幅提升。對於國產AI 晶片的發展,多家券商也給出積極判斷。中信證券指出,當前國產 AI 晶片自主可控進展順利,除了阿里巴巴自研的含光系列 AI 推理晶片外,華為昇騰、寒武紀等企業的自研 AI 晶片也在持續迭代,這些成果有望緩解國內 AI 領域對海外算力的依賴。西部證券認為,企業擁有自研晶片可替代外部供給,能有效確保模型迭代與規模部署的連續性和可預期性。浙商證券則分析稱,相較於 GPU,ASIC 晶片在特定場景下具備低成本、高性能、低功耗的優勢,專用性和性價比更高,預計到 2028 年,ASIC 市場規模將達到 AI 晶片整體市場的 19%;同時該機構提到,ASIC 晶片單價遠低於 GPU,約為 GPU 的 1/5,隨著 Meta、微軟等企業逐步大規模部署自研 ASIC 解決方案,ASIC 總出貨量有望在 2026 年某個時點超越輝達。ASIC的崛起並不意味GPU的衰落。正如Google發言人所回應的:“我們定製的TPU和輝達GPU的需求都在加速增長。我們將一如既往地繼續支援這兩者。”這種多元化的策略,可能正是AI算力發展的未來方向——沒有單一解決方案能通吃所有場景。晶片行業“不是只有一個贏家的零和遊戲”。即使是最積極的ASIC採用者,也仍在大量採購輝達晶片。例如,Anthropic在與Google達成TPU協議幾周後,就宣佈了與輝達的重大交易。在AI技術快速迭代的今天,算力格局的重塑才剛剛開始。 (半導體產業縱橫)
輝達緊急發聲!
輝達官方稱其技術領先行業一代,是唯一能運行所有AI模型並應用於所有計算場景的平台。周二(11月25日),輝達官方表示,其技術依然領先行業一代,是唯一能夠運行所有人工智慧(AI)模型並應用於所有計算場景的平台。分析認為,輝達此舉是為了回應華爾街對該公司在AI基礎設施領域主導地位可能受到Google晶片威脅的擔憂。輝達在社交平台X上發文稱:“我們對Google的成功感到高興——他們在人工智慧方面取得了巨大進展,而我們也將繼續向Google供貨。”“輝達領先行業整整一代——是唯一一個能運行所有AI模型、並在所有計算場景中部署的平台。”輝達補充道:“與專為特定AI框架或功能設計的ASIC(專用積體電路)晶片相比,輝達提供更高的性能、更強的通用性以及更好的可替代性。”此番表態發佈之際,有報導稱輝達重要客戶之一的Meta,可能與Google達成協議,在資料中心使用Google的張量處理單元(TPU)。受此影響,輝達股價日內一度跌超7%。上周,Google發佈了最新的大語言模型Gemini 3,多位業內權威人士認為其已經“超越”了OpenAI的GPT模型。該模型是使用TPU進行訓練的,而不是輝達GPU。分析師指出,輝達在AI晶片市場的份額超過90%,儘管Blackwell價格昂貴,但性能強大。不過,近幾周以來,Google的自研晶片作為Blackwell晶片的一種可行替代方案,受到了越來越多的關注。Google雲內部高管透露,擴大TPU的市場採用率,有望幫助公司搶佔輝達年收入份額的10%。不同於輝達,Google並不向其他公司出售其TPU晶片,但會將其用於內部任務,並允許企業通過Google雲來租用。Google發言人在先前一份聲明中提到:“我們對自研TPU和輝達GPU的需求都在加速增長。我們將一如既往地同時支援這兩種技術。”輝達CEO黃仁勳在本月早些時候的財報電話會上也談到了來自TPU的競爭。他指出,Google本身就是輝達GPU晶片的客戶,Gemini模型也可以在輝達的技術上運行。黃仁勳還提到,他一直與GoogleDeepMind的CEO德米斯·哈薩比斯(Demis Hassabis)保持聯絡。黃仁勳稱,哈薩比斯給他發簡訊表示,科技行業裡認為“使用更多的晶片和資料可以打造更強大的AI模型”的理論——也就是AI開發者常說的“規模化法則(scaling laws)”——依然成立。輝達認為,規模化法則將帶動對其晶片和系統形成更強勁的需求。 (科創板日報)
ASIC這條晶片賽道,大火
在AI算力需求持續爆發的背景下,一個曾經相對小眾的晶片領域正在成為半導體產業的新風口-ASIC(Application Specific Integrated Circuit,專用積體電路)。與輝達GPU在AI市場的一枝獨秀不同,越來越多的雲端服務巨頭選擇客製化專屬的AI晶片,而為這些巨頭提供設計服務的ASIC廠商們,正在迎來前所未有的黃金時代。為什麼是ASIC?要理解ASIC如今的爆火,就需要將時鐘撥回20世紀80年代初。彼時,半導體技術正經歷一場深刻變革——單晶片所能承載的電晶體數量大幅提升,電子設備製造商不再滿足於使用千篇一律的通用晶片,他們渴望擁有能夠精準適配自身產品需求、與競爭對手形成差異化的客製化晶片。這種來自市場的強烈呼聲,催生了ASIC這個全新的晶片品類,也開啟了半導體產業的重大革命。在ASIC出現之前,半導體產業長期遵循著相對單一的商業模式:晶片公司預判市場需求,自主研發通用型晶片,批次製造後透過公開市場銷售給眾多客戶。這種模式在整合度較低的年代仍能運轉,但隨著電子產品日益精密與複雜,矛盾逐漸顯現。傳統半導體企業雖然精通晶片技術,卻缺乏深入理解各個細分應用場景的系統級知識,難以為每個特定市場設計專屬晶片;而係統廠商——那些生產電腦、通訊設備的企業——雖然清楚知道自己想要什麼樣的產品,卻既缺乏半導體設計能力,更沒有晶片製造的資源。正是在這樣的產業斷層中,VLSI Technology和LSI Logic等企業敏銳捕捉到了機會。它們開創了一種全新的協作模式:系統廠商負責晶片功能的定義和前端設計,明確晶片需要實現什麼功能;而ASIC企業則承擔物理設計(即後端設計)和製造環節的責任,將概念轉化為真實的矽片。這種分工打破了原有的產業邊界,讓專業的人做專業的事。儘管最初這一模式被業界質疑為「工程成本高、客戶數量少」的小眾生意,但市場很快就用真金白銀證明了其價值——到2000年時,LSI Logic的營收已達到27.5億美元。但傳統ASIC模式也存在一個關鍵限制:其光刻掩模歸ASIC企業所有,這意味著某一設計只能由對應的ASIC企業製造。即便其他廠商提出更優惠的方案,系統廠商也無法輕易更換供應商──這需要重新啟動完整的設計流程,成本極為高。這種鎖定效應在高批次生產場景下尤其讓顧客不滿。1990年代初,兩大變革打破了這一僵局:一是台積電(TSMC)等專業代工廠的出現,二是物理設計知識的普及和EDA工具的成熟。這些變化為系統廠商提供了一條全新路徑-客戶自有工具(COT)模式:系統廠商可以自主完成從概唸到掩模的全流程設計,然後選擇任意代工廠進行製造,掩模的所有權掌握在客戶手中,這意味著真正的供應鏈彈性。不過COT模式也並非十全十美,其很快就暴露出新的問題:晶片物理設計的難度遠超過許多系統廠商的想像。曾經認為ASIC企業收費過高的公司,在自己動手後才意識到,從網表到可製造版圖的過程中,佈局佈線、時序收斂、功耗優化、可製造性設計等每一個環節都充滿挑戰。在這樣的背景下,「設計服務企業」應運而生。這類企業與傳統ASIC公司角色相似,為客戶提供專業的設計支援,但關鍵區別在於:它們沒有自己的晶圓廠,主要依託台積電等代工廠,客戶保留掩模所有權。台灣的世芯、智原和創意等企業成為此模式的代表。這種更開放、更靈活的生態,為後來AI時代百花齊放的ASIC創新奠定了產業基礎。到了2010年代,AI的出現,讓ASIC真正得以一展身手。這段時期,深度學習技術取得突破性進展,ImageNet影像辨識競賽上的驚艷表現讓業界意識到,神經網路正在開啟一個新時代。同時,訓練這些模型所需的算力呈指數級增長——從2012年AlexNet的數天訓練時間,到2018年BERT模型的數周甚至數月,再到GPT-3等大模型需要數千塊GPU協同工作數月之久。通用GPU雖然可以勝任AI訓練,但其本質上仍是為圖形渲染設計的硬體,在面對神經網路的特定計算模式時,存在大量的效率損失。正是在這樣的背景下,Google在2016年首次公開了其TPU晶片。這款ASIC專門針對TensorFlow框架下的神經網路推理優化,在Google的資料中心中大規模部署,為搜尋、翻譯、照片辨識等服務提供算力支撐。TPU的成功引發了連鎖反應。如果說在ASIC發展的前幾十年,市場主要由電信設備、消費性電子等傳統應用主導,那麼2010年代後半段,AI迅速成為ASIC最重要、成長最快的應用領域。特斯拉為自動駕駛研發FSD晶片,蘋果在iPhone中整合Neural Engine,華為推出昇騰系列AI處理器,亞馬遜為AWS雲端服務開發Inferentia推理晶片——幾乎所有科技巨頭都意識到,AI時代的算力競爭,必須依靠客製化的ASIC來實現效率和成本的最優平衡。ASIC,迅速繁榮我們不難發現,與GPU這樣的通用處理器不同,ASIC從誕生之初就帶有鮮明的「專才」特質──它只為一個特定的應用場景或功能而生,但會把這件事做到極致。ASIC的第一大優勢是效能的極致最佳化。在1980年代,ASIC主要採用兩種製造技術:閘陣列(gate-array)和基於單元(cell-based)設計。閘陣列技術在晶圓上預先製造好閘電路,掩模僅需對互連部分進行圖案化,速度更快、成本更低;而基於單元的設計則需要對空白晶圓的所有層進行圖案化,雖然製造周期更長,但靈活性更強,能夠實現更高的電路密度和性能。這種對特定任務的深度定製,到了AI時代展現出更驚人的效果。通用處理器如CPU需要兼顧各種可能的運算需求-從文字處理到圖形渲染,從資料庫查詢到科學運算-因此必須在架構上做出妥協,配置複雜的指令調度系統、多層快取結構、分支預測單元等。而AI專用ASIC則可刪繁就簡,將所有的電晶體資源都聚焦在神經網路運算的核心操作:矩陣乘法、卷積運算、活化函數等。以Google的TPU(Tensor Processing Unit)為例,這款在2010年代推出的AI專用ASIC,其核心就是一個256×256的脈動陣列(systolic array),專門針對張量運算最佳化。此設計使得TPU在執行機器學習推理任務時,效能可以達到同時期通用GPU的15-30倍,同時能效比提升30-80倍。這種性能飛躍,正是ASIC專用化理念在AI時代的最佳詮釋。ASIC的第二大優勢是功耗的極致控制,回顧ASIC的發展歷史,能源效率優勢一直是其核心賣點之一。在1990年代,ASIC廣泛應用於行動電話、數位相機等便攜設備,原因正是其出色的能源效率表現能夠延長電池續航力。進入2000年代,隨著多媒體設備的爆發式成長,ASIC在影像處理、視訊編解碼、電源管理等領域大展身手,讓裝置變得更小巧、更節能。到了AI時代,功耗問題已經從錦上添花的優勢升級為生死攸關的剛需。現代大型AI模型動輒需要數千甚至上萬塊GPU進行訓練,單一資料中心的功耗可達數十兆瓦-相當於一個小型城鎮的用電量。冷卻系統的成本和環境影響也成為不可忽視的問題。在這樣的背景下,ASIC的能源效率優勢具有了策略意義。ASIC之所以能效卓越,根本原因在於其可以精確控制每個運算單元的功耗特性。通用晶片為了保持靈活性,必須配置大量可能永遠不會被AI應用使用的功能模組——這些"閒置"的電路仍然會消耗靜態功耗。而ASIC則可以只保留必需的電路,去除一切冗餘。更進一步,ASIC還可以針對特定的運算模式優化資料流動路徑,減少資料在晶片內部的移移距離,而資料移轉往往是能耗的主要來源之一。在邊緣AI場景中,ASIC的能效優勢更加凸顯。智慧型手機、智慧音箱、監視攝影機、自動駕駛汽車——這些設備要麼受限於電池容量,要麼對散熱有嚴格限制,根本無法承載高功耗的通用晶片。例如,蘋果在iPhone中整合的神經網路引擎(Neural Engine)本質上就是AI專用ASIC,能夠在極低功耗下實現即時的臉部辨識、照片場景分析等功能。在汽車領域,特斯拉自研的FSD(Full Self-Driving)晶片同樣是ASIC架構,專門針對自動駕駛的視覺感知和決策任務優化,在功耗僅為72瓦的情況下,實現了每秒2300幀的圖像處理能力。ASIC的第三大優勢是物理尺寸的最佳化,早在1970年代,ASIC的前身——客製化積體電路就被應用於計算器和數位手錶中,原因之一就是其緊湊的設計。到了1980年代,隨著電玩主機和家用電腦的興起,ASIC幫助這些裝置在保持小巧外形的同時,實現了圖形渲染、聲音合成等複雜功能。這種"在有限空間內整合強大功能"的能力,正是ASIC設計哲學的體現。在AI時代,空間優化的重要性達到了新高度。現代智慧型手機需要在厚度不到10毫米的機身內,整合處理器、記憶體、電池、相機、天線等數十個組件。如果AI運算依賴獨立的通用晶片,不僅會佔據寶貴的電路板空間,還會因為晶片間的資料傳輸增加延遲和功耗。而將AI能力整合為ASIC形式的協處理器,可以與主處理器封裝在同一晶片內,甚至直接整合在同一塊矽片上,極大地節省了空間。事實上,如今的ASIC早已經成為AI基礎設施中不可或缺的一環,從Google到微軟,從亞馬遜到Meta,幾乎所有雲端服務巨頭都已經涉足定製晶片即ASIC晶片,在輝達賺的盆滿缽滿之際,ASIC也與之一同崛起,成為了新的搖錢樹。博通與Marvell:ASIC市場的最大贏家時間來到2025年,ASIC早已讓博通和Marvell賺的盆滿缽滿。博通FY25Q2財報顯示,其AI業務收入超44億美元,年增46%,客製化AI加速器實現兩位數增長;Marvell FY26Q1數據中心營收達14.41億美元,佔總營收76%,同比暴增76%,主要驅動力AI定製晶片的大規模出貨。從市佔率來看,博通與Marvell已經形成了近乎壟斷的雙寡頭格局。根據產業分析,這兩家公司合計佔據ASIC市場超過60%的份額,其中博通一家就拿下了55-60%的市場份額,堪稱絕對霸主;Marvell則佔據13-15%,穩居第二。更關鍵的是,它們服務的客戶清一色都是全球最頂級的雲端服務供應商(CSP)——這些才是真正大規模部署AI基礎設施、願意為客製化晶片投入數十億美元的金主。博通與Google的合作堪稱ASIC領域最成功的產業聯盟之一。兩家公司的合作歷史超過10年,從第一代TPU開始,博通就深度參與了GoogleAI晶片的設計與製造。迄今為止,雙方已經共同發布了六代TPU產品,而最新的TPUv7p正在研發中。這種長期穩定的合作關係,不僅為博通帶來了穩定的營收,更重要的是,在與Google這樣的頂尖AI公司共同迭代的過程中,博通積累了大量關於AI工作負載特性、晶片架構優化、系統整合的第一手經驗——這些know-how成為其最寶貴的競爭壁壘。Marvell則是將重心放在亞馬遜AWS身上。 AWS是全球最大的雲端服務供應商,也是最早開始自研AI晶片的雲端廠商之一。 Marvell主要負責為AWS開發Trainium系列訓練晶片和Inferentia系列推理晶片。特別值得一提的是,Marvell已經鎖定了亞馬遜Trainium2專案的大部分產能,雙方正在合作開發下一代產品。這種深度綁定的合作模式,為Marvell提供了穩定的訂單預期和現金流,也讓其能夠在產能緊張的市場環境下獲得晶圓廠的優先支援。有趣的是,Marvell在其最新的投資者溝通會上給出了一組驚人的預測數字:到2028年,全球資料中心資本開支將突破1兆美元大關。在這1兆美元的總盤子中,與AI加速算力相關的開支規模將達到3,490億美元——佔比超過三分之一。而在AI加速算力這個細分領域內,ASIC市場的規模預計將達到554億美元,從2023年到2028年的複合年增長率(CAGR)高達53%。更細緻拆解這個市場,可以看到兩大核心成長引擎。第一是客製化XPU(包括各類AI加速器晶片)本身的業務,預計到2028年規模將達到408億美元,五年複合成長率為47%。這部分業務是博通和Marvell的傳統強項,也是它們營收的主要來源。第二是XPU附件業務,包括網路介面卡(NIC)、電源管理IC、高頻寬記憶體(HBM)控製器等周邊晶片,預計規模將達到146億美元,而複合成長率更是高達90%——幾乎是主晶片業務成長速度的兩倍。這種附件業務的爆發式成長,反映了AI晶片系統複雜度的快速提升。早期的AI加速器相對獨立,但隨著模型規模膨脹到數千億甚至數兆參數,單晶片算力已經遠遠不夠,必須透過高速互連將成百上千顆晶片組成叢集協同工作。這就對網路頻寬、記憶體頻寬、電源管理提出了極高要求。例如,一個包含數千顆AI晶片的訓練叢集,其內部網路頻寬需求可能達到數百Tbps(太位元每秒);而為了避免木桶效應,HBM記憶體的頻寬也需要同步提升;同時,數千顆晶片的功耗管理、散熱控制更是系統工程。這些需求催生了龐大的配件市場,而博通和Marvell憑藉著在高速介面、網路晶片、儲存控製器等領域的深厚積累,自然成為這一市場的主要受益者。值得注意的是,這些預測數字還在持續上調。光是過去一年,多家分析機構就數次提高了對ASIC市場的預期,原因無他——AI的發展速度超出了所有人的想像。從ChatGPT引爆生成式AI浪潮,到Sora展示視頻生成能力,再到各種多模態大模型的湧現,每一次技術突破都意味著更大的算力需求,而這些需求最終都會轉化為對定製AI晶片的訂單。博通與Marvell能夠在ASIC市場建立如此穩固的領先地位,絕非偶然。表面上看,它們正在為客戶定製晶片,但實際上,這背後需要的是極其深厚的技術累積和系統級整合能力。在這個領域,IP設計和SoC整合這兩大核心能力構成了難以踰越的護城河。傳統的客製化晶片主要包含四大類IP(Intellectual Property,知識產權核):計算單元、儲存子系統、網路I/O介面,以及先進封裝技術。這四者缺一不可,但分工明確。在這個產業鏈條中,ASIC服務供應商通常不涉及運算單元的架構設計,而是提供相應的設計流程支援和效能最佳化建議,幫助客戶的架構設計能夠有效率地轉換為實體實作。但在儲存、網路I/O和封裝這三大領域,ASIC服務商需要提供完整的IP解決方案──這才是它們的核心價值所在,也是科技壁壘最高的部分。在所有IP中,SerDes(Serializer/Deserializer,串列器-解串器)可以說是最關鍵、門檻最高的技術。現代AI訓練任務往往需要數百顆上千顆晶片來協同工作。例如,訓練一個千億參數等級的大模型,可能需要一個包含1024顆甚至更多AI晶片的群集。這些晶片需要不斷交換梯度資訊、同步參數更新,對互連頻寬的需求極為驚人。如果晶片間通訊速度跟不上運算速度,整個叢集就會陷入"等待"狀態,算力浪費嚴重-這就是業界常說的"通訊牆"問題。SerDes技術的核心挑戰在於:如何在極高的資料速率下確保訊號完整性?這需要在類比電路設計、訊號處理演算法、均衡技術等多個層面進行精密最佳化。更具挑戰性的是,隨著製程節點推進到5nm、3nm甚至更先進,電晶體特性的變異性增加,功耗密度提升,這都為SerDes設計帶來了新的難題。博通在SerDes領域的領先地位毋庸置疑。其自研擁有200G PAM4(四電平脈衝幅度調變)SerDes技術,並且已經在量產產品中大規模應用。 PAM4是一種先進的調變技術,相較於傳統的NRZ(非歸零碼),可以在相同的波特率下傳輸兩倍的資料量,這對於提升頻寬密度至關重要。博通的200G SerDes不僅速率領先,更重要的是其成熟度和可靠性——在資料中心這種7×24小時不間斷運作的環境中,穩定性往往比峰值效能更重要。而Marvell在SerDes技術上的進展同樣令人矚目。在2025年的OFC(光纖通訊大會)上,Marvell展示了最新的SerDes技術成果:光SerDes速率已經達到400G PAM4,而電SerDes速率更是突破了224G大關。這意味著單通道(single lane)就能提供224Gbps的頻寬,如果一顆晶片整合數十個甚至上百個SerDes通道,總頻寬可以達到驚人的數十Tbps。這種頻寬能力,是支撐下一代AI超級叢集的基礎。對於兩大巨頭而言,除了SerDes這項技術外,它們還建構了完整的ASIC設計IP體系,除了傳統的CPU/DSP(數位訊號處理器)IP外,它們還擁有網路交換IP、儲存介面IP、安全IP、封裝技術支援等。龐大而豐富的IP庫,意味著博通和Marvell可以為客戶提供菜單式的客製化服務,客戶只需要專注於最核心的AI加速器架構設計,其他所有子系統都可以從供應商的IP庫中選擇成熟的方案進行組合,也讓這兩大巨頭在AI時代到來之際,牢牢抓住了ASIC這棵搖錢樹。群雄逐鹿:傳統晶片巨頭的策略轉型在博通和Marvell瘋狂賺錢之際,也有越來越多的傳統晶片廠商開始策略轉型,試圖在這個新興市場中佔有一席之地。英特爾:困境中的突圍之路多年來,英特爾一直難以跟上台積電等競爭對手的晶片製造能力,其在AI市場上更是缺乏競爭力的產品線。輝達的AI晶片大賣特賣,AMD也有自己的AI晶片組合,而英特爾的下一個"重磅炸彈"Jaguar Shores還要等到2027年首次亮相。身處困境的英特爾,選擇了差異化道路。英特爾最近成立了中央工程集團(CEG),將公司內所有工程人才整合到一個部門,由前Cadence Systems高階主管斯里尼·艾揚格領導。這位在2024年7月從Cadence加入的高階主管,在推動客製化晶片商業模式方面有著深厚的經驗。英特爾執行長在第三季財報電話會議上明確表示,CEG集團將帶頭拓展新的ASIC和設計服務業務,為廣泛的外部客戶提供專用晶片。英特爾的最大優勢在於其完整產業鏈。作為老牌IDM企業,英特爾擁有晶片專業知識、x86 IP以及提供製造服務的內部代工廠,尋求客製化AI晶片的客戶可以獲得滿足所有需求的一站式服務。這是市場上任何其他ASIC設計公司都無法提供的優勢,即使是博通和Marvell也難以企及。然而,挑戰同樣巨大。輝達最近宣佈以50億美元收購英特爾約4%的股份,兩家公司將共同開發多代客製化資料中心和PC產品。這項合作為英特爾帶來了機遇,但也帶來了複雜的競合關係。在製造方面,輝達採用英特爾的18A製程或其他製程來生產部分晶片的機率其實並不高。高通:收購Alphawave強化SerDes能力與許多巨頭不同,高通在過去三年並未從資料中心的蓬勃發展中獲益。高通的業務傳統上以智慧型手機處理器和數據機的銷售為主,鑑於數據中心市場預計將在未來五年成為半導體行業增長最快的領域,進軍這一市場如今已成為高通業務多元化戰略的重要組成部分,也是高通不容錯過的機遇。高通的選擇,就是以24億美元的價格收購Alphawave。Alphawave的核心價值在於其領先的串列器-解串器(SerDes)技術,這項技術能夠實現對人工智慧應用至關重要的高速資料傳輸。與傳統的模擬SerDes架構不同,Alphawave基於DSP的SerDes建構方法能夠將資料速率擴展到更高速度,並將製造流程擴展到更小的幾何尺寸。這家英國新創公司成立於2017年,是資料中心、人工智慧、網路、5G、自動駕駛汽車和儲存等領域高速連接和運算晶片的領先供應商。其核心優勢在於為資料中心和其他應用提供高速連接IP,包括:用於伺服器和儲存的PCIe Gen 6/CXL 3.0;用於網路交換器、路由器、DPU和網路卡的400G、800G和1.6T乙太網路IP;用於GPU、CPU、FPGA和DPU的HBM和DRAMIP,以及用於乙太網路IP;尤其值得一提的是,該公司在尖端製程節點的高速SerDes方面擁有深厚的累積。值得一提的是,Alphawave不只是一家IP公司,它還涉足晶片組和客製化ASIC領域。在2022年,Alphawave以2.1億美元收購了SiFive的ASIC業務,伴隨著隨著收購Alphawave,高通也將加入這一行列。目前,憑藉在SerDes領域的專業技術,Alphawave已成功拓展至客製化晶片和晶片組的設計與製造領域。其作為一家垂直整合型公司,能夠掌控其供應鏈的關鍵環節,包括晶片IP、晶片組、客製化晶片和連接產品。其技術解決方案透過強大的代工廠和組件產業合作夥伴生態系統得以實施,其中包括台積電、三星、英特爾和格羅方德等所有主要代工廠。值得一提的是,Alphawave也與ARM緊密合作,基於ARM的Neoverse運算子系統(CSS)開發適用於人工智慧/機器學習應用、高效能運算(HPC)、資料中心和5G/6G網路基礎架構應用的高階運算、I/O和記憶體晶片組。 Alphawave也是ARM Total Design的成員,該生態系統致力於建構基於ARM Neoverse CSS的客製化晶片解決方案。這次交易對高通來說也具有多重戰略意義。首先,高通缺乏關鍵的資料中心連線IP,尤其是SerDes。自主研發需要大量投資,可能需要數年時間。因此,高通對Alphawave的興趣源於其策略擴張,即從行動領域向人工智慧運算、資料中心加速、汽車和客製化晶片等高成長領域拓展——所有這些領域都需要SerDes、PCIe、CXL和UCIe等先進的連接IP。其次,與Alphawave達成協議不僅將加強高通的IP組合,還將使其在定製晶片和ASIC市場站穩腳跟,從而能夠更有效地與AMD、輝達、AWS和其他超大規模數據中心運營商等參與者競爭,構建下一代計算基礎設施。事實上,Alphawave幾乎是唯一一家能夠跨多個晶圓代工廠提供高效能互連IP且可供收購的小型公司。 Alphawave的估值相對較低,這為高通提供了一個獨特的機會,可以以相當大的折扣收購一家具有強大長期成長潛力的策略性重要公司,從而大大提高高通在未來幾年內打入資料中心市場的機會。聯發科:從手機晶片到雲端ASIC聯發科這家傳統的手機晶片廠商,也正在成為雲端ASIC設計服務的重要玩家,與博通這樣的ASIC市場領導者展開直面競爭,並且已經拿下了Google、Meta等科技巨頭的訂單。在今年的輝達GTC大會上,聯發科介紹了其Premium ASIC設計服務,顯示聯發科與輝達的合作擴展至IP領域,能提供各式客製化晶片/HBM4E等,並具有豐富的Cell Library,以及先進製程、先進封裝經驗。聯發科的核心競爭力在於其SerDes技術。聯發科指出,其SerDes技術為ASIC核心優勢,涵蓋晶片互連、高速I/O、先進封裝與記憶體整合。其中,112Gb/s DSP基於PAM-4接收器,於4奈米FinFET製程打造,實現超過52dB損耗補償,意謂更低訊號衰減、更強之抗干擾特性。現在聯發科更推出專為資料中心使用的224G Serdes,並且已經完成矽驗證。近日,聯發科正式宣佈與輝達合作設計GB10 Grace Blackwell超級晶片,將為新推出的NVIDIA DGX Spark提供動力。 GB10採用了聯發科在設計節能、高效能CPU、記憶體子系統和高速介面方面的專業知識。在雲端服務商市場,聯發科也取得突破。根據研究機構指出,部分CSP已在評估輝達及聯發科之IP組合的客製化設計晶片。儘管GoogleTPU進度稍微遞延,第七代TPU預計在明年第三季投入量產,但採用3nm打造仍有望為聯發科增加超過20億美元的貢獻。Google進階到第八代的TPU,將會開始採用台積電2nm製程。聯發科的另一個重大突破來自Meta。最近的報告表明,聯發科即將獲得Meta即將推出的一款2nm製程ASIC的大額訂單,該晶片代號為"Arke",專注於後訓練和推理功能,可能在2027年上半年實現量產。聯發科轉向ASIC的原因與其獨特的市場定位有關。身為台灣晶片設計公司,聯發科在手機晶片市場面臨激烈競爭,利潤率受到擠壓。 ASIC設計服務為聯發科提供了更高的利潤率和更穩定的客戶關係。台灣Fabless的異軍突起除了巨頭外,台灣的設計服務公司正成為全球AI晶片客製化趨勢的核心受惠者。除了世芯、創意、智原這三雄憑藉與代工廠的合作關係、深厚的技術積累以及靈活的商業模式崛起外,做驅動IC的聯詠也有意涉足這一利潤頗豐的市場。先來說最成功的世芯,作為一家提供NRE(委託設計)和Turn-key(一站式量產)業務的IC設計服務公司,其專門負責替客戶代為設計IC,不生產自有品牌的IC。若客戶不擅與中下游的晶圓代工廠、封測廠往來,又想爭取較佳的投片價格及技術服務,世芯也提供代為投片量產的一站式服務。世芯的成長歷程堪稱傳奇。 2004年,成立僅一年的世芯取得索尼PSP遊戲機晶片大單;2009年,IBM攜手東京大學推出當時全球最快的超級電腦,也是找世芯合作設計量產,逐漸打響世芯在業界名稱。位元幣自2008年發明後,興起一波挖礦熱潮,更讓世芯2014年度營收大幅成長。近年來的AI風潮,使HPC晶片需求激增,自2018年起,世芯營收連續六年成長,2023年度營收新台幣304.8億元,稅後淨利33.2億元,營收及獲利均創下歷史新高。綜觀2024年前11個月,世芯累積營收達474.93億元,年增高達76.07%,創下歷史同期新高。由世芯2023年各終端應用類型貢獻的營收來看,人工智慧的HPC應用佔84%,其次為利基和通訊網路應用(9%)、消費性電子應用(6%)。至於從區域營收觀察,北美區域佔比從2021年的14%,顯著成長至2023年的63%,由雲巨頭貢獻的業績可見一斑。目前世芯在全球ASIC供應鏈中的地位極為穩固,其核心成長動能仍來自於極高單價的先進製程(如5奈米及以下)AI加速器量產訂單,特別是來自美國大型客戶(如英特爾5奈米加速器訂單)的訂單,預期將是2026年營收的最大貢獻者。在其業務結構中,委託設計(NRE)比重預計將提高,顯示新一代AI晶片設計委託案仍不斷湧入。而創意電子作為台積電的策略夥伴,在ASIC設計服務領域具有得天獨厚的優勢。 2025年10月,創意電子合併營收約37.16億元,較去年同期大幅成長150.6%,創下單月歷史新高。這一強勁表現主要是受惠於雲端巨頭的AI相關HPC計畫進入大規模量產階段。據瞭解,創意電子的主要營收來源有三:一是本身自有IP的權利金(royalty);二是幫其他企業設計晶片的一次性工程費用,稱之為NRE;第三,若客戶不擅長與晶圓及封測廠往來,但又想享有價格或技術優勢,就會請創意協助向台廠投片量產,稱之為Turn-Key。有趣的是,雖然當前創意電子與世芯都擁有台積電CoWoS的Turn-Key服務,但一名美系IC設計高層表示,台積電到底是創意的大股東,但在技術上,創意會比世芯來得更加具有優勢,其最大的優勢,就是能最早接觸台積電最新製程以及封測。此外,由於AI要用到的幾乎都是先進製程,研調分析師指出:“全世界的先進製程幾乎都掌握在台積電手中,創意和台積電技術關係緊密,權利金抽取會有優勢。”智原作為聯電集團旗下的IC設計服務公司,在ASIC領域也扮演重要角色。 2025年10月,智原合併營收約8.34億元,營收涵蓋了IP授權、NRE服務與ASIC量產。雖然短期營收受到整體半導體景氣修正的壓力,但其在HPC與5G網路等領域的IP授權和NRE業務持續獲得大案,其在財報中指出,公司正積極轉向更高階的ASIC設計,以迎接下一波AI復甦。台灣ASIC設計服務三雄的崛起,有其獨特的競爭優勢:1. 與台積電的緊密合作關係:無論是創意電子作為台積電子公司的"嫡系"身份,還是世芯與台積電長期合作建立的信任關係,都使得它們能夠優先獲得先進製程和CoWoS等關鍵封裝產能。在目前CoWoS產能緊張的情況下,這一優勢尤其重要。2. 完整的Turn-Key服務能力:從設計到投片量產的一站式服務,使得雲端巨頭可以專注於核心晶片的設計,而將配套晶片和製造環節外包給台灣的設計服務公司。這種模式既降低了雲端巨頭的資源投入,也能獲得台積電先進製程的技術支援。3. 靈活的商業模式:相比博通、Marvell等美國廠商主要聚焦於最高端的XPU設計,台灣廠商的業務範圍更加靈活,既可以承接高端AI加速器項目,也能服務消費電子、網通等多元領域,這種多元化佈局提高了抗風險能力。4. 深厚的技術累積:世芯從創業初期至今超過20年的市場深耕,創意電子作為最早接觸台積電最新過程的先驅,智原在IP授權領域的長期佈局,都為它們在ASIC領域的競爭奠定了堅實基礎。最後是聯詠,其因在面板驅動IC與影像處理器等消費性電子領域深耕多年,被視為典型的「中游系統IC廠」。然而,隨著AI浪潮推動算力基礎設施高速擴張,聯詠逐步將技術觸角延伸至HPC與ASIC領域,並開始在更具戰略高度的伺服器與AI晶片供應鏈中佔有一席之地。根據台媒報導,聯詠近期成功完成以Arm Neoverse CSS N2 為基礎架構的高效能運算系統單晶片(SoC),並在台積電N4P 先進製程節點順利流片。此專案源自Arm 推出的「Total Design(ATD)」協作計劃,旨在透過生態整合加速Arm架構在資料中心與AI加速領域的佈局。聯詠此次晶片預計將於2025年9月完成首批晶圓驗證,這也標誌著其正式跨入以資料中心與AI推理為核心的運算晶片賽道。從技術規格來看,這顆SoC採用Chiplet 異質整合架構,將Neoverse N2 運算核心、DDR5 / HBM3e 記憶體控製器、PCIe 6.0 / CXL 2.0 介面,以及224G SerDes 高速傳輸模組進行模組化整合,形成可彈性擴充、可重複使用的平台尺寸可複用的平台粒進行彈性擴展。同時,晶片採用台積電的N4P 製程與CoWoS 先進封裝方案-前者為5nm家族中優化功耗比和效能的版本,後者則為AI伺服器運算單元與HBM堆疊的主流封裝路徑,凸顯聯詠在高階算力晶片上已具備從架構設計、系統整合到封裝組合的全鏈路協同作用。這不僅意味著聯詠具備AI ASIC 與Chiplet 設計服務的技術條件,更顯示其已從「消費性電子IC廠」邁向「AI基礎設施晶片提供者」的角色轉型。隨著AI伺服器、邊緣運算、智慧座艙與大模型推理持續擴大,聯詠將有機會在原本的驅動IC與ISP業務之外,培育出第二成長曲線。值得關注的是,聯詠此次的Neoverse CSS N2 SoC 採用高度模組化架構設計,可與生態系統內超過60 家合作夥伴的I/O、加速器與專用邏輯芯粒搭配,形成可依客戶需求「自由拼接」的HPC與AI平台。這種架構不僅順應Chiplet + IP復用的主流方向,也使聯詠在未來車載、邊緣AI、資料中心ASIC等高客製化場景中具備可規模化交付能力。中國大陸廠商的突圍在ASIC領域,國內廠商也在積極佈局,試圖在這個快速成長的市場中佔有一席之地。芯原股份作為中國IP授權領域龍頭企業,主要提供各類處理器IP(GPU、NPU、VPU、DSP、ISP等)、數模混合IP及射頻IP,其一站式定製晶片業務是根據客戶需求,使用自有IP或購買其他IP通過設計、實現、驗證,轉換為可製造的晶片版圖。據瞭解,芯原已有核心客戶的AI Chiplet投片在即,多合一裝形式打造強勁算力,AI、智駕、機器人、端側多元領域需求可望爆發,公司商業模式進一步向Chiplet供應商演進。另一家SoC企業翱捷科技,則累積了大量自有晶片產品的設計與流片經驗。這種平台化的能力與經驗可以高效復用於ASIC客製化服務中,不僅能為客戶大幅縮短研發周期、提升開發效率,更能確保專案的成功率。據瞭解,目前翱捷ASIC 在手訂單充足,已承接多個第一線頭部客戶專案。自2H24 開始,ASIC 客製化市場空間大幅擴大,公司快速回應需求,在智慧穿戴/眼鏡、端側AI 及RISC-V 晶片等領域積極佈局,目前在手訂單充足。同時,針對海外算力限制新規,公司透過技術創新與新型架構設計,在合規基礎上為系統廠商提供ASIC 服務,並已承接多項頭部客戶訂單。同樣值得關注的還有專注於ASIC的燦芯股份,其依賴與中芯國際的策略合作,持續鞏固其在ASIC客製化服務領域的領先地位。據瞭解,燦芯2025年上半年研發投入超過9,000萬元,重點聚焦高速介面IP與高效能類比IP的自主研發,涵蓋DDR、SerDes、PCIe、MIPI、PSRAM、TCAM、ADC、PLL、PMU等多個方向。其基於22nm製程的DDR5 IP已完成架構驗證,憑藉高頻寬、低功耗與創新控製器架構,正成為AI運算、資料中心與工業控制等高效能場景的重要支撐模組。在新興應用領域,燦芯股份積極佈局AI算力晶片,其在半年報中指出,公司正結合3D封裝技術優化IP互連效率,推出適配Chiplet架構的高速介面IP,以滿足高頻寬、低延遲的系統需求,協助客戶實現異質整合設計。對於國產ASIC廠商而言,AI的爆火帶來了更多機遇,儘管在IP積累上弱於國際巨頭,但在國產替代的浪潮與國產晶片崛起的當下,它們有望在ASIC市場中分得更大的蛋糕。產業展望:ASIC時代的機會與挑戰隨著AI算力需求的持續成長,ASIC市場正經歷前所未有的繁榮,根據博通的預計,到2027年其三家大客戶的資料中心相關XPU與網路市場總規模達600-900億美元,且客戶將部署百萬卡叢集。同時,這個市場也面臨許多挑戰。隨著更多廠商加入AI客製化晶片競爭,客製化業務毛利率或將承壓,一方面,ASIC服務商眾多,競爭逐漸激烈;另一方面,雲巨頭議價能力更強,偏向壓低客製化晶片價格。但大勢不可阻擋,ASIC的全面崛起,不僅是技術演進的必然結果,更是產業分工深化的體現。從博通、Marvell的持續領先,到英特爾、高通、聯發科的策略轉型,再到國產力量的奮起直追,這個市場正在演繹一場精彩的產業變革。我們相信,在AI浪潮的推動下,客製化晶片的黃金時代才剛開始。 (半導體產業觀察)
黃仁勳再評ASIC:他們跟不上輝達的速度
輝達執行長再次就與Google和亞馬遜等ASIC製造商的競爭發表評論,聲稱沒有多少團隊能做到「綠色團隊」所做的事。自從Google等公司發佈最新解決方案以來,圍繞輝達與ASIC晶片的爭論愈演愈烈,其核心觀點是,隨著世界從訓練工作負載轉向推理工作負載,輝達的技術堆疊是可以被替代的。在最近的第三季財報電話會議上,執行長黃仁勳談到了大型科技公司內部的ASIC晶片建設,當被問及這些項目是否會導致實際的大規模部署時,輝達執行長是這樣回答的:分析師問到:Jensen,這個問題是問你的。考慮到你宣佈的與Anthropologie的交易以及你客戶的整體規模,我很好奇你對AI ASIC或專用XPU在這些架構建構中所扮演的角色有何看法?你是否注意到,你過去一直相當堅定地認為,其中一些項目最終都無法真正部署?黃仁勳回應:是的。非常感謝,我也很感激你的提問。首先,你不是在跟團隊競爭──抱歉,是和公司競爭,你是在跟團隊競爭。而且──世界上真正擅長建構這些極其複雜系統的團隊並不多。如果你仍然不明白Jensen在這裡的意思,他指的是最近Anthropic達成的協議,其中包括圍繞Blackwell和Rubin系統建構的基礎設施。與此同時,Anthropic還簽署了Google最新Ironwood TPU的協議,這引發了人們對ASIC晶片能否真正與NVIDIA競爭的新疑問。詹森就分析師的這一推斷髮表了評論,他指出,當公司開發定製晶片時,真正的競爭並非來自NVIDIA,而是來自各自的工程團隊。Jensen表示,市面上很少有團隊能像NVIDIA那樣投入大量精力,這也是該公司否認與ASIC晶片存在激烈競爭的原因之一。我最近討論過Google的TPU在推理領域也是一個有競爭力的選擇,但Jensen聲稱NVIDIA在所有AI細分領域都是最優秀的,這表明該公司致力於在AI行業的三個主要方面——預訓練、後訓練和推理——都保持“不可替代”的地位。有趣的是,Jensen指出,對於雲端服務提供者(CSP)而言,在資料中心部署「隨機ASIC」遠不如選擇NVIDIA的技術堆疊來得理想,因為NVIDIA的產品應用範圍更廣。因此,Jensen最終認為,大型科技公司提供的定製晶片在「工程」層面仍無法與NVIDIA匹敵。而且,即便他們能夠複製NVIDIA的運算能力,NVIDIA也擁有名為CUDA的強大軟體棧,這才是真正吸引業界目光的關鍵所在。 (半導體產業觀察)
100萬塊TPU訂單!ASIC液冷市場迎來強利多
01. Google獲Anthropic百億美金TPU訂單,ASIC晶片晶片迅速 起量Google有限責任公司已與人工智慧初創公司Anthropic達成一項價值數百億美元的交易。Anthropic官宣原話:今天,我們宣佈計畫擴大對Google雲技術的使用,包括高達一百萬個 TPU,這將大幅提升我們的計算資源,以持續推動人工智慧研究和產品開發的邊界。此次擴展價值數百億美元,預計將在 2026 年上線超過一吉瓦的容量。“Anthropic 決定大幅擴大其對 TPU 的使用團隊在過去幾年中使用 TPU 所觀察到的出色性價比與能效表現。”——Google雲 CEO Thomas Kurian 表示。“我們將繼續在 TPU 上進行創新,不斷提升其效率與算力容量,進一步完善我們已經非常成熟的 AI 加速器產品組合,其中包括第七代 TPU——Ironwood。”Anthropic 表示 ,選擇Google的 TPU 是因為其性價比和效率,同時也因為其之前使用該晶片的良好體驗。Anthropic 獨特的計算策略專注於多元化路徑,高效地同時利用三大晶片平台——Google 的 TPU、Amazon 的 Trainium,以及 NVIDIA 的 GPU。這種多平台策略確保我們能夠在持續提升 Claude 能力的同時,保持與整個行業的緊密合作關係。我們將繼續致力於與 Amazon 的合作——它是我們主要的訓練合作夥伴和雲服務提供商,並將繼續與該公司在 Project Rainier 項目上攜手推進。該項目是一個龐大的計算叢集,涵蓋分佈在美國多個資料中心的數十萬顆 AI 晶片。02.  Google的七代TPU晶片,採用冷板液冷散熱隨著Google的TPU訂單飆升,我們再看液冷市場。Google的第七代 TPU Ironwood 性能比肩輝達的B200,同時晶片的功耗也在飆升,Google的TPU今年功耗單晶片突破600w,叢集功率高達10MW。液冷方面經過多次實驗和迭代,Google於 2018 年正式進軍液冷 TPU 領域。此後,該公司持續開發和改進其冷卻設計。他們目前的液冷解決方案專為資料中心規模設計,液冷回路跨越機架,而非侷限於伺服器內部。03. CSP巨頭爭先與輝達“分手 ”,AISC晶片市場年增速50%在 Deepseek 等低訓練成本 AI 模型推動下,近期 AI 算力需求逐步由訓練算力轉向推理算力,而以Google TPU 為代表的 ASIC 在 AI 推理領域具備不遜色於輝達 GPU 的性能以及更低的功耗,有望在 AI 推理領域對 GPU 實現替代。目前超大規模雲服務商正開始與輝達展開一場漫長的“分手”過程。據行業報告顯示,專用積體電路的採購預計將以每年50%的複合增長率持續上升,而這部分增長主要來自微軟、Google和亞馬遜AWS等公司,這些巨頭正著加速推進的ASIC晶片研發。同時據報導,輝達的核心雲端運算客戶雖然仍在持續採購其硬體,但同時也在加緊訂購ASIC硬體,並預訂台積電的產能。04. ASIC液冷市場展望據媒體報導,預計 2025 年Google和 AWS 的 ASIC 合計出貨量將達到 300 萬片以上,後續 Meta,字節等廠商也將加快部署自研 ASIC 解決方案,ASIC 市場將迎來加速擴張,有望推動液冷需求進一步提升。目前台灣的散熱大廠,Coolermaster,AVC,雙鴻等廠商已經吃到第一波紅利。此前AVC負責人在半年度財報發佈會也表示,最大客戶持續加大ASIC投入,預估明年這部分成長會滿可觀。 ASIC是高度客制化,包括水冷板數量與系統設計較GPU更複雜,儘管目前GPU水冷營收比重較高,但是高階ASIC專案投入速度快於GB系列,而且對水冷解決方案需求明顯升溫,預期將會成為後續重要成長引擎之一。從富邦發佈的台積電晶片研報資料來看,ASIC晶片目前市場份額正在快速升高,預估在AI市場的推動下,預估到明年ASIC晶片市場份額將會快速升高至36%-40左右。 (零氪1+1)
🎯鴻海非首選!營收飆增100%~台積電「隱藏王牌」曝光!這檔AI跨年度翻倍黑馬:現在不上車就晚了?Line@連結:https://lin.ee/mua8YUP📌美股重量級財報即將登場:Netflix、可口可樂、德州儀器率先登場,接著特斯拉、IBM等重量級企業將陸續揭露「AI真實進度」。尤其是特斯拉,現在全市場要看的不是汽車賣幾台,而是它在AI晶片、Dojo超算、FSD自駕投資上,到底推進了多少。這將直接牽動台廠供應鏈與高階ASI設計廠的估值重定價。而在台股,若要找一家真正站在AI實作+ASIC客製這條變現路上的公司,創意(3443-TW)正是跨年度的大黑馬股,是一檔非常值得趁震盪時默默買進、抱著等明年收割的好標的之一。🔥買創意不是買今年,而是買2026、2027的EPS大爆發AI熱潮全面延燒,接下來市場上要比的不是誰漲最多,而是誰還沒漲完。台積電的「隱藏王牌」,這檔AI黑馬的主升段,恐怕才剛要啟動!今年8月,創意營收年增約42%;但到了9月,已經繳出年增超過100% 的驚人成績!整個第三季的合併營收,季增率高達41%。這背後,不是什麼意外單,而是三股長期成長動能同時啟動:①加密貨幣訂單回潮:但這次不是炒幣,是實際下單許多人對加密貨幣的印象,還停留在暴漲暴跌的投機遊戲。但對創意來說,這是一門「一手交錢、一手交貨」的好生意。2021年那波幣市熱是炒作,但2025年這一波不一樣。因為AI計算與加密挖礦的晶片架構越來越接近,不少礦機大廠重新找創意設計專用ASIC,有別於台積電只負責代工,創意直接接觸系統規劃與設計IP,毛利更厚。•2025年加密業務比重將達30%•客戶採「預收款模式」→ 合約負債接近90億,代表未來營收已鎖定這不是故事,是待認列的現金。這種模式,保護了創意在周期波動時的獲利韌性。②CSP(雲端巨頭)正式進入量產期:創意進入「AI 長約時代」未來18個月,創意最值得期待的,是三家國際級CSP客戶專案正式進入量產階段,這些不是市面上的小IC案,而是客製化AI/ASIC、整合HBM、需與NVIDIA生態相容的高階計算模組。•兩項CSP專案:2025 Q4開始認列•放量期:2026年上半年~2027 年•營收模式:從一次性NRE →長期Turnkey量產這會徹底改變創意的體質。從接案公司,轉為長期供應鏈伙伴。③技術護城河築好:進入3nm/2nm與NVLink生態圈創意不只是設計代工,而是正在打造「台灣唯一能直通NVIDIA、台積電、CSP生態的ASIC 廠」。•擁有HBM/Die-to-Die互連IP(N3E/N3P認證通過)•已加入NVIDIA NVLink Fusion生態•與台積電CoWoS/3.5D封裝深度合作這種技術資產,是後進者追不到的。你可以挖台積電的製造工程師,但你挖不到IP架構師與ASIC系統整合能力。🎯由此可知,今年買創意不是買現在,而是買2026、2027的EPS大爆發。當CSP量產完全進入財報,市場會用「高本益成長股PEG模式」重新估值。屆時創意自然就會成為AI跨年度最強黑馬股。🔴接下來我們會在粉絲團持續幫大家鎖定+追蹤,若還不知道該如何操作?那建議你務必要鎖定江江在Line @,將有更進一步的訊息給大家了解。https://lin.ee/mua8YUP🔴想了解還未起漲的市場主流,同步了解大盤多空轉折點及學習預測技術分析,江江YT節目都會持續追蹤+預告。https://reurl.cc/02drMk********************************************************有持股問題或想要飆股→請加入Line:https://lin.ee/mua8YUP江江的Youtube【點股成金】解盤:https://reurl.cc/02drMk*********************************************************(本公司所推薦分析之個別有價證券 無不當之財務利益關係以往之績效不保證未來獲利 投資人應獨立判斷 審慎評估並自負投資風險)