#TPU
Google TPU與輝達GPU對比分析
市面上有兩類比較典型的GoogleTPU和輝達GPU對比分析,一類是純技術層面討論,晦澀難懂,另一類會講得斬釘截鐵,但可信度難以判斷。今天我分享一篇通俗易懂,且信源可靠的TPU和GPU對比分析文章,信源來自於The Information對Google、輝達、蘋果等公司員工的訪談。租用最先進的GPU與最先進的TPU,那個性價比更優?這取決於雲服務提供商(註:AWS、Azure、Google雲)對GPU的收費標準,該標準可能會根據開發者對該晶片系統的承諾(使用)期限而有所不同。不過,由於在這些系統上運行應用程式涉及到軟體問題,因此很難對它們進行直接比較。對於已經使用輝達的CUDA程式語言在伺服器晶片上運行人工智慧的客戶來說,租用輝達晶片更具成本效益,而有時間和資源重寫程序的開發者則可以通過使用TPU來節省資金。不過,對於大多數開發者而言,輝達的軟體能讓他們快速且輕鬆地開始在GPU上運行人工智慧應用程式。像Anthropic、蘋果和Meta這樣經驗豐富公司在使用TPU時可能面臨的挑戰更少,因為他們更擅長編寫在伺服器晶片上運行人工智慧的軟體。根據對Google和輝達前員工的採訪,TPU相比GPU具有潛在的成本優勢,這取決於客戶運行的AI計算工作負載數量及其類型。對於使用GoogleGemini模型的客戶來說,TPU的成本效益可能尤為顯著,因為這些模型是基於TPU開發的。卓哥理解:1.價格不能直接比, 看合同期限,租1年和租3年價格肯定不同。2.絕大部分開發人員已經用慣了輝達CUDA軟體系統,用TPU會有遷移成本。3.基於TPU開發的大模型更具成本效應。我已經在不少於3處靠譜信源看到,基於TPU開發的Gemini相比於基於GPU開發的ChatGPT更具成本優勢。輝達首席執行長黃仁勳曾表示,即便競爭對手的晶片定價為零,企業們仍會更青睞輝達的晶片。這種說法精準嗎?事情並非如此簡單。生產輝達晶片的台積電會謹慎地避免將過多的晶片製造和封裝產能投入到單一公司,因此輝達不太可能獲得其滿足客戶需求所需的全部產能。由於輝達通常無法獲得足夠的產能來滿足整體需求,市場對其競爭對手的晶片將會有需求。卓哥理解:台積電不希望輝達一家獨大。其實下游晶片代工廠產能給誰很重要的,不是說晶片設計公司想要多少產能就有多少產能。大摩不是說GoogleTPU 2026年要產300萬顆(利用博通與台積電良好關係)嗎?最近又傳出消息說今年不一定能產300萬顆,台積電可能沒這麼多產能給Google。最先進的TPU(Ironwood)和最先進的GPU(Blackwell)在計算能力或其他關鍵指標(如能效)方面有什麼區別?一位行業高管表示,以每秒兆次浮點運算(FLOPS)來衡量(卓哥註:這是AI開發人員衡量晶片計算能力的常用方式。),Google最先進的TPU在單晶片基礎上的性能是輝達最先進GPU的一半。Google可以將搭載數千個TPU的伺服器整合到一個計算單元中,這使得它們在開發新的人工智慧模型時特別有用且具有成本效益,而輝達最多隻能連接256個GPU。當然輝達的晶片客戶可以通過使用額外的網路電纜連接其資料中心的伺服器來克服這一限制。卓哥理解:單兵作戰,TPU性能只有GPU一半,但TPU可以用人海戰術堆料。TPU運行AI的方式與GPU有何不同?GPU能夠處理各種各樣的計算任務,從渲染視訊遊戲圖形到訓練大型語言模型。這種晶片在機器學習模型所需的重複性數學運算方面表現出色,特別是將數字網格相乘的過程,也就是所謂的矩陣乘法。Google的TPU更加專門化,能夠比GPU更快地處理矩陣乘法和運行某些AI模型。TPU之所以能做到這一點,是借助了脈動陣列——一種由簡單計算器組成的網格,這些計算器以有節奏的模式相互傳遞資料。這種設計使數字能在計算過程中持續流動,無需不斷從晶片記憶體中調取資料,從而避免了時間和能量的浪費。TPU效率更高,因為它只做一件事,但這也意味著它們只在特定軟體上運行良好。GPU可以被用來完成更多種類的任務。卓哥理解:之前還看過一個訪談,說TPU的風險之一就是通用性不好,中途切換做其他(非初始設定)任務的效果遠不如GPU。在處理大語言模型或大型視覺、視訊模型方面,TPU與GPU相比有那些優缺點?TPU為Google的人工智慧開發者提供了相較於GPU的成本優勢,因為該公司的人工智慧模型、應用程式和資料中心在設計時就考慮到了TPU。但TPU僅能與某些人工智慧軟體工具(如TensorFlow)順暢協作。然而,大多數人工智慧研究人員使用PyTorch,該工具在GPU上運行得更好。TensorFlow和PyTorch使開發者無需從頭編寫特定的軟體程式碼,就能訓練和運行人工智慧模型。對於視訊和視覺模型,TPU擅長執行圖像識別所需的重複性數學運算。它們通過將摺積(圖像模型中的核心計算)轉換為矩陣乘法來處理這些運算。但一些工程師表示,在開發視覺模型方面,GPU優於TPU,因為這一過程通常涉及對複雜圖像變換的試驗,例如旋轉、裁剪或調整顏色。那些公司使用TPU?據蘋果前員工及其人工智慧團隊發表的研究論文稱,蘋果長期以來一直使用TPU來訓練其最大的語言模型。人工智慧圖像公司Midjourney在2023年表示,它正在使用TPU來開發自己的模型。據一位瞭解這一轉變的人士透露,人工智慧開發商Cohere此前使用TPU開發模型,但去年由於在早期版本的TPU上遇到技術問題,轉而使用GPU。卓哥補充:還有其他案例是,一直用GPU然後切換去用TPU的公司。Google要在Google雲之外大量銷售TPU,需要具備那些條件?Google需要徹底改革其整個供應鏈,效仿輝達的商業模式,不僅要從代工廠獲得足夠的晶片,還要確保客戶能夠安裝這些晶片並可靠地使用它們。這意味著Google必須投入大量資金來發展銷售分銷網路,包括聘請生產晶片容納裝置的伺服器設計師,以及僱傭眾多工程師為TPU買家提供客戶支援和其他服務。卓哥理解:如果Google要外租或者賣TPU,先得到台積電拿到足夠產能配額,此外還得組建銷售和工程師支援團隊。生產最先進的TPU與生產最先進的GPU的生產成本相比如何?潛在成本可能相近。Google為Ironwood在台積電採用了比輝達為Blackwell所使用的更昂貴、更先進的晶片製造技術。但Ironwood晶片體積更小,這意味著台積電可以從一片晶圓上切割出更多晶片。這彌補了與昂貴矽片相關的額外成本。瞭解生產情況的人士表示,這兩款晶片都使用了相同類型的高頻寬記憶體。Google生產多少個TPU?這與其他人工智慧晶片相比如何?據摩根士丹利的最新估計,Google計畫在2026年生產超過300萬個TPU,2027年生產約500萬個。一位瞭解TPU項目的Google員工表示,公司已告知部分TPU客戶,其計畫在2027年生產更高數量的TPU,但目前尚不清楚台積電是否會同意在該年度生產這麼多TPU。Google通過博通公司訂購其最強大的TPU,博通與台積電有合作,同時也為TPU晶片本身提供一些輔助技術。據兩位瞭解生產情況的人士透露,輝達目前生產的GPU數量大約是Google生產的TPU的三倍。卓哥補充:除了博通,Google也已在與聯發科合作。博通在TPU的研發中扮演什麼角色?Google通過博通在台積電生產最強大的TPU,而且博通還負責TPU的物理設計,包括至關重要的晶片封裝,並且實質上是根據Google建立的藍圖來開發這款晶片。晶片封裝指的是晶片的組裝,隨著晶片上電晶體的縮小變得愈發困難,這一環節已成為整個流程中更為重要的部分。博通還為Google提供了設計TPU的一項關鍵智慧財產權:序列器/解串器,業內稱之為SerDes。這是實現高速資料在TPU之間傳輸以支援平行計算的最佳技術,通過這種技術,多個晶片可以協同工作——這是開發大語言模型的重要一步。Google和博通有時會因博通的TPU價格而產生分歧,這促使Google尋求聯發科等其他合作夥伴。聯發科即將生產一款性能稍弱的TPU,旨在幫助Google降低其人工智慧運行成本。博通從開發TPU中獲得的分成是多少?據分析師稱,這至少有80億美元。如果Google出售或出租TPU,讓它們進入其他公司的資料中心,這在經濟層面可能會產生什麼影響?目前尚不清楚Google向其雲客戶出租TPU能產生多少毛利率。除了伺服器晶片租賃業務外,它還可以向雲客戶銷售許多其他服務。這位前TPU高管表示,如果Google將TPU出售或出租給其他公司的資料中心,那麼這些設施需要按照高度特定的方式設計,類似於Google的資料中心,才能像Google在自身人工智慧應用中那樣,充分利用TPU帶來的成本優勢。此外,這樣做意味著Google將放棄從雲客戶那裡獲得的其他類型收入,比如儲存和資料庫相關收入,因此它可能會向TPU買家額外收費,以彌補這部分潛在的收入損失。.Google為何要追求一種更接近輝達的商業模式?Google已向潛在的TPU客戶表示,一些科技和金融服務公司出於安全等原因,希望將TPU安置在自己的資料中心——即非Google的資料中心。Google一直在與競爭對手雲服務提供商洽談為部分客戶託管TPU事宜。(卓哥註:典型如甲骨文)讓TPU得到更廣泛的應用,也有助於Google說服更多客戶使用其Gemini人工智慧模型,這些模型是針對TPU進行最佳化的。與運行TPU的軟體相比,開發者更熟悉輝達晶片及其運行的軟體。像JAX、PyTorch XLA這樣的新解決方案是否正在縮小這一差距?簡而言之,答案是否定的,不過Google正努力改變這一現狀。而且,Google還向潛在的TPU客戶推介將這些晶片與特製的Google軟體配合使用,這樣能讓晶片的運行更為便捷。 (卓哥投研筆記)
輝達:三十年未有之大變局
目前,Google正積極接觸那些依賴租賃輝達晶片的小型雲服務提供商,勸說它們在資料中心託管Google的TPU處理器。首戰告捷,Google已與倫敦的Fluidstack達成協議,將在紐約的一個資料中心部署TPU。同時,Google的觸角伸向了為OpenAI建造資料中心的Crusoe,以及向微軟租賃晶片並與OpenAI簽有供應合同的CoreWeave——後者被業內視為輝達的親兒子。這一系列動作,意圖再明顯不過:Google不僅要搶奪輝達的客戶,更要直接切入其最核心、利潤最豐厚的AI算力供應鏈。輝達以200億美元現金,收購初創公司Groq的核心資產,這筆交易不僅刷新了輝達自身的歷史收購紀錄,遠超其2019年以70億美元收購Mellanox的規模,更以雷霆之勢,將一顆冉冉升起的輝達挑戰者直接納入麾下。此次遠非一次簡單的收購,而是一場精心策劃的戰略圍剿。畢竟已經冒出來一家GoogleTPU了,輝達不允許再有任何真正的挑戰者存在,要麼被擊敗,要麼被收購。01Google的決心Google為這一戰所做的鋪墊,遠比我們想像的更為漫長,也更為深遠。早在2015年,第一代TPU v1的性能優勢,就已經在AlphaGo的演進中得到了最戲劇化的體現:1)AlphaGo Fan(2015年10月):擊敗歐洲冠軍樊麾的版本,運行在Google雲上,動用了1202個CPU和176個GPU的分佈式叢集。2)AlphaGo Lee(2016年3月):擊敗李世石的版本,同樣在雲端運行,但硬體已取代為僅48個第一代TPU。計算裝置從上千個銳減到幾十個,背後的電力、機房空間和維運成本呈數量級下降。3)AlphaGo Master(2017年5月):戰勝世界第一柯潔的版本,運算量僅為上一代的十分之一,甚至可以在單台伺服器上運行,僅需4個第一代TPU。從1202個CPU+176個GPU,到4個TPU。這組對比再直觀不過地揭示了專用AI晶片帶來的效率飛躍。第一代TPU的成功,迅速從實驗室走向了Google龐大的產品線,被部署到Google搜尋、廣告、YouTube以及雲平台等服務的每一次請求中,處理著每天數百億次的推理任務。自此,Google意識到,他們需要的不是一顆更快的通用晶片,而是一把為特定任務量身定製的手術刀。TPU項目應運而生,其設計哲學極其清晰:為神經網路推理任務做極致最佳化,追求極致的性能功耗比,放棄GPU使用的32位浮點數,轉而使用8位整數INT8進行計算。這大幅減少了電晶體數量、功耗和記憶體頻寬需求,而精度損失對於許多推理任務而言是可接受的。但是TPU v1僅專注於推理,而AI發展的瓶頸正迅速轉向需要巨大算力的大模型訓練環節。Google的TPU迭代之路就此全面展開,其升級不僅體現在單晶片性能,更在於系統級和生態級的突破。此後,TPU迅速迭代:1)TPU v2/v3:首次支援訓練任務。更重要的是,Google提出了 “TPU Pod” 的概念,通過高速網際網路絡將成千上萬個TPU晶片連接成一個超級電腦,為訓練大型模型提供了可能。2)TPU v4:性能顯著提升,並開始通過Google雲對外提供服務,但主要客戶仍是Google自身和少數雲使用者。3)TPU v5p:被視為一個重大飛躍,在一些基準測試中與輝達H100相當。同時,推理需求再次爆發,v5系列中更側重低價的v5e版本,將戰略重心轉回高性價比、高吞吐量的推理,旨在以更低成本服務海量使用者。4)TPU v6 (Trillium) 與 v7 (Ironwood):最新的兩代產品。TPU v6在理論算力上已非常接近輝達H200,而v7則進一步縮小了與輝達旗艦產品在發佈時機和理論算力上的差距。v7 Ironwood首次支援FP8計算格式,單晶片FP8算力與輝達B200非常接近,屬於同一性能梯隊。在系統層面,由近萬顆晶片組成的Ironwood超級叢集總算力也達到了與輝達Blackwell系統相當的等級。Google的策略很清晰,從滿足內部需求出發,用十年時間,逐步將TPU打造成一項可對外銷售的雲端運算核心服務——2025年,GoogleTPU全年出貨量預計為250萬顆,其中v5系列佔190萬顆,v6系列佔60萬顆;2026年,預計全年出貨量將高達400萬顆,其中v7 Ironwood佔據主導地位將超過200萬顆。從數量上來看,輝達資料中心GPU在2026年出貨量約600萬顆,TPU的追趕勢頭已經不容小覷。02輝達的正面交鋒Google的戰略,正在發生根本性轉變:從自產自用的封閉生態,轉向直面市場的晶片供應商。2023-2026四年時間,GoogleTPU的總產量預計高達800萬顆。然而,僅2027和2028兩年,其新規劃的總產量就高達1200萬顆。這意味著,Google計畫用未來兩年時間,生產遠超過去四年總和的晶片。這種擴張速度在半導體行業堪稱罕見,不僅遠超市場預期,更清晰地指向一個目標——大規模商業化。如此龐大的產能規劃,已遠遠超出Google自身雲服務Google Cloud的預期需求。兩年1200萬顆的規模,瞬間將TPU推向了與一線AI晶片廠商比肩的層級。這筆產能經濟帳,是Google轉型的核心動力。以此推算,若Google在2027年實現100萬顆TPU的對外銷售(約佔其當年規劃產量500萬顆的20%),即可創造約260億美元的新增營收。作為對比,這相當於Google雲2024年全年營收的相當大一部分,凸顯了其成為新增長極的潛力。若2027年500萬顆、2028年700萬顆TPU的預測成真,那麼到2028年,GoogleTPU的年產量將直逼輝達GPU的預計出貨規模。這意味著在短短兩年內,Google可能從一個主要的晶片消費者,轉變為一個能在供應量上與輝達正面交鋒的競爭者。此前,TPU如同GoogleAI商業版圖的私人彈藥庫,專為驅動其搜尋、廣告、YouTube及雲平台AI服務而最佳化,這種垂直整合帶來了極高的效率和性能壁壘。然而,將其轉化為對外銷售的商品,意味著Google要直面截然不同的商業規則:標準化、軟體生態、客戶支援、市場價格競爭。Google的突破口在於提供 “AI解決方案”而非“AI通用晶片” 。它可以將TPU與自家強大的AI軟體棧(如TensorFlow、JAX)、雲服務和預訓練模型進行打包,為客戶提供“開箱即用”的AI能力,以降低客戶整體擁有成本TCO。但這套策略也面臨嚴峻挑戰:輝達的CUDA生態歷經十餘年建設,已成為AI開發的事實標準,Google需要建構一個堪比CUDA的、開放且繁榮的開發者生態,這比製造晶片本身更為艱難;第三方客戶是否願意將AI未來押注在Google晶片上?這取決於TPU的性能、性價比、軟體相容性、長期支援承諾,以及客戶對“不被單一雲廠商繫結”的深度顧慮;作為後來者,TPU必須在性能或成本上提供顯著優勢,才能說服客戶遷移已基於輝達GPU建構的複雜工作流。頭部AI公司動向上看,TPU的吸引力是真實的。AI獨角獸Anthropic此前使用亞馬遜的Trainium晶片,最近被發現在招聘TPU核心工程師;馬斯克的xAI也對採購TPU表現出濃厚興趣。這些領先的模型開發商對算力成本極為敏感,它們的傾向是行業趨勢的最佳觀察——畢竟2025下半年,圍繞GoogleTPU的開發者活躍度也激增了近100%。GoogleTPU的產能激增,是一部剛剛拉開的序幕而已。前方的核心懸念早已不再是技術,而是商業模式的抉擇:Google能否成功將其技術優勢轉化為市場認可的開放生態和客戶信任?這場Google十年佈局的下半場,將決定TPU是止步於一個有力的挑戰者,還是真正成為重塑AI算力格局的顛覆性力量。面對圍攻,輝達並未坐以待斃。其反擊策略是:開放生態,以退為進。輝達正式發佈NVLink Fusion技術,允許資料中心將輝達GPU與第三方CPU或定製化AI加速器混合使用。這看似輝達正式打破自身硬體生態壁壘,實則是以GPU為核心,建構一個更包容、更強大的“輝達中心化”生態系統。輝達真正的核心壁壘,還是在於其軟體生態CUDA——畢竟主流AI框架無論是TensorFlow還是PyTorch都是通過呼叫CUDA的API進而在GPU上執行計算,其背後都是對CUDA庫函數的呼叫(如TensorFlow和PyTorch都會呼叫cuDNN來執行核心的神經網路計算)。03AI戰爭進入整合階段表面上看,這是一筆資產收購。但細究協議條款,其核心是一次典型的矽谷式人才收購。輝達並非全盤買下Groq公司,而是達成了一項“非獨家技術許可協議”,進而獲得Groq推理技術的授權。同時核心團隊整體遷移,Groq創始人兼首席執行長Jonathan Ross、總裁Sunny Madra,以及其他高級領導層將加入輝達,以推進所授權的技術。這種操作模式在科技巨頭間已屢見不鮮,2024年微軟也曾以6.5億美元挖走Inflection AI的創始人與核心團隊。其高明之處在於:既能以最快速度獲取頂尖人才和核心技術,又能最大程度規避傳統併購可能引發的反壟斷審查和整合難題。對於輝達而言,200億美元買下的不僅是技術,更是由前GoogleTPU核心班底組成的團隊。畢竟已經冒出來一家GoogleTPU了,輝達不允許再有任何真正的挑戰者存在,要麼被擊敗,要麼被收購。Groq團隊中匯聚了大量前GoogleTPU工程師,堪稱GoogleTPU核心班底的二次創業。他們帶著在Google未竟的抱負,旨在打造一款超越GPU和TPU的專用AI推理晶片。同時成本上,Groq其解決方案可低至同等性能GPU的十分之一,進而精準地擊中了接下來即將興起的AI產業推理階段的核心痛點,對輝達在推理市場的統治地位構成了直接威脅。黃仁勳絕非意氣用事。這筆天價收購背後,是輝達面對複雜競爭格局的深謀遠慮。訓練市場輝達已近乎壟斷,但推理市場格局未定。Groq在低延遲、高並行推理場景所展現出來的優勢,正吸引著那些對成本和延遲敏感的企業。通過收購,輝達直接將最具顛覆性的技術路線收入囊中,這本質上是一次昂貴的防禦性收購。長期來看,對於AMD、博通以及其他AI晶片初創公司,競爭環境更加惡劣。它們不僅要在技術上對抗輝達的“GPU+LPU(TPU)”組合拳,還要在資本和生態上應對輝達的進攻。如今回望,Google為這一戰所做的鋪墊,遠比我們想像的更為漫長,也更為深遠,但同時也更勝券在握。 (新財富)
Anthropic打響「去CUDA」第一槍!210億美元豪購Google100萬塊TPU
【新智元導讀】未發先贏,也只有Anthropic了!Claude一小時寫完Google一整年程式碼震撼全網,甚至,他們豪購100萬塊GoogleTPU自建超算。AI軍備賽拐點,或許就在這一年。2026年開局,Anthropic未發一彈已佔先機!Google首席工程師Jaana Dogan連發多帖,高度讚揚Claude Opus 4.5——僅用一小時,便復現了一個曾讓Google工程師鑽研整年的AI系統。另一個前Google和Meta科學家Rohan Anil觀點更具衝擊力:若借助Opus的智能編碼能力,自己早期長達六年的探索工作,可被高度濃縮至幾個月內完成。自發佈過去一個多月,Claude Opus 4.5真正的實力爆發了。沒有圖像/音訊模型、巨大的上下文,僅有一款專注編碼的Claude,Anthropic依舊是OpenAIGoogle最有力競爭者。這究竟是什麼神仙打法?聯創Daniela Amodei給出了一個直白有力的回答,「少即是多」。一直以來,Anthropic都在押注用最少的資源,做更多的事,才不會掉隊,始終跑在AI最前沿。豪購100萬塊TPU,自建超算相較於模型發佈,更重大的一件事是,Anthropic也要自建超算了。權威機構SemiAnalysis爆出,Anthropic準備買下近100萬塊TPU v7晶片。這批晶片將從博通直接下單,並將其部署在自控基礎設施中。整個部署架構是這樣的:Anthropic持有TPU的所有權,基礎設施部分交給了TeraWulf、Hut8和Cipher Mining合作夥伴來提供。至於現場的實際落地維運,比如布線、開機測試、上線驗收和日常遠端管理這些活,都外包給了Fluidstack來全權負責。目前,Google雖暫未公佈TPU v7單價,但依據行業推測,大概在15,000–25,000美元之間。Anthropic一出手就是100萬張,此前爆料稱,這筆交易金額或達210億美元。對於輝達來說,將丟失300億美元(B200)潛在大訂單。然而,這筆交易最危險的地方不在金額,而在於結構:這意味著,Anthropic自有超算將不再依賴CUDA生態,不再被雲廠商「算力稅」抽成,將算力主權握在手中。有網友表示,這顯然是一件大事。Google現在大力推行商用晶片戰略,這將在未來催生一個基於TPU建構的生態系統。畢竟,Google已經用Gemini 3實證了,不用GPU,TPU也可以訓出強大模型。2026年AI生死局,反向押注如今進入2026年,AI行業已演變為「暴力規模與效率」的較量。作為規模派的代表,OpenAI投入1.4兆美元用於算力和基礎設施建設。相較之下,Anthropic卻選擇了一條不同的道路——「花小錢辦大事」(Do more with less),把籌碼押在了三件事上:更高品質、結構更好的訓練資料明顯加強模型推理能力的後訓練技術以及極度現實的目標:讓模型跑得更便宜、更容易被大規模採用在CNBC採訪中,Daniela Amodei強調,公司一直以來都以審慎的態度利用資源。下一階段的勝利,不會僅靠最大規模的預訓練任務來贏得,而是取決於每一美元算力能交付多少能力。Amodei稱,我們在Anthropic一直以來的目標是——在這個單純依賴大量算力的領域運作時,儘可能審慎地利用我們擁有的資源。就算力和資本而言,Anthropic擁有的資源一直只是競爭對手的一小部分。然而,在過去幾年的大部分時間裡,我們都擁有最強大、性能最好的模型,一以貫之。當然,這並不意味著Anthropic「沒錢」。恰恰相反,這家公司目前已經鎖定了約1000億美元規模的算力承諾,而且他們自己也承認,如果要繼續站在前沿,這個數字只會繼續飆升。他們並不是否認Scaling。他們賭的是:規模並不是唯一的槓桿。Anthropic並沒有把自己定位成一個面向大眾的「消費級AI明星產品」。它更像是一個企業優先的模型供應商。Claude的主要收入來源,是被嵌入到別人的產品、工作流和內部系統中。這類場景雖無噱頭,但黏性更強、更接近真實生產力。Anthropic表示,他們的收入已經連續三年實現同比十倍增長。更罕見的是,他們還建構了一張非常不尋常的銷售策略:「Claude幾乎出現在所有主流雲平台上,包括那些同時也在賣自家競爭模型的雲廠商。」Daniela Amodei對此的解釋很直白:不是緩和關係,而是被客戶需求倒逼。大型企業希望在雲廠商之間保有選擇權,而云廠商也不願意因為模型問題失去最大客戶。下一階段真正的贏家,可能不是那個燒錢最多的實驗室,而是那個能在實體經濟承受範圍內持續改進的公司。「指數級增長會持續,直到它停止。」2026年真正的問題是:如果那條被整個行業奉為信仰的曲線,真的開始失靈——這場由算力堆起來的AI軍備競賽,是否還能體面收場?Claude Opus 4.5,刷屏了如今,全網都被Claude Opus 4.5震撼到了。Helius首席執行長表示,「Opus 4.5簡直瘋狂到離譜」。本人已程式設計十年,它卻可以根據提供系統設計指導,以及明確的自我驗證路徑,完成任何要求的任務。有開發者在短短半小時內,不寫一行程式碼,建構出一款iOS應用。同樣地,還有人在20分鐘內打造了類似ESPN風格的應用。有人用Claude程式設計一個程序,用攝影機記錄下了花開的時刻。就連Karpathy幾天前發文,自己也上手Claude Code,讓其接入智能家居系統。不僅如此,Claude Code不僅適用於程式設計,Pietro Schirano還將原始DNA資料輸入,並利用它找出了一些與健康相關的基因。One More Thing去年3月12日,《紐約時報》報導,Google持有Anthropic公司14%的股份。2024年,Anthropic將亞馬遜雲服務(AWS)確定為其主要訓練合作夥伴;亞馬遜將向Anthropic追加投資40億美元。此外,Zoom也有Anthropic部分股權。最近,Google被傳出正在洽談追加投資Anthropic。新一輪融資或將使Anthropic的估值突破3500億美元。不得不讓人懷疑,Google是不是要在2026年收購Anthropic?Claude Code要併入Google了?不過,Anthropic如此成功,有必要賣給Google嗎?而且,Anthropic一貫標榜「安全AI」,一旦被收購,「Google+Anthropic」毫無疑問地將終結AI競賽,OpenAI、微軟、輝達等另一方會甘心嗎?(新智元)
算力三國:GPU、TPU、LPU 誰將定義 2026?
核心洞察在人工智慧浪潮席捲全球的當下,算力已成為驅動技術革命的核心引擎。在這場激烈的算力競賽中,圖形處理器(GPU)、張量處理器(TPU)與語言處理器(LPU)等專用晶片扮演著不可或缺的關鍵角色。GPU 憑藉輝達的 CUDA 生態,從圖形渲染領域完成華麗轉身,穩穩奠定 AI 訓練的基石地位;TPU 源於Google對內部算力危機的前瞻性佈局,以專用架構重塑了 AI 計算效率的行業標竿;LPU 則由前 TPU 核心團隊再創業而生,精準切入推理市場,以創新性的確定性執行架構挑戰傳統計算範式。這三款晶片的誕生與演進,共同譜寫了 AI 硬體從通用到專用、從訓練到推理的技術史詩,並將在未來持續定義 AI 技術的邊界,塑造行業發展新格局。一、回顧歷史:AI 晶片的誕生與初心1、GPU:從圖形處理到 AI 基石的華麗轉身黃仁勳的遠見:CUDA 生態的建構在人工智慧浪潮席捲全球之前,輝達的核心業務聚焦於為電子遊戲提供高性能圖形處理器。然而,公司創始人兼 CEO 黃仁勳的遠見卓識,早已超越圖形渲染的侷限。他敏銳洞察到,計算的未來在於平行處理,並堅信 GPU 的平行計算能力有望突破遊戲領域,拓展至更廣泛的科學計算場景。早在 2010 年代初期,黃仁勳便大力推廣 “加速計算” 理念,著手建構圍繞 GPU 的完整生態系統。這一戰略的核心是 CUDA(Compute Unified Device Architecture,統一計算裝置架構)—— 一個允許開發者使用 C 語言等高級程式語言,編寫在 GPU 上運行的平行計算程序的軟體平台。“CUDA 的出現,讓原本專用於圖形處理的 GPU 實現‘通用化’,搖身一變成為能夠執行各類複雜數學運算的‘通用圖形處理器’。”AlexNet 的引爆點2012 年,AlexNet 模型在 ImageNet 圖像識別競賽中取得壓倒性勝利,成為 GPU 在深度學習領域崛起的標誌性事件。在此之前,深度學習雖已在學術界引發關注,但受限於計算資源,發展始終較為緩慢。AlexNet 的成功,不僅印證了深度學習在圖像識別領域的巨大潛力,更向學術界和工業界充分展示了 GPU 在加速深度學習訓練中的獨特優勢,直接推動 GPU 成為 AI 訓練的主流硬體。2、TPU:Google的 “未雨綢繆” 與內部創新算力危機:語音搜尋帶來的挑戰Google的張量處理器(TPU),源於對公司未來算力需求的深刻危機感與前瞻性思考。2013 年,Google工程師進行了一項驚人測算:若當時全球每位Android使用者每天僅使用三分鐘語音搜尋服務,Google就需將整個資料中心的容量擴充一倍,才能滿足激增的算力需求。這場潛在的算力危機不僅是技術層面的挑戰,更是戰略層面的警醒。它讓Google高層深刻認識到,AI 將成為公司未來所有產品與服務的核心驅動力,而算力正是這場變革的基石。脈動陣列:打破馮・諾依曼瓶頸Google工程師意識到,要從根本上提升 AI 計算效率,必須突破傳統計算模式的束縛。他們需要一種能夠最大限度減少記憶體訪問、將計算與資料流緊密結合的創新架構。最終,Google將目光投向了一種古老卻極具潛力的架構 —— 脈動陣列(Systolic Array)。該概念最早於 1970 年代末提出,設計思想是讓資料像血液在心臟中流動般,在處理器陣列中有節奏地循環流動,從而大幅提升計算效率。3、LPU:Groq 的 “推理革命”前 TPU 團隊的再創業在Google TPU 項目取得巨大成功後,其核心技術團隊成員喬納森・羅斯(Jonathan Ross)選擇離開Google,創立了名為 Groq 的新公司,並推出全新晶片概念 —— 語言處理單元(Language Processing Unit, LPU)。LPU 的設計理念,是在 TPU 基礎上實現進一步 “專用化”。如果說 TPU 是為 “張量處理” 而生的通用 AI 加速器,那麼 LPU 便是為 “語言處理” 這一特定 AI 應用場景量身打造的超專用加速器。“AI for Everyone” 的理念Groq 及其 LPU 的背後,蘊含著與科技巨頭略有不同的哲學理念 —— 推動 “AI for Everyone”(人人可用的 AI)。他們認為,當前 AI 的開發與部署成本依然高昂,尤其是對中小型企業而言,建構和維護高性能 AI 推理基礎設施是一項巨大挑戰。“LPU 通過採用‘確定性執行’架構,旨在為每一次推理請求提供可預測、極低延遲的響應。”二、立足當下:晶片架構、性能與生態1、核心架構解析:從通用到專用晶片架構演進示意圖plaintext三大晶片架構核心特徵GPU 架構:CUDA 核心 + Tensor Core 平行處理架構數千個通用 CUDA 核心,支援多工平行計算專用 Tensor Core,高效處理矩陣運算搭載 NVLink 高速互聯技術,提升多晶片協同效率TPU 架構:脈動陣列(Systolic Array)專用設計256x256 MAC 單元陣列,聚焦矩陣運算最佳化資料在陣列內部循環流動,減少記憶體訪問延遲65,536 個 ALU 平行計算,算力密度高LPU 架構:確定性執行可程式設計流水線軟體優先編譯器調度,實現指令高效執行傳送帶式資料流設計,保障處理穩定性片上 SRAM 高速儲存,提升資料讀取速度2、性能對比與主流模型適配主流模型適配分析3、生態系統:軟體、框架與開發者社區NVIDIA CUDA:成熟生態構築護城河擁有 cuBLAS、cuDNN、TensorRT 等豐富工具鏈深度支援 PyTorch、TensorFlow 等主流 AI 框架全球開發者社區龐大,技術資源豐富Google TPU:與自研框架深度融合搭載 XLA 編譯器最佳化,提升計算效率提供端到端 AI 解決方案,簡化開發流程與 Google Cloud 深度整合,支援雲端部署Groq LPU:新興生態加速崛起推出 GroqCloud API,降低使用門檻採用軟體定義硬體模式,靈活適配需求編譯器驅動架構,最佳化指令執行效率三、資本與合作:AI 晶片市場的博弈1、TPU v7 的影響:Google的 “反擊”性能突破:對標 NVIDIA 旗艦晶片Google於 2025 年 11 月發佈的第七代 TPU(代號 Ironwood),是其對 NVIDIA 在 AI 晶片市場主導地位發起的最強有力 “反擊”。TPU v7 在性能上實現巨大突破,單 pod 聚合計算能力據稱達到 NVIDIA 最大 NVL72 機架配置的約 40 倍。這一驚人的性能優勢,讓 TPU v7 成為全球 AI 晶片市場的焦點。其成功不僅體現在單晶片性能上,更源於卓越的系統架構設計。市場策略:從自用到對外銷售TPU v7 的發佈,標誌著Google AI 晶片市場策略的重大轉變。在此之前,TPU 主要供Google內部使用,或通過 Google Cloud 向少數客戶提供服務;而 TPU v7 推出後,Google開始積極將其作為商品化硬體產品,向更廣泛的外部客戶銷售。潛在大客戶:Meta(數十億美元交易)、Anthropic(採購 100 萬 + TPU 晶片)、xAI 等科技公司市場目標:搶佔 NVIDIA 10% 的 data center 收入份額2、輝達與 Groq 的合作:強強聯合合作背景:補齊推理市場短板儘管 NVIDIA 在 AI 訓練市場佔據絕對統治地位,但在推理市場,其優勢並不突出。推理任務對延遲、成本和能效的要求更高,這正是 GPU 等通用計算晶片的短板。Groq 的 LPU 恰好彌補了這一缺口 —— 憑藉專為推理最佳化的架構,LPU 在延遲、吞吐量和能效方面表現出色,完美適配推理場景需求。重磅合作:200 億美元的戰略佈局據報導,NVIDIA 與 Groq 的合作協議價值高達 200 億美元,充分彰顯了 NVIDIA 對 Groq 技術價值與市場潛力的高度認可。這一合作將進一步鞏固 NVIDIA 在 AI 晶片市場的領導地位,通過整合 Groq 的推理技術,NVIDIA 可向客戶提供從訓練到推理的端到端解決方案,建構更完整的技術閉環。四、展望未來:2026 年的 AI 晶片格局1、技術趨勢:專用化、高能效與異構計算專用化趨勢ASIC 晶片市場份額預計到 2026 年將突破 30%,專用晶片向細分場景深度滲透:TPU:聚焦大規模矩陣運算最佳化LPU:深耕即時推理場景邊緣 AI 專用晶片:適配終端裝置需求高能效發展“綠色 AI” 成為行業關鍵指標,性能功耗比優先成為研發核心:採用 3nm、2nm 先進製程工藝創新架構設計,減少無效計算液冷散熱技術普及,提升散熱效率異構計算多晶片協同工作成為主流架構,各晶片各司其職、優勢互補:GPU:主導模型訓練環節TPU:負責大規模推理任務LPU:支撐即時互動場景AI 晶片技術演進時間線2、市場格局:競爭與合作並存雲端運算巨頭的自研晶片之路現有佈局:Google(TPU v7 及後續產品)、亞馬遜(Trainium 和 Inferentia)、微軟(Maia 晶片)、蘋果(Neural Engine)2026 年預期:自研晶片性能與 NVIDIA 正面抗衡,與雲服務、軟體生態深度繫結,提供一站式 AI 解決方案,減少對第三方供應商依賴初創公司的機遇與挑戰Groq 的成功證明了細分領域創新的可能性,但初創公司仍面臨多重挑戰:機遇:邊緣 AI 市場快速增長、低功耗推理需求旺盛、細分場景創新空間廣闊挑戰:研發成本高昂、巨頭生態競爭壓力大、供應鏈受地緣政治影響3、應用前景:從雲端到邊緣大模型推理普及化隨著 TPU、LPU 等專用晶片的發展,LLM 推理成本將大幅下降,應用場景全面拓寬:智能客服:實現自然高效的人機互動教育領域:提供個性化學習輔導醫療健康:輔助疾病診斷與治療邊緣 AI 興起物聯網裝置普及推動邊緣 AI 成為新熱點,低功耗晶片賦能終端智能:自動駕駛:即時處理感測器資料智能家居:提供個性化場景化服務智能裝置:實現本地 AI 功能,降低雲端依賴AI 晶片跨行業滲透與融合製造業:智能質檢、智慧物流最佳化金融業:智能風控、量化交易加速醫療健康:影像診斷輔助、新藥研發提速自動駕駛:高等級自動駕駛功能落地結語從 GPU 的平行計算革命,到 TPU 的專用架構創新,再到 LPU 的確定性執行突破,AI 晶片的發展史是技術創新與市場需求相互成就的演進史。展望未來,AI 晶片市場將呈現多元化、專業化的發展格局。專用化、高能效、異構計算將成為技術發展的主旋律,市場競爭也將從單一性能比拚,轉向技術、資本與生態的全方位較量。在這場 AI 算力革命中,無論是科技巨頭、初創公司,還是各行各業的企業,都將找到自身定位,共同推動 AI 技術向更高效率、更廣泛應用、更可持續的方向發展。 (大行投研)
黃仁勳200億美元帶走「TPU核心班底」
平安夜老黃沒有休息,一項200億美元創紀錄晶片收購消息,轟動矽谷。輝達官宣:以200億美元現金與AI晶片初創公司Groq達成交易。消息一出迅速引發市場轟動,因為這是輝達有史以來最大規模的一筆交易,遠超2019年收購Mellanox的70億美元。但僅僅幾小時後,畫風突變。輝達和Groq雙雙發表聲明,對交易性質進行了澄清,並非收購。Groq在官方部落格中寫道:我們與輝達簽訂了一份非排他性技術許可協議。輝達方面也明確表態:我們不是在收購Groq這家公司,我們只是獲得技術授權,並將Groq的產品整合到未來的產品中。看起來老黃也學會了“人才收購”這招:重金掏空一家公司的人才和核心資產,但又避免觸發反壟斷。所以這200億美元到底買了什麼?席捲矽谷的“人才收購”答案是:技術授權,加上一整支核心團隊。最先爆料的是Groq主要投資方Disruptive,其CEO透露輝達已同意以200億美元現金收購Groq的資產,交易進展非常迅速。自2016年Groq成立以來,Disruptive已經往這家公司砸了超過5億美元。根據交易協議,Groq創始人兼首席執行長Jonathan Ross、總裁Sunny Madra以及其他高管將加入輝達,“共同推進和擴大授權技術的應用”。而Groq本身則繼續作為獨立公司營運,由原首席財務官Simon Edwards接任CEO,雲服務平台GroqCloud也將照常提供服務。這種看起來複雜的操作,其實已經多次發生,已經有了固定的名字Acqui-hire(人才收購)。這樣做能快速獲取頂尖人才和技術,同時規避傳統併購可能面臨的監管,幾乎所有的科技巨頭都玩過一遍,Google玩了兩遍:24年3月,微軟6.5億美元挖走Inflection創始人Mustafa Suleyman和核心團隊。24年6月,亞馬遜月4億美元挖走Adept創始人David Luan和團隊大部分成員,同時獲得技術授權24年8月,Google約27億美元挖走Character.AI創始人Noam Shazeer以及30多人核心研究團隊。25年6月,Meta約150億美元挖走Scale AI創始人亞歷山大王和核心工程師團隊。交易後,Scale AI裁減了部分員工,並調整業務方向。25年7月,Google約24億美元挖走Windsurf創始人Varun Mohan和Douglas Chen及研發團隊。25年10月,蘋果吸收了Prompt AI核心團隊,還是截胡了馬斯克的收購搶來的,交易金額未披露。……這些交易中,有時核心只是一個關鍵人物,比如Google請回Transformer論文作者Shazeer,協議中授權Character.ai的模型Google也用不太上,更多是把團隊開發的訓練技巧用於強化Gemini。有時核心又是技術轉讓,還是Google挖走Windsurf團隊後,沒幾個月就推出了自己的AI程式設計工具Antigravity。那麼這一次,輝達是看上了什麼?黃仁勳內部郵件曝光:劍指AI推理市場Groq成立於2016年,由一群前Google工程師創辦,是TPU的核心班底,專注於高性能AI加速器晶片的設計。就在9月,Groq剛剛完成了一輪7.5億美元的融資,估值達到約69億美元。投資方Disruptive的CEO透露,在被輝達接洽時,Groq其實並沒有出售的打算。公司今年的營收目標是5億美元,正處於高速增長期。輝達CEO黃仁勳隨後向員工傳送了一封內部郵件,被CNBC獲取並曝光。郵件中,黃仁勳直接點明了這筆交易的戰略意圖:我們計畫將Groq的低延遲處理器整合到輝達的AI工廠架構中,以服務更廣泛的AI推理和即時工作負載。這裡有個關鍵背景:隨著大模型LLM的普及,AI工作負載正在從模型訓練向推理大規模遷移。而Groq的技術專長恰恰在推理領域,其自研的語言處理單元(LPU)以超低延遲和高能效著稱,官方聲稱運行大模型的速度比傳統方案快10倍,能耗卻只有十分之一。更耐人尋味的是創始人Jonathan Ross的背景。他曾是Google張量處理單元(TPU)的核心研發者之一,而TPU正是輝達GPU在AI領域的主要競爭對手。輝達這次不僅拿下了一項關鍵技術,還把潛在對手陣營裡最懂晶片的人直接挖了過來。截至2025年10月底,輝達帳上躺著606億美元的現金和短期投資,相比2023年初的133億美元翻了近5倍。這為其接連大手筆收購提供了充足的彈藥。除了Groq,輝達近期還投資了AI與能源基礎設施公司Crusoe、AI模型開發商Cohere,並追加了對雲服務商CoreWeave的投資。今年9月,輝達還宣佈計畫向OpenAI投資最高1000億美元,同時向英特爾投資50億美元。One More ThingGroq並不是唯一一家在AI浪潮中崛起的晶片初創公司。英特爾已明確表示有意向收購AI晶片初創公司SambaNova,目前處於深入談判階段,甚至已簽署了不具約束力的意向書。英特爾現任CEO陳立武曾擔任SambaNova的執行董事長,其創投公司華登國際也是SambaNova的早期投資者之一。另一家明星企業Cerebras原本計畫今年上市,卻在10月撤回了IPO申請,轉而完成了一輪超過10億美元的融資。Cerebras的發言人表示,公司仍希望盡快上市,但並未透露撤回IPO的具體原因。又或者Cerebras的結局也是被一家巨頭收購也說不定。Groq、SambaNova和Cerebras最初都是以GPU顛覆者的形態登場。當巨頭開始用資本手段吸收潛在的顛覆者,留給其他玩家的窗口期或許正在縮小。 (量子位)
ASIC來勢洶洶,輝達慌了嗎?
隨著各家大廠持續進行資本支出、AI競爭白熱化,市場目前盛傳兩種主流觀點,一是TPU和ASIC作為GPU替代方案崛起,使輝達(NVIDIA)護城河遭到侵蝕;另一個是Google逆襲,透過AI模型Gemini取得市佔和主導AI搜尋,最終將擊敗OpenAI。根據外媒siliconANGLE的看法,上述兩種說法都嚴重誇漲,且不一定如市場所想。理由之一是輝達將持續精進其GB300和後續Vera Rubin架構,可維持領先出貨並不斷降低成本,成為迄今最具成本效益的平台。至於Google則在壯大的同時面臨一種「創新者困境」。報導稱,由於Google搜尋業務與廣告營收高度繫結,一旦Google將廣告模式轉向類似聊天機器人的體驗,單次搜尋查詢的服務成本將暴增至原來的100倍;再者,Google必須將商業模式轉向更高度整合的購物體驗,必須連結使用者與廣告主,但即便Gemini近期取得一定成功,Google仍不具備這樣的信任基礎。相比之下,OpenAI核心在於強調可信資訊,而非推送廣告,仍有其優勢。為何TPU難以打破輝達AI護城河?該報導認為,TPU核心問題不在是否為「好晶片」,而是架構能否適配AI下一階段的發展需求。TPU是因頻寬昂貴且稀少而誕生,適合低頻寬需求的AI任務,但隨著模型規模擴大與工作負載多樣化,逐漸在擴展性等方面遇到限制。目前領先AI訓練走向為「高頻寬與大規模擴展」而改善的系統架構,並且支撐GPU工廠,這要讓大量加速器彼此連接,並長時間維持高效運轉。輝達護城河來自其端到端、為高頻寬、大規模擴展與可持續利用率而打造的整體架構,也是邁向AI工廠、大規模生產基礎設施時,最關鍵的決定因素。此外,不管是TPU等AI晶片都受制於先進封裝產能瓶頸,輝達除了掌握一定產能外,還持續推進GB200、GB300到Rubin的架構,並改善交換技術與整體系統設計,可說更有優勢。該報導認為,在供應受限的環境下,超大規模雲端業者勢必採取混合架構策略。以Google為例,它會在適合的地方使用TPU,但難以全面取代GPU。此外,像Google這樣的主要超大規模業者,不太可能大規模對外銷售自家專有加速器,讓其直接競爭對手形成真正的外部市場。該報導指出,「TPU走向開放市場」更合理的解釋是生態系夥伴(例如博通)以及Meta等公司在當前環境下尋求任何優勢所帶來的壓力,而非Google有意成為真正的商用晶片供應商。與OpenAI的競爭? Google 可能面臨「自我顛覆」困境該報導認為,Google困境在於如何以不損害其獲利引擎的前提下,讓主導模式過渡到更完善的模式。雖然Google獲利引擎建立在與搜尋行為掛鉤的廣告變現上,但如果互動模式轉向ChatGPT式的體驗,要更豐富的答案、更長的會話和更耗費運算資源的回應,會使成本結構發生巨大變化。「Google只會自我顛覆!」該報導認為,Google忽略了最重要的限制因素,即搜尋的經濟效益對Google來說是獨一無二的,從經典搜尋轉向助手式的互動模式會改變單位經濟效益,從而可能破壞盈利引擎。現階段OpenAI領先優勢明顯、 Nvidia護城河堅固該報導認為,就平台動能而言,現階段仍是OpenAI「領先一大截」,因為平台建設、開發者採用、企業使用者組合轉變以及對稀缺運算資源的掌握,目前都對OpenAI有利。從目前來看,輝達的護城河因出貨量、經驗曲線效應以及多年端到端系統工作,形成穩固護城河;OpenAI則因平台執行力及企業需求而保持領先。在這個競爭格局中,模型品質已成為基本門檻,真正的競爭焦點在於模型周邊的軟體與服務。雖然早期「Google可能顛覆OpenAI」的情境確實存在可能性,但資料與平台動態顯示,OpenAI先行者優勢正逐步轉化為更持久的競爭力,尤其隨著企業逐漸成為市場重心,加上與輝達的合作關係變得更加重要。 (半導體芯聞)
難怪高通急了
2025年底,一則消息讓聯發科成為了半導體行業關注的焦點。據報導,聯發科為Google操刀的首款TPU v7e將於2026年第一季度末進入風險性試產,並已拿下下一代TPU v8e訂單。更令人矚目的是訂單量的爆發式增長——聯發科向台積電協商的CoWoS年產能從2026年的約1萬片倍增至2萬片,而到2027年更是暴增至15萬片以上,是2026年的七倍以上。這意味著什麼?市場估算,光是v7e從2026年至2027年的出貨,總計可望為聯發科貢獻超過兩個股本的獲利。聯發科CEO蔡力行此前設定的目標是2026年雲端ASIC相關營收達10億美元,到2027年則達到數十億美元規模。從目前的訂單增長態勢來看,這個目標顯然是有些保守了。有趣的是,聯發科此前在ASIC業務上一直保持低調,從未透露客戶名稱。保密程度過高做法一度讓市場產生誤解,認為是"做不好所以不願意講",甚至傳出v7e進度延遲的消息。但隨著v7e確定進入風險性試產,外界才意識到聯發科的實力被嚴重低估。更值得注意的是,由於Google需求強勁,等不及v7e投片生產到完成CoWoS封裝與測試的八九個月周期,只要後續認證進度順利,v7e試產的產出也視同量產產品供應給客戶。這種試產即量產的模式,既解決了Google趕著要貨的燃眉之急,也將為聯發科盡快帶來相關業績貢獻。聯發科,靠AI大賺首先需要說明的是,聯發科能夠在雲端ASIC市場站穩腳跟,核心競爭力在於其SerDes(序列器/解串器)技術。在今年的輝達GTC大會上,聯發科展示了其Premium ASIC設計服務,顯示其與輝達的合作已擴展至IP領域。聯發科的SerDes技術涵蓋晶片互連、高速I/O、先進封裝與記憶體整合。其112Gb/s DSP基於PAM-4接收器,在4奈米FinFET製程上實現超過52dB損耗補償,意味著更低的訊號衰減和更強的抗干擾特性。現在聯發科更推出專為資料中心使用的224G SerDes,並已完成矽驗證。事實上,除了這兩天曝出的Google的TPU訂單,聯發科此前在雲服務商市場也取得了突破。據調研機構指出,部分雲服務提供商(CSP)已在評估輝達及聯發科IP組合的定製化設計晶片。報導顯示,聯發科即將獲得Meta一款2奈米工藝ASIC的大額訂單,該晶片代號為Arke,專注於後訓練和推理功能,可能在2027年上半年實現量產。值得一提的是,此前聯發科還宣佈與輝達合作設計GB10 Grace Blackwell超級晶片,該晶片將為新推出的NVIDIA DGX Spark提供動力。GB10採用了聯發科在設計節能、高性能CPU、記憶體子系統和高速介面方面的專業知識。聯發科CEO蔡力行也透露,設計複雜度更高的接續專案已在進行,預計2028年起貢獻營收。此外,公司持續積極與第二家超大規模資料中心業者洽談新的資料中心ASIC專案,預期未來相關業務將快速成長。站在手機晶片廠商的角度,其實並不難理解聯發科轉向ASIC的原因。作為一家晶片設計公司,聯發科目前在手機晶片市場面臨激烈競爭,利潤率受到擠壓,而ASIC設計服務能為聯發科提供了更高的利潤率和更穩定的客戶關係,成為其擺脫手機晶片紅海競爭的關鍵突破口。高通的焦慮當聯發科在雲端ASIC市場收穫訂單時,同為手機晶片巨頭的高通卻顯得焦慮不安。這種焦慮並非無緣無故——它源於對單一業務模式的恐懼,源於手機市場增長放緩的現實,更源於錯失AI時代機遇的危機感。翻開高通2025財年第四季度的財報,表面上看業績並不算差:手機晶片業務營收69.6億美元,增長14%,汽車晶片業務營收10.5億美元,增長17%,物聯網業務18.1億美元,增長7%,授權業務營收下滑7%至14.1億美元,總營收達到112.7億美元,同比增長10%,超出市場預期。但漂亮的增長數字背後隱藏著巨大的隱憂。手機業務仍然佔據高通營收的62%以上,汽車和物聯網業務雖然在增長,但與手機業務相比仍然小一個數量級。更嚴峻的是,全球智慧型手機市場已經趨於飽和,增長率逐年放緩,競爭對手的產品也在不斷增強。稱汽車和物聯網為“三大支柱”之二有些牽強——手機業務仍是主要支柱,其他兩個業務充其量只是輔助支柱。目前而言,全球智慧型手機市場早已進入成熟期,出貨量增長放緩,產品同質化加劇;同時,聯發科在高端SoC上持續逼近,蘋果加速推進自研數據機,進一步削弱高通在iPhone陣營的長期確定性。一旦手機業務承壓,高通整體營收與利潤結構將面臨系統性衝擊。此外,高通的高利潤率的授權業務當季營收同比下滑7%,在全球OEM強化自研、專利協議趨於重新談判的背景下,這一“現金牛”的增長動能正在減弱,也對整體利潤結構帶來了潛在的壓力。更令管理層焦慮的是節奏問題。當博通、Marvell等公司已在定製AI晶片、雲端算力和高速互連領域拿下實質性大單,聯發科通過ASIC設計服務獲得GoogleTPU訂單時,高通仍然主要被市場視為“手機晶片公司”,在AI算力版圖中尚未形成清晰的收入貢獻。正因如此,高通開始反覆強調“端側 + 雲側”的雙線AI佈局,從驍龍平台的端側AI能力,延伸至汽車、IoT,再到計畫於2026年、2027年推出的AI200與AI250伺服器級加速晶片,試圖跳出手機紅海,進入更高天花板的算力市場。但問題恰恰在於——在AI真正形成規模性收入之前,高通仍必須依賴一個增長見頂、競爭加劇的手機市場來支撐當下的財報。這也是2025財年所暴露出的最大短板:財務表現穩健,卻缺乏結構性安全墊;戰略方向清晰,但業務重心尚未完成切換。收購能否解決問題?面對AI業務收入貢獻不足、增長引擎單一的現實,高通在過去幾年其實通過在汽車方面的投入取得了不錯的成績,但公司似乎還沒足夠的安全感。在2025年,他們明顯加快了通過併購補齊能力短板的節奏,試圖以資本換時間,為其AI轉型爭取窗口期:2025年3月,高通宣佈收購邊緣AI技術公司Edge Impulse;2025年6月,高通宣佈以24億美元收購SerDes(序列器/解串器)IP領導者Alphawave Semi;2025年10月,高通宣佈收購開源硬體和軟體專業公司Arduino;2025年12月,高通宣佈收購RISC-V技術初創公司Ventana Micro Systems……此時新的問題也隨著浮現:單靠“買買買”,就能解決問題嗎?事實上,高通對收購策略的信心,很大程度上源於2021年對Nuvia的成功收購。2021年,高通斥資14億美元收購了由前蘋果晶片架構師創立的初創公司Nuvia,獲得了定製的、相容Arm架構的Oryon CPU核心架構。這筆收購被證明是高通近年來最成功的投資之一。2024年,高通憑藉驍龍X系列處理器中的Oryon晶片,重振了其在PC市場的雄風,讓高通看到了擺脫手機單一業務的可能性。Oryon的大獲成功似乎讓高通管理層相信:通過收購獲得關鍵技術,比自主研發更快、更有效。但對比後我們就能發現,與收購Nuvia不同,2025年的收購更多解決的是“能力是否齊備”的問題,無論是Edge Impulse、Arduino,還是Ventana,它們的價值都高度依賴於後續產品整合和生態放大,本質上並不能直接幫助增加營收;而Alphawave雖能顯著增強高通在AI伺服器晶片上的技術底座,但真正轉化為規模化收入,仍需等待AI200、AI250等產品在2026年之後落地。這意味著,高通今年的收購還在解決從無到有的問題,無法在短期內改變公司的現金流與利潤仍然高度依賴手機業務的事實,它們更像是在為未來下注,而不是為當下解圍。這也讓我們不禁想起2013-2014年左右的英特爾。2013年,保羅·歐德寧在擔任CEO八年後卸任,布萊恩·科再奇接任CEO。當時英特爾的業績堪稱輝煌:2013年底銷售額為527.1億美元,營業收入為122.9億美元,淨利潤為96.2億美元,毛利率高達59.8%,其無疑是當時業績最好的半導體公司之一。然而,科再奇深感危機四伏。公司的大部分銷售額來自PC客戶端業務(PCCG:銷售額330.4億美元,營業利潤118.3億美元)和資料中心業務(DCG:銷售額112.4億美元,營業利潤51.6億美元),這意味著公司對x86處理器的依賴程度極高,非x86處理器相關的銷售額僅為40.9億美元,營業虧損高達24.5億美元。科再奇與英特爾董事會在任期初期便達成了一個高度一致、也極為嚴峻的判斷:一旦x86出現結構性問題,英特爾將失去生存根基。正是在這一共識之下,英特爾選擇以併購作為最激進、也是最直接的自救路徑,試圖通過外延式擴張為公司尋找新的增長曲線與技術支點。從2013年5月科再奇出任CEO,到2018年6月黯然離任的五年間,英特爾累計收購了約25至26家企業和業務部門,覆蓋網路處理、FPGA、AI計算、視覺感知與自動駕駛等多個方向。其中較具代表性的交易包括:2014年以6.5億美元收購LSI Axxia,2015年以3.45億美元收購Lantiq,同年以高達167億美元拿下FPGA巨頭Altera;2016年相繼收購Nervana Systems(約3.5–4.5億美元)與Movidius(4億美元),並在2017年以153億美元完成對Mobileye的重磅併購。僅這些公開披露的交易,累計金額就已高達約337–338億美元。那麼,這些巨額投資產生了什麼商業成果呢?答案令人沮喪:唯一剩下的成果是Movidius的AI引擎仍然被用於Core Ultra系列產品中,其餘的投資基本上都浪費掉了。Altera在分拆後以87.5億美元的價格將51%股份出售給Silver Lake,Mobileye在2022年IPO時估值約為170億美元,財務上雖然沒有虧損,但考慮到通貨膨脹等因素,實際上就是虧本買賣。對於英特爾而言,收購失敗的根本原因在於:試圖通過收購來解決戰略方向不清晰的問題。當公司不知道未來的方向在那裡時,就通過買買買來覆蓋所有可能性,結果是資源分散、整合失敗、戰略迷失。將高通的現狀與當年科再奇時代的英特爾對照來看,會發現兩者在戰略焦慮層面呈現出驚人的相似性。兩家公司都高度依賴單一核心業務——英特爾押注x86架構,高通幾乎將命運繫於手機晶片;一旦這一根基動搖,整個公司都會承壓。正因如此,雙方在業績尚未崩塌之際,管理層就已清晰感知危機,並選擇通過密集收購來加速多元化佈局,試圖在最短時間內培育新的業務支柱,以避險核心業務可能出現的系統性風險。但在執行路徑與所處環境上,高通與英特爾的境況已然不同。英特爾在五年內豪擲337–338億美元,收購25–26家公司,下注激進卻整合成效有限;相比之下,高通的併購明顯更加克制,已披露的最大交易僅為24億美元收購Alphawave,同時在Nuvia的整合上展現出更強的執行力,Oryon CPU已成功實現商業化落地。更重要的是,高通所面對的是一場路徑更為清晰的AI浪潮,相比英特爾當年應對移動網際網路衝擊時的猶疑與錯位,當前的市場機會更加明確、需求也更具確定性。但真正的懸念在於:高通能否找到清晰的戰略方向?從2025年的一系列動作來看,答案並不樂觀。高通AI晶片業務實際進展相當緩慢。今年5月,高通宣佈與沙烏地阿拉伯的Humain公司合作,為該地區的資料中心提供AI推理晶片。Humain承諾部署最多可使用200兆瓦電力的系統。但除此之外,高通尚未公佈其他重要客戶。而在收購規劃上,高通同時在物聯網(Arduino、Edge Impulse)、PC(Oryon)、伺服器(Alphawave、Ventana)、AI晶片(AI200/AI250)等多個方向發力,但每個方向都缺乏足夠的資源投入和清晰的路線圖。以Alphawave收購為例。高通花費24億美元收購這家SerDes IP供應商,理由是補齊資料中心關鍵IP。這個邏輯看似成立——高通確實需要SerDes技術來進軍資料中心市場。但問題在於,Alphawave不只是IP公司,它還有ASIC設計服務業務。高通是否真的打算進軍ASIC設計服務市場,與博通、聯發科競爭?如果是,為何在新聞稿中隻字未提?如果不是,那麼這部分業務的工程師將成為推進高通自身伺服器業務的瓶頸。這種戰略模糊性,正是英特爾當年的問題所在。結語如果把聯發科與高通直接對照,會發現兩條截然不同的路徑。聯發科選擇的是一條“窄而深”的路線:在雲端 AI 晶片浪潮中並不追求全面鋪開,而是牢牢鎖定 ASIC 設計服務這一細分賽道,把 SerDes 等關鍵能力做到極致,並通過與台積電的深度協同,將技術能力轉化為可量產、可交付的產品。更重要的是,它並未急於擴張邊界,而是圍繞Google、Meta 等頭部客戶持續打磨方案,從第一代產品穩步推進到下一代,在真實訂單和長期合作中建立起自己的位置。反觀高通,則更像是在多重不確定性中反覆試探方向。頻繁的收購動作表面上覆蓋了物聯網、邊緣 AI、EDA、互連等多個環節,但缺乏一條清晰的主線將這些資產真正串聯起來,協同效應始終模糊。AI200、AI250 等產品推進節奏落後於競爭對手,關鍵客戶背書遲遲未現;業務版圖橫跨 PC、伺服器、AI 晶片和物聯網,卻始終未能在任何一個新領域形成決定性突破。聯發科與高通的分化,折射出 AI 時代半導體競爭的基本邏輯正在發生變化。專注往往勝過多元,真正的護城河來自對核心技術的持續深挖;客戶關係的重要性正在超過單一產品,定製化能力和長期協作比“規格領先”更能帶來確定性收入;執行與交付比宏大的戰略敘事更關鍵,而收購本身從來不是答案,整合能力才決定成敗。時間窗口正在迅速縮小。當聯發科已經開始從Google TPU 相關訂單中獲得真金白銀的回報時,高通仍在為 2026 年、2027 年的產品節奏做準備。在 AI 晶片這樣高度競速的市場中,這種時間差很可能直接轉化為機會成本。AI 時代的競爭,早已不只是技術參數的比拚,而是戰略選擇、執行效率和生態整合能力的綜合較量。聯發科的進展與高通的焦慮,正是這場較量最直觀的註腳。 (半導體行業觀察)