Tensor Processing Unit(TPU)張量處理單元,是Google為機器學習和高性能計算任務量身定製的專用晶片系列。TPU首發於2016年,並率先應用於AlphaGo,到如今已是第七代Ironwood,10年間,早已成為AI算力領域不可忽視的力量,是Google資料中心頂層構架的強有力支撐。TPU並非通用處理器,而是專門為AI計算中大量的矩陣和張量運算最佳化的專用積體電路Application-Specific Integrated Circuit(ASIC)。簡單來說,ASIC晶片是為了特定應用而客制化的晶片,至於輝達的GPU,則是一種通用型的處理器,適用於更多元功能。ASIC晶片在執行這些特定任務時,相比CPU甚至GPU往往能提供更高的效率和更低的功耗。在TPU的設計上,Google主導整體架構與功能定義,博通Broadcom參與了部分晶片的中後端設計工作,目前,Google TPU主要由台積電(TSMC)代工生產。Marvell預計,到2028年全球AI ASIC市場規模將達到554億美元,而Google正引領這一市場,當前佔據絕大多數的市場份額。隨著大語言模型進入兆參數時代,AI計算任務從探索性的“訓練”大規模走向商業化的“推理”。GPU作為通用算力單元,其高昂的成本(輝達H100單卡市價超2萬美元)和功耗成為AI應用普及的瓶頸。TPU作為專為張量運算(AI核心計算任務)設計的ASIC晶片,展現出極致的性價比優勢。據悉,GoogleTPU算力成本僅為OpenAI使用GPU成本的1/5,性能功耗比更是優於同代GPU。蘋果、OpenAI、Anthropic等頭部AI玩家目前已開始租用GoogleTPU進行模型訓練與推理,標誌著市場需求正從對GPU的單一依賴轉向“GPU+TPU”的多元化格局。而未來,Google也在計畫在自有設施以外的外部資料中心部署TPU。據悉,Google近期已經開始接觸了相當數量的中小型雲端運算公司,並提議引入TPU。2025年Google TPU的全年出貨量預計為250萬⽚。TPU V5系列總出貨量預計為190萬⽚,其中V5E佔⽐約120萬⽚,V5P佔⽐約70萬⽚,TPU V6系列(包括V6E和即將推出的V6P)預計總出貨量為60萬⽚,⽬前僅V6E在市場上銷售,⽽V6P將在第四季度上市,約10-20萬⽚左右。預計到2026年,總體TPU銷量將超過300萬片。據悉,Google第七代TPU Ironwood性能接近B200。FP8算力達4614 TFLOPS,配192GB HBM3e視訊記憶體與7.3TB/s頻寬,支援9216顆晶片互聯, Google TPU已成為一股不可小視的力量。分析師Gil Luria在最新報告中直言,Google TPU如今已成為“最好的輝達替代方案”。上周北美市場Google大漲,GoogleTPU的受關注度正在逐漸升溫,分析師與前沿AI實驗室的研究人員和工程師交流後發現,業內普遍看好GoogleTPU。分析師甚至認為,若Google將TPU業務與DeepMind部門合併並將它們分拆上市,估值或將高達9000億美元(作為參考,Google最新市值約2.8兆美元),“這將是Alphabet最具價值的資產之一”,而今年1月,其給這部分業務的估值是7170億美元。筆者認為,Google TPU是否是輝達GPU最好的替代方案,還需綜合考量,但Google TPU的最大威力,不是今天搶了多少片GPU的份額,而是把AI算力從“稀缺的高溢價商品”變成“可按需調度的基礎設施”,這是其最大的意義。現如今,GoogleTPU在AI推理和大規模訓練場景中表現出色,但其專用性決定了其適用範圍相對較窄。對於追求極致性能和成本效益的AI項目,TPU是有力選擇;而對於需要通用計算能力或依賴成熟生態的場景,GPU仍是主流。但無論如何,以博通和Google的勢力為代表的AISC陣營,正在逐漸開始走向AI世界的中心。 (AI領投)