Google正加速推進自研AI晶片業務,與輝達展開正面競爭。
多年來,Google一直將自研的AI晶片——張量處理單元(TPU)出租給客戶,供其在Google雲(Google Cloud)的資料中心內使用。
據知情人士透露,Google現已開始向部分客戶(包括Meta Platforms和大型金融機構)推廣新方案:允許他們在自有資料中心部署TPU晶片。
知情人士表示,Facebook和Instagram的母公司Meta目前正與Google洽談兩項合作:一是計畫在2027年斥資數十億美元,在自有資料中心採用TPU晶片;二是明年從Google雲租賃Google晶片。
當前,Meta的AI運算主要依賴輝達的圖形處理器(GPU)。
對Google而言,此類合作有望擴大TPU的市場覆蓋面。
一位直接知情人士透露,Google在向企業推廣“自有資料中心部署TPU”方案時提到,客戶希望此舉能讓敏感資料滿足更高的安全與合規標準。
Google還指出,TPU對那些在自有設施中運行AI模型的高頻交易公司尤為適用。
這項業務還可能大幅提升Google的營收。
Google雲部門部分高管表示,該方案有望搶佔輝達年營收的10%,對Google而言相當於每年數十億美元的收入增量。
Google吸引客戶使用TPU的核心優勢之一在於成本——相比價格高昂的輝達晶片,TPU的使用成本更低。
這也使得甲骨文等其他雲服務商難以通過出租輝達晶片獲得理想的毛利率。
不過,輝達大機率會抵制Google在AI晶片市場的擴張步伐。
作為AI伺服器晶片市場的絕對霸主,輝達已成為全球市值最高的公司,當前市值達4.36兆美元。
其市場壟斷地位推動營收飆升,進而積累了豐厚的現金流,這些資金又可反哺給OpenAI、Anthropic等客戶,加深合作繫結。
輝達CEO黃仁勳一直密切關注GoogleTPU的技術進展,並迅速採取行動,說服OpenAI、Anthropic等現有及潛在TPU客戶,與輝達GPU簽訂大額合作協議。
有分析認為,黃仁勳可能會通過促成與Meta(輝達最大客戶之一)的新交易,來阻撓Meta與Google的TPU合作。
“我們始終在探索與頂尖AI實驗室深化合作的方式。”輝達發言人表示。
Meta發言人拒絕對TPU相關洽談發表評論。
Google發言人未就TPU推廣計畫置評,但表示“市場對我們自研TPU和輝達GPU的需求正在加速增長;我們將一如既往地同時支援這兩種方案。”
Google當前在AI領域的強勁勢頭,或許能為其TPU推廣提供助力。
本月早些時候,Google發佈了最新大型語言模型Gemini 3,獲得了眾多科技界知名人士的高度評價。
他們認為,Google已彌合了與OpenAI之間的技術差距。
據英國《金融時報》11月25日報導,GoogleTPU引發市場焦慮,輝達股價盤初急挫超7%、收跌2.6%,市值蒸發約1150億美元,超微電腦等關聯公司跟跌。
Google長期以來一直使用TPU開發AI模型。
部分開發者認為,借助TPU,Google在“為新大型AI模型訓練所需的密集伺服器叢集提供算力”方面,已縮小與輝達的領先差距。
這一進展的佐證是:Meta與Google洽談的TPU合作,核心是用於訓練新AI模型,而非用於現有模型的推理過程。
這一細節值得關注,因為多數分析師此前認為,鑑於暫無企業能在訓練晶片技術上與輝達抗衡,挑戰輝達的最大機會應在推理晶片領域,而這類晶片無需大型互聯伺服器叢集。
與此同時,Meta也在繼續開發自研的AI推理晶片,以降低成本並減少對輝達的依賴。
為推動“客戶自有資料中心部署TPU”的新計畫(該計畫名為TPU@Premises),Google專門開發了一款軟體,旨在降低客戶使用TPU的門檻。
這款名為“TPU指揮中心”(TPU command center)的軟體,似乎是Google針對輝達核心優勢的破局之舉。
輝達的Cuda軟體已成為AI開發者的“事實標準”。
開發者對其操作極為熟悉,能輕鬆讓模型在輝達晶片上運行。而Google用於TPU的配套程式語言Jax,開發者熟練度相對較低。
不過Google向客戶保證,他們可以使用與PyTorch相關的軟體來操作TPU,無需成為Jax專家。
客戶可通過PyTorch相關軟體與控制TPU伺服器叢集的指揮中心進行互動。
值得一提的是,PyTorch由Meta研發並開源。
無論Google的TPU計畫最終能否成功,僅“出現強大替代方案”這一事實,就已為Anthropic、OpenAI等不願過度依賴單一AI晶片供應商的輝達大客戶帶來了利多。
上個月,在Google宣佈向Anthropic提供最多100萬個TPU後,黃仁勳迅速宣佈向Anthropic投資數十億美元,並獲得了這家AI初創公司使用輝達GPU的承諾。
類似地,在OpenAI計畫從Google雲租賃TPU的消息曝光後,黃仁勳與OpenAI達成了初步協議:擬投資高達1000億美元,助力其自建資料中心,同時探討向其出租輝達GPU的可能。
輝達發言人強調,其對AI初創公司的投資不強制要求對方採購輝達GPU。
黃仁勳已認可Google在AI晶片領域的進展。今年秋初的一檔播客節目中,黃仁勳表示:“Google已迭代至第七代TPU,我們確實應該給予應有的尊重。”
輝達於26日凌晨發文回應GoogleTPU擴張,稱樂見GoogleAI進展、將繼續為其供貨。
同時,輝達強調自身“是唯一適配全計算場景、支援所有AI模型的平台”,並暗指TPU這類專用ASIC晶片在通用性、性能靈活性上遜於自家產品,意在穩住市場信心。
Google早在近十年前就啟動了TPU研發項目,並於2018年左右向有意自研AI模型的客戶開放TPU使用權限。
目前,Google雲仍在向客戶出租搭載輝達晶片的伺服器,這項業務的營收仍顯著高於 TPU 相關業務。
亞馬遜、微軟等雲服務領域的主要競爭對手,以及OpenAI、Meta等其他大型AI開發者,均已啟動自研AI晶片的嘗試,但迄今為止成效有限。
今年夏天,Google在TPU市場擴張方面變得更為激進。
Google開始接觸那些主營輝達晶片租賃的小型雲服務提供商,提議在其資料中心部署TPU。
目前,Google已與至少一家雲服務提供商達成協議——總部位於倫敦的Fluidstack將在紐約的資料中心部署TPU。
該協議包含讓Fluidstack難以拒絕的條款:如果Fluidstack無法承擔紐約資料中心的租賃成本,Google將作為“後盾”提供最高32億美元資金支援。
這一承諾正幫助Fluidstack及其資料中心提供商籌集該資料中心的建設資金。
輝達也曾向CoreWeave等AI雲合作夥伴作出過類似承諾。
Google還試圖與其他主打輝達晶片的雲提供商達成交易。
其中,包括正在為OpenAI開發輝達晶片資料中心的Crusoe,以及向微軟出租輝達晶片且與OpenAI有合作的CoreWeave。
目前這些洽談的進展暫未披露。 (創新觀察局)