周末發酵:輝達 vs Google

周末最主要的話題就是“輝達 vs Google”,加上周末Nano Banana的大獲成功(大量Nano banana的專業圖片)通過ASIC完成頂尖模型的訓練和推理,已經得到驗證,而且基本是滿分成績,比如1.6T光模組的結構:

從上周開始,看多Google的熱情確實在快速膨脹,但是,這個溫度依然還在早期…因為Google剛又放出了一個新的猛貨——BigQuery,後面詳細介紹。

今天話題直接說結論:最強組合是輝達+Google

1,首先聊Google,最近的Gemini 3 完美詮釋了Google的護城河:深度且全面的技術整合

(1)先放一張之前在星球發的內容做個概括:

為什麼說OpenAI想成為Google?自制晶片、AI瀏覽器AI購物、AI資料庫都被 Google實現了…Sam夢想中的樣子就是Google。


TPU支撐了Gemini3,Google目前是唯一擁有頂尖模型+頂尖算力+全佔AI基礎設施建構方案+海量流量入口的玩家…

(2)GoogleAI基礎設施的核心優勢在於成本控制+深度最佳化

最近Gemini和Nano banana能力的爆發,讓我們看到了TPU版本的“大力出奇蹟”…


Google不僅成功避開了為輝達貢獻75%毛利的方法,而且將AI整合到了自己各種產品中,全面的推動AI->利潤飛輪的轉動。


Gimini的“綜合訓練和推理成本”是所有模型裡最低的,雖然從過去的資料中看,TPU v4和比A100的表現略差,但從v5開始,TPU的推理性能就好於同等的GPU。


TPU可以針對具體使用場景和模型環境來進行深度的結構定製和網路最佳化。也就意味著,TPU的能效比非常高,而且最誇張的就是在於基於OCS的節點靈活重構,這在財務角度看非常重要。


(3)OCS為TPU叢集提供指數級的能力增強,成本和效率的大殺器

從成本和功率的角度來看,Google能夠以比其他公司部署GPU更高效的部署TPU,但實際上這個並非有價值的優勢…輝達可以提供NVL72(等價於未來的NVL144),以及未來的NVL576。

Google內部使用者能夠體驗到的最大優勢是使用者可以根據自己的模型定製基礎設施需求。
實際上,包括GPU在內,任何晶片無法100%滿足所有使用者的所有個性化需求,比如記憶體、互聯以及計算,輝達的方案是晶片必須具有通用性,同時提供NVLink網路解決方案。

但確實對於具體客戶和應用來說,GPU提供了太多性能冗餘,同時不那麼靈活。

Google的OCS則建立自訂網路拓撲結構,可以“隨意”改變網路節點的結構,進行各種資源配置,有點類似於記憶體、互聯、算力的積木DIY。

在GPU體系中,如果某個關鍵節點堵塞或者出現Bug,則需要重啟。而OCS拓撲結構中,可以直接繞過這個節點,效率得到大幅提升,當然根本上,依然還是對現有資源的充分挖掘。如果資源本身不夠,繞道也沒地方去…

(4)護城河繼續拓寬:全球領先的知識庫和資訊資源+AI資料倉儲

這兩天看到AI BigQuery,本來想寫點啥,但是估計沒啥人看,今天一起討論。這個從對AI以及技術、商業形態的影響來說,要比Nano banana和新模型重要太多,就是下面這個東西:

AI終於可以真正的進入一家企業的心臟,當AI和企業資料以及核心流程深度結合,生產力將真正開始出現大爆炸!

此前的各種應用,包括各種生圖、對話、搜尋乃至音樂製作、視訊生成等等,都是2C的個性應用,2C的應用之王社交連接+Agent還沒有出現。

但是2B的AI in 資料庫,已經出現了,AI驅動型分析貫穿整個資料生命周期,也是催生2C大應用的關鍵因素。Google、微軟、AWS,包括國內的阿里、字節、騰訊,那個又不是“頂級資料公司”?

……

Google打通了AI+企業資料的價值鏈條,下一步就是AI+廣泛個人資料的價值鏈條,馬上就會出現AI社交+AI Agent(沒有資料支撐,瞎做應用或者Agent,無異於亂撞),這才是真正的生產力革命。

2,對輝達的擔憂短期被快速放大,強勢Google將各大CSP以及頂尖模型公司推向輝達

Google未來還會加速,然而Google的強勢,反而給其他巨頭開發自己的ASIC帶來了全新的挑戰,這對於輝達是非常好的消息。Google太狠了,各家真打算靠自己的ASIC硬拚麼?可能需要重新考慮…

直接說幾個觀點:

(1)Google整個基礎設施的核心能力在於靈活定製+深度最佳化,這意味著大CSP需要深度依賴Google的體系,甚至比依賴輝達更加嚴重,因為CUDA+GPU是最容易上手且性能和成本最好衡量的頂級組合;

(2)Google提供雲服務、提供頂級模型、提供各種應用,甚至未來提供各種終端產品,而輝達作為第三方,大CSP可以不用擔心業務競爭;台積電的成功就是例子;

(3)CUDA的廣泛性和護城河被大幅低估,而Google基礎設施架構的“專用性”以及Google特質被階段性忽略。除了CUDA擁有大量成熟的庫以及廣泛的開發者支援之外,還有一個重要的事兒,巨頭已經採購了大量的GPU,未來會繼續延續下去…

(4)偉了應對TPU的挑戰,輝達的推理晶片,已經在做大幅最佳化,成本、功耗以及綜合能力,非常適合於推理:

那麼對於巨頭自己開發ASIC,個人觀點是:

(1)一定還要搞,TPU的顯性成功讓各家都不可能放棄這個方向,至少要搞出來,在特定應用場景中進行推理部署,解決資源依賴問題,不至於某一天資源被卡;

(2)但最多自用,向外賣或者租賃,壓力太大了…有TPU擋在那裡;

(3)因為留給各大CSP開發自己強悍的ASIC以及建構自己基礎設施的時間不夠,想用最頂尖晶片和Google競爭只能依賴輝達GPU…

所以Google的強勢,基本上確定的將巨頭們推向輝達,最近輝達和微軟投資Anthropic就是明晃晃的例子。

也就是說,輝達短期的擔憂被放大,而明年開始,各大CSP加速採購GPU的預期並沒有被計入。

當很多人還在討論泡沫不泡沫的時候,看看Google的巨大成功,再看看輝達的地理位置,很多問題不需要太多考慮,短期流動性擔憂消散之後,最強的公司該怎麼樣還是會怎麼樣。

回到開頭,最強組合就是:Google+輝達。 (橙子不糊塗)