最近美股金融市場風雲變化,疊加DIY市場儲存晶片大幅漲價,所以我們暫時拋開開源和閉源模型不談,聊聊美國最大的AI鏟子售賣商-輝達和Google的角色關係
很多非技術出身的投資者認為輝達的爆發是運氣,正好趕上了ChatGPT的風口。但其實這是一場長達17年的蓄謀已久的策劃。
故事的轉折點不在1993年的創立,而在2006年。
那一年,輝達推出了CUDA(Compute Unified Device Architecture)。在當時,這被視為一個瘋狂的決定——在每一塊GPU上增加專門的邏輯電路,允許程式設計師呼叫顯示卡進行通用計算(GPGPU)。
這意味著輝達在硬體成本上升的同時,還要投入巨資去維護一套當時沒人用的軟體生態。華爾街當時對此嗤之以鼻,認為黃仁勳瘋了。
但正是CUDA,將GPU從單純的“圖形渲染器”變成了“數學加速器”。
2012年的伏筆: AlexNet在兩塊GTX 580顯示卡上訓練了6天,碾壓了傳統演算法。深度學習(Deep Learning)的大門被踹開,科學家們驚訝地發現:原來GPU這種幾千個核心平行計算的架構,天生就是為了跑神經網路而生的。從那以後,輝達就不再是一家遊戲硬體公司,它變成了一家AI計算平台公司。當2017年Transformer架構提出,2022年ChatGPT爆發時,輝達是全場唯一一個準備好了全套“軟硬一體”方案的玩家。
如果你只盯著它的主營業務——資料中心(Data Center),你會看到驚人的財務資料。在最新的財報中,資料中心業務營收佔比已超八成,毛利率一度突破75%。這在硬體行業是違反常識的。
之所以能做到這一點,是因為輝達賣的從來不是裸片(Silicon)。
它賣的是DGX系統,是NVLink(讓成千上萬塊顯示卡像一塊顯示卡那樣工作的高速互連技術),更是NVIDIA AI Enterprise軟體套件。
在AI開發者的世界裡,CUDA構成了最深的護城河。所有的主流框架(PyTorch, TensorFlow)、所有的開源模型(Llama, Mistral),默認的第一適配對像永遠是輝達。
這種“開發者習慣”的粘性,比硬體本身的性能差距更難被踰越。
然而,盛世之下,危機四伏。
輝達的統治力並非牢不可破。 而撕開這道口子的,正是它最大的客戶之一—Google。
早在2015年,Google就敏銳地意識到:如果不自研晶片,未來將被輝達卡死。 於是,TPU(Tensor Processing Unit) 誕生了。
這就引出了輝達目前面臨的最大困境:通用GPU vs 專用ASIC的路線之爭。
GoogleTPU的威脅有多大?
如果你看DeepMind的Gemini、阿法狗(AlphaGo),甚至蘋果最新的Apple Intelligence伺服器端訓練,它們很多並沒有依賴輝達,而是建構在Google的TPU叢集之上。
不僅是Google,這是一場“CSP(雲服務提供商)的起義”。
這些科技巨頭每年向輝達採購數百億美元的晶片,但他們內心極度渴望擺脫這種“被收稅”的狀態。這種客戶即對手的博弈,將是未來3-5年AI硬體領域的主旋律。
其實對於輝達來說,另一個隱憂在於AI工作流的重心轉移。
過去幾年是訓練(Training)的時代,大家都在拚命燒錢練大模型,這時候必須用輝達,因為只有它能提供萬卡叢集的穩定性。
但未來5年,我們將進入推理(Inference)時代。也就是模型練好了,大家開始大規模呼叫API,開始在手機、PC、邊緣裝置上運行模型。
在推理市場上,輝達的優勢會被削弱。
目前的輝達,依然是當之無愧的王者。Blackwell架構的推出,再次拉大了它與競爭對手的代差。在“訓練超大模型”這個塔尖領域,它依然沒有替代品。
但從產業演進的角度看,任何單一公司的壟斷都是暫時的。
金融市場上,巴菲特管理的波克夏公司斥資43億美元首次建倉Google母公司Alphabet,使其成為第十大重倉股,這再次證明了,Google在AI發展路徑走在了更符合投資者期待的路徑上,足夠的落地應用轉化,才是AI最終的歸宿。
AI產業正在從“輝達一家獨大”走向“一超多強、專用晶片遍地開花”的戰國時代。GoogleTPU已經證明了ASIC路線的可行性,而開源社區正在努力填平軟體鴻溝。
或許對於輝達而言,未來的敵人不是AMD,而是那些正在試圖用更高效、更廉價的算力架構,去重構整個AI成本模型的“前戰友”們。 (Diffusion Atlas擴散圖譜)