AI推理不僅是一場技術革命,更是一門可以被精確計算且回報豐厚的生意。
AI推理,是一門利潤驚人的生意。
摩根士丹利最新發佈的重磅報告,首次通過精密的財務模型,給全球AI算力競賽的回報率算清了經濟帳。結論是:一座標準的“AI推理工廠”,無論採用那家巨頭的晶片,其平均利潤率普遍超過50%。
其中,輝達GB200以近78%的利潤率毫無懸念地封王,而Google和華為的晶片也“穩賺不賠”。然而,被市場寄予厚望的AMD,其AI平台在推理場景下卻錄得嚴重虧損。
大摩的模型測算結果,折射出AI硬體巨頭們在真實商業場景下的盈利能力分化,譜寫出一首清晰的“冰與火之歌”。
火焰,屬於輝達、Google、亞馬遜和華為。
報告顯示,採用輝達旗艦產品GB200 NVL72的“AI工廠”,盈利能力達到了恐怖的77.6%,一騎絕塵。這不僅源於其無與倫比的計算、記憶體和網路性能,還得益於其在FP4精度等領域的持續創新和CUDA軟體生態的深厚壁壘,展現了絕對的市場統治力。
Google自研的TPU v6e pod則以74.9%的利潤率緊隨其後,證明了頂級雲廠商通過軟硬體協同最佳化,完全有能力建構起極具經濟效益的AI基礎設施。
同樣,AWS的Trn2 UltraServer也以62.5%的利潤率,華為的昇騰CloudMatrix 384平台也取得了47.9%的利潤率。
冰水,則意外地潑向了AMD。
報告最具顛覆性的結論,莫過於AMD在推理場景下的財務表現。大摩測算資料顯示,採用其MI300X和MI355X平台的“AI工廠”,利潤率分別為-28.2%和-64.0%。
虧損的核心原因在於高昂成本與產出效率的嚴重失衡。報告資料顯示,一個MI300X平台的年度總擁有成本(TCO)高達7.74億美元,與輝達GB200平台的8.06億美元處於同一水平線。
這意味著,營運AMD方案的前期投入和持續開銷是頂級的,但在模型所模擬的、佔未來AI市場85%份額的推理任務中,其token產出效率所能創造的收入,遠不足以覆蓋其高昂的成本。
支撐上述結論的,是摩根士丹利首創的一套標準化分析框架——“100MW AI工廠模型”。它將不同技術路徑的AI解決方案,置於同一商業維度下進行量化評估,其核心在於三大支柱:
1. 標準化的“算力單元”: 模型以100兆瓦(MW)的電力消耗作為“AI工廠”的基準單位。這是一個中等規模資料中心的典型功耗,足以驅動約750個高密度AI伺服器機架。
2. 精細化的“成本帳本”: 模型全面核算了總擁有成本(TCO),主要包括:
基建成本:每100MW約6.6億美元的資本開支,用於建設資料中心及配套電力設施,按10年折舊。
綜合估算,一座100MW“AI工廠”的年均TCO在3.3億至8.07億美元之間。
3. 市場化的“收入公式”: 收入與token產出直接掛鉤。模型基於各硬體的公開性能資料計算TPS(每秒處理token數),並參考OpenAI、Gemini等主流API定價,設定了每百萬token 0.2美元的公允價格。同時,考慮到現實中70%的裝置利用率,使得收入預測更貼近商業現實。
值得一提的是,在揭示了諸多硬核能力之後,負責人表示,GenFlow 2.0還有更多模式,將在正式上線時推出。
盈利能力的背後,是更深層次的戰略博弈。報告揭示,未來的AI戰場,焦點將集中在技術生態的建構和下一代產品的佈局上。
在非輝達陣營,一場關於“連接標準”的戰爭已經打響。以AMD為首的廠商力推UALink,強調其對低延遲的嚴格規定對AI性能至關重要;而以博通為代表的力量則主張採用更開放、靈活的乙太網路方案。這場爭論的勝負,將決定誰能建立起一個可與輝達NVLink抗衡的開放生態。
與此同時,輝達正以清晰的路線圖鞏固其領先地位。報告提到,其下一代平台“Rubin”正按計畫推進,預計2026年第二季度進入大規模量產,同年第三季度相關伺服器就將開始放量。這無疑給所有競爭者設定了一個不斷移動的、更高的追趕目標。
總而言之,摩根士丹利的這份報告,為狂熱的AI市場注入了一劑“商業理性”。它雄辯地證明,AI推理不僅是一場技術革命,更是一門可以被精確計算且回報豐厚的生意。
對於全球的決策者和投資者而言,前文兩張盈利圖表,將對AI時代算力投資提供相當大的參考價值。 (硬AI)