#B100
推理佔比確認70%、B100性能提升可能4倍
AMD、AMAT、KLAC、INTC、LRCX、MU、NVDA、STX、SWKS和WDC等以及一級市場的Cerebras、Groq、Tenstorrent、Sambanova等公司,甚至包括了美國商務部工業和安全副部長Alan Estevez主持的小組討論。總結如下: 輝達表示B100相比H100性能提升超過2-3倍(註:輝達CFO原話是「2-3倍聽起來低了」。因為H200相比H100就是80%提升,B100相比H200 2倍提升,也有3.6了,估計真的要4倍以上了)。 推理需求的成長開始迅速加速,上個財年40%,現在已經到了70%(註:這個和我們之前星球裡的分析對上了,但要注意這裡麵包含了大量傳統推理需求,真正的GenAI佔推理需求小於50%,但反過來,隨著GenAI部署的泛華,意味著推理的需求成長會加速) 關於每個GPU 4500美元軟體收入,這與企業安裝基礎有關,20%的收入來自企業,以及一部分銷售到雲端。對於已經出貨的H100有400萬GPU的累計基數,這些GPU都存在升級的可能。如果我們假設一半已經銷售到雲端中,最終將以某種方式被企業在雲端實例中使用,因此需要打補丁/優化,這表明收入潛力>100億美元。對於在CPU上運行的推理,可以繼續在CPU上運行,不一定需要GPU。對於其他類型的更高階的推理工作負載,如genAI,不可能在CPU上運作。資料中心容量瓶頸,對於CSP,他們已經在展望2-3年後,所以這是他們規劃過程的一部分,因此NVDA沒有那麼擔心資料中心容量瓶頸。HBM供應商會增加到三個。需求仍然遠遠超過供應,尤其是全球範圍內,特別是在中東地區(阿聯酋、沙烏地阿拉伯)開始出現國家層級的需求。 AMD表示2027年其4000億美元AI加速器TAM中約65-70%將用於推理。但強調從未說過今年可以實現80億美元的MI300收入(?),認為按產能儲備(HBM和cowos)算的話,的確超過35億美元的指引,並在未來幾代產品表現出非常自信的語氣。我們預計AMD今年結束將在資料中心GPU的市佔率達到約10%。我們也感覺到伺服器CPU的語氣稍微好一些,在傳統伺服器市場看到了一些反彈(也得到了MU評論的支援)。長期毛利率目標57%,但在設定該目標時並未考慮AI業務(MI300X前期對毛利率還是有拖累)。而公司也提到了未來可能會和HBM廠商進行客製化合作(之前文章我們提過HBM4會更加客製化)