根據Trendforce的資料,2024 年,整體 HBM 消耗量達 6.47B Gb、年增 237.2%,其中 NVIDIA、AMD 的 GPU 分別佔消耗量的 62%、9%,其他業者(主要為 CSP 業者的 ASIC 所需)佔 29%,分產品看 HBM2e、HBM3、HBM3e 貢獻的消耗量成三足鼎立,尤以 HBM3e 8hi 及 HBM2e 8hi 最多;2025 年,預估整體 HBM消耗量將達 16.97B Gb、年增 162.2%,較上季預估的 16.40B Gb 小幅上修,因 NVIDIA 及 AWS 的 AI 晶片出貨預估上修,其中 NVIDIA、AMD、Google、AWS、其他業者分別佔消耗量的 70%、7%、10%、8%、5%,分產品而言 HBM3e 為消耗量大宗,尤以 HBM3e 12hi 最多。
NVIDIA 在 2024 年的 HBM 需求總量預計達到 6.47B Gb,佔整個 AI 儲存器市場的顯著比例。這一數字在近期有所調整,調整後的 HBM 總容量定為 6.55B Gb。NVIDIA 的 GPU 在 HBM 需求中佔據主導地位,貢獻率大約在 62% 到 9% 之間,而其他廠商如 CSP(晶片代工廠)和 ASIC(專用積體電路)廠商則佔約 29%。具體來看,NVIDIA 的主要產品線包括 HBM2e、HBM3 和 HBM3e 版本,其中 H200 型號在 2024 年第四季度的出貨量預計包括 B100/B200 和 GB200 系列,單張卡的 HBM 容量達到 144GB。2025 年,NVIDIA 的 HBM 需求預計下降至 2.53B Gb,其中 HBM3e 8hi 層版本佔比約 36%,而 HBM3e 12hi 層版本佔比約 64%,這反映了市場對更高容量和性能需求的持續增長。主要的供應商包括 Samsung 和 SK hynix,兩者在 HBM 供應鏈中扮演了關鍵角色。
AMD 在 2025 年的 HBM 需求預估顯示,MI300 系列 AI 晶片的總需求約為 0.20B Gb,而更高端的 MI350 系列需求進一步提升至 0.37B Gb。這一增長主要得益於 AMD 在高性能計算和人工智慧領域的佈局。具體的型號包括 MI300X,配備 8hi 層 192GB 容量和 12hi 層 4 堆疊配置;MI308 型號則升級至 12hi 層 8 堆疊,容量保持在 192GB;此外,MI325 型號進一步擴展至 12hi 層 8 堆疊,單卡容量達到 288GB,顯示出 AMD 在高密度儲存方向的努力。2025 年的出貨計畫中,AMD 將繼續依賴 SK hynix 和 Samsung 提供的 HBM3e 8hi 和 12hi 版本,這些供應商的穩定供貨對 AMD 的生產計畫至關重要。
Google 在 2025 年的 HBM 需求預計達到 0.41B Gb,這一需求主要來源於其 TPU(張量處理單元)v5 和 v6 版本的訓練需求,其中 TPU v5 訓練需求約為 0.47B Gb。Google 的 HBM 配置主要包括 HBM2e 8hi 層 6 堆疊,容量為 96GB,以及 HBM3e 8hi 層 8 堆疊,容量提升至 192GB。這些配置主要服務於 Google 的自研 AI 模型訓練和推理任務。為了最佳化性能,Google 採用了自研 ASIC 晶片以及 Broadcom 提供的 IC 晶片作為配套方案,這一策略有助於降低對外部供應商的依賴,同時提升整體系統的定製化程度。
AWS 在 2025 年的 HBM 需求預估為 0.28B Gb,其中 Trainium v2 版本需求約 0.20B Gb,Trainium v3 版本需求約 0.08B Gb。AWS 的主要型號包括 HBM3e 12hi 層 4 堆疊,容量為 144GB,以及 HBM3e 12hi 層 6 堆疊,容量提升至 288GB。這些配置廣泛應用於 AWS 的雲端 AI 訓練和推理服務。供應商方面,AWS 主要依賴 SK hynix 和 Samsung 提供的 HBM 晶片,同時也在內部開發 in-house ASIC 晶片,以增強供應鏈的靈活性和成本控制能力。此外,AWS 還計畫通過最佳化 Trainium 系列的架構,進一步提升 HBM 的利用效率。
除了上述主要玩家,Intel 在 2025 年的 HBM 需求佔比相對較小,僅佔總需求的約 10%。Intel 的 HBM 需求主要集中在 HBM3e 版本,服務於其 CPU 和 ASIC 產品線。主要的供應商包括 SK hynix 和 Micron,Intel 也在探索自研晶片的可能性,以減少對外部供應鏈的依賴。這一領域的需求增長較為緩慢,但隨著 Intel 在 AI 市場競爭的加劇,未來可能會有更多動態。 (傅里葉的貓)