輝達重要合作夥伴預測10年後晶片功耗將達功耗15360瓦!浸沒和嵌入式液冷將成為必選

01.Kaist Teralab預測晶片TDP將達15360瓦

近日,輝達的重要晶片研發合作夥伴韓國科學技術研究院(Kaist Teralab)發表文章稱:目前AI GPU 的功耗穩步上升,預計未來 AI 處理器整合更多計算能力和 HBM 晶片,功耗還將持續飆升。預計未來 10 年,AI GPU 的熱設計功耗 (TDP) 將一路飆升至 15,360 瓦。未來需要相當極端的冷卻方法,包括浸入式冷卻甚至嵌入式冷卻。

同時韓國科學技術研究院(KAIST)的領導Joungho Kim教授最近在接受《The Elec》採訪時指出,冷卻技術將成為未來HBM技術競爭的關鍵。隨著領先的記憶體製造商在 HBM 開發方面取得進展,一旦 HBM5 進入商業化階段(可能在 2029 年左右),冷卻技術預計將成為一個關鍵的競爭因素。這意味著,未來晶片性能的差異,不再僅僅依靠誰的運算更快,而是誰的冷卻做得更好。

Kim 還解釋說,雖然封裝目前是半導體製造的主要差異化因素,但隨著 HBM5 的到來,冷卻的重要性將顯著提升。他進一步指出,隨著從 HBM4 開始,基礎晶片開始承擔 GPU 的部分工作負載,導致溫度升高,冷卻變得越來越關鍵。目前 HBM4 使用的液冷方法(冷板式液冷)在未來將面臨侷限性。為此,HBM5 結構預計將採用浸沒式冷卻,將基座晶片和整個封裝都浸入冷卻液中。

這裡解釋一下什麼是HBM:HBM(High Bandwidth Memory)是一種將多個DRAM晶片垂直堆疊,並通過矽通孔(TSV)進行高速連接的三維記憶體結構。相比傳統的DDR記憶體,HBM擁有更高的資料傳輸速度、更小的佔板面積,並且功耗更低。在目前的AI晶片中,比如NVIDIA的H100或AMD的MI300系列,HBM已經成為核心配置之一。尤其是在訓練像GPT-4或大模型時,HBM能將數千億參數的訪問延遲降低到極小。但問題也隨之而來:資料吞吐越快,發熱就越多(下方是目前主流晶片的HBM架構,主要是HBM3架構)。


韓國科學院對未來10年與輝達晶片功耗和冷卻方案做出的大膽預測。

02. 未來的 HBM 架構和冷卻創新

由金教授領導的韓國科學技術研究院(KAIST Teralab)公佈了HBM4至HBM8的技術路線圖,涵蓋2025年至2040年。該路線圖概述了HBM架構、冷卻方法、TSV密度、中介層等方面的進展。金教授還指出,正如報告所示,預計通過異構和先進的封裝技術,基礎晶片將轉移到HBM堆疊的頂部。

目前,風冷系統(包括銅散熱器和高壓風扇)可以滿足輝達 H100 AI 處理器。然而,隨著 輝達的 Blackwell 將其散熱功率提升至 1200W,Blackwell Ultra 又將其 TDP 提升至 1400W,液冷解決方案几乎成為必需。接下來2026年的Rubin 的散熱性能將進一步提升,TDP 將提升至 1800W;而 Rubin Ultra 的 GPU 晶片和 HBM 模組數量將翻倍,TDP 也將一路飆升至 3600W。韓國科學技術研究院 (KAIST)的研究人員認為:輝達及其合作夥伴將在 Rubin Ultra 中使用直接晶片 (D2C) 液冷技術,但對於 Feynman,他們將將使用更強大的冷卻技術。

韓國科學技術研究院 (KAIST) 的研究人員預測:AI GPU 模組(尤其是 Nvidia 的 Feynman)的功耗將達到 4,400W,而業內其他一些消息人士則認為,Nvidia 的 Feynman Ultra 的 TDP 將提升至 6,000W。如此極端的散熱要求需要採用浸入式冷卻技術,即將整個 GPU-HBM 模組浸入液體中。此外,此類處理器及其 HBM 模組預計將通過熱通孔 (TTV) 引入,TTV 是矽基板上專用於散熱的垂直通道。這些 TTV 將與嵌入 HBM 模組基片中的熱粘合層和溫度感測器配對,以實現即時熱監控和反饋控制。預計到 2032 年,浸入式冷卻將足夠好,屆時後 Feynman GPU 架構將把每個封裝的 TDP 提高到 5,920W(後 Feynman)甚至 9000W(後 Feynman Ultra)。


GPU 模組中的主要功耗是計算晶片。隨著後 Feynman 時代 HBM 堆疊數量增加到 16 個,並且 HBM6 的單堆疊功耗增加到 120W,記憶體的功耗將在 2000W 左右,約佔整個模組功耗的三分之一。

預估到 2035 年,AI GPU 的功耗將增至約 15,360 瓦,這將需要為計算和記憶體晶片組配備嵌入式冷卻結構。該團隊提出兩項關鍵創新:將熱量從熱點橫向轉移到冷卻介面的熱傳輸線 (TTL),以及允許冷卻液垂直流過 HBM 堆疊的流體矽通孔 (F-TSV)。這些技術直接整合到中介層和矽片中,以保持熱穩定性。

到 2038 年,全整合散熱解決方案將更加普及和先進。這些解決方案將採用雙面中介層,實現兩側垂直堆疊,並在整個過程中嵌入流體冷卻。此外,GPU-on-top 架構將有助於優先從計算層散熱,而同軸 TSV 則有助於平衡訊號完整性和熱流。

03.關於韓國國家科學院

韓國科學技術研究院(Kaist Teralab)是輝達的重要合作夥伴之一。它幫助輝達解決矽片之間的互連、HBM 儲存器以及 AI 加速器的封裝問題。在 ISC High Performance 2025 大會上,Kaist Teralab 發佈了截至 2038 年的 HBM 未來發展路線圖,以及截至 2035 年的輝達加速器發展計畫。 (零氪1+1)