HBM,新戰場

SK海力士發佈了“StreamDQ”,將其作為應對即將到來的定製化HBM(高頻寬記憶體)時代的利器。其理念是利用HBM執行以往由GPU處理、導致推理過程出現瓶頸的任務,從而提升資料處理性能。

從GPU廠商的角度來看,將部分功能遷移到HBM視訊記憶體能夠為晶片設計提供更大的靈活性。SK海力士預計將與包括NVIDIA在內的主要客戶探討這項技術。

6日(當地時間),SK海力士在美國拉斯維加斯威尼斯人酒店舉辦的“CES 2026”展會上開設了一個私人展廳,並行布了其定製的HBM技術。

預計從下一代版本HBM4E(第七代HBM)開始,定製HBM將得到全面應用。雖然現有的HBM是按照標準製造的,但定製HBM的關鍵區別在於在基礎晶片上加入了客戶特定的功能。

基礎晶片是一顆負責核心晶片記憶體控製器功能的晶片,它與HBM堆疊在一起,並通過PHY(物理層)將HBM連接到GPU等系統半導體。以前,記憶體廠商會自行生產這顆晶片,但隨著各種邏輯功能的加入(從HBM4開始),大規模生產主要依靠代工廠代工。

SK海力士正向客戶推介名為StreamDQ的技術,以實現定製化HBM的商業化。鑑於近期落幕的CES 2026展會以客戶為中心,預計該公司將積極向NVIDIA等全球科技巨頭推廣其產品。

SK 海力士的一位官員解釋說:“StreamDQ 是定製 HBM 的一個例子,SK 海力士甚至還發表了一篇關於這項技術的論文。”他補充道:“客戶有時會向我們提出與定製 HBM 相關的技術,但 SK 海力士也會提出這些技術。”

StreamDQ技術主要將現有GPU中的部分控製器功能轉移到HBM基片上。這使得GPU製造商能夠利用更多的晶片內部空間,從而有可能提高系統半導體的性能和效率。

SK 海力士在基礎晶片上加入 GPU 控製器和其他元件時不會面臨重大挑戰,因為它利用了台灣主要晶圓代工廠台積電的先進工藝。

SK海力士還通過在晶片基體上應用UCIe介面提高了晶片整合度。UCIe 是一種尖端技術,它將晶片分割成功能單元,然後再將這些單元連接起來進行製造。

人工智慧加速器的資料處理性能也得到了顯著提升。大規模語言模型(LLM)會經歷一個稱為“量化”的過程,該過程將資料壓縮成低位整數,從而有效降低記憶體佔用。然後在實際計算過程中,資料會通過“反量化”再次解壓縮。

傳統上,反量化任務由GPU處理。然而,執行反量化的GPU一直受到記憶體瓶頸的困擾,這會消耗高達LLM整體推理時間的80%。

相比之下,StreamDQ 會在資料流經 HBM 時即時進行反量化,而不是將量化後的資訊直接傳送到 GPU。 這使得 GPU 可以立即開始計算,無需額外的工作。StreamDQ  的名稱就來源於這種在資料流中即時進行反量化 (DQ) 的方法。

SK海力士解釋說,這將使之前一直處於瓶頸的LLM推理處理速度提升約7倍。整個AI加速器的推理速度預計也將顯著提升。

SK海力士的一位官員表示:“如果我們把處理大量資料的系統半導體放在記憶體附近,只接收資料結果,那麼從系統角度來看,效率會非常高。”他補充說:“這可以看作是記憶體附近處理(PNM)的概念。” (半導體芯聞)