#HBF
HBF將超過HBM,快閃記憶體巨大利多
有預測稱,計畫於明年實現商業化的下一代 NAND 快閃記憶體產品——高頻寬快閃記憶體 (HBF),將在大約 10 年內超越高頻寬儲存器 (HBM) 市場,而 HBM 是人工智慧半導體的核心元件。2月3日,韓國科學技術院(KAIST)電氣電子工程系金正浩教授在首爾中區新聞中心舉行了“HBF研究內容和技術開發戰略簡報會”,並強調“隨著人工智慧的思考和推理能力變得重要,以及從文字介面向語音介面的過渡,所需的資料量必將呈爆炸式增長”。他解釋說:“如果說中央處理器(CPU)是個人電腦時代的核心,低功耗是智慧型手機時代的關鍵,那麼記憶體就是人工智慧時代的核心。”他還補充道:“HBM決定速度,HBF決定容量。”HBF是一種通過垂直堆疊NAND快閃記憶體來顯著提升容量的記憶體,主要用於長期儲存,與HBM類似。因此,近年來NAND快閃記憶體在半導體行業的重要性日益凸顯。隨著人工智慧代理服務的擴展,作為長期記憶的“鍵值”(KV)快取的作用也日益增強。過去,HBM承擔著這一角色,但越來越多的觀點認為,NAND快閃記憶體更適合承擔這一角色。在本次簡報會上,由被譽為“HBM之父”的金教授領導的KAIST TeraLab介紹了當前人工智慧技術的發展趨勢和記憶體路線圖。金教授是HBM基本概念和結構的構思者和設計者,HBM是韓國率先在全球範圍內成功實現商業化的核心人工智慧半導體技術。當天,金教授公佈了採用HBF的下一代記憶體架構。他展示了多種架構,其中包括一種在GPU兩側分別安裝4個HBM和4個HBF,總容量為96GB HBM和2TB HBF的架構;以及另一種架構,其中兩排分別安裝8個HBM和8個HBF,以處理更大的容量。金教授強調說:“HBM 將作為書架,HBF 將作為圖書館。”他補充道:“在書架上,您可以立即取出並查看您需要的書籍;而在圖書館裡,即使速度慢一些,您也可以一次查看更多的書籍。”金教授預測,由於HBM單靠自身無法滿足爆炸式增長的需求,業界勢必會採用HBF。目前的架構是將最多兩個圖形處理器(GPU)垂直連接,並在GPU旁邊安裝HBM來處理運算;而未來,通過將HBM和HBF結合使用,可以消除容量限制。金教授預測,“當CPU、GPU和記憶體有機地結合在單個基本晶片上的MCC(記憶體中心計算)架構完成時,所需的HBF容量將進一步增加”,並且從2038年起,HBF的需求將超過HBM。金教授表示:“我們正在與三星電子、SK海力士、閃迪等公司就HBF進行技術交流,並與AMD、Google、輝達等潛在客戶公司保持聯絡。”目前,三星電子、SK海力士和閃迪等全球企業正在加速HBM的研發。金教授認為,韓國國內企業佔據了更有利的地位。閃迪目前只專注於NAND快閃記憶體,而三星電子和SK海力士則同時具備HBM和封裝能力。他表示:“未來10到20年,隨著結構性變革的推進,韓國有望在人工智慧電腦領域佔據領先地位。”他補充道:“而HBM正是實現這一目標的基石。”具體來說,SK 海力士正在開發 HBF,目標是明年實現量產;而 SanDisk 於去年 7 月成立了 HBF 技術諮詢委員會。在今年的CES 2025上,NVIDIA也提出了一種解決NAND快閃記憶體瓶頸的方案,即直接連線據處理單元(DPU)和固態硬碟(SSD),將KV快取(即推理過程中積累的先前對話上下文)儲存在大容量SSD中,而不是HBM中。金教授強調,需要通過與NVIDIA、Google和AMD等大型科技公司合作來搶佔市場。金教授表示:“由於HBF工藝與現有的HBM工藝幾乎相同,最終將演變成一場技術速度的競賽。”他補充道:“對於全面商業化而言,那些服務會採用這項技術至關重要。”金教授認為,“繼 HBM 之後,韓國記憶體製造商也必須在 HBF 領域主動出擊,以免在人工智慧市場失去影響力”,並補充道,“以記憶體為中心的人工智慧時代即將到來”。兩大巨頭,挺進HBF隨著人工智慧市場轉向推理,三星電子和SK海力士正在開發高頻寬快閃記憶體(即所謂的高頻寬記憶體的擴展),儘管它們在人工智慧記憶體競賽的下一階段的策略有所不同。由於 HBM 現在是 AI 晶片的關鍵元件,這兩家韓國儲存器製造商正尋求在下一代儲存器周期中搶佔先機。一位要求匿名的業內人士表示:“由於需求疲軟和價格下跌,NAND 市場一直處於低迷狀態,但 HBF 一旦實現商業化,可能會在人工智慧資料中心開闢新的需求基礎。”據業內人士周三透露,三星電子和SK海力士在HBF(高頻寬快閃記憶體)領域採取了不同的策略。SK海力士堅持以HBM為核心的戰略,同時將基於NAND的HBF定位為一種補充解決方案。相比之下,三星則被視為正在重新定義這項技術在更廣泛的AI記憶體和儲存架構重組中的角色。HBM專為超高速計算而設計。而HBF則作為大規模資料儲存和高效傳輸的支撐層。它的速度約為HBM的80%到90%,容量卻是HBM的8到16倍,功耗卻降低了約40%。對於大型AI訓練和推理伺服器而言,HBF被廣泛認為是能夠緩解HBM瓶頸的“中層記憶體”。其主要優勢在於處理能力。HBM優先考慮處理速度,而HBF可以在更低的成本下實現高達10倍的處理量擴展,使其成為解決HBM價格和處理能力雙重限制的理想選擇。從結構上看,HBF 是通過堆疊多層 NAND 快閃記憶體製成的,類似於 HBM 由堆疊式 DRAM 構成。第一代產品預計將堆疊 16 層 32GB 的 NAND 快閃記憶體,總容量約為 512GB。SK海力士在上周的財報電話會議上表示,正在開發HBF作為HBM的延伸技術。這家晶片製造商計畫明年開始量產HBF,並正與SanDisk合作開發下一代基於NAND快閃記憶體的儲存器以及相關的國際標準化工作。SK海力士的核心研發方向是AIN B,這是一種採用堆疊式NAND快閃記憶體的頻寬增強型設計。該公司正在探索將HBF與HBM結合使用的方案,以幫助彌補人工智慧推理系統中的容量限制。此外,SK海力士還通過與全球科技公司合作以及參與開放計算項目(OCP)的活動來拓展其生態系統。與此同時,三星電子正著力推進人工智慧記憶體和儲存架構的全面革新。在近期舉辦的全球儲存盛會上,該公司概述了人工智慧基礎設施的需求——包括性能、容量、散熱和安全性——並推出了一種整合記憶體和儲存的統一架構。三星正利用其晶圓代工部門的邏輯設計和工藝專業知識,研究如何提高下一代基於 NAND 的解決方案的控制性能和電源效率。業內觀察人士認為,三星此舉旨在圍繞人工智慧推理環境重塑下一代記憶體和儲存格局(包括 HBF)。另一位要求匿名的業內人士表示:“隨著人工智慧需求的持續增長,記憶體市場的重心正迅速從傳統的DRAM和NAND轉向高頻寬產品。”“未來兩到三年內,領導地位的競爭可能會加劇,尤其是在 HBF 和第六代 HBM4 等技術方面,這些技術將成為未來資料中心基礎設施的關鍵組成部分。”據證券公司預測,HBF市場規模將從2027年的10億美元增長到2030年的120億美元。HBF能夠在提升頻寬的同時擴展容量,因此被視為滿足人工智慧資料中心日益增長的需求的關鍵技術。不過,考慮到HBM(於2015年開發)用了七到八年時間才獲得市場認可,HBF也可能面臨漫長的發展階段。即便如此,分析師指出,NAND快閃記憶體行業似乎正處於更廣泛變革的早期階段。韓國科學技術院電氣工程學院教授金鐘浩(Kim Joung-ho)是 HBM 基本結構和概念的先驅,他周三在首爾舉行的新聞發佈會上表示,從 2038 年開始,對 HBF 的需求將超過對 HBM 的需求。“當以記憶體為中心的計算架構(其中 CPU、GPU 和記憶體有機地整合在單個基本晶片上)完全實現時,對 HBF 的需求量將顯著增加,”Kim 說。業內人士預計,輝達的新平台將採用HBF技術。這位教授強調,繼HBM之後,三星和SK海力士等韓國記憶體製造商也必須在HBF領域佔據領先地位,才能保持在全球人工智慧市場的影響力。 (半導體芯聞)
HBF or HBM?高頻寬快閃記憶體(HBF)更適合AI推理!
這張圖介紹了HBF(高頻寬快閃記憶體)在 AI 推理伺服器中的應用價值:AI工作負載的內存需求可以分為模型參數讀取和KV 快取讀寫兩類:1. 模型參數讀取(Weight Streaming,權重流)訪問模式:大粒度順序讀取。頻寬需求:需支撐GB/s~TB/s 級頻寬,對 “高頻寬” 特性高度依賴。部署優勢:若 HBF 靠近計算核心部署,大容量特性可顯著提升權重讀取效率。2. KV 快取讀寫(KV Cache Read/Write)訪問模式:快取級隨機訪問,對延遲極度敏感。操作特性:生成每個token時都會觸發寫操作;且 KV 快取的大小會隨上下文長度和注意力頭數量線性擴展。HBF 為何不適用訓練場景?訓練場景的記憶體需求與 HBF 的技術侷限存在根本衝突:訪問模式:寫密集型,伴隨持續的梯度更新、最佳化器狀態修改,且存在頻繁細粒度讀寫。介質侷限:HBF 基於快閃記憶體技術,受限於兩個核心短板 ——耐用性:快閃記憶體的擦寫次數有上限,寫密集的訓練會快速耗盡其生命周期;延遲:快閃記憶體的讀寫延遲遠高於 DRAM,無法滿足訓練對低延遲的嚴苛要求。HBF為何適配推理場景?可從三方面理解:特性匹配:HBF 具備大容量、低成本、高密度的優勢,完美適配推理伺服器對 “儲存規模” 和 “成本效率” 的需求。工作負載契合:推理中的 “權重流” 任務是大粒度順序讀取,與 HBF 的頻寬優勢完全匹配。場景區分:訓練是 “寫密集型” 工作負載,會突破 HBF 的耐用性和延遲上限;而推理的讀寫模式更溫和,可充分發揮 HBF 的潛力。HBF取代HBM會發生什麼?假設HBF完全取代了HBM作為GPU的主記憶體。其優勢在於:每GPU多TB記憶體容量使非常大型模型能夠局部安裝在每個加速器上對於頻寬密集型權重流且預取能力強,高效高效但也具有很明顯的侷限性:KV快取作延遲不足隨機訪問性能仍不及 HBM培訓和混合工作量不切實際不支援通用GPU使用場景因此HBF僅適用於具有固定作模式的專用推理加速器,無法作為通用GPU中HBM的替代。HBM + HBF混合GPU記憶體最好!HBM仍然是主要的低延遲記憶體,而HBF則作為高容量讀取最佳化層加入。HBM→KV 快取、熱啟動、中間張量HBF→模型參數、冷啟動通過 HBM 維護低延遲計算流水線,減少對 HBM 的依賴和成本,還相容當前的GPU設計和軟體棧,缺點是包設計複雜度增加,且需要關注功耗與熱量問題。 (銳芯聞)
HBF要取代HBM?
被譽為“高頻寬記憶體 (HBM) 之父”的韓國科學技術院 金正浩教授 最近在 YouTube 節目中發表了一番驚人的言論:“在人工智慧時代,權力平衡正在發生轉變——從 GPU 轉向記憶體。”高頻寬快閃記憶體 (HBF)是一種結合 3D NAND 快閃記憶體高密度與 HBM 高頻寬特性的創新儲存技術,通過垂直堆疊多層 NAND 晶片並利用矽通孔 (TSV) 技術實現層間互聯,為 AI 推理提供前所未有的大容量、高頻寬儲存解決方案。其核心原理是採用與 HBM 類似的堆疊架構 (8-16 層),但使用 NAND 快閃記憶體替代 DRAM,通過 TSV 和微凸點連接各層,將邏輯晶片與儲存陣列鍵合,支援平行訪問多個 NAND 子陣列,大幅提升頻寬和吞吐量。HBF vs HBM 核心差異點HBM:速度擔當,適合 AI 訓練等高即時性場景HBF:容量擔當,專為 AI 推理設計,可儲存完整大模型因此HBF 可以解決幾個核心痛點:當前 AI 推理中,GPU 有60-70% 時間處於等待記憶體狀態;大型模型 (如 1.8T 參數的 LLM) 無法完整裝入傳統 HBM,需頻繁從硬碟載入,嚴重拖慢推理速度。查詢到的幾個實測案例給大家分享一下:使用 HBF 運行 LLaMA 3.1 (405B 參數) 時,性能僅比理想 HBM 方案低 2.2%.單 GPU 搭配 8 個 HBF 堆疊可提供4TB 儲存空間,是純 HBM 方案的 20 倍 +完全容納1.8T 參數的前沿 LLM 模型,實現 "單卡即推理"具體到應用場景,比如:大型語言模型推理:支援超長上下文窗口,無需分片載入多模態 AI:處理圖像、視訊等大容量資料邊緣 AI:自動駕駛、智能終端、IoT 裝置,提供高容量低功耗方案AI 訓練中的檢查點儲存:大幅縮短模型恢復時間當前佈局的廠商:SanDisk 與 SK 海力士聯盟,2025 年 8 月簽署MoU,共同制定 HBF 技術規範並推動標準化,目前預估:2026 年下半年:首批 HBF 記憶體樣品2027 年初:首批搭載 HBF 的 AI 推理裝置SK 海力士已在 2025 年 OCP 峰會推出 **"AIN 系列"**,其中 AIN B 系列採用 HBF 技術三星電子的佈局已啟動自主 HBF 產品的早期概念設計,計畫利用在高性能儲存領域的研發經驗,滿足資料中心需求。其他廠商鎧俠 (Kioxia) 已開發出5TB 容量、64GB/s 頻寬的 HBF 原型;美光等儲存巨頭也在密切關注 HBF 技術發展。金正浩作為 HBM 技術發明人,分享了他在 YouTube 節目中提出震撼觀點,給大家分享一下:權力轉移論:"AI 時代,權力正從 GPU 轉向記憶體"記憶體已成為 AI 性能的決定性瓶頸,而非 GPU 算力;未來 AI 架構將圍繞記憶體建構,而非傳統的 CPU/GPU 中心模式。HBF 取代 HBM 論:"HBM 時代即將結束,HBF 時代即將到來"儘管 NAND 比 DRAM 慢,但提供10 倍 + 容量,對大規模 AI 模型至關重要;2027-2028 年將是 HBF正式商業化的爆發期;HBF 將與 HBM 形成互補架構:HBM 負責高速計算,HBF 提供海量儲存輝達收購論:"輝達可能收購一家記憶體公司"潛在目標:SanDisk (閃迪)、美光等儲存廠商,目標當然是為了掌控 HBF 等記憶體核心技術,擺脫對韓企的依賴另外金正浩教授描繪了未來 AI 儲存的四層架構:SRAM (桌面筆記本):GPU 內部,速度最快但容量最小HBM (書架):提供高速訪問和計算HBF (地下圖書館):儲存 AI 模型的 "深層知識",持續向 HBM 提供資料雲端儲存 (公共圖書館):通過光纖連接各資料中心HBF 將成為 AI 推理的標準配置,大幅降低大模型部署門檻解決當前 "記憶體牆" 問題,使 AI 應用突破容量限制,實現更複雜的推理預計到 2027 年,HBF 將引爆兆級新賽道,重塑儲存和 AI 產業格局HBF 技術代表了 AI 儲存領域的重大突破,它不是要完全取代 HBM,而是與 HBM 形成 容量 + 速度 的黃金組合隨著 2026-2027 年 HBF 技術正式落地,我們將見證 AI 推理性能的又一次飛躍,以及儲存在 AI 系統中地位的根本性提升 —— 正如金正浩教授所言:"在人工智慧時代,記憶體正在成為新的王者。" (IT前哨站)