#HBF
閃迪,將會是下一個SK海力士?
近期,NAND儲存巨頭閃迪(SanDisk)正式開建高頻寬快閃記憶體(HBF)原型生產線,並計畫在下半年推出樣品,瞄準於2027年實現商業化量產。早在2025年8月,閃迪就與SK海力士簽署諒解備忘錄,宣佈共同推動HBF新技術標準。2026年2月,雙方在美國加州閃迪總部高調成立“HBF規格標準化聯盟”,合作進入實質性推進階段。很顯然,這場合作蓄謀已久。如今回望,這並非一次尋常的技術合作,而是兩家儲存巨頭在AI從訓練轉向推理的關鍵節點上,鋪墊一場基於未來的深刻產業判斷,以及商業化層面的戰略佈局。01為何選擇此時搶跑要理解此次合作的意義,必須看清AI發展帶來的階段性挑戰。過去三年,AI突破集中在訓練階段,極度依賴高頻寬記憶體HBM為GPU提供海量資料流。HBM通過3D堆疊緊貼GPU,頻寬極高,但容量有限且成本高昂。目前,大模型開始進入推理階段,進而需求發生了根本性變化——推理業務需要頻繁呼叫已訓練好的龐大模型,進而性能瓶頸從純粹頻寬轉變為頻寬與容量的雙重挑戰。HBM雖快但容量不足,同時傳統固態硬碟SSD雖容量大,但通過PCIe通道的訪問速度太慢,也無法滿足即時推理的低延遲要求(如SK海力士HBM3E可提供超1.2TBps 頻寬,但其頂級SSD僅可提供14GBps,相比HBM3E速率慢了近100倍)。也基於此,HBM和SSD之間,就缺少了一個既能提供接近HBM的高頻寬,又能提供遠超HBM的大容量,而且成本可控的中間儲存層級——這也成了制約AI推理業務進行規模化部署的巨大記憶體牆。自此,HBF正是為了填補這一未來產業必要的中間層而生:1)架構方案:它借鑑HBM的先進封裝理念,將多層NAND快閃記憶體晶片通過矽通孔TSV技術垂直堆疊,並與底層中介層相連,實現了遠超傳統SSD的平行資料通道和訪問速度。2)性能目標:在成本相近的情況下,可提供媲美HBM3的頻寬,同時將儲存容量提升至HBM的10倍以上。畢竟,HBF單個堆疊上的容量可達512GB(16層堆疊),也遠超HBM4的上限64GB(16層堆疊),進而預計HBF將在HBM6推廣階段實現廣泛的行業應用。這也就意味著,AI伺服器能以更經濟的成本,在GPU近端放置一個巨大的HBF倉庫,使得推理過程無需頻繁向遠端SSD取數,進而極大地提升了效率。簡而言之,HBF試圖在AI儲存體系中創造出一個全新的層級——它不是要取代HBM在訓練中的核心地位,而是瞄準了更具潛力的AI推理市場,以及未來需要更大記憶體池的複雜AI應用。02瞄準的是整個AI生態的未來長期以來,閃迪作為NAND快閃記憶體製造商,始終處於產業鏈的元件層。而當前由SK海力士、三星和美光主導的HBM市場,是AI訓練領域的核心戰場。也基於此,為了破局,閃迪決心開闢HBF這一未來趨勢——其本質還是利用自身在3D NAND堆疊(如超過332層的BiCS技術,暫時領先於三星)和晶圓鍵合CBA工藝上的深厚積累,製造出一種高容量,同時也可以快速訪問的NAND版HBM,從而與巨頭站上新的起跑線。自此,其戰略意圖很明確,主動創造一個介於百億美元HBM市場與近千億美元SSD市場之間的全新增量市場,而非在自己並不擅長的存量市場之中博弈。這也無非正是瞄準了AI推理場景的下一波需求——如長上下文對話、多輪互動,以及智能體Agent等持續運行皆會產生海量的工作資料集和鍵值快取(KV Cache)的應用場景。但這些資料也需要比SSD更快的訪問速度,而HBF正是瞄準這一未來需求而生。如今回望,閃迪選擇與SK海力士結盟,也是相當具有產業邏輯的一步。畢竟,SK海力士作為HBM市場的首席(2025年市佔率近60%),在TSV矽通孔、3D堆疊、高速介面,以及與輝達等AI晶片巨頭的協同設計上,擁有無與倫比的大規模量產經驗——這場合作也必將是優勢的完美互補,閃迪提供高密度NAND堆疊的核心製造工藝,SK海力士則提供其已被HBM驗證的稀缺先進封裝和高速互連解決方案。自此,這能極大加速HBF從概唸到產品的成功落地。對閃迪而言,此舉也是其切入全球主流AI算力生態的關鍵。數十年以來,一項新技術要成為產業標配,單打獨鬥幾乎不可能,最終皆離不開產業生態的支援。因此,獲得HBM首席的支援,就等於提前備好了進入頂級資料中心生態的資質,並且能有效應對接下來以三星為主的強大市場競爭。對SK海力士來說,這同樣是一次防禦性進攻。儘管目前統治HBM市場,但AI推理的廣闊前景必將催生新的儲存層級,HBF市場規模未來很可能超越HBM——通過與閃迪合作,SK海力士可以將其在高速儲存介面和封裝上的優勢提前延伸至NAND領域,進而共同定義下一代儲存標準,從而鞏固其在整個高端儲存的全球市場地位。也基於此,閃迪與SK海力士於2026年2月在全球開放計算項目的框架之下,成立了專項工作組,意圖也非常清晰,即,通過開源協作,拉攏晶片設計商、伺服器製造商和雲服務商共同制定標準。畢竟,也只有實現標準化,才能吸引整個生態參與,最終將HBF打造成像DDR或HBM那樣普及的基礎設施元件。閃迪也將借此前所未有的契機,被納入納斯達克100指數。整體來看,這場合作遠不止於技術融合。本質上,它是在為2030年前後即將爆發的AI推理儲存需求,進行一場前瞻性的基礎設施的戰略佈局。閃迪也很可能從元件供應商,晉陞為解決方案供應商,而SK海力士則意在將當前的領先優勢延續到下一個AI時代。03SK海力士的成功有何借鑑2025年,國際固態電路會議(ISSCC)上,閃迪與鎧俠聯合宣佈了第10代BiCS 3D NAND快閃記憶體,其堆疊層數達到332層,一舉超越了當時主要競爭對手如三星、SK海力士等普遍在300層徘徊的水平,刷新了行業紀錄——這是兩大儲存巨頭長達二十餘年的深度聯盟,以及一次關鍵的架構轉型,同時也是對儲存市場格局的再次洗牌。此次,閃迪的突破核心在於 CBA(CMOS directly Bonded to Array,外圍電路直接鍵合到儲存陣列)技術路線的有效佈局。畢竟,單純的堆疊層數如同盲目蓋高樓,倘若無架構革新,性能與穩定性終將遇到行業天花板——傳統做法是在同一晶圓上同時製造儲存單元和外圍CMOS控制電路,兩者設計相互妥協,也限制了性能與工藝最佳化。相較之下,CBA方案是採用分而治之的策略,進而將CMOS控制電路與NAND儲存陣列分別在兩片獨立晶圓上製造,再通過先進混合鍵合工藝精準鍵合成三明治一般的結構。很巧的是,此架構與長江儲存的Xtacking技術,存在異曲同工之處。也基於此,這麼做的好處於儲存行業而言也是巨大的:1)性能飆升:控制電路可採用更先進邏輯工藝,儲存陣列專注堆疊密度。介面速度達4800MT/s(基於Toggle DDR 6.0-NAND快閃記憶體介面標準),比其第8代產品提升33%,足以滿足AI推理、即時分析等高頻寬任務需求。2)密度暴漲:得益於層數的增加和工藝最佳化,儲存密度達到了每平方毫米36.4Gb,比第八代提升了驚人的59%。這意味著在同樣大小的晶片裡,能塞進去的資料量大幅度增加,是降低單位儲存成本的根本。目前,三星也計畫在其第10代NAND中引入類似技術(三星已與長江儲存簽署了相關專利許可協議,計畫從第10代NAND開始,全面採用長江儲存的專利技術,特別是混合鍵合技術——該技術是長江儲存“晶棧Xtacking”的核心,可以有效解決高堆疊層數下的可靠性和性能問題)。也可以說,閃迪和鎧俠的332層晶片,不僅是工藝的勝利,也是此類快閃記憶體架構的勝利。畢竟,全球儲存市場由三星、SK海力士和美光主導的格局之下,閃迪和鎧俠的業務協同,常被視為儲存市場的二線聯盟。但也正是這種市場地位,迫使其形成了獨特而堅韌的生存模式——長達二十年的合資與聯合研發。自NAND快閃記憶體誕生以來,雙方通過合資工廠分攤巨額的製造投入,再通過聯合研發分擔技術的創新成本。這種深度繫結也讓其在資本與技術密集的行業之中,始終保有一席之地——建造和維護一座先進的NAND晶圓廠,動輒需要上百億美元的投資,研發332層這樣的尖端技術,更是燒錢的無底洞。自此,閃迪通過合資以相對較小的規模,撬動與巨頭抗衡的資本開支,進而共同營運四日市(Yokkaichi)和北上(Kitakami)生產基地。這也是全球數一數二的NAND快閃記憶體生產所在(北上的工廠專門為生產先進3D NAND而建,採用了革命性的CBA技術)。此次,這332層的快閃記憶體,正是閃迪和鎧俠聯盟的最新結晶,其量產時間也提前一年至2026下半年,就開始大規模生產這款332層的BiCS10快閃記憶體,甚至有部分客戶已經開始洽談2027-2028年的長期供應合同。這在此前周期中也是罕見的,也是明確的市場進攻訊號。如今回望,SK海力士的成功,是一個堅定押注技術路線,並深度影響行業HBM標準建立的成功。早在2023年,SK海力士在行業尚處觀望之時,就已經全力押注HBM,進而也最早實現HBM3的大規模量產,甚至一度成為輝達H系列AI晶片的獨家供應商。簡而言之,SK海力士本質上是通過堅定押注並持續最佳化MR-MUF技術路線(這項技術在散熱、良率和堆疊質量上表現出色,使其在HBM2E、HBM3時代獲得了領先的客戶驗證和市場份額),從而在HBM市場取得了壓倒性的客戶認可。這種市場和技術主導地位,使其SK海力士有能力顯著影響行業標準的走向。2025年,國際組織JEDEC發佈HBM4標準之時,將封裝高度從720微米放寬至775微米。這一調整被普遍認為有利於SK海力士沿用其成熟的MR-MUF技術,實現16層堆疊,而不必立即轉向其競爭對手(如三星)正在大力投資的混合鍵合技術——這是一場典型的技術領先(MR-MUF)、市場統治(HBM3獨家供應)、標準話語權(HBM4高度放寬)的商業勝利。也基於此,以史為鑑,閃迪能否真正崛起,將取決於三個關鍵變數:1)一是HBF能否走向行業主流標準,這是其價值暴漲的關鍵。畢竟,技術再好,沒有生態支援也只是空中樓閣。閃迪深知此道,因此在2025年就與SK海力士簽署了諒解備忘錄,共同制定HBF規範。2026年,雙方在開放框架下也聯合啟動了HBF規格標準化聯盟,目標就是將其打造成行業通用標準——拉攏HBM領域的SK海力士合作,無疑是為HBF的普及鋪就未來的道路。閃迪的目標是2026年下半年推出樣品,並在2027年初看到首批搭載HBF的AI推理裝置。2)二是能否在企業級市場,特別是AI資料中心,成為市場支柱。HBF是未來的增量,而企業級SSD是當下的基本盤。閃迪在這方面並非沒有籌碼,其背靠與鎧俠的合資產能,在全球NAND快閃記憶體供應合計30%以上市場份額。同時,鎧俠自身也在與輝達合作開發直連GPU的SSD,這也說明整個快閃記憶體陣營都在積極向AI計算核心靠攏。閃迪需要利用其技術優勢和產能保障,在AI資料中心這個高增長領域,擴大自己的市場份額,進而為HBF的未來商業化,提供現金流和市場基礎。3)三是駕馭獨立營運的能力。儲存行業的周期,波峰波谷十分劇烈。作為一家獨立的公司(從西部資料分拆後),閃迪需要在技術投入、產能規劃,以及財務健康之間做到智慧的平衡——在行業上行期佈局投資HBF等前沿技術,在下行期又能保持原有的戰略佈局,這將十分考驗其管理層的企業經營智慧。從更廣闊的產業視角來看,閃迪與SK海力士的合作,也揭示了一個明確的產業趨勢:AI儲存架構正在從單一性能競賽,轉向分層的生態必然——未來的AI伺服器將不再僅僅依賴HBM,而是形成“HBM + HBF + SSD”的混合儲存層次。在這種架構中,HBM負責最核心的即時計算,HBF負責近存的大容量,而傳統儲存SSD則負責冷資料歸檔。基於以上判斷,閃迪的核心戰略,並非取代海力士,而是定義並佔據這個全新的、不可或缺的生態位置。閃迪或許無法擁有HBM那樣的極致利潤,但如果HBF成功普及,閃迪也將實現真正崛起——三年之後,海力士鞏固了其在AI儲存全端解決方案的領導力,而閃迪則獲得了重返行業中心的絕佳機遇,進而共同描繪的是,一個由異構儲存驅動、更高效,也是必然的AI未來。 (新財富)
HBF將超過HBM,快閃記憶體巨大利多
有預測稱,計畫於明年實現商業化的下一代 NAND 快閃記憶體產品——高頻寬快閃記憶體 (HBF),將在大約 10 年內超越高頻寬儲存器 (HBM) 市場,而 HBM 是人工智慧半導體的核心元件。2月3日,韓國科學技術院(KAIST)電氣電子工程系金正浩教授在首爾中區新聞中心舉行了“HBF研究內容和技術開發戰略簡報會”,並強調“隨著人工智慧的思考和推理能力變得重要,以及從文字介面向語音介面的過渡,所需的資料量必將呈爆炸式增長”。他解釋說:“如果說中央處理器(CPU)是個人電腦時代的核心,低功耗是智慧型手機時代的關鍵,那麼記憶體就是人工智慧時代的核心。”他還補充道:“HBM決定速度,HBF決定容量。”HBF是一種通過垂直堆疊NAND快閃記憶體來顯著提升容量的記憶體,主要用於長期儲存,與HBM類似。因此,近年來NAND快閃記憶體在半導體行業的重要性日益凸顯。隨著人工智慧代理服務的擴展,作為長期記憶的“鍵值”(KV)快取的作用也日益增強。過去,HBM承擔著這一角色,但越來越多的觀點認為,NAND快閃記憶體更適合承擔這一角色。在本次簡報會上,由被譽為“HBM之父”的金教授領導的KAIST TeraLab介紹了當前人工智慧技術的發展趨勢和記憶體路線圖。金教授是HBM基本概念和結構的構思者和設計者,HBM是韓國率先在全球範圍內成功實現商業化的核心人工智慧半導體技術。當天,金教授公佈了採用HBF的下一代記憶體架構。他展示了多種架構,其中包括一種在GPU兩側分別安裝4個HBM和4個HBF,總容量為96GB HBM和2TB HBF的架構;以及另一種架構,其中兩排分別安裝8個HBM和8個HBF,以處理更大的容量。金教授強調說:“HBM 將作為書架,HBF 將作為圖書館。”他補充道:“在書架上,您可以立即取出並查看您需要的書籍;而在圖書館裡,即使速度慢一些,您也可以一次查看更多的書籍。”金教授預測,由於HBM單靠自身無法滿足爆炸式增長的需求,業界勢必會採用HBF。目前的架構是將最多兩個圖形處理器(GPU)垂直連接,並在GPU旁邊安裝HBM來處理運算;而未來,通過將HBM和HBF結合使用,可以消除容量限制。金教授預測,“當CPU、GPU和記憶體有機地結合在單個基本晶片上的MCC(記憶體中心計算)架構完成時,所需的HBF容量將進一步增加”,並且從2038年起,HBF的需求將超過HBM。金教授表示:“我們正在與三星電子、SK海力士、閃迪等公司就HBF進行技術交流,並與AMD、Google、輝達等潛在客戶公司保持聯絡。”目前,三星電子、SK海力士和閃迪等全球企業正在加速HBM的研發。金教授認為,韓國國內企業佔據了更有利的地位。閃迪目前只專注於NAND快閃記憶體,而三星電子和SK海力士則同時具備HBM和封裝能力。他表示:“未來10到20年,隨著結構性變革的推進,韓國有望在人工智慧電腦領域佔據領先地位。”他補充道:“而HBM正是實現這一目標的基石。”具體來說,SK 海力士正在開發 HBF,目標是明年實現量產;而 SanDisk 於去年 7 月成立了 HBF 技術諮詢委員會。在今年的CES 2025上,NVIDIA也提出了一種解決NAND快閃記憶體瓶頸的方案,即直接連線據處理單元(DPU)和固態硬碟(SSD),將KV快取(即推理過程中積累的先前對話上下文)儲存在大容量SSD中,而不是HBM中。金教授強調,需要通過與NVIDIA、Google和AMD等大型科技公司合作來搶佔市場。金教授表示:“由於HBF工藝與現有的HBM工藝幾乎相同,最終將演變成一場技術速度的競賽。”他補充道:“對於全面商業化而言,那些服務會採用這項技術至關重要。”金教授認為,“繼 HBM 之後,韓國記憶體製造商也必須在 HBF 領域主動出擊,以免在人工智慧市場失去影響力”,並補充道,“以記憶體為中心的人工智慧時代即將到來”。兩大巨頭,挺進HBF隨著人工智慧市場轉向推理,三星電子和SK海力士正在開發高頻寬快閃記憶體(即所謂的高頻寬記憶體的擴展),儘管它們在人工智慧記憶體競賽的下一階段的策略有所不同。由於 HBM 現在是 AI 晶片的關鍵元件,這兩家韓國儲存器製造商正尋求在下一代儲存器周期中搶佔先機。一位要求匿名的業內人士表示:“由於需求疲軟和價格下跌,NAND 市場一直處於低迷狀態,但 HBF 一旦實現商業化,可能會在人工智慧資料中心開闢新的需求基礎。”據業內人士周三透露,三星電子和SK海力士在HBF(高頻寬快閃記憶體)領域採取了不同的策略。SK海力士堅持以HBM為核心的戰略,同時將基於NAND的HBF定位為一種補充解決方案。相比之下,三星則被視為正在重新定義這項技術在更廣泛的AI記憶體和儲存架構重組中的角色。HBM專為超高速計算而設計。而HBF則作為大規模資料儲存和高效傳輸的支撐層。它的速度約為HBM的80%到90%,容量卻是HBM的8到16倍,功耗卻降低了約40%。對於大型AI訓練和推理伺服器而言,HBF被廣泛認為是能夠緩解HBM瓶頸的“中層記憶體”。其主要優勢在於處理能力。HBM優先考慮處理速度,而HBF可以在更低的成本下實現高達10倍的處理量擴展,使其成為解決HBM價格和處理能力雙重限制的理想選擇。從結構上看,HBF 是通過堆疊多層 NAND 快閃記憶體製成的,類似於 HBM 由堆疊式 DRAM 構成。第一代產品預計將堆疊 16 層 32GB 的 NAND 快閃記憶體,總容量約為 512GB。SK海力士在上周的財報電話會議上表示,正在開發HBF作為HBM的延伸技術。這家晶片製造商計畫明年開始量產HBF,並正與SanDisk合作開發下一代基於NAND快閃記憶體的儲存器以及相關的國際標準化工作。SK海力士的核心研發方向是AIN B,這是一種採用堆疊式NAND快閃記憶體的頻寬增強型設計。該公司正在探索將HBF與HBM結合使用的方案,以幫助彌補人工智慧推理系統中的容量限制。此外,SK海力士還通過與全球科技公司合作以及參與開放計算項目(OCP)的活動來拓展其生態系統。與此同時,三星電子正著力推進人工智慧記憶體和儲存架構的全面革新。在近期舉辦的全球儲存盛會上,該公司概述了人工智慧基礎設施的需求——包括性能、容量、散熱和安全性——並推出了一種整合記憶體和儲存的統一架構。三星正利用其晶圓代工部門的邏輯設計和工藝專業知識,研究如何提高下一代基於 NAND 的解決方案的控制性能和電源效率。業內觀察人士認為,三星此舉旨在圍繞人工智慧推理環境重塑下一代記憶體和儲存格局(包括 HBF)。另一位要求匿名的業內人士表示:“隨著人工智慧需求的持續增長,記憶體市場的重心正迅速從傳統的DRAM和NAND轉向高頻寬產品。”“未來兩到三年內,領導地位的競爭可能會加劇,尤其是在 HBF 和第六代 HBM4 等技術方面,這些技術將成為未來資料中心基礎設施的關鍵組成部分。”據證券公司預測,HBF市場規模將從2027年的10億美元增長到2030年的120億美元。HBF能夠在提升頻寬的同時擴展容量,因此被視為滿足人工智慧資料中心日益增長的需求的關鍵技術。不過,考慮到HBM(於2015年開發)用了七到八年時間才獲得市場認可,HBF也可能面臨漫長的發展階段。即便如此,分析師指出,NAND快閃記憶體行業似乎正處於更廣泛變革的早期階段。韓國科學技術院電氣工程學院教授金鐘浩(Kim Joung-ho)是 HBM 基本結構和概念的先驅,他周三在首爾舉行的新聞發佈會上表示,從 2038 年開始,對 HBF 的需求將超過對 HBM 的需求。“當以記憶體為中心的計算架構(其中 CPU、GPU 和記憶體有機地整合在單個基本晶片上)完全實現時,對 HBF 的需求量將顯著增加,”Kim 說。業內人士預計,輝達的新平台將採用HBF技術。這位教授強調,繼HBM之後,三星和SK海力士等韓國記憶體製造商也必須在HBF領域佔據領先地位,才能保持在全球人工智慧市場的影響力。 (半導體芯聞)
HBF or HBM?高頻寬快閃記憶體(HBF)更適合AI推理!
這張圖介紹了HBF(高頻寬快閃記憶體)在 AI 推理伺服器中的應用價值:AI工作負載的內存需求可以分為模型參數讀取和KV 快取讀寫兩類:1. 模型參數讀取(Weight Streaming,權重流)訪問模式:大粒度順序讀取。頻寬需求:需支撐GB/s~TB/s 級頻寬,對 “高頻寬” 特性高度依賴。部署優勢:若 HBF 靠近計算核心部署,大容量特性可顯著提升權重讀取效率。2. KV 快取讀寫(KV Cache Read/Write)訪問模式:快取級隨機訪問,對延遲極度敏感。操作特性:生成每個token時都會觸發寫操作;且 KV 快取的大小會隨上下文長度和注意力頭數量線性擴展。HBF 為何不適用訓練場景?訓練場景的記憶體需求與 HBF 的技術侷限存在根本衝突:訪問模式:寫密集型,伴隨持續的梯度更新、最佳化器狀態修改,且存在頻繁細粒度讀寫。介質侷限:HBF 基於快閃記憶體技術,受限於兩個核心短板 ——耐用性:快閃記憶體的擦寫次數有上限,寫密集的訓練會快速耗盡其生命周期;延遲:快閃記憶體的讀寫延遲遠高於 DRAM,無法滿足訓練對低延遲的嚴苛要求。HBF為何適配推理場景?可從三方面理解:特性匹配:HBF 具備大容量、低成本、高密度的優勢,完美適配推理伺服器對 “儲存規模” 和 “成本效率” 的需求。工作負載契合:推理中的 “權重流” 任務是大粒度順序讀取,與 HBF 的頻寬優勢完全匹配。場景區分:訓練是 “寫密集型” 工作負載,會突破 HBF 的耐用性和延遲上限;而推理的讀寫模式更溫和,可充分發揮 HBF 的潛力。HBF取代HBM會發生什麼?假設HBF完全取代了HBM作為GPU的主記憶體。其優勢在於:每GPU多TB記憶體容量使非常大型模型能夠局部安裝在每個加速器上對於頻寬密集型權重流且預取能力強,高效高效但也具有很明顯的侷限性:KV快取作延遲不足隨機訪問性能仍不及 HBM培訓和混合工作量不切實際不支援通用GPU使用場景因此HBF僅適用於具有固定作模式的專用推理加速器,無法作為通用GPU中HBM的替代。HBM + HBF混合GPU記憶體最好!HBM仍然是主要的低延遲記憶體,而HBF則作為高容量讀取最佳化層加入。HBM→KV 快取、熱啟動、中間張量HBF→模型參數、冷啟動通過 HBM 維護低延遲計算流水線,減少對 HBM 的依賴和成本,還相容當前的GPU設計和軟體棧,缺點是包設計複雜度增加,且需要關注功耗與熱量問題。 (銳芯聞)
HBF要取代HBM?
被譽為“高頻寬記憶體 (HBM) 之父”的韓國科學技術院 金正浩教授 最近在 YouTube 節目中發表了一番驚人的言論:“在人工智慧時代,權力平衡正在發生轉變——從 GPU 轉向記憶體。”高頻寬快閃記憶體 (HBF)是一種結合 3D NAND 快閃記憶體高密度與 HBM 高頻寬特性的創新儲存技術,通過垂直堆疊多層 NAND 晶片並利用矽通孔 (TSV) 技術實現層間互聯,為 AI 推理提供前所未有的大容量、高頻寬儲存解決方案。其核心原理是採用與 HBM 類似的堆疊架構 (8-16 層),但使用 NAND 快閃記憶體替代 DRAM,通過 TSV 和微凸點連接各層,將邏輯晶片與儲存陣列鍵合,支援平行訪問多個 NAND 子陣列,大幅提升頻寬和吞吐量。HBF vs HBM 核心差異點HBM:速度擔當,適合 AI 訓練等高即時性場景HBF:容量擔當,專為 AI 推理設計,可儲存完整大模型因此HBF 可以解決幾個核心痛點:當前 AI 推理中,GPU 有60-70% 時間處於等待記憶體狀態;大型模型 (如 1.8T 參數的 LLM) 無法完整裝入傳統 HBM,需頻繁從硬碟載入,嚴重拖慢推理速度。查詢到的幾個實測案例給大家分享一下:使用 HBF 運行 LLaMA 3.1 (405B 參數) 時,性能僅比理想 HBM 方案低 2.2%.單 GPU 搭配 8 個 HBF 堆疊可提供4TB 儲存空間,是純 HBM 方案的 20 倍 +完全容納1.8T 參數的前沿 LLM 模型,實現 "單卡即推理"具體到應用場景,比如:大型語言模型推理:支援超長上下文窗口,無需分片載入多模態 AI:處理圖像、視訊等大容量資料邊緣 AI:自動駕駛、智能終端、IoT 裝置,提供高容量低功耗方案AI 訓練中的檢查點儲存:大幅縮短模型恢復時間當前佈局的廠商:SanDisk 與 SK 海力士聯盟,2025 年 8 月簽署MoU,共同制定 HBF 技術規範並推動標準化,目前預估:2026 年下半年:首批 HBF 記憶體樣品2027 年初:首批搭載 HBF 的 AI 推理裝置SK 海力士已在 2025 年 OCP 峰會推出 **"AIN 系列"**,其中 AIN B 系列採用 HBF 技術三星電子的佈局已啟動自主 HBF 產品的早期概念設計,計畫利用在高性能儲存領域的研發經驗,滿足資料中心需求。其他廠商鎧俠 (Kioxia) 已開發出5TB 容量、64GB/s 頻寬的 HBF 原型;美光等儲存巨頭也在密切關注 HBF 技術發展。金正浩作為 HBM 技術發明人,分享了他在 YouTube 節目中提出震撼觀點,給大家分享一下:權力轉移論:"AI 時代,權力正從 GPU 轉向記憶體"記憶體已成為 AI 性能的決定性瓶頸,而非 GPU 算力;未來 AI 架構將圍繞記憶體建構,而非傳統的 CPU/GPU 中心模式。HBF 取代 HBM 論:"HBM 時代即將結束,HBF 時代即將到來"儘管 NAND 比 DRAM 慢,但提供10 倍 + 容量,對大規模 AI 模型至關重要;2027-2028 年將是 HBF正式商業化的爆發期;HBF 將與 HBM 形成互補架構:HBM 負責高速計算,HBF 提供海量儲存輝達收購論:"輝達可能收購一家記憶體公司"潛在目標:SanDisk (閃迪)、美光等儲存廠商,目標當然是為了掌控 HBF 等記憶體核心技術,擺脫對韓企的依賴另外金正浩教授描繪了未來 AI 儲存的四層架構:SRAM (桌面筆記本):GPU 內部,速度最快但容量最小HBM (書架):提供高速訪問和計算HBF (地下圖書館):儲存 AI 模型的 "深層知識",持續向 HBM 提供資料雲端儲存 (公共圖書館):通過光纖連接各資料中心HBF 將成為 AI 推理的標準配置,大幅降低大模型部署門檻解決當前 "記憶體牆" 問題,使 AI 應用突破容量限制,實現更複雜的推理預計到 2027 年,HBF 將引爆兆級新賽道,重塑儲存和 AI 產業格局HBF 技術代表了 AI 儲存領域的重大突破,它不是要完全取代 HBM,而是與 HBM 形成 容量 + 速度 的黃金組合隨著 2026-2027 年 HBF 技術正式落地,我們將見證 AI 推理性能的又一次飛躍,以及儲存在 AI 系統中地位的根本性提升 —— 正如金正浩教授所言:"在人工智慧時代,記憶體正在成為新的王者。" (IT前哨站)