#快閃記憶體
全球首顆!中國全新架構快閃記憶體晶片問世,10億次儲存刷新行業標竿
當資料儲存速度突破“億級”大關,一顆晶片可瞬間完成10億次資料讀寫,中國自主研發的全新架構快閃記憶體晶片不僅填補全球技術空白,更以顛覆性創新打破歐美日韓長期壟斷的儲存晶片市場格局。這一里程碑式突破,標誌著中國在核心儲存領域實現從跟跑到領跑的跨越,為全球半導體產業注入全新發展動能。中國快閃記憶體晶片研發之路是自主創新的堅韌探索。2016年長江儲存成立之初,全球快閃記憶體市場被三星、SK海力士、美光等巨頭瓜分,國內自主生產能力幾乎為零。面對技術鴻溝,中國企業選擇難度更高的3D NAND賽道,從32層到64層再到128層,僅用兩年實現關鍵技術跨越。2022年底,長江儲存推出全球首款232層3D NAND晶片,儲存密度超越國際同行;2025年,全新架構快閃記憶體晶片橫空出世,憑藉獨創技術實現10億次/秒的儲存速度,完成從“追趕到引領”的蛻變,累計申請專利超1.2萬件,95%為發明專利。這項突破背後是多重世界級難題的攻克。核心挑戰在於全新架構的設計與實現,研發團隊摒棄傳統整合模式,採用儲存陣列與外圍電路分離製造再鍵合的創新方案,破解了性能與密度的矛盾。高深寬比刻蝕、高精度鍵合等關鍵工藝曾依賴進口裝置,在美國製裁導致裝置斷供的困境下,中國企業與北方華創、中微公司等組成“攻堅聯盟”,實現45%的裝置國產化率,攻克了壞塊管理、ECC平行計算等行業痛點 。同時,需在奈米級空間內平衡速度、功耗與穩定性,最終通過工藝最佳化將良率提升至國際先進水平。該晶片的技術參數達到全球領先水準。儲存速度突破10億次/秒,較國際主流產品提升3-5倍;採用自主創新架構,儲存密度達15.03 Gb/mm²,在同等尺寸下儲存容量實現翻倍;支援3V和1.8V雙工作電壓,連續讀取速率最高可達83MB/s,功耗較傳統產品降低40% ;內建先進壞塊管理功能和8bit ECC平行計算技術,資料可靠性達到99.999%,滿足高端場景嚴苛需求。在應用層面,該晶片將賦能多領域數位化升級。在AI與資料中心領域,10億次儲存速度可支撐海量資料即時處理,助力人工智慧模型訓練效率提升;在消費電子領域,適配智慧型手機、SSD等終端,實現秒級開機與大型檔案瞬時傳輸;在工業控制與IoT領域,低功耗、高可靠性特性可滿足極端環境下的長期穩定運行,推動智能製造與物聯網發展 。華為、浪潮等企業已簽署長期採購協議,加速技術落地應用。這一突破徹底打破了歐美日韓的壟斷格局。此前全球儲存晶片市場CR5超90%,國外企業長期掌控定價權 。如今中國快閃記憶體晶片全球市佔率已提升至12.8%,國內市場覆蓋率超30%,迫使國際巨頭調整定價策略。更具里程碑意義的是,三星等國際巨頭已向中國企業支付專利授權費,標誌著中國在儲存領域從技術追隨者轉變為規則制定參與者。同時,帶動上游裝置、材料國產化協同發展,形成完整產業生態,為全球半導體產業提供多元技術路徑。從無到有、從追趕到引領,中國全新架構快閃記憶體晶片的突破,印證了自主創新的核心價值。隨著產能逐步擴張至月產30萬片的目標,中國將進一步提升全球市場話語權,推動儲存晶片行業進入“中國智造”引領的新時代。這不僅是中國半導體產業的重大跨越,更為全球科技產業格局重塑注入了中國力量。 (我是科技達人)
中國國產記憶體、快閃記憶體晶片不再是備胎!兩巨頭擴產 技術差距不到1年
最近3個月記憶體及快閃記憶體兩種儲存晶片價格大漲,而且漲勢之猛是30多年來最強的。這一次尤其關鍵的一個轉變就是,國內公司沒有缺席,長江、長鑫兩家公司的記憶體及快閃記憶體已經不可小覷。日前有消息稱長江儲存發佈了通知,宣佈快閃記憶體晶圓漲價40%,模組產品漲價100%,不過這個消息並沒有得到完全證實。供應鏈人士表示12月的快閃記憶體晶圓成交價比11月提升了10%多一點,SSD成品漲幅在15-20%。供應鏈表示,該公司今年已經多次調整價格,部分規格的產品價格已經不輸三星等原廠,暗示策略已經轉向控量穩價,不再是追求低價搶市場。報導還提到了兩家國產儲存廠商產能,長江儲存的快閃記憶體產能達到了16萬片/月,長鑫的記憶體產能更是高達28萬片晶圓/月,2026年還會進一步提升到30萬片/月。隨著產能及價格策略的變化,這兩家公司的儲存晶片已經不是以往的備胎,電腦廠商也會開始採購他們的晶片,進行測試驗證。其中華碩、宏碁已經進入評估階段,希望借此提高供應鏈彈性,分散風險。在技術上,長江儲存已經發佈了300層堆疊的快閃記憶體產品,長鑫11月底也發佈了8000MHz的DDR5產品,LPDDR5也達到了10677MHz。這些都是當前的頂級產品,被認為與三星等廠商的技術差距不到1年時間了。國產記憶體及快閃記憶體晶片目前主要的問題還是裝置受限,導致產能及良率面臨挑戰,但是在一步步解決自主供應鏈之後,很快不再受美國禁令影響。到時候會真正有機會重塑市場格局,兩三年內超越三星不太可能,但坐三望二是有機會的。說到三星,日前有消息稱AMD最快明年1月份跟三星簽訂合作協議,將使用後者的2nm工藝SF2P生產新一代晶片,這有望給三星帶來數十億美元的訂單。與此同時,Intel也在跟三星談晶片代工合作,不過他們已經有自己的18A工藝了,不需要三星2nm代工,這次談的反而是已經很成熟的5nm及8nm工藝,尤其是後者,Intel決定將PCH晶片組訂單給三星8nm來做。這個晶片組主要用於新一代處理器,也就是26年底的Nova Lake處理器,目前已經準備進入量產階段。Intel當前的PCH晶片組使用的是三星14nm工藝,是在三星美國工廠生產的,但8nm PCH晶片要轉回韓國的華城工廠生產,這裡的產能畢竟穩定,可以月產3-4萬晶圓,這也是Intel選擇三星韓國工廠生產的關鍵原因。對Intel來說,他們自己將專注於先進工藝的研發生產,PCH晶片組這樣的簡單產品外包給代工廠更有助於降低成本,三星的8nm也是比較成熟穩定的工藝了,之前NVIDIA的RTX 30系列GPU就是這個工藝生產的。從14nm升級到8nm之後,預計Nova Lake的晶片組面積會更小,發熱也會更低,這對PC玩家來說也是好事,不然高負載下工作時主機板的散熱也不讓人放心。(硬體世界)
HBF or HBM?高頻寬快閃記憶體(HBF)更適合AI推理!
這張圖介紹了HBF(高頻寬快閃記憶體)在 AI 推理伺服器中的應用價值:AI工作負載的內存需求可以分為模型參數讀取和KV 快取讀寫兩類:1. 模型參數讀取(Weight Streaming,權重流)訪問模式:大粒度順序讀取。頻寬需求:需支撐GB/s~TB/s 級頻寬,對 “高頻寬” 特性高度依賴。部署優勢:若 HBF 靠近計算核心部署,大容量特性可顯著提升權重讀取效率。2. KV 快取讀寫(KV Cache Read/Write)訪問模式:快取級隨機訪問,對延遲極度敏感。操作特性:生成每個token時都會觸發寫操作;且 KV 快取的大小會隨上下文長度和注意力頭數量線性擴展。HBF 為何不適用訓練場景?訓練場景的記憶體需求與 HBF 的技術侷限存在根本衝突:訪問模式:寫密集型,伴隨持續的梯度更新、最佳化器狀態修改,且存在頻繁細粒度讀寫。介質侷限:HBF 基於快閃記憶體技術,受限於兩個核心短板 ——耐用性:快閃記憶體的擦寫次數有上限,寫密集的訓練會快速耗盡其生命周期;延遲:快閃記憶體的讀寫延遲遠高於 DRAM,無法滿足訓練對低延遲的嚴苛要求。HBF為何適配推理場景?可從三方面理解:特性匹配:HBF 具備大容量、低成本、高密度的優勢,完美適配推理伺服器對 “儲存規模” 和 “成本效率” 的需求。工作負載契合:推理中的 “權重流” 任務是大粒度順序讀取,與 HBF 的頻寬優勢完全匹配。場景區分:訓練是 “寫密集型” 工作負載,會突破 HBF 的耐用性和延遲上限;而推理的讀寫模式更溫和,可充分發揮 HBF 的潛力。HBF取代HBM會發生什麼?假設HBF完全取代了HBM作為GPU的主記憶體。其優勢在於:每GPU多TB記憶體容量使非常大型模型能夠局部安裝在每個加速器上對於頻寬密集型權重流且預取能力強,高效高效但也具有很明顯的侷限性:KV快取作延遲不足隨機訪問性能仍不及 HBM培訓和混合工作量不切實際不支援通用GPU使用場景因此HBF僅適用於具有固定作模式的專用推理加速器,無法作為通用GPU中HBM的替代。HBM + HBF混合GPU記憶體最好!HBM仍然是主要的低延遲記憶體,而HBF則作為高容量讀取最佳化層加入。HBM→KV 快取、熱啟動、中間張量HBF→模型參數、冷啟動通過 HBM 維護低延遲計算流水線,減少對 HBM 的依賴和成本,還相容當前的GPU設計和軟體棧,缺點是包設計複雜度增加,且需要關注功耗與熱量問題。 (銳芯聞)
外媒:NAND快閃記憶體將於明年進入超級週期
隨著人工智慧(AI)資料中心的擴展,NAND產品在AI記憶體市場的重要性正迅速增長。儘管與DRAM相比,AI帶來的益處曾較為有限,但企業級固態硬碟(eSSD)能夠快速處理和儲存大量資料,使得NAND價格和銷售額進入上升軌道。據外媒報導,SanDisk(閃迪)公司首席執行官David Goeckeler在三季度財報的發佈中表示:“明年將是資料中心NAND需求首次超過移動領域的第一年。”他指出:“NAND的需求正超過供應,這一趨勢將持續到明年年底之後。”其他主要NAND供應商也對市場做出了類似評估。三星電子在上個月的財報中談及NAND市場狀況時表示:“即使考慮到我們明年生產能力的擴張,客戶需求仍將超過供應,導致供需之間存在顯著缺口。”SK海力士也表示,其明年的NAND產量已經“全部售罄”,並補充道:“一些供應商現在正尋求籤署長期供應合同。”NAND供需之間的不平衡導致產品價格不斷上漲。用於儲存卡和USB 隨身碟的128Gb MLC NAND快閃記憶體固定交易價格在9月上漲了10.6%,10月進一步上漲14.9%,創下十年來的最大漲幅。據報導,三星電子和閃迪最近決定將NAND供應價格提高10%。此外,一種被稱為“HBF”的下一代儲存技術也備受關注。該產品通過類似高頻寬記憶體(HBM)的方式堆疊NAND晶片,旨在保持HBM的優點,同時利用NAND的特性來解決HBM的容量限制問題。SK海力士和閃迪已開始聯合開發HBF,並計畫於2027年開始生產。 (芯聞眼)
HBF要取代HBM?
被譽為“高頻寬記憶體 (HBM) 之父”的韓國科學技術院 金正浩教授 最近在 YouTube 節目中發表了一番驚人的言論:“在人工智慧時代,權力平衡正在發生轉變——從 GPU 轉向記憶體。”高頻寬快閃記憶體 (HBF)是一種結合 3D NAND 快閃記憶體高密度與 HBM 高頻寬特性的創新儲存技術,通過垂直堆疊多層 NAND 晶片並利用矽通孔 (TSV) 技術實現層間互聯,為 AI 推理提供前所未有的大容量、高頻寬儲存解決方案。其核心原理是採用與 HBM 類似的堆疊架構 (8-16 層),但使用 NAND 快閃記憶體替代 DRAM,通過 TSV 和微凸點連接各層,將邏輯晶片與儲存陣列鍵合,支援平行訪問多個 NAND 子陣列,大幅提升頻寬和吞吐量。HBF vs HBM 核心差異點HBM:速度擔當,適合 AI 訓練等高即時性場景HBF:容量擔當,專為 AI 推理設計,可儲存完整大模型因此HBF 可以解決幾個核心痛點:當前 AI 推理中,GPU 有60-70% 時間處於等待記憶體狀態;大型模型 (如 1.8T 參數的 LLM) 無法完整裝入傳統 HBM,需頻繁從硬碟載入,嚴重拖慢推理速度。查詢到的幾個實測案例給大家分享一下:使用 HBF 運行 LLaMA 3.1 (405B 參數) 時,性能僅比理想 HBM 方案低 2.2%.單 GPU 搭配 8 個 HBF 堆疊可提供4TB 儲存空間,是純 HBM 方案的 20 倍 +完全容納1.8T 參數的前沿 LLM 模型,實現 "單卡即推理"具體到應用場景,比如:大型語言模型推理:支援超長上下文窗口,無需分片載入多模態 AI:處理圖像、視訊等大容量資料邊緣 AI:自動駕駛、智能終端、IoT 裝置,提供高容量低功耗方案AI 訓練中的檢查點儲存:大幅縮短模型恢復時間當前佈局的廠商:SanDisk 與 SK 海力士聯盟,2025 年 8 月簽署MoU,共同制定 HBF 技術規範並推動標準化,目前預估:2026 年下半年:首批 HBF 記憶體樣品2027 年初:首批搭載 HBF 的 AI 推理裝置SK 海力士已在 2025 年 OCP 峰會推出 **"AIN 系列"**,其中 AIN B 系列採用 HBF 技術三星電子的佈局已啟動自主 HBF 產品的早期概念設計,計畫利用在高性能儲存領域的研發經驗,滿足資料中心需求。其他廠商鎧俠 (Kioxia) 已開發出5TB 容量、64GB/s 頻寬的 HBF 原型;美光等儲存巨頭也在密切關注 HBF 技術發展。金正浩作為 HBM 技術發明人,分享了他在 YouTube 節目中提出震撼觀點,給大家分享一下:權力轉移論:"AI 時代,權力正從 GPU 轉向記憶體"記憶體已成為 AI 性能的決定性瓶頸,而非 GPU 算力;未來 AI 架構將圍繞記憶體建構,而非傳統的 CPU/GPU 中心模式。HBF 取代 HBM 論:"HBM 時代即將結束,HBF 時代即將到來"儘管 NAND 比 DRAM 慢,但提供10 倍 + 容量,對大規模 AI 模型至關重要;2027-2028 年將是 HBF正式商業化的爆發期;HBF 將與 HBM 形成互補架構:HBM 負責高速計算,HBF 提供海量儲存輝達收購論:"輝達可能收購一家記憶體公司"潛在目標:SanDisk (閃迪)、美光等儲存廠商,目標當然是為了掌控 HBF 等記憶體核心技術,擺脫對韓企的依賴另外金正浩教授描繪了未來 AI 儲存的四層架構:SRAM (桌面筆記本):GPU 內部,速度最快但容量最小HBM (書架):提供高速訪問和計算HBF (地下圖書館):儲存 AI 模型的 "深層知識",持續向 HBM 提供資料雲端儲存 (公共圖書館):通過光纖連接各資料中心HBF 將成為 AI 推理的標準配置,大幅降低大模型部署門檻解決當前 "記憶體牆" 問題,使 AI 應用突破容量限制,實現更複雜的推理預計到 2027 年,HBF 將引爆兆級新賽道,重塑儲存和 AI 產業格局HBF 技術代表了 AI 儲存領域的重大突破,它不是要完全取代 HBM,而是與 HBM 形成 容量 + 速度 的黃金組合隨著 2026-2027 年 HBF 技術正式落地,我們將見證 AI 推理性能的又一次飛躍,以及儲存在 AI 系統中地位的根本性提升 —— 正如金正浩教授所言:"在人工智慧時代,記憶體正在成為新的王者。" (IT前哨站)
噩耗!認證崩盤!美光 HBM4 被輝達 "否決"
出貨將推遲至2027年第一快閃記憶體消息:美光 HBM4 栽大跟頭了!因良率拉胯、傳輸速度不達標,直接被輝達驗證流程 “一票否決”,被迫啟動全面重造。而 SK 海力士已搶先量產 HBM4,三星也在加速送樣認證,美光供貨推遲至 2027 年,在 AI 記憶體生死戰中徹底落後,千億市場蛋糕恐被韓系雙雄瓜分!GF證券表示:“預計輝達的HBM4晶片出貨將推遲到2027年”,並補充道:“即使HBM4晶片的交付計畫推遲,也不會對美光的盈利造成重大影響。”一、認證崩盤!美光 HBM4 被輝達 "一票否決"AI 算力軍備賽的關鍵一役,美光直接摔出賽道!廣發證券香港分行報告驚雷炸響:美光 HBM4 因性能不達標、良率慘不忍睹,慘遭輝達驗證流程 "死刑判決"。核心癥結直指資料傳輸速度 —— 連客戶最基本的性能紅線都未能跨越,逼得這家美國儲存巨頭啟動全面架構重造。更致命的是時間窗口的丟失:原本瞄準 2026 年的量產計畫被迫延後,最悲觀預測指向 2027 年才能供貨。要知道,HBM4 作為 AI 伺服器的 "算力心臟",直接決定 GPU 的運算效率,而輝達、AMD 的下一代 GPU 已箭在弦上,2026 年量產計畫容不得半分等待。業內狠批:"這不是延遲,是主動退出下一代 AI 供應鏈的爭奪戰"。二、韓系雙雄狂奔!三星 SK 海力士搶食千億美元蛋糕就在美光陷入重造泥潭時,韓國雙雄已踩下量產油門,上演教科書等級的競速突襲。SK 海力士 9 月率先宣告完成全球首條 HBM4 量產線搭建,第四季度已啟動出貨,其產品不僅實現 10Gbps 速率超越 JEDEC 標準,更憑 2048 個 I/O 終端將頻寬翻倍,還硬生生把能效提升 40%。更關鍵的是,它已穩穩通過輝達驗證,攥緊 Rubin GPU 供應鏈入場券。三星則祭出 "良率殺器":1c DRAM 工藝良率突破 50%,HBM4 邏輯晶片良率飆至 90%,10 月底更在科技展上公開展出實品,敲定 2025 年底量產時間表。Counterpoint 資料顯示,SK 海力士已以 62% 份額壟斷市場,三星正蓄力衝擊 30% 份額,韓系雙雄合計掌控近 80% 市場,把美光 21% 的份額襯得岌岌可危。三、千億市場洗牌!遲到者恐遭 "驅逐"這場延遲絕非小事,而是關乎千億美元市場的生死判決。摩根大通預警:2026 年 HBM 市場規模將暴漲 70%,佔 DRAM 總市場 45%,2030 年更將衝至千億美金量級,而輝達一家就壟斷 60% 需求。偏偏 HBM4 比 HBM3E 有 30%-40% 價格溢價,誰能卡位量產誰就躺賺暴利。更殘酷的是行業鐵律:AI 供應鏈一旦定型,1-2 年內絕無替換可能。黃仁勳訪韓時那句 "三星 SK 海力士對 AI 至關重要",早已把美光排除在核心圈外。分析師戳破真相:"2026 年 HBM4 供應佔比將達 30%,2027 年更是飆升至 70%,美光若錯失這次,未來連喝湯的資格都沒有"。更要命的是,三星已打響價格戰,進一步壓縮遲到者的生存空間。三星降價搶佔HBM市場。點選看:無貨可賣!炸裂:三大原廠暫停DDR5報價!四、絕地反擊還是徹底出局?美光押注 "技術重生"絕境中的美光仍在頑抗,財報電話會議上拋出 "2026 年 Q2 量產" 的救命稻草,宣稱已送出 11Gbps 速率的樣品,還計畫在 HBM4E 時代轉由台積電代工,押注定製化方案拉高毛利。眼下其 AI DRAM 和 NAND 業務同比暴漲三倍,暫時能撐住營收體面。但現實骨感:HBM4 已轉向 16 層堆疊,無助焊劑鍵合等新技術門檻陡升,美光既要補性能短板,又要追良率差距,難度堪比登天。市場已給出預判:2026 年 HBM4 市場仍由 SK 海力士主導,三星緊追其後。這場 AI 記憶體的生死競速中,美光已被判罰 "遲到離場",能否改寫結局,全看其重造進度能否跑出奇蹟。 (第一快閃記憶體)
“HBM版”NAND,終於來了!
SK海力士公開了其包含下一代NAND儲存——“HBF(高頻寬快閃記憶體)”在內的人工智慧(AI)產品戰略。所謂HBF,是借鑑HBM(高頻寬記憶體)的概念,通過對NAND快閃記憶體進行垂直堆疊,從而最大化性能的一種下一代產品。SK海力士27日表示,公司於當地時間10月13日至16日參加了在美國加利福尼亞州聖何塞舉行的“2025 OCP(開放計算項目)全球峰會”,並在會上發佈了最新的NAND儲存產品戰略。公司表示:“隨著AI推理市場的迅速增長,能夠快速、高效處理海量資料的NAND儲存產品需求正在急劇擴大。對此,我們建構了‘AIN(AI-NAND)Family’產品陣容,旨在以面向AI時代的最優解決方案滿足客戶需求。”在大會第二天的高管專場中,SK海力士eSSD產品開發負責人金千成(Kim Cheonseong)副社長作為演講嘉賓,介紹了AIN產品系列。AIN系列從性能(Performance)、頻寬(Bandwidth)、容量(Density)三個維度進行最佳化,旨在同時提升資料處理速度和儲存容量。AIN P(Performance) 是一款可在大規模AI推理環境中高效處理海量資料讀寫的解決方案。通過最小化AI計算與儲存之間的瓶頸,大幅提升處理速度和能效。公司目前正在以全新架構設計NAND與控製器,計畫於2026年底推出樣品。AIN D(Density) 是一款以低功耗、低成本儲存大容量資料為目標的高密度解決方案,適用於AI資料儲存。該產品旨在將基於QLC的TB級SSD容量提升至PB級,同時兼具SSD的速度與HDD的經濟性,定位為中間層級儲存。NAND快閃記憶體根據單個儲存單元(Cell)可儲存的位元數量不同,分為SLC(1bit)、MLC(2bit)、TLC(3bit)、QLC(4bit)、PLC(5bit)等多種規格。AIN B(Bandwidth) 是通過垂直堆疊NAND來擴大頻寬的解決方案,這正是公司採用“HBF”技術的產品名稱。SK海力士啟動AIN B研究的初衷是為瞭解決記憶體容量不足問題,其核心在於將高容量、低成本的NAND與HBM堆疊結構相結合。公司正在研究將AIN B與HBM協同部署,以補充容量不足等多種應用場景。為推動AIN B生態系統發展,SK海力士與美國SanDisk於8月簽署了HBF標準化諒解備忘錄(MOU),並於14日晚在OCP峰會會場附近的科技互動中心(The Tech Interactive)舉辦了“HBF之夜”活動,邀請了多家全球大型科技公司的代表出席。當天活動由海內外教授組成的專家團以圓桌討論形式進行,吸引了數十位業內主要架構師與技術專家參與。會上,SK海力士提議業界攜手加速NAND儲存產品創新。SK海力士開發總括安賢(Ahn Hyun)社長表示:“通過本次OCP全球峰會和HBF之夜,我們展示了SK海力士作為‘全球AI記憶體解決方案提供商’在AI為中心的快速變革市場中的現狀與未來。未來,我們將在下一代NAND儲存領域繼續與客戶及各類合作夥伴攜手,努力成為AI記憶體市場的核心玩家。”SK海力士,率先量產HBM4?據業內消息,SK海力士已向其位於清州、正建設中的高頻寬記憶體(HBM)等DRAM生產基地——M15X工廠運入首批裝置。據業界27日消息,SK海力士當天開放了正在清州建設的M15X工廠的首個潔淨室,並開始裝置搬入工作。M15X是SK海力士在現有M15工廠基礎上追加投資超過20兆韓元建設的擴建生產基地。此前,自去年年底起,SK海力士已將部分在京畿道利川園區工作的DRAM員工調往清州園區,啟動了包括基礎設施建設在內的前期準備工作。隨著當天裝置搬入的開始,公司也在加快推進原計畫於年內完工的目標。SK海力士在第二季度財報電話會議上表示:“M15X計畫以應對客戶需求為出發點,重點量產下一代HBM產品。我們將根據明年客戶對所需產量的可見性情況,逐步擴大產能(capacity)。”公司還補充道:“雖然目前不便透露M15X的具體運作細節,但可以肯定的是,到明年年底不會因為廠房空間限制而出現HBM供應不足的情況。”業內認為,隨著M15X裝置搬入的啟動,SK海力士將進一步加快HBM量產步伐。據悉,SK海力士今年的HBM產能已全部售罄,並且在三星、美光三大儲存廠中率先完成第六代HBM(HBM4)的量產準備,目前正與輝達就供應量進行談判。 (半導體芯聞)
DRAM超級週期已至,行業多個報告稱記憶體閃存將長期供應緊張
翻譯:漲價9月份,美光、閃迪告知記憶體閃存預計漲價,甚至已經暫停客戶報價,繼閃迪(SanDisk)宣佈將存儲產品價格上調10%以上後,美國內存晶片巨頭美光科技(Micron Technology)也向管道商發出通知,宣佈其存儲產品即將上漲20%-30%。今年步入第二季後,DDR4記憶體一路走高,帶動DDR5價格回升,這讓近期有裝機需求的朋友苦不堪言,內存怎麼就漲這麼高了?實際上,這個問題還是得算到AI熱潮上。多個行業報告表示,人工智慧行業的爆發性增長正在推動DRAM 內存行業進入一個新的「超級週期」。這一波需求的成長,核心驅動力在於HBM高帶寬記憶體的大規模採用,特別是科技巨頭們積極開發定製化ASIC 晶片以部署到自己的AI 系統。當前AI 行業的快速發展對DRAM 的產能提出了極高的要求。每一組AI 計算群集都需要大量的HBM 記憶體容量,這直接導致了對基礎 DRAM 晶圓的巨額需求。市場分析指出,DRAM 記憶體的供需情況預計將更加緊張。目前,TrendForce 的報告顯示,全球DRAM 供應商的庫存週期僅為 3.3 週,這是近七年來的最低水平,遠低於業內通常的10 週庫存。這顯示市場供不應求的壓力正在迅速增大。而實際上,除了我們熟知的AMD、輝達正在製造大規模AI加速器,需要巨量的HBM內存,大型科技公司正在積極追求開發定製化的AI ASIC 晶片,以優化其內部系統的性能和效率。這種趨勢顯著推高了對DRAM 的需求預期。瑞銀(UBS)的分析師預測,例如 OpenAI 即將推出的ASIC 晶片,預計將採用 12 層堆疊的HBM3E 技術。光是這一個ASIC 項目,就可能在2026 年至2029 年間產生 50 萬至60 萬片DRAM 晶圓/月的產能需求,佔據全球總DRAM 產能的龐大份額。同時,OpenAI 的「星際之門」(Stargate)超級計算群集項目被認為將消耗全球DRAM 供應的很大一部分,據稱可能需要每月90 萬片DRAM 晶圓的產能,相當於目前總供應量的至少 40%。這種前所未有的需求規模,使得DRAM 記憶體的重要性已經與先進製程的晶片節點不相上下。然而,各家記憶體快閃記憶體供應商的產能短暫不可能大幅提升, 而提升HBM產能的後果就是常規記憶體模組的產量暫時減少。主要DRAM 製造商如三星、海力士和美光已經開始調整生產策略。這些公司正將現有的部分生產線轉向HBM 產品的製造,並透過升級到最新的1c 納米等工藝技術來擴大產能。由於DRAM 產能主要集中在韓國製造商手中,如何在未來幾年內滿足全球AI 產業預期的巨大需求,將是產業需要解決的關鍵挑戰。隨著HBM4 等下一代技術即將問世,對高帶寬記憶體的需求預計將進一步擴大,加速DRAM 產業的成長步伐。目前,增加DRAM 供應是滿足科技巨頭對HBM 渴望的唯一方法。 (AMP實驗室)