#Memory
Memory的超級大周期
我們近期已經寫過很多篇Memory的內容,有興趣的讀者可以看下之前的文章。兆的OpenAI,漲瘋的Memory和新出爐的DeepSeek聊一聊Memory--被低估的兆賽道儲存市場上行趨勢在昨天的文章中我們就講過,現在很多伺服器生意,因為DDR漲價,已經很難做了,本來談好的價格,沒成想DDR價格瘋漲,預留出的利潤空間直接被DDR的漲價吃掉,又得跟客戶重新談價。這些物料的漲價,會先反應在產業界,然後才會是資本市場。野村證券甚至給了“前所未有的超級周期”來形容這次的Memory大周期,DRAM、HBM和NAND的三重超級周期。市場現狀先放幾張NAND和DRAM的價格走勢:根據近期行業動態,上游資源漲價傳導至嵌入式成品端,前兩周 eMMC、UFS 普遍大幅調漲,LPDDR4X 因部分原廠暫停報價且計畫大幅上調資源價格,看漲情緒升溫後再次上漲;隨著 Q3 末儲存廠商業績衝刺結束進入盤點結算,管道市場前期快速消耗現貨促流水變現導致 SSD 成品缺貨,疊加 PC 客戶備貨意願升溫,儲存廠商多採取控貨惜售策略,部分甚至暫停報價、控制接單節奏。今年4月開始,三星和SK海力士逐步減少DDR4產能,轉向更高利潤的DDR5、LPDDR5和HBM記憶體生產。這也直接導致DDR4系列價格的暴漲。9 月 24 日,美光將 2025 年伺服器總出貨量增長預期上調至約 10%,高於此前中等個位數的預期,其中傳統伺服器出貨預期從持平轉為中等個位數增長,這一變化主要受 AI agents 增長及其帶動的傳統伺服器工作負載、企業應用需求增加推動,同時 AI 伺服器增長持續強勁,二者共同驅動美光 DRAM 產品需求增長,美光還預計 2026 年行業 DRAM 供應將趨於緊張。同日美光科技 CEO 在財報電話會上進一步指出,全球儲存晶片尤其 HBM 供需不平衡將加劇,當前 DRAM 庫存低於目標、NAND 庫存持續下降,且 2026 年 HBM 產能已基本鎖定,需求增長顯著,出貨量增速預計超整體 DRAM,將成為儲存類股核心增長動力。9 月 25 日 TrendForce 指出,雖 2025 年下半年旺季需求因上半年消費市場需求透支未達預期,市場原預估 Q4 NAND Flash 價格進入盤整,但受 HDD 供給短缺、交期過長影響,雲端服務供應商快速將儲存需求轉向 QLC Enterprise SSD,短期急單湧入,疊加閃迪率先宣佈調漲 10%、美光因價格與產能配置暫停報價,供應端情緒轉積極,預計 Q4 NAND Flash 各類產品合約價平均上漲 5-10%。漲價核心原因根據野村證券的那份報告,這個超級周期的核心驅動因素包括:AI與資料中心需求爆發:美國科技巨頭持續擴大AI伺服器投資,2026年傳統伺服器資本支出預計增長20-30%,帶動DDR4/DDR5記憶體需求增長約50%,企業級SSD需求近乎翻倍。NAND市場因HDD供應短缺和AI儲存需求激增,預計2026年位元出貨量同比增長超50%。價格與利潤率躍升:DRAM營業利潤率將從當前的40-50%升至2026年的近70%(接近2017年峰值),NAND利潤率將從盈虧平衡點躍升至30-40%。HBM雖面臨競爭(三星2026年重返輝達供應鏈),但混合均價預計2025-2026年保持15%以上年增長,貢獻SK海力士75%的營業利潤。輝達上周剛宣佈了投資OpenAI 10GW的資料中心,奧特曼接著又講到2033年OpenAI規劃250GW...這比目前整個印度的耗電還要高,可以預見未來幾年對電力的需求得有多大,當然柴發的需求也很強。之前有群友問柴發在資料中心的作用,這裡再科普一下,柴發是備用的,一般資料中心都會接兩路電進來,以防萬一一路突然停電。柴發是在兩路電都突然出問題的時候啟用的。雖然是備用 ,但也是必須的。為什麼現在Memory才開始暴漲?看到這裡,其實讀者可能會有個疑惑。AI的資料中心一直在大幅擴張,輝達、博通,甚至國內的伺服器相關產業鏈公司(PCB、光模組、液冷、高速連接器)等,無論是營收還是股價,都已經漲了很多倍了,而DRAM和NAND在前兩年並未暴漲,而在近期才出現明顯反應?此前兩年 DRAM、NAND 需求未明顯增長,並非技術端毫無變化,而是需求端處於 “積累期”,尚未形成規模化爆發。一方面,前兩年 AI 技術雖在發展,但多停留在模型訓練與小規模驗證階段,網際網路大廠的 AI 產品大多處於探索、內部測試或灰度測試階段,業務滲透率僅 20%-30%,未進入大規模商業化落地階段 —— 比如當時的 AI 對話產品使用者量多在千萬級以下,且互動頻次、單次對話產生的 token 量有限,對儲存的需求僅集中在 HBM 等高性能儲存上,DRAM、NAND 這類支撐海量資料分層儲存的產品,尚未面臨大規模需求壓力。另一方面,前兩年的 AI 對話邏輯以 “快思考” 為主,模型多依賴自身知識庫直接生成答案,最多結合簡單搜尋,token 消耗較低,比如生成一份報告僅需 3000token 左右,且未引入外部 agent 協同,資料互動量有限,自然難以拉動 DRAM、NAND 的需求增長。近月儲存需求突然爆發,首先源於 AI 業務從 “積累期” 邁入 “高滲透期”,需求端出現實質性突破。當前網際網路大廠的 AI 產品已完成探索、測試到成熟上線的全流程,業務滲透率提升至 30%-40%,使用者規模大幅擴張 —— 以豆包為例,DAU 從年初的 1000 萬 - 2000 萬增至近 4000 萬,且不僅是獨立 AI 產品,支付、社交、電商、地圖等傳統網際網路產品也在加速 AI 重構,比如電商平台通過 AI 生成使用者動態畫像、新增 “AI 萬能搜”,這些變化讓使用者與 AI 的互動頻次顯著增加。按單使用者日均發起 10 次 Query、每次消耗 2000token 計算,單使用者日均 token 消耗達 2 萬,再疊加雲端運算廠商為保障資料安全的 3 份備份機制,資料總量呈指數級增長,而這些資料需要通過 DRAM、NAND(SSD 核心元件)進行分層儲存,直接拉動了兩類產品的需求。其次,AI 技術邏輯的升級,進一步放大了對 DRAM、NAND 的儲存需求。2025 年以來,AI 對話邏輯從 “快思考” 升級為 “慢思考”,模型不僅引入 “思維鏈” 拆解問題 —— 單拆解環節就需消耗近 2000token,還會呼叫外部 agent 協同,比如使用者提問時,模型需訪問地圖、支付、本地生活、搜尋引擎等外部資料介面,形成 “模型 + 多 agent” 的互動架構。這種變化讓 token 消耗大幅增加:去年生成一份報告約需 3000token,如今因需檢索、分析大量外部資訊,整個流程 token 量可達 3 萬以上,是此前的 7-10 倍。同時,海外頭部模型全面轉向多模態,處理圖片、視訊、社交媒體等多模態資訊時,會產生更多非文字資料,這些資料同樣需要 DRAM 暫存、NAND(SSD)儲存,進一步加劇了儲存需求的爆發。最後,AI 基礎設施的重構需求,也推動 DRAM、NAND 需求集中釋放。此前行業未大規模佈局分層儲存架構,隨著需求爆發,企業意識到若不提前建構 “熱資料(HBM)- 溫資料(DRAM/SSD)- 冷資料(HDD / 大容量 SSD)” 的分層儲存體系,未來更大規模需求來臨時,不僅會面臨儲存容量不足的問題,還會因儲存成本失控影響盈利。因此,當前網際網路大廠紛紛啟動 AI 基礎設施重構,按分層儲存需求採購 DRAM、SSD(依賴 NAND),比如用 DRAM 承擔 KV cache 溢出處理與熱 - 溫資料橋接,用 SSD 儲存溫資料與部分冷資料,這種集中式的基礎設施建設,直接轉化為 DRAM、NAND 的短期大量訂單,供需關係的緊張最終推動產品價格上漲。持續周期根據野村的分析,當前由AI需求驅動的“超級周期”預計至少持續到2027年,但可能在2028年出現下行轉折。幾個輝達相關的問題在 SK 海力士、三星與 NVIDIA 的 HBM 價格談判方面,目前雙方針對 HBM3E 12Hi 和 HBM4 的定價尚未最終敲定,DRAM 廠商的報價與 NVIDIA 的預期之間仍存在差距。不過,隨著儲存大宗商品市場前景顯著改善,且 ASIC 領域競爭對手對 HBM 的需求持續增加,談判局勢正逐漸向有利於 DRAM 廠商的方向傾斜。從當前趨勢來看,最終定價結果大機率會更貼近 DRAM 廠商的預期,若這一判斷落地,此前對 HBM 市場的增長預測或將迎來更高的上行空間。針對 NVIDIA 提出的 HBM4 速度需突破 10Gbps 的要求,不同 DRAM 廠商的應對能力與產品佈局存在一定差異,但整體不會對 HBM 市場造成顯著衝擊。其中,三星採用 1C 奈米工藝,其 10Gbps 以上速率的 HBM4 產品佔比相對更高,不過受工藝特性影響,該公司 HBM4 的整體良率可能低於同行;美光原本為 8Gbps 速率設計的基礎晶片正處於重新設計階段,以適配更高速度需求;SK 海力士則計畫通過對現有產品進行篩選,挑選出速率超 10Gbps 的產品交付給 NVIDIA。綜合來看,三星、美光、SK 海力士三家頭部廠商均具備供應符合 NVIDIA 速度要求的 HBM4 產品的能力,因此這一技術要求對整體 HBM 市場的影響有限。NVIDIA 推出的 CPX 方案將對不同類型儲存產品的需求產生分化影響。一方面,CPX 方案預計將推動 Rubin 平台對 GDDR7 的大規模採用,為 GDDR7 市場帶來顯著增量;另一方面,該方案可能會對 HBM4 的需求形成一定壓制,短期內對 HBM4 市場造成負面影響。從長期視角來看,CPX 方案能提升整個系統的推理效率,儘管可能會削弱 HBM 的潛在需求,但從中長期維度,它有助於降低 token 成本,進而加速 AI 市場需求的整體增長。對於 DRAM 廠商而言,GDDR7 需求的大幅增長將有效抵消 HBM 需求減少帶來的衝擊,整體收益仍有保障。此外,NVIDIA 還在研發另一項儲存解決方案 ——HBF(高頻寬快閃記憶體)。該方案的核心思路是利用大容量堆疊 NAND 替代 HBM 來建構 HBF,從而提升系統的成本效益。這一舉措表明,NVIDIA 正不斷豐富自身的產品技術規格,通過整合 CPX、HBF 等不同的儲存層級方案,最佳化儲存資源配置,最終實現整個 AI 系統成本效率的提升,進一步鞏固其在 AI 硬體生態中的競爭力。 (傅里葉的貓)