短期看DRAM,長期看儲存體系重構
NAND正在成為AI時代的隱形核心資產
最近在看這篇關於“AI記憶體需求”的研究時,我最大的感受只有一句話:這一次,市場很可能又看錯了。
過去一段時間,幾乎所有人都在講同一個故事——AI爆發,資料中心需求提升,DRAM佔比更高,所以DRAM才是最大者。這個邏輯聽起來很順,甚至已經變成了一種“共識”。
但當我真正把這篇材料從頭到尾看完,尤其是把Sora這類視訊生成模型的底層算清楚之後,我反而越來越覺得:這個結論,可能只是看到了表面。
因為當AI開始從“生成文字”走向“生成視訊”,問題就完全變了。模型不再只是處理幾十K的token,而是一次性處理幾百萬級token;不再只是推理幾秒,而是生成完整的視訊序列。這個過程中,真正被瘋狂消耗的,不只是記憶體容量,而是頻寬、資料搬運,以及背後龐大的儲存體系。
也正是在這裡,一個更清晰的結構開始浮現出來:
HBM在撐算力,DRAM在做配套,而真正承接規模的,是被長期低估的NAND。
換句話說,如果還用“DRAM vs NAND”這樣的框架去理解AI,很可能一開始方向就錯了。
一、這份材料真正想說明什麼?
AI時代的“記憶體之爭”本質被誤判——真正的瓶頸既不在DRAM,也不在單一晶片,而是在“HBM算力記憶體 + NAND資料儲存”的協同體系。
二、市場共識是錯的:DRAM ≠ AI
當前市場觀點:
- DRAM更受益AI(因為資料中心佔比更高)
但作者直接質疑:這個邏輯過於表面
反例:NVIDIA推出大容量NAND儲存平台(單DPU支援150TB)
結論:
AI系統不是“只吃DRAM”,而是同時重度依賴儲存(NAND)
三、底層邏輯變化:AI從“算力問題”變成“記憶體問題”
文件通過Sora / DiT模型給出本質:
AI視訊生成的核心特徵:
- Token規模:≈400萬級
- 模型規模:≈500億參數
帶來的結果:
- 計算不是瓶頸
- 資料搬運 & 儲存成為瓶頸
本質變化:
AI正在從“Compute-bound” → “Memory-bound”
四、真正的核心記憶體:不是DRAM,而是HBM
這是全文最關鍵的結論之一:
單次視訊生成的記憶體需求:
- HBM(GPU視訊記憶體):≈280GB
- DRAM:≈20–90GB
關鍵判斷:
- HBM才是AI推理的主戰場
- DRAM只是輔助(系統/快取)
結論:
AI記憶體價值正在從“通用記憶體(DRAM)”轉向“高頻寬記憶體(HBM)”
五、NAND被嚴重低估:AI最終是“儲存驅動”的
文件給出兩個關鍵場景:
1️⃣ 推理側(資料中心)
- 每個節點需要 ≈140GB NAND(系統+模型)
2️⃣ 內容側(視訊儲存)
- 單個30秒4K視訊 ≈150MB–268MB
但關鍵在這裡
AI視訊 = 海量生成 × 多版本儲存 × 長尾內容
結論:
真正爆發的是“資料儲存需求”,而不是短期記憶體
六、終局趨勢:AI視訊將引爆“記憶體超級周期”
文件提出一個非常重要的產業推演:
未來形態:即時AI視訊生成(而不是離線生成)
帶來的變化:
- 內容無限供給
- 使用者互動增強
- 廣告嵌入視訊生成
資料規模:全球短影片播放 ≈1兆次/天
那怕:1%變成AI生成
都是天量算力 + 儲存需求
🏁 小編總結
AI時代的記憶體競爭,不是DRAM vs NAND,而是HBM定義算力上限,NAND定義資料規模。 (芯聯匯)
