AI記憶體之爭:市場高估了DRAM,低估了NAND

短期看DRAM,長期看儲存體系重構
NAND正在成為AI時代的隱形核心資產

最近在看這篇關於“AI記憶體需求”的研究時,我最大的感受只有一句話:這一次,市場很可能又看錯了。

過去一段時間,幾乎所有人都在講同一個故事——AI爆發,資料中心需求提升,DRAM佔比更高,所以DRAM才是最大者。這個邏輯聽起來很順,甚至已經變成了一種“共識”。

但當我真正把這篇材料從頭到尾看完,尤其是把Sora這類視訊生成模型的底層算清楚之後,我反而越來越覺得:這個結論,可能只是看到了表面。

因為當AI開始從“生成文字”走向“生成視訊”,問題就完全變了。模型不再只是處理幾十K的token,而是一次性處理幾百萬級token;不再只是推理幾秒,而是生成完整的視訊序列。這個過程中,真正被瘋狂消耗的,不只是記憶體容量,而是頻寬、資料搬運,以及背後龐大的儲存體系。

也正是在這裡,一個更清晰的結構開始浮現出來:
HBM在撐算力,DRAM在做配套,而真正承接規模的,是被長期低估的NAND。

換句話說,如果還用“DRAM vs NAND”這樣的框架去理解AI,很可能一開始方向就錯了。

一、這份材料真正想說明什麼?

AI時代的“記憶體之爭”本質被誤判——真正的瓶頸既不在DRAM,也不在單一晶片,而是在“HBM算力記憶體 + NAND資料儲存”的協同體系。

二、市場共識是錯的:DRAM ≠ AI

當前市場觀點:

  • DRAM更受益AI(因為資料中心佔比更高)

但作者直接質疑:這個邏輯過於表面

反例:NVIDIA推出大容量NAND儲存平台(單DPU支援150TB)

結論:
AI系統不是“只吃DRAM”,而是同時重度依賴儲存(NAND)

三、底層邏輯變化:AI從“算力問題”變成“記憶體問題”

文件通過Sora / DiT模型給出本質:

AI視訊生成的核心特徵:

  • Token規模:≈400萬級
  • 模型規模:≈500億參數

帶來的結果:

  • 計算不是瓶頸
  • 資料搬運 & 儲存成為瓶頸

本質變化:
AI正在從“Compute-bound” → “Memory-bound”


四、真正的核心記憶體:不是DRAM,而是HBM

這是全文最關鍵的結論之一:

單次視訊生成的記憶體需求:

  • HBM(GPU視訊記憶體):≈280GB
  • DRAM:≈20–90GB

關鍵判斷:

  • HBM才是AI推理的主戰場
  • DRAM只是輔助(系統/快取)

結論:
AI記憶體價值正在從“通用記憶體(DRAM)”轉向“高頻寬記憶體(HBM)”


五、NAND被嚴重低估:AI最終是“儲存驅動”的

文件給出兩個關鍵場景:

1️⃣ 推理側(資料中心)

  • 每個節點需要 ≈140GB NAND(系統+模型)

2️⃣ 內容側(視訊儲存)

  • 單個30秒4K視訊 ≈150MB–268MB

但關鍵在這裡

AI視訊 = 海量生成 × 多版本儲存 × 長尾內容

結論:
真正爆發的是“資料儲存需求”,而不是短期記憶體

六、終局趨勢:AI視訊將引爆“記憶體超級周期”

文件提出一個非常重要的產業推演:

未來形態:即時AI視訊生成(而不是離線生成)

帶來的變化:

  • 內容無限供給
  • 使用者互動增強
  • 廣告嵌入視訊生成

資料規模:全球短影片播放 ≈1兆次/天

那怕:1%變成AI生成

都是天量算力 + 儲存需求

🏁 小編總結


AI時代的記憶體競爭,不是DRAM vs NAND,而是HBM定義算力上限,NAND定義資料規模。 (芯聯匯)