#Memory
周末總結篇:AI敘事分化、AI Agent和Memory超級周期
AI敘事分化最近北美大廠的財報又陸續出來了,亞馬遜、Google、Meta 和微軟計畫在 2026 年投入約 6600 億美元的資本支出。但這次,市場對大廠們激進的資本開支和前段時間甲骨文的RPO的反應,跟去年完全不同了,只畫大餅已經不再被認可了。現在市場對AI價值的評判標準已從技術先進性或使用者規模轉向對收入結構、盈利能力及現金流的實際貢獻。AI不再是統一估值加分項,市場開始區分“已兌現收益”與“投入期遠景”,定價差異更多反映企業所處商業化階段。能夠率先證明AI投入轉化為可持續盈利的公司更易獲得市場認可,ROI與自由現金流成為關鍵定價指標。隨著AI需求擴張,市場對玩家的定價差異將聚焦於商業化階段,而非長期價值分歧。SemiAnalysis又是連著兩天出了兩篇文章,內容都比較長,我們還是只講裡面的主要觀點。AI 智能體發展的核心轉折點1、Claude Code 是 AI 智能體發展的核心轉折點這並非單純因其實現了 AI 寫程式碼的功能升級,而是它完成了從 AI 模型被動響應 到 AI 智能體主動執行的範式突破,徹底重構了人機互動的底層邏輯,同時成為 AI 從單一工具向通用協作體進化的標誌性產物,其轉折點意義體現在技術形態、能力邊界、行業落地、發展方向四個核心維度,是對過往 AI 工具的全面超越,也為 AI 智能體的未來發展奠定了核心範式。Claude Code 引領的 AI 智能體變革,已永久性重構智能工作的行業格局,這場變革會對幾乎所有智能工作領域的傳統在位企業形成強烈衝擊。AI 智能體的普及讓軟體開發、資訊處理的邊際成本趨於零,能直接替代傳統軟體的核心功能,瓦解了 SaaS 等傳統軟體的護城河,顛覆了按席位計費的傳統軟體商業模式,那些依靠售賣軟體產品、依託人工操作的軟體公司,不會因 AI 發展獲得更多市場需求,反而會因智能體的替代效應失去原有市場,就像網際網路廣播並未讓傳統廣播行業通過賣更多廣播相關產品獲益,反而徹底改變了音訊傳播的業態,傳統軟體行業也無法再以原有方式在 AI 變革中獲利,其既有的商業邏輯和市場空間已被 AI 智能體徹底重構。2、過長的上下文窗口會導致邏輯連貫性下降這是 Anthropic 經多場景實測得出的核心技術結論,也是當前 AI 智能體發展的關鍵瓶頸,這個問題具有跨模型、跨任務的普適性,無論衡量推理 Token 數量、智能體動作次數還是最佳化器步驟,模型的推理和動作時間越長,邏輯連貫性就越差,且在多步驟、跨上下文的長程任務中,這一現象會被持續放大,而短步驟簡單任務中則無明顯影響。其核心成因源於兩方面,一是模型單步驟推理的微小誤差會在長鏈條中不斷復合、放大,如同傳話遊戲最終偏離初始目標;二是部分模型單純擴大窗口卻未最佳化 Token 效率,海量冗餘 Token 形成的噪聲掩蓋了有效訊號,讓模型難以聚焦核心資訊,出現記漏關鍵條件、重複無效推理等問題,典型如 OpenAI GPT-5.2 High,雖有更大上下文窗口,但完成任務的 Token 消耗量遠高於 Anthropic Opus 4.5,長程任務連貫性表現更差。儘管 ChatGPT 擁有大得多的上下文窗口,但“任務-Token”效率曲線卻揭示了不同的情況。為了刷榜而 最佳化的 ChatGPT 可能在評估中得分更高,但完成任務所需的 Token 數量卻高出一個 數量級,這實際上毀掉了任何長程規劃的可能性。3、微軟陷入核心業務衝突的致命困境微軟兩大核心業務 Azure 雲服務與 Office 365 生產力軟體的戰略訴求完全對立、相互牽制。Azure 作為全球頭部 AI 雲服務商,是 OpenAI、Anthropic 等 AI 企業的核心算力供應商,其營收增長是微軟的未來價值核心,但這些合作方的 AI 智能體產品,正精準顛覆 Office 365 的商業根基 —— 智能體瓦解了 SaaS 軟體的資料鎖定、工作流繫結等護城河,替代了 Office 的核心功能,衝擊著按席位計費的模式,而 Office 365 仍是微軟當下的主要現金流來源。微軟陷入 “左右互搏”:全力發展 Azure,就是為顛覆自身核心業務的 “對手” 提供算力支援,加速 Office 365 的衰落;加大投入保護 Office 365,推進 Copilot 產品,又會分散 Azure 的算力和戰略精力,錯失雲服務增長機遇。雪上加霜的是,微軟的 Copilot 產品雖有一年先發優勢,卻在落地中幾乎無進展,第三方的 Claude for Excel 還實現了其本應具備的功能,產品競爭力持續下滑;同時其核心 AI 合作夥伴 OpenAI 也正被 Anthropic 顛覆,進一步加劇了微軟的被動。微軟不得不持續加大 AI 投入,否則 Office 365 的價值將大幅縮水,而 CEO 親自接手 AI 產品管理,也足以見得這場業務衝突的解決與否,關乎公司的整體發展命運。四十年一遇的超級儲存周期1、儲存行業周期性儲存行業的周期性,核心源於供需響應的嚴重時間錯配,並由行業自身產業特性持續放大。供給端,儲存晶片製造屬於超高資本密集型領域,先進晶圓廠建設需數十億美元投入,且從建廠、偵錯到量產要歷經數年周期,供給彈性極低,無法隨市場需求快速調整;即便需求走弱,因晶圓廠前期投入為沉沒成本,只要售價覆蓋現金營運成本,廠商就會持續生產,這會在下行期進一步加劇市場過剩。需求端則受宏觀經濟、終端產品周期、新計算平台落地等因素影響,呈現出高度波動性,需求可隨技術趨勢爆發式增長,也可因經濟下行快速萎縮。此外,製程節點遷移不會因需求疲軟停滯,新製程帶來的位元產出提升,會在市場下行期進一步增加供給、加重價格下跌壓力;而行業過往資本紀律性不足,漲價周期中廠商扎堆擴產,待產能集中釋放時,市場往往已從短缺轉向過剩,最終形成 “短缺 - 漲價 - 擴產 - 過剩 - 降價” 的循環周期。即使是規模最⼤的儲存超級周期也不會⽆限期持續,SA認為本輪周期也不例外。本輪周期的規模可能更⼤,持續時間也可能⽐以往周期更⻓。在SA看來,這⼀超級周期可以延伸⾄2027 年,⽽到 2027 年底⾄ 2028 年,市場環境將變得更具挑戰性和波動性。2、當前 AI 驅動超級周期本輪由 AI 算力驅動的儲存超級周期為行業四十年一遇,核心特徵是規模大、周期長,且呈現 HBM 與通用 DRAM 雙短缺的供需失衡,這是需求端結構性爆發與供給端多重約束共同作用的結果。從資料來看,2026-2027 年 DRAM 整體供給缺口維持 7%,HBM 短缺缺口將從 2025 年 5% 擴大至 2027 年 9%,形成雙短缺困境。需求端,AI 成為核心增長引擎,AI 伺服器對 HBM 需求激增,三大廠商 2023-2025 年 HBM 晶圓產能提升 2.7 倍,2027 年 HBM 將佔其超 1/3 DRAM 晶圓產能;但 HBM 產能擴張不僅擠壓通用 DRAM 產能,其單位晶圓位元產出僅為通用 DRAM 的 1/3(HBM4 階段將達 1/4),進一步加劇通用 DRAM 短缺。供給端則面臨三重硬性約束:疫情後資本開支謹慎導致潔淨室產能不足,2026 年行業增量產能僅集中在 3 家工廠且多數投向 HBM;新產線落地滯後,核心產線均要 2027 年才能實現晶圓產出;先進製程遷移存在短期摩擦,良率爬坡導致產能暫時波動,無法快速形成有效供給。3、製程遷移與資本開支雙輪驅動面對供需失衡,頭部廠商核心通過加速先進製程遷移和大幅提升資本開支提升位元產出,緩解供給缺口。製程遷移上,三大廠商將 1b、1c 作為核心方向,2025 末 - 2027 末其合計產能將提升 80%,2026 年末三家廠商 1c 製程產能佔比均接近 30%,該製程能顯著提升單位晶圓位元產出,也是為 2027 年 HBM4E 量產做準備;但製程遷移存在短期執行摩擦,新產線偵錯、良率爬坡會導致產能暫時下降。資本開支上,2026 年三星、SK 海力士、美光的 DRAM 晶圓廠裝置資本開支分別提升 26%、34%、20%,資金核心用於 HBM 產能擴張、1b/1c 製程的 EUV 層數提升、2027 年新產線建設,其中 EUV 裝置需求激增,成為上游裝置行業核心增長亮點。4、價格暴漲與競爭分化並存本輪供需失衡引發 DRAM 價格歷史級暴漲,同時行業價格分化、技術主導的競爭格局凸顯,頭部廠商盈利表現差異顯著。通用 DRAM 領域,2026 年一季度 DDR5、LPDDR5 合約價環比分別漲 70%、35%,同比漲幅達 638%、369%,且預計 2025 年四季度 - 2026 年四季度價格或將再翻倍。HBM 領域,HBM3E 12-Hi 因供給短缺,2026 年價格從預期下跌 15-20% 調整為持平,三星還有望實現 10-15% 漲幅;HBM4 競爭由韓系廠商主導,三星、SK 海力士樣品引腳速度達 10Gbps,美光顯著落後,在 NVIDIA Rubin 平台初期供應中,SK 海力士佔 60%、三星佔 30%,美光無份額。盈利端,三星因通用 DRAM 佔比更高受益最顯著,SK 海力士憑藉 HBM 技術優勢佔據高端市場,美光受 HBM4 技術短板影響,受益程度弱於前兩者。5、產業鏈傳導:上游紅利與下游壓力兩極分化儲存行業的超級周期沿產業鏈快速傳導,形成上游裝置 / 材料商顯著受益,下游終端 OEM 廠商承壓的兩極格局。上游環節,晶圓廠裝置、材料商承接廠商大幅資本開支訂單,EUV 裝置廠商及 HBM 製造專用材料、裝置商需求激增,行業資本開支增長趨勢從邏輯晶片延伸至儲存領域,利多整個上游裝置產業鏈。下游環節,記憶體價格暴漲推高終端產品 BOM 成本,頭部廠商如蘋果憑藉採購優勢僅面臨 15% 左右漲幅,但仍無法完全轉嫁成本,毛利率受拖累;中小 OEM 廠商尤其是國內手機廠商缺乏定價權,只能通過中低端機型降配、漲價緩解壓力,2026 年手機、PC 出貨量面臨下調預期。PC 行業還遭遇記憶體 + 處理器雙漲價,進一步推高產品價格,降低需求彈性;AI 伺服器領域也受記憶體漲價影響,TCO 上升給雲廠商和 ODM 帶來成本挑戰,不過伺服器 DRAM 需求高增,足以抵消消費級 DRAM 的需求疲軟。6、未來演變:超級周期持續至 2027,行業或迎長期變革本輪 AI 驅動的超級周期預計持續至 2027 年,2027 年末 - 2028 年市場逐步從短缺向平衡過渡,行業還可能迎來商業模式的長期變革。短期(2026-2027 年),行業產能加速落地,新產線投產時間表提前,潔淨室產能約束逐步緩解,但核心產線 2027 年才實現實質性產出,因此短缺格局仍將維持,DRAM 價格高位運行;同時 1b、1c 製程將大規模遷移,成為提升位元產出的核心手段。中期(2027 年末 - 2028 年),新產線集中釋放、製程遷移完成,行業供給缺口逐步縮小,價格進入平穩階段;但 HBM 仍為廠商戰略重心,產能分配優先傾斜 HBM,其與通用 DRAM 的產能矛盾將持續存在。長期來看,本輪短缺或推動行業商業模式變革,儲存廠商有望與雲廠商簽訂長期供貨合約,弱化行業固有周期性;同時伺服器 DRAM(含 HBM)在整體需求中的佔比將持續提升,2027 年 HBM 需求佔比超 10%,伺服器 DRAM 整體佔比約 40%,成為行業需求核心支柱,行業需求結構實現根本性最佳化;此外,廠商的產能擴張和技術升級將持續推高上游裝置需求,上游裝置商將長期受益。 (傅里葉的貓)
Memory的超級大周期
我們近期已經寫過很多篇Memory的內容,有興趣的讀者可以看下之前的文章。兆的OpenAI,漲瘋的Memory和新出爐的DeepSeek聊一聊Memory--被低估的兆賽道儲存市場上行趨勢在昨天的文章中我們就講過,現在很多伺服器生意,因為DDR漲價,已經很難做了,本來談好的價格,沒成想DDR價格瘋漲,預留出的利潤空間直接被DDR的漲價吃掉,又得跟客戶重新談價。這些物料的漲價,會先反應在產業界,然後才會是資本市場。野村證券甚至給了“前所未有的超級周期”來形容這次的Memory大周期,DRAM、HBM和NAND的三重超級周期。市場現狀先放幾張NAND和DRAM的價格走勢:根據近期行業動態,上游資源漲價傳導至嵌入式成品端,前兩周 eMMC、UFS 普遍大幅調漲,LPDDR4X 因部分原廠暫停報價且計畫大幅上調資源價格,看漲情緒升溫後再次上漲;隨著 Q3 末儲存廠商業績衝刺結束進入盤點結算,管道市場前期快速消耗現貨促流水變現導致 SSD 成品缺貨,疊加 PC 客戶備貨意願升溫,儲存廠商多採取控貨惜售策略,部分甚至暫停報價、控制接單節奏。今年4月開始,三星和SK海力士逐步減少DDR4產能,轉向更高利潤的DDR5、LPDDR5和HBM記憶體生產。這也直接導致DDR4系列價格的暴漲。9 月 24 日,美光將 2025 年伺服器總出貨量增長預期上調至約 10%,高於此前中等個位數的預期,其中傳統伺服器出貨預期從持平轉為中等個位數增長,這一變化主要受 AI agents 增長及其帶動的傳統伺服器工作負載、企業應用需求增加推動,同時 AI 伺服器增長持續強勁,二者共同驅動美光 DRAM 產品需求增長,美光還預計 2026 年行業 DRAM 供應將趨於緊張。同日美光科技 CEO 在財報電話會上進一步指出,全球儲存晶片尤其 HBM 供需不平衡將加劇,當前 DRAM 庫存低於目標、NAND 庫存持續下降,且 2026 年 HBM 產能已基本鎖定,需求增長顯著,出貨量增速預計超整體 DRAM,將成為儲存類股核心增長動力。9 月 25 日 TrendForce 指出,雖 2025 年下半年旺季需求因上半年消費市場需求透支未達預期,市場原預估 Q4 NAND Flash 價格進入盤整,但受 HDD 供給短缺、交期過長影響,雲端服務供應商快速將儲存需求轉向 QLC Enterprise SSD,短期急單湧入,疊加閃迪率先宣佈調漲 10%、美光因價格與產能配置暫停報價,供應端情緒轉積極,預計 Q4 NAND Flash 各類產品合約價平均上漲 5-10%。漲價核心原因根據野村證券的那份報告,這個超級周期的核心驅動因素包括:AI與資料中心需求爆發:美國科技巨頭持續擴大AI伺服器投資,2026年傳統伺服器資本支出預計增長20-30%,帶動DDR4/DDR5記憶體需求增長約50%,企業級SSD需求近乎翻倍。NAND市場因HDD供應短缺和AI儲存需求激增,預計2026年位元出貨量同比增長超50%。價格與利潤率躍升:DRAM營業利潤率將從當前的40-50%升至2026年的近70%(接近2017年峰值),NAND利潤率將從盈虧平衡點躍升至30-40%。HBM雖面臨競爭(三星2026年重返輝達供應鏈),但混合均價預計2025-2026年保持15%以上年增長,貢獻SK海力士75%的營業利潤。輝達上周剛宣佈了投資OpenAI 10GW的資料中心,奧特曼接著又講到2033年OpenAI規劃250GW...這比目前整個印度的耗電還要高,可以預見未來幾年對電力的需求得有多大,當然柴發的需求也很強。之前有群友問柴發在資料中心的作用,這裡再科普一下,柴發是備用的,一般資料中心都會接兩路電進來,以防萬一一路突然停電。柴發是在兩路電都突然出問題的時候啟用的。雖然是備用 ,但也是必須的。為什麼現在Memory才開始暴漲?看到這裡,其實讀者可能會有個疑惑。AI的資料中心一直在大幅擴張,輝達、博通,甚至國內的伺服器相關產業鏈公司(PCB、光模組、液冷、高速連接器)等,無論是營收還是股價,都已經漲了很多倍了,而DRAM和NAND在前兩年並未暴漲,而在近期才出現明顯反應?此前兩年 DRAM、NAND 需求未明顯增長,並非技術端毫無變化,而是需求端處於 “積累期”,尚未形成規模化爆發。一方面,前兩年 AI 技術雖在發展,但多停留在模型訓練與小規模驗證階段,網際網路大廠的 AI 產品大多處於探索、內部測試或灰度測試階段,業務滲透率僅 20%-30%,未進入大規模商業化落地階段 —— 比如當時的 AI 對話產品使用者量多在千萬級以下,且互動頻次、單次對話產生的 token 量有限,對儲存的需求僅集中在 HBM 等高性能儲存上,DRAM、NAND 這類支撐海量資料分層儲存的產品,尚未面臨大規模需求壓力。另一方面,前兩年的 AI 對話邏輯以 “快思考” 為主,模型多依賴自身知識庫直接生成答案,最多結合簡單搜尋,token 消耗較低,比如生成一份報告僅需 3000token 左右,且未引入外部 agent 協同,資料互動量有限,自然難以拉動 DRAM、NAND 的需求增長。近月儲存需求突然爆發,首先源於 AI 業務從 “積累期” 邁入 “高滲透期”,需求端出現實質性突破。當前網際網路大廠的 AI 產品已完成探索、測試到成熟上線的全流程,業務滲透率提升至 30%-40%,使用者規模大幅擴張 —— 以豆包為例,DAU 從年初的 1000 萬 - 2000 萬增至近 4000 萬,且不僅是獨立 AI 產品,支付、社交、電商、地圖等傳統網際網路產品也在加速 AI 重構,比如電商平台通過 AI 生成使用者動態畫像、新增 “AI 萬能搜”,這些變化讓使用者與 AI 的互動頻次顯著增加。按單使用者日均發起 10 次 Query、每次消耗 2000token 計算,單使用者日均 token 消耗達 2 萬,再疊加雲端運算廠商為保障資料安全的 3 份備份機制,資料總量呈指數級增長,而這些資料需要通過 DRAM、NAND(SSD 核心元件)進行分層儲存,直接拉動了兩類產品的需求。其次,AI 技術邏輯的升級,進一步放大了對 DRAM、NAND 的儲存需求。2025 年以來,AI 對話邏輯從 “快思考” 升級為 “慢思考”,模型不僅引入 “思維鏈” 拆解問題 —— 單拆解環節就需消耗近 2000token,還會呼叫外部 agent 協同,比如使用者提問時,模型需訪問地圖、支付、本地生活、搜尋引擎等外部資料介面,形成 “模型 + 多 agent” 的互動架構。這種變化讓 token 消耗大幅增加:去年生成一份報告約需 3000token,如今因需檢索、分析大量外部資訊,整個流程 token 量可達 3 萬以上,是此前的 7-10 倍。同時,海外頭部模型全面轉向多模態,處理圖片、視訊、社交媒體等多模態資訊時,會產生更多非文字資料,這些資料同樣需要 DRAM 暫存、NAND(SSD)儲存,進一步加劇了儲存需求的爆發。最後,AI 基礎設施的重構需求,也推動 DRAM、NAND 需求集中釋放。此前行業未大規模佈局分層儲存架構,隨著需求爆發,企業意識到若不提前建構 “熱資料(HBM)- 溫資料(DRAM/SSD)- 冷資料(HDD / 大容量 SSD)” 的分層儲存體系,未來更大規模需求來臨時,不僅會面臨儲存容量不足的問題,還會因儲存成本失控影響盈利。因此,當前網際網路大廠紛紛啟動 AI 基礎設施重構,按分層儲存需求採購 DRAM、SSD(依賴 NAND),比如用 DRAM 承擔 KV cache 溢出處理與熱 - 溫資料橋接,用 SSD 儲存溫資料與部分冷資料,這種集中式的基礎設施建設,直接轉化為 DRAM、NAND 的短期大量訂單,供需關係的緊張最終推動產品價格上漲。持續周期根據野村的分析,當前由AI需求驅動的“超級周期”預計至少持續到2027年,但可能在2028年出現下行轉折。幾個輝達相關的問題在 SK 海力士、三星與 NVIDIA 的 HBM 價格談判方面,目前雙方針對 HBM3E 12Hi 和 HBM4 的定價尚未最終敲定,DRAM 廠商的報價與 NVIDIA 的預期之間仍存在差距。不過,隨著儲存大宗商品市場前景顯著改善,且 ASIC 領域競爭對手對 HBM 的需求持續增加,談判局勢正逐漸向有利於 DRAM 廠商的方向傾斜。從當前趨勢來看,最終定價結果大機率會更貼近 DRAM 廠商的預期,若這一判斷落地,此前對 HBM 市場的增長預測或將迎來更高的上行空間。針對 NVIDIA 提出的 HBM4 速度需突破 10Gbps 的要求,不同 DRAM 廠商的應對能力與產品佈局存在一定差異,但整體不會對 HBM 市場造成顯著衝擊。其中,三星採用 1C 奈米工藝,其 10Gbps 以上速率的 HBM4 產品佔比相對更高,不過受工藝特性影響,該公司 HBM4 的整體良率可能低於同行;美光原本為 8Gbps 速率設計的基礎晶片正處於重新設計階段,以適配更高速度需求;SK 海力士則計畫通過對現有產品進行篩選,挑選出速率超 10Gbps 的產品交付給 NVIDIA。綜合來看,三星、美光、SK 海力士三家頭部廠商均具備供應符合 NVIDIA 速度要求的 HBM4 產品的能力,因此這一技術要求對整體 HBM 市場的影響有限。NVIDIA 推出的 CPX 方案將對不同類型儲存產品的需求產生分化影響。一方面,CPX 方案預計將推動 Rubin 平台對 GDDR7 的大規模採用,為 GDDR7 市場帶來顯著增量;另一方面,該方案可能會對 HBM4 的需求形成一定壓制,短期內對 HBM4 市場造成負面影響。從長期視角來看,CPX 方案能提升整個系統的推理效率,儘管可能會削弱 HBM 的潛在需求,但從中長期維度,它有助於降低 token 成本,進而加速 AI 市場需求的整體增長。對於 DRAM 廠商而言,GDDR7 需求的大幅增長將有效抵消 HBM 需求減少帶來的衝擊,整體收益仍有保障。此外,NVIDIA 還在研發另一項儲存解決方案 ——HBF(高頻寬快閃記憶體)。該方案的核心思路是利用大容量堆疊 NAND 替代 HBM 來建構 HBF,從而提升系統的成本效益。這一舉措表明,NVIDIA 正不斷豐富自身的產品技術規格,通過整合 CPX、HBF 等不同的儲存層級方案,最佳化儲存資源配置,最終實現整個 AI 系統成本效率的提升,進一步鞏固其在 AI 硬體生態中的競爭力。 (傅里葉的貓)