春節見?DeepSeek下一代模型:“高性價比”創新架構,助力中國突破“算力晶片和記憶體”瓶頸

野村證券認為DeepSeek即將發佈的新一代大模型V4,可能通過創新架構mHC和Engram技術進一步降低訓練和推理成本,加速中國AI價值鏈創新周期。同時有望幫助全球大語言模型和AI應用企業加速商業化處理程序,從而緩解日益沉重的資本開支壓力。

野村證券指出,DeepSeek即將發佈的新一代大模型V4,預計不會像去年的V3一般引發全球AI算力需求的恐慌。但它可能通過兩項底層架構創新,加速全球大語言AI應用的商業化處理程序。

華爾街見聞提及,據報導DeepSeek新一代旗艦模型V4預計將於2026年2月中旬面世。內部初步測試表明,V4在程式設計能力上超過了目前市場上的其他頂級模型,如Anthropic的Claude和OpenAI的GPT系列。

一個核心問題再次浮現:V4會再次顛覆全球AI價值鏈嗎?野村證券在2月10日發佈的《全球AI趨勢追蹤》報告中給出了明確的判斷:不會。

研報指出,這次發佈的意義在於V4可能通過創新架構(mHC和Engram技術)進一步降低訓練和推理成本,加速中國AI價值鏈創新周期。

同時有望幫助全球大語言模型和AI應用企業加速商業化處理程序,從而緩解日益沉重的資本開支壓力。

01 創新技術架構帶來性能與成本最佳化

報告指出,算力晶片和記憶體一直是中國大模型的瓶頸。而V4有望引入的兩項關鍵技術——mHC和Engram,從演算法和工程層面針對這些硬約束最佳化。

mHC

  • 全稱為“流形約束超連接”。它旨在解決Transformer模型在層數極深時,資訊流動的瓶頸和訓練不穩定的問題。
  • 簡單說,它讓神經網路層之間的“對話”更豐富、更靈活,同時通過嚴苛的數學“護欄”防止資訊被放大或破壞。實驗證明,採用mHC的模型在數學推理等任務上表現更優。
(超連接與流形約束超連接)

Engram

  • 一個“條件記憶”模組。它的設計理念是將“記憶”與“計算”解耦。
  • 模型中的靜態知識(如實體、固定表達)被專門儲存在一個稀疏的記憶體表中,這個表可以放在廉價的DRAM裡。當需要推理時,再去快速尋找。這釋放了昂貴的GPU記憶體(HBM),讓其專注於動態計算。
(Engram架構)

研報指出這兩項技術的結合對中國AI發展意義重大。用更穩定的訓練流程(mHC)彌補國產晶片可能存在的不足;用更聰明的記憶體調度(Engram)繞過HBM容量和頻寬的限制。

野村強調V4最直接的商業影響就是進一步降低大模型的訓練與推理成本,這種成本效益的提升將刺激需求,屆時中國AI硬體公司將受益於加速的投資周期。

02 硬體受益於“加速周期”

野村認為全球主要雲服務商正全力追逐通用人工智慧,資本開支的競賽遠未停歇。因此V4預計不會對全球AI基礎設施市場造成去年那種等級的衝擊波。

不過全球大模型及應用開發商正背負著日益沉重的資本開支負擔。V4若能如預期般,在維持高性能的同時顯著降低訓練與推理成本,將成為一劑強心針。

它可能幫助這些玩家更快地將技術轉化為收入,緩解盈利壓力。

報告回顧了DeepSeek-V3/R1發佈一年後的市場格局。

此前DeepSeek的兩個模型V3和R1的“算力管理效率”疊加“性能提升”加速了中國LLM與應用發展,也改變了全球與中國大語言模型競爭格局,並推動開源模型更受關注。

(OpenRouter上排名前15的開源模型每周Token消耗量)

在2024年底,DeepSeek的兩個模型曾佔據OpenRouter上開源模型Token使用量的一半以上。但到了2025年下半年,隨著更多玩家加入,其市場份額已顯著下降。

市場從“一家獨大”走向了“群雄割據”。這表明,僅憑單一模型的高效,已不足以統治快速演進的開源生態,如今V4面臨的競爭環境,遠比一年前複雜。

03 軟體或迎來“增值而非被替代”

在應用側,更強大、更高效的V4將催生更強大的AI智能體。

報告觀察到,像阿里通義千問App等,已經能夠以更自動化的方式執行多步驟任務。這意味著,AI智能體正從“對話工具”轉型為能處理複雜任務的“AI助手”。

這些能執行多工的智能體,需要更頻繁地與底層大模型互動,這將消耗更多的Token,進而推高算力需求。

因此,模型效能的提升不僅不會“殺死軟體”,反而為領先的軟體公司創造了價值。

野村強調,需要關注那些能率先利用新一代大模型能力,打造出顛覆性AI原生應用或智能體的軟體公司。它們的增長天花板可能因模型能力的飛躍而被再次推高。 (硬AI)