野村證券認為DeepSeek即將發佈的新一代大模型V4,可能通過創新架構mHC和Engram技術進一步降低訓練和推理成本,加速中國AI價值鏈創新周期。同時有望幫助全球大語言模型和AI應用企業加速商業化處理程序,從而緩解日益沉重的資本開支壓力。
野村證券指出,DeepSeek即將發佈的新一代大模型V4,預計不會像去年的V3一般引發全球AI算力需求的恐慌。但它可能通過兩項底層架構創新,加速全球大語言AI應用的商業化處理程序。
華爾街見聞提及,據報導DeepSeek新一代旗艦模型V4預計將於2026年2月中旬面世。內部初步測試表明,V4在程式設計能力上超過了目前市場上的其他頂級模型,如Anthropic的Claude和OpenAI的GPT系列。
一個核心問題再次浮現:V4會再次顛覆全球AI價值鏈嗎?野村證券在2月10日發佈的《全球AI趨勢追蹤》報告中給出了明確的判斷:不會。
研報指出,這次發佈的意義在於V4可能通過創新架構(mHC和Engram技術)進一步降低訓練和推理成本,加速中國AI價值鏈創新周期。
同時有望幫助全球大語言模型和AI應用企業加速商業化處理程序,從而緩解日益沉重的資本開支壓力。
報告指出,算力晶片和記憶體一直是中國大模型的瓶頸。而V4有望引入的兩項關鍵技術——mHC和Engram,從演算法和工程層面針對這些硬約束最佳化。
mHC:
Engram:
研報指出這兩項技術的結合對中國AI發展意義重大。用更穩定的訓練流程(mHC)彌補國產晶片可能存在的不足;用更聰明的記憶體調度(Engram)繞過HBM容量和頻寬的限制。
野村強調V4最直接的商業影響就是進一步降低大模型的訓練與推理成本,這種成本效益的提升將刺激需求,屆時中國AI硬體公司將受益於加速的投資周期。
野村認為全球主要雲服務商正全力追逐通用人工智慧,資本開支的競賽遠未停歇。因此V4預計不會對全球AI基礎設施市場造成去年那種等級的衝擊波。
不過全球大模型及應用開發商正背負著日益沉重的資本開支負擔。V4若能如預期般,在維持高性能的同時顯著降低訓練與推理成本,將成為一劑強心針。
它可能幫助這些玩家更快地將技術轉化為收入,緩解盈利壓力。
報告回顧了DeepSeek-V3/R1發佈一年後的市場格局。
此前DeepSeek的兩個模型V3和R1的“算力管理效率”疊加“性能提升”加速了中國LLM與應用發展,也改變了全球與中國大語言模型競爭格局,並推動開源模型更受關注。
在2024年底,DeepSeek的兩個模型曾佔據OpenRouter上開源模型Token使用量的一半以上。但到了2025年下半年,隨著更多玩家加入,其市場份額已顯著下降。
市場從“一家獨大”走向了“群雄割據”。這表明,僅憑單一模型的高效,已不足以統治快速演進的開源生態,如今V4面臨的競爭環境,遠比一年前複雜。
在應用側,更強大、更高效的V4將催生更強大的AI智能體。
報告觀察到,像阿里通義千問App等,已經能夠以更自動化的方式執行多步驟任務。這意味著,AI智能體正從“對話工具”轉型為能處理複雜任務的“AI助手”。
這些能執行多工的智能體,需要更頻繁地與底層大模型互動,這將消耗更多的Token,進而推高算力需求。
因此,模型效能的提升不僅不會“殺死軟體”,反而為領先的軟體公司創造了價值。
野村強調,需要關注那些能率先利用新一代大模型能力,打造出顛覆性AI原生應用或智能體的軟體公司。它們的增長天花板可能因模型能力的飛躍而被再次推高。 (硬AI)