有關Deepseek V4 要來的消息可以說是從去年炒到今年,本月真的要來了嗎?根據相關報導——DeepSeek創始人梁文鋒近日在內部溝通中透露,DeepSeek V4將於4月下旬正式發佈。真的可謂是“千呼萬喚始出來,猶抱琵琶半遮面”了!但從節奏上看,這一訊號並非孤立出現:首先是,Deepseek 網頁端出現疑似新模型測試痕跡。在4月8日,Deepseek 上線“專家模式”與“快速模式”;以及在部分使用者中又增添了一個視覺模式(vision),被認為是V4 版本的灰度測試。第二,多項關於“兆參數、超長上下文、國產算力適配”的資訊開始集中流出。換句話說,DeepSeek V4 的發佈,從“長期預期”,進入到了可驗證的倒計時階段。網傳模型更新內容有關V4的模型內容在網路上傳的沸沸揚揚,有的媒體使用了洩露的基準測試資料進行了測試。網傳的更新內容包括:最佳化 MoE 架構,推理成本極低繼承 V3 的 MoE 設計,但更進一步。採用兆參數混合專家架構,每次推理過程中,只有約 320 億個參數處於啟動狀態。這使得推理成本和速度與 V3 相當,甚至 API 定價可能比 GPT-5.4 等低 20-50 倍。有網友評論:“V4 改變了幾乎所有內容,除了每花一美元最大化能力的核心理念。”引入Engram 條件記憶:“記”與“算”分開引入條件記憶機制,將靜態知識儲存與動態推理計算分離,能夠高效地從超過 100 萬個詞元的上下文中檢索資訊。傳統 Transformer 把所有知識塞進參數,容易導致長上下文檢索衰退;Engram該模組將經典的 N-gram 嵌入現代化,以實現 O(1) 尋找。效果也很顯著:提升了長上下文檢索能力(例如,Multi-Query NIAH:從 84.2 提升到 97.0);減輕 Transformer 主幹負擔,讓模型“記性好”且不浪費視訊記憶體——與 MoE 的條件計算互補。備註:2026 年 1 月 DeepSeek 開放原始碼的論文技術 | GitHub: deepseek-ai/EngrammHC(Manifold-Constrained Hyper-Connections,流形約束超連接)這是 DeepSeek 在 2026 年1月份發佈的另一項架構創新論文成果,主要解決超大規模(兆級)訓練中的梯度不穩、訊號爆炸問題。備註:論文連結 https://arxiv.org/abs/2512.24880通過 Sinkhorn-Knopp 等數學約束,將層間連接投影到流形上,把訊號放大控制在合理範圍(例如從傳統方法的 3000 倍壓到 1.6 倍以內)據報導:可提升訓練效率約 30%,讓兆參數模型的訓練變得可行。除此之外,還有降低注意力計算成本的DSA機制——這使得 1M 上下文窗口成為可能等等。等到Deepseek-v4正式發佈,各位大佬可以對照一下~採用國產晶片這個可以說是小編最期待的一點。晶片問題一直是行業最敏感也最關鍵的痛點。過去幾年,中國大模型開發幾乎離不開輝達GPU,從訓練到推理都高度依賴CUDA生態。一旦遇到出口管制或供應鏈波動,整個AI落地節奏就會被卡住。而根據The information媒體的報導:DeepSeek 即將推出的 V4 型號將採用華為技術有限公司生產的硬體;與華為和寒武紀科技直接合作,對 V4 核心軟體架構的部分內容進行了修改;V4 預計將在未來幾周內亮相,同時還將推出另外兩款正在研發中的衍生型號。而在以往大模型開發,早期測試往往優先給輝達、AMD等美系晶片測試。而V4反過來,將完全運行在華為最新AI晶片上(主要為Ascend 950PR,部分適配寒武紀晶片)。阿里、字節跳動、騰訊等巨頭已提前向華為採購數十萬顆新一代昇騰晶片(Ascend 950PR等),晶片價格一度上漲約20%。華為3月發佈的Atlas 350加速卡搭載該晶片,FP8算力達1PFLOPS、FP4算力達2PFLOPS,支援多種低精度,單卡性能強勁。X上神秘的Elephant Alpha.在正式發佈前,通過匿名模型進行灰度測試,正在成為大模型行業的常見方式。在今年2月,一個名為Pony Alpha的匿名模型出現在OpenRouter上,五天後智譜確認這是其GLM-5系統的一部分;OpenRouter 上也曾短暫出現Hunter Alpha和Healer Alpha,憑藉兆參數與超長上下文迅速引發關注,並一度被猜測為 DeepSeek V4 的前期測試版本——後續被證實是小米 MiMo-V2系列的早期測試版。而昨天, X.上又出現了一款名為 Elephant Alpha 且擁有 1000 億參數的即時模型,讓網友興奮起來了!有網友猜測是 DeepSeek V4,也有網友認為它是Qwen,或者其他系列的模型,與騰訊混元同步發佈根據相關媒體報導: DeepSeek V4或與騰訊混元或將同期發佈。而混元模型的負責人姚順雨曾經是OpenAI研究員,於2025年底從OpenAI回國加入騰訊。DeepSeek V4或與騰訊混元的這次撞期,並非是簡單的同台PK,更像是大模型兩條技術路徑(“底層架構+自主硬體”和“場景驅動+Agent落地”)的碰撞。 (51CTO技術堆疊)