V3.2逼近Gemini 3,DeepSeek硬氣喊話:接下來我要堆算力了

就在上周,OpenAI前首席科學家、現SSI CEO Ilya Sutskever在最新播客訪談中拋出一個重磅觀點,過去五年的“age of scaling”正在走到頭,預訓練數據是有限的,單純用更多GPU堆更大模型,那怕再放大100 倍,也未必能帶來質變。所以我們又回到了以研究為核心的時代,只不過這次有了巨大的算力”,這一表態被視作對Scaling Law撞牆論的強力佐證。

然而僅過了幾天,12月1日,DeepSeek用V3.2和V3.2-Speciale的發布,給了一個不同的答案。

模型發布後,DeepSeek研究員Zhibin Gou在X上發文:


「如果Gemini-3證明了持續擴展預訓練的可能性,DeepSeek-V3.2-Speciale則證明了​​在大規模上下文環境中強化學習的可擴展性。我們花了一年時間將DeepSeek-V3推向極限,得出的經驗是:訓練後的瓶頸需通過優化方法和數據來解決,而不是僅等待更好的基礎模型。」

他還補了一句:

“持續擴大模型規模、數據量、上下文和強化學習。別讓那些'遭遇瓶頸'的雜音阻擋你前進。”

這是DeepSeek團隊少有的發聲,而這一幕頗有意味,當業界在討論Scaling Law是否撞牆時,DeepSeek用實打實的模型喊話,想證明Scaling沒死,只是換了戰場。

雖然業界普遍認同後訓練的重要性,但敢把相當於預訓練成本10%以上的算力預算砸在RL上的企業仍屬少數。 DeepSeek是真正把這條路線工程化、規模化的代表。

這次發布的兩個模型正是這條路線的產物,V3.2定位日常主力,對標GPT-5;Speciale定位極限推理,對標Gemini 3.0 Pro,並拿下四枚國際競賽金牌。

技術報告Introduction部分有句話值得注意,「過去幾個月,開源社群雖然在持續進步,但閉源模型的性能軌跡正在以更陡峭的速度加速。差距不是在縮小,而是在擴大。」同時點出了當前開源模型的三個核心短板:

過度依賴普通注意力機制導致長序列效率低、後訓練算力投入不足、Agent場景下的泛化能力差。但DeepSeek的態度很明確,問題有解,而V3.2就是他們給的答案。



1

V3.2:高效主力,把自我進化用在通用效率上

V3.2是9月發布的實驗版V3.2-Exp的正式繼任者,目標是平衡推理能力與輸出成本。

在推理類Benchmark測驗中,V3.2達到了GPT-5水準:AIME 2025數學競賽93.1%(GPT-5為94.6%),HMMT 2025二月賽92.5%(GPT-5為88.3%),LiveCodeBench二月評測83.3%(GPT-5為88.3%),LiveCodeBench二月評測83.3%(GPT-5%)。相較於Kimi-K2-Thinking,V3.2在保持相近性能的同時,輸出Token量大幅降低-嚴格的Token約束和長度懲罰讓它更省、更快、更便宜。

V3.2在架構上的核心改變是引入了DeepSeek Sparse Attention(DSA)。這項技術在9月的V3.2-Exp中首次亮相,用稀疏注意力取代傳統的全量注意力,將計算複雜度從O(L²)降到O(Lk)。

V3.2-Exp上線兩個月後,DeepSeek透過多個維度確認了DSA的有效性:標準Benchmark與V3.1-Terminus基本持平,ChatbotArena的Elo評分接近,第三方長上下文評測反而高出4分。這意味著DeepSeek在底層架構創新上走對了路,稀疏注意力可以在不損失效能的前提下大幅提升效率。

V3.2還有一個重要突破,這是DeepSeek首個將「思考」與「工具調用」融合的模型。先前的推理模型(包括OpenAI的o系列)在思考模式下無法調用工具,V3.2打破了這個限制,同時支持思考模式和非思考模式的工具調用。

技術報告中篇幅最大的部分是Agent能力的訓練方法。 DeepSeek建構了一套大規模的Agent任務合成管線,涵蓋1800+環境和85000+複雜指令。

這套流水線的核心設計哲學是「難解答,容易驗證」。以報告中的旅行規劃任務為例:複雜限制組合讓搜尋空間龐大,但驗證方案是否符合限制卻很簡單。這種特性天然適合強化學習,模型可以透過大量嘗試獲得明確的對錯回饋,不需要人工標註。

效果驗證很有說服力,只用合成資料做RL的模型,在Tau2Bench、MCP-Mark等Agent基準上顯著提升,而只在真實環境做RL的模型,這些指標幾乎沒有變化。

值得注意的是,官方特別強調,V3.2並沒有針對這些測試集的工具進行特殊訓練,但在Agent評測中仍達到開源最高水準。這說明模型的泛化能力是真實的,不是靠刷榜優化出來的。



2

V3.2-Speciale:極限推理,把自我驗證用在高階邏輯上

Speciale是V3.2的"長思考增強版"。如果說V3.2透過嚴格的Token約束來優化效率,Speciale則反其道而行-放寬長度限制,鼓勵模型進行更深度的推理。

技術報告中的Table 3很有趣:同樣的任務,Speciale的輸出Token量顯著高於其他模型。例如在AIME 2025上,GPT-5 High輸出13k tokens,Gemini 3.0 Pro輸出15k,而Speciale輸出23k;在Codeforces上差距更大,Speciale輸出77k tokens,是Gemini的3.5倍。

雖然Speciale的Token輸出量極大,但得益於DeepSeek的定價策略和DSA帶來的效率提升,即便算上這些額外的"思考過程",其最終使用成本依然碾壓對手:比GPT-5便宜約25倍($0.4 vs $10),比Gemini 3.0 Propus Pro30約25倍($0.4 vs $10),比Gemini 3.0 Propus Pro30約30 月($25454545)。

Speciale的意義不只是“讓模型想更久”,而是驗證了一個重要的假設,對推理“過程”的監督,能否從數學證明泛化到更廣泛的領域?

上周剛發布的DeepSeekMath-V2提出了「生成器-驗證器」雙模型架構,生成器負責產出證明,驗證器評估證明的嚴謹性和完整性,驗證結果作為reward訊號回饋給生成器。這套機制的關鍵創新在於如何保持“生成-驗證差距”,當生成器變強後,驗證器也需要同步提升。 DeepSeek的解決方案是動態擴展驗證計算,以更多計算資源自動標註「難以驗證」的證明,持續合成高難度訓練數據,實現模型的可持續自我進化。

Speciale整合了Math-V2的資料集和獎勵方法,不僅追求最終答案正確,更追求推理過程的嚴謹性和完整性。它將這套原本用於數學定理證明的“過程監督”,成功地遷移到了程式碼生成和通用邏輯任務。 這意味著「自我驗證」不是數學領域的特例,而是一種可泛化的能力提升範式。結果也相當不錯:


3

不缺算力的DeepSeek會帶來什麼?

有網友評論說,每篇DeepSeek論文最重要的部分永遠是「結論、限制與未來工作」部分。這次的技術報告也不例外,他們說:“首先,由於總訓練FLOPs較少,DeepSeek-V3.2 的世界知識廣度仍落後於領先的閉源模型。我們計劃在後續版本中,通過擴大預訓練算力來彌補這一知識差距。”

報告中承認,由於總訓練FLOPs 較少,V3.2 的世界知識廣度仍落後於Gemini 3.0 Pro。但DeepSeek 的選擇並不是等待一個更大的基礎模型,而是先把方法論打磨到極致,用一年時間,透過合成資料、自我驗證和大規模RL,把後訓練的上限真正跑出來。

從這次的發布也能看出這條路線的成果:

V3.2 將「自我進化式工程」(高RL 預算、合成資料閉環)應用在通用效率上;

  • Speciale 則把過程獎勵與自我驗證機制推向高階邏輯推理。

兩者共同指向同一個方向:未來的模型不再依賴人力堆砌,而是依靠自我博弈來實現持續演進。

下一步就是擴大預訓練算力來彌補知識差距。這也讓人聯想,一是DeepSeek真把算力補上來,會發生什麼事?二是,這些新的算力資源從那裡來?

回頭看過去一年的技術路徑,Janus的多模態統一架構、OCR的視覺壓縮記憶、NSA的長上下文效率、Math-V2的自我驗證……這些創新都是在V3這個基座上迭代出來的。

那麼,一個參數更大、訓練FLOPs 更多的V4,再疊加這些已經驗證有效的方法論,會出現怎樣的化學反應?

一個合理、甚至是大膽的預期是,當V4 或R2 到來時,我們看到的可能已經不是傳統意義上的“更強語言模型”,而是一個能夠感知多模態環境、具備更長期記憶、並能在真實交互中持續進化的系統。如今發生在合成環境中的自我博弈,未來可能會延伸到真實環境的線上學習。

而在算力上,在今天輝達頻繁形容其中國市場份額已經歸零的背景下,繼續scaling需要的算力資源看起來不太能夠靠H800們提供,下一代模型會用什麼樣的更大的算力資源訓練,如果這些算力缺口可以被補齊,完全形態的DeepSeek下一代模型會是什麼樣?這些顯然更重要,也更讓人產生聯想。(矽星人PRO)