12月2日,DeepSeek 發佈了 V3.2 技術報告。在這篇論文裡,他們做了一件罕見的事:明確指出開源大模型與閉源模型的性能差距不是在縮小,而是在擴大。這是基於大量實測資料的冷靜判斷。差距正在拉大,這是事實2024年,當 DeepSeek、Qwen、GLM 等開源模型接連發佈時,社區充滿樂觀情緒。"8個月時間差"的說法廣為流傳,許多人相信開源正在追上閉源。但進入2025年,情況發生了變化。DeepSeek 在論文引言部分直言不諱地寫道:“過去幾個月出現了明顯的分化。雖然開源社區持續進步,但閉源專有模型的性能提升速度顯著更快。結果是,兩者的差距非但沒有縮小,反而在擴大,閉源系統在複雜任務上展現出越來越強的優勢。”這個觀察有資料支撐。論文對比了 DeepSeek V3.2 與 GPT-5、Gemini 3.0 Pro 在多個基準測試上的表現。在 MMLU-Pro(多學科知識測試)中,DeepSeek V3.2 得分 85.0,GPT-5 是 87.5,而 Gemini 3.0 Pro 達到了 90.1。在 GPQA Diamond(研究生等級科學問題)測試中,三者的得分分別是 82.4、85.7 和 91.9。更明顯的差距體現在 HLE(Human Last Exam,極難的文字推理測試)中。DeepSeek V3.2 的得分是 25.1,GPT-5 是 26.3,而 Gemini 3.0 Pro 高達 37.7——這個差距已經不是"接近"能形容的了。值得注意的是,DeepSeek V3.2 已經是目前最強的開源模型,在大部分開源模型的對比中都處於領先位置。但即便如此,它與頂級閉源模型之間仍然存在明顯差距,尤其是在需要深度推理和複雜任務處理的場景中。差距為何在拉大?三個結構性問題論文通過系統分析,識別出限制開源模型在複雜任務上能力的三個關鍵缺陷。這些不是表面問題,而是深層次的結構性困境。第一個問題在於架構層面。開源模型普遍依賴傳統的 vanilla attention 機制,這種機制在處理長序列時效率極低。論文指出,這種架構上的依賴"嚴重限制了長序列的效率,對可擴展部署和有效的後訓練構成了實質性障礙"。當閉源模型已經在探索更高效的注意力機制時,開源模型還在用五年前的技術架構,這本身就是一個巨大的劣勢。第二個問題是資源投入的鴻溝,尤其體現在後訓練階段。後訓練是讓模型從"會說話"變成"會思考"的關鍵環節,需要通過強化學習讓模型學會推理、工具使用和遵循複雜指令。論文透露,DeepSeek V3.2 的後訓練計算預算超過了預訓練成本的 10%。要知道,預訓練本身就是天價投入,而大部分開源模型的後訓練預算可能連 1% 都不到。這種資源投入上的差距,直接導致了性能上的代際差異。第三個問題是 AI Agent 能力的滯後。在真實應用場景中,開源模型的泛化能力和指令理解能力明顯落後。論文引用了三個關鍵的 Agent 測評基準:在 MCP-Mark 中,DeepSeek V3.2 得分 45.9,Gemini 3.0 Pro 是 51.0;在 MCP-Universe 中,前者是 80.3,後者是 87.9;在 Tool-Decathlon 中,差距更加明顯。這些數字背後反映的是開源模型在複雜多輪互動、工具呼叫、長期規劃等場景下的能力不足。論文總結道:"開源模型在泛化能力和指令跟隨能力方面展現出明顯滯後,這阻礙了它們在實際部署中的有效性。"這是一個誠實且殘酷的判斷。DeepSeek 的應對:技術路線的根本性改變認識到問題後,DeepSeek 沒有選擇簡單地堆砌參數或增加資料量,而是在三個核心維度上進行了根本性的技術創新。在架構層面,DeepSeek 引入了 DSA(DeepSeek Sparse Attention)機制。傳統注意力機制的計算複雜度是 O(L²),序列長度翻倍,計算量就要翻四倍。DSA 通過"閃電索引器"(Lightning Indexer)快速計算每個 token 的重要性評分,然後只選擇 top-k 個最重要的 token 參與注意力計算(論文中 k=2048),將複雜度從 O(L²) 降至 O(L×k)。這個改進不僅僅是理論上的最佳化。論文通過實測資料表明,在 128K 上下文長度下,DSA 大幅降低了推理成本,而性能幾乎沒有損失。更令人意外的是,在 AA-LCR(長文字推理基準)和 Fiction.liveBench(小說理解測試)中,V3.2 的表現甚至優於使用傳統注意力機制的 V3.1。這證明 DSA 不僅更快,在某些場景下質量還更好。在資源投入層面,DeepSeek 做出了超常規的決定。論文明確寫道:"近幾個月來,性能提升與擴展的 RL 訓練預算持續相關,該預算已超過預訓練成本的 10%。"這個數字在開源界極為罕見。具體來說,DeepSeek 為數學、程式設計、推理、Agent 等六大領域分別訓練了專家模型,每個都單獨進行大規模強化學習訓練。在持續預訓練階段,模型經歷了 943.7B tokens 的訓練(在 128K 上下文長度下),然後採用 GRPO(Group Relative Policy Optimization)演算法進行混合訓練,整合推理、Agent 和人類對齊三類任務。在 Agent 能力強化方面,DeepSeek 開發了系統化的任務合成流程。他們合成了超過 1800 個多樣化環境和 85,000 條複雜提示,涵蓋各種真實場景。具體包括 24,667 個程式碼 Agent 任務、50,275 個搜尋 Agent 任務、4,417 個通用 Agent 任務和 5,908 個程式碼直譯器任務。這些合成資料不是隨機生成的,而是通過冷啟動階段學習推理與工具使用的統一模式,然後在規模化階段系統地生成高品質訓練場景。效果是顯著的。在 Agent 相關的測試中,DeepSeek V3.2 顯著縮小了與閉源模型的差距,在 MCP-Universe 上達到了 80.3% 的成功率,雖然仍低於 Gemini 的 87.9%,但已經是開源模型中的最佳表現。論文總結說:“DeepSeek V3.2 成為 Agent 場景中極具成本效益的選擇,顯著縮小了開源與前沿閉源模型之間的性能差距。”論文最後寫了一句耐人尋味的話:"如果 Gemini 3.0 證明了持續擴展預訓練的潛力,DeepSeek V3.2-Speciale 則證明了在大規模上下文環境中強化學習的可擴展性。"言下之意很明顯:閉源巨頭有資源堆預訓練,但開源可以找到自己的路——通過更高效的架構和更科學的後訓練,用更少的資源實現接近的效果。這或許是開源 AI 唯一的生存之道:不是硬碰硬拚資源,而是拼技術路線的創新。至少在這一次,DeepSeek 證明了這條路是走得通的。 (矽星人Pro)