OpenAI危!DeepSeek放大招:追平Google最強,手撕GPT-5 High

【新智元導讀】「開源之神」DeepSeek重磅發佈V3.2正式版,性能全面超越GPT-5 High,與GoogleGemini-3.0 Pro平分秋色。新模型不僅斬獲4項國際奧賽金牌級成績,更憑藉獨創的DSA稀疏注意力架構,打破「速度、成本、智能」的不可能三角。

OpenAI這次真的要慌了!

就在剛剛,「源神」DeepSeek開源了DeepSeek-V3.2正式版——

在數學程式設計等多項推理基準上,全面超越GPT-5 High,優於Claude 4.5 Sonet;
與刷屏的Gemini 3.0 Pro相比,則難分伯仲,不相上下!


表1:DeepSeek-V3.2與其他模型在各類數學、程式碼與通用領域評測集上的得分(括號內為消耗Tokens估計總量)

在今年,DeepSeek此前已發佈7款模型——「開源之神」,當之無愧:

DeepSeek‑R1、DeepSeek‑R1‑Zero
DeepSeek‑V3、DeepSeek‑V3.1、DeepSeek‑V3.1-Terminus、DeepSeek‑V3.2‑Exp
DeepSeek‑OCR、DeepSeek‑Math-V2

出手即王炸 開源4項奧賽金牌級AI

全新模型DeepSeek-V3.2,出手即王炸。

DeepSeek正式發佈DeepSeek-V3.2與DeepSeek-V3.2-Speciale——專為智能體打造的推理優先模型!

  • DeepSeek-V3.2:V3.2-Exp的官方迭代版本,現已登陸App、網頁端及API;
  • DeepSeek-V3.2-Speciale:突破推理能力邊界,目前僅通過API提供服務。

兩款模型均達到世界級推理性能 :

  • V3.2:推理能力與文字長度兼顧,擁有GPT-5等級性能,適合日常驅動;
  • V3.2-Speciale:極致推理能力,取得了4項金牌級成績;目前僅提供API版本(不支援工具呼叫),以支援社區評估與研究。

在主流推理基準測試上,DeepSeek-V3.2-Speciale的性能表現媲美Gemini-3.0-Pro(見表1)。

更令人矚目的是,V3.2-Speciale 模型成功斬獲多項金牌:

  • IMO 2025(國際數學奧林匹克)
  • CMO 2025(中國數學奧林匹克)
  • ICPC World Finals 2025(國際大學生程式設計競賽全球總決賽)
  • IOI 2025(國際資訊學奧林匹克)

其中,ICPC與IOI成績分別達到了人類選手第二名與第十名的水平。

而DeepSeek-V3.2是首個將思考直接整合到工具使用中的模型,同時支援在思考和非思考模式下使用工具。

目前,兩款模型均已開源:

· DeepSeek-V3.2
HuggingFace:https://huggingface.co/deepseek-ai/
DeepSeek-V3.2
ModelScope:https://modelscope.cn/models/deepseek-ai/DeepSeek-V3.2
· DeepSeek-V3.2-Speciale
HuggingFace:https://huggingface.co/deepseek-ai/DeepSeek-V3.2-Speciale
ModelScope:https://modelscope.cn/models/deepseek-ai/DeepSeek-V3.2-Speciale

從「引擎驗證」到「全能車手」 DeepSeek V3.2的進化論

如果說兩個月前發佈的DeepSeek-V3.2-Exp是一台在賽道上呼嘯而過的「概念車」,用來向世界證明「稀疏注意力」引擎的動力潛力;

那麼今天正式轉正的DeepSeek V3.2,則是一輛完成了內飾精修、裝配了頂級導航系統、可以隨時上路解決複雜問題的「量產超跑」。

這就是DeepSeek V3.2相比於Exp版(實驗版)最大的進化邏輯:核心引擎不變,但駕駛技巧(Agent能力)發生了質變。

V3.2正式版 vs. Exp 學會了「邊干邊想」

在架構層面,V3.2沿用了Exp版本驗證成功的DSA架構,但在「軟實力」上,DeepSeek解決了一個困擾AI界的頑疾——思考與行動的斷裂。

在V3.2-Exp時期(以及其他大多數推理模型),模型像是一個記性不好的老學究:它會先花很長時間思考,決定呼叫一個工具(比如搜尋天氣)。

但當工具把「今天是雨天」的結果扔回來時,它往往會「斷片兒」,忘了剛才思考到那一步了,不得不重新規劃。

V3.2正式版引入了「思維上下文管理」。

這就像給模型裝了一個「工作記憶暫存區」。

現在的V3.2像一位經驗豐富的外科醫生,在伸手要手術刀(呼叫工具)的間隙,腦子裡的手術方案依然清晰連貫,拿到刀後能無縫銜接下一步操作。

為了練就這項絕活,DeepSeek甚至為V3.2搭建了一個「虛擬演練場」。

他們合成了1800多個虛擬的作業系統、程式碼庫和瀏覽器環境,生成了8.5萬條極其刁鑽的指令,逼著V3.2在虛擬世界裡反覆練習「修Bug」、「查資料」、「做報表」。

正是這種高強度的特訓,讓V3.2正式版從一個只會做題的「做題家」,進化成了能熟練使用工具解決現實難題的「實幹家」。

最大技術亮點 給注意力裝上「閃電索引器」

V3.2能夠同時兼顧「聰明」和「便宜」,其最大的功臣依然是那個名為稀疏注意力(DSA)的底層黑科技。

DeepSeek-V3.2的注意力架構

要理解它的牛逼之處,我們得先看看傳統模型有多「笨」。

傳統模型在處理長文件時,就像一個強迫症晚期的圖書管理員:

為了回答你一個簡單的問題,它強迫自己必須把圖書館裡每一本書的每一頁、每一行字都讀一遍,並計算它們之間的關聯。

這導致計算量隨著書的厚度呈指數級爆炸(O(L^2))。

DSA則給這位管理員配備了一套「閃電索引器」。

當問題來臨時,DSA先用極低的成本掃描一遍「索引」,瞬間判斷出那幾頁書可能包含答案,把無關的99%的廢話直接扔掉。

然後,它只對這篩選出的1%的關鍵內容進行精細的深度閱讀。

這種「查目錄」而非「死磕全書」的策略,將計算複雜度從可怕的指數級直接拉低到了近乎線性(O(L))。

帶來的顯著提升 打破「不可能三角」

DSA技術的成功落地,直接擊穿了AI領域的「速度、成本、智能」不可能三角。

其一,成本腰斬,長文無憂。

對於使用者來說,丟給模型一本幾十萬字的小說或程式碼庫,不再是「燒錢」的奢侈行為,處理速度也從「泡杯咖啡」變成了「眨眼之間」。

其二,算力盈餘帶來的「智力湧現」,這是最精彩的一點。

正因為DSA節省了大量算力,DeepSeek才有底氣推出那個恐怖的Speciale版本。

既然讀得快,那就讓它想得久一點!

Speciale版本利用節省下來的資源,進行更深度的「長思考」和邏輯推演。

結果是震撼的:DeepSeek-V3.2-Speciale在數學(IMO金牌)、程式設計(IOI金牌)等硬核指標上,不僅超越了GPT-5 High,更是與Google最強的Gemini 3.0 Pro戰成平手。

從驗證DSA引擎潛力的V3.2-Exp,到將Agent能力、思維上下文管理、虛擬演練場訓練全部裝車的V3.2正式版,DeepSeek展示的是另一條通往強智能的路線:在算力緊箍咒下,用更聰明的架構、更精細的訓練和更開放的生態,撬動推理極限。

DeepSeek-V3.2的橫空出世,正是DeepSeek開源AI的魅力時刻:拒絕無腦燒錢Scaling,靠更聰明的演算法,在算力的縫隙中開闢出通往頂峰的捷徑。 (新智元)