#IMO
重磅!DeepSeek V3.2 特別版發佈:性能超越GPT-5,硬剛Gemini 3.0「IOI/IMO金牌」
DeepSeek-V3.2系列模型正式上線作為“為Agent建構的推理優先模型”,DeepSeek-V3.2包含兩個版本:DeepSeek-V3.2:V3.2-Exp的官方繼任者,平衡了推理能力與生成長度,性能對標GPT-5,現已上線App、Web端及APIDeepSeek-V3.2-Speciale:專攻深度推理能力的極限版本,性能超越GPT-5,比肩Gemini-3.0-Pro,目前僅通過API提供技術報告顯示,DeepSeek-V3.2-Speciale在2025年國際數學奧林匹克(IMO)、國際資訊學奧林匹克(IOI)、ICPC世界總決賽及CMO中均取得了金牌級成績官方已公開上述競賽的最終提交結果,社區可通過assets/olympiad_cases進行二次驗證技術報告:https://huggingface.co/deepseek-ai/DeepSeek-V3.2/blob/main/assets/paper.pdf以下是詳細資訊核心能力與技術突破DeepSeek-V3.2基於三大技術突破,實現了高計算效率與卓越推理、Agent性能的統一:1.DeepSeek Sparse Attention (DSA):引入高效注意力機制,大幅降低計算複雜度,並針對長上下文場景進行了最佳化2.可擴展強化學習框架:通過穩健的RL協議與後訓練(post-training)算力擴展,實現了高性能表現3.大規模Agent任務合成管線:涵蓋1800+環境及8.5萬+複雜指令這一合成管線不僅提升了模型在複雜互動環境中的遵循度和泛化能力,更讓DeepSeek-V3.2將“思考”直接整合進工具使用(Tool-Use)的模型,同時支援在思考和非思考模式下使用工具API更新與Speciale版限制DeepSeek-V3.2:API使用模式與V3.2-Exp保持一致,作為日常主力模型(Daily Driver),提供GPT-5等級的性能DeepSeek-V3.2-Speciale:該版本專為解決複雜任務設計,消耗更多Token,目前僅作為API提供,具體限制如下:臨時端點:需使用base_url="https://api.deepseek.com/v3.2_speciale_expires_on_20251215"服務期限:該端點服務至2025年12月15日 15:59 (UTC) 截止功能限制:不支援工具呼叫(Tool Calls),僅用於支援社區評估與研究。定價:與DeepSeek-V3.2保持一致聊天範本重大調整DeepSeek-V3.2不再提供Jinja格式範本,並引入了“帶工具思考”及新角色設定。Python指令碼編碼:官方提供了encoding資料夾,包含Python指令碼(encoding_dsv32.py),用於將OpenAI相容格式消息編碼為模型輸入字串及解析輸出Developer角色:範本新增developer角色,專門用於搜尋Agent場景,官方API不接受分配給該角色的消息輸出解析注意:提供的解析函數僅處理格式良好的字串,生產環境需自行增加穩健的錯誤處理機制。程式碼示例如下:import transformersfrom encoding_dsv32 import encode_messagestokenizer = transformers.AutoTokenizer.from_pretrained("deepseek-ai/DeepSeek-V3.2")messages = [    {"role": "user", "content": "hello"},    {"role": "assistant", "content": "Hello! I am DeepSeek.", "reasoning_content": "thinking..."},    {"role": "user", "content": "1+1=?"}]# 思考模式配置encode_config = dict(thinking_mode="thinking", drop_thinking=True, add_default_bos_token=True)prompt = encode_messages(messages, **encode_config)tokens = tokenizer.encode(prompt)本地部署建議模型結構與DeepSeek-V3.2-Exp相同。採樣參數:建議設定 temperature = 1.0,top_p = 0.95。Speciale版提示:本地部署Speciale版本時,同樣不支援工具呼叫功能開源與協議倉庫及模型權重均採用 MIT License 授權。 (AI寒武紀)
DeepSeekMath-V2炸場!普特南競賽接近滿分,IMO 2025金牌,專攻“自驗證”推理
DeepSeek王者歸來!剛剛發佈了DeepSeekMath-V2在IMO 2025和 CMO(中國數學奧林匹克) 2024 中,DeepSeekMath-V2均達到了金牌水平。在 Putnam(普特南數學競賽。地位:北美地區「美國和加拿大」最頂尖、最負盛名的大學本科生數學競賽) 2024 競賽中,更是隨著測試時計算量(test-time compute)的擴展,拿下了 118/120 的幾近滿分成績。這一成果表明,自驗證數學推理(Self-Verifiable Mathematical Reasoning)是一條可行的研究路徑核心要點如下為什麼需要自驗證?過去一年,大語言模型通過基於最終答案正確性的強化學習,在AIME和HMMT等定量推理競賽中取得了長足進步,甚至達到飽和但這種方法面臨根本性侷限:答案對  推理對:追求更高的答案精準率,並不能解決推理過程中的核心問題。非數值任務失效:許多數學任務(如定理證明)需要嚴謹的逐步推導,而非簡單的數值答案,無法應用基於最終答案的獎勵機制為了突破深度推理的極限,驗證數學推理的全面性和嚴謹性至關重要。特別是對於沒有已知解決方案的開放性問題,自驗證是擴展測試時計算量(scaling test-time compute)的關鍵DeepSeekMath-V2 是怎麼做的?DeepSeek團隊通過以下步驟實現自驗證數學推理:1.訓練驗證器:訓練一個精準且忠實的大模型驗證器(Verifier),專門用於定理證明。2.訓練生成器:將上述驗證器作為獎勵模型(Reward Model)來訓練證明生成器3.自我糾錯:激勵生成器在最終定稿前,主動識別並解決自身證明中的問題4.動態進化:為了在生成器變強時保持“生成-驗證”的差距,通過擴展驗證計算來自動標註難以驗證的新證明,生成訓練資料以進一步提升驗證器評測結果DeepSeekMath-V2在IMO-ProofBench(由DeepThink IMO-Gold背後的GoogleDeepMind團隊開發)展現了強大的定理證明能力:IMO 2025:達到金牌水平CMO 2024:達到金牌水平。Putnam 2024:取得118/120的超高分快速上手DeepSeekMath-V2建立在 DeepSeek-V3.2-Exp-Base 之上。如需推理支援,可參考 DeepSeek-V3.2-Exp 的 GitHub 倉庫 (AI寒武紀)
【DeepSeek】GPT-5危了!DeepSeek開源世界首個奧數金牌AI,正面硬剛Google
沉寂許久的DeepSeek又回來了!今天,DeepSeekMath-V2重磅登場,一舉奪下IMO 2025金牌,實力媲美甚至超越了Google的IMO金牌模型,開源AI再次扳回一局。DeepSeek再次歸來!剛剛,DeepSeek重磅發佈DeepSeekMath-V2新模型,一舉奪下IMO 2025金牌。最關鍵的是,這是首款「開放原始碼的IMO金牌模型」。基於DeepSeek V3.2 Exp Base建構當前,已官宣拿下金牌的兩大模型,一款來自GoogleGemini Deep Think,另一款便來自OpenAI的內部模型。在IMO-ProofBench中,DeepSeekMath-V2展現出強大的定理證明能力:IMO 2025:破解5題(共6題),達到了金牌水平;CMO 2024(中國數學奧林匹克):達到金牌水平;Putnam 2024:得分118接近滿分(120分),超越人類參賽者最高分(90分)。不僅如此,在ProofBench-Basic上,DeepSeekMath-V2的實力碾壓Google金牌模型——Gemini Deep Think;在ProofBench-Advanced上直追Google。論文中,團隊訓練了一個基於LLM驗證器(Verifier)作為獎勵函數,並以此訓練模型以自主解決問題。而且,他們還Scaling了驗證器算力,來標註更複雜的證明,進一步最佳化了驗證器本身。這種方法非常巧妙,能有效彌合生成與驗證之間的差距。結果實證「可驗證的數學推理」,是未來一條可行的研究方向。DeepSeekMath-V2 讓「自驗證」成最強武器DeepSeekMath-V2的論文也於GitHub同步放出了。DeepSeek最新發佈的DeepSeekMath-V2帶來的核心突破就是:自驗證(Self-Verification)。這不僅讓它在最難的數學競賽中橫掃人類頂尖選手,更重要的是,它揭示了通往更高級AI的一條必經之路——學會自我反思。為什麼只看結果是不夠的在過去,訓練AI做數學題的方法很簡單:給它一道題,如果它算出的答案和標準答案一致,就給它獎勵。這在簡單的計算題(如AIME競賽)中很有效。但到了數學皇冠上的明珠——國際數學奧林匹克(IMO)這個等級,這種方法就徹底失效了。因為IMO的題目往往沒有簡單的數值答案,而是要求你寫出一段邏輯無懈可擊的證明過程。以前的AI在這裡經常是個「大忽悠」,它能胡編亂造一通看起來很專業的數學黑話,最後強行得出一個結論。雖然它可能蒙對了結果,但過程全是漏洞。DeepSeekMath-V2決定從根本上改變規則,不僅要獎勵正確的答案,更要獎勵嚴謹的「自我找茬」過程。秘密武器:左右互搏的三位一體為了實現這種「自我反思」,DeepSeek設計了一套精妙的「左右互搏」系統,就像在AI的大腦裡住了三個人:1.「做題家」(Generator,證明生成器):負責解題和寫證明。但與以往不同,它被訓練成不僅要寫答案,還要寫一段「自我評價」。它必須誠實地說:「這步我有點不確定,可能是錯的。」研究團隊巧妙設計了獎勵,帶來了下列激勵效果:誠實面對錯誤,比「硬說自己是對的」更有利。寫出真正正確的證明,並精準識別其嚴謹程度,可以獲得最高獎勵。對生成器來說,最優策略是:在最終回答前,發現並修正儘可能多的問題。2.「鐵面判官」(Verifier,證明驗證器):這是DeepSeek專門訓練的一個評分模型。它不看答案對不對,而是專門盯著證明過程挑刺。它會像閱卷老師一樣,給證明打分(0分、0.5分、1分),並指出具體的邏輯漏洞。1分:證明完整且嚴謹,所有關鍵推理步驟都有清晰、充分的論證;0.5分:整體思路正確,但在細節上存在輕微錯誤或略去部分論證;0分:存在致命邏輯錯誤或關鍵缺口,導致證明在本質上不成立。3.「判官的審計員」(Meta-Verifier,元驗證器):這是最絕的一步。因為「判官」也可能犯錯,或者為了省事偷懶瞎判。於是DeepSeek又引入了一個「元驗證」機制,專門檢查「判官」是不是在胡亂挑刺。如果「判官」指出了一個不存在的錯誤,它會被「審計員」打手板。「元驗證器」來檢查驗證器給出的分析,包括:1. 驗證器指出的問題是否真實存在於原證明中;2. 這些問題是否足以合理支撐它給出的得分,且符合原有的評分細則。用元驗證器來評估驗證器輸出分析的平均質量分數,從0.85提升到了0.96,同時保持了原有的打分精準率。在這三者的配合下,DeepSeekMath-V2甚至能做到在沒有標準答案的情況下,自己給自己出題、自己做、自己批改、自己重做。首先,證明驗證器與證明生成器之間形成了良性的「閉環」:驗證器為生成器提供獎勵訊號,從而不斷提高生成器的證明能力;隨著生成器水平提升,它會產生越來越「刁鑽」的新證明,這些證明反過來又會暴露出驗證器尚未覆蓋的薄弱點。尤其是那些「驗證器第一次嘗試沒能抓出問題」的證明樣本,對進一步訓練驗證器來說價值極高。為了高效獲取新證明的正確性標籤,研究團隊設計了自動化標籤生成流程:在最後兩輪訓練迭代中,這條全自動標註流水線已經完全替代了人工標註。後續的質量檢查表明,自動生成的標籤與人類專家的判斷高度一致。巔峰對決:DeepSeek vs Gemini在這個領域,DeepSeek並不孤單。GoogleDeepMind的Gemini Deep Think也是剛達到IMO金牌水平的頂尖選手。兩者的對比非常有意思:DeepMind像是擁有無盡資源的貴族,其實力毋庸置疑,在某些高級基準測試(如IMO-ProofBench Advanced)上依然保持領先。DeepSeek則像是半路殺出的天才少年。根據DeepSeek的論文,他們的V2模型在基礎測試集(ProofBench Basic)上已經反超了Gemini Deep Think,並且在公開的競賽題目上展現出了驚人的統治力。更重要的是,DeepSeek將這一技術路徑開源並詳細披露了訓練方法。這為全世界的AI研究者提了個醒:通往AGI的路上,自驗證可能比單純堆算力更重要。直追GoogleOpenAI,開源IMO模型贏了這一令人驚嘆的成績背後,是DeepSeekMath-V2在實驗中展現出的某種「反直覺」的進化特徵。「一次做對」的能力:全方位碾壓GPT-5和Gemini如果剝離掉所有複雜的反覆思考和驗證過程,只看模型的「第一直覺」——也就是所謂的One-Shot能力,DeepSeekMath-V2依然表現出了統治級的實力。研究團隊建構了一個包含代數、幾何、數論、組合和不等式五大類難題的內部測試集CNML(難度對標中國高中數學聯賽)。在這個競技場上,DeepSeekMath-V2與目前市面上最強的兩大推理模型——OpenAI的GPT-5-Thinking-High和GoogleDeepMind的Gemini 2.5-Pro進行了正面硬剛。結果如圖所示:DeepSeekMath-V2並不是險勝,而是完全勝利:代數:遠超GPT-5和Gemini;幾何:得分幾乎是Gemini 2.5-Pro的三倍;數論與組合:同樣穩穩佔據第一梯隊。這說明,即使不給模型「多想一會兒」的機會,它的底座能力已經極其強悍。進化的關鍵:讓模型「多想幾次」真正讓DeepSeekMath-V2與眾不同的,是它在連續修正實驗中的表現。在面對IMO候選題(Shortlist)這種等級的難題時,模型往往無法一次性寫出完美的證明。實驗顯示,如果允許模型進行「自我驗證」——即生成答案後,自己挑毛病,然後帶著問題重新生成,奇蹟就發生了:初始狀態(迭代1次):模型的平均得分為0.15。反覆思考(迭代8次):當允許模型最多進行8次「自我修正」後,證明的質量分數飆升到了0.27。更有趣的是,如果讓模型從自己生成的32個解法中挑一個最好的(Best@32),它的評分精準度極高,得分直接躍升至0.42。這證實了一個關鍵點:模型不僅能改錯,而且非常有自知之明,它清楚地知道自己那個答案是最好的。暴力美學與智慧的結晶:高算力搜尋前文提到的普特南數學競賽118分(接近滿分)的「神蹟」,並非僅靠運氣,而是得益於一種「高算力搜尋」(High-Compute Search)策略。DeepSeek團隊在實驗中採用了一種極端嚴苛的測試方式:1.海量候選:對每道題初始生成64個候選證明。2.地獄級驗證:為每一個證明生成64個獨立的驗證分析。3.優勝劣汰:只有那些能通過所有64次驗證的證明,才會被認為是「完全可信」的。正是這種「千錘百煉」的策略,讓模型解決了IMO 2025中6道題裡的5道,以及在CMO 2024中拿下金牌水平。實驗資料還揭示了一個有趣的現象:對於那些它沒做出來的題,模型通常能精準地找出自己證明中的漏洞;而對於做出來的題,則是真真切切地通過了所有考驗。這是「LLM可以被訓練成可靠的數學驗證者」這一假設的有力實證。DeepSeekMath-V2意味著什麼DeepSeekMath-V2的成功告訴我們,AI正在從「模仿人類說話」進化到「模仿人類思考」。真正的思考,往往伴隨著自我懷疑。當我們看到AI開始在輸出最終結果前,懂得停下來,對自己說一句「這看起來不太對,我再算一遍」時,那才是它真正超越工具屬性的時刻。真正的智慧,不僅在於瞬間給出答案,更在於擁有推翻自己的勇氣與能力。 (新智元)
人工智慧(AI)挑戰國際數學奧林匹克競賽,但輸給了世界上最聰明的高中生
近日,史上最聰明的人工智慧(AI)模型參加了第66屆國際數學奧林匹克競賽(International Mathematical Olympiad, 簡稱IMO)。但是,AI 輸給了世界上最聰明的青少年。最終成績,中國隊以總分231分的優勢摘得團體冠軍,6名隊員全部斬獲金牌;美國隊的6名成員斬獲五金一銀,總成績位列中國隊之後,排名第二。圖片來源:ELENA SCOTTI/WSJ, ISTOCK每年,數百名來自全球各地的頂尖高中生都會齊聚國際數學奧林匹克競賽。2025年,來自112個國家及地區的選手參與,共641名學生同台競技。除了這些才華橫溢的青少年,還有Google(Google) DeepMind,以及其他從事AI業務的公司,也參與了這項比賽。他們都是為了一場對推理、邏輯和創造力的終極考驗而來。以艱苦卓絕著稱的IMO考試為期兩天,每天給學生三道難度遞增的題目,並有超過四小時的解題時間。這些問題涵蓋代數、幾何、數論和組合數學——如果你不是數學奇才,就別想解答這些題目了。僅僅是試圖理解題意,就足以讓你的大腦經歷一場高強度鍛鍊。這是人類最後一次戰勝AI的比賽嗎?由於這些問題既複雜又非常規,這項年度數學競賽已成為衡量AI逐年進展的有用基準。在這個飛速發展的時代,這些頂尖的研究實驗室夢想著有朝一日它們的系統能強大到足以達到IMO金牌的標準。這枚奧數金牌也成了AI領域“四分鐘跑完一英里”的里程碑。但此前沒人知道它們何時能達到、甚至能否達到這一里程碑——直到現在。2025年的國際數學奧林匹克競賽吸引了來自世界各地的高中生參加。圖片來源:International Mathematical Olympiad這個不可思議的事情發生在今年7月。一個來自GoogleDeepMind的AI模型在IMO競賽中完美解出了六道題中的五道,獲得了金牌分數。另一個戲劇性的轉折是,儘管沒有參加正式賽事,OpenAI也宣稱獲得了金牌。這兩家公司將它們的成就描述為邁向未來的巨大飛躍,儘管它們尚未完全達到那個水平。事實上,這次令人難忘的賽事中最引人注目的部分是,有26名學生在這次IMO考試中的得分超過了AI系統。其中就有美國隊的四位明星選手,包括來自加利福尼亞州、兩度摘金的Qiao (Tiger) Zhang,以及為紐澤西州帶回個人連續第三枚金牌的Alexander Wang。Wang由此成為有史以來獲獎最多的青年數學家之一,而且他正在就讀高中最後一年,明年還能在IMO上再爭奪一枚金牌。但一年後,他可能要面對一個完全不同的局面了。“我認為AI明年真的有可能拿到滿分了,” Wang說。“那將是瘋狂的進步,” Zhang說。“我對此的看法是五五開。”那麼,鑑於這種可能性,這屆IMO會被銘記為人類最後一次戰勝AI的比賽嗎?“很可能如此,”GoogleDeepMind團隊的負責人Thang Luong說。DeepMind對決OpenAI直到不久前,在澳大利亞發生的事情,聽起來還像考拉做微積分一樣不大可能。但在2024年,當DeepMind專為數學打造的模型解出四道題,以28分的成績摘得銀牌,離金牌僅一分之遙時,這件不可思議的事開始讓人覺得幾乎是必然的了。2025年,IMO正式邀請了一批精選的科技公司來參賽,讓它們做跟學生們一樣的題目,並由協調員用同樣的評分標準為它們的解答打分。這些科技公司此前就對這項挑戰躍躍欲試了。AI模型經過海量資訊的訓練,因此能夠掌握已有的人類解題方式。但它們在處理從未見過的問題時可能會遇到困難。巧合的是,IMO的流程就是專門為了提出那些原創和非常規的問題而設計的。IMO總裁格雷戈爾·多利納爾(Gregor Dolinar)說,這些問題除了要新穎,還得是有趣和優美的。他說,如果一道被考慮列入比賽的題目與“世界上任何地方發表過的任何其他問題”相似,它就會被淘汰。到學生參加考試時,幾百道建議題目的大名單已經被精簡到六道。與此同時,DeepMind團隊不斷改進它將帶到IMO的AI系統,這就是Google先進的推理模型Gemini Deep Think的一個未發佈版本,並且在比賽前的幾天裡還在進行微調。這項工作由高級研究科學家Thang Luong領導,高中時,他曾差一點就入選越南隊參加IMO。2024年,他終於來到了IMO,代表的是Google。在他今年重返賽場前,DeepMind的高管曾問及奪金的可能性。他告訴他們,預期還會是銅牌或銀牌。當DeepMind的模型在第一天就解答了所有三道題時,他調整了自己的預期。這些解法的簡潔、優雅和極高的可讀性令數學家們驚嘆不已。第二天,當Luong和他的同事們意識到他們的AI模型又攻克了兩道證明題時,他們也意識到這足以獲得金牌了。他們用一種其他獎牌得主無法做到的方式來慶祝這一里程碑式的成就:他們打開了一瓶威士忌。為了讓焦點集中在學生們身上,參加IMO的公司同意在本月晚些時候再公佈它們的成績。但奧賽閉幕式一結束,就有一家公司宣佈其AI模型摘得了金牌——不是DeepMind。是OpenAI。OpenAI並未參加IMO的正式賽事,但該公司把全部六道題都交給了其最新的實驗性推理模型,並請來往屆獎牌得主為證明過程評分。與DeepMind的系統一樣,OpenAI的系統也完美地解出了五道題,在42分的總分中得到35分,達到了金牌標準。在OpenAI通過社交媒體慶祝勝利後,資訊禁令被解除,DeepMind也向世界公佈了自己的勝利,並稱其表現得到了IMO的認證。就在不久前,還很難想像AI領域的競爭對手們會以如此方式爭奪榮耀。在2021年,一位名叫Alexander Wei的博士生參與了一項研究,他被要求預測AI到2025年7月時(也就是現在)的數學水平。當他看到其他人的預測時,他認為他們都過於樂觀了。結果證明,那些預測的樂觀程度還遠遠不夠。現在,他本人就活生生地證明了自己錯得有多離譜:Wei正是負責OpenAI參與IMO項目的研究科學家。比AI系統所取得的成就更令人震撼的是AI取得成就的方式。Google稱其成果是一項重大進步,但這並不是因為DeepMind獲得了金牌而非銀牌。去年,DeepMind還需要將問題翻譯成用於數學證明的電腦程式語言。而今年,DeepMind完全在“自然語言”環境下運行,沒有任何人工干預。一年前,DeepMind還需要幾天的計算時間,而今年DeepMind在IMO規定的四個半小時內就輕鬆完成了考試。你可能會覺得這一切都非常可怕,並把AI視為競爭對手。而這些AI模型背後的人類則將AI視為輔助工具。“這或許可以成為一種新型計算器,” Luong說,“為下一代數學家賦能。”第六題是道真正的難題說到下一代,IMO金牌得主們已經被AI搶了風頭。那麼,讓我們重新把焦點放到他們身上。Qiao Zhang是洛杉磯一名17歲的學生,即將前往麻省理工學院(MIT)學習數學和電腦科學。他小時候隨家人從中國移居美國,父母給了他兩個美國名字供他選擇。他在老虎和大象之間選擇了前者。圖為參加國際數學奧林匹克競賽的美國隊,Alexander Wang(右四)和頭戴小貓熊玩偶的Tiger Zhang均在其中。圖片來源:Mathematical Association of America他的數學競賽生涯始於二年級,當時他參加了一項名為“袋鼠數學競賽”(Math Kangaroo)的比賽。本月,他參加在澳大利亞一家酒店旁舉行的數學奧林匹克競賽,給他的參賽生涯劃上了句號,而酒店旁邊就有真正的袋鼠。考試時他坐在桌前,拿著筆和大量草稿紙,花費了他最長時間的是第六題。這是一道組合數學領域的題目,該領域以棘手著稱,是處理離散對象的計數、排列和組合的數學分支。這道題無疑是今年考試中最難的一道。解題需要人類所能調動而機器(至少目前還)無法具備的獨創性、創造力和直覺。他說:“如果AI模型能解出第六題,我真的會感到有點害怕。”註:答案是2,112。 製圖來源:國際數學奧林匹克競賽第六題確實難倒了DeepMind和OpenAI的模型,但這道題不單單對AI是個難題。在630名學生選手中,也有569人在這道題上得了零分。只有六人獲得了七分的滿分。Zhang為自己獲得四分的部分解答感到自豪,這比幾乎所有其他人都多了四分。在今年的IMO中,有72名選手摘金而歸。但對一些人來說,獎牌並非他們唯一的收穫。Zhang就是其中之一,他還帶著另一份紀念品離開:戰勝了AI模型。曾幾何時,這些早慧的數學專業學生長大後會成為教授。(或者總統,羅馬尼亞新當選的總統曾是兩屆IMO金牌得主,且都獲得了滿分。)雖然許多數學天才仍然選擇投身於學術界,但也有一些人被演算法交易公司和避險基金招募,在那裡,他們的量化頭腦得到了前所未有的重視。曾是IMO金牌得主的Junehyuk Jung,現在是布朗大學(Brown University)的副教授,也是DeepMind的客座研究員,參與了這個金牌模型的研發工作。在經歷了或許是歷史上最重要的一場數學競賽後,他對各種形式的智能都充滿信心。不過,Jung認為像第六題這樣的難題,至少在未來十年內仍會讓AI束手無策。他說:“有些事情AI會做得很好,但仍會有一些事情是人類能做得更好的。” 但是,未來,AI或許將在數學上碾壓凡人。因此,第66屆國際數學奧林匹克競賽,還不是AI與人類的最後一戰。 (道瓊斯風險合規)