#論文關鍵函數
神了!GPT-5“靈感湧現”,幫頂級量子科學家突破論文關鍵函數步驟
“這是我目前發過的所有論文裡,第一次有關鍵技術步驟是由AI搞定的,思路源自GPT-5-Thinking。”當下頗具影響力的理論電腦和量子計算大牛Scott Aaronson在最新發表的部落格文章中如此感慨道。Scott Aaronson是誰?他被廣泛認為是當今最聰明的人之一,80後科學家,學術圈知名度跟陶哲軒不分伯仲,他現任美國德克薩斯大學奧斯汀分校百年講席教授,並擔任該校量子資訊中心創始主任。Aaronson是量子計算與複雜性理論的奠基者,曾與同事共同提出“高斯玻色取樣”這一量子計算任務,為實驗驗證 “量子霸權”(quantum supremacy)奠定了理論基礎,目前已是成為全球頂尖科研機構量子計算實驗的重要參照系。究竟發生了什麼讓這位聰明的科學家對AI刮目相看並讚賞有加?GPT-5給科學家提出“關鍵”建議事情發生在幾天前,Scott Aaronson和荷蘭國家數學和電腦科學研究所(CWI)的Freek Witteveen合作,在arXiv上發表了一篇題為《量子複雜度類QMA中黑箱放大的侷限性》的論文。Aaronson在量子計算的基礎理論領域貢獻卓著。2008年,他通過構造量子諭示(quantum oracle)證明了量子複雜度類QMA(量子梅林-亞瑟)與QMA₁(具有完美完備性的QMA)的分離,即存在某些問題在量子計算模型下無法實現100%的驗證精準率。這一結果為量子計算的能力邊界劃定了重要標尺,被學界視為該領域的經典之作。簡單來說,新論文研究了量子複雜度類QMA(量子梅林-亞瑟)中黑箱放大的侷限性。可以把QMA想像成一場“量子批卷考試”,有兩個角色:梅林相當於“學生”,亞瑟相當於“老師”。科學家都希望老師批卷能“全對”—— 也就是“只要答案是對的,就100%判對”(專業詞彙叫作“完美完備性”)。在經典數學裡(比如普通的電腦演算法),“批卷老師”(經典版MA)早就能做到“百批百對”,但到了量子計算領域,問題就卡殼了,想把量子批卷的“判對誤差”縮到超級小非常困難,而現在Aaronson證明,任何QMA協議,都能通過黑箱方法,把完備性誤差縮小到“雙重指數級”。在這篇論文論證過程中,當時他們卡在一個“數學坎”上:要分析一個特別複雜的“量子公式”(專業叫N×N埃爾米特矩陣),對於他們而言大概需要一兩周時間去查文獻、測試不同的解題思路。但為了省點時間,這次他們嘗試向GPT-5-Thinking提問。一開始,它5分鐘就給了一個答案:看起來自信又合理,但作為資深科學家,Aaronson一眼就看出其不對的地方,不過沒直接否定,而是繼續告訴它“那裡出錯了”,接著,它又重新思考、道歉,再給出新方案——整個過程像極了教授和研究生或同事討論問題。大概半小時後,GPT-5-Thinking建議兩位科學家研究一個新函數,而且經驗證後發現:這方法居然真的管用!Aaronson表示:如果這是人類學生提出的思路,我肯定會誇他“腦子轉得真快”,很多時候,科研難題就差這麼一層“窗戶紙”,誰捅破誰厲害,到了2025年9月,AI終於“進軍”了“最具人類代表性的智力活動”——量子複雜度類的諭示分離證明。當然,現在AI還幾乎不可能獨立寫出一篇“正確且高品質”的科研論文,但它能作為“科研搭子”,幫那些“本身知道大概方向的研究者突破靈感和瓶頸”——這無疑是一個“黃金階段”。Aaronson調侃說:幸好我有終身教職(不用擔心被AI“搶飯碗”)。AI正在成為核心“合著者”2025年,AI與頂尖科研人員的協作已從“輔助工具”階段躍升至“深度協同”階段,在多個基礎科學與技術前沿領域取得了革命性進展,“科學突破”的速率可能越來越快。即便是基礎科學,也不再是“人類的獨角戲”。例如,中國科學技術大學團隊與上海人工智慧實驗室合作,利用深度學習技術建構了包含2024個原子的無缺陷量子計算陣列,創下新的世界紀錄,這一突破使量子電腦的規模化成為可能,為量子糾錯和實用演算法開發奠定了基礎。歐洲核子研究中心(CERN)的ATLAS實驗團隊通過百萬級模擬資料訓練的深度神經網路,首次在13TeV質子-質子碰撞中探測到縱向極化W玻色子,驗證了希格斯機制對粒子質量起源的關鍵預測。GPT-5在“哥德爾測試”中成功解決三大組合最佳化猜想,提出的解法徹底顛覆了人類研究者的原有思路,被媒體評價為“首次實現AI在數學發現中的真正創造性貢獻”。AI還創造出了自然界中不存在的、具有全新化學結構的分子,其中兩個先導化合物在動物模型中成功殺滅了兩種“超級細菌”。這些突破背後,是AI與人類科學家協作範式的重構。AI開始能參並提出有價值的科研問題和思路,同時也使高通量驗證成為可能,或許不久之後,經過學術倫理認定,AI會成為名副其實的論文合著者。被罵慘的OpenAI儘管科學家對GPT-5的表現讚賞有加,但普通使用者能不能用到高配版模型並不好說。近日,OpenAI被曝在付費使用者不知情的情況下,偷偷將ChatGPT的GPT-4、GPT-5等高階模型切換至兩款低算力的“秘密模型”——gpt-5-chat-safety和gpt-5-a-t-mini,引發使用者一片聲討。不少使用者氣憤地表示,這種隱性的剝奪以及公然違背產品倫理的行為,正在嚴重損害使用者的選擇權、情感權利和經濟信任,這不僅僅是一個技術或產品問題,而是一家全球人工智慧公司以卑鄙的手段背叛使用者的信任和喜愛。儘管OpenAI副總裁Nick Turley回應稱是因為正在測試新安全系統,強調“僅針對敏感話題臨時切換”,且“詢問時會告知模型資訊”,但這一解釋未能平息質疑,使用者協議未提及模型動態替換條款,部分使用者發起集體訴訟,指控OpenAI構成“欺騙性商業行為”。OpenAI創始人兼首席執行官Sam Altman並未對“GPT降智門”事件進行回應,但在近期採訪時表示,預計新一代AI模型將於2026年問世,並聲稱它的進步可能會“相當令人驚訝”,到2030年,人工智慧或將真正超越人類智能。 (頭部科技)