就在剛剛,陶哲軒po文揭秘:當前的AI無法實現真正的AGI,不過,他們倒是擁有一些有用的小聰明,或者可以說「通用狡猾」。而就在同時,又一多年數學難題被GPT-5.2 Pro攻克了。
就在今天,即將離職Meta的LeCun再次給當前AI判死刑——這條路行不通,而且永遠不會成功。
前不久,GoogleDeepMind首席科學家Shane Legg給出預測:最小AGI有50%的可能性在2028年實現。
業界都在討論的AGI之爭,陶哲軒是如何看待的?
就在剛剛,陶哲軒po文明確了自己的態度——還不行。
他認為,目前還無法實現AGI。
我懷疑目前工具還無法實現真正意義上的「人工通用智能」。然而,我認為一種較弱但仍然非常有價值的「人工通用才智」,正在以各種方式成為現實。
而他的觀點,立馬在網上引起了廣泛討論。
網友們表示,陶哲軒這樣聰明的人,都認為AGI並未實現,這樣太令人絕望了——希望他是錯的吧。
什麼叫通用才智?
陶哲軒是這樣解釋的。
「通用才智」是指通過某種臨時手段解決廣泛複雜問題的能力。
這些手段可能是隨機的,也可能是暴力計算的成果;它們可能缺乏根基或容易出錯;它們可能難以解釋,也可能能追溯到AI訓練資料中類似的技巧。
因此,它們不能被視為任何真正「智能」的結果。
然而,它們在實現日益廣泛的任務時,可以擁有非同尋常的成功率,尤其是在結合嚴格的驗證程序以過濾掉錯誤或不具前景的方法時,其規模已超出了單個人類所能達到的範圍。
可以理解為,這是一種「通用狡猾」AI。
而這種「通用狡猾」AI,就會讓人感覺非常匪夷所思。
比如在有時候,這些技術非常實用,令人印象深刻,然而從根本上說,它卻令人不滿和失望。
想像這樣一個場景:一位魔術師上台,憑空變出鴿子、猜中你選的牌、把水杯變成金魚。全場掌聲雷動,觀眾目瞪口呆。
結果他平靜自曝:「其實我袖子藏了十八個機關,桌下有暗格,牌是特製的,金魚是提前藏好的。」掌聲戛然而止。
如今的AI,就像這位魔術師一樣。
它能寫詩、程式設計、解數學題——但如果你問它:「你是怎麼想到這個答案的?」
它可能會誠實坦白:「我在訓練資料裡見過類似題目,機率上這個回答匹配度最高。」
所以,這其實不是智能,而是基於海量資料的「聰明把戲」。
對於這種「通用狡猾AI」,陶哲軒是怎麼解釋的。
雖然聰明才智和智力在人類身上是某種程度上相關的特質,但對於AI工具(這些工具通常被最佳化以追求聰明才智)來說,它們卻更加解耦,將當前一代這樣的工具主要視為一個隨機生成有時聰明,且往往有用的思想和輸出的生成器,在嘗試使用它們解決難題時,可能是一種更具生產性的視角。
也就是說,智能≠聰明。
對人來說,二者是同時存在的;但對於AI而言,所謂的「聰明」,也就是快速解決複雜問題,可以獨立存在。
當前AI的「聰明」,是隨機的,暴力的,可錯的,難解釋的。
最終,它並不是靠智慧取勝,而是靠「大規模試錯與匹配」,就像用超級望遠鏡,在答案星海裡撈最亮的幾顆。
當今的AI,並不是全知全能,然而這個「不夠智能但足夠聰明」的工具,卻已經悄悄改變知識工作的每一個環節。
對於陶哲軒的說法,網友們表示的確如此。
對於目前的AI來說,看似便利但難以預測的思想,似乎是一種主要應用場景。
可以說,陶哲軒所說的,就是目前AI能力「參差不齊的邊界」。
甚至評論區還出現了中文留言,認為目前的AI底層架構就決定了,即使投入無限多的算力,產出的東西也依然有邊際。
而在Reddit的帖子中,網友們也對此展開熱議。
有人對表示,自己非常尊重陶哲軒,但對他的部分觀點表示反駁。
有人說,他用「狡猾」或「巧妙」一詞,來針對現代LLM缺乏系統性思維的缺點。
目前,他或許是對的。不過,ChatGPT還只有3歲,如果要宣佈所有LLM都有此侷限,至少還應該再等待十年。
巧的是,就在陶哲軒發出這個論點不久,又有一道數學難題被AI破解了!
滑鐵盧大學電腦系的助理教授Kimon Fountoulakis激動發帖稱,GPT-5.2剛剛解決了COLT 2022開放問題——
使用標準加速梯度演算法和互補性邊界假設,證明加速L1正則化PageRank的執行階段間複雜度。
其中,所有證明都由GPT-5.2 Pro生成。演算法總工作量的關鍵界限,則是使用 GPT-5.2 Pro、Aristotle和Antigravity上的Gemini 3 Pro (High) 組合完成了自動的形式化。
多倫多大學的教授Daniel Litt也出來表示,GPT-5.2 Pro的確很強,它對於自己的代數幾何和數論研究,都產生了巨大飛躍。
這道難題,已經困擾了教授8年。
自2024年以來,每次OpenAI或Google發佈一個新模型,他都會拿過來嘗試一下。
令人沒想到的是,這一次,GPT-5.2竟然成功了!
教授這樣回憶道:這個開放性問題,我們嘗試了三年,失敗了;找博士生做,也失敗了;問了多位頂尖學者,都說太難了。
2022年,這道關於「加速L1正則化PageRank演算法時間複雜度」的難題,被正式列為COLT國際頂級會議的開放問題之一,懸賞求解。
誰也沒想到,兩年後,這道難倒無數學者的題目,竟被GPT-5.2悄然攻克。
故事要從2016年說起。當時,教授在最佳化PageRank演算法時發現,經典迭代軟閾值演算法在求解帶L1正則的PageRank問題時,其執行階段間竟然只與最終解的非零節點數有關,出奇地高
一個很自然的追問隨之而來:如果用上加速演算法,比如在最佳化領域聲名顯赫的FISTA,會不會更快?
理論上應該如此。但現實卻潑了一盆冷水:FISTA在迭代過程中會「啟動」大量本應為零的節點,雖然最終能收斂到正確的稀疏解,但中間過程卻很鋪張浪費。
開始,教授嘗試了三個月,想從理論上界定FISTA的總計算量,失敗了。後來斷斷續續又試了幾次,直到2021年,無論是教授最傑出的學生,還是幾位大牛研究者,都對這個問題束手無策。
團隊決定,將這個難題公之於眾。
2022年,它被正式列為COLT的開放問題,向全球機器學習社區發起挑戰。
第一個成功的解法,出現在2023年。David Martínez-Rubio等人提出了一種新穎的加速演算法,從完全不同的角度給出解答。
然而,這個演算法為了達到加速效果,需要在每一步求解一個昂貴的子問題,在實際應用中效率很低。
直到GPT-5.2發佈後,真正的轉折點來了。
這一次,GPT-5.2給出了完整的證明。
而且令人震驚的是,它給出的恰恰是針對經典FISTA演算法的證明。
它揭示了在一種被稱為「互補性邊界」的合理假設下,FISTA的總計算量可以被優雅地界定,並且在特定的圖結構上,能展現出明確優於經典演算法的加速效果。
更關鍵的是,這個證明解釋了長期困擾學界的現象:儘管FISTA在迭代中會啟動更多節點,但這些「多餘啟動」是可控的、暫時的。一旦迭代進入最優解的一個鄰域,演算法就會迅速收斂。
GPT-5.2的證明能令人信服嗎?為此,團隊搭建了一個三重驗證體系。
首先,GPT-5.2 Pro生成了完整的證明初稿。
接著,團隊借助@HarmonicMath的Aristotle系統,結合Gemini 3 Pro模型,將證明中的關鍵不等式和複雜度上界,逐行轉化成了形式化的Lean程式碼。
而且除了形式化驗證之外,教授自己也把證明從頭到尾證明了兩遍。目前看來,證明是沒問題的。
又一數學難題被GPT-5.2 Pro攻克,這不由得引起網友討論——
它會成為AGI嗎?陶哲軒會看到希望嗎?
至少,目前GPT-5.2再一次證明了LLM在深度數學推理上的驚人潛力。
而且,它也彌合了理論分析與實際演算法之間的鴻溝。它的證明,為最經典的加速演算法提供了缺失的理論基石。
當然,這並不意味著AI能取代理論科學家。
可以說,它更像是一個擁有驚人直覺和不知疲倦的協作者。
人類提出關鍵問題、界定框架、判斷價值,AI則能在龐大的數學空間裡,幫我們找到那條通往答案的隱秘小徑。 (新智元)