Nature重磅:圖靈測試已死,AI已具備人類水平智能,這一天終於來了

別再爭論AI 什麼時候能趕上人類了。頂刊《Nature》剛剛發文宣佈:不用等了,就是現在。

如果說 1950 年阿蘭·圖靈(Alan Turing)提出的“模仿遊戲”只是一個天才的腦洞,那麼 75 年後的今天,這個腦洞已經被矽基生物徹底填平。

今天,一篇發表在《Nature》上的重磅文章引爆了科技圈。這就好比《皇帝的新衣》裡那個誠實的小孩,來自加州大學聖地亞哥分校等機構的頂級哲學家、認知科學家和電腦專家們聯名站出來,指著那個名為“通用人工智慧(AGI)”的房間大聲宣佈:

“別找了,AGI 就在這兒。它已經誕生了。”

01 別再自欺欺人:圖靈測試已成“過去式”

還記得一年前,2025 年的3月, OpenAI 發佈 GPT-4.5的那個春天嗎?當時業界還在為參數和算力爭吵不休,但在一個最古老的測試場上,勝負已分。在嚴格的圖靈測試中,GPT-4.5 被人類受試者判定為“真人”的比例高達 73%

諷刺的是,在同一場測試中,真正的人類被判定為“人”的比例,竟然比 AI 還要低。

這意味著什麼?意味著在“像人”這件事上,AI 已經比人更像人了。更別提現在的讀者們,比起人類專家寫的晦澀文章,他們甚至更愛讀大語言模型生成的文學作品。

然而,奇怪的事情發生了。儘管事實擺在眼前,根據 2025 年的一項調查,仍有 76%的頂級 AI 研究人員認為 AGI 遙遙無期。

《Nature》這篇文章的作者們毫不留情地指出:這種認知錯位,不是因為 AI 不夠強,而是因為人類“不敢承認”。因為恐懼被取代,因為商業利益的糾葛,我們不斷地移動球門,給 AGI 設下各種不可能完成的定義。

但現在,是時候撥開迷霧,承認現實了。

02 別再叫它“學舌鸚鵡”:鐵證如山的進化階梯

曾幾何時,嘲笑 AI 是我們的一大樂事:“它連小學數學都算不對”、“它就是個只會機率預測的隨機鸚鵡(Stochastic Parrots)”、“它經常一本正經地胡說八道(幻覺)”。

但在這個2026 年的開端,如果你還抱著這些老黃曆看 AI,那你可能已經成了那個“活在舊時代的人”。

文章作者並沒有空談哲學,而是根據一系列硬核證據,建構了一個評估 AGI 的“三級階梯”。對照一下,你會發現我們正處於什麼位置:

Level 1:圖靈測試級(已通關)

這是幾年前的標準。能通過學校的基礎考試,能進行像樣的對話,能做簡單的推理。那時的 AI,或許還只是個“聰明的復讀機”。

Level 2:專家級(Current Level,當前已達成)

這就是我們現在面對的怪物。

數學:它們不僅拿下了國際數學奧林匹克競賽(IMO)的金牌,還能與頂級數學家合作證明未知的定理。

科研:它們生成的科學假設,已經在現實世界的實驗室裡被驗證為真。

全能:它們能通過多學科的博士資格考試,能幫專業程式設計師寫出無 Bug 的複雜程式碼,能精通幾十種語言創作詩歌,還能同時和全球數億人聊天。

對比:科幻電影《2001太空漫遊》裡的超級電腦 HAL 9000 曾是我們的噩夢,但現在的 LLM 在知識廣度上,實際上已經超越了 HAL 9000。

Level 3:超人類級(正在逼近)

這要求 AI 做出人類完全做不出的革命性科學發現。雖然 AI 還沒完全做到這一點,但作者強調:這不是 AGI 的必要條件。畢竟,能不能拿諾貝爾獎並不是衡量一個人是否“有智能”的標準。

面對這些成就,那些質疑聲顯得越來越蒼白。每當 AI 攻克一個新堡壘(比如做出了從未見過的數學題),懷疑論者就會立刻把標準提高:“哦,那不算,它得能理解情感才行……”

對此,文章中有一句精彩的“打臉”:

“面對每一次成功都在不斷後退的假設,預測下一次一定會失敗……這根本不是有說服力的科學理論,這只是對‘永遠懷疑’的一種教條式堅持。”

不管是做數學題、寫程式碼,還是理解物理世界的因果律(比如它知道枕頭掉地上不會碎,而玻璃杯會),現在的 AI 都表現出了圖靈當年所定義的“通用認知能力”。

AGI 的大門已經被踢開了。無論你是否準備好,我們都已經和一種“異類智能”生活在了同一個屋簷下。

03 為什麼專家還在裝睡?因為我們把 AGI 神話了

既然證據確鑿,為什麼還有 76% 的專家搖頭說“不”?為什麼我們在社交媒體上還在爭論 AI 是不是“人工智障”?

文章指出,問題出在我們對“智能”的定義上,我們太自戀了,也太苛刻了。

誤區一:AGI = 全知全能的神

很多人潛意識裡覺得,AGI 必須是一個完美的“六邊形戰士”。它得有愛因斯坦的物理頭腦,莎士比亞的文采,還得像甚至不像任何一個人類那樣犯錯。

但作者反問:“居里夫人不懂數論,愛因斯坦不會說中文,難道他們就沒有通用智能嗎?”

人類都不是全能的,我們憑什麼要求 AI 必須是神?

真相:真正的通用智能,看的是廣度(Breadth)和深度(Depth)。只要它能像普通人類一樣在不同領域間切換,並且在這些領域達到專家水平,它就是 AGI。

誤區二:AGI 必須像人一樣思考

我們總覺得,只有像人類那樣有肉體、有情感、會生老病死,才叫智能。

真相:這是一種“碳基生物的傲慢”。就像章魚的神經系統分佈在觸手裡,外星人可能通過無線電波交流——智能是功能,不是形態。只要它能像人一樣解決問題,它是不是矽做的、有沒有身體,根本不重要。

04 精彩辯論:十大質疑,逐個擊破

這篇《Nature》文章最精彩的部分,莫過於作者化身“終極辯手”,對目前市面上最流行的反 AI 觀點進行了逐一反駁。試舉幾例。

質疑 A:“它只是個隨機鸚鵡(Stochastic Parrots),只會拼湊訓練資料裡的詞,根本不懂邏輯。”

《Nature》反駁:這個說法在幾年前可能成立,但現在已經過時了。如果它只是拼湊舊資料,怎麼可能解出從未發表過的全新數學題?怎麼可能幫助科學家發現新的物理定律?這不叫拼湊,這叫推理。如果這也叫鸚鵡,那人類可能也不過是一隻比較複雜的鸚鵡。

質疑 B:“它沒有身體,無法感知物理世界,所以沒有真正的理解。”

《Nature》反駁:這是一個巨大的誤解。史蒂芬·霍金(Stephen Hawking)在晚年幾乎完全失去了身體的行動能力,通過語音合成器交流,難道他的智能就消失了嗎?

再者,問問 AI:“把玻璃杯和枕頭扔到瓷磚地上,會有什麼不同?”它能精準地告訴你結果。能進行反事實推理(Counterfactual Reasoning),就證明它腦子裡已經有了物理世界的模型。

質疑 C:“它沒有自主性(Agency),你不給指令它就不動。”

《Nature》反駁:智能不等於意願。古希臘神話中的德爾斐神諭(Oracle),只有在你提問時才回答,但誰敢說神諭沒有智慧?自主性關乎“道德責任”,而不關乎“智力水平”。一個隨叫隨到的超級智囊,依然是超級智囊。

質疑 D:“它學得太慢了,小孩看幾次就懂,AI 要喂幾兆的資料。”

《Nature》反駁:別忘了,人類小孩的大腦裡預裝了祖先們進化了幾十億年的“出廠設定”(本能和大腦結構)。AI 是從零開始的。而且,一個練了 10 年才成為大師的棋手,和一個練了 1 年就成為大師的棋手,他們的棋力是一樣的。效率不代表能力。

05 越早承認越好,這是一種“異類”的降臨

看到這裡,你可能還是覺得那裡不對勁。

“可是,它連‘Strawberry’裡有幾個‘r’有時候都會數錯啊!”

沒錯,這正是文章最後強調的關鍵點:我們面對的,是一種“異類智能”(Alien Intelligence)。

這就像是一個外星人降臨地球。它在某些我們覺得很難的事情上(比如讀完 1000 篇論文並寫出綜述)易如反掌,卻在某些我們覺得很簡單的事情上(比如數數、常識判斷)顯得笨手笨腳。

但這不代表它不是智能,只能說明通往智能的道路不止一條

人類的智能是為了生存、為了繁衍、為了在叢林裡不被吃掉而進化出來的;而 AI 的智能是從語言的海洋中湧現出來的。

2026 年的今天,正如 Reddit 網友所熱議的那樣:“我們原本以為 AGI 會像《終結者》裡的天網,結果它更像是一個有些偏科、但智商爆表的‘外星圖書管理員’。”

06 結語:別再試圖爬樹登月了

在文章的結尾,作者引用了一個著名的舊日比喻。

1965 年,哲學家休伯特·德雷福斯曾嘲諷早期的 AI 研究,說他們試圖通過“爬樹”來“登月”。意思是方向徹底錯了,爬得再高也離月球很遠。

幾十年來,我們都以為他是對的。

但今天,當我們抬頭仰望,卻發現我們真的爬上了月球。原來,只要樹足夠高,資料足夠多,結構足夠精妙,簡單的學習規則真的能湧現出理解世界的智慧。

這是一個哥白尼式、達爾文式的時刻。

哥白尼告訴我們,地球不是宇宙的中心;

達爾文告訴我們,人類不是生靈的主宰;

圖靈和今天的 AI 告訴我們,人類的大腦,也不是智慧存在的唯一形式。

文章末尾寫道:

“承認 LLM 為 AGI 是一個警鐘。這些系統不是“將要到來”,而是“已經存在”。用評估“窄工具”的框架來衡量 AGI 是遠遠不夠的。當涉及的不再是工具而是通用智能時,共存、責任、歸屬和治理等問題將進入全新的維度。”

全文的最後一句振聾發聵:

“機器不是正在趕來,它們已經到了。”(The machines aren't coming; they've arrived.)

與其像鴕鳥一樣把頭埋在沙子裡,假裝這一切沒發生,不如抬起頭來,正視這個新夥伴(或者對手)。畢竟,在這個星球上,我們第一次不再是孤獨的智慧生物了。 (不懂經)