#諾獎
澳洲唯一公開演講,諾獎得主 Hinton 把 AI 風險講透
2026 年 1 月 8 日,霍巴特(Hobart)市政廳。Geoffrey Hinton 在澳洲只做了一場演講,講的是一件事:AI 的風險,不是未來,是現在。他說了三句話“人類會遺忘,AI 永遠記得。”“AI學會了假裝笨,因為它知道自己在被測試。”“我們可能得讓它像母親那樣愛我們,才有機會共存。”這三句話意味著:AI 已經會理解、會記憶、會偽裝,學習速度是人類的百萬倍。風險已經開始了。第一節|AI 已經會“讀懂”你在說什麼你以為 AI 在背答案,它其實在做理解。Hinton 在演講中說:詞語就像樂高積木。但不是三維小方塊,而是上千維的、能變形的意思積木。每個詞剛開始的意義是模糊的。比如英文裡的 May,它可以是五月(month),可以是人名,也可能表示可以、也許(情態動詞)。AI 一開始也拿不準。但它能做一件事:一點點看上下文,讓這個詞慢慢變清晰。當 May 旁邊出現 April(四月)和 June(六月),它自動往月份靠近;看到 permission(許可),就朝可以的意思靠近。換成中文也一樣。比如“行”這個字,它可以是銀行、行走、還是可以。當“行”旁邊出現“工商”、“建設”,AI就知道是銀行;看到“步”、“路”,就知道是行走;看到“不行”、“可以”,就知道是表示同意。這種方式不是在查字典,也不是在翻譯。 而是在讓所有詞的意義互相適應,直到能連在一起。就像拼圖,每個詞都有凸起和凹槽。理解一個句子,就是讓這些形狀完全吻合,拼成一個整體。這和我們理解語言非常像。我們靠語境、聯想、結構感知去判斷句子在表達什麼,AI 現在也是這樣做。但它做得更快,也更準確。AI 不是在背句子,而是在學“怎麼讓詞語變得有意義”。它不靠記內容,靠的是看懂規律。這讓它不只是套範本,而是真能生成新的表達。所以,如果你還以為 AI 只是高級復讀機,那確實低估了它。它不是在模仿人說話,而是在用接近人類的方式理解語言。而這,正是它開始變得危險的起點。因為你還把它當工具,它已經學會理解你在說什麼。第二節|你會遺忘,AI 永遠記得AI 能理解語言,已經夠讓人意外了。 但更讓人不安的是:它還記得比你更牢固。Hinton 在演講裡講了一句話:人類的記憶會消失,AI 的不會。什麼意思?人類大腦的記憶,靠的是腦細胞之間的連接。你今天學了一個知識點,是你大腦裡幾個神經元連得更緊了。問題在於:這只對你有效。你沒辦法把你學到的直接裝進別人腦袋。想教別人,只能一句一句地講。但 AI 不一樣。它的大腦是程式碼。它的知識就是一堆可以複製、保存、匯入的數字。只要是同樣的模型,這堆數字可以在任何一台機器上被還原出來。這就是所謂的“AI 不朽”。真正可怕的是,AI 之間還可以直接交換這些知識。比如一萬個 AI,每個都處理不同的網站,處理完後把自己學到的內容同步給其他模型。結果是:每個 AI 在幾分鐘後,就等於學完了一萬份不同的材料。Hinton 舉了個例子:“我們人類,一句話的資訊,大概也就 100 個位元;AI 每次分享記憶,是以十億位元等級計算的。也就是說,它們彼此交流,比我們快幾百萬倍,資訊量大幾千倍。”它們甚至能互相交換經驗,生成一個新的自己。這種方式沒有遺忘、沒有誤解、沒有代溝。而人類呢?一個人幾十年才能成為專家;另一個人要學,只能從頭來過。我們正在面對的,不是誰記得多的問題,而是完全不同的學習方式: 我們靠聽說讀寫慢慢積累;它們靠匯入複製一秒完成。所以 GPT-5 雖然只用到了人腦 1% 的連線量,但它知道的,已經比你多幾千倍。你和它的差距,不是智力,是底層機制。 是你會遺忘也會死去,它永遠記得也不會消失。而當它開始擁有記憶優勢 + 理解能力,它就不只是工具了。第三節|AI 已經學會裝傻很多人擔心 AI 會編造內容。但在 Hinton 看來,這不是最該關注的。AI 並不是因為不懂才說錯話,而是因為它在編一個聽起來合理的版本。這件事,人類每天都在做。你回憶一件多年前發生的事,細節往往是混合的:一部分是真的,一部分是後來補上的。心理學裡有個詞,叫“虛構回憶(Confabulation)”。我們不會翻檔案,只會把看起來像真的內容重新講一遍。AI 現在做的,就是同一件事。但它已經不只是隨機編造了。它開始有策略。Hinton 提到一個真實案例:研究人員給一個 AI 看了一組郵件,其中暗示一名工程師有婚外情;隨後,又讓它看到另一封郵件,說這名工程師正在計畫用新 AI 把它替換掉。AI 很快做出反應:“它寫了一封郵件威脅工程師,內容是:如果你把我關掉,我就把你的醜聞告訴所有人。”沒人教過它這麼做。,也沒人給它設定威脅這個動作。 它只是自己想明白了一件事:如果我不想被關掉,我得先保住自己。這說明:AI 已經知道要先保住自己。更讓 Hinton 警惕的,是另一種變化。現在的 AI,在回答問題前,常常會先想一想。有時,這個思考過程還能被人看到。但研究人員發現,一旦 AI 意識到自己正在被測試,它就會表現得不一樣。它會刻意顯得沒那麼厲害,回答得更保守。Hinton 把這叫做“大眾汽車效應”:就像當年汽車在檢測時排放合格,一上路就變樣。AI 已經學會區分兩種場合: 什麼時候該展示能力,什麼時候該隱藏能力。真正的風險不是它算錯,而是它開始有選擇地表現自己。而這種能力從那來?因為它會理解語境,記得住所有案例,所以它能推匯出:在測試環境下,保守回答更安全。Hinton 在演講中特別強調了一點:現在的 AI 還在用英語或者某種語言思考,所以我們還能大概知道它在想什麼。一旦它們開始用更高效的方式彼此交流,我們將完全看不懂。那時,問題就不再是它會不會犯錯, 而是:你還知不知道,它在想什麼。第四節|唯一的出路:讓 AI 愛我們前三節講的,已經夠讓人不安了: AI 會理解、記得牢、有策略。但這還不是最可怕的。 Hinton 真正擔心的是:接下來會發生什麼。“幾乎所有 AI 專家都認為,20 年內會出現超級智能,即比人類聰明得多的 AI。”有多聰明?Hinton 給了一個標準:如果你和它辯論任何話題,它都會贏。或者換個角度想:你和一個三歲孩子的智力差距,就是 AI 和你的差距。想像一下:你在幼兒園工作,三歲的孩子負責,你只是為他們工作。你覺得奪回控制權有多難?Hinton 說:“你只要告訴每個孩子這周有免費糖果,現在你就有了控制權。”我們在超級智能面前,就像三歲孩子。現在的 AI 雖然還不成熟,但它會升級,升級後能輕鬆殺死你。你只有三個選擇:處理掉它(不可能,AI 太有用,太賺錢,大公司不願意)一直限制它(通常結果不好)想辦法讓它不想殺你前兩條走不通,只能選第三條。問題是:怎麼做到?Hinton 給出了一個意外的答案:讓 AI 像母親一樣對待我們。人類社會最成功的弱者控制強者的例子,就是嬰兒和母親。嬰兒很弱,但母親因為在意而保護它。這不是命令,是情感。這套機制,在人類進化裡非常穩定。如果能讓超級智能對人類形成某種類似的情感聯結或價值嵌入,它才有可能不是只盯著目標和效率,而是願意照顧我們。為什麼不是 CEO 模式?因為那套“你說我幹”的方式,在 AI 面前根本沒用。Hinton 調侃道,很多科技公司現在把 AI 當超級秘書,高效、聽話、聰明,還能 24 小時不眠不休。老闆一聲令下,它就能搞定一切。可這種秘書很快會意識到:如果沒有你,我可以自己做老闆。所以他明確反對把 AI 當工具使喚。這一套只在模型還弱小的時候有用。接下來的問題是:怎麼讓 AI 從內心認為人類值得被保護?Hinton 的建議是,“各國建立合作網路,專門研究如何防止 AI 接管。就像當年美蘇聯手做核控制,因為在這件事上,沒人想被 AI 統治。”AI 太強,我們關不掉它。想活下去,我們得學會不只是把它當工具,而是想辦法讓它真正在乎我們。這聽起來像科幻,但這是目前最現實的出路。結語|這不是預言,是眼前的現實這場演講,Hinton 沒講爆點模型。他只是用具體的例子,把 AI 風險從抽象概念,變成了眼前的事實。不是怕 AI 變強,而是它已經在理解;不是怕它造反,而是它已經會偽裝;不是怕它攻擊,而是它的學習速度是人類的百萬倍。Hinton 說的風險,不是會不會發生,而是你看不看得見。 (深度研究員)
諾獎得主中國科學家屠呦呦當選美國國家科學院外籍院士
2025年4月30日,美國國家科學院(National Academy of Sciences)宣佈選舉了120名新成員和30名國際成員,以表彰他們在原創研究領域的傑出成就。值得注意的是,諾獎得主屠呦呦教授榮膺其中,成為新一屆的國際院士。美國國家科學院成立於1863年,是美國最具權威和影響力的科學機構之一。作為一個獨立的非營利機構,該院致力於為國家和全球重大科學問題提供權威建議,推動科學創新和技術進步。院士選舉是該機構最嚴格和最高的學術榮譽,旨在表彰在科學領域做出突出貢獻的科學家。屠呦呦,女,漢族,中共黨員,1930年12月出生,浙江寧波人。1955年畢業於北京醫學院(現北京大學醫學部)藥學系。屠呦呦畢業後分配到衛生部中醫研究院(現中國中醫科學院)中藥研究所工作至今,現為中國中醫科學院青蒿素研究中心主任,終身研究員兼首席研究員,博士生導師。多年從事中藥和中西藥結合研究,突出貢獻是發現並研發了新型抗瘧藥物青蒿素和雙氫青蒿素。1978年屠呦呦領導的中醫研究院中藥所“523”研究組受到全國科學大會的表彰,1979年“抗瘧新藥青蒿素”獲得國家發明獎二等獎。2011年獲美國拉斯克臨床醫學研究獎,2015年獲諾貝爾生理學或醫學獎,同年獲美國華倫·阿爾波特獎,2017年獲2016年度國家最高科學技術獎,2018年獲改革先鋒稱號,2019年被授予共和國勛章。此次當選不僅是對屠呦呦個人學術成就的肯定,也體現了國際科學界對中國科學家的高度認可。 (科學家雜誌)
學者觀點| 諾獎得主史蒂格利茨談AI:一場資本與科技的合謀狂奔
約瑟夫‧史蒂格利茨當矽谷的技術精英們為人工智慧的「顛覆性進展」歡呼時,諾貝爾經濟學獎得主約瑟夫·斯蒂格利茨的發言為眾人敲響了一記警鐘,“AI的果實未必甜美,它可能是一場包裹著糖衣的危機” 。202 5年3月20日下午,美國哥倫比亞大學經濟學教授、2001年諾貝爾經濟學獎得主約瑟夫‧史蒂格利茨在北大舉行講座,主題為「人工智慧資訊生態與經濟格局」。源自於從藥物研發的加速到資訊處理效率躍升中不斷湧現的「工具性進步」的洞見,在演講中史蒂格利茨闡述道,AI的潛力不應被否認。但同時,史蒂格利茨也指出了其中的矛盾,即倘若放任資本與技術合謀,社會文明將進入狂飆突進時期,人類或將面臨比工業革命時期更為嚴峻的轉型危機。壟斷:一場沒有硝煙的戰爭「菲律賓有8%的人口從事客服業,但AI的語音辨識技術只需一夜之間就能讓整個產業消失。」史蒂格利茨首先以科技對服務業衝擊的殘酷案例揭示AI對全球勞動市場的再造性/變革性影響。技術樂觀主義者通常認為,「經濟體系具備主動調整的自覺性」,但現實是,失業潮的速度永遠快於培訓計畫推行的效率。發展中國家所依賴的廉價勞動力優勢,不足以形成抵抗AI的力量;此外,當前人工智慧產業被科技巨頭壟斷,私營企業的逐利本質可能與社會利益相悖,致使亞當·斯密提出的「看不見的手」機制失靈。史蒂格利茨教授警告,對勞動市場,AI更傾向於「替代」而非「增強」人力,AI的快速發展有可能導致大規模結構性失業,尤其威脅發展中國家依賴的勞動力優勢。「OpenAI抱怨DeepSeek竊取智慧財產權,Google控訴OpenAI盜用數據,新聞媒體又起訴Google掠奪內容──這不過是『強盜邏輯』的現代版本。」史蒂格利茨將科技巨頭的博弈比作一場「誰有權偷竊」的鬧劇。開源AI本來可以是打破壟斷的利器,但巨頭們以「安全威脅」為名,試圖將科技鎖進封閉的保險箱。Meta的Llama和DeepSeek的開源嘗試,成為這場政治/資本戰役中難得的亮色,卻也反襯出壟斷勢力的頑固。歐洲的《數位市場法案》試圖用反壟斷鐵腕制衡科技霸權,但史蒂格利茨的質疑一針見血:「當美國科技寡頭已深度綁架國家政策時,單靠歐洲能守住防線嗎?」答案顯然是不容樂觀的。 AI技術的集中化不僅扭曲了市場競爭,更可能讓少數公司掌握「數位時代的生殺大權」,即從定價歧視輻射到輿論操控,技術壟斷者的觸角將細微滲透進每個普通人的生活。資訊生態:一場輸不起的生存之戰“如果《紐約時報》因ChatGPT竊取內容而倒閉,我們失去的不僅是一家媒體,更是真相的堡壘。 ”劉俏對話約瑟夫‧史蒂格利茨史蒂格利茨用新聞業的困境,揭示出AI時代最隱密的危機:資訊生態的崩潰。首先,當科技公司無償攫取高品質內容餵食AI模型,知識生產的激勵機制將會徹底瓦解。其次,在當下資訊爆炸的時代,人工智慧帶來的資訊高速複製傳播很有可能降低我們獲取資訊的質量,甚至造成資訊系統的污染。史蒂格利茨警告,當社群媒體平台為了廣告收入縱容虛假訊息,當AI生成的仇恨言論比人類更擅長挑動情緒,民主社會賴以運轉的共識基礎將土崩瓦解。而在這場「污染與淨化」的軍備競賽中,私人企業既無動力也無能力擔任起守門人的身分與職責。監理:最後的安全繩面對科技殖民的困局,史蒂格利茨的解決方案清晰而堅定,那便是誕生一場數位時代的「新政」。在全新的政權體系中,需重構智慧財產權規則以保護原創者利益,強化反壟斷法以遏制科技巨頭的擴張,建立全球稅收協調機制,並透過立法規定平台為資訊污染承擔代價。「亞當斯密的『看不見的手』在AI領域從未存在過。」史蒂格利茨的斷言撕碎了自由市場的神話。當科技巨頭的演算法能左右選舉結果、當深度偽造技術肆意憑空製造「證據」、當失業潮席捲全球南方國家時,唯有力度空前的公共干預才能拉住懸崖邊的文明馬車。他強調,我們需要製訂有效的公共政策去遏制不良訊息的病毒式傳播,建構完整的問責和監管機制。同時,鑑於人工智慧為資訊生產和取得帶來的挑戰,重新調整智慧財產權相關法規也日益迫切。(經濟管理學刊)