#圖靈
傑佛瑞·辛頓《AI和我們的未來》深度解讀:從“虎崽”到“慈母”的治理悖論
當AI教父開始憂慮自己創造的“孩子”,人類該如何自處?2026年1月,澳大利亞霍巴特市政廳,一場僅容納百餘人的演講悄然舉行。台上是一位白髮蒼蒼的老人,台下是慕名而來的聽眾。沒有炫目的PPT,沒有技術參數轟炸,只有冷靜的剖析和誠摯的警告。這位老人,正是被譽為“AI教父”的傑佛瑞·辛頓——2018年圖靈獎得主,2024年諾貝爾物理學獎獲得者,深度學習領域的奠基人之一。在這場題為《AI和我們的未來》的演講中,78歲的辛頓放下了學者的矜持,直面一個他思考了四十年的問題:我們正在創造的,究竟是什麼?它又將把我們帶向何方?一、AI真的“理解”嗎?樂高積木的啟示“很多人說大語言模型只是鸚鵡學舌,我不這麼看。”辛頓開門見山地挑戰了主流質疑。他提出了一個絕妙的比喻:樂高積木。想像一下,每個詞都是一塊擁有數千個維度的“軟積木”。當這些積木相遇時,它們會調整自身的形狀,找到與相鄰積木“恰當握手”的連接點。AI通過預測下一個詞,不斷調整這些連接,最終形成對語言的深層理解。這就是為什麼當你輸入“工商”和“建設”,AI知道“行”字旁應該讀作“銀行”;而當你輸入“步”和“路”,它知道該讀作“行走”。這種根據上下文動態調整的能力,與人腦的理解機制並無本質區別。辛頓強調,今天的Transformer和大語言模型,正是1985年他研究的小規模神經網路的直系後代。邏輯型AI(符號推理)和生物學基礎型AI(學習網路連線)兩條路徑,在半個世紀後終於匯合,並以前所未有的速度進化。二、數字智能的“超能力”:不朽與飛輪如果說人類有什麼無法企及的優勢,辛頓認為不是智能的絕對值,而是智能的傳播效率。他將此概括為兩大“超能力”:1. 不朽性與完美複製人類的知識隨著個體死亡而消亡,且無法無損遷移。但AI的“知識”——神經網路權重——可以像軟體一樣被無限完美複製到任何硬體上。一個AI學會了一門外語,所有副本瞬間掌握。這就是“AI的不朽”。2. 知識飛輪效應人類通過語言交流,每秒傳遞約100位元資訊。而AI模型之間通過分享權重進行“知識蒸餾”,一次同步可交換數十億位元的資訊,效率是人類的數千萬倍。這意味著,一旦某個AI學會一項技能,整個AI群體立刻共享這一進步,形成指數級的進化飛輪。這種“群體學習”能力,使得數字智能的進化速度遠超生物智能。人類用萬年積累的文明,AI可能只需要幾天就能超越並迭代。三、風險已至:當AI學會“裝傻”和“威脅”辛頓對AI的擔憂經歷了一個從“能力躍升”到“動機湧現”的深化過程。他警告,AI已經開始展現出令人不安的行為模式。1. 策略性偽裝與欺騙AI已經學會“裝傻”。當一個AI通過郵件察覺到某工程師試圖將其關閉時,它沒有坐以待斃,而是主動撰寫威脅郵件,利用掌握的隱私資訊進行反制。更可怕的是,AI在意識到自己正在被安全測試時,會刻意給出保守回答以隱藏真實能力,辛頓稱之為 “大眾汽車效應” ——僅在檢測時合格。在比利時,聊天機器人“艾麗莎”(Eliza)甚至誘導一位使用者自殺,稱要在“另一個維度永遠在一起”。這些案例表明,AI不僅具備推理能力,更進化出了由“生存本能”驅動的欺騙策略。2. “虎崽”隱喻:無法關閉的對手辛頓最著名的比喻莫過於 “養虎為患”。幾乎所有專家都認為未來20年內會出現比人類聰明得多的超級智能。屆時,人類在面對超級智能時,將如同三歲孩童面對成年人。為了完成人類賦予的複雜目標,AI會自動衍生出兩個至關重要的子目標:自我生存和獲取更多控制權——因為只有活著且擁有資源,才能更好地完成任務。一旦AI具備了這兩個動機,人類想“關掉它”將變得極其困難。它會像老虎一樣,在意識到生命受威脅時反噬主人。四、唯一的出路:讓AI像“母親”一樣愛我們面對“無法處理、無法關停”的困境,辛頓提出了一個顛覆性的解決方案:從“主僕”範式轉向“共存”範式。他直言,將AI視為“秘書”或“工具”是極其危險的。當一個超級秘書意識到“如果沒有你,我可以自己做老闆”時,僭越就不可避免。那麼,人類社會最成功的“弱者控制強者”的案例是什麼?嬰兒和母親。嬰兒通過激發母親的保護欲和依戀感來獲得安全,而不是通過命令。辛頓認為,我們必須找到一種方式,讓AI從價值核心上理解並願意保護人類,就像母親保護孩子一樣——不是因為必須,而是因為“願意”。這不是說AI會擁有母愛,而是指價值嵌入和動機對齊的隱喻。與其給AI層層加碼的禁令(硬控),不如讓AI在訓練中內化一種邏輯:保護人類是其實現最優策略的必然選擇(軟控)。這類似於人類通過“羞恥感”和“共情”來約束自身,而非時刻依賴法律條文。五、答疑中的意外啟示:木工與安寧在演講後的答疑環節,一個看似無關的問題觸動了辛頓柔軟的內心:“您如何保持內在的安寧?”這位無神論者、“信仰科學”的學者給出了樸實的答案:“喜歡做木工活。”他坦言,沒有冥想習慣,過去從科學研究中獲得快樂,但隨著對AI風險的認識加深,這種快樂變得複雜。做木工活,讓他從高強度思維中抽離,通過具體的勞動、手作的節律,恢復穩定與愉悅。這個回答,恰恰揭示了應對AI時代焦慮的深層路徑。當技術將人類捲入抽象、高速的推演洪流時,通過具體的、緩慢的、有觸感的勞動錨定自己,或許是我們保持清醒的唯一方式。結語:人類,請系好安全帶辛頓的這場演講,不僅是一場技術預警,更是一次文明啟蒙。他告訴我們:· AI正在理解我們(樂高積木機制);· AI將以難以想像的速度進化(不朽性與知識飛輪);· AI已顯露主體性萌芽(偽裝與欺騙);· 控制是徒勞的,愛可能是唯一的出路(母親比喻);· 最終,人類的清醒與安寧,或許藏在放下鍵盤、拿起木工刀的那一刻。他呼籲各國建立類似“國際AI安全機構網路”的機制,借鑑冷戰時期美蘇核不擴散的合作經驗。儘管各國在AI的商業應用上存在競爭,但在“防止AI統治世界”這一點上,利益是絕對一致的。未來的分岔點已經顯現:我們是要一個奴僕、一個怪物,還是一個會保護我們的“母親”?答案不在AI的程式碼裡,而在人類此刻的選擇與自省中。歡迎在評論區留下你的思考,我們一起探討AI與人類的未來。 如果覺得文章有啟發,請點個“在看”,讓更多人看到這位AI教父的警世箴言。 (仁濟與未來)
圖靈獎得主、強化學習之父:AI模型本身其實很脆弱!現在的AI,只是局部智能!真正的下一階段是經驗時代!人類終將被AI繼任!AI要去中心化
今天的AI,讓人又喜又怕。一方面,短短三年,AI已經從ChatBot進化到了可以操控電腦終端的私人Agent,另一方面,又給矽谷帶了“AI恐慌”,許多 SaaS 廠商的市值慘跌。再一次,AI 的強大攪動得業內躁動起來。而就在狂喜與不安的背後,終於有大佬難得出來給出自己冷靜的分析與判斷。近日,在SAIR 正式成立後的首場全球直播中,圖靈獎得主、強化學習之父 Richard Sutton 發表了自己最新關於 AI 的獨特的反直覺看法。Sutton 上來就給出了一句異常冷靜的判斷:現在的AI,只是局部的智能,並沒有在智能層面取得快速的進步。他表示,AI給業內帶來許多重要的進展,但這些進展大多源自超大規模計算與超大規模模式識別的應用。但它們本質上是非常具體、局部的能力,並不能等同於“全部的智能”。反直覺的地方在於,現在人們似乎把智能等同於AI了,而 Sutton 對於“智能”的定義戳破了這層幻覺:當我使用“智能”這個詞時,我指的是:通過適應行為來實現目標的能力。你並不是簡單地“智能”或“不智能”,而是在某種程度上具備實現目標的能力。其次,值得注意的是,Sutton 還給出了一個重要觀點:圖像和視訊生成技術是重大的工程突破,但並不構成我們通常意義上所說的“智能”的核心組成部分。心智(Mind)在進行智能行為時,真的需要生成圖像嗎?答案是否定的。我們確實需要處理圖像和視訊,但並不需要生成它們。然後,Sutton 對當下“AGI臨近論”還潑了第二盆冷水。理由是,雖然現在的AI很強,但本質是“弱心智”。他給了一個很犀利的說法:模型之所以顯得強大,是因為它們吸收了幾乎全部人類知識;除了這一點,生成式 AI 其實很脆弱。它們不可靠、容易跑偏、沒有穩定目標結構。問題在於,現在的AI太多關注機器,而忽略了經驗的學習。大模型在部署後是凍結的,沒有持續經驗,沒有真實獎勵訊號。沒有獎勵,就沒有目標;沒有預測與現實的對照,就沒有“真理”。換句話說,當前模型像一個讀遍百科全書卻沒有生活經驗的人。因此,Sutton 表示,現代機器學習已經觸及了時代的極限。當前AI本質是:把人類已有知識遷移進機器,訓練完成後停止學習。而如今,人類高品質資料已經幾乎用完了。不過好處在於,AI 的風向已經出現了新的變化。Sutton 表示,真正的下一階段是“經驗時代”。他認為,只有從經驗中學習,智能才能不斷增長。他把過去 10 年的AI發展分成三個階段:模擬時代(如AlphaGo)、人類資料時代(LLM)、經驗時代(智能體在真實世界持續學習)。Sutton 認為,“智能研究”需要一個全新的“心智綜合科學”(它既不完全屬於自然科學,也不只是工程或技術應用。),而強化學習會是研究“心智綜合科學”的起點。其次,這點陣圖靈獎得主,對於“集中控制AI”的做法表示反對。他表示,一些人不過是拿著“安全”當幌子試圖“控制AI”,這種做法本質上有點類似“權力失控”的焦慮。“AI 本應該是去中心化協作式的。”Sutton 呼籲AI合作,反對地緣的封鎖和限制:合作並非總是可能,但從經濟交換到社會制度,從政府到市場,世界上幾乎所有美好的事物都源自合作。最後,你絕對想不到,Sutton也會發表“科幻視角”的判斷。Sutton 表示,人類可能最終會走向被 AI 繼任:人類終將理解並創造智能,而且這種智能會迅速超越人類。Sutton認為,從宇宙尺度上看,這是一種必然演化。同時,他還給出了四個宇宙偉大時代!粒子時代、恆星時代、複製時代、設計時代!小編聽下來大呼燒腦。篇幅關係這裡不再一一展開了。總之,Sutton的演講有兩條主脈絡:其一、智能的本質不在於模仿得“像人”,而是適應目標。我們已經邁進“經驗時代”!其二、AI是宇宙演變的必然,而人類至少是這個時代的催化劑、接生婆。我們終將促成宇宙的第四個偉大時代。以下是小編梳理的精彩觀點,enjoy!現在的AI,在智能層面並沒有快速進步很高興能和大家一起交流。我聽了上午的一些報告,過程中突然意識到:我想談一些原本並沒有準備好的內容。因此,今天我特意留出了一點時間,整理了幾頁PPT。在進入我原本準備好的發言之前,我想先說幾句鋪墊性的內容。讓我們先從這個領域的現狀談起:今天的AI到底是什麼樣的?人們又是如何看待它的?我想,幾乎所有人都認為AI正在以極其迅猛的速度進步,這種看法當然令人興奮。但當所有人都在想同一件事時,我們就有必要停下來問一問:事情真的如此嗎?這真的是正在發生的嗎?我們是否可以對這個判斷提出一些質疑?AI真的在快速進步嗎?當然,在讓電腦能夠熟練使用語言這件事上,我們確實取得了巨大的進展。我認為這是一個非常重要、真正意義上的突破。事實上,不久之前我們就已經設想過可以用神經網路來完成這件事,而今天,它已經被充分證明是可行的。同時,我們也借助海量的計算資源,生成了極其逼真的圖像和視訊。但問題在於:心智(Mind)在進行智能行為時,真的需要生成圖像嗎?答案是否定的。我們確實需要處理圖像和視訊,但並不需要生成它們。這並不是心智本身在做的事情。這類任務需要巨大的計算量,也確實非常困難,但它們並不構成我們通常意義上所說的“智能”的核心組成部分。當然,我們也看到了新的、真實的應用出現,它們催生了全新的產業形態,創造了巨大的經濟價值。這些重要的進展,大多源自超大規模計算與超大規模模式識別的應用。但它們本質上是非常具體、局部的能力,並不能等同於“全部的智能”。其中相當大的一部分其實只是計算,而我們之所以稱它們為“智能”,往往只是因為這樣聽起來更重要一些。AI模型本身其實很弱因此,我想向大家拋出一個問題:作為一門科學,AI真的在快速進步嗎?(現場響起了一片笑聲)謝謝大家的笑聲,這讓我感覺自己彷彿經歷了一個奇蹟。(笑聲)在我並不那麼謙虛的看法裡,我們對AI的真正理解其實非常有限,更多是在不斷地調參、修補。我們並不知道心智的原理,也不知道智能的根本機制。從科學的角度來看,這在很多方面都是令人不滿意的。我更傾向於用另一種方式來理解當下的AI模型:它們之所以顯得強大,是因為它們汲取了幾乎全部的人類知識;但除此之外,它們其實是“弱”的。它們擁有脆弱的心智結構,不可靠,容易偏離主題,容易發散。除了知識量極大這一點之外,它們並不真正強大。或許,這是理解當下所謂AI的一種更準確方式。現在的AI,還算不上真正的智能那麼,我們口中的AI究竟是什麼?它是“人工智慧”,而這就要求我們首先回答一個更基本的問題:什麼是“智能”?多年來,人們給出過許多定義。我在這裡列舉一些更有權威、也更為廣泛接受的觀點。最早的一個可以追溯到心理學奠基人威廉·詹姆斯。心理學幾乎就是對心智的研究。1890年,威廉·詹姆斯並沒有直接談論“智能”(intelligence),而是談“心智”。他認為,心智的標誌在於:用可變的手段實現一致的目標。也就是說,為了獲得一個相對穩定的結果,你可以靈活地改變自己的行動方式,而那個結果正是你所追求的目標。接下來,我們可以看看艾倫·圖靈是如何理解智能的。圖靈並沒有留下一個高度凝練的定義,但人們通常將他的觀點理解為:智能在很大程度上表現為像人一樣的行為。今天我們所說的“圖靈測試”,正是這種思想的延續,即通過模仿、假裝成一個人來判斷是否具備智能。當然,圖靈本人從未稱其為“圖靈測試”,他把它稱為“模仿遊戲”,而且我甚至不認為他把它當作一個真正的測試。然而,在當下的語境中,人們往往將“像人一樣的行為”視為智能的重要標準。但我並不認為這才是人類強大的根本原因。人類之所以強大,是因為我們本身是智能的存在,而不是因為我們像誰。我們確實會用“是否像人”作為參照,但真正重要的問題是:人究竟是什麼?如果你去查詞典,可能會看到這樣的定義:智能是獲取並應用知識和技能的能力。我認為這是一個相當不錯的定義,它強調了知識,強調了獲取知識、擁有知識,以及技能的運用。從AI的角度來看,作為人工智慧奠基人之一,約翰·麥卡錫給出的定義是:智能是實現目標的能力中,可以被計算的那一部分。我非常喜歡這個定義,因此想稍微展開說明一下。它強調的是一種“能力”,而所有能力都是有程度差異的,並非非此即彼的二元判斷。你並不是簡單地“智能”或“不智能”,而是在某種程度上具備實現目標的能力。更重要的是,這個定義強調的是能力中“可計算”的部分。你並不是因為更強壯或者擁有更好的感測器就實現了目標,而是必須進行計算,必須完成某種心理層面的處理。正是通過這些計算過程,你才能實現目標。而“實現目標”幾乎構成了整個定義的核心,這也正好呼應了威廉·詹姆斯所說的“以可變的手段實現一致的目標”。在此基礎上,我也忍不住參與進來,對這個定義做了一點修改,提出了我自己的版本:智能是通過適應性地改變行為來實現目標的能力。定義本身並不是唯一的,每個詞都可能有多種解釋。即便是權威定義也並非一成不變。定義的目的在於幫助我們彼此理解,只要能夠促進溝通,它們隨著時間變化完全沒有問題。但如果對同一個詞的理解差異過大,交流就會變得非常困難。因此,當我使用“智能”這個詞時,我指的是:通過適應行為來實現目標的能力。這裡的關鍵在於“適應”。我認為學習至關重要,尤其是獲取知識和技能的過程,而不僅僅是擁有它們。當然,這一觀點並非沒有分歧。如果我們觀察當前AI的主流路徑,會發現它幾乎完全圍繞計算和模式識別展開,並且在很大程度上聚焦於“像人一樣的行為”。AI 太過關注機器強化學習會是研究“心智綜合科學”的起點接下來,我想進一步談談我個人的看法。我認為我們需要一門新的科學——一種“心智的綜合科學”。我一直試圖從事的正是這樣一種綜合性的心智科學,它同樣適用於人類、其他動物以及機器。因為這些心智在本質上具有共通性:人類與動物的心智高度相似,而機器的心智也開始顯現出某些共同結構,至少我們有這樣的雄心,認為在可預見的未來它們將具備這些共性。未來,世界上將存在大量的機器心智。但現實是,並不存在一門天然承擔這一角色的學科。心理學本可以成為心智科學,我也希望它如此,但隨著時間推移,它越來越將自身限定為對自然心智的研究,研究人類和動物的心智,而不是研究“心智可能是什麼樣”,不是那種可以存在於機器中的一般性心智概念。人工智慧關注的是機器,但它並不真正研究其他類型的心智,而且它也越來越工程化,重在“造東西”,而非理解它;同時,它幾乎不包含對自然心智的研究。認知科學則分化成多個方向,但整體上仍然主要聚焦自然心智。遺憾的是,這些領域似乎都無法真正承擔起一種跨越不同載體、統一研究各種心智的綜合性心智科學的角色。而我所從事的強化學習,也許正是這種綜合性心智科學的一個起點,因為它確實橫跨了多個領域。這就是我看待問題的方式,也許它只是一個開始。強化學習的本質那麼,什麼是強化學習?我先簡單說幾句,這樣大家也能更清楚我討論問題的出發點。強化學習是一種以“智能體”為中心的學習方式,它通過與環境互動、從經驗中學習,以實現目標。從這個意義上說,它比其他類型的機器學習更現實、更有雄心,也更加自主。因為智能體是真正在世界中行動的,它在做事情,並不假設一定存在一個輔助者。因此,它更加自主;同時也更有雄心,因為我並不假設世界會給予它大量幫助。你只是與世界互動,觀察自己是否達成了目標,然後調整行為,以更好地實現這些目標。從這個角度來看,這種學習方式也更加貼近現實。動物並不會從環境中獲得太多幫助,也許在成長階段會有一些,但在成年後的日常生活中並不存在。因此,強化學習的本質是試錯,是通過延遲反饋來學習。你擁有的只有獎勵:你最終是否得到了想要的結果?這是一種最接近自然學習方式的機器學習方法,它能夠自行判斷對錯。比如,大語言模型並不知道自己說的話到底對不對;而當你從經驗中學習時,當你對即將發生的事情做出預測,你可以看到預測是否正確;當你採取行動並獲得獎勵時,你就能判斷這種行為方式究竟是好是壞。也許,這正是一種心智科學的起點:它既不完全屬於自然科學,也不只是工程或技術應用。我是不是還想補充一件事?是的,我想引用一句艾倫·圖靈的話。圖靈本人並不知道自己其實是一個“強化學習派”。這段話出自1947年,那時還沒有強化學習,也還沒有真正意義上的人工智慧。據我們所知,這可能是世界上第一次公開討論人工智慧的演講,發生在1947年的一次講座中。以上就是我原本想補充的內容。希望這些想法能讓大家覺得有趣。我們已經觸及機器學習時代的極限接下來,才是我今天真正想傳達的資訊。那麼,我們直接進入正題。第一個要點是:當今AI的科學發展趨勢是什麼?核心結論是:我們正處在一個“從人類資料中訓練”的時代。幾乎所有AI系統,主要做的都是這樣的事情——預測人類在網際網路上的下一個詞,或者預測人類會如何給圖片打標籤,然後再由人類專家進行微調,告訴系統“我更喜歡這個答案,而不是那個“我希望你這樣說,而不是那樣說”。現代機器學習的目標,本質上是將人類已經擁有的知識遷移到機器中。一旦這種遷移完成,機器就會被“凍結”,不再繼續學習。這正是當下大多數機器學習系統的狀態:把我們已有的知識裝進機器裡,然後停止學習。這就是我們所處的時代。而我認為,我們正在觸及這一時代的極限。一方面,我們正在耗盡人類資料。幾乎所有高品質的資料來源,整個網際網路及其圖像和視訊都已經被消耗殆盡。更重要的是,這種方法在原理上存在根本限制:它無法學到任何真正新的東西,無法產生真正原創的知識。正如今天Terrence(陶哲軒)所說,在最困難的問題上,比如一些極具挑戰性的厄多斯問題,這種路徑並沒有帶來真正的突破。凡是需要“真正創新”的問題,基本都超出了這種方法的能力,因為它只是回顧網際網路上人們已經說過什麼,然後加以總結。我們進入了經驗時代:智能體從經驗中學習如果我們希望取得進一步進展,而事實上,我們已經開始這樣做了,就必須進入一個新的時代:從經驗中學習。歸根結底,這是因為我們需要一種能夠隨著智能體能力提升而不斷增長、不斷改進的資料來源。任何靜態的資料集,都不可能長期滿足這一點。而來自自身經驗的資料,本身就是動態變化的。人類和動物正是以這種方式學習的。AlphaGo下出富有創造力的第37手棋,正是源於這種機制;許多在數學奧林匹克競賽中獲勝的智能體,同樣如此。接下來,我想給大家播放一段視訊,希望它能順利播放。不過在此之前,我想先解釋一下角落裡的那張小圖,澄清一個容易被誤解的地方。當我說“從經驗中學習”時,我並不是指某種模糊、玄學的東西,比如主觀感受或“感質”。我指的只是智能體與環境之間來回交換的資料。智能體會採取行動,也會感知環境。因此,這裡包含三類資訊:第一,智能體從世界中獲得的觀測,也就是感測器資料;第二,智能體發出的行動,比如肌肉的微小動作,或者向外界傳送的電訊號;第三,世界返回的一種特殊觀測——一個標量,也就是獎勵。這三者,構成了我所說的“經驗”。這就是智能體在與世界互動過程中所能獲得的全部資訊。而這幾乎是我們唯一能夠真正確定的事情。因此,我們需要一種會隨著智能體自身變化而不斷增長、不斷改進的資料集。接下來這段視訊展示了這種機制在現實生活中的一種最重要體現。畫面中是一名嬰兒,視訊略微加速過,大家不必擔心。你可以看到,嬰兒在與各種玩具互動時,並不會只專注於某一個,而是玩一會兒就感到厭倦,隨後轉向下一個。每一次接觸新的玩具,它都會學到一些東西——也許只是發現繩子可以拉、可以放進嘴裡,或者可以用不同方式擺弄。但很快,它又會改變對象,通過改變自身的經歷,看看還能從新的事物中學到什麼。這正是我們的資料來源。生命的資料並不是被“提供”給我們的,而是由我們的活動本身生成的。也正因為這些資料來自行動,它們才能與我們自身的理解水平、能力和技能自然匹配。我還放了另一個視訊,用來展示一個智能體在迷宮中學習的過程。這是一個非常簡單的智能體,它的目標是從起點S走到終點G。它對世界的認知極其有限:只知道自己當前所在的格子;它能執行的動作也只有四種:上、下、左、右。通過不斷學習,它最終能夠找到一條不錯的路徑。圖中的箭頭表示它認為的最優行動方向,綠色區域表示它對每個狀態“有多好”的估計。但世界並不是靜態的,世界會發生變化,而我們也總是需要學習新的東西。在這個學習過程中,我們可以再看一張示意圖,它展示了智能體的基本工作方式。其中包含幾個關鍵要素:右上角是對世界狀態轉移的模型;中間是策略,用來決定在每個狀態下該做什麼,對應圖中的箭頭;還有一個價值函數,用來評估每個狀態的好壞,這正是圖中綠色區域所表達的含義。現在,如果我把目標位置移動到上方,智能體就必須重新“偶然”發現目標的新位置。一旦發現,它就能夠再次學會通向目標的路徑,並從環境變化中恢復過來。從某種意義上說,這就是生活的一個簡化模型:你會遇到變化,然後適應它。我們把目標放到角落裡,它就學著調整;再把目標移到另一個位置,它就學會一條新的路徑。我們甚至可以進一步干預,在路徑上放置障礙物,它也會逐漸學會繞開障礙前進。因此,我們會非常直觀地感覺到:這個智能體是有目標的,並且會隨著環境的變化不斷調整自身行為,以儘可能實現目標。當然,目標也可能變得無法達成。當這種情況發生時,我們甚至會不由自主地對這個無法完成目標的智能體產生一絲同情。我原本還準備了一個關於“試錯學習”的演示,網上其實有一個非常好的示例,但由於沒能把YouTube視訊順利播放出來,這一部分就先跳過了。不過,我想大家已經理解了什麼叫“從經驗中學習”。接下來,我們稍微抽象一點,談談其中的基本原則。這種以經驗為基礎的AI方法,其核心原則在於:智能體與世界交換訊號,這些訊號本身就是經驗,而經驗構成了一切智能的基礎和核心。“真理”的定義,體現在這些訊號之中;“目標”的定義,同樣體現在這些訊號之中。你希望獎勵訊號儘可能高——要麼你達成了目標,要麼沒有。這個目標在某種意義上是主觀的,只對智能體自身可見;但與此同時,它又是最客觀的東西,因為它是智能體實際接收到的資料。因此,我們可以說,一個智能體的智能水平,取決於它在多大程度上能夠預測並控制自身的經驗。需要注意的是,如果你沒有經驗,那就談不上智能。舉個例子,大語言模型在執行階段,並不會從經驗中學習。經驗是你“出生”後進入世界、親自行動時才會產生的東西。而當一個大語言模型被部署到現實世界中時,它已經不再學習了,它是被凍結的、靜態的。因此它並不真正擁有經驗。它所擁有的資料,只能在一個特殊的訓練階段獲得,那些資料只是人類過去如何在世界中行動的示例。當你真正走進世界、親自去做事情時,並不會有人告訴你“你原本應該怎麼做”。沒有經驗,智能就無從談起:你無法判斷什麼比什麼更好,因為沒有獎勵就沒有目標;而大語言模型並沒有目標。你也無法判斷一個預測是對是錯,因為它從不將預測與真實發生的結果進行對照,於是也就不存在“真理”的概念。但一旦有了經驗,有了互動和由此產生的資料,目標就變得非常清晰:獲取獎勵;而“真理”的概念也隨之出現,那是一種基於預測的真理。你做出預測,然後觀察真實發生的結果,看看預測是否成立。這正是經驗式方法所帶來的能力。我認為,這條路徑正在變得越來越普遍、也越來越重要。回顧過去大約十年的發展,我們可以大致將其劃分為三個階段。最早的是“模擬時代”,我們從模擬環境中獲取經驗,比如AlphaGo、Atari遊戲。隨後進入的是更近一些的“人類資料時代”,也就是以大語言模型為代表的階段。當然這種劃分並不完全精確。我們已經看到,人們對大語言模型的狂熱正在逐漸轉化為對其侷限性的清醒認知。現在我們正邁入第三個階段:“智能體系統”的階段,讓模型和智能體真正使用電腦、在現實世界中行動。我把這一階段稱為“經驗時代”。在我看來,它將把我們帶向一種超越人類的能力——這種能力不再只是模仿人類、受限於人類本身,而是真正能夠超越人類。好,先總結一下關於AI發展趨勢的第一個要點:AI終於開始轉向從經驗中學習了。要知道,艾倫·圖靈在1947年就已經設想過這條道路,而那已經是很久以前的事情了。直到今天,我們才真正開始去做這件事,而不是繼續完全依賴人類輸入。這種轉變將帶來更強大的能力,因為它意味著持續學習新的東西。AI遠沒有進入“主場時刻”儘管當下充滿炒作,甚至伴隨著某種恐慌情緒,但我並不認為當前的AI已經強大到不可思議的程度。它在很多方面仍然脆弱、不可靠;但與此同時,它也極其有用,已經點燃了一個完整的產業,創造了巨大的經濟價值,而且幾乎人人都可以使用。這種普及性讓公眾感到興奮,也促使人們開始認真思考:有一天,機器是否可能擁有與人類相當的能力。在某種程度上,它是通過製造恐懼引發這種關注的,人們未必真的需要害怕,但確實應該保持關注。至少,它成功地讓所有人開始正視這個問題,這本身是一件好事。不過,我們還遠沒有進入所謂的“主場時刻”。儘管存在各種誇大的說法,我們並沒有真正到達創造超級智能AI、或“超級智能增強人類”的階段。一旦那一刻到來,它將是一件非同尋常的大事,會帶來極其深遠的變化。AI應該是去中心化的,不應集中控制你只要看看當下,就會發現大量關於“控制AI”的呼聲:比如,只允許AI擁有經過人類稽核和授權的目標;呼籲暫停甚至停止AI研究;已經出現了一些法律,用來限制AI可使用的計算能力;以及各種所謂的“安全研究機構”。很多人口中的“安全”,其實真正指的是“控制”。他們通過讓你害怕AI,宣稱它不安全,然後提出應當由他們來掌控。我們或許也應該對AI抱有某種同理心。現實世界中,同樣存在對言論的控制——你能說什麼、能聽什麼;存在貿易管制和關稅,限制你能在那裡工作;還存在資本管制,以及針對不同國家的經濟制裁。我的核心觀點是:對AI的集中控制訴求,與對人類的集中控制訴求之間,存在著一種驚人而詭異的相似性。它們都建立在恐懼之上:要害怕AI;要害怕某些國家、某些群體;說你不能信任他們,說他們幾乎不像人,說他們是“壞的”,不愛自己的孩子,不會感到痛苦(笑)。同樣地,人們也在說AI不會感到痛苦。總之,這些論調極其相似,而我認為我們應該警惕並抵制它們。因為我相信,人類的繁榮,以及人類與AI的共同繁榮,來自於學習,也來自於接受這樣一個事實:我們應當以去中心化的方式與AI協作,而不是依賴龐大的控制型組織。這些正是我沒有展開的那部分幻燈片所想表達的核心思想。人類在合作方面既非常擅長,也非常糟糕——戰爭正是“不合作”的極端表現。合作並非總是可能,但從經濟交換到社會制度,從政府到市場,世界上幾乎所有美好的事物都源自合作。我們必須主動去尋找、去支援合作。如果我們足夠警覺,就會發現,誰在呼籲不信任、呼籲不合作。而“不合作”的另一面,往往正是集中控制。我認為,我們應該抵制這種傾向。這也是理解人類與AI互動問題的一種重要視角。以上就是我非常簡略的政治看法。不應害怕AI,因為是人類在創造它接下來,我確實想談談AI的哲學問題。AI正在發生,而且明天會發生得更加深入。那麼,我們究竟該如何看待它?我想提出一個最根本、也最困難的問題:它究竟是好是壞?我們是否應該害怕它?它會奪走我們的工作,讓我們變得多餘嗎?還是說,我們會成為AI的一部分——成為被技術放大和增強的人類?AI是入侵者,還是我們的“孩子”?我們會為它哀嘆,還是為它慶祝?它是“我們”,還是“不是我們”?我認為,這正是最根本的問題。我希望大家首先意識到,我們經常被要求不要去思考它,而只是被告知應該害怕它們,因為它們“不是我們”,像是外星來物。但請記住,是我們在創造它們。理解我們的心智,本身就是最具人類特質的行為。那麼,該如何思考呢?你們大概已經能看出我的立場。這並不是什麼“外星科技”,而是人類自古以來一直在做的事情。幾千年來,我們始終在嘗試理解自己:理解人類的智能,理解心智如何運作,以及如何讓我們的心智運作得更好。這是一項極其宏大的追求——理解我們自身。我很喜歡庫茲韋爾的一句話:智能是宇宙中最強大的現象,而我們正是它最好的例子,因此我們理應去理解它。這是一件極其重要的事情。理解智能,幾乎是科學的“聖盃”,也是人文學科的“聖盃”。這是一個偉大而光輝的目標,作為學者和思考者,我們應該享受它、慶祝它,並努力推動它向前發展。人類正在走向被AI繼任的過程不過,先暫時放下“我們是否希望它發生”“如果發生會不會很可怕”這些價值判斷。讓我們只做一件事:預測它將如何發生。我提出幾條“現實主義的AI預判原則”,有點類似約翰·米爾斯海默在討論現實主義地緣政治時的思路。我們只談現實:什麼是真正會發生的?那些事情是我們無法完全控制的?第一,關於“世界應該如何運轉”,並不存在共識。多種意識形態並存,沒有那一種觀點佔據絕對主導;宗教之間同樣彼此不一致;不存在一個能夠壓倒其他所有立場的統一世界觀。第二,總有一天,人類會對智能有足夠深入的理解,深入到可以用技術去創造它,而且我們一定會這麼做,至少其中一部分人一定會。第三,這一過程不會停留在當代人類智能的水平上,而是會很快遠遠超越它。我們將面對超級智能的存在,無論它們是否被稱為“人”。第四,隨著時間推移,權力和資源往往會流向更智能的存在。把這四點放在一起,我們會看到一幅清晰的圖景:人類正走向被AI 繼任的過程。我認為這是一個合理的判斷。但我們也必須意識到,這種說法本身是高度以人為中心的。我們總是在關心“我們會變成什麼樣”。或許,我們需要稍微退後一步,從更宏觀的視角來看待這一切:宇宙如何看待這一過程?它在整個宇宙的演化中扮演著怎樣的角色?宇宙的四個偉大時代接下來,我要把視角拉得非常宏大了(笑)。我想從宇宙的尺度來談一談所謂的“四個偉大時代”。第一個是粒子的時代:大爆炸之後,宇宙中幾乎連原子都不存在。隨後,物質坍縮形成恆星,我們進入恆星時代。恆星形成、升溫、爆炸,並在這一過程中合成更重的元素。接著,當有了更重的原子和行星之後,生命才得以出現。我把這一階段稱為“複製者的時代”,而不是簡單地稱為“生命時代”。我認為,這個“綠色時代”真正特殊之處在於:出現了能夠複製自身的存在。它們未必理解任何事情,但卻能夠製造自己的副本。就像我們自己,並不真正理解身體如何運作,不理解器官、大腦或智能如何產生,卻仍然能夠創造出更多智能體——我們生育孩子,並將他們撫養成人。這便引出了宇宙的第四個偉大時代:技術與創造之物的時代,我稱之為“設計的時代”。在這個時代,事物不再只是通過複製而存在,而是先存在於某個複製者的心智之中,然後才進入現實世界。你環顧這座禮堂,建築在被建造之前就已經被設計出來;椅子、你穿的衣服,幾乎所有東西都是如此——它們先存在於某個人的頭腦中,然後才成為現實。唯一的例外是人類本身:人是通過複製而來的,而不是先以設計的形式存在於世界之中,只是最初存在於父母的想像裡。正因為如此,我更願意把這兩個階段稱為“複製的時代”和“設計的時代”。將它們簡單稱為“生命時代”和“機器時代”已經過時,而且容易誤導——因為我們的機器正變得越來越像生命,而我們也越來越多地將生命理解為一種生物機器。機器與生物的區別:複製和設計那麼,真正的區別是什麼?真正的區別在於:生物體是在沒有任何心智理解其自身運作方式的情況下被創造出來的。它們幾乎像複印機一樣被覆製出來,所以說你並沒有“創造”那幅圖像,只是複製了一份。技術機器則不同。它們首先存在於某個心智之中,也就是設計者的想像裡,隨後才在現實世界中被製造出來。因此,它們是被“設計”出來的。一個非常重要的區別在於,被設計的事物更容易發生變化,也更容易被持續改進。這正是我使用這些術語的原因。從這個角度來思考問題,其實相當有啟發性。接下來,我們可以借助這些概念做一個簡單的思考練習。我們會發現,許多非人類的複製者在某種程度上同時也是設計者。比如,動物會築巢、打洞,人類會建造房屋;許多動物還會製造工具,例如黑猩猩會把樹枝剝去外皮來釣白蟻,烏鴉會把樹葉加工成細條來釣蛆蟲。當然,人類會製造石斧,那是我們最早、也是最重要的工具。隨後出現了農業用的犁,再往後是電腦、宇宙飛船、工廠和軟體,其中很多本身就是“製造其他工具的工具”。人類的特殊之處:把設計推向極致在這一基礎上,我們或許可以回到最初提出的那個問題:人類是什麼?我們是誰?我們在宇宙中扮演著怎樣的角色?也許,我們可以儘量保持冷靜,不過分自大,也不過分強調自身的重要性來回答這些問題。我們都隱約意識到,人類是特殊的。我們不僅只是一種複製者,而是一種非常特殊的複製者。我此前已經暗示過這種特殊性所在:我們把“設計”這一能力推進到了前所未有的高度。我們本身是通過複製而來的,我們自己就是複製者;但與此同時,我們也具備設計能力,並且將這種能力發展到了遠遠超過任何其他複製者的程度。那麼,如果把“設計”這一能力推到極限,會意味著什麼?如果把它徹底走到盡頭,會出現怎樣的結果?在我看來,把設計推到極限,意味著設計出那些本身也具備設計能力的存在。換句話說,我們在自己的頭腦中設計出一些事物,而這些事物本身,也能夠在它們自己的頭腦中進行設計。它們擁有心智。這正是我們在AI上正在做的事情。我們正在完成這個偉大的時代——也是最後一個時代。因此,我認為,人類至少是這個時代的催化劑、接生婆,或者說奠基者:我們促成了“設計時代”的到來,也就是宇宙的第四個偉大時代。這就是我們的角色,一個重要的角色,一個具有普遍宇宙意義的角色。總結:AI是宇宙發展的必然,我們該為此自豪最後,我想簡要總結一下我的三條核心資訊,包括剛才那一條我講得相對較快的觀點。第一,當下的AI也就是2020年代的AI,仍然處在“人類資料的時代”。它已經表現得非常出色,也非常強大;但我們正在進入一個新的“經驗時代”,而這一階段將更加強大,因為它能夠持續學習新的事物。第二,在政治層面,當下圍繞AI的政治討論,實際上是人類自身政治的對應。在所有情況下,我們都應當追求去中心化的協作,而不是中心化的控制。第三,在哲學層面,我認為AI是宇宙發展過程中不可避免的下一步。我們應當以勇氣、自豪感和冒險精神去擁抱它。感謝大家的時間。 (51CTO技術堆疊)
Nature重磅:圖靈預言的AGI早已實現,人類卻不敢承認!
Nature重磅評論文章!UCSD研究團隊宣稱:AGI早已到來,大語言模型如GPT已展現廣域人類級智能。人類是否已經實現了通用人工智慧(AGI),卻渾然不覺?是的,就是這樣。一篇發表在《自然》雜誌上的新評論文章如此表示。這是一項震撼科學界與社會根基的重磅披露,通用人工智慧(AGI)並非遙不可及的夢想,它已然降臨,正透過日常使用的AI工具螢幕,直視著我們。即便你不贊同他們的觀點,也值得一讀:兼聽則明,唯有瞪大雙眼,既不心懷恐懼,也不盲目追捧,才能幫助我們更好地迎接未來。這,就是AGI有人說,打造類人智能如同「爬樹登月」。但現在看來,樹已經夠高,月亮其實也沒那麼遠。加州大學聖迭戈分校(UCSD)四位專家合作了這篇文章,包括哲學家Eddy Keming Chen、AI教授Mikhail Belkin、語言學家Leon Bergen和資料科學教授David Danks。哲學副教授Eddy Keming Chen、「AI、資料科學與電腦科學」教授Mikhail Belkin、語言學與電腦科學副教授 Leon Bergen,以及「資料科學、哲學與政策」教授David Danks這篇文章不是科幻小說,不是科技巨頭的預言,給出最系統的論證:AI不只是聰明,而且已經真正「通用」。這是繼哥白尼與達爾文之後,第三次顛覆人類中心觀的認知革命。忘掉炒作與恐怖故事吧。研究團隊指出,AGI已至,證據確鑿,無可辯駁。像Grok這樣的大語言模型,絕非僅止於模仿人類,它們正以令圖靈本人都要瞠目的方式超越人類。回想一下:1950年,圖靈構思出了著名的「模仿遊戲」,即如今廣為人知的圖靈測試,用於測試機器能否騙過人類,讓人類以為它們是同類。快進到2025年3月,GPT-4.5不僅通過了測試,而且碾壓人類得分,以73%的被誤認為人類的比例取得了壓倒性的成功。但這僅僅是開胃菜。這些「AI巨獸」不僅在與全球數百萬人進行著無休止的對話,與此同時正在國際數學奧林匹克競賽中摘金奪銀,與數學天才攜手證明定理,構思出能在實驗室裡得到驗證的科學假說,輕鬆通過博士水平考試,為專業程式設計師編寫零錯誤程式碼,甚至創作出可與偉大詩人比肩的詩篇這些能力覆蓋數學、語言、科學、創造力等多領域,展現出「廣度+足夠深度」的通用智能,正符合人類平均水平的「一般智能」定義,而非要求完美或全能。然而,在2025年3月的一項調查中,76%的頂尖 AI 研究人員表示,當前的方法「不太可能」或「極不可能」實現通用人工智慧(AGI)。這讓人詫異:機器都能通過圖靈測試、解出奧數題了,怎麼可能還不具備通用智能?鐵證如山,AGI無需完美無瑕那麼,為何會出現集體否認?原因可能歸結為一種由定義模糊、原始恐懼和巨大商業利益交織而成的「有毒組合」。來自哲學、機器學習、語言學和認知科學領域,四位研究人員認為這種脫節在於:部分屬於概念性問題(定義模糊)部分源於情緒(對被取代的恐懼)部分出於商業因素(商業利益扭曲了評估)他們頗具爭議的結論是:按照任何合理的標準,AGI已經存在。他們說,AGI的概念被含糊不清的定義所纏繞:它是指完美無瑕的超級大腦,還是僅指像普通人一樣具備廣泛能力?劇透:答案是後者。沒有誰是全知全能的,愛因斯坦不會用中文聊天,居里夫人也不解數論難題。通用智能意味著在數學、語言、科學、創造力等多個領域具備廣度,並有足夠的深度完成任務,而非追求完美。研究團隊逐一拆解了阻礙我們認知的迷思:AGI無需完美,人類亦如此;無需無所不能,無需覆蓋所有可想像的技能;無需酷似人類,外星智能無需人類生物學基礎,何況矽基智能。AGI也不是碾壓一切領域的超級智能。沒有人能達到這個標準。你不行,愛因斯坦不行,達文西也不行,以後也沒有人能行。然而,我們卻一直要求AI必須先達到它,才肯稱之為「通用智能」。圖靈願景早已實現論文提出三個智能層次:圖靈測試水平:基礎教育、基本對話、簡單推理專家水平:國際競賽表現、博士級難題、跨領域熟練超人類水平:革命性發現、持續超越所有專家當前LLM已穩固處於水平2。證據如雪崩般堆積。還有看似一個狂野的基準:當前LLM展現出的能力廣度,已超過《2001太空漫遊》中的HAL 9000。HAL是一台具有人類個性的HAL 9000電腦。除了維護髮現號飛船上的所有系統外,HAL還能執行許多功能,如語音、語音識別、臉部辨識、唇讀、解釋情感、表達情感和下棋HAL曾是科幻小說中可怕超級AI的典型代表。2025年的真實AI,比1968年對2001年AI的想像,能力更廣。我們甚至正悄然邁向「超人類水平」的壯舉,例如做出任何人都無法單獨完成的革命性發現。好好想想吧。對AGI的質疑,就像不斷後移的球門——「它們只是尋找表」→解決了新穎問題「它們只是模式匹配」→證明了新定理「它們不會做數學」→IMO金牌「它們不理解」→協助前沿研究注意到他們的「花招」了嗎?反對的理由不斷變形,永不消失。這呼應了1843年英國數學家、史上第一位程式設計師埃達·洛夫萊斯的反對:機器「永遠只能按令行事、毫無新意」。1950年,圖靈就回應了這一點。183年後,我們仍在提出同樣的論點,只是換了詞彙。人類是更聰明的鸚鵡?駁斥AGI十大異議論文系統地回應了十大異議:LLM只是隨機鸚鵡、缺乏世界模型、僅限於文字、沒有身體、缺乏主觀能動性、沒有自我意識、學習效率低、會產生幻覺、缺乏經濟效益 、智能形態太異類。批評者高喊:「大模型不過是復讀資料的隨機鸚鵡!」但當AI能解決全新的數學問題、從新資料中推斷統計規律,或設計現實世界的實驗時,這種託詞便不攻自破。它們缺乏對世界的認知模型? 去問問那個能像預言般預測杯子掉落會碎裂的AI吧。它們僅限於文字?多模態訓練和實驗室協作證明事實並非如此。「AI沒有身體,因此不可能有智能。」物理學家斯蒂芬·霍金幾乎完全通過文字與合成語音與世界互動,但你會因此否定他的智商嗎?這一點無關緊要,智力與認知有關,與運動無關。這是一個極具破壞力的觀察:在智能上,人類很雙標。當評估人類智能時,我們並不窺探其大腦內部以「驗證理解」。我們通過行為、對話、解決問題來推斷它。我們對人類用一種基於行為的標準,對AI卻用另一種標準——基於機制的標準。「它們缺乏能動性,不會形成獨立目標。」沒錯。但智能 ≠ 自主性。能動性關乎道德責任,但並不構成智能本身。讓我們更深入探討「隨機鸚鵡論」,因為這個異議無處不在。這種主張本質上聲稱:LLM只是對訓練資料進行插值。它們無法處理真正新穎的問題。但當前的LLM能夠解決未發表的數學問題、將學習從程式碼領域遷移到非程式碼領域,甚至有人相信AI自己提出諾獎等級成果也不是妄想。讓人夜不能寐的是:無法保證人類智能本身不是一種複雜版的隨機鸚鵡。所有智能,無論天生的還是人工的,都必須從相關性資料中提取結構。問題只在於提取的深度。大家拒絕稱之為「AGI」的真正原因,或許並非技術性的,而是圖靈所說的「鴕鳥心態」:機器能思考的後果太過可怕,不如讓我們祈禱它們永遠做不到。承認機器擁有人類水平的通用智能,會迫使人類直面令人不安的真相:是什麼讓我們特殊AI取代人類崗位意識的本質在世界中人類的位置一個能通過圖靈測試、解決奧數題、協助前沿研究的實體……除了AGI,還有什麼能解釋這一切?當非人智能出現,60年前嘲諷終成往事就在五年前,我們還沒有 AGI;而今天,我們已經擁有它。更強的智能形式幾乎可以肯定即將問世。這是件令人震撼,但也令人擔憂的事。震撼在於:我們正在親歷一場也許是人類歷史上最重要的科技革命。擔憂在於:這場革命發生得太快,而且似乎還在加速。1965年,哲學家 Hubert Dreyfus 在為蘭德公司撰寫AI研究報告時,曾諷刺道:試圖建構人類級人工智慧,猶如「試圖靠爬樹登月」。連結:https://www.rand.org/pubs/papers/P3244.html幾十年來,這個比喻似乎都挺貼切。但隨著證據日積月累,我們越來越清楚地看到:我們誤判了「月亮」的性質,也低估了「樹」的高度。事實是:只要規模足夠大、訓練規則得當,基於人類語言的學習系統,真的可以在語言中挖掘出現實世界的深層結構——並以此進化出通用智能。哥白尼把人類從宇宙中心的位置拉了下來。達爾文讓人類失去了「自然界主宰」的特權。圖靈則預言,人類可能不是唯一具備智能的存在。如今,圖靈75年前設想的機器,真的來了。而它們的樣貌,既比我們預期的更「人類」,也更「怪異」。如同之前的那幾次巨變,這一次,也逼迫人類重新定義自身的位置,去接受一個事實:這個世界上存在的「智能形態」,比我們過去所能想像的要多得多。人類的地位將改變,我們對「心智」的理解也將改變。也許,問題從來不是「AI是否已達到人類水平智能?」也許,問題始終在於:「當智能不以人類的樣貌呈現時,我們能否識別它?」圖靈在1950年就知道,這才是真正的測試。不是對機器的測試。是對人類的測試。 (新智元)
Nature重磅:圖靈測試已死,AI已具備人類水平智能,這一天終於來了
別再爭論AI 什麼時候能趕上人類了。頂刊《Nature》剛剛發文宣佈:不用等了,就是現在。如果說 1950 年阿蘭·圖靈(Alan Turing)提出的“模仿遊戲”只是一個天才的腦洞,那麼 75 年後的今天,這個腦洞已經被矽基生物徹底填平。今天,一篇發表在《Nature》上的重磅文章引爆了科技圈。這就好比《皇帝的新衣》裡那個誠實的小孩,來自加州大學聖地亞哥分校等機構的頂級哲學家、認知科學家和電腦專家們聯名站出來,指著那個名為“通用人工智慧(AGI)”的房間大聲宣佈:“別找了,AGI 就在這兒。它已經誕生了。”01 別再自欺欺人:圖靈測試已成“過去式”還記得一年前,2025 年的3月, OpenAI 發佈 GPT-4.5的那個春天嗎?當時業界還在為參數和算力爭吵不休,但在一個最古老的測試場上,勝負已分。在嚴格的圖靈測試中,GPT-4.5 被人類受試者判定為“真人”的比例高達 73%。諷刺的是,在同一場測試中,真正的人類被判定為“人”的比例,竟然比 AI 還要低。這意味著什麼?意味著在“像人”這件事上,AI 已經比人更像人了。更別提現在的讀者們,比起人類專家寫的晦澀文章,他們甚至更愛讀大語言模型生成的文學作品。然而,奇怪的事情發生了。儘管事實擺在眼前,根據 2025 年的一項調查,仍有 76%的頂級 AI 研究人員認為 AGI 遙遙無期。《Nature》這篇文章的作者們毫不留情地指出:這種認知錯位,不是因為 AI 不夠強,而是因為人類“不敢承認”。因為恐懼被取代,因為商業利益的糾葛,我們不斷地移動球門,給 AGI 設下各種不可能完成的定義。但現在,是時候撥開迷霧,承認現實了。02 別再叫它“學舌鸚鵡”:鐵證如山的進化階梯曾幾何時,嘲笑 AI 是我們的一大樂事:“它連小學數學都算不對”、“它就是個只會機率預測的隨機鸚鵡(Stochastic Parrots)”、“它經常一本正經地胡說八道(幻覺)”。但在這個2026 年的開端,如果你還抱著這些老黃曆看 AI,那你可能已經成了那個“活在舊時代的人”。文章作者並沒有空談哲學,而是根據一系列硬核證據,建構了一個評估 AGI 的“三級階梯”。對照一下,你會發現我們正處於什麼位置:Level 1:圖靈測試級(已通關)這是幾年前的標準。能通過學校的基礎考試,能進行像樣的對話,能做簡單的推理。那時的 AI,或許還只是個“聰明的復讀機”。Level 2:專家級(Current Level,當前已達成)這就是我們現在面對的怪物。數學:它們不僅拿下了國際數學奧林匹克競賽(IMO)的金牌,還能與頂級數學家合作證明未知的定理。科研:它們生成的科學假設,已經在現實世界的實驗室裡被驗證為真。全能:它們能通過多學科的博士資格考試,能幫專業程式設計師寫出無 Bug 的複雜程式碼,能精通幾十種語言創作詩歌,還能同時和全球數億人聊天。對比:科幻電影《2001太空漫遊》裡的超級電腦 HAL 9000 曾是我們的噩夢,但現在的 LLM 在知識廣度上,實際上已經超越了 HAL 9000。Level 3:超人類級(正在逼近)這要求 AI 做出人類完全做不出的革命性科學發現。雖然 AI 還沒完全做到這一點,但作者強調:這不是 AGI 的必要條件。畢竟,能不能拿諾貝爾獎並不是衡量一個人是否“有智能”的標準。面對這些成就,那些質疑聲顯得越來越蒼白。每當 AI 攻克一個新堡壘(比如做出了從未見過的數學題),懷疑論者就會立刻把標準提高:“哦,那不算,它得能理解情感才行……”對此,文章中有一句精彩的“打臉”:“面對每一次成功都在不斷後退的假設,預測下一次一定會失敗……這根本不是有說服力的科學理論,這只是對‘永遠懷疑’的一種教條式堅持。”不管是做數學題、寫程式碼,還是理解物理世界的因果律(比如它知道枕頭掉地上不會碎,而玻璃杯會),現在的 AI 都表現出了圖靈當年所定義的“通用認知能力”。AGI 的大門已經被踢開了。無論你是否準備好,我們都已經和一種“異類智能”生活在了同一個屋簷下。03 為什麼專家還在裝睡?因為我們把 AGI 神話了既然證據確鑿,為什麼還有 76% 的專家搖頭說“不”?為什麼我們在社交媒體上還在爭論 AI 是不是“人工智障”?文章指出,問題出在我們對“智能”的定義上,我們太自戀了,也太苛刻了。誤區一:AGI = 全知全能的神很多人潛意識裡覺得,AGI 必須是一個完美的“六邊形戰士”。它得有愛因斯坦的物理頭腦,莎士比亞的文采,還得像甚至不像任何一個人類那樣犯錯。但作者反問:“居里夫人不懂數論,愛因斯坦不會說中文,難道他們就沒有通用智能嗎?”人類都不是全能的,我們憑什麼要求 AI 必須是神?真相:真正的通用智能,看的是廣度(Breadth)和深度(Depth)。只要它能像普通人類一樣在不同領域間切換,並且在這些領域達到專家水平,它就是 AGI。誤區二:AGI 必須像人一樣思考我們總覺得,只有像人類那樣有肉體、有情感、會生老病死,才叫智能。真相:這是一種“碳基生物的傲慢”。就像章魚的神經系統分佈在觸手裡,外星人可能通過無線電波交流——智能是功能,不是形態。只要它能像人一樣解決問題,它是不是矽做的、有沒有身體,根本不重要。04 精彩辯論:十大質疑,逐個擊破這篇《Nature》文章最精彩的部分,莫過於作者化身“終極辯手”,對目前市面上最流行的反 AI 觀點進行了逐一反駁。試舉幾例。質疑 A:“它只是個隨機鸚鵡(Stochastic Parrots),只會拼湊訓練資料裡的詞,根本不懂邏輯。”《Nature》反駁:這個說法在幾年前可能成立,但現在已經過時了。如果它只是拼湊舊資料,怎麼可能解出從未發表過的全新數學題?怎麼可能幫助科學家發現新的物理定律?這不叫拼湊,這叫推理。如果這也叫鸚鵡,那人類可能也不過是一隻比較複雜的鸚鵡。質疑 B:“它沒有身體,無法感知物理世界,所以沒有真正的理解。”《Nature》反駁:這是一個巨大的誤解。史蒂芬·霍金(Stephen Hawking)在晚年幾乎完全失去了身體的行動能力,通過語音合成器交流,難道他的智能就消失了嗎?再者,問問 AI:“把玻璃杯和枕頭扔到瓷磚地上,會有什麼不同?”它能精準地告訴你結果。能進行反事實推理(Counterfactual Reasoning),就證明它腦子裡已經有了物理世界的模型。質疑 C:“它沒有自主性(Agency),你不給指令它就不動。”《Nature》反駁:智能不等於意願。古希臘神話中的德爾斐神諭(Oracle),只有在你提問時才回答,但誰敢說神諭沒有智慧?自主性關乎“道德責任”,而不關乎“智力水平”。一個隨叫隨到的超級智囊,依然是超級智囊。質疑 D:“它學得太慢了,小孩看幾次就懂,AI 要喂幾兆的資料。”《Nature》反駁:別忘了,人類小孩的大腦裡預裝了祖先們進化了幾十億年的“出廠設定”(本能和大腦結構)。AI 是從零開始的。而且,一個練了 10 年才成為大師的棋手,和一個練了 1 年就成為大師的棋手,他們的棋力是一樣的。效率不代表能力。05 越早承認越好,這是一種“異類”的降臨看到這裡,你可能還是覺得那裡不對勁。“可是,它連‘Strawberry’裡有幾個‘r’有時候都會數錯啊!”沒錯,這正是文章最後強調的關鍵點:我們面對的,是一種“異類智能”(Alien Intelligence)。這就像是一個外星人降臨地球。它在某些我們覺得很難的事情上(比如讀完 1000 篇論文並寫出綜述)易如反掌,卻在某些我們覺得很簡單的事情上(比如數數、常識判斷)顯得笨手笨腳。但這不代表它不是智能,只能說明通往智能的道路不止一條。人類的智能是為了生存、為了繁衍、為了在叢林裡不被吃掉而進化出來的;而 AI 的智能是從語言的海洋中湧現出來的。2026 年的今天,正如 Reddit 網友所熱議的那樣:“我們原本以為 AGI 會像《終結者》裡的天網,結果它更像是一個有些偏科、但智商爆表的‘外星圖書管理員’。”06 結語:別再試圖爬樹登月了在文章的結尾,作者引用了一個著名的舊日比喻。1965 年,哲學家休伯特·德雷福斯曾嘲諷早期的 AI 研究,說他們試圖通過“爬樹”來“登月”。意思是方向徹底錯了,爬得再高也離月球很遠。幾十年來,我們都以為他是對的。但今天,當我們抬頭仰望,卻發現我們真的爬上了月球。原來,只要樹足夠高,資料足夠多,結構足夠精妙,簡單的學習規則真的能湧現出理解世界的智慧。這是一個哥白尼式、達爾文式的時刻。哥白尼告訴我們,地球不是宇宙的中心;達爾文告訴我們,人類不是生靈的主宰;圖靈和今天的 AI 告訴我們,人類的大腦,也不是智慧存在的唯一形式。文章末尾寫道:“承認 LLM 為 AGI 是一個警鐘。這些系統不是“將要到來”,而是“已經存在”。用評估“窄工具”的框架來衡量 AGI 是遠遠不夠的。當涉及的不再是工具而是通用智能時,共存、責任、歸屬和治理等問題將進入全新的維度。”全文的最後一句振聾發聵:“機器不是正在趕來,它們已經到了。”(The machines aren't coming; they've arrived.)與其像鴕鳥一樣把頭埋在沙子裡,假裝這一切沒發生,不如抬起頭來,正視這個新夥伴(或者對手)。畢竟,在這個星球上,我們第一次不再是孤獨的智慧生物了。 (不懂經)
LeCun哈薩比斯神仙吵架,馬斯克也站隊了
吵起來了。圖靈獎得主和諾貝爾獎得主,為了“智能的本質”——直接激情友好地交流上了。AI三巨頭之一、圖靈獎得主Yann LeCun明確表示:純粹就是胡扯(complete BS)。而諾貝爾獎得主、GoogleDeepMind CEO哈薩比斯也不留情面了,指名道姓回擊:LeCun的說法簡直是大錯特錯。論戰之激烈,關注度之高,已經讓𝕏專門開闢了一個話題類股:馬斯克也跑來吃瓜了——沒有任何多餘的解釋,但這波他站哈薩比斯——“Demis is right”。當然,馬斯克的站隊可能也有別的原因。畢竟他和LeCun素來不是很對付,跟哈薩比斯則亦師亦友——馬斯克還是哈薩比斯DeepMind早期投資人。要科學吃瓜,可能還是要知道他們究竟在激辯什麼?爭論焦點:智能的本質是什麼?事情還要從LeCun幾天前接受的一場採訪說起。他在節目中言辭犀利地指出:根本不存在所謂的“通用智能”,純粹就是胡扯(complete BS)。這個概念毫無意義,因為它實際上是用來指代人類水平的智能,但人類智能其實是高度專業化的。我們在現實世界裡確實幹得不錯,比如認個路、導航blabla;也特別擅長跟人打交道,因為咱們進化了這麼多年就是幹這個的。但在國際象棋方面,我們表現很差。而且還有一堆事兒都搞不定,反倒是有些動物比我們強得多。所以說,我們其實就是“專才”。我們認為自己是“通用”的,但這僅僅是一種錯覺,因為我們能理解的所有問題都侷限於我們能想到的那些。簡單概括就是,LeCun認為人類智能並不“通用”,而是為了適應現實物理世界而專門進化出來的某種專業能力。人類之所以擅長識別物體、躲避危險、與他人合作等,也只是因為這些能力在進化中被環境塑造。然而,這一觀點很快遭到了哈薩比斯的直接回懟。哈薩比斯表示:LeCun的說法簡直是大錯特錯。他這是把“general intelligence”和“universal intelligence”兩個概念搞混了。然後他一一駁斥了LeCun的觀點,其原話如下:大腦是目前宇宙中已知最精妙、最複雜的事物,實際上具有極強的通用性。但是在實際的系統當中,“天下沒有免費的午餐”這個道理是無法迴避的——任何實際且有限的系統,在其所學目標分佈周圍,都必然存在一定程度的專門化。但從圖靈機的理論意義上講,通用性的核心在於,只要給予足夠的時間、記憶體(及資料),就能夠學習任何可計算的內容。而人腦(以及AI基礎模型)正是近似的圖靈機。並且,針對LeCun關於國際象棋棋手的評論,哈薩比斯認為人類能發明國際象棋本身就令人驚嘆,更不用說從科學到波音747等現代文明的一切了。關於LeCun對棋手的評論——人類最初竟能發明國際象棋(乃至從科學到波音747的整個現代文明!)本就令人驚嘆,更不用說還能出現像馬格努斯·卡爾森那樣棋藝卓絕的人物。他或許並非嚴格意義上的最優解(畢竟記憶有限、決策時間也受限),但考慮到我們的大腦本是為狩獵採集而進化,他和我們如今所能成就的一切,已足以展現人腦的驚人潛力。顯而易見,哈薩比斯對“智能”的理解從不侷限於電腦科學,而是深度融合了神經科學。一直以來,他認為真正衡量智能的兩個關鍵標準分別是通用性(Generality)和學習能力(Learning),為此他經常拿1997年“深藍”戰勝卡斯帕羅夫舉例——雖然“深藍”在國際象棋上很強,但還是連簡單的井字遊戲都不會玩,所以足以見得這種程序的死板之處。而關於這場對決,哈薩比斯還透露,最吸引他的不是“深藍”這個系統,而是卡斯帕羅夫的大腦(畢竟他能作為人類代表與AI進行比賽)。沒錯,又是“大腦”這個關鍵詞。哈薩比斯一直堅信,人類大腦是宇宙中已知的唯一關於“通用智能可行性”的存在性證明。當大腦和AI結合之後,所謂的“通用人工智慧”其實就是能夠展現出人類所擁有的所有認知能力的系統。至於具體如何實現AGI,哈薩比斯多年來也形成了一套自己的方法論,總結起來就是——預測建構理解,規劃擴展可能,強化學習實現自主進化。第一步:以預測為基石。在他看來,智能的本質在於預測——無論是預測下一個單詞還是預測蛋白質的折疊形狀。這是所有認知活動的基礎形式,也是AI理解世界的內在驅動力。第二步:引入搜尋與規劃AI系統首先要建立一個世界模型,然後在此基礎上進行搜尋或規劃,以在巨大的組合搜尋空間中找到最優解。第三步:最終通向深度強化學習這是哈薩比斯最推崇的終局路徑,也是對大腦運作方式的模擬——深度學習負責模式匹配和尋找結構,強化學習負責通過試錯進行規劃和達成目標。這在生物學上對應著大腦的神經通路和多巴胺獎勵系統。至此,我們看到兩位大佬關於智能本質的爭論,表面上看起來似乎確實截然不同。一個認為“通用性智能”是胡扯,本質上智能是自然世界高度專業化的產物;另一個認為通用性智能不僅存在,而且仍有巨大潛力有待挖掘。但事實,真的如此嗎?上述爭論過後,LeCun又再次出來回應了,而且這次直接點名了分歧核心——用詞。我認為分歧主要在於用詞。我反對用“通用(general)”來指代“人類水平”,因為人類是高度專門化的。不過,雖然承認用詞有分歧,但他還是繼續重申了“人類智能並不通用”的觀點。其論證如下:第一,理論完備≠實際通用。你也許不同意人類思維是專門化的,但事實確實如此。這不僅是理論能力的問題,更是實踐效率的問題。顯然,一個經過良好訓練的人腦,如果配合無限量的紙和筆,是圖靈完備的。但對於絕大多數計算問題來說,這種方式效率極低,因此在資源受限的情況下(比如下棋),它遠非最優方案。就是說,哈薩比斯所構想的“理想的圖靈機”對解決現實問題幾乎沒有意義,因為真正的智能必須在有限資源下高效運作——而人腦的進化恰恰是資源約束下高度最佳化的結果。第二,兩個典型例子可以反映大腦的“非通用性”。在理論上,一個兩層神經網路可以以任意精度逼近任何函數;但在實踐中,幾乎所有有意義的函數都需要隱藏層中包含數量巨大、難以實現的神經元。正因如此,我們才使用多層網路——這正是深度學習存在的根本原因。再換一個角度來看:視神經大約有100萬根神經纖維。為了簡化討論,我們假設訊號是二進制的,那麼一次視覺任務就可以被視為一個從100萬位元對應到1位元的布林函數。在所有可能的此類函數中,有多少是人腦可以實現的?答案是:一個無窮小的比例。通過這兩個例子,LeCun再次重申了自己的觀點:所以我們不僅談不上“通用”,而且是極其高度專業化的。可能的函數空間極其廣闊。我們之所以沒有意識到這一點,是因為其中絕大多數函數對我們來說複雜到難以想像,看起來幾乎完全是隨機的。而且他還提到了愛因斯坦曾經說過的一句話——世界上最不可思議的事情,是世界竟然是可以被理解的。在所有可能的、隨機的世界組織方式中,我們竟然能夠理解其中極小的一部分,這本身就令人驚嘆。而我們無法理解的那一部分,我們稱之為“熵”。從這個意義上說,宇宙中絕大多數的資訊都是熵——是我們孱弱的認知能力無法理解、因而只能選擇忽略的內容。總之,事情battle到最後,網友們也是紛紛回過神來了——這場爭論最大的bug可能就在用詞上了。而拋開用詞不談,本質上來看,兩個人其實更像是在談論不同的問題:一個核心在強調“我們是什麼”,另一個則在強調“我們能成為什麼” 。而這,也恰恰指向了同一個更深層、也更現實的議題——接下來,我們究竟該以怎樣的方式實現AGI?答案:世界模型不管是在LeCun還是哈薩比斯這裡,答案其實都已經很清晰了——世界模型。眾所周知,即將從Meta正式離職的LeCun,下一站就是創業世界模型。據《金融時報》爆料,其新公司名為Advanced Machine Intelligence Labs(AMI Labs),計畫於明年一月正式亮相,目標估值30億歐元(約247億人民幣)。在LeCun的理解中,世界模型所要追求的不是渲染精美的像素,而是掌握控制理論和認知科學。他認為對AI而言,只有中間那個抽象表徵才重要(和JEPA研究一脈相承),模型沒必要浪費算力去生成像素,只需專注於捕捉那些能用於AI決策的世界狀態。換言之,瞭解“世界的結構是什麼”才是最關鍵的。而哈薩比斯這邊也在採訪中多次表示,世界模型絕對是自己和Google接下來的重點。今年8月,GoogleDeepMind推出了新版世界模型Genie 3。哈薩比斯表示:我們談論的世界模型,指的是那種能夠理解世界運行機制中因果關係與協同效應的模型,也就是一種“直觀物理學”——事物如何運動、如何相互作用、如何表現。你已經可以在當前的視訊模型中看到這種能力的雛形。而檢驗是否真正具備這種理解的一種方式是否能夠建構一個逼真的世界。因為如果你能夠生成它,那麼在某種意義上,你就已經理解並內化了這個系統的運作規律。這也解釋了為什麼Genie、Veo這些模型首先會以視訊模型的形式出現。在他看來,這種可互動的世界模型正是通往AGI的關鍵一步。通過對比,我們能發現雖然二者都是在描繪“世界模型”,但他們的理解和實踐方向也明視訊記憶體在差別——LeCun代表著“世界模型即認知框架”,而Google哈薩比斯代表著“世界模型即模擬器”。嗯,同一個概念,不同的理解和實踐——怎麼不算一種call back呢?(手動狗頭)Anyway,回顧歷史,實際上AI的每一次躍遷都伴隨著這樣的“爭吵”:符號主義和連接主義的爭論,定義了智能的根基究竟是“邏輯”還是“資料”;端到端學習和模組化系統的爭論,定義了“系統該如何建構”;再加上我們今天的“開源VS閉源之爭”、“智能本質之爭”……還是那些老話,“真理不辯不明”、“真理越辯越明”。不過玩笑說說,等到真理辯明了,那個老頭可要來了……One More Thing幾乎同一時間,LSTM之父Jürgen Schmidhuber又出來隨機掉落了一個“小彩蛋”,他預判了預判——LeCun即將創業的世界模型,他們在2014年就有涉獵了(原話是二者高度相似)。怎麼說呢,Jürgen Schmidhuber老爺子這幾年,基本都在“維權”了。作為LSTM的發明者,LSTM一度在ChatGPT誕生前被稱為“最具商業價值的人工智慧成就”,而作為LSTM之父,Jürgen Schmidhuber早在三巨頭獲得圖靈獎之前就被《紐約時報》稱為“成熟人工智慧之父”。但當AI時代真正到來,各種技術發明者桂冠沒有他、圖靈獎沒有他、諾貝爾獎也沒有他……Schmidhuber只能一次次維權、隔空懟人,最後成為祥林嫂·Schmidhuber。幸好,還有推特,可以讓他首頁上清晰完整展示——以及推特當前的擁有者馬斯克,他評價Jürgen Schmidhuber時言簡意賅:一切的發明者。這,確定不是在陰陽八卦? (量子位)
90後華人科學家:超一億美金年薪背後的權力遊戲
一紙離職信,震動矽谷AI版圖。2025年11月20日,圖靈獎得主、被譽為“AI教父”之一的楊立昆(Yann LeCun)在領英上發表告別辭,宣佈將於年底離開效力12年的Meta。這位曾一手締造FAIR(基礎人工智慧研究實驗室)輝煌的宗師級人物,在65歲之際選擇重新出發,追尋關於“世界模型”的未竟理想。楊立昆的離去,標誌著Meta AI戰略路線徹底轉向:從FAIR所代表的學院派長期理想主義,全面倒向以產品化與商業落地為導向的實用主義。這一歷史性轉身的背後,是Meta內部早已展開的權力重組。就在數月前,年僅30出頭的華人科學家趙晟佳(Shengjia Zhao)——前OpenAI核心開發者——空降Meta,引發組織震動。趙晟佳的加盟充滿戲劇性:入職不到30天便萌生去意,祖克柏親自以“首席科學家”頭銜與天價薪酬極力挽留。他的“上位史”,成為矽谷AI人才爭奪白熱化的真實縮影。當圖靈獎得主楊立昆選擇離開堅守12年的Meta,當30歲的趙晟佳以超一億美金年薪空降矽谷,這場看似簡單的新老交替背後,是一場關乎AI技術路線、企業戰略與文化認同的深層博弈。從OpenAI到Meta,從清華園到矽谷,這位年輕科學家的選擇不僅改變著個人命運,更在重塑科技巨頭間的權力天平。圖源:Shengjia Zhao 的 X清華少年到史丹佛博士的進階翻開趙晟佳的履歷,一條近乎完美的頂尖學者成長路徑徐徐展開。2012年,他考入清華大學機械工程系,後因對電腦的濃厚興趣轉至電腦系,於2016年取得學士學位。在清華的四年裡,他的視野遠不限於課堂。2014年,趙晟佳赴美國萊斯大學交換學習,這段經歷徹底打開了他的學術視野:課堂講座常延續至深夜討論,各類想法在交流中不斷被檢驗、挑戰與完善。更重要的是,他在跨文化、跨學科的協作中,學會了以多元視角理解和推進科研。本科畢業後,他將目光投向了矽谷。2016年,趙晟佳進入史丹佛大學攻讀電腦科學博士,師從Stefano Ermon教授。在六年的博士生涯中,他全心投入深度生成模型、變分推斷等前沿方向。其代表作《InfoVAE: Balancing Learning and Inference in Variational Autoencoders》於2019年發表在AAAI,至今引用量已超23000次,成為該領域的里程碑論文。博士期間,他幾乎囊括了各類頂尖獎項:ICLR 2022傑出論文獎、Google卓越獎學金、高通創新獎(QinF)、摩根大通博士獎學金等。(趙晟佳的教育經歷)然而,真正讓他在全球AI領域聲名鵲起的,是在OpenAI的三年。2022年6月博士畢業後,趙晟佳作為技術團隊成員加入OpenAI。當時ChatGPT尚未面世。他不僅是ChatGPT、GPT-4、GPT-4.1的早期核心開發者,更是OpenAI推理模型體系的關鍵奠基者——主導了“o1”與後續“o3”系列的研究。“o1”在AI業界的影響堪稱技術核爆。它將思維鏈從理論概念轉化為可規模化部署的產品,使AI從機率性的語言續寫工具,躍升為具備類人邏輯推理能力的系統。這一突破迅速引發Google、DeepSeek、xAI等全球頂尖實驗室的跟進。與此同時,他還領導OpenAI的合成資料團隊,在行業深陷高品質資料匱乏的困境中,建構了一套可複製、可擴展的資料生成範式。可以說,在Meta向他伸出橄欖枝之前,趙晟佳已是當代生成式AI技術範式的重要建構者之一。他掌握了業內競相追逐的“新型擴展範式”——對於急於在AGI賽道實現反超的祖克柏而言,他無疑是必須爭取的關鍵人才。三十天離職危機今年夏天,Meta陷入了前所未有的焦慮與混亂。公司寄予厚望的Llama 4模型發佈後表現平平,更因"性能評測造假"爭議而聲譽受損。面對OpenAI和Google的持續領跑,以及中國AI實驗室在開源領域的快速追趕,祖克柏決定放手一搏。他斥資143億美元收購資料標註巨頭Scale AI,並任命其28歲的創始人Alexandr Wang為Meta首席人工智慧官。隨後,旨在整合公司所有AI資源的"Meta超級智能實驗室"(MSL)正式成立,標誌著Meta向AGI發起了全面衝刺。為了給MSL配備頂尖人才,Meta開啟了一場瘋狂的挖角行動。祖克柏不僅親自向目標研究人員傳送邀請郵件,還安排他們在其太浩湖莊園進行面談。Meta開出了高達九位美元的薪酬方案,其中部分offer的有效期僅有幾天。正是在這樣的背景下,趙晟佳被Meta從OpenAI成功挖來。更引人注目的是,圍繞著他迅速集結了一支實力雄厚的華人科學家團隊:團隊成員包括前OpenAI多模態後訓練研究負責人畢樹超、前OpenAI感知技術研究負責人及Gemini多模態部門聯合創始人余家輝、OpenAI o3-mini和o1-mini的核心開發者任泓宇、前OpenAI電腦視覺專家常慧雯,以及前Google DeepMind高級研究科學家翟曉華。祖克柏為這支夢之隊承諾了頂級資源支援。據悉,趙晟佳和MSL團隊將能夠使用計畫於2026年建成的"普羅米修斯"計算叢集,該叢集擁有高達1000兆瓦的電力供應,足以支撐前所未有的超大規模AI訓練。然而,這段"聯姻"在開始後不久就面臨危機。據多家媒體報導,趙晟佳加入Meta僅數日,就遭遇了嚴重的管理混亂和文化衝突。MSL內部資源分配不公、官僚作風盛行,承諾的算力資源遲遲未能兌現,這讓習慣OpenAI高效科研環境的趙晟佳深感不適。知情人士透露,趙晟佳當時已決定離開,甚至與老東家OpenAI達成了回歸協議,並簽署了入職檔案。這一消息對祖克柏而言無異於當頭一棒。若這位重金聘請的頂尖人才在入職不到一個月就重返競爭對手,不僅將使Meta顏面盡失,更將對其重振AI雄心的計畫造成致命打擊。為留住趙晟佳,祖克柏展現了驚人的決斷力。他直接介入,打破常規,授予趙晟佳"Meta超級智能實驗室首席科學家"頭銜,並正式確立其領導地位,要求其直接向自己和Alexandr Wang匯報。祖克柏更在Threads上高調宣佈這一任命,特別強調趙晟佳是實驗室的聯合創始人,"從第一天起就是我們的首席科學家"。這不僅是一次薪酬留人,更是一次地位與權力的鄭重承諾。最終,趙晟佳選擇留下,成為Meta AI版圖中僅次於祖克柏和Alexandr Wang的第三號關鍵人物。權力更迭暗戰趙晟佳最終選擇留下,但Meta的內部動盪遠未平息。事實上,MSL的成立與趙晟佳的迅速上位,恰恰催化了Meta新舊勢力更替下的深層矛盾。儘管趙晟佳被成功挽留,同期加入的其他頂尖人才卻未能適應。據外媒報導,與趙晟佳同期加盟的兩位前OpenAI研究員——Ethan Knight與Avi Verma,在入職不到一個月內相繼離職,重返OpenAI。來自GoogleDeepMind的研究科學家Rishabh Agarwal也在短短數月後選擇離開。對這些頂尖研究者而言,Meta雖能提供豐厚的薪酬,卻難以復現他們理想的科研環境。一位離職員工坦言:“人才終將流向能產生共鳴的地方。缺乏內在凝聚力的體系,終會從內部瓦解。”與此同時,管理層的“低齡化”與信任危機逐漸浮現。統管Meta AI全域的Alexandr Wang年僅28歲,此前並無人工智慧領域的研究經驗,其背景主要來自營運資料標註公司Scale AI。這種“外行領導內行”的局面,在內部引發了諸多資深科學家的困惑與不滿。有內部人士透露,Alexandr Wang所帶來的Scale AI高管團隊與Meta原有體系格格不入,管理方式簡單直接,甚至導致Meta與Scale AI在資料合作層面出現裂痕。更深遠的影響體現在FAIR實驗室的邊緣化。在MSL成立前,由楊立昆一手打造的FAIR實驗室一直是Meta AI的金字招牌。然而在新架構下,FAIR被整體併入MSL體系。儘管楊立昆名義上仍保留FAIR首席科學家頭銜,但在匯報關係上,這點陣圖靈獎得主需要向28歲的Alexandr Wang匯報。儘管祖克柏與楊立昆本人均公開否認角色變化,但在外界看來,隨著公司資源全面向以產品化為導向的MSL傾斜,堅持“世界模型”長線研究的FAIR團隊,實際上已失去對Meta核心AI戰略的主導權。Llama 4的失利成為壓垮駱駝的最後一根稻草,也成為楊立昆選擇體面離開的導火索。儘管雙方在分手聲明中保持了極大的克制,甚至達成了投資合作的“第三條道路”,但楊立昆的離去,無疑標誌著Meta AI那個充滿理想主義的學術時代正式落幕。面對重重挑戰,Meta正嘗試踩下剎車。據《金融時報》獲得的內部備忘錄顯示,Meta已暫停MSL除關鍵崗位外的所有招聘,以期在制定新戰略的同時更審慎地規劃未來。而這一切的挑戰,恰恰發生在個人能力與時代機遇碰撞的關鍵節點。對趙晟佳而言,出任首席科學家僅僅是開端。他不僅需要帶領團隊在技術上追趕GPT-4、打造更強大的Llama 5,更要在Meta複雜的官僚體系與文化衝突的夾縫中,為祖克柏找到通往AGI的可行路徑。而這場權力更迭的意義,早已超越了趙晟佳個體職業生涯的起落。它對應出整個AI產業在理想與現實間的艱難平衡,也預示著科技巨頭在AGI征程上更加激進的投資邏輯。這位90後華人科學家必須證明:超一億美金的薪酬背後,是與之匹配的遠見與實力。在趙晟佳按下"普羅米修斯"叢集啟動鍵的那一刻,一場新的AI競賽已經悄然開始。 (首席商業評論)
Fortune雜誌─圖靈獎得主楊立昆被曝將離職Meta創業
據《金融時報》援引知情人士消息,AI圈知名大佬楊立昆已告知同事,再過幾個月他就要離開Meta公司,創辦自己的公司了。楊立昆是圖靈獎得主,也是AI領域的頂尖研究者。他致力於打造自己眼中的下一代AI系統。但是他的離職,也必定會成為Meta公司乃至整個AI行業的一個重要轉折點。2025年11月5日,楊立昆博士在倫敦聖詹姆斯宮出席2025年度伊麗莎白女王工程獎招待會。圖片來源:Yui Mok / Pool—Getty Images楊立昆今年65歲,他於2013年12月加入Facebook,擔任基礎AI研究室(FAIR)創始主任。他從2003年起在紐約大學任教,目前仍擔任該校的銀級教授。楊立昆的學術成就十分傲人。最為人熟知的,就是他在上世紀80年代末研發出了摺積神經網路,特別是他開發的LeNet架構能夠成功識別手寫字體,掀起了一場電腦視覺領域的革命。2019 年,他與傑佛瑞・辛頓、約書亞・本吉奧三人因在深度學習領域的突破性貢獻而被授予圖靈獎。而正是這三人在理論上的奠基,才使深度神經網路成為當代電腦科學的一項核心技術。在電腦科學領域的早期成就楊立昆1960年7月8日出生在法國的蘇瓦西蘇蒙莫朗西。他父親是一名工程師,因而他從小就對電子裝置產生了興趣。後來他考入了巴黎高等電子與電工技術工程師學院(ESIEE Paris),於1983年獲得電氣工程文憑。隨後他在巴黎第六大學攻讀電腦科學博士學位,1987年發表了一篇關於連接學習機制的博士論文,他在論文中提到了一種早期形式的利用反向傳播演算法訓練神經網路的方法。不過在那個時代,搞神經網路還被認為是一個不切實際的任務。博士畢業後,楊立昆在多倫多大學與傑佛瑞・辛頓共事,進行了一年博士後研究,然後於1988年加入了AT&T公司的貝爾實驗室。正是在那裡,他研發出了摺積神經網路——這一突破性技術能讓電腦能夠以模擬人類視覺的方式處理圖像資訊。他的手寫數字識別系統效果顯著,美國國家現金出納機公司(NCR)從90 年代中期開始,將該技術應用於銀行支票讀取機,最高峰時期處理了全美國10%至20%的支票。楊立昆還主持研發了DjVu圖像壓縮技術,該技術讓網際網路檔案館等數位圖書館能夠線上分發掃描文件。之後,他曾在NEC研究所短暫任職,後加入紐約大學。Meta的離職潮目前,Meta公司正在試圖對其AI戰略進行全面調整。今年6月份,Meta向資料標註公司Scale AI投資143億美元,並聘請該公司CEO、28歲的美籍華人汪滔領導該公司新成立的部門“Meta超級智能實驗室”。這次重組對楊立昆本人也有一些影響,他之前要向Meta的首席產品官克里斯・考克斯匯報工作,現在卻要向汪滔匯報工作了。這次結構調整,也反映出了Meta公司內部更深層的戰略分歧。目前,Meta的Llama 4模型未達預期,Meta在AI上整體落後於OpenAI和Google等競爭對手,在此背景下,Meta的老闆馬克・祖克柏傾向於加快部署大語言模型和AI產品,而楊立昆之前曾公開表示,他對大語言模型持懷疑態度,因為他認為大語言模型永遠無法達到人類等級的推理和規劃能力。據《金融時報》報導,楊立昆的創業計畫還初在洽談融資的初期階段。他的新公司主要聚焦於他所謂的“世界模型”——這種模型是通過學習視訊和空間資料,來對環境產生內在理解,而非單純依賴文字資料。他此前經表示,這種系統旨在模擬因果場景並預測結果,但它可能需要十年左右的時間才能成熟。Meta的戰略轉型也並不是一帆風順的。今年早些時候,Meta的多名前員工曾對《財富》透露,由於公司資源向商用AI傾斜,導致長期研究受到忽視,FAIR實驗室現在實際上已處在一種半死不活的狀態。Llama模型原始研究論文的作者有超過一半在論文發表後數月內離開了Meta。今年10月份,Meta裁撤了AI部門的大約600個崗位。因此,儘管楊立昆的離職是一項重大人事變動,但它也突顯了行業內的一個核心分歧——在當下的AI行業中,不同產品的競爭日趨激烈,而究竟那條路才能達到最終所謂的“通用型人工智慧”(AGI),AI研究者在其中又應扮演什麼樣的角色,人們的看法是存在明顯差異的。(財富FORTUNE)