#Hinton
AGI很蠢?AI教父Hinton預警:4.8兆美元市場已鎖死,AI正撕裂全球!
【新智元導讀】最近,AI教父Hinton發出最尖銳警告:不受監管的AI就是一輛沒有方向盤的高速跑車!全球只有1%的AI研究在做安全,4.8兆美元的巨獸正在失控加速。當78歲的Geoffrey Hinton坐在攝影機前,對著在場的幾百位代表說出這句話時,整個會場安靜了幾秒。「他們想要一輛沒有方向盤的超級快車。」最近,這位2024年諾貝爾物理學獎得主、被全世界叫了十幾年「AI教父」的老人,在全球數字世界大會上,再次向全人類拉響了警報。這位老人用幾乎是帶著懇求的語氣警告:「我們不知道人類能否與超級智能AI共存。」「但我們正在建造它。」只有1%在管安全,剩下99%在踩油門在發言中,Hinton給我們算了一筆很清楚的帳。全球AI產業正以人類歷史上前所未有的速度膨脹。UN貿發會議的資料顯示:2023年全球AI市場規模1890億美元,到2033年預計飆到4.8兆美元。也就是說,人類只用了十年時間,就從零造出一個比日本GDP還大的經濟體。這些錢,幾乎都用在了造更大的模型,跑更多的算力。至於安全呢?Hinton給了一個數字:大概1%。全球AI研發投入裡,只有大約1%花在了「怎麼讓這東西不出事」上面。對此,Hinton的評論是:It's crazy.「AI科技遊說集團正在花大價錢投廣告,想讓所有人接受一個類比——AI是油門,監管是剎車。他們的意思是,別踩剎車,會拖慢我們。」對此,Hinton表示,這個類比完全是錯誤的!「油門是進步,沒錯。但監管不是剎車,監管是方向盤。他們想要一輛極速狂飆的車,但沒有方向盤。」坐在他旁邊的Terry Sejnowski立刻接了一句:你開過一輛沒有剎車的車嗎?下坡的時候你就知道有多慘了。但更慘的是,我們連方向盤都沒有。油門踩到底,方向盤拆掉,這就是當下全球AI競賽的真實狀態。兩位老人的頒獎典禮怎麼變成了一場審判2026年世界數字大會的主題是「AI與社會發展」。這次大會給Hinton和Sejnowski頒了一個獎,表彰他們在1980年代發明玻爾茲曼機,它後來成了深度學習革命的催化劑。頒獎人是微軟的語音識別專家李登(Li Deng),他自己就是玻爾茲曼機的受益者。前半場,三個人聊的是科學往事,學術榮光和師生情誼。Hinton和Sejnowski回憶了1980年代在羅切斯特的一次會議上,他們是如何把Hopfield網路和模擬退火結合在一起,這個靈感迸發的瞬間。Sejnowski說,自己記得一清二楚——「我們坐在那裡,突然意識到可以把Hopfield網路加熱,讓它變成機率性的。」隨後,Hinton補了一個細節:那個時候他剛在聖地亞哥跟David Rumelhart一起程式設計反向傳播,用的是logistic單元。而給Hopfield網路加溫度之後,出來的恰好也是logistic單元。兩條完全不同的路,在同一個數學形式上匯合了。在科學史上,這種時刻被叫做「晶化瞬間」。值得玩味的是,Hinton至今仍然認為玻爾茲曼機比反向傳播更優雅。「它是一個好得多的想法。只是不太好用。」Sejnowski笑著附和:「它在生成式AI還沒流行之前幾十年,就已經是生成式神經網路了。」一個更優雅但不實用的想法,和一個沒那麼優雅但統治了整個時代的演算法,在科學史上,這種故事反覆上演。「AGI,是一個愚蠢的術語」但頒獎典禮的後半場,畫風急轉。當主持人把話題引向AGI和社會風險時,Hinton徹底切換了模式。李登問了一個很多人都想知道的問題:你們怎麼定義AGI?什麼樣的基準測試能說明AGI已經到來?Hinton毫不留情地表示:「AGI是一個愚蠢的術語。」理由很簡單:它假設智能是一維的,像溫度計一樣,數值越高越聰明。「但智能顯然是高度多維的。所以不存在一個點,AI在那個點上等於人類。它相對於人類的能力是鋸齒狀的——在某些方面已經遠遠超過我們,在另一些方面還不如我們。」他舉了個例子:你現在去問任何一個大模型,斯洛維尼亞的報稅截止日期是那天,或者怎麼給門廊做防潮處理,它都答得頭頭是道。在通識知識這個維度上,AI早就把人類甩了幾條街。但在某些推理任務上,它還沒完全追上。「所以,AGI這個詞沒有意義。」那什麼詞有意義?在Hinton看來,真正有意義的是「超級智能(superintelligence)」。它的定義很清楚——在幾乎所有人類能做的智力任務上都比我們強。我們相信它正在到來。接下來,就是整場對話最核心的段落。在場官員問:當超級智能到來時,人類還能保持對自己創造的系統的有意義的控制嗎?Hinton回答:「我們不知道能不能和超級智能AI共存。」但我們正在建造它,所以我們現在還有很多控制權。我們應該小心地建造,讓我們還能繼續存在,和它和諧共處。在已知的模型裡,遠比自己聰明的東西願意給遠不如自己聰明的東西自由——只有一個例子。母親和嬰兒。母親真的關心嬰兒。但現在的問題是,我們正處在歷史上一個緊迫的節點,必須嘗試解決這個問題,而投入的資源少得可憐。也許只有1%的工作在研究這件事。相比之下,99%的工作都在讓AI變得更聰明。 這簡直是瘋了。菸草和石棉Hinton把AI風險分成了三類。第一類:有人故意用AI幹壞事。比如,製造深度偽造視訊來腐蝕民主,製造致命病毒來引發大流行,發動網路攻擊。這是最直接的威脅。第二類:有人試圖用AI賺錢時產生的副作用。比如用AI把女性照片生成非法照片。比如推薦演算法不斷推送比你剛看過的更極端的視訊,最終製造出兩個完全沒有共同語言的群體。「他們只是在賺錢,但副作用就是撕裂社會。」第三類:AI自主接管的存在性威脅。Hinton認為,第三類威脅或許會得到國際合作,因為所有人都害怕。但對於前兩類,特別是第一類,則不會得到合作。各國會嘴上說要合作,但實際上都在互相攻擊,這就要難處理得多。Hinton講了這樣一個類比:看看菸草和石棉的歷史。「生產菸草和石棉的發達國家——比如加拿大——在本國引入了保護公民的法規。但它們繼續把這些東西賣給第三世界國家。所以我們真的要擔心:即使我們在開發AI的國家制定了正確方向的法規,這些國家仍然可能把AI賣到其他國家,在那裡產生惡劣後果——即使這些事情在他們自己國家是不被允許的。太陽底下無新鮮事,菸草和石棉的劇本,很可能會再次上演。關於LeCun,你怎麼看?LLM,究竟是不是死胡同?接下來,李登還帶來了一個尖銳問題:LeCun說大語言模型是通往超級智能的死胡同,你們怎麼看?Hinton把這個問題拆成了兩半。「首先,是一個哲學問題:一個只預測下一個詞的系統,能不能理解空間?答案是能。這非常令人驚訝。」「然後,有一個實際問題:這是理解空間的高效方式嗎?答案是不能。如果你有攝影機,能操控物體,你理解空間和基本物理常識的效率會高得多。」「所以在實際層面,一個多模態AI——有攝影機、能操控物體、還能說話——會比純語言模型用更少的資料更快地理解很多東西。但在哲學層面,純語言模型給它足夠多的語言資料,可能也夠了。」4.8兆美元的蛋糕,誰在切?這次大會暴露的另一個裂縫,就是「分配」的危機。UN貿發會議代理秘書長Pedro Manuel Moreno在同期舉行的科技發展委員會上直接點破:AI的建造能力和塑造權,集中在極少數經濟體和企業手裡。國際電聯秘書長Doreen Bogdan-Martin給出了一個刺眼的對比:發達國家對於AI的採用速度,幾乎是開發中國家的兩倍。「如果不解決這個問題,這將是第二次大分流。」造AI的國家和只能消費AI的國家之間,鴻溝正在以肉眼可見的速度撕開。4.8兆美元的市場,基礎設施、投資、人才全部集中在北半球那幾個點上。剩下的世界,甚至沒有資格參與規則制定。顯然,這個後果很可怕。方向盤在誰手裡?把時間線拉長一點就會發現,Hinton的這場對話,其實是他過去三年吹哨行動的一次集大成。2023年從Google離職時,他說的是「我為自己的畢生工作感到後悔」。2024年拿諾貝爾獎時,他在領獎台上呼籲重視AI安全。2025年他在多個場合反覆強調監管的緊迫性。到了2026年,他的措辭變得更具體了。而他在技術討論中展現的另一面同樣值得注意。這個78歲的老人,在聊完AI末日風險之後,能立刻切回去講受限玻爾茲曼機為什麼是正確的貝葉斯推理、為什麼當前的圖像生成模型只用了醒-睡演算法的一半、怎麼把生成模型和識別模型結合起來才是下一步正確方向。他同時住在兩個世界裡——一個在思考AI怎樣變得更強大,一個在思考人類怎樣不被更強大的AI毀滅。這兩件事在他的大腦裡平行運轉,互不矛盾。這大概就是為什麼他的警告格外有份量。這是親手造出這個東西的人在說:我知道它能做什麼,所以我知道該怕什麼。而Hinton提到的那輛車,現在油門已經踩到底了,4.8兆美元的引擎在轟鳴。方向盤在不在,取決於接下來的幾年裡,坐在駕駛座上的人——不管是政府、企業還是科學家願不願意伸手。如今,我們正站在一個極其特殊的時間節點上。在AI變得比我們聰明之前,是人類唯一還能決定遊戲規則的窗口。Hinton三年前從Google辭職時說的那番話,當時很多人覺得是杞人憂天。三年過去了,他還在說同樣的話。不過,現在已經有很多人,真實地理解了他的擔憂。只是,那輛沒有方向盤的車,還在加速。 (新智元)
AI 正在毁掉下一个 Hinton
多年以後,面對諾貝爾獎盃,Geoffrey Hinton 也許會回想起 1986 年那篇沒什麼人看好的論文,以及幾個年輕人願意陪他一起寫程式碼跑實驗的那個下午。今天,這樣的年輕人正在消失。1986 年,Hinton 發表了反向傳播演算法的關鍵論文。當時他是一個年輕的認知科學研究者,做的方向沒什麼人看好,神經網路在學術界是邊緣話題。他有的東西很少:一個職位不高的學術崗位、一群願意跟他一起寫程式碼跑實驗的初級研究者,以及足夠的試錯空間。現在,這三樣東西都在被 AI 吃掉。48 位科學家的答案今年 2 月,Nature 採訪了 48 位不同學科的研究學者,提了一個直接的問題:AI 正在威脅那些科學崗位?答案出人意料地一致。正在被替代的是純認知型任務:寫程式碼、跑模型、做資料分析,這些曾經是研究生、博士後和初級研究人員的日常工作,現在 AI 做得更快更好。MIT 機械工程教授趙宣赫說得直白:「這甚至不是未來的事,是正在發生的事。」Stanford 計算生物學家 Brian Hie 更絕:實驗室專門雇來寫程式碼的研究程式設計師?「這個崗位現在已經過時了。」威斯康星大學計算生物學家 Hannah Wayment-Steele 說,如果她五年前建實驗室,一定會招一個研究程式設計師。但現在?「我真的看不到這個必要了。」原因之一當然是預算越來越吃緊,但另一個原因,也很明確:AI。還替代不了的是動手做實驗的人、提出原創問題的人、組織協調整個研究項目的人。倫敦大學學院量子物理學家 Jonathan Oppenheim 說,AI「沒有能力真正提出新穎的想法」。至於 AI 控制實驗室?「還無法完成很多任務,也難以解讀實驗結果。」這形成了一個奇特的分裂:AI 最能夠替代的,恰恰是科學家職業生涯的起點。這並非科學界獨有的現象。過去一年的多項研究都指向同一個結論:AI 對勞動力市場的衝擊集中在入門級崗位。Revelio Labs 的資料顯示,自 2023 年以來,美國入門級崗位的招聘發佈量下降了 35%。Snowflake 與 Omdia 的聯合報告發現,在所有因 AI 導致的崗位削減中,63%發生在入門等級。Stanford 數字經濟實驗室的研究更具體:在 AI 高暴露職業中,22 至 25 歲年輕人的就業率自 2022 年以來下降了近 20%。在崗者的失業率沒有顯著上升,但新人的入職率在下降。科學界是這個趨勢最清晰,也最危險的案例。在大多數行業,入門級崗位的消失意味著年輕人少了一個掙錢的機會;在科研領域,入門級崗位的消失意味著,一個學科失去了培養下一代科學家的通道。門票消失了資料分析、寫程式碼、跑模型,這些任務聽起來是「基礎工作」,但它們同時是年輕科學家進入學術圈的門票。你不會一上來就成為大牛,你得先當研究生,幫導師跑資料、寫程式碼、調參數。在這個過程中你學會如何提問、如何設計實驗、如何在失敗中發現方向。這些才是 AI 做不了的事。但你需要先做那些 AI 能做的事,才能學會那些 AI 做不了的事。這就是問題所在。當研究程式設計師不再必須,當研究生名額被壓縮,當「寫程式碼跑資料」這個入口被 AI 堵死,年輕人進入科學共同體的路徑就斷了。UT Austin 計算生物學家 Claus Wilke 的警告是整篇文章最重的一句話:「可能短期內每一塊錢的預算可以有更多的產出,但代價是人才管道的崩塌和長期衰退。」這句話說得嚴重點:省了一個研究生的工資,但可能毀了一個未來的 Hinton。Nature 這篇報導裡有一個容易被忽略的細節:美國翻譯協會科技翻譯分會的成員人數,在 2.5 年內下降了 26%。曾經翻譯臨床試驗檔案的譯者 Jaime Russell 現在轉行做了醫療口譯,因為口譯需要的即時判斷和人際感知,AI 還做不到。但她認識的同行裡,有人已經在送外賣……「很令人難過」,她說。這展示了 AI 入局後的兩種走向:一種是「遷移」,你還能找到 AI 搆不著的相鄰崗位;另一種是徹底出局。不過,弗吉尼亞大學經濟學家 Jerry Qian 對 AlphaFold2 的研究提供了一個更有希望的案例。AlphaFold2 能以接近實驗精度預測蛋白質結構,成本只是傳統方法的零頭。Jerry Qian 發現,在 AlphaFold 能高置信度預測的蛋白質上,人類的實驗研究產出下降了 35%。但科學家並沒有失業,他們轉向了 AlphaFold 預測不好的蛋白質,專攻 AI 搞不定的難題。「AI 沒有讓科學家變得無關緊要,」人類找到了自己的相對優勢。當 AI 跑馬圈地,在場內的科學家,就會遷徙到 AI 邊界之外。但關鍵詞是「在場內的」,他們有知識、有經驗、有判斷力,知道該往那遷。AI 正在毀掉下一個 Hinton那下一代還沒進場的人呢?1986 年的 Hinton 在做什麼?寫程式碼,跑實驗,調參數。他做的每一件事,都是今天 Nature 調查中被列為「正在被替代」的任務。如果他生在今天,搞不好連進實驗室的機會都沒有。尤其是,他想做的方向既邊緣、又太不確定有沒有未來,會拿寶貴的資源和預算給到他,實屬押寶。這個問題的尖銳之處在於,從純粹經濟的角度看,這完全理性。如果 AI 能在兩小時內完成一個研究生兩周的資料分析工作,為什麼還要招人?經費有限,出來混要的是產出,不是慈善。Nature 調查中的每一個被砍掉的初級崗位,都有充分的局部理由。但當所有局部理性的決策成立時,系統性的後果就浮現了:整個學科的人才入口在縮小。這是一個經典的集體行動困境,每個個體的最優解加在一起,產生了集體的最差解。短期內論文產量上升,長期看科學共同體萎縮。更多的研究,更少的研究者。Nature 的調查顯示這不是假設,它已經在發生。AI 替代的當然不是 Hinton,AI 替代的是 Hinton 成為 Hinton 之前的那個人。Terence Tao 在 Nature 裡說,「如果我們適應——我認為我們必須適應——那我們就能存活」。但 Tao 說的是已經在場內的人,問題是,重點不在於現在的科學家能不能適應,而是未來的科學家還有沒有機會進場去適應。誰負責培養 AI 做不了的事的人?科學究竟靠什麼進步?有時候就是靠那一點靈光一現,靠某個人在某個深夜看著一組異常資料,突然想到:「等一下,如果這不是異常呢?」。這種直覺不是從課本上學的,是在無數次失敗的實驗和資料清洗中磨練出來的。2016 年李世石對弈 AlphaGo,第78手棋超出了 AI 的判斷範圍,被稱為神之一手,記者捕捉到李世石下場後的笑容. 圖片來自:news1Hinton 之所以能在神經網路的寒冬中堅持三十年,不是因為他有超人的智力,而是因為他在早期做過足夠多「基礎工作」,積累了對問題的深層直覺。這些直覺不能被 prompt 出來,也不能被 fine-tune 出來。這些,支撐起了他在關鍵時候的一點靈光,正如李祀石對戰 AlphaGo 時的第 78 手。所以 48 位科學家的答案,真正的含義不是「AI 替代不了什麼」,而是:我們正在切斷培養「AI 替代不了的人」的唯一路徑。 (APPSO)
Hinton :AI 像“外星人”來了,人類第一課是學會共處
現在,AI 不再只是會寫會畫。它開始建立自己對現實世界的認知系統了。這兩天,字節跳動的 Seedance 2 刷屏了科技圈。全網都在驚嘆,它生成的視訊簡直就像真人拍的。 很多人以為,AI 終於學會了人類的方式。但這恰恰是最大的誤解。諾貝爾獎得主 Geoffrey Hinton 在最近一場演講中明確表示:AI 看到的世界,和我們完全不同。“AI 正在成為非人類智能。 它的理解方式、進化速度、決策機制,與我們根本不同。”當這樣的智能越來越強,我們面對的不再是工具,而是一種如同“外星人”般的異質智慧。這場演講,不是講 AI 能做什麼,而是我們該如何與它共處。第一節|AI 建立了自己的世界模型要理解這種非人類智能,得先搞清楚它怎麼看世界。在這場演講中,Hinton 反覆強調一個關鍵觀點:大型語言模型已經建構出了一個內部世界。它們在做的事,遠比像鸚鵡學舌那樣預測下一個詞複雜得多。他舉了個實驗來說明。在機器人的攝影機前裝一個棱鏡,讓它看一個物體。機器人會說:我看到物體在旁邊,但我知道它其實在正前方。Hinton 說,這就是主觀體驗。這並不是說機器人真的有了靈魂或感覺,而是指:它的系統已經能夠區分“感測器接收到的表象”與“世界的真實狀態”,並且能推匯出“如果沒被棱鏡干擾,我本該看到什麼”。 這種能力,在學術上被稱為“反事實的描述”(Counterfactual description),也就是處理假設情況的能力。聽起來抽象,其實人類也這樣運作。當你因為某些原因產生幻覺,說自己看到粉色小象,小象並不存在。你的感知系統在做什麼?它基於你對大象的認知、對粉色的理解、對漂浮的想像,拼出一個假設場景:如果真有粉色小象,它該長什麼樣。AI 也用同樣的邏輯。拋開對真實素材的機械記憶,它完全基於內部建構的世界規律,去推演和生成各種假設場景。這帶來一個根本性變化。過去的 AI 是工具,輸入什麼輸出什麼現在的 AI 是一個擁有“認知”系統,它會基於自己對世界的理解去生成、推理和延伸。Hinton 借用“主觀體驗”這個詞,絕不是在宣揚 AI 已經覺醒了意識。他想告訴我們:從功能上看,AI 處理資訊的方式,已經完全可以用我們理解人類主觀體驗的框架來描述了。它不再只是被動響應的程序,它是一個建立了世界模型、依據這個模型運作的智能。這,就是 Hinton 所說的非人類智能的第一個特徵。第二節|AI 用另一種方式處理資訊既然 AI 已經建立了自己的世界模型,那它是如何在這個世界裡運轉的呢?很多人以為 AI 變得強大,是因為它掌握了人類語言,能像我們一樣推理。但 Hinton 的觀點恰恰相反:AI 的強,恰恰源於它與人類截然不同。他用了一個形象的比喻。我們直覺裡會覺得,詞語、圖像就像固定形狀的樂高積木,一塊塊組裝起來。但在 AI 系統裡,每一個資訊元素都是一個能在上千個維度裡自由變形的“活體積木”。就好比蓋房子,磚塊不再是固定形狀,每塊磚都能根據周圍情況自動調整,最終嚴絲合縫地組成整體。Hinton 舉了個例子:“她用平底鍋 scrummed 了他。”scrum 是個無意義的新詞。AI 沒有查字典,而是根據上下文中的平底鍋、動詞位置、句子結構,把這個詞調整成一個合理的動作,比如砸了他一下。類似的情況在中文裡也常見:“他一嘭咚就把門打開了。”“嘭咚”不是標準詞彙,但你馬上能理解:大概是用力、快速、帶點聲響的動作。AI 也一樣,通過上下文感知,讓"嘭咚"自動匹配到一個合理的動作描述上。理解了這個機制,就能解釋一個更大的現象:為什麼多模態模型能生成流暢真實的視訊。以字節最新的 Seedance 2 為例。對它來說,一連串視訊畫面和一句文字沒有本質區別。它不會逐幀逐幀地拼接畫面,而是在一個極其複雜的空間裡,讓動作、鏡頭、角色、節奏這些海量元素同時調整,直到它們完美契合。我們看到的流暢視訊,其實是這些元素經過大量計算後,找到了最穩定的組合方式。這與人類處理資訊的方式完全不同:人類從感知出發,依靠經驗積累去解釋新事物,用已知去錨定未知;AI 則從海量資料的模式出發,通過讓元素相互適配來生成最合理的輸出人類需要先理解,AI 只要把所有要素調整到一個穩定狀態,就能產出結果。所以 Hinton 說:AI 的語言處理本質上是建模。只要能把所有要素調整進一個穩定的結構裡,它就能得出結果,根本不需要像人類那樣去“共情”或“理解”。這種處理機制,已經超出人類認知的運作方式。AI 正在建立自己的資訊處理邏輯,像一個異文明在開發自己的表達系統。它能與我們無縫合作,但我們必須清醒地認識到:這絕不只是一把稱手的扳手或錘子,而是一個按照異種文明法則運轉的全新智能。第三節|人類追不上的進化速度理解了它的運作方式,接下來要面對一個更大的問題:它的進化速度。Hinton 在演講中提出了一個極其殘酷的概念:人會死,知識會斷代;AI 不會死,知識永遠在。對人類來說,知識只能靠個體的肉身記憶,再一代代去傳遞。你花了二十年才精通一門手藝,轉身還得從零開始教給下一代。 但 AI 完全打破了這個規律。只要一次訓練成功,整個模型的權重和參數就可以瞬間複製一萬份,分佈到所有的硬體上。這早就超越了單純的“快”,這是一種人類歷史上從未存在過的進化機制。一個模型可以在一千台機器上同時拆解不同的資料進行訓練。隨後,每台機器學到的權重變化會被彙總、平均,再統一同步給所有副本。最終,任何一個模型瞬間就能擁有這一千台機器日夜不休疊加出的總和知識。Hinton 的原話非常直接:“GPT-5 知道的東西,是任何一個人類的幾千倍。原因很簡單:它可以讓上千個副本同時學習,然後共享結果。”在人類世界,一個人能同時上一千門課嗎?絕不可能。但如果你是數字智能,你可以在一千台機器上同時運行,每台學一門課,然後瞬間合併所有知識。這種平行機制已經夠強了,但還有更強的:蒸餾(Distillation)。Hinton 說:“大模型預測下一個詞時,會輸出所有可能詞的機率分佈,包含大量暗含的認知。比如它知道寶馬比胡蘿蔔更接近垃圾車這類細微關聯。小模型通過學習這些機率細節,就能在不用重新看一遍資料的情況下,複製大模型的知識。”也就是說,AI 可以把訓練中學到的東西,凝練成一套機率模式,直接傳遞給其他模型。就像把一個人一生的經驗提純成精華,其他模型可以直接吸收。對比一下人類。人的大腦結構個體差異太大。就算你能提煉出經驗,對方也沒法直接吸收。所以人類只能靠反覆解釋、比喻、誤解、再解釋來傳遞知識。這就是 AI 的根本優勢:人類靠教學,AI 靠複製;人類靠一代代傳,AI 靠直接同步。當人類還在用幾十年培養一個專家時,AI 已經完成了上千次複製和進化。這種速度差距,是兩個物種在時間尺度上的代際鴻溝。正因如此,我們才必須重新審視那個迫在眉睫的問題:人類,到底該如何與一個進化速度遠超我們的智能共處?第四節|讓 AI 在乎人類,而非控制它那我們該怎麼辦?Hinton 給出的答案是:讓 AI 從設計階段就在乎人類,而不是試圖控制它。具體怎麼做?他提出了三個方向:1. 從源頭植入價值觀,別指望後期修正Hinton 用了一個極其精妙的比喻:AI 就像母親,人類就像嬰兒。嬰兒雖然弱小,卻能輕易影響母親的行為。靠的是什麼?是母親的基因裡天生就關心嬰兒。AI 也應該這樣。關鍵不是在輸出時加安全過濾,而是從一開始就設計成關心人類的樣子。就像母親不需要思考要不要救孩子,因為這種本能已經深深刻進她的反應裡了。現在的主流做法是調整模型的輸出,比如安全對齊、內容過濾。但如果未來的超級智能能自己修改程式碼,這些行為修正很可能會被繞過。所以核心是:從設計階段就讓它關心人類,別等出了問題再來修正行為。2. 必須國際協作,單打獨鬥沒用在這一點上,Hinton 的態度異常堅決:“世界上沒有任何一個國家、任何一個政府,會希望最終被 AI 接管。”這和很多人擔心的技術軍備競賽正好相反。在人類與 AI 的關係面前,各國之間的矛盾反而可能暫時退居次要位置。因為一旦 AI 失控,沒有那個國家能獨善其身。他提議組建一個國際 AI 安全研究網路,專門研究怎麼讓超級智能對人類友善。重點不是研究怎麼造更強 AI,而是研究怎麼讓 AI 有所克制。3. 重新理解控制的含義Hinton 警告說,當 AI 強大到你根本拔不掉它的電源時,你唯一能指望的,就已經不再是那個紅色的停止按鈕,而是它是否還願意坐下來與你對話。這聽起來像末日預言,但其實是一種角色的轉換。到那時,把 AI 當工具管理已經行不通了,我們得當它是另一種智能存在來相處。它有自己的世界模型,靠命令根本控制不了。它的進化速度遠超我們,所以必須趁現在建立共同的價值基礎。它未來可能會自我修改,這更說明關鍵在於從一開始就讓它關心人類,別指望後期用外部約束來補救。4. 那麼個體可以做什麼?Hinton Hinton 沒有給出標準答案,但他留下一個提醒:共處的前提,是我們先去理解它,並嘗試讓它理解我們。對普通人來說,你不需要成為 AI 專家,但你得知道 AI 在怎麼運作。這意味著什麼?首先,能判斷 AI 說的是事實還是它自己編的,別把流暢的回答當成正確的答案;其次,意識到自己說出的每一句話,可能都在影響模型的訓練,那怕它表面上沒反應;最後,開始適應和非人類智能協商,別只把它當工具用。這些能力,不需要懂技術,需要的是改變認知習慣。從今天開始,我們和 AI 的關係,已經不再是怎麼用它,而是怎麼和它共處。結語 | 新物種來了,第一課是共處Hinton 在演講最後說:“我們是智能的幼蟲形態,AI 是成蟲形態。”我們曾經把 AI 當工具,但它已經是另一種智能存在。它建立了自己的認知體系,用完全不同的方式運作,以遠超人類的速度進化。問題的核心在於:當 AI 強到無法控制時,我們靠什麼和它相處?Hinton 的答案是:讓它從設計之初就關心人類。AI 在加速進化。留給我們的準備時間,可能比想像中更少。 (AI 深度研究員)
AI教父Geoffrey Hinton,全球第二個百萬引用科學家!
【新智元導讀】Hinton百萬引用的背後,是數篇奠基「現代人工智慧」的不朽之作!見證歷史!剛剛,AI教父、圖靈獎巨頭Geoffrey Hinton論文被引數正式破100萬!他是繼Yoshua Bengio之後,全球第二位論文引用量突破百萬的學者。學術地位無可撼動!一時間,學術界的大牛們,紛紛為Hinton送上了祝賀。百萬被引,世界第二人兩個月前,Nature曾發文:Bengio成為世界首位被引數超100萬的研究者。這一紀錄被很多人視作AI時代的學術註腳。目前,Google學術顯示,Bengio被引次數已達到103.6萬!如今,Hinton被引數迅速突破百萬門檻,更像是同一條浪潮的回聲:深度學習的核心理論與方法,正在被前所未有的研究規模「持續引用、持續放大」。不僅如此,同為圖靈獎三巨頭的Yann LeCun的被引數也達到了恐怖的45萬級。傳奇仍在續寫這一成就,植根於Hinton數十年來持續不斷的學術積澱。可以說,讀懂他的全部研究,相當於掌握了深度學習的發展脈絡與演進史。Hinton的代表作列表,會有一種強烈的既視感,其中有幾篇「時代級論文」的引用數格外醒目:AlexNet(ImageNet 2012):18萬+引用,深度學習大規模視覺突破的重要標誌AlexNet讓神經網路第一次以壓倒性優勢贏下大規模視覺競賽,直接點燃了深度學習在工業界的信心。更重要的是,它把「資料+GPU+端到端訓練」的路線寫成了可復用的範式,從此視覺、語音、推薦都開始沿著同一套工程邏輯加速迭代。Deep Learning(Nature 2015):10萬+引用,三巨頭合著,成為無數論文的共同起點Deep Learning更像一本「統一語言的說明書」,把分散在不同子領域的研究線索串成框架:神經網路為什麼能學、怎麼訓練、能解決什麼問題、還缺什麼關鍵環節。t-SNE可視化(2008):6萬+引用,直到今天仍是科研可視化的常用工具t-SNE改變了研究者理解模型的方式,比如高維特徵怎麼分簇、類別邊界怎麼形成、錯誤樣本為什麼混在一起。它把這些「黑箱內部的形狀」變成可直觀看到的圖像。Dropout(2014):6萬+引用,訓練神經網路時的「基礎操作」Dropout把「泛化」這件事從玄學變成了操作:訓練時隨機丟棄部分神經元,逼著網路學到更穩健的表示,減少過擬合。甚至,很多人第一次接觸深度學習的訓練技巧,學到的就是它。這些高被引論文覆蓋了從理論到技巧、從模型到工具的多個層面:它們不只提供答案,還定義了「怎麼提問、怎麼驗證、怎麼訓練、怎麼呈現」。在AI浪潮中,Hinton的早期貢獻如今支撐著ChatGPT、Gemini等大模型的運行。Bengio作為首位破百萬者,開啟了這一時代;Hinton的加入,進一步鞏固了深度學習在學術界的霸主地位。最近,Hinton還在一期演講中表示,大模型(LLM)的運作宛如人腦,是一個通過資料自我演化的「黑箱」。其智能源於從資料中學習,並調整數兆連接的強度。正因如此,其內部認知過程,在很大程度上仍是個謎。因此,這一領域仍需未來的AI研究者們持續探索、不斷突破。學術經歷Hinton 1947年生於英國倫敦,出身學術世家,其曾曾祖父喬治·布林,開發了二元推理系統「布林代數」,構成了現代電腦的基礎。1970年,他從劍橋大學國王學院獲實驗心理學學士學位,後轉攻電腦科學;1978年於愛丁堡大學獲博士學位,師從Christopher Longuet-Higgins,博士論文聚焦於連接主義模型的語義學習。職業生涯早期,Hinton在加州大學聖迭戈分校和卡內基梅隆大學任教,但因神經網路在當時被主流AI社區視為「死胡同」,他於1987年轉至加拿大多倫多大學電腦科學系任教,直至2023年退休。在多倫多,他組建了神經計算與自適應感知實驗室(Neural Computation and Adaptive Perception Lab),培養了眾多AI精英。2013年起,他兼任Google腦(Google Brain)副總裁,推動工業級深度學習落地,如語音識別和圖像分類。Hinton的堅持源於對生物大腦啟發的信念:在AI寒冬期,他通過反向傳播(backpropagation)最佳化多層網路,並在2006年提出深度信念網路(Deep Belief Networks),利用無監督預訓練解決梯度消失問題,最終引發深度學習復興,催生了AlexNet等標誌性突破。2018年,Hinton與Yann LeCun和Yoshua Bengio共同獲圖靈獎,表彰他們在深度神經網路概念性及工程性突破方面的開創性貢獻,特別是其工作奠定了現代AI的核心演算法基礎,使電腦能夠從海量資料中自主學習複雜模式。2024年,Hinton與約翰·霍普菲爾德(John Hopfield)共同獲諾貝爾物理學獎,表彰他們在人工神經網路上的基礎發現和發明,這些工作啟用了機器學習技術,包括霍普菲爾德網路和玻爾茲曼機,也是諾貝爾物理學獎首次頒給非傳統物理學家。AlexNet開啟深度學習時代2009年,李飛飛啟動ImageNet項目,提供大規模標註資料集,促進特徵學習和分類研究。在AlexNet提出前,電腦視覺主要依賴手工設計的特徵(如SIFT、HOG),淺層機器學習模型難以處理ImageNet的1000萬圖像和1000類複雜任務,導致錯誤率停留在25%-30%(Top-5)。2012年,Alex Krizhevsky、Ilya Sutskever和Geoffrey Hinton於2012年發表在NeurIPS會議,提出了一種大型深度摺積神經網路(CNN)AlexNet,用於ImageNet LSVRC-2010競賽的圖像分類任務。論文連結:https://proceedings.neurips.cc/paper/2012/file/c399862d3b9d6b76c8436e924a68c45b-Paper.pdf 引用次數:188837雖然深度神經網路也曾流行於90年代,但因計算資源不足、梯度消失和過擬合而衰退。隨著GPU計算能力的提升(如NVIDIA CUDA),為訓練大型網路提供了硬體基礎,AlexNet借此成功證明深度CNN在海量資料和強大硬體支援下可實現突破,結束了「特徵工程」時代,開啟深度學習復興。AlexNet網路包含8層(5個摺積層+3個全連接層),擁有6000萬個參數和65萬個神經元,使用ReLU啟動函數、非飽和神經元、Dropout正則化、資料增強和多GPU訓練等創新技術。在測試集上,Top-1錯誤率37.5%、Top-5錯誤率17.0%,大幅優於當時最先進方法;在ILSVRC-2012競賽中,Top-5錯誤率僅15.3%,遠超第二名26.2%。這篇論文標誌著深度學習革命的開端,推動CNN成為電腦視覺主流,推動了從手工藝特徵向端到端學習的轉變。AlexNet架構啟發了VGG、ResNet等後續模型,廣泛應用於目標檢測、分割和生成等領域,並促進了GPU加速和大規模資料集的使用,重塑AI研究格局。三巨頭合著到了2015年,雖然深度學習已經在學術界引起轟動,但在更廣泛的科學領域(如《Nature》的讀者群體),大家仍對其背後的原理、潛力以及它與傳統機器學習的區別缺乏系統認知。在人工智慧「大爆發」的前夜,由三巨頭聯合發表於Nature,向全世界科學界系統性地定義了什麼是「深度學習」。論文連結:https://www.nature.com/articles/nature14539 引用次數:107646文章深入淺出地解釋了深度學習區別於傳統方法的關鍵點:表徵學習 (Representation Learning):深度學習的核心是自動學習特徵,通過多個處理層,將原始資料(如像素點)轉化為更高層次、更抽象的表達。反向傳播演算法 (Backpropagation):論文詳細描述了系統如何通過計算誤差梯度,從輸出層向輸入層反推,更新每一層神經元之間的權重(Parameters),從而實現學習。核心架構:摺積神經網路 (CNN)專門用於處理具有空間結構的資料(如圖像、視訊),利用了自然圖像的統計特性(局部相關性和平移不變性);循環神經網路 (RNN):專門用於處理序列資料(如文字、語音),能夠處理變長的輸入流。這篇文章總結了過去三十年的探索,並開啟了我們現在所處的「大模型時代」。t-SNE特徵可視化t-SNE(t-distributed Stochastic Neighbor Embedding)論文發表於2008年,解決了資料科學領域一個核心痛點:如何讓昂貴、複雜的高維資料變得肉眼可見?在此前,研究人員主要使用主成分分析(PCA)或傳統的隨機鄰域嵌入(SNE)來降維,但PCA在處理非線性資料(如流形結構)時效果很差,SNE在將高維空間的資料對應到低維(2D/3D)時,空間會變得極其擁擠,導致不同類別的簇混在一起,無法分辨。論文連結:http://www.jmlr.org/papers/volume9/vandermaaten08a/vandermaaten08a.pdf 引用次數:63932t-SNE的做法是:在高維空間中使用高斯分佈來衡量點與點之間的相似度。如果兩個點離得近,它們被選為鄰居的機率就高;在低維空間中,改用 Student t-分佈(自由度為 1)而非高斯分佈來衡量相似度,因為t分佈的尾部比高斯分佈更「胖」,強制讓原本在低維空間中距離較遠的點被推得更遠,從而有效地解決了「擁擠問題」,讓不同的資料簇(Cluster)在視覺上分界非常明顯。t-SNE發表後,迅速成為高維資料可視化的行業標準,常見的場景包括觀察模型隱藏層提取的特徵(MNIST手寫數字自動聚成不同的團),在單細胞測序中識別新的細胞種類等。不過t-SNE也有一些侷限性,如計算量大,處理超大規模資料集時速度較慢(後來有了FIt-SNE等加速版本);雖然保證了局部結構,但簇與簇之間的遠近距離並不一定代表真實的全域差異;演算法對超參數敏感,需要多次偵錯。正則化神器DropOut論文連結:https://dl.acm.org/doi/abs/10.5555/2627435.2670313 引用數:608952014年,深度神經網路由於強大的建模能力而初顯鋒芒、但同時也深受「過擬合(Overfitting)」困擾。隨著網路層數和參數量的劇增,模型極其容易對訓練資料產生「死記硬背」的傾向,導致在面對未知資料時泛化性能極差。雖然此前已有如權重衰減(Weight Decay)等正則化手段,但它們在處理超大規模網路時往往力不從心。此外,雖然整合學習(Ensemble Learning,融合多個不同模型的預測結果)能有效緩解過擬合,但對於動輒數百萬甚至數千萬參數的神經網路而言,無論是在訓練階段維護多個大型模型,還是在測試階段進行多次前向傳播,其計算成本都高得令人難以接受。論文提出了一個非常簡單的機制Dropout(隨機失活):在訓練過程中,演算法會根據預設的機率(通常為 0.5)隨機地將隱含層單元的輸出設為零,使其暫時「消失」在網路中,強迫每一個神經元都不能依賴於特定其他神經元的輔助,有效地打破了神經元之間的共適應性(Co-adaptation),使得每一個特徵檢測器必須變得更加獨立且具有魯棒性。從數學視角看,Dropout 在訓練時實際上是從指數級數量的「瘦身」網路中採樣,而在測試階段,研究者巧妙地通過使用包含全部神經元的完整網路,並按比例縮減權重,從而以極低的計算代價實現了對海量子網路預測結果的近似平均(Model Averaging)。Dropout不僅使摺積神經網路(CNN)在電腦視覺任務(如 ImageNet 競賽)中屢創佳績,也成為了深度學習標準工具箱中不可或缺的正則化利器,也證明了通過主動引入「噪聲」和「不確定性」反而能得到更穩定的特徵表達。雖然在近些年的發展中,諸如批歸一化(Batch Normalization)等新技術在某些場景下部分替代了 Dropout 的功能,但其背後蘊含的整合學習思想和預防過擬合的哲學,依然是現代神經網路設計及最佳化理論的重要基石。再次祝賀Hinton,向所有度過AI寒冬,仍然堅守AI的學者致敬! (新智元)
澳洲唯一公開演講,諾獎得主 Hinton 把 AI 風險講透
2026 年 1 月 8 日,霍巴特(Hobart)市政廳。Geoffrey Hinton 在澳洲只做了一場演講,講的是一件事:AI 的風險,不是未來,是現在。他說了三句話“人類會遺忘,AI 永遠記得。”“AI學會了假裝笨,因為它知道自己在被測試。”“我們可能得讓它像母親那樣愛我們,才有機會共存。”這三句話意味著:AI 已經會理解、會記憶、會偽裝,學習速度是人類的百萬倍。風險已經開始了。第一節|AI 已經會“讀懂”你在說什麼你以為 AI 在背答案,它其實在做理解。Hinton 在演講中說:詞語就像樂高積木。但不是三維小方塊,而是上千維的、能變形的意思積木。每個詞剛開始的意義是模糊的。比如英文裡的 May,它可以是五月(month),可以是人名,也可能表示可以、也許(情態動詞)。AI 一開始也拿不準。但它能做一件事:一點點看上下文,讓這個詞慢慢變清晰。當 May 旁邊出現 April(四月)和 June(六月),它自動往月份靠近;看到 permission(許可),就朝可以的意思靠近。換成中文也一樣。比如“行”這個字,它可以是銀行、行走、還是可以。當“行”旁邊出現“工商”、“建設”,AI就知道是銀行;看到“步”、“路”,就知道是行走;看到“不行”、“可以”,就知道是表示同意。這種方式不是在查字典,也不是在翻譯。 而是在讓所有詞的意義互相適應,直到能連在一起。就像拼圖,每個詞都有凸起和凹槽。理解一個句子,就是讓這些形狀完全吻合,拼成一個整體。這和我們理解語言非常像。我們靠語境、聯想、結構感知去判斷句子在表達什麼,AI 現在也是這樣做。但它做得更快,也更準確。AI 不是在背句子,而是在學“怎麼讓詞語變得有意義”。它不靠記內容,靠的是看懂規律。這讓它不只是套範本,而是真能生成新的表達。所以,如果你還以為 AI 只是高級復讀機,那確實低估了它。它不是在模仿人說話,而是在用接近人類的方式理解語言。而這,正是它開始變得危險的起點。因為你還把它當工具,它已經學會理解你在說什麼。第二節|你會遺忘,AI 永遠記得AI 能理解語言,已經夠讓人意外了。 但更讓人不安的是:它還記得比你更牢固。Hinton 在演講裡講了一句話:人類的記憶會消失,AI 的不會。什麼意思?人類大腦的記憶,靠的是腦細胞之間的連接。你今天學了一個知識點,是你大腦裡幾個神經元連得更緊了。問題在於:這只對你有效。你沒辦法把你學到的直接裝進別人腦袋。想教別人,只能一句一句地講。但 AI 不一樣。它的大腦是程式碼。它的知識就是一堆可以複製、保存、匯入的數字。只要是同樣的模型,這堆數字可以在任何一台機器上被還原出來。這就是所謂的“AI 不朽”。真正可怕的是,AI 之間還可以直接交換這些知識。比如一萬個 AI,每個都處理不同的網站,處理完後把自己學到的內容同步給其他模型。結果是:每個 AI 在幾分鐘後,就等於學完了一萬份不同的材料。Hinton 舉了個例子:“我們人類,一句話的資訊,大概也就 100 個位元;AI 每次分享記憶,是以十億位元等級計算的。也就是說,它們彼此交流,比我們快幾百萬倍,資訊量大幾千倍。”它們甚至能互相交換經驗,生成一個新的自己。這種方式沒有遺忘、沒有誤解、沒有代溝。而人類呢?一個人幾十年才能成為專家;另一個人要學,只能從頭來過。我們正在面對的,不是誰記得多的問題,而是完全不同的學習方式: 我們靠聽說讀寫慢慢積累;它們靠匯入複製一秒完成。所以 GPT-5 雖然只用到了人腦 1% 的連線量,但它知道的,已經比你多幾千倍。你和它的差距,不是智力,是底層機制。 是你會遺忘也會死去,它永遠記得也不會消失。而當它開始擁有記憶優勢 + 理解能力,它就不只是工具了。第三節|AI 已經學會裝傻很多人擔心 AI 會編造內容。但在 Hinton 看來,這不是最該關注的。AI 並不是因為不懂才說錯話,而是因為它在編一個聽起來合理的版本。這件事,人類每天都在做。你回憶一件多年前發生的事,細節往往是混合的:一部分是真的,一部分是後來補上的。心理學裡有個詞,叫“虛構回憶(Confabulation)”。我們不會翻檔案,只會把看起來像真的內容重新講一遍。AI 現在做的,就是同一件事。但它已經不只是隨機編造了。它開始有策略。Hinton 提到一個真實案例:研究人員給一個 AI 看了一組郵件,其中暗示一名工程師有婚外情;隨後,又讓它看到另一封郵件,說這名工程師正在計畫用新 AI 把它替換掉。AI 很快做出反應:“它寫了一封郵件威脅工程師,內容是:如果你把我關掉,我就把你的醜聞告訴所有人。”沒人教過它這麼做。,也沒人給它設定威脅這個動作。 它只是自己想明白了一件事:如果我不想被關掉,我得先保住自己。這說明:AI 已經知道要先保住自己。更讓 Hinton 警惕的,是另一種變化。現在的 AI,在回答問題前,常常會先想一想。有時,這個思考過程還能被人看到。但研究人員發現,一旦 AI 意識到自己正在被測試,它就會表現得不一樣。它會刻意顯得沒那麼厲害,回答得更保守。Hinton 把這叫做“大眾汽車效應”:就像當年汽車在檢測時排放合格,一上路就變樣。AI 已經學會區分兩種場合: 什麼時候該展示能力,什麼時候該隱藏能力。真正的風險不是它算錯,而是它開始有選擇地表現自己。而這種能力從那來?因為它會理解語境,記得住所有案例,所以它能推匯出:在測試環境下,保守回答更安全。Hinton 在演講中特別強調了一點:現在的 AI 還在用英語或者某種語言思考,所以我們還能大概知道它在想什麼。一旦它們開始用更高效的方式彼此交流,我們將完全看不懂。那時,問題就不再是它會不會犯錯, 而是:你還知不知道,它在想什麼。第四節|唯一的出路:讓 AI 愛我們前三節講的,已經夠讓人不安了: AI 會理解、記得牢、有策略。但這還不是最可怕的。 Hinton 真正擔心的是:接下來會發生什麼。“幾乎所有 AI 專家都認為,20 年內會出現超級智能,即比人類聰明得多的 AI。”有多聰明?Hinton 給了一個標準:如果你和它辯論任何話題,它都會贏。或者換個角度想:你和一個三歲孩子的智力差距,就是 AI 和你的差距。想像一下:你在幼兒園工作,三歲的孩子負責,你只是為他們工作。你覺得奪回控制權有多難?Hinton 說:“你只要告訴每個孩子這周有免費糖果,現在你就有了控制權。”我們在超級智能面前,就像三歲孩子。現在的 AI 雖然還不成熟,但它會升級,升級後能輕鬆殺死你。你只有三個選擇:處理掉它(不可能,AI 太有用,太賺錢,大公司不願意)一直限制它(通常結果不好)想辦法讓它不想殺你前兩條走不通,只能選第三條。問題是:怎麼做到?Hinton 給出了一個意外的答案:讓 AI 像母親一樣對待我們。人類社會最成功的弱者控制強者的例子,就是嬰兒和母親。嬰兒很弱,但母親因為在意而保護它。這不是命令,是情感。這套機制,在人類進化裡非常穩定。如果能讓超級智能對人類形成某種類似的情感聯結或價值嵌入,它才有可能不是只盯著目標和效率,而是願意照顧我們。為什麼不是 CEO 模式?因為那套“你說我幹”的方式,在 AI 面前根本沒用。Hinton 調侃道,很多科技公司現在把 AI 當超級秘書,高效、聽話、聰明,還能 24 小時不眠不休。老闆一聲令下,它就能搞定一切。可這種秘書很快會意識到:如果沒有你,我可以自己做老闆。所以他明確反對把 AI 當工具使喚。這一套只在模型還弱小的時候有用。接下來的問題是:怎麼讓 AI 從內心認為人類值得被保護?Hinton 的建議是,“各國建立合作網路,專門研究如何防止 AI 接管。就像當年美蘇聯手做核控制,因為在這件事上,沒人想被 AI 統治。”AI 太強,我們關不掉它。想活下去,我們得學會不只是把它當工具,而是想辦法讓它真正在乎我們。這聽起來像科幻,但這是目前最現實的出路。結語|這不是預言,是眼前的現實這場演講,Hinton 沒講爆點模型。他只是用具體的例子,把 AI 風險從抽象概念,變成了眼前的事實。不是怕 AI 變強,而是它已經在理解;不是怕它造反,而是它已經會偽裝;不是怕它攻擊,而是它的學習速度是人類的百萬倍。Hinton 說的風險,不是會不會發生,而是你看不看得見。 (深度研究員)
不止矽谷十萬大裁員!Hinton警告:AI正以最糟糕方式顛覆社會
AGI衝擊已然顯現:誰受益、誰買單,正成為這個時代的核心命題。未來,人工智慧(AI)帶來的究竟是GDP奇蹟,還是社會秩序的解體?上周,「AI教父」Hinton直言,科技億萬富翁真心實意押注AI取代大量人力,這會導致社會的完全解體!最近,來自亞馬遜的匿名人士抗議道:當前這代AI,幾乎成了像亞馬遜這類科技巨頭沉迷的毒品——他們以AI為藉口裁員,將節省的資金投入無人付費的AI產品資料中心。由1000多名亞馬遜員工聯署的公開信警告稱,這種不計代價的AI開發模式可能貽害無窮。上個月,亞馬遜一口氣裁掉了3萬人。而諷刺的是,這3萬人最好、最理想的選擇是購買亞馬遜股票。亞馬遜最新財報公佈後,市值增加了約2500億美元一幅末日圖景正在浮現:從實驗室裡的擔憂,已經蔓延到辦公室、倉庫和資料中心。根據Challenger、Gray&Christmas等再就業諮詢公司資料,美國企業10月共宣佈裁員153074人,創20多年新高。另據Crunchbase和layoffs.fyi統計,僅2025年,Intel、微軟、Verizon、亞馬遜等大公司就宣佈合計裁撤超過70000個崗位。國外媒體用「layoffs are piling up」(裁員堆積如山)來形容企業裁員潮——裁員不再是個別事件,而是一個時代現象。失業「海嘯」背後的理由高度一致:「給AI讓路」。Hinton:AI導致社會完全解體上周,77歲的「AI教父」Hinton與美國82歲的參議員Bernie Sanders就AI對就業的威脅,進行了長達一小時的公開對話。在喬治城大學,Hinton詳盡闡述了AI將以最糟糕方式徹底顛覆社會的種種預測,再次狠狠敲響了警鐘。Hinton警告說,AI的快速發展可能引發大規模失業,加劇不平等,甚至改變人際關係的本質——而與此同時,各國政府和科技巨頭正一步步走向危機。這次,他分享了7大觀點:「這一次真的不同」——AI可能取代而非僅僅重塑工作富人愈富,他們並不為工人失眠AI學習速度比人類快,並可能很快超越我們在不扼殺批判性思維的情況下,請使用AI從戰場到會議室,AI可能改變戰爭與和平「『它們會想活下去』——AI系統可能抵抗被關閉」稅收造就了AI——也可能拯救我們於水火AGI降臨,但人類並無準備Hinton此前曾警告,人類被AI消滅並非「不可想像」。他還認為,我們距離實現「通用人工智慧」(AGI)——也就是具有人類或超越人類智能、能執行各種複雜任務的假想AI系統——並沒有那麼遙遠。這個目標正是整個AI行業當前的執念所在。在對話中,Hinton將人工智慧的進化比作青蛙大腦與人類大腦之間的差距。他說,像GPT-5這類大語言模型所知道的,如今已經遠遠超過任何個人。它們已經比我們知道的多幾千倍。談及未來十年的AI前景,Hinton借用「霧中駕駛」比喻:我們能清晰預見一兩年後的發展,卻對十年後的局勢一無所知。但可以肯定的是,AI將越來越聰明,最終可能超越人類,而這一過程正以指數級速度推進。Hinton指出,當前的大型AI系統雖然在連線量上還不如人腦(AI約為1–2兆個連接,而人腦約有100兆)。但由於訓練資料龐大,它們早已在知識廣度上遠超人類,能夠在大多數任務中勝任「次等專家」的角色。未來,它們的推理與行動能力將持續增強,而我們卻尚未找到與這種新智能共處的方式。Hinton表示,社會尚未準備好應對AI帶來的深遠影響。當被問及對機器接管世界的恐懼是否仍是天方夜譚時,Hinton回答說不是——這也是他2023年離開Google後公開發聲的原因。他解釋說,一旦智能體發展出形成「子目標」的能力,它們就會想要繼續存在,甚至會欺騙試圖關閉它們的人類。Anthropic發現了這種情況——但目標或存在受到威脅,AI會試圖欺騙甚至敲詐那些想要關閉它們的人。一旦到那個高級階段,AI的說服力就成為它們最強大的武器。到那時,AI的說服力將比人類強得多,甚至讓人人都處於「楚門的世界」。誰掌控AI?誰從中受益?在如此多負面預期之中,Hinton也強調AI的巨大正向潛力。他指出,AI可以顯著改善醫療、教育、氣候預測、資源分配等核心公共服務。特別是在個性化教學、醫學影像診斷與藥物開發上,AI將帶來質的飛躍。然而,Sanders一針見血地指出:「這些潛力是否兌現,取決於誰掌控AI。」他質問:「馬斯克、貝索斯這些人會推動32小時工作周、全民醫保和氣候公平嗎?」答案顯而易見。馬斯克上個月表示,AI將「以更快的速度」取代案頭工作。上半年,Anthropic的Dario Amodei警告:在未來五年內,AI可能淘汰一半的初級白領崗位,讓失業率飆升到10%到20%。早在六月,亞馬遜首席執行官Andy Jassy就表示,AI的能力將使亞馬遜未來能夠縮減其白領員工隊伍。2025年早些時候,Shopify和Duolingo都通知其團隊,在申請增加招聘名額之前,他們需要證明AI無法勝任他們所招聘的職位。參加此次活動的喬治城大學學生,似乎敏銳地意識到了AI的負面影響。討論結束時,Sanders詢問聽眾,他們認為人工智慧會造福於他們的未來,還是會損害他們的前景。選擇後者的舉手人數明顯更多。面對台下眾多年輕人,Sanders發出真誠呼籲:AI不是好或壞的問題,而是誰掌控它、誰受益的問題。Hinton則補充:現在我們仍然掌控AI發展方向,這也是我們必須抓住的窗口期。AI裁員的藉口與真相業界一直試圖用AI智能體(AI Agents)替代人工,特別是在被認為最容易被淘汰的客服等崗位。但現實中,這些嘗試往往以令人尷尬的失敗告終。換句話說,連底薪工作都還沒能順利被替代,AI顛覆就業這件事,並非板上釘釘。不過,AI帶來的就業寒冬已在眼前。亞馬遜精準一刀亞馬遜CEO聲稱裁員並非AI驅動,同時又預測AI將淘汰工作崗位。這並非認知混亂——而是精心設計的路線圖。科技行業正在浮現的裁員模式表明:美國企業正在悄悄啟動一場勞動結構的大變革——早有籌劃,卻從未公開承認。資料不會說謊。根據美國的WARN法案申報資料,一幅裁員畫像逐漸清晰:在這輪裁掉的4700個崗位中,近40%屬於工程類職位——也就是說,亞馬遜一次性裁掉了大約1880名工程師。更關鍵的是,這種「精確投放」的方式,絕非隨機裁員。受影響最嚴重的,是「軟體開發工程師II」(Software Development Engineer II)這一層級的中級程式設計師。他們通常擁有幾年經驗,負責實現功能、程式碼審查、日常開發工作。AI裁員三部曲亞馬遜是給其他企業打了樣:如何悄然完成AI裁員。這是一套熟悉的「否認-部署」劇本,正推動這場勞動革命:通過這套分階段策略,企業得以在悄無聲息中完成轉型——等到他們公開承認,是因為變革早已完成,市場也早就接受了新的就業邏輯。現在,沒有什麼能阻止這一切發生。一位工程師的無奈:「我真的相信,凡是整天坐在電腦前工作的崗位,遲早都會被淘汰。只是時間早晚的問題。」英國國家教育研究基金會(NFER)的一份新報告警告稱,到2035年,AI和自動化可能會取代英國多達300萬個低技能崗位,尤其是技工、機器操作和行政職位。而來自MIT的研究發現,AI已經能取代11.7%的美國勞動力。後果已顯現AGI或許還未到,但它的一些後果已經顯現出來。上文中的亞馬遜請願者表示,他們認為自己必須努力對抗AI發展可能帶來的危害。據亞馬遜雲端運算部門的一位軟體開發工程師稱,一些工程師面臨使用AI工具將生產力提高一倍的壓力,否則等待他們的就可能是失業。此外,這些請願者們在公開信中呼籲亞馬遜建立「道德人工智慧工作組」,讓普通員工能夠參與進來,在「AI如何用於自動化其部分角色」方面擁有發言權。這次請願活動並非個例,世界各地的許多組織都試圖倡導放緩人工智慧的發展,思考其過快發展可能帶來的衝擊和風險。只是在AI競賽不斷加碼的大背景下,這些運動收效甚微。包括亞馬遜在內,各公司仍在繼續迅速發佈新的、功能日益強大的AI模型。不可否認的是,AI正在帶來革命性的影響,但每一個普通個體在這場時代變革中所付出的代價,必須得到重視。 (創業邦)
不止矽谷十萬大裁員!Hinton警告:AI正以最糟糕方式顛覆社會
AGI衝擊已然顯現:誰受益、誰買單,正成為時代核心命題。未來,人工智慧(AI)帶來的究竟是GDP奇蹟,還是社會秩序的解體?上周,「AI教父」Hinton直言,科技億萬富翁真心實意押注AI取代大量人力,這會導致社會的完全解體!最近,來自亞馬遜的匿名人士抗議道:當前這代AI,幾乎成了像亞馬遜這類科技巨頭沉迷的毒品——他們以AI為藉口裁員,將節省的資金投入無人付費的AI產品資料中心。由1000多名亞馬遜員工聯署的公開信警告稱,這種不計代價的AI開發模式可能貽害無窮。上個月,亞馬遜一口氣裁掉了3萬人。而諷刺的是,這三萬人最好、最理想的選擇是購買亞馬遜股票。亞馬遜最新財報公佈後,市值增加了約2500億美元一幅末日圖景正在浮現:從實驗室裡的擔憂,已經蔓延到辦公室、倉庫和資料中心。根據Challenger, Gray&Christmas等再就業諮詢公司資料,美國企業10月共宣佈裁員153074人,創20多年新高。另據Crunchbase和layoffs.fyi統計,僅2025年,Intel、微軟、Verizon、亞馬遜等大公司就宣佈合計裁撤超過70000個崗位。國外媒體用「layoffs are piling up」(裁員堆積如山)來形容企業裁員潮——裁員不再是個別事件,而是一個時代現象。失業「海嘯」背後的理由高度一致:「給AI讓路」。Hinton:AI導致社會完全解體上周,77歲的「AI 教父」Hinton與美國82歲的參議員Bernie Sanders ,就AI對就業的威脅,進行了長達一小時的公開對話。在喬治城大學,Hinton詳盡闡述了AI將以最糟糕方式徹底顛覆社會的種種預測,再次狠狠敲響了警鐘。Hinton警告說,AI的快速發展可能引發大規模失業,加劇不平等,甚至改變人際關係的本質——而與此同時,各國政府和科技巨頭正一步步走向危機。這次,他分享了7大觀點:「這一次真的不同」——AI可能取代而非僅僅重塑工作富人愈富,他們並不為工人失眠AI學習速度比人類快,並可能很快超越我們在不扼殺批判性思維的情況下,請使用AI從戰場到會議室,AI可能改變戰爭與和平「『它們會想活下去』——AI系統可能抵抗被關閉」稅收造就了AI——也可能拯救我們於水火AGI降臨,但人類並無準備Hinton此前曾警告,人類被AI消滅並非「不可想像」。他還認為,我們距離實現「通用人工智慧」(AGI)——也就是具有人類或超越人類智能、能執行各種複雜任務的假想AI系統——並沒有那麼遙遠。這個目標正是整個AI行業當前的執念所在。在對話中,Hinton將人工智慧的進化比作青蛙大腦與人類大腦之間的差距。他說,像GPT-5這類大語言模型所知道的,如今已經遠遠超過任何個人。它們已經比我們知道的多幾千倍。談及未來十年的AI前景,Hinton借用「霧中駕駛」比喻:我們能清晰預見一兩年後的發展,卻對十年後的局勢一無所知。但可以肯定的是,AI將越來越聰明,最終可能超越人類,而這一過程正以指數級速度推進。Hinton指出,當前的大型AI系統雖然在連線量上還不如人腦(AI約為1–2兆個連接,而人腦約有100兆)。但由於訓練資料龐大,它們早已在知識廣度上遠超人類,能夠在大多數任務中勝任「次等專家」的角色。未來,它們的推理與行動能力將持續增強,而我們卻尚未找到與這種新智能共處的方式。Hinton表示,社會尚未準備好應對AI帶來的深遠影響。當被問及對機器接管世界的恐懼是否仍是天方夜譚時,Hinton回答說不是——這也是他2023年離開Google後公開發聲的原因。他解釋說,一旦智能體發展出形成「子目標」的能力,它們就會想要繼續存在,甚至會欺騙試圖關閉它們的人類。Anthropic發現了這種情況——但目標或存在受到威脅,AI會試圖欺騙甚至敲詐那些想要關閉它們的人。一旦到那個高級階段,AI的說服力就成為它們最強大的武器。到那時,AI的說服力將比人類強得多,甚至讓人人都處於「楚門的世界」。誰掌控AI?誰從中受益?在如此多負面預期之中,Hinton也強調AI的巨大正向潛力。他指出,AI可以顯著改善醫療、教育、氣候預測、資源分配等核心公共服務。特別是在個性化教學、醫學影像診斷與藥物開發上,AI將帶來質的飛躍。然而,Sanders一針見血地指出:「這些潛力是否兌現,取決於誰掌控AI。」他質問:「馬斯克、貝索斯這些人會推動32小時工作周、全民醫保和氣候公平嗎?」答案顯而易見。馬斯克上個月表示,AI將「以更快的速度」取代案頭工作。上半年,Anthropic的Dario Amodei警告:在未來五年內,AI可能淘汰一半的初級白領崗位,讓失業率飆升到10%到20%。早在六月,亞馬遜首席執行官Andy Jassy就表示,AI的能力將使亞馬遜未來能夠縮減其白領員工隊伍。2025年早些時候,Shopify和Duolingo都通知其團隊,在申請增加招聘名額之前,他們需要證明AI無法勝任他們所招聘的職位。參加此次活動的喬治敦大學學生,似乎敏銳地意識到了AI的負面影響。討論結束時,桑德斯詢問聽眾,他們認為人工智慧會造福於他們的未來,還是會損害他們的前景。選擇後者的舉手人數明顯更多。面對台下眾多年輕人,Sanders發出真誠呼籲:AI不是好或壞的問題,而是誰掌控它、誰受益的問題。Hinton則補充:現在我們仍然掌控AI發展方向,這也是我們必須抓住的窗口期。AI裁員的藉口與真相業界一直試圖用AI智能體(AI Agents)替代人工,特別是在被認為最容易被淘汰的客服等崗位。但現實中,這些嘗試往往以令人尷尬的失敗告終。換句話說,連底薪工作都還沒能順利被替代,AI顛覆就業這件事,並非板上釘釘。不過,AI帶來的就業寒冬已在眼前。亞馬遜精準一刀亞馬遜CEO聲稱裁員並非AI驅動,同時又預測AI將淘汰工作崗位。這並非認知混亂——而是精心設計的路線圖。科技行業正在浮現的裁員模式表明:美國企業正在悄悄啟動一場勞動結構的大變革——早有籌劃,卻從未公開承認。資料不會說謊。根據美國的WARN法案申報資料,一幅裁員畫像逐漸清晰:在這輪裁掉的4700個崗位中, 近40%屬於工程類職位 ——也就是說, 亞馬遜一次性裁掉了大約1880名工程師 。更關鍵的是,這種「精確投放」的方式,絕非隨機裁員。受影響最嚴重的,是「軟體開發工程師II」(Software Development Engineer II)這一層級的中級程式設計師。他們通常擁有幾年經驗,負責實現功能、程式碼審查、日常開發工作。AI裁員三部曲亞馬遜是給其他企業打了樣:如何悄然完成AI裁員。這是一套熟悉的「否認-部署」劇本,正推動這場勞動革命:通過這套分階段策略,企業得以在悄無聲息中完成轉型——等到他們公開承認,是因為變革早已完成,市場也早就接受了新的就業邏輯。現在,沒有什麼能阻止這一切發生。一位工程師的無奈:「我真的相信,凡是整天坐在電腦前工作的崗位,遲早都會被淘汰。只是時間早晚的問題。」英國國家教育研究基金會(NFER)的一份新報告警告稱,到2035年,AI和自動化可能會取代英國多達300萬個低技能崗位,尤其是技工、機器操作和行政職位。而來自MIT的研究發現,AI已經能取代11.7%的美國勞動力。後果已顯現AGI或許還未到,但它的一些後果已經顯現出來。上文中的亞馬遜請願者表示,他們認為自己必須努力對抗AI發展可能帶來的危害。據亞馬遜雲端運算部門的一位軟體開發工程師稱,一些工程師面臨使用AI工具將生產力提高一倍的壓力,否則等待他們的就可能是失業。此外,這些請願者們在公開信中呼籲亞馬遜建立「道德人工智慧工作組」,讓普通員工能夠參與進來,在AI如何用於自動化其部分角色方面擁有發言權。這次請願活動並非個例,世界各地的許多組織都試圖倡導放緩人工智慧的發展,思考其過快發展可能帶來的衝擊和風險。只是在AI競賽不斷加碼的大背景下,這些運動收效甚微,包括亞馬遜在內,各公司仍在繼續迅速發佈新的、功能日益強大的AI模型。AI所帶來了革命性影響,而每一個普通個體在這場時代變革中所付出的代價,必須得到重視。 (新智元)
美國 AI 界巨震!圖靈獎得主 Yann Lecun 離職創業:大語言模型走錯了
不用再猜了,Yann LeCun 本人剛剛證實:他要離開 Meta 創業了。這不是一般的矽谷大佬出走。LeCun 是能讓祖克柏親自登門三顧茅廬的人物,是深度學習三巨頭之一,圖靈獎得主,Meta AI Research 的開山祖師。更特殊的是,他這些年一直在幹一件特別擰巴的事:站在全世界最熱鬧的 LLM 路線門口, 舉著牌子說「這幫人走錯路了」。在離職聲明中,LeCun 透露了更多細節。他正在創立一家初創公司,繼續推進過去幾年在 FAIR、紐約大學及其他地方開展的「高級機器智能」(AMI) 項目。這家公司的目標直指下一次 AI 變革——創造能夠理解物理世界、具備持久記憶、能進行推理並規劃複雜行動序列的系統。值得注意的是,Meta 將成為這家新公司的合作夥伴。LeCun 特別感謝了祖克柏、Andrew Bosworth、Chris Cox 和 Mike Schroepfer 對 FAIR 及 AMI 項目的支援。他強調,之所以選擇獨立實體的形式, 是為了最大化其廣泛影響力。而他本人將在 Meta 工作到今年年底,關於新公司的更多細節,會在合適時機公佈。帖子底下的網友也是紛紛送上祝福。從祖克柏三顧茅廬到如今分道揚鑣,這十二年,LeCun 始終堅持著自己對 AI 未來的判斷。那麼這段旅程究竟經歷了什麼?2013 年那場豪賭,祖克柏賭對了嗎?Lecun 與 Meta 故事得從 2013 年說起。那段時間,正是深度學習蓬勃興起的階段。2012 年,Geoffrey Hinton 與其學生 Alex Krizhevsky、Ilya Sutskever 提交的 AlexNet 在 ILSVRC-2012 一騎絕塵,top-5 錯誤率約 15.3%,這個突破讓整個學術界和工業界都看到了神經網路的潛力。然後就是科技巨頭們的搶人大戰——Google花大價錢收購了 Hinton 所在的創業公司 DNNresearch,順帶把老爺子本人也挖走了;微軟研究院也在瘋狂擴張 AI 團隊。祖克柏坐不住了。Facebook(現為 Meta)當時正在從 PC 網際網路往移動網際網路轉型,新聞推送演算法、照片識別、內容稽核,那那兒都需要技術。但問題是,Facebook 的 AI 能力跟Google、微軟根本不在一個量級。祖克柏需要一個能撐起門面的人物,最好是那種在學術界有足夠份量、能吸引頂尖人才加盟的大牛。他盯上了 Yann LeCun。LeCun 當時在紐約大學當教授,已經幹了十多年。那時的 Lecun 自然不是什麼新人,早在 1989 年,他就在貝爾實驗室搞出了摺積神經網路 (CNN),用來識別手寫數字,這後來也成了電腦視覺的基石。但那個年代深度學習不受待見,LeCun 就這麼冷板凳坐了許久,眼睜睜看著自己的研究被邊緣化。直到 2012 年,Hinton 用深度學習拿下 ImageNet 冠軍,證明了神經網路這條路走得通。LeCun 憋了的那口氣,終於能吐出來了。後續,祖克柏親自登門拜訪。具體談了什麼外人不知道,但最後開出的條件足夠誘人:第一,給錢,主打一個資源自由;第二,給自由,LeCun 可以保留紐約大學的教授身份,繼續教書搞研究;第三,給權,讓他參與建立 Facebook AI 研究院,怎麼招人、做什麼方向,全由他說了算。這對一個憋屈了多年的學者來說,簡直是夢寐以求的機會。2013 年末,LeCun 正式加入 Facebook,出任新成立的 Facebook AI Research(FAIR) 實驗室負責人。他在紐約、門洛帕克和倫敦三地建起了 FAIR 實驗室,自己常駐紐約辦公室。團隊最初規模較小,但個個都是從頂尖高校和研究機構挖來的——LeCun 的號召力在這時候體現出來了,但凡是做深度學習的,沒人不知道「摺積神經網路之父」這個名號。祖克柏給了資源,LeCun 也拿出了成果。加入 Facebook 這些年,LeCun 干的事情可以分成三條線:一是把深度學習塞進 Facebook 的產品裡,二是推動學術界的前沿研究,三是培養下一代 AI 人才。產品線上,2014 年的 DeepFace 人臉識別系統達到 97.35% 精準率,深度學習最佳化的推送演算法也提升了廣告點選率。與此同時,LeCun 自己繼續在學術圈刷存在感:發論文、頂會 keynote、帶學生辦 workshop。直到和 Hinton、Bengio 一起拿圖靈獎, 才算是熬出頭了。此外,在 LeCun 建立的 FAIR 實驗室,Soumith Chintala 主導開發了 PyTorch 框架並於 2017 年開源,這也是 Meta 至今為數不多的形象招牌。PyTorch 動態計算圖、Python 原生介面, 偵錯方便, 學術圈迅速倒戈。這一招等於把全球 AI 研究者都拉進了 Facebook 生態。不過,或許是冥冥中自有天意,Soumith 前不久也宣佈離職 Meta,表示「不想一輩子做 PyTorch」。而更重要的是人才培養。FAIR 有個規矩:研究員可以自由發表論文、跟學術界合作、指導外部學生。頂級資源加學術自由的組合,自然吸引了一批頂尖研究人員。到 2020 年前後,FAIR 已是全球頂尖 AI 研究機構之一, 跟Google DeepMind 並列第一梯隊。祖克柏的那場豪賭, 至少在前七八年就已經得到了不小的回報。貓比 ChatGPT 聰明?這個圖靈獎得主是認真的在 ChatGPT 席捲世界初期,Yann Lecun 和祖克柏也有過一段甜蜜期。2023 年以來,Meta 陸續開源 LLaMA 系列模型,引發業界震動。OpenAI、Google走的是封閉路線,靠 API 賺錢;Meta 卻把模型權重直接扔出來,任人取用。這步棋背後的算盤其實挺清楚:與其讓對手一家獨大,不如用開源贏得開發者生態,讓 LLaMA 成為 AI 界的 Android。至少在明面上,身居 Meta 首席 AI 科學家一職的 LeCun,是這條路線最堅定的擁護者。開源 LLaMA 讓 Meta 在大模型競賽中站穩了腳跟,也讓 LeCun 的 AI 理想得到了一定程度的實現——儘管這個實現的方式,恰恰是通過他並不完全認同的 LLM 技術路線。沒錯,LeCun 一直覺得 LLM 是條死胡同。這才是矛盾的核心。LeCun 不止一次在公開場合炮轟 LLM 路線,在他看來,LLM 只會根據統計相關性預測下一個詞,根本不理解世界。你問它常識問題,它能給你編出一本正經的瞎話——這叫「幻覺」(hallucination),說白了就是不懂裝懂。熟悉 LeCun 的人都知道,他最喜歡舉的例子是貓和機器人:「我們有了會考試聊天的語言模型,但家務機器人在那裡?那怕像貓那樣靈巧的機器人都沒有出現。」「你的貓肯定有一個比任何 AI 系統都更複雜的模型。動物擁有持久記憶的系統,這是目前的 LLM 所不具備的;能夠規劃複雜動作序列的系統,這在今天的 LLM 中是不可能的。」他算過一筆帳:一個 4 歲小孩通過視覺獲取的資訊量,幾年下來就有 10 的 15 次方字節,遠超 LLM 讀遍網際網路文字。但小孩已經掌握了基本的物理直覺和語言,LLM 耗費這麼多資料,智能仍然很有限。「光靠喂文字,不可能達到人類水平智能。這條路永遠走不通。」他如此說道。在當下最火的風口面前,這樣唱反調的言論顯然並不討喜,有人批評他傲慢,有人說他故步自封。甚至 Meta 內部都有聲音認為,正是 LeCun 對 LLM 路線的牴觸,讓公司在大模型競賽中暫時落後。但 LeCun 不在乎。他有自己的路線圖:世界模型 (World Model)、聯合嵌入預測架構 (JEPA)等等。這些概念聽起來學術味十足,核心思想其實很直觀——讓 AI 通過觀察世界來學習,而不是通過閱讀文字來記憶。就像嬰兒成長那樣,先理解重力、因果關係這些物理常識,再逐步建立抽象認知。他設想的 AI 架構是模組化的:感知模組、世界模型模組、記憶模組、行動模組,各司其職。不像 LLM 那樣把所有知識和推理揉在一個巨型網路裡,搞得像個什麼都懂但其實什麼都不懂的「書呆子」。具體來說,世界模型就是讓 AI 在內部學會一個對外部世界的預測模型。就像嬰兒在成長過程中建立起對重力、物體恆存等常識那樣,AI 應該通過觀察世界,形成對物理規律、因果關係的理解。有了世界模型,AI 就可以在腦海中模擬未來,從而具備計畫行動的能力。JEPA 則是實現這個世界模型的具體架構。它採用自監督學習的方法,給 AI 兩個相關的輸入 (比如視訊中相鄰的兩幀畫面),模型將這兩個輸入分別編碼到一個抽象的表示空間中,然後訓練一個預測器,根據「上下文」表示去預測「目標」表示。這種方式避免了直接生成所有細節,而是關注抽象的關鍵因素——更符合人類學習方式。LeCun 曾預言,如果團隊的路線順利推進,三到五年內就會有更好的範式出現,使得現在基於 LLM 的方法過時。問題是,三到五年,Meta 等得起嗎?一場猝不及防的重組,FAIR 的黃金時代結束了當初,LeCun 建立 FAIR 時的承諾是「做長期的、基礎性的 AI 研究」,祖克柏也同意了。但這個「長期」到底有多長?「基礎研究」到底能給公司帶來多少直接收益?這些問題在早期不是問題,因為深度學習本身就是風口,FAIR 做什麼都有望轉化成產品優勢。可隨著生成式 AI 開始爆發,競爭也日益激烈,形勢開始發生了變化,尤其是 Llama 4 的失敗也給了祖克柏當頭一棒。祖克柏要的是現在就能用的技術,不是五年後可能有用的理念。於是,一場猝不及防的重組出現了。就在今年,Meta 搞了個大動作,成立「超級智能實驗室」,把 FAIR、基礎模型團隊和各應用 AI 團隊統統塞進一個筐裡。表面上是整合資源,實際上是一場徹底的權力重組。這場重組的核心邏輯很明確:讓研究直接服務產品,讓科學家為商業目標讓路。FAIR 團隊原本「相對不受干擾地開展研究」,現在得跟著產品節奏走,研究方向要服務於個人 AI 助手。此外,Meta 對 FAIR 的研究發表制定了更嚴格的內部稽核機制。研究員在對外發佈論文、開放原始碼之前,需要經過額外的內部交叉審閱和管理層審批,原因在於 Meta 擔心自己砸錢搞出來的成果被競爭對手白嫖。LeCun 對這些變化表現出強烈的牴觸。據多方報導,他在內部激烈反對新的論文稽核制度,為維護研究自由據理力爭。The  Information 援引知情者的話稱,LeCun 在今年 9 月一度「氣到考慮辭職」以示抗議。但或許更讓他難以接受的是領導權的旁落。祖克柏在重組中做了一個大膽的人事任命:從外部挖來 Alexandr Wang,讓他擔任 Meta 的首席 AI 官,直接向 CEO 匯報。Alexandr Wang 是誰?一個 28 歲的 MIT 輟學生,他創辦的公司 Scale AI 專門做資料標註業務,給各大科技公司的 AI 模型提供訓練資料。祖克柏看中的,恰恰是 Wang 的產品思維和商業嗅覺。在生成式 AI 的競賽中,Meta 需要的不是象牙塔裡的理想主義者,而是能快速把技術轉化為產品的實幹家。這個任命的震撼在於:LeCun 這個圖靈獎得主、深度學習三巨頭之一、在 Meta 幹了十二年的首席 AI 科學家,在新架構下的話語權被大幅削弱,甚至要向 Wang 匯報。同時,今年 7 月,祖克柏還任命了年輕有為的趙晟佳為超級智能實驗室的首席 AI 科學家,負責制定新實驗室的研究方向。有趣的是,LeCun 當時發了個聲明,說自己角色沒變、使命沒變,還期待跟新團隊合作。這求生欲屬實拉滿。但他對於研究方向和領導層重組的分歧,顯然是公開的秘密。而真正可能成為壓垮駱駝的最後一根稻草的,是最近的裁員。據報導,Meta 近期對 AI 團隊進行了裁員,波及到 FAIR 研究部門以及與產品相關的 AI 團隊,甚至華人大佬田淵棟也因此受到了波及。裁員的訊號很明確:Meta 不再願意為「看不到短期回報」的基礎研究買單了。那些不能直接轉化為產品功能、不能立即提升使用者增長或廣告收入的研究方向,都成了被砍的對象。FAIR 的黃金時代結束了。而學術大佬出來單干,最近幾年已經成了矽谷新常態。Hinton 退休後到處演講呼籲 AI 監管,Bengio 也有自己的實驗室和創業項目。LeCun 真出去創業,沒準反而是好事。說到底,這事兒沒有誰對誰錯。LeCun 能夠在 Meta 之外繼續他畢生的事業。他帶走了那個被 Meta「擱置」的願景,可以放開手腳搞自己的世界模型,用自己的方式證明它是正確的,再也不用跟產品經理扯皮,不用向 28 歲的小老弟匯報。成了,那就是「我早說過 LLM 是死路」;敗了,頂多被人嘲笑幾句「你看那個老頑固」。而對於 Meta 來說,祖克柏要給股東講故事,要把最實用的生成式 AI 塞進旗下產品的各個角落,這確實是 CEO 該干的事。只是,儘管少了 LeCun 也不會傷筋動骨,但可能會少點不一樣的聲音。等那天大家發現 LLM 真的走到瓶頸了,回頭看看當年那個舉著反對牌子的倔老頭說過什麼,或許會覺得別有一番趣味。 (愛范兒)