#LeCun
LeCun曝Meta作弊刷榜,田淵棟:我沒想到這個結局
離職的LeCun,反手就給Meta一記重錘:差評如潮的Llama4真的作弊刷榜了!結果的確被篡改了一點。為了更好的結果,團隊對不同基準測試使用了不同的模型。都說別惹離職er,不止LeCun,田淵棟也在個人年終總結中透露了一點內幕。明明是被拉來給Llama4救火的,事先預想了四種可能,結果小扎給了我第五種……Anyway,至於離職後的打算,兩位大神都不約而同地表示:創業!Llama4刷榜引發的離職潮DeepSeek還是給小扎壓力太大。此前就有消息爆料,DeepSeek的橫空出世,讓Llama 4還沒發佈就被甩在身後,逼得小扎瘋狂加碼AI投資。這一點也得到了LeCun的證實。小扎確實慌了,對內push上強度,要求GenAI部門加速AI開發和部署,還拉來原FAIR團隊的田淵棟救火。結果就是,團隊之間溝通直接破裂。LeCun他們想要做些新東西,但小扎更想要已經被驗證過的、可以直接落地的技術。真正的導火索則來自於Llama 4的慘敗。不僅輸了,還因為排行榜造假名聲大跌,於是小扎徹底對團隊所有人失去了信心,並將他們全部邊緣化。這也直接導致Meta開啟了團隊大換血:一邊天價從矽谷各個公司挖人,一邊又大刀闊斧裁掉老員工們。田淵棟及其團隊則是被率先波及的一群人。一月份被趕鴨子上架加入Llama 4,十月份Llama 4.5一訓完就被卸磨殺驢。這波田淵棟都得喊冤……因為上頭的壓力,全組被迫放下手頭正在做的工作,來Llama 4接爛攤子,距離發佈ddl就剩2個月,還要處理所有dirty work。為此,田淵棟那時還專門畫了個2x2的回報矩陣,計算了下幹這事的四種結局:但老闆都發話了,不得不干啊,田淵棟想著那就但求盡力而為,問心無愧吧。結果哼哧哼哧幹了幾個月,小扎一個都沒選,給了Plan E:不問責負責人,轉頭把田淵棟和組員們一腳踢了出去。難怪田淵棟復盤這段經歷時,也要來一句:這也讓我對這社會的複雜性有了更為深刻的認識。不過好在田淵棟自己也想得開,他說自己已經待在Meta十多年了,最近幾年更是抱著“公司快把我開了吧”的心態,所以也算是因禍得福吧,還給他接下來的小說創作提供了很多新素材(doge)。(咳咳)言歸正傳,這幾個月對於田淵棟來說,也不算一無所獲,在強化學習訓練的核心問題上他也有了些新的探索。首先是大模型推理,繼2024年底團隊公開的連續隱空間推理(coconut)引發廣泛關注後,團隊繼續通過理論工作Reasoning by Superposition進一步闡明了連續隱空間推理的優勢所在。與此同時,也分別從不同角度嘗試提升模型推理效率:Token Assorted通過隱空間的離散token減少計算開銷、DeepConf基於置信度提前終止推理、ThreadWeaver製造平行思維鏈加速推理,以及在不同規模模型中用RL學習推理能力。在可解釋性方面,研究聚焦於Grokking(頓悟) 這一特徵湧現現象,從記憶到泛化的突變過程入手,試圖解釋模型究竟學到了什麼、和輸入資料的關係、能達到怎樣的泛化,也就是打開模型的黑箱。簡而言之,對於被拉來“背黑鍋”這事,田淵棟對老東家還是手下留情了,雖然你不地道,但我已經Let it go~不過緊隨其後離職的LeCun就沒那麼心軟了,直接痛批Meta內部對LLM上癮過甚,尤其是那些新挖來的超級智能實驗室成員。他點名批評亞歷山大王:年輕且缺乏經驗。雖然學得快,但壓根不懂研究,不知道怎麼做、也不知道如何和研究員們共處。在LeCun面前,這個27歲的年輕人,簡直像個little baby。但大語言模型並非他們所想像的那樣美好,LeCun直言,LLM有用但本質受限於語言,誇張一點說:LLM是死胡同。要實現人類水平智能,就必須瞭解物理世界的運作規律,也就是LeCun長期專注的世界模型,但Meta對此已經喪失了興趣。在研究路線上的分歧,也讓LeCun不得不離開公司,開啟自己人生的下一章——創業。離開Meta做點啥?創業LeCun的新公司名為Advanced Machine Intelligence(AMI),做的還是他心心唸唸的世界模型,而且all in開源。不過據他自己透露,他只會擔任新公司的執行主席而不是CEO。我是一名科學家,我能激勵人們從事工作,以及猜測那項技術會成功,但我不擅長組織管理,也實在太老了。LeCun將擁有和之前在Meta相同的研究自由度,而負責帶領AMI的將交給法國醫療AI初創公司Nabla的聯合創始人兼CEO Alex LeBrun。他們將目光聚焦在V-JEPA架構上,試圖通過學習視訊和空間資料來理解物理世界,讓AI完成規劃、推理並擁有長期記憶,也就是他常說的高級機器智能。LeCun預計將在12個月內,見證該項技術的初始版本誕生,並在最近幾年內實現大規模進展,雖然它顯然還遠遠稱不上超級智能,但至少在通往AGI的道路上,它存在希望。而作為LeCun的老下屬,田淵棟也拒絕了大廠們紛紛為他拋來的橄欖枝,剛剛正式宣佈創業!具體細節暫時未表,但他表示:乘著自己還年輕,去當一家新初創公司的聯合創始人。不管怎樣,先安靜地忙活一陣。 (量子位)
不演了,圖靈獎得主剛離職就曝 Meta 黑幕,還陰陽 28 歲上司:沒經驗還想管我?
Meta Llama 4 「刷榜」,終於實錘了。金融時報最新專訪曝出猛料,圖靈獎得主、Meta 前首席科學家 Yann LeCun 在巴黎米其林餐廳接受採訪時,親口承認 Meta 的 Llama 4 模型「測試結果確實被修飾了一點」,團隊用不同的模型應對不同測試,以獲得更好的成績。這位剛剛宣佈離職準備創業的 AI 大佬,終於說出了藏在心裡許久的實話,同時這也是首次有 Meta 官方層面的核心人物明確承認「刷榜」行為,將行業內的「公開秘密」擺上了檯面。Yann Lecun關於 Meta 「刷榜」的故事,得從去年 4 月說起。當時 Meta 發佈的 Llama 4 系列模型,號稱在各種測試中拿下領先成績,Llama 4 Maverick 一度在 LMSYS 的 Chatbot Arena 排行榜上衝到第二名,總積分 1417 分,成為第四個突破 1400 分的模型。這張亮眼的成績單讓不少人以為,開源模型終於要揚眉吐氣了。但很快就有人察覺不對勁。細心的研究者發現,Meta 官方圖表的註釋裡藏著貓膩——用於測試的是一個「針對對話場景最佳化的實驗性版本」,說白了就是專門為排行榜定製的特供版。這個定製版和公開版表現完全不同,回答更冗長,頻繁使用表情符號,明顯經過特殊調教。等到 Arena 引入「風格控制」功能,中和掉字數和格式這些表面文章後,Llama 4 Maverick 的排名直接從第 2 掉到第 5。Reddit 的 r/LocalLLaMA 論壇上,許多原本對 Llama 系列寄予厚望的使用者表達了失望情緒,甚至有人戲稱是時候將論壇改名為「LocalGemma」了,調侃 Llama 4 發佈如同遲到的愚人節玩笑。對於 Meta 提交榜單特供版模型的做法,開源社區更是群情激憤。有資深開發者批評這有違開源精神,認為 Meta 一方面想憑藉開源博取社區聲量,另一方面又搞小動作防止自家模型被超越,屬於雙標行為。此外,LeCun 還在採訪中透露了更多內幕。他說 Meta 當時在 AI 方向上急轉彎,祖克柏對生成式 AI 團隊施加了巨大壓力,要求加快開發和部署速度,結果導致溝通失效。「我們有很多新想法,本該由團隊去實現,但他們只是選擇那些安全、已驗證過的東西。當你這樣做時,就會落伍。」更致命的是,祖克柏對 Llama 4 的表現極其失望,基本上對所有參與項目的人都失去了信心,乾脆把整個生成式 AI 組織邊緣化。LeCun 說,很多人已經離開,還有更多人即將離開。去年 6 月,Meta 向資料標註公司 Scale AI 投資 140 億美元,並聘請其 28 歲的 CEO Alexandr Wang 領導公司 AI 新計畫。這位年輕的 CEO 成了 LeCun 的上司。左為祖克柏,右為 Alexandr WangLeCun 評價他「年輕、缺乏經驗」。他說 Wang 雖然學得快、知道自己不懂什麼,但沒有研究經驗,不瞭解怎麼做研究,也不清楚什麼對研究人員有吸引力,什麼會讓他們反感。在專訪中,LeCun 毫不掩飾離開 Meta 的原因。他說繼續留在公司在政治上變得越來越困難。儘管祖克柏仍然支援他的「世界模型」研究,但公司新引進的那些推動超級智能的人全都「被大語言模型洗腦了」。我敢肯定 Meta 內部很多人,可能包括 Alex,都不希望我告訴全世界,大語言模型在通向超級智能的路上是死胡同。但我不會因為某個人覺得我錯了就改變觀點。我沒錯。作為一個科學家,我的操守不允許我這樣做。當記者問他對向年輕 CEO 匯報工作有何感受時,LeCun 輕描淡寫地說自己早就習慣和年輕人一起工作,「當時 Facebook 的工程師平均年齡是 27 歲,而我正好是他們年齡的兩倍」。但記者一針見血地指出,那些 27 歲的人並沒有指揮你做事。LeCun 則回答得更直接:「Alex 也沒有指揮我做事。你不能指揮一個研究員做什麼,尤其不能指揮像我這樣的研究員。」紛紛擾擾之後,現在 LeCun 已經離開 Meta,創辦了名為 Advanced Machine Intelligence (AMI) Labs 的新公司,預計融資 5 億歐元,估值達到 30 億歐元。他不會擔任 CEO,而是執行董事長,這樣就可以像在 Meta 時一樣自由地從事研究。我是一個科學家,一個有遠見的人。我能激勵人們做有趣的事情。我很擅長判斷那種技術能成功,那種不能。但我不是當 CEO 的料,我太沒有組織性了,而且也太老了。在這場長達三個半小時的午餐採訪快結束時,LeCun 談到了自己希望留下的遺產——讓這個世界擁有更多的智能。「智能才是真正值得我們擁有更多的東西。」他說,有了更多智能,人類痛苦就會減少,決策更理性, 對世界和宇宙的理解也會更深入。離開 Meta 的決定並不容易,但對 LeCun 來說,這是唯一的選擇。當一個科學家發現自己必須在學術誠信和組織政治之間做權衡時,答案其實已經很明確了。如今 LeCun 的這番承認,算是給這場持續大半年的爭議畫上了句號。Meta 在面對競品壓力和輿論期待時選擇了捷徑,卻付出了團隊瓦解、聲譽受損的代價。而 LeCun 選擇在此時說出真相,既是對過去的一個交代,也表明他要用自己的方式,繼續追尋真正的智能了。 (APPSO)
LeCun哈薩比斯神仙吵架,馬斯克也站隊了
吵起來了。圖靈獎得主和諾貝爾獎得主,為了“智能的本質”——直接激情友好地交流上了。AI三巨頭之一、圖靈獎得主Yann LeCun明確表示:純粹就是胡扯(complete BS)。而諾貝爾獎得主、GoogleDeepMind CEO哈薩比斯也不留情面了,指名道姓回擊:LeCun的說法簡直是大錯特錯。論戰之激烈,關注度之高,已經讓𝕏專門開闢了一個話題類股:馬斯克也跑來吃瓜了——沒有任何多餘的解釋,但這波他站哈薩比斯——“Demis is right”。當然,馬斯克的站隊可能也有別的原因。畢竟他和LeCun素來不是很對付,跟哈薩比斯則亦師亦友——馬斯克還是哈薩比斯DeepMind早期投資人。要科學吃瓜,可能還是要知道他們究竟在激辯什麼?爭論焦點:智能的本質是什麼?事情還要從LeCun幾天前接受的一場採訪說起。他在節目中言辭犀利地指出:根本不存在所謂的“通用智能”,純粹就是胡扯(complete BS)。這個概念毫無意義,因為它實際上是用來指代人類水平的智能,但人類智能其實是高度專業化的。我們在現實世界裡確實幹得不錯,比如認個路、導航blabla;也特別擅長跟人打交道,因為咱們進化了這麼多年就是幹這個的。但在國際象棋方面,我們表現很差。而且還有一堆事兒都搞不定,反倒是有些動物比我們強得多。所以說,我們其實就是“專才”。我們認為自己是“通用”的,但這僅僅是一種錯覺,因為我們能理解的所有問題都侷限於我們能想到的那些。簡單概括就是,LeCun認為人類智能並不“通用”,而是為了適應現實物理世界而專門進化出來的某種專業能力。人類之所以擅長識別物體、躲避危險、與他人合作等,也只是因為這些能力在進化中被環境塑造。然而,這一觀點很快遭到了哈薩比斯的直接回懟。哈薩比斯表示:LeCun的說法簡直是大錯特錯。他這是把“general intelligence”和“universal intelligence”兩個概念搞混了。然後他一一駁斥了LeCun的觀點,其原話如下:大腦是目前宇宙中已知最精妙、最複雜的事物,實際上具有極強的通用性。但是在實際的系統當中,“天下沒有免費的午餐”這個道理是無法迴避的——任何實際且有限的系統,在其所學目標分佈周圍,都必然存在一定程度的專門化。但從圖靈機的理論意義上講,通用性的核心在於,只要給予足夠的時間、記憶體(及資料),就能夠學習任何可計算的內容。而人腦(以及AI基礎模型)正是近似的圖靈機。並且,針對LeCun關於國際象棋棋手的評論,哈薩比斯認為人類能發明國際象棋本身就令人驚嘆,更不用說從科學到波音747等現代文明的一切了。關於LeCun對棋手的評論——人類最初竟能發明國際象棋(乃至從科學到波音747的整個現代文明!)本就令人驚嘆,更不用說還能出現像馬格努斯·卡爾森那樣棋藝卓絕的人物。他或許並非嚴格意義上的最優解(畢竟記憶有限、決策時間也受限),但考慮到我們的大腦本是為狩獵採集而進化,他和我們如今所能成就的一切,已足以展現人腦的驚人潛力。顯而易見,哈薩比斯對“智能”的理解從不侷限於電腦科學,而是深度融合了神經科學。一直以來,他認為真正衡量智能的兩個關鍵標準分別是通用性(Generality)和學習能力(Learning),為此他經常拿1997年“深藍”戰勝卡斯帕羅夫舉例——雖然“深藍”在國際象棋上很強,但還是連簡單的井字遊戲都不會玩,所以足以見得這種程序的死板之處。而關於這場對決,哈薩比斯還透露,最吸引他的不是“深藍”這個系統,而是卡斯帕羅夫的大腦(畢竟他能作為人類代表與AI進行比賽)。沒錯,又是“大腦”這個關鍵詞。哈薩比斯一直堅信,人類大腦是宇宙中已知的唯一關於“通用智能可行性”的存在性證明。當大腦和AI結合之後,所謂的“通用人工智慧”其實就是能夠展現出人類所擁有的所有認知能力的系統。至於具體如何實現AGI,哈薩比斯多年來也形成了一套自己的方法論,總結起來就是——預測建構理解,規劃擴展可能,強化學習實現自主進化。第一步:以預測為基石。在他看來,智能的本質在於預測——無論是預測下一個單詞還是預測蛋白質的折疊形狀。這是所有認知活動的基礎形式,也是AI理解世界的內在驅動力。第二步:引入搜尋與規劃AI系統首先要建立一個世界模型,然後在此基礎上進行搜尋或規劃,以在巨大的組合搜尋空間中找到最優解。第三步:最終通向深度強化學習這是哈薩比斯最推崇的終局路徑,也是對大腦運作方式的模擬——深度學習負責模式匹配和尋找結構,強化學習負責通過試錯進行規劃和達成目標。這在生物學上對應著大腦的神經通路和多巴胺獎勵系統。至此,我們看到兩位大佬關於智能本質的爭論,表面上看起來似乎確實截然不同。一個認為“通用性智能”是胡扯,本質上智能是自然世界高度專業化的產物;另一個認為通用性智能不僅存在,而且仍有巨大潛力有待挖掘。但事實,真的如此嗎?上述爭論過後,LeCun又再次出來回應了,而且這次直接點名了分歧核心——用詞。我認為分歧主要在於用詞。我反對用“通用(general)”來指代“人類水平”,因為人類是高度專門化的。不過,雖然承認用詞有分歧,但他還是繼續重申了“人類智能並不通用”的觀點。其論證如下:第一,理論完備≠實際通用。你也許不同意人類思維是專門化的,但事實確實如此。這不僅是理論能力的問題,更是實踐效率的問題。顯然,一個經過良好訓練的人腦,如果配合無限量的紙和筆,是圖靈完備的。但對於絕大多數計算問題來說,這種方式效率極低,因此在資源受限的情況下(比如下棋),它遠非最優方案。就是說,哈薩比斯所構想的“理想的圖靈機”對解決現實問題幾乎沒有意義,因為真正的智能必須在有限資源下高效運作——而人腦的進化恰恰是資源約束下高度最佳化的結果。第二,兩個典型例子可以反映大腦的“非通用性”。在理論上,一個兩層神經網路可以以任意精度逼近任何函數;但在實踐中,幾乎所有有意義的函數都需要隱藏層中包含數量巨大、難以實現的神經元。正因如此,我們才使用多層網路——這正是深度學習存在的根本原因。再換一個角度來看:視神經大約有100萬根神經纖維。為了簡化討論,我們假設訊號是二進制的,那麼一次視覺任務就可以被視為一個從100萬位元對應到1位元的布林函數。在所有可能的此類函數中,有多少是人腦可以實現的?答案是:一個無窮小的比例。通過這兩個例子,LeCun再次重申了自己的觀點:所以我們不僅談不上“通用”,而且是極其高度專業化的。可能的函數空間極其廣闊。我們之所以沒有意識到這一點,是因為其中絕大多數函數對我們來說複雜到難以想像,看起來幾乎完全是隨機的。而且他還提到了愛因斯坦曾經說過的一句話——世界上最不可思議的事情,是世界竟然是可以被理解的。在所有可能的、隨機的世界組織方式中,我們竟然能夠理解其中極小的一部分,這本身就令人驚嘆。而我們無法理解的那一部分,我們稱之為“熵”。從這個意義上說,宇宙中絕大多數的資訊都是熵——是我們孱弱的認知能力無法理解、因而只能選擇忽略的內容。總之,事情battle到最後,網友們也是紛紛回過神來了——這場爭論最大的bug可能就在用詞上了。而拋開用詞不談,本質上來看,兩個人其實更像是在談論不同的問題:一個核心在強調“我們是什麼”,另一個則在強調“我們能成為什麼” 。而這,也恰恰指向了同一個更深層、也更現實的議題——接下來,我們究竟該以怎樣的方式實現AGI?答案:世界模型不管是在LeCun還是哈薩比斯這裡,答案其實都已經很清晰了——世界模型。眾所周知,即將從Meta正式離職的LeCun,下一站就是創業世界模型。據《金融時報》爆料,其新公司名為Advanced Machine Intelligence Labs(AMI Labs),計畫於明年一月正式亮相,目標估值30億歐元(約247億人民幣)。在LeCun的理解中,世界模型所要追求的不是渲染精美的像素,而是掌握控制理論和認知科學。他認為對AI而言,只有中間那個抽象表徵才重要(和JEPA研究一脈相承),模型沒必要浪費算力去生成像素,只需專注於捕捉那些能用於AI決策的世界狀態。換言之,瞭解“世界的結構是什麼”才是最關鍵的。而哈薩比斯這邊也在採訪中多次表示,世界模型絕對是自己和Google接下來的重點。今年8月,GoogleDeepMind推出了新版世界模型Genie 3。哈薩比斯表示:我們談論的世界模型,指的是那種能夠理解世界運行機制中因果關係與協同效應的模型,也就是一種“直觀物理學”——事物如何運動、如何相互作用、如何表現。你已經可以在當前的視訊模型中看到這種能力的雛形。而檢驗是否真正具備這種理解的一種方式是否能夠建構一個逼真的世界。因為如果你能夠生成它,那麼在某種意義上,你就已經理解並內化了這個系統的運作規律。這也解釋了為什麼Genie、Veo這些模型首先會以視訊模型的形式出現。在他看來,這種可互動的世界模型正是通往AGI的關鍵一步。通過對比,我們能發現雖然二者都是在描繪“世界模型”,但他們的理解和實踐方向也明視訊記憶體在差別——LeCun代表著“世界模型即認知框架”,而Google哈薩比斯代表著“世界模型即模擬器”。嗯,同一個概念,不同的理解和實踐——怎麼不算一種call back呢?(手動狗頭)Anyway,回顧歷史,實際上AI的每一次躍遷都伴隨著這樣的“爭吵”:符號主義和連接主義的爭論,定義了智能的根基究竟是“邏輯”還是“資料”;端到端學習和模組化系統的爭論,定義了“系統該如何建構”;再加上我們今天的“開源VS閉源之爭”、“智能本質之爭”……還是那些老話,“真理不辯不明”、“真理越辯越明”。不過玩笑說說,等到真理辯明了,那個老頭可要來了……One More Thing幾乎同一時間,LSTM之父Jürgen Schmidhuber又出來隨機掉落了一個“小彩蛋”,他預判了預判——LeCun即將創業的世界模型,他們在2014年就有涉獵了(原話是二者高度相似)。怎麼說呢,Jürgen Schmidhuber老爺子這幾年,基本都在“維權”了。作為LSTM的發明者,LSTM一度在ChatGPT誕生前被稱為“最具商業價值的人工智慧成就”,而作為LSTM之父,Jürgen Schmidhuber早在三巨頭獲得圖靈獎之前就被《紐約時報》稱為“成熟人工智慧之父”。但當AI時代真正到來,各種技術發明者桂冠沒有他、圖靈獎沒有他、諾貝爾獎也沒有他……Schmidhuber只能一次次維權、隔空懟人,最後成為祥林嫂·Schmidhuber。幸好,還有推特,可以讓他首頁上清晰完整展示——以及推特當前的擁有者馬斯克,他評價Jürgen Schmidhuber時言簡意賅:一切的發明者。這,確定不是在陰陽八卦? (量子位)
LeCun創業首輪估值247億!Alexandre當CEO
LeCun在Meta的Last Day還沒來,新公司又被曝出更多細節。前腳LeCun本人在播客當中宣佈了新公司名稱,現在融資和估值目標就被《金融時報》曝光了。這家名為Advanced Machine Intelligence Labs(AMI Labs)的新公司,計畫於明年一月正式亮相,目標估值30億歐元(約247億人民幣)。AMI Labs的研究方向,就是LeCun一直主推的“世界模型”,而且將走開源路線,老東家Meta也將與其保持合作。另外,曝料也透露了AMI Labs的CEO人選並非LeCun本人,而是他的一位老部下。LeCun不當CEO新公司AMI Labs定於2026年1月在巴黎正式啟動,在Meta逐漸轉向封閉生態的背景下,LeCun選擇了他在學術界一貫堅持的開源路線。而且在技術層面,AMI Labs選擇了比主流的LLM更具挑戰性的道路——死磕“世界模型”。因為在LeCun看來,基於自回歸機制的LLM存在根本性的邏輯缺陷,它們只是在統計機率上預測下一個字元,並不真正理解物理世界的運行規律。他曾在多個場合直言,現有的LLM路線是通往AGI的“死路”,其智能水平甚至不如一隻狗——因為狗能通過觀察理解物理世界的因果關係,而單純靠文字訓練的AI做不到。為此,新公司將通過JEPA(聯合嵌入預測架構)來建構技術底座。這套架構的核心邏輯在於“抽象”與“規劃”:它不再像視訊生成模型那樣試圖預測每一個像素點,而是在抽象的表示空間中學習、預測未來的狀態。這種方式能讓AI像人類或動物一樣,忽略無關的背景噪聲,專注於理解關鍵資訊的動態變化,從而具備真正的推理和規劃能力。在資本運作方面,AMI Labs的起步規格也非常高。據《金融時報》稱,公司正以30億歐元的目標估值尋求首輪5億歐元(約41億人民幣)融資。順便提一句,LeCun的老東家Meta也將與AMI Labs建立合作,但不會直接注資。至於公司的CEO人選,LeCun本人大機率不會出任CEO。這一安排也符合LeCun一貫的科研志趣——這位65歲的圖靈獎得主曾多次表示,自己的核心動力是“提升人類智能”,而非陷入行政管理與財務報表的瑣事中。而CEO職位的人選則被曝是醫療AI獨角獸Nabla的創始人兼CEO Alexandre LeBrun。誰是LeBrun?這一被寄予厚望的CEO人選,是與LeCun有著深厚淵源的“老戰友”。作為法國科技圈知名的連續創業者,LeBrun目前的公開身份是醫療AI獨角獸Nabla的創始人兼CEO。他即將出任AMI Labs CEO的消息,也是由Nabla聯創兼COO Delphine Groll向媒體透露的。Groll在聲明中表示,LeBrun將轉任Nabla的執行董事長,通過職權交割完成善後工作。LeBrun是巴黎高等電信學校碩士,1999年畢業。隨後,他的職業生涯起步於商旅技術公司KDS(現為美國運通旗下Amex GBT Neo),並於2002年開啟了連續創業之路。那年,他創立了客戶服務AI公司VirtuOz,隨後成功將其打造為行業先驅,最終被語音技術巨頭Nuance收購。而他與LeCun的交集,則始於2015年的一次關鍵併購——當時他創立的語音互動平台Wit.ai被Facebook高價收購,他也隨之正式加入了Meta的技術生態。進入Meta後,LeBrun出任了FAIR的工程負責人,是LeCun的直接下屬,主要職責是協助作為首席科學家的LeCun管理實驗室的工程團隊,將前沿的科研理論轉化為可驗證的工程實踐。三年後,2018年,LeBrun離開了FAIR,開啟新的Nabla創業征程。這段在FAIR共事三年的經歷,無疑將為兩人未來在AMI Labs的再度聯手奠定了信任基礎。如果這一任命最終落地,AMI Labs將形成“LeCun主內負責科研、LeBrun主外負責商業”的雙核架構。對於已經65歲的LeCun來說,這或許是他職業生涯中的又一次豪賭。他在最近的播客節目中坦言,儘管到了可以退休的年紀,妻子也希望他回歸家庭,但他無法停下,因為“提升人類智能”的使命尚未完成。這也正是AMI Labs成立的初衷——拋棄當下大模型的捷徑,去啃下物理世界認知這塊最硬的骨頭。 (量子位)
倒計時3周離職!LeCun最後警告:矽谷已陷入集體幻覺
【新智元導讀】LeCun不忍了,三周後從Meta「提桶跑路」,臨走前狠扇了矽谷所有人一巴掌:你們信奉的大模型全是泡沫,根本通往不了AGI!大模型是一條死路,無法通往AGI!在今天的最新一期深度訪談中,LeCun直言不諱指出:所謂的ASI路線——不斷訓練LLM,用更多合成資料喂模型,雇上幾千人在後訓練階段「管教」系統,再折騰出一些RL的新技巧。在我看來,完全是胡說八道!這條路根本行不通,而且永遠都不可能成功。任職12年,即將暴走Meta的65歲圖靈獎得主,在公眾場合的觀點愈加偏激了。這場近2小時的對談中,LeCun的觀點一針見血——矽谷對不斷「堆大」LLM的痴迷是一條死路;搞AI最難的問題在於,它依舊是「阿貓阿狗」的智能,而非類人的水平。如今,他正把一生的學術聲譽押注在一條截然不同的AI路線之上,即「世界模型」。訪談中,LeCun還分享了創業公司AMI(Advanced Machine Intelligence)正在建構的「世界模型」——在抽象表徵空間中進行預測,而不是簡單地像素級輸出。幾天前,LeCun在與GoogleDeepMind大佬Adam Brown一場激辯中,同樣提出他的經典論點:LLM沒那麼聰明,畢竟一隻貓或一個孩子僅用少得多的資料就能理解世界。Token預測全是泡沫,物理世界才是真相。有網友辣評道,「Meta在AI領域失敗,LeCun是罪魁禍首」。還有人表示,「LeCun很聰明,在Meta保持沉默現在開始發聲了」。65歲創業,再造一個FAIR播客開場,主持人問道,「從Meta這樣大公司跳出來,從0起步,是什麼感覺」?LeCun坦言,雖然他此前也參與過創業,但這次的AMI意義非凡。這次的獨特之處在於一種新現象,即投資者也願意為其買單。這要是放在以往,是不可能的。歷史上,像貝爾、IBM、施樂PARC這樣的大實驗室,都一同壟斷了企業的財力。如今,行業風向正在轉變。FAIR通過開源推動了生態的發展,但近年來越來越多實驗室選擇閉源,OpenAI、Google,甚至Meta也不例外。在LeCun看來,這種閉源趨勢,不利於真正突破性的研究。因此,他決定在Meta外部創辦AMI,專注於「世界模型」,並計畫延續開放研究的傳統。除非你把論文發表出來,否則就不能稱之為真正的研究。要不然,你很容易陷入一種自欺欺人的狀態。看得出,LeCun這番言論一定程度上,暗示28歲上司Alexandr Wang的做法——此前曾爆出,FAIR實驗室想要發論文,必須經過MSL批准後才可以。LeCun再次強調,「如果真的想要突破,需要讓你的員工發表論文。沒有別的辦法。這是目前很多行業正在遺忘的事情」。下一步,AMI的目標不僅是研究,還會打造實際的產品,比如與世界模型、規劃有關的,並成為智能系統的核心供應商。接下來的話題,又回到了LeCun老生常談的事情。LeCun放話:LLM走不通他明確表示,當前的LLM或基於LLM的AI智能體,處理語言尚可,但在可靠性、資料效率、多模態處理上遠遠不足。我已經說了快十年了,世界模型才是解決這一問題的「正確方法」。「世界模型」能夠預測一個動作或一系列動作的後果,然後系統通過最佳化得出一系列動作,即找出那一系列動作能最好地完成設定的任務,這就是「規劃」。因此,LeCun認為,智能的一個重要部分是能夠預測行動的後果,然後將其用於規劃。「世界模型」是設計用來處理,高維、連續和嘈雜的模態資料,LLM完全不行。真正有效的方法是,學習一個抽象的表示空間,消除關於輸入的不可預測的細節,並在表示空間中進行預測。這就是, JEPA(聯合嵌入預測架構)的想法。論文地址:https://arxiv.org/pdf/2509.14252將近有20年的時間,LeCun一直確信,建構智能系統的正確途徑是通過某種形式的「無監督學習」。他回顧了自己的研究歷程——早在2000年代初中期,便開始探索無監督學習,並嘗試通過自編碼器(Autoencoders)來學習表示,但發現表示包含關於輸入的所有資訊是個錯誤。後來,他意識到需要「資訊瓶頸」(Information Bottleneck),限製表示的資訊量。2015年,ResNet(殘差網路)出世,徹底解決了深層網路架構訓練問題,也是從這時起,LeCun開始重新思考:如何推動實現人類水平的AI?他意識到,強化學習等方法,基本上無法scaling,且樣本效率極低,於是開始聚焦「世界模型」。最初嘗試,他在像素級預測視訊,但發現這行不通,真正的突破在於表示層(Representation Level)進行預測。JEPA的發展克服了早期孿生網路(Siamese Networks)的模型坍塌(Collapse)的問題,通過Barlow Twins、VICReg最佳化表示空間。最近的Latent Euclidean JEPA,進一步推進了這一思路。論文地址:https://arxiv.org/pdf/2511.08544對於LLM侷限背後的原因,LeCun分享了資料質量方面的「苦澀的教訓」(Bitter Lesson)。訓出一個性能還不錯的LLM,需要網際網路上大約30兆Token(約10^14字節)的文字資料。LLM需要巨大的記憶體,來儲存這些孤立的事實。相較之下,這僅相當於大約15,000小時的視訊——YouTube上30分鐘的上傳量。一個4歲孩子醒著時看到的視覺資訊,大約是16,000小時。去年發佈的V-JEPA 2模型,就是在相當於一個世紀時長視訊資料上訓練的,雖然字節數更多,但視訊資料的冗餘性正是自監督學習所需的。現實世界資料的結構比文字豐富得多,這也是為什麼LeCun堅稱,只靠文字訓練永遠無法達到人類水平的AI。關於理想化的「世界模型」,LeCun回應了主持人對《星際迷航》全息甲板(Holodeck)的比喻:人們誤以為,「世界模型」必須重現世界所有的細節,這不僅錯誤,還會有害。「世界模型」是在抽象表示空間中的模擬器,只模擬現實中相關的部分。不僅如此,LeCun相信合成資料很有用。但有些基本概念是我們通過經驗習得的,而不是天生的。然而,LLM並不真正理解這些,只是被微調出來給出正確答案,更像是「反芻」而非真懂。炮轟矽谷單一文化針對矽谷LLM狂熱的文化,LeCun的批評尤為尖銳。他指出,AI行業存在一種危險的「羊群效應」——競爭太過激烈,大家都害怕走偏路線而落後,於是OpenAI、Google、Meta、Anthropic等科技巨頭幾乎都在做同一件事。那便是,瘋狂堆疊LLM。這導致,矽谷形成了「單一的文化」,甚至這背後多少帶著點優越感。LeCun警告,一旦深陷「戰壕」,就只能拚命往前衝,因為誰也承擔不起被競爭對手甩開的風險。但更大的風險是,被完全不同方向、出乎意料的一套技術顛覆,它甚至可能解決完全不同的問題。JEPA的理念,即所謂的「世界模型」,恰恰與這條主流路線完全不同,能處理LLM很難應付的資料。LeCun甚至毫不客氣地說——如果你不想變成矽谷口中「被LLM洗腦了」(LLM-pilled)的人,便不會相信這樣一條路徑:只要不停地訓練LLM,用更多合成資料,去授權更多資料,再雇上成千上萬的人來做後訓練,在強化學習(RL)上不斷加點新花樣,你就能一路走到ASI。我認為這完全是扯淡,這條路根本不可能成功!「沒錯,你必須逃離那種文化」。他還透露,即使在矽谷的各家公司內部,也有不少人心裡很清楚:這條路走不通!因此,擺脫這種單一文化,正是LeCun創辦AMI的動因之一。他透露,AMI這家公司是全球性的,總部將設在巴黎,其全球其他幾個地方,包括紐約設立分辦公室。AGI是胡扯「類人AI」還需5-10年當被問及AGI時間線,LeCun先澄清:不存在「通用智能」這種東西!這個概唸完全沒有意義,因為它是被設計用來指代人類水平的智能,但人類智能是超級專業化的。所以AGI這個概唸完全是胡扯。話又說回來,他還是認為,我們會擁有在所有領域都和人類一樣好或更好的機器。「但這不會是一個單一事件,這將是非常漸進的」。他樂觀地預測道,如果未來兩年,能在JEPA、世界模型、規劃等方向取得重大進展。我們可能在5-10年內,看到接近人類智能,也許是狗的智能水平的AI。但這已是極度樂觀。更現實的是,AI歷史上多次出現未預見的障礙,需要我們發明新概念實現超越。那可能需要20年,甚至更久。有趣的是,LeCun認為最難的部分不是從狗到人類,而是達到狗的水平——一旦你達到了狗的水平AI,你基本上就擁有了大部分要素。從靈長類動物到人類,除了大腦的大小差異之外,還缺的是「語言」。語言基本上由韋尼克區(Wernicke area)以及布羅卡區(Broca area)處理。而LLM已經在語言編碼/解碼上表現不錯,或許能充當大腦的韋尼克區和布羅卡區。LeCun稱,我們現在正在研究的是前額葉皮層,那是「世界模型」所在的地方。離職Meta,三周倒計時訪談中,LeCun還談及了Meta AI的重組。他表示,Alexandr Wang並非接替他的位置,而是統管Meta所有AI相關研發和產品,包括四個主要部門:FAIR(長期研究)GenAI Lab(專注前沿LLM建構)AI基礎設施模型轉化為實際產品的部門重磅的是,LeCun透露,自己將在Meta再待三個星期。(估計1月初,正式告別Meta了)FAIR現在由紐約大學Rob Fergus領導,正被推向「更短期的項目」——較少強調發表論文,更多專注於協助GenAI Lab進行LLM和前沿模型的研究。GenAI Lab也有一個首席科學家,專注於LLM,其他組織更像是基礎設施和產品。看得出,Meta重組重心完全放在了LLM,這也是LeCun選擇出來創業的部分原因。此外,LeCun還點評了一些大模型公司,包括SSI、Physical Intelligence、Thinking Machines等。Ilya創立的SSI,甚至包括他們的投資人,都不知道這家公司要做什麼。給年輕人的建議:別學CS訪談的最後,主持人問道,「如果你今天重新開始AI職業生涯,會專注那些技能和方向」?LeCun的回答直擊要害,學習那些「保質期長」(long shelf life)的知識,以及能讓你「學會如何學習」的東西。因為技術演變得太快了,你需要具備快速學習的能力。他開玩笑地說,「保質期長的東西,往往不是電腦科學」。所以,作為一個電腦科學教授,我勸大家別學電腦科學。不過,LeCun還是給出了一些具體的建議,其中包括:深入學習數學(微積分、線性代數、機率論)、建模基礎,尤其是能與現實世界聯絡的數學(工程學科中常見);電氣工程、機械工程等傳統工程專業,能提供控制理論、訊號處理、最佳化等對AI極有用的工具;物理學也是絕佳選擇:物理學的核心就是「如何表徵現實以建立預測模型」——這正是智能的本質;電腦科學只需學到能熟練程式設計和使用電腦的程度(即使未來AI寫程式碼,你仍需懂底層);別忘了學點哲學。LeCun強調,這些基礎能讓你在AI快速變化中始終站穩腳跟,而不是被短期熱點牽著鼻子走。 (新智元)
圖靈獎得主 Yann LeCun:大模型是“死胡同”,下一步押在那一條路?
2025 年 11 月 19 日,圖靈獎得主 Yann LeCun 宣佈:自己將離開 Meta,轉向創辦一家專注 Advanced Machine Intelligence(AMI)的新公司。這不是普通的高管跳槽。(CNBC:Yann LeCun 即將離職,創立自己的初創公司)這點陣圖靈獎得主沒有選擇加入 LLM 的軍備競賽,而是投身一個被冷落多年的方向:世界模型。LeCun 用了一個極端詞語:大語言模型是通往人類智能的“死胡同”(dead end)。在 11 月 23 日的一場題為《Do LLMs Understand?》的公開對談中,他直接指出:LLM擅長語言表達,但缺乏對真實世界的理解。幾乎同時,OpenAI前首席科學家 Ilya Sutskever 在 11 月 25 日的播客中也提出:“Just Add GPUs(拼算力)”的時代結束了。一周之內,兩位元深度學習先驅不約而同地質疑主流路線。這不是偶然,而是技術路線集體轉向的訊號:後LLM時代,正在成形。第一節 | 為什麼他說大模型是死胡同?在討論世界模型之前,必須先搞清楚:為什麼Yann LeCun 會把 LLM 稱為“死胡同”。他給出的答案,比外界以為的更系統。① 模型越來越大,但理解沒有跟上LeCun 的原話是:LLM 在語言層面表現不錯,但它們並不理解世界。沒有常識,也沒有因果關係,只是大量統計相關性的堆疊。換句話說:規模能讓模型更像會說話的人,但不能讓它更像懂世界的人。事實上,Meta 的 Llama 4 就是最好的例證。2025 年 4 月發佈後,它在真實場景中的表現遠不如基準測試,甚至被開發者質疑過度最佳化了評測指標。正應驗了 LeCun 的判斷:語言流暢度提升了,但世界理解力沒有跟上。② LLM的能力天花板,已經在實驗室裡顯露他在公開對話中強調:我們看到性能正在飽和。更大的模型,不一定帶來更高的真實智能。訓練資料正在逼近極限,算力成本呈指數上漲,而理解力卻沒有同步提升。這就是他所謂的死胡同:繼續堆算力,邊際收益越來越低。OpenAI前首席科學家Ilya Sutskever也訪談中表達了類似觀點:單純100倍擴大算力規模,不會帶來質變。③ 語言只是副產品,物理世界才是智能核心他的核心觀點是:語言是人類智能的副產品,不是核心機制。這句話背後的邏輯是:語言只描述世界的一部分,而真正的智能來自對物理世界的建模、預測和行動。但LLM做不到這一點。它們連杯子為什麼不會穿過桌子都不理解。它們知道語言中的規律,卻不知道世界的規律。飛機的設計靈感來自鳥類,但不是簡單模仿鳥類的飛行方式。同樣,智能也不是靠模仿語言表面規律產生的。④ LLM做不到規劃,更做不到行動LeCun 的批判重點在於:LLM 只是在對話裡看起來聰明,但在涉及多步驟推理、長期規劃、具身互動時,能力驟降。他舉了一個刺眼的對比:一個十幾歲的孩子,20小時就能學會開車。 但我們到現在還沒有level 5的自動駕駛。一個孩子第一次就能清理餐桌、裝滿洗碗機。 但我們連能做家務的機器人都沒有。這些對比說明:智能不是說話的能力,而是行動的能力。而這恰恰是LLM的軟肋。LeCun 的邏輯不是反對大模型,而是認為:預測語言這條路走不到終點。要想讓 AI 真正具有理解、推理與行動能力,必須換一套架構。第二節 | 世界模型:下一代AI要如何看世界?如果語言模型無法理解世界,那該怎麼建造真正的智能?LeCun的答案是:讓AI學會看世界。他指出,未來的AI必須像人類和動物一樣,能夠從多模態輸入中建構出對世界的內部理解,然後基於這個理解預測和行動。這種能力,GPT-4沒有,Claude、Gemini也都沒有。但貓有,嬰兒有,人有。① 什麼是世界模型?LeCun 解釋說:我們用預測下一個詞來訓練語言模型,是因為語言中詞彙有限,可以列舉。但真實世界無限豐富,預測像素等級的未來根本不成立。真實世界是高維、連續、混沌的感官流。人類不是通過預測下一個字來理解世界,而是通過觀察、記憶、總結,在腦中形成了一個抽象世界的內部投影。比如:嬰兒不需要有人告訴他重力是什麼,摔幾次東西就懂了貓不需要語言指導,看幾次就知道跳多高能上桌子人類開車20小時就能掌握,靠的不是背規則,而是建立了對速度、距離、慣性的直覺模型LLM缺的就是這個投影空間,它沒有世界的內部表徵。這就是LeCun正在建構的新路徑:Joint Embedding Predictive Architecture(JEPA),聯合嵌入預測架構。② JEPA:一種全新的學習範式JEPA與LLM的核心差異體現在多個層面。在輸入形式上,LLM只處理語言token,而JEPA可以處理視訊、圖像、感測器等多模態資料。在學習目標上,LLM是預測下一個詞,JEPA則是預測抽象狀態的變化。在學習方式上,LLM依靠離散序列建模,JEPA結合了表徵學習和因果建模。最關鍵的是,LLM沒有行動能力,而JEPA天然具備規劃和執行介面。LeCun用了一個形象比喻:用LLM去理解真實世界,就像用聽說來教人開車。你可以背下所有交規,但永遠學不會真正駕駛。因為語言描述不了摩擦力、慣性、視野盲區的感覺,而這些正是行動智能的核心。③ 從模擬世界開始,訓練下一代AILeCun正在AMI推動的,是一種類似動物學習的AI訓練模式:首先在模擬環境中讓AI自主互動,然後從互動中提取因果關係,形成持續記憶,最終具備規劃行動的能力。這種模式不再依賴更多token,而是依賴更好的世界模型。他說:我們不需要能背百科全書的AI,我們需要能用眼睛和手理解世界的AI。如果說 LLM 是語言的大師,世界模型就是物理世界的學徒。Yann LeCun 選擇押注後者。這不僅是技術路線的分叉,更是對 AGI 本質的重新定義。第三節 | 不只 LeCun:另一個方向也在探索在質疑 LLM 這條路的,不只 LeCun 一個人。Sutskever 也認為,縮放時代已經結束,下一代智能需要新的架構基礎。兩位元深度學習先驅達成了共識,但他們給出的答案完全不同。① LeCun押注世界模型,Sutskever押注安全超智能LeCun的方向很明確:讓AI具備對物理世界的理解和行動能力。通過自監督學習、表徵建模、因果預測,建構能夠真正看世界、理解世界的系統。他判斷10年內會出現具身AGI的原型。Sutskever的關注點在另一邊:當前AI系統的泛化能力遠不如人類,在benchmark上表現出色,但在真實場景中容易陷入錯誤循環。這種脆弱性如果不解決,規模越大風險越高。他創立SSI公司,要在AI能力繼續提升的同時,確保其安全可控。一句話總結:LeCun 要教 AI 理解世界和行動,Sutskever 要讓 AI 在變強的過程中可控。② 兩條路線背後的不同關切這種分歧源於兩人的關注焦點。LeCun關心的是 AI 如何有效泛化、如何在現實世界中行動。他強調的是:我們缺的不是算力,也不是資料,而是架構。Sutskever 關心的是 AI 的安全性和可控性。他認為在沒有解決泛化脆弱性之前,單純追求能力提升是危險的。他們代表了後 LLM 時代的兩個方向:架構創新派和安全優先派。過去十年,AI 競爭的是模型規模和訓練資料。但當兩位先驅先後離開大廠時,他們告訴我們:規則變了。下一階段的比拚,是誰先發明新架構、誰的系統既強大又可控。這是一個時代的落幕,另一個時代的起點。第四節 | 一場轉向,正在發生當圖靈獎得主公開質疑主流路線,當 OpenAI 啟動硬體項目、Google 挖來波士頓動力CTO,當數十億美元的投資開始流向具身智能,一個問題浮現出來:後LLM時代,到底會是什麼樣子?① 工業界的悄然轉向雖然 LLM 仍在快速發展,但一些關鍵變化已經在發生。OpenAI的硬體野心正在浮出水面。11月24日,公司確認首個AI硬體原型已完成,這是與蘋果前首席設計師Jony Ive合作的成果。按計畫,這款無螢幕AI裝置將在2年內發佈,徹底改變人與AI的互動方式。Google的多路線策略同樣值得關注。11月18日發佈Gemini 3 Pro,11月21日又挖來波士頓動力前CTO Aaron Saunders,推動Gemini成為通用機器人控制平台。目標是讓同一個模型適配任何形態的機器人,開箱即用。李飛飛的World Labs在融資2.3億美元後,11月12日發佈首個商業產品Marble,一個生成式世界模型平台。具身智能領域更熱鬧:Figure AI 估值390億美元,Tesla Optimus計畫 2026 年開始量產。這些動作指向一個共識:下一代 AI 不會只存在於對話方塊裡。② 兩條路線,都需要時間無論是 LeCun 的世界模型,還是 Sutskever 的安全超智能,都不是短期內能看到成果的方向。LeCun說需要幾年到十年,Sutskever說需要5到20年。這意味著: 當前的 LLM 仍然是主流應用的基礎。GPT、Claude、Gemini會繼續迭代,繼續服務數億使用者。但長期的技術制高點,可能不在這條路上。誰先在新架構上取得突破,誰就掌握了下一個十年的話語權。這是一場需要耐心的馬拉松,而不是百米衝刺。③ 對創業者和開發者意味著什麼?LeCun的轉向傳遞了幾個重要訊號:首先,不要迷信規模。更大的模型不等於更好的智能,架構創新的空間仍然巨大。其次,垂直場景有機會。世界模型最先落地的可能不是通用 AGI,而是機器人、自動駕駛、工業控制這些需要物理互動的領域。第三,開源仍然重要。LeCun一直是開放原始碼的堅定支持者,他的新公司AMI會繼續這條路線,這意味著小團隊也有機會參與到新範式的探索中。最後,要做好長期準備。這不是一兩年就能看到回報的方向,但可能是未來十年最重要的方向。LeCun 說過:真正的智能不在語言表面,而在對世界的深層理解。這不是對 LLM 的否定,而是對 AI 未來的更大想像。大模型已經證明了規模的力量,但下一步的突破,可能來自完全不同的架構。真正的AGI,不會困在對話方塊裡,而會出現在能夠理解世界、執行任務的系統中。這條路上,探索才剛剛開始。 (AI深度研究員)
美國 AI 界巨震!圖靈獎得主 Yann Lecun 離職創業:大語言模型走錯了
不用再猜了,Yann LeCun 本人剛剛證實:他要離開 Meta 創業了。這不是一般的矽谷大佬出走。LeCun 是能讓祖克柏親自登門三顧茅廬的人物,是深度學習三巨頭之一,圖靈獎得主,Meta AI Research 的開山祖師。更特殊的是,他這些年一直在幹一件特別擰巴的事:站在全世界最熱鬧的 LLM 路線門口, 舉著牌子說「這幫人走錯路了」。在離職聲明中,LeCun 透露了更多細節。他正在創立一家初創公司,繼續推進過去幾年在 FAIR、紐約大學及其他地方開展的「高級機器智能」(AMI) 項目。這家公司的目標直指下一次 AI 變革——創造能夠理解物理世界、具備持久記憶、能進行推理並規劃複雜行動序列的系統。值得注意的是,Meta 將成為這家新公司的合作夥伴。LeCun 特別感謝了祖克柏、Andrew Bosworth、Chris Cox 和 Mike Schroepfer 對 FAIR 及 AMI 項目的支援。他強調,之所以選擇獨立實體的形式, 是為了最大化其廣泛影響力。而他本人將在 Meta 工作到今年年底,關於新公司的更多細節,會在合適時機公佈。帖子底下的網友也是紛紛送上祝福。從祖克柏三顧茅廬到如今分道揚鑣,這十二年,LeCun 始終堅持著自己對 AI 未來的判斷。那麼這段旅程究竟經歷了什麼?2013 年那場豪賭,祖克柏賭對了嗎?Lecun 與 Meta 故事得從 2013 年說起。那段時間,正是深度學習蓬勃興起的階段。2012 年,Geoffrey Hinton 與其學生 Alex Krizhevsky、Ilya Sutskever 提交的 AlexNet 在 ILSVRC-2012 一騎絕塵,top-5 錯誤率約 15.3%,這個突破讓整個學術界和工業界都看到了神經網路的潛力。然後就是科技巨頭們的搶人大戰——Google花大價錢收購了 Hinton 所在的創業公司 DNNresearch,順帶把老爺子本人也挖走了;微軟研究院也在瘋狂擴張 AI 團隊。祖克柏坐不住了。Facebook(現為 Meta)當時正在從 PC 網際網路往移動網際網路轉型,新聞推送演算法、照片識別、內容稽核,那那兒都需要技術。但問題是,Facebook 的 AI 能力跟Google、微軟根本不在一個量級。祖克柏需要一個能撐起門面的人物,最好是那種在學術界有足夠份量、能吸引頂尖人才加盟的大牛。他盯上了 Yann LeCun。LeCun 當時在紐約大學當教授,已經幹了十多年。那時的 Lecun 自然不是什麼新人,早在 1989 年,他就在貝爾實驗室搞出了摺積神經網路 (CNN),用來識別手寫數字,這後來也成了電腦視覺的基石。但那個年代深度學習不受待見,LeCun 就這麼冷板凳坐了許久,眼睜睜看著自己的研究被邊緣化。直到 2012 年,Hinton 用深度學習拿下 ImageNet 冠軍,證明了神經網路這條路走得通。LeCun 憋了的那口氣,終於能吐出來了。後續,祖克柏親自登門拜訪。具體談了什麼外人不知道,但最後開出的條件足夠誘人:第一,給錢,主打一個資源自由;第二,給自由,LeCun 可以保留紐約大學的教授身份,繼續教書搞研究;第三,給權,讓他參與建立 Facebook AI 研究院,怎麼招人、做什麼方向,全由他說了算。這對一個憋屈了多年的學者來說,簡直是夢寐以求的機會。2013 年末,LeCun 正式加入 Facebook,出任新成立的 Facebook AI Research(FAIR) 實驗室負責人。他在紐約、門洛帕克和倫敦三地建起了 FAIR 實驗室,自己常駐紐約辦公室。團隊最初規模較小,但個個都是從頂尖高校和研究機構挖來的——LeCun 的號召力在這時候體現出來了,但凡是做深度學習的,沒人不知道「摺積神經網路之父」這個名號。祖克柏給了資源,LeCun 也拿出了成果。加入 Facebook 這些年,LeCun 干的事情可以分成三條線:一是把深度學習塞進 Facebook 的產品裡,二是推動學術界的前沿研究,三是培養下一代 AI 人才。產品線上,2014 年的 DeepFace 人臉識別系統達到 97.35% 精準率,深度學習最佳化的推送演算法也提升了廣告點選率。與此同時,LeCun 自己繼續在學術圈刷存在感:發論文、頂會 keynote、帶學生辦 workshop。直到和 Hinton、Bengio 一起拿圖靈獎, 才算是熬出頭了。此外,在 LeCun 建立的 FAIR 實驗室,Soumith Chintala 主導開發了 PyTorch 框架並於 2017 年開源,這也是 Meta 至今為數不多的形象招牌。PyTorch 動態計算圖、Python 原生介面, 偵錯方便, 學術圈迅速倒戈。這一招等於把全球 AI 研究者都拉進了 Facebook 生態。不過,或許是冥冥中自有天意,Soumith 前不久也宣佈離職 Meta,表示「不想一輩子做 PyTorch」。而更重要的是人才培養。FAIR 有個規矩:研究員可以自由發表論文、跟學術界合作、指導外部學生。頂級資源加學術自由的組合,自然吸引了一批頂尖研究人員。到 2020 年前後,FAIR 已是全球頂尖 AI 研究機構之一, 跟Google DeepMind 並列第一梯隊。祖克柏的那場豪賭, 至少在前七八年就已經得到了不小的回報。貓比 ChatGPT 聰明?這個圖靈獎得主是認真的在 ChatGPT 席捲世界初期,Yann Lecun 和祖克柏也有過一段甜蜜期。2023 年以來,Meta 陸續開源 LLaMA 系列模型,引發業界震動。OpenAI、Google走的是封閉路線,靠 API 賺錢;Meta 卻把模型權重直接扔出來,任人取用。這步棋背後的算盤其實挺清楚:與其讓對手一家獨大,不如用開源贏得開發者生態,讓 LLaMA 成為 AI 界的 Android。至少在明面上,身居 Meta 首席 AI 科學家一職的 LeCun,是這條路線最堅定的擁護者。開源 LLaMA 讓 Meta 在大模型競賽中站穩了腳跟,也讓 LeCun 的 AI 理想得到了一定程度的實現——儘管這個實現的方式,恰恰是通過他並不完全認同的 LLM 技術路線。沒錯,LeCun 一直覺得 LLM 是條死胡同。這才是矛盾的核心。LeCun 不止一次在公開場合炮轟 LLM 路線,在他看來,LLM 只會根據統計相關性預測下一個詞,根本不理解世界。你問它常識問題,它能給你編出一本正經的瞎話——這叫「幻覺」(hallucination),說白了就是不懂裝懂。熟悉 LeCun 的人都知道,他最喜歡舉的例子是貓和機器人:「我們有了會考試聊天的語言模型,但家務機器人在那裡?那怕像貓那樣靈巧的機器人都沒有出現。」「你的貓肯定有一個比任何 AI 系統都更複雜的模型。動物擁有持久記憶的系統,這是目前的 LLM 所不具備的;能夠規劃複雜動作序列的系統,這在今天的 LLM 中是不可能的。」他算過一筆帳:一個 4 歲小孩通過視覺獲取的資訊量,幾年下來就有 10 的 15 次方字節,遠超 LLM 讀遍網際網路文字。但小孩已經掌握了基本的物理直覺和語言,LLM 耗費這麼多資料,智能仍然很有限。「光靠喂文字,不可能達到人類水平智能。這條路永遠走不通。」他如此說道。在當下最火的風口面前,這樣唱反調的言論顯然並不討喜,有人批評他傲慢,有人說他故步自封。甚至 Meta 內部都有聲音認為,正是 LeCun 對 LLM 路線的牴觸,讓公司在大模型競賽中暫時落後。但 LeCun 不在乎。他有自己的路線圖:世界模型 (World Model)、聯合嵌入預測架構 (JEPA)等等。這些概念聽起來學術味十足,核心思想其實很直觀——讓 AI 通過觀察世界來學習,而不是通過閱讀文字來記憶。就像嬰兒成長那樣,先理解重力、因果關係這些物理常識,再逐步建立抽象認知。他設想的 AI 架構是模組化的:感知模組、世界模型模組、記憶模組、行動模組,各司其職。不像 LLM 那樣把所有知識和推理揉在一個巨型網路裡,搞得像個什麼都懂但其實什麼都不懂的「書呆子」。具體來說,世界模型就是讓 AI 在內部學會一個對外部世界的預測模型。就像嬰兒在成長過程中建立起對重力、物體恆存等常識那樣,AI 應該通過觀察世界,形成對物理規律、因果關係的理解。有了世界模型,AI 就可以在腦海中模擬未來,從而具備計畫行動的能力。JEPA 則是實現這個世界模型的具體架構。它採用自監督學習的方法,給 AI 兩個相關的輸入 (比如視訊中相鄰的兩幀畫面),模型將這兩個輸入分別編碼到一個抽象的表示空間中,然後訓練一個預測器,根據「上下文」表示去預測「目標」表示。這種方式避免了直接生成所有細節,而是關注抽象的關鍵因素——更符合人類學習方式。LeCun 曾預言,如果團隊的路線順利推進,三到五年內就會有更好的範式出現,使得現在基於 LLM 的方法過時。問題是,三到五年,Meta 等得起嗎?一場猝不及防的重組,FAIR 的黃金時代結束了當初,LeCun 建立 FAIR 時的承諾是「做長期的、基礎性的 AI 研究」,祖克柏也同意了。但這個「長期」到底有多長?「基礎研究」到底能給公司帶來多少直接收益?這些問題在早期不是問題,因為深度學習本身就是風口,FAIR 做什麼都有望轉化成產品優勢。可隨著生成式 AI 開始爆發,競爭也日益激烈,形勢開始發生了變化,尤其是 Llama 4 的失敗也給了祖克柏當頭一棒。祖克柏要的是現在就能用的技術,不是五年後可能有用的理念。於是,一場猝不及防的重組出現了。就在今年,Meta 搞了個大動作,成立「超級智能實驗室」,把 FAIR、基礎模型團隊和各應用 AI 團隊統統塞進一個筐裡。表面上是整合資源,實際上是一場徹底的權力重組。這場重組的核心邏輯很明確:讓研究直接服務產品,讓科學家為商業目標讓路。FAIR 團隊原本「相對不受干擾地開展研究」,現在得跟著產品節奏走,研究方向要服務於個人 AI 助手。此外,Meta 對 FAIR 的研究發表制定了更嚴格的內部稽核機制。研究員在對外發佈論文、開放原始碼之前,需要經過額外的內部交叉審閱和管理層審批,原因在於 Meta 擔心自己砸錢搞出來的成果被競爭對手白嫖。LeCun 對這些變化表現出強烈的牴觸。據多方報導,他在內部激烈反對新的論文稽核制度,為維護研究自由據理力爭。The  Information 援引知情者的話稱,LeCun 在今年 9 月一度「氣到考慮辭職」以示抗議。但或許更讓他難以接受的是領導權的旁落。祖克柏在重組中做了一個大膽的人事任命:從外部挖來 Alexandr Wang,讓他擔任 Meta 的首席 AI 官,直接向 CEO 匯報。Alexandr Wang 是誰?一個 28 歲的 MIT 輟學生,他創辦的公司 Scale AI 專門做資料標註業務,給各大科技公司的 AI 模型提供訓練資料。祖克柏看中的,恰恰是 Wang 的產品思維和商業嗅覺。在生成式 AI 的競賽中,Meta 需要的不是象牙塔裡的理想主義者,而是能快速把技術轉化為產品的實幹家。這個任命的震撼在於:LeCun 這個圖靈獎得主、深度學習三巨頭之一、在 Meta 幹了十二年的首席 AI 科學家,在新架構下的話語權被大幅削弱,甚至要向 Wang 匯報。同時,今年 7 月,祖克柏還任命了年輕有為的趙晟佳為超級智能實驗室的首席 AI 科學家,負責制定新實驗室的研究方向。有趣的是,LeCun 當時發了個聲明,說自己角色沒變、使命沒變,還期待跟新團隊合作。這求生欲屬實拉滿。但他對於研究方向和領導層重組的分歧,顯然是公開的秘密。而真正可能成為壓垮駱駝的最後一根稻草的,是最近的裁員。據報導,Meta 近期對 AI 團隊進行了裁員,波及到 FAIR 研究部門以及與產品相關的 AI 團隊,甚至華人大佬田淵棟也因此受到了波及。裁員的訊號很明確:Meta 不再願意為「看不到短期回報」的基礎研究買單了。那些不能直接轉化為產品功能、不能立即提升使用者增長或廣告收入的研究方向,都成了被砍的對象。FAIR 的黃金時代結束了。而學術大佬出來單干,最近幾年已經成了矽谷新常態。Hinton 退休後到處演講呼籲 AI 監管,Bengio 也有自己的實驗室和創業項目。LeCun 真出去創業,沒準反而是好事。說到底,這事兒沒有誰對誰錯。LeCun 能夠在 Meta 之外繼續他畢生的事業。他帶走了那個被 Meta「擱置」的願景,可以放開手腳搞自己的世界模型,用自己的方式證明它是正確的,再也不用跟產品經理扯皮,不用向 28 歲的小老弟匯報。成了,那就是「我早說過 LLM 是死路」;敗了,頂多被人嘲笑幾句「你看那個老頑固」。而對於 Meta 來說,祖克柏要給股東講故事,要把最實用的生成式 AI 塞進旗下產品的各個角落,這確實是 CEO 該干的事。只是,儘管少了 LeCun 也不會傷筋動骨,但可能會少點不一樣的聲音。等那天大家發現 LLM 真的走到瓶頸了,回頭看看當年那個舉著反對牌子的倔老頭說過什麼,或許會覺得別有一番趣味。 (愛范兒)
李飛飛和LeCun的世界模型之爭
AGI之路,終於交會到了世界模型的戰場。李飛飛,發佈了旗下首款商用世界模型Marble;幾乎在同一時間,Lecun離職Meta,準備創立自己的世界模型公司;在此之前,Google旗下的世界模型Genie 3,也曾掀起業界轟動。AI界三股大佬力量,雖然同樣進軍世界模型,卻意味著三種截然不同的技術路線賭注—世界模型之爭李飛飛剛剛為空間智能舉大旗的萬字長文發佈,她旗下的創業公司World Labs,就緊鑼密鼓推出了首款商用世界模型Marble。業界普遍認為Marble有商業化潛力,是因為它產生的是持久的、可下載的3D環境。團隊表示,這種方式能顯著減少場景變形和細節不一致的問題,而且還能將生成的世界匯出成高斯斑點、Mesh網格,甚至直接匯出影片。更進一步,Marble還內建原生的AI世界編輯器Chisel,使用者只需一句提示,就能依照自己的想法自由改造世界。對於做VR或遊戲的開發者來說,「一句提示→直接生成3D世界→一鍵匯出到Unity」這樣的鏈路,非常有幫助。然而,Hacker News的一名機器學習工程師指出,比起所謂的世界模型,Marble看起來更像是單純的3D渲染模型。這不就是高斯Splat模型嗎?我在AI產業做了這麼久,到現在都還是搞不懂「世界模型」裡的「世界」究竟指什麼。Reddit網友的說法則更直接:用高斯散射、深度和影像修復把圖片轉成3D環境,確實很酷,但這就是一組3D高斯生成流水線,不是機器人的大腦。這裡的高斯潑濺,指的是近幾年3D建模裡最火紅的一類新技術。它把一個場景表示成成千上萬個漂浮在空間中的彩色模糊小斑點(也就是高斯),再把這些斑點“潑濺”到螢幕上,讓它們自然融合成一張圖像。可以這麼理解:高斯就像是漂浮在立體空間、半透明、有光暈、邊緣柔軟的小氣泡。單一氣泡當然軟乎乎的成不了形,但如果成千上萬個這樣的氣泡聚在一起,再從不同角度渲染出來,就能組合出一幅精美的三維畫面。這樣做,不需要像傳統攝影測量那樣走複雜的建模流程,雖然犧牲了一些精確度,但速度極快,而且操作更輕鬆。Marble採取的正是這樣一種路徑。然而,這也意味著,Marble可能不是大家想的那種、可以直接用於機器人訓練的「世界模型」。Marble確實建構了一個完整世界,但我們看到的其實只是一個能被渲染器直接轉成像素的檢視。換句話說,它捕捉的是「表面是什麼樣子」,而並沒有內建「這個世界為什麼會這樣運作」的物理規律。這對人來說完全夠用了,但對機器人來說,重要的其實不是這些視覺訊息,而是背後的因果結構——例如,一放在斜坡上的球會滾下來,這對人類來說是看一眼就懂的事;但機器人想做出類似判斷,還需要質量、摩擦、速度……這些資訊在Marble里根本不存在。或許正是因為如此,在Marble自己的部落格上,雖然屢屢提及“世界模型”與“匯出高斯散射體、網格和視訊”,但幾乎完全沒有提到機器人。不過在商業化層面,Marble明顯更具優勢。相較於AI圈熱議的那類、可孕育具身智能世界模型,Marble已經不是一個遙遠的概念,而是一款能夠立刻融入遊戲開發者日常工作流程的實用工具。但這也不禁令人有些黯然,難道那條能通往AGI的「世界模型」之路,只是個噱頭嗎?當然不是。確實存在著能與機器人真正互動的世界模型,例如——LeCun的JEPA。LeCun所理解的「世界模型」,根子並不在3D圖形學,而是在控制理論和認知科學。它不需要輸出漂亮的畫面,因為你根本「看不到」這種世界模型。這類世界模型的任務,不是渲染精美的像素,是讓機器人能提前想幾步,學習在行動前預判世界的變化。JEPA走的正是這條路——LeCun認為,對AI來說,只有中間那個抽象表徵才重要,模型沒必要浪費算力去產生像素,只要專注於捕捉那些能用於AI決策的世界狀態。所以,這類模型雖然沒辦法像Marble那樣生成精緻的3D影像,看起來不那麼「驚豔」,但它更像是在訓練機器人的「大腦」。其優勢在於對世界更本質的理解,因此,更適合作為機器人的健身房。這麼一對比,李飛飛和LeCun在「世界模型」上的路線幾乎南轅北轍——前者做的是一個前端資產產生器;後者則更像一個後端預測系統。而在這二位神仙打架的中間,還站著一位科技巨頭——Google。今年8月,GoogleDeepMind推出了新版世界模型,這就是Genie 3。只要一句Prompt,模型就能產生一個可互動的影片環境,使用者可以在其中自由探索數分鐘。最令人印象深刻的是,Genie 3首次在這一類模型中解決了長時一致性的問題——不會再出現那種「轉個身整棟大樓消失」的狀況。同時,它也支援觸發世界事件,例如「開始下雨」「夜幕降臨」等,整個過程就像一款由模型而非傳統引擎驅動的電子遊戲。不過,Genie應該更像一款「世界模型式影片產生器」。儘管Genie 3讓「世界動了起來」,它的核心仍然是視訊邏輯,而非JEPA那種基於物理和因果的邏輯。也就是說,它雖然可以產生動態畫面,但也無法完全「理解」這些畫面背後的物理規律。依然可以用於機器人訓練,但不如JEPA那樣直擊本質。同時,畫面品質和解析度也有限,難以與Marble那種高精度、可匯出的3D資產相提並論。綜上來看,三種「世界模型」雖然都在描繪「世界」,但理解路徑完全不同,也因此各有千秋——Marble渲染「世界長什麼樣子」,Genie 3展示「世界怎麼變」,JEPA則探究「世界的結構是什麼」。而市面上幾乎所有的「世界模型」,大致也都可歸入這三種範式:世界模型金字塔第一種:世界模型即介面以Marble為代表,它讓人們能夠從文字或二維素材,直接產生可編輯、可分享的三維環境。在這個模式下,「世界」是呈現在VR頭戴裝置、顯示器或電腦螢幕上的那片可供人觀賞與遊走的空間。第二種:世界模型即模擬器:以Genie 3為代表,這類模型能產生連續、可控制的視訊式世界,讓智能體在其中反覆嘗試、失敗、再嘗試。像SIMA 2這樣的智能體,便可把這類世界當作「虛擬健身房」。第三種:世界模型即認知框架以JEPA為代表,這是一種高度抽象的形式,沒有像前兩種一樣可供人欣賞的畫面。在這裡,焦點不在於渲染,「世界」以潛在變數和狀態轉移函數的形式呈現,可以說是機器人完美的訓練基地。在智源學者趙昊看來,其實可以將三者拼裝為「世界模型金字塔」——自下而上依序是李飛飛、Genie 3、Lecun。站在地面仰望這座金字塔:越往上,模型越抽象、越貼近AI的思考方式,因此更適合用於機器人訓練與推理;越往下,模型在外觀、互動與視覺化等方面對人類來說更真實,但更難被機器人理解。 (量子位元)