#LeCun
LeCun哈薩比斯神仙吵架,馬斯克也站隊了
吵起來了。圖靈獎得主和諾貝爾獎得主,為了“智能的本質”——直接激情友好地交流上了。AI三巨頭之一、圖靈獎得主Yann LeCun明確表示:純粹就是胡扯(complete BS)。而諾貝爾獎得主、GoogleDeepMind CEO哈薩比斯也不留情面了,指名道姓回擊:LeCun的說法簡直是大錯特錯。論戰之激烈,關注度之高,已經讓𝕏專門開闢了一個話題類股:馬斯克也跑來吃瓜了——沒有任何多餘的解釋,但這波他站哈薩比斯——“Demis is right”。當然,馬斯克的站隊可能也有別的原因。畢竟他和LeCun素來不是很對付,跟哈薩比斯則亦師亦友——馬斯克還是哈薩比斯DeepMind早期投資人。要科學吃瓜,可能還是要知道他們究竟在激辯什麼?爭論焦點:智能的本質是什麼?事情還要從LeCun幾天前接受的一場採訪說起。他在節目中言辭犀利地指出:根本不存在所謂的“通用智能”,純粹就是胡扯(complete BS)。這個概念毫無意義,因為它實際上是用來指代人類水平的智能,但人類智能其實是高度專業化的。我們在現實世界裡確實幹得不錯,比如認個路、導航blabla;也特別擅長跟人打交道,因為咱們進化了這麼多年就是幹這個的。但在國際象棋方面,我們表現很差。而且還有一堆事兒都搞不定,反倒是有些動物比我們強得多。所以說,我們其實就是“專才”。我們認為自己是“通用”的,但這僅僅是一種錯覺,因為我們能理解的所有問題都侷限於我們能想到的那些。簡單概括就是,LeCun認為人類智能並不“通用”,而是為了適應現實物理世界而專門進化出來的某種專業能力。人類之所以擅長識別物體、躲避危險、與他人合作等,也只是因為這些能力在進化中被環境塑造。然而,這一觀點很快遭到了哈薩比斯的直接回懟。哈薩比斯表示:LeCun的說法簡直是大錯特錯。他這是把“general intelligence”和“universal intelligence”兩個概念搞混了。然後他一一駁斥了LeCun的觀點,其原話如下:大腦是目前宇宙中已知最精妙、最複雜的事物,實際上具有極強的通用性。但是在實際的系統當中,“天下沒有免費的午餐”這個道理是無法迴避的——任何實際且有限的系統,在其所學目標分佈周圍,都必然存在一定程度的專門化。但從圖靈機的理論意義上講,通用性的核心在於,只要給予足夠的時間、記憶體(及資料),就能夠學習任何可計算的內容。而人腦(以及AI基礎模型)正是近似的圖靈機。並且,針對LeCun關於國際象棋棋手的評論,哈薩比斯認為人類能發明國際象棋本身就令人驚嘆,更不用說從科學到波音747等現代文明的一切了。關於LeCun對棋手的評論——人類最初竟能發明國際象棋(乃至從科學到波音747的整個現代文明!)本就令人驚嘆,更不用說還能出現像馬格努斯·卡爾森那樣棋藝卓絕的人物。他或許並非嚴格意義上的最優解(畢竟記憶有限、決策時間也受限),但考慮到我們的大腦本是為狩獵採集而進化,他和我們如今所能成就的一切,已足以展現人腦的驚人潛力。顯而易見,哈薩比斯對“智能”的理解從不侷限於電腦科學,而是深度融合了神經科學。一直以來,他認為真正衡量智能的兩個關鍵標準分別是通用性(Generality)和學習能力(Learning),為此他經常拿1997年“深藍”戰勝卡斯帕羅夫舉例——雖然“深藍”在國際象棋上很強,但還是連簡單的井字遊戲都不會玩,所以足以見得這種程序的死板之處。而關於這場對決,哈薩比斯還透露,最吸引他的不是“深藍”這個系統,而是卡斯帕羅夫的大腦(畢竟他能作為人類代表與AI進行比賽)。沒錯,又是“大腦”這個關鍵詞。哈薩比斯一直堅信,人類大腦是宇宙中已知的唯一關於“通用智能可行性”的存在性證明。當大腦和AI結合之後,所謂的“通用人工智慧”其實就是能夠展現出人類所擁有的所有認知能力的系統。至於具體如何實現AGI,哈薩比斯多年來也形成了一套自己的方法論,總結起來就是——預測建構理解,規劃擴展可能,強化學習實現自主進化。第一步:以預測為基石。在他看來,智能的本質在於預測——無論是預測下一個單詞還是預測蛋白質的折疊形狀。這是所有認知活動的基礎形式,也是AI理解世界的內在驅動力。第二步:引入搜尋與規劃AI系統首先要建立一個世界模型,然後在此基礎上進行搜尋或規劃,以在巨大的組合搜尋空間中找到最優解。第三步:最終通向深度強化學習這是哈薩比斯最推崇的終局路徑,也是對大腦運作方式的模擬——深度學習負責模式匹配和尋找結構,強化學習負責通過試錯進行規劃和達成目標。這在生物學上對應著大腦的神經通路和多巴胺獎勵系統。至此,我們看到兩位大佬關於智能本質的爭論,表面上看起來似乎確實截然不同。一個認為“通用性智能”是胡扯,本質上智能是自然世界高度專業化的產物;另一個認為通用性智能不僅存在,而且仍有巨大潛力有待挖掘。但事實,真的如此嗎?上述爭論過後,LeCun又再次出來回應了,而且這次直接點名了分歧核心——用詞。我認為分歧主要在於用詞。我反對用“通用(general)”來指代“人類水平”,因為人類是高度專門化的。不過,雖然承認用詞有分歧,但他還是繼續重申了“人類智能並不通用”的觀點。其論證如下:第一,理論完備≠實際通用。你也許不同意人類思維是專門化的,但事實確實如此。這不僅是理論能力的問題,更是實踐效率的問題。顯然,一個經過良好訓練的人腦,如果配合無限量的紙和筆,是圖靈完備的。但對於絕大多數計算問題來說,這種方式效率極低,因此在資源受限的情況下(比如下棋),它遠非最優方案。就是說,哈薩比斯所構想的“理想的圖靈機”對解決現實問題幾乎沒有意義,因為真正的智能必須在有限資源下高效運作——而人腦的進化恰恰是資源約束下高度最佳化的結果。第二,兩個典型例子可以反映大腦的“非通用性”。在理論上,一個兩層神經網路可以以任意精度逼近任何函數;但在實踐中,幾乎所有有意義的函數都需要隱藏層中包含數量巨大、難以實現的神經元。正因如此,我們才使用多層網路——這正是深度學習存在的根本原因。再換一個角度來看:視神經大約有100萬根神經纖維。為了簡化討論,我們假設訊號是二進制的,那麼一次視覺任務就可以被視為一個從100萬位元對應到1位元的布林函數。在所有可能的此類函數中,有多少是人腦可以實現的?答案是:一個無窮小的比例。通過這兩個例子,LeCun再次重申了自己的觀點:所以我們不僅談不上“通用”,而且是極其高度專業化的。可能的函數空間極其廣闊。我們之所以沒有意識到這一點,是因為其中絕大多數函數對我們來說複雜到難以想像,看起來幾乎完全是隨機的。而且他還提到了愛因斯坦曾經說過的一句話——世界上最不可思議的事情,是世界竟然是可以被理解的。在所有可能的、隨機的世界組織方式中,我們竟然能夠理解其中極小的一部分,這本身就令人驚嘆。而我們無法理解的那一部分,我們稱之為“熵”。從這個意義上說,宇宙中絕大多數的資訊都是熵——是我們孱弱的認知能力無法理解、因而只能選擇忽略的內容。總之,事情battle到最後,網友們也是紛紛回過神來了——這場爭論最大的bug可能就在用詞上了。而拋開用詞不談,本質上來看,兩個人其實更像是在談論不同的問題:一個核心在強調“我們是什麼”,另一個則在強調“我們能成為什麼” 。而這,也恰恰指向了同一個更深層、也更現實的議題——接下來,我們究竟該以怎樣的方式實現AGI?答案:世界模型不管是在LeCun還是哈薩比斯這裡,答案其實都已經很清晰了——世界模型。眾所周知,即將從Meta正式離職的LeCun,下一站就是創業世界模型。據《金融時報》爆料,其新公司名為Advanced Machine Intelligence Labs(AMI Labs),計畫於明年一月正式亮相,目標估值30億歐元(約247億人民幣)。在LeCun的理解中,世界模型所要追求的不是渲染精美的像素,而是掌握控制理論和認知科學。他認為對AI而言,只有中間那個抽象表徵才重要(和JEPA研究一脈相承),模型沒必要浪費算力去生成像素,只需專注於捕捉那些能用於AI決策的世界狀態。換言之,瞭解“世界的結構是什麼”才是最關鍵的。而哈薩比斯這邊也在採訪中多次表示,世界模型絕對是自己和Google接下來的重點。今年8月,GoogleDeepMind推出了新版世界模型Genie 3。哈薩比斯表示:我們談論的世界模型,指的是那種能夠理解世界運行機制中因果關係與協同效應的模型,也就是一種“直觀物理學”——事物如何運動、如何相互作用、如何表現。你已經可以在當前的視訊模型中看到這種能力的雛形。而檢驗是否真正具備這種理解的一種方式是否能夠建構一個逼真的世界。因為如果你能夠生成它,那麼在某種意義上,你就已經理解並內化了這個系統的運作規律。這也解釋了為什麼Genie、Veo這些模型首先會以視訊模型的形式出現。在他看來,這種可互動的世界模型正是通往AGI的關鍵一步。通過對比,我們能發現雖然二者都是在描繪“世界模型”,但他們的理解和實踐方向也明視訊記憶體在差別——LeCun代表著“世界模型即認知框架”,而Google哈薩比斯代表著“世界模型即模擬器”。嗯,同一個概念,不同的理解和實踐——怎麼不算一種call back呢?(手動狗頭)Anyway,回顧歷史,實際上AI的每一次躍遷都伴隨著這樣的“爭吵”:符號主義和連接主義的爭論,定義了智能的根基究竟是“邏輯”還是“資料”;端到端學習和模組化系統的爭論,定義了“系統該如何建構”;再加上我們今天的“開源VS閉源之爭”、“智能本質之爭”……還是那些老話,“真理不辯不明”、“真理越辯越明”。不過玩笑說說,等到真理辯明了,那個老頭可要來了……One More Thing幾乎同一時間,LSTM之父Jürgen Schmidhuber又出來隨機掉落了一個“小彩蛋”,他預判了預判——LeCun即將創業的世界模型,他們在2014年就有涉獵了(原話是二者高度相似)。怎麼說呢,Jürgen Schmidhuber老爺子這幾年,基本都在“維權”了。作為LSTM的發明者,LSTM一度在ChatGPT誕生前被稱為“最具商業價值的人工智慧成就”,而作為LSTM之父,Jürgen Schmidhuber早在三巨頭獲得圖靈獎之前就被《紐約時報》稱為“成熟人工智慧之父”。但當AI時代真正到來,各種技術發明者桂冠沒有他、圖靈獎沒有他、諾貝爾獎也沒有他……Schmidhuber只能一次次維權、隔空懟人,最後成為祥林嫂·Schmidhuber。幸好,還有推特,可以讓他首頁上清晰完整展示——以及推特當前的擁有者馬斯克,他評價Jürgen Schmidhuber時言簡意賅:一切的發明者。這,確定不是在陰陽八卦? (量子位)
LeCun創業首輪估值247億!Alexandre當CEO
LeCun在Meta的Last Day還沒來,新公司又被曝出更多細節。前腳LeCun本人在播客當中宣佈了新公司名稱,現在融資和估值目標就被《金融時報》曝光了。這家名為Advanced Machine Intelligence Labs(AMI Labs)的新公司,計畫於明年一月正式亮相,目標估值30億歐元(約247億人民幣)。AMI Labs的研究方向,就是LeCun一直主推的“世界模型”,而且將走開源路線,老東家Meta也將與其保持合作。另外,曝料也透露了AMI Labs的CEO人選並非LeCun本人,而是他的一位老部下。LeCun不當CEO新公司AMI Labs定於2026年1月在巴黎正式啟動,在Meta逐漸轉向封閉生態的背景下,LeCun選擇了他在學術界一貫堅持的開源路線。而且在技術層面,AMI Labs選擇了比主流的LLM更具挑戰性的道路——死磕“世界模型”。因為在LeCun看來,基於自回歸機制的LLM存在根本性的邏輯缺陷,它們只是在統計機率上預測下一個字元,並不真正理解物理世界的運行規律。他曾在多個場合直言,現有的LLM路線是通往AGI的“死路”,其智能水平甚至不如一隻狗——因為狗能通過觀察理解物理世界的因果關係,而單純靠文字訓練的AI做不到。為此,新公司將通過JEPA(聯合嵌入預測架構)來建構技術底座。這套架構的核心邏輯在於“抽象”與“規劃”:它不再像視訊生成模型那樣試圖預測每一個像素點,而是在抽象的表示空間中學習、預測未來的狀態。這種方式能讓AI像人類或動物一樣,忽略無關的背景噪聲,專注於理解關鍵資訊的動態變化,從而具備真正的推理和規劃能力。在資本運作方面,AMI Labs的起步規格也非常高。據《金融時報》稱,公司正以30億歐元的目標估值尋求首輪5億歐元(約41億人民幣)融資。順便提一句,LeCun的老東家Meta也將與AMI Labs建立合作,但不會直接注資。至於公司的CEO人選,LeCun本人大機率不會出任CEO。這一安排也符合LeCun一貫的科研志趣——這位65歲的圖靈獎得主曾多次表示,自己的核心動力是“提升人類智能”,而非陷入行政管理與財務報表的瑣事中。而CEO職位的人選則被曝是醫療AI獨角獸Nabla的創始人兼CEO Alexandre LeBrun。誰是LeBrun?這一被寄予厚望的CEO人選,是與LeCun有著深厚淵源的“老戰友”。作為法國科技圈知名的連續創業者,LeBrun目前的公開身份是醫療AI獨角獸Nabla的創始人兼CEO。他即將出任AMI Labs CEO的消息,也是由Nabla聯創兼COO Delphine Groll向媒體透露的。Groll在聲明中表示,LeBrun將轉任Nabla的執行董事長,通過職權交割完成善後工作。LeBrun是巴黎高等電信學校碩士,1999年畢業。隨後,他的職業生涯起步於商旅技術公司KDS(現為美國運通旗下Amex GBT Neo),並於2002年開啟了連續創業之路。那年,他創立了客戶服務AI公司VirtuOz,隨後成功將其打造為行業先驅,最終被語音技術巨頭Nuance收購。而他與LeCun的交集,則始於2015年的一次關鍵併購——當時他創立的語音互動平台Wit.ai被Facebook高價收購,他也隨之正式加入了Meta的技術生態。進入Meta後,LeBrun出任了FAIR的工程負責人,是LeCun的直接下屬,主要職責是協助作為首席科學家的LeCun管理實驗室的工程團隊,將前沿的科研理論轉化為可驗證的工程實踐。三年後,2018年,LeBrun離開了FAIR,開啟新的Nabla創業征程。這段在FAIR共事三年的經歷,無疑將為兩人未來在AMI Labs的再度聯手奠定了信任基礎。如果這一任命最終落地,AMI Labs將形成“LeCun主內負責科研、LeBrun主外負責商業”的雙核架構。對於已經65歲的LeCun來說,這或許是他職業生涯中的又一次豪賭。他在最近的播客節目中坦言,儘管到了可以退休的年紀,妻子也希望他回歸家庭,但他無法停下,因為“提升人類智能”的使命尚未完成。這也正是AMI Labs成立的初衷——拋棄當下大模型的捷徑,去啃下物理世界認知這塊最硬的骨頭。 (量子位)
倒計時3周離職!LeCun最後警告:矽谷已陷入集體幻覺
【新智元導讀】LeCun不忍了,三周後從Meta「提桶跑路」,臨走前狠扇了矽谷所有人一巴掌:你們信奉的大模型全是泡沫,根本通往不了AGI!大模型是一條死路,無法通往AGI!在今天的最新一期深度訪談中,LeCun直言不諱指出:所謂的ASI路線——不斷訓練LLM,用更多合成資料喂模型,雇上幾千人在後訓練階段「管教」系統,再折騰出一些RL的新技巧。在我看來,完全是胡說八道!這條路根本行不通,而且永遠都不可能成功。任職12年,即將暴走Meta的65歲圖靈獎得主,在公眾場合的觀點愈加偏激了。這場近2小時的對談中,LeCun的觀點一針見血——矽谷對不斷「堆大」LLM的痴迷是一條死路;搞AI最難的問題在於,它依舊是「阿貓阿狗」的智能,而非類人的水平。如今,他正把一生的學術聲譽押注在一條截然不同的AI路線之上,即「世界模型」。訪談中,LeCun還分享了創業公司AMI(Advanced Machine Intelligence)正在建構的「世界模型」——在抽象表徵空間中進行預測,而不是簡單地像素級輸出。幾天前,LeCun在與GoogleDeepMind大佬Adam Brown一場激辯中,同樣提出他的經典論點:LLM沒那麼聰明,畢竟一隻貓或一個孩子僅用少得多的資料就能理解世界。Token預測全是泡沫,物理世界才是真相。有網友辣評道,「Meta在AI領域失敗,LeCun是罪魁禍首」。還有人表示,「LeCun很聰明,在Meta保持沉默現在開始發聲了」。65歲創業,再造一個FAIR播客開場,主持人問道,「從Meta這樣大公司跳出來,從0起步,是什麼感覺」?LeCun坦言,雖然他此前也參與過創業,但這次的AMI意義非凡。這次的獨特之處在於一種新現象,即投資者也願意為其買單。這要是放在以往,是不可能的。歷史上,像貝爾、IBM、施樂PARC這樣的大實驗室,都一同壟斷了企業的財力。如今,行業風向正在轉變。FAIR通過開源推動了生態的發展,但近年來越來越多實驗室選擇閉源,OpenAI、Google,甚至Meta也不例外。在LeCun看來,這種閉源趨勢,不利於真正突破性的研究。因此,他決定在Meta外部創辦AMI,專注於「世界模型」,並計畫延續開放研究的傳統。除非你把論文發表出來,否則就不能稱之為真正的研究。要不然,你很容易陷入一種自欺欺人的狀態。看得出,LeCun這番言論一定程度上,暗示28歲上司Alexandr Wang的做法——此前曾爆出,FAIR實驗室想要發論文,必須經過MSL批准後才可以。LeCun再次強調,「如果真的想要突破,需要讓你的員工發表論文。沒有別的辦法。這是目前很多行業正在遺忘的事情」。下一步,AMI的目標不僅是研究,還會打造實際的產品,比如與世界模型、規劃有關的,並成為智能系統的核心供應商。接下來的話題,又回到了LeCun老生常談的事情。LeCun放話:LLM走不通他明確表示,當前的LLM或基於LLM的AI智能體,處理語言尚可,但在可靠性、資料效率、多模態處理上遠遠不足。我已經說了快十年了,世界模型才是解決這一問題的「正確方法」。「世界模型」能夠預測一個動作或一系列動作的後果,然後系統通過最佳化得出一系列動作,即找出那一系列動作能最好地完成設定的任務,這就是「規劃」。因此,LeCun認為,智能的一個重要部分是能夠預測行動的後果,然後將其用於規劃。「世界模型」是設計用來處理,高維、連續和嘈雜的模態資料,LLM完全不行。真正有效的方法是,學習一個抽象的表示空間,消除關於輸入的不可預測的細節,並在表示空間中進行預測。這就是, JEPA(聯合嵌入預測架構)的想法。論文地址:https://arxiv.org/pdf/2509.14252將近有20年的時間,LeCun一直確信,建構智能系統的正確途徑是通過某種形式的「無監督學習」。他回顧了自己的研究歷程——早在2000年代初中期,便開始探索無監督學習,並嘗試通過自編碼器(Autoencoders)來學習表示,但發現表示包含關於輸入的所有資訊是個錯誤。後來,他意識到需要「資訊瓶頸」(Information Bottleneck),限製表示的資訊量。2015年,ResNet(殘差網路)出世,徹底解決了深層網路架構訓練問題,也是從這時起,LeCun開始重新思考:如何推動實現人類水平的AI?他意識到,強化學習等方法,基本上無法scaling,且樣本效率極低,於是開始聚焦「世界模型」。最初嘗試,他在像素級預測視訊,但發現這行不通,真正的突破在於表示層(Representation Level)進行預測。JEPA的發展克服了早期孿生網路(Siamese Networks)的模型坍塌(Collapse)的問題,通過Barlow Twins、VICReg最佳化表示空間。最近的Latent Euclidean JEPA,進一步推進了這一思路。論文地址:https://arxiv.org/pdf/2511.08544對於LLM侷限背後的原因,LeCun分享了資料質量方面的「苦澀的教訓」(Bitter Lesson)。訓出一個性能還不錯的LLM,需要網際網路上大約30兆Token(約10^14字節)的文字資料。LLM需要巨大的記憶體,來儲存這些孤立的事實。相較之下,這僅相當於大約15,000小時的視訊——YouTube上30分鐘的上傳量。一個4歲孩子醒著時看到的視覺資訊,大約是16,000小時。去年發佈的V-JEPA 2模型,就是在相當於一個世紀時長視訊資料上訓練的,雖然字節數更多,但視訊資料的冗餘性正是自監督學習所需的。現實世界資料的結構比文字豐富得多,這也是為什麼LeCun堅稱,只靠文字訓練永遠無法達到人類水平的AI。關於理想化的「世界模型」,LeCun回應了主持人對《星際迷航》全息甲板(Holodeck)的比喻:人們誤以為,「世界模型」必須重現世界所有的細節,這不僅錯誤,還會有害。「世界模型」是在抽象表示空間中的模擬器,只模擬現實中相關的部分。不僅如此,LeCun相信合成資料很有用。但有些基本概念是我們通過經驗習得的,而不是天生的。然而,LLM並不真正理解這些,只是被微調出來給出正確答案,更像是「反芻」而非真懂。炮轟矽谷單一文化針對矽谷LLM狂熱的文化,LeCun的批評尤為尖銳。他指出,AI行業存在一種危險的「羊群效應」——競爭太過激烈,大家都害怕走偏路線而落後,於是OpenAI、Google、Meta、Anthropic等科技巨頭幾乎都在做同一件事。那便是,瘋狂堆疊LLM。這導致,矽谷形成了「單一的文化」,甚至這背後多少帶著點優越感。LeCun警告,一旦深陷「戰壕」,就只能拚命往前衝,因為誰也承擔不起被競爭對手甩開的風險。但更大的風險是,被完全不同方向、出乎意料的一套技術顛覆,它甚至可能解決完全不同的問題。JEPA的理念,即所謂的「世界模型」,恰恰與這條主流路線完全不同,能處理LLM很難應付的資料。LeCun甚至毫不客氣地說——如果你不想變成矽谷口中「被LLM洗腦了」(LLM-pilled)的人,便不會相信這樣一條路徑:只要不停地訓練LLM,用更多合成資料,去授權更多資料,再雇上成千上萬的人來做後訓練,在強化學習(RL)上不斷加點新花樣,你就能一路走到ASI。我認為這完全是扯淡,這條路根本不可能成功!「沒錯,你必須逃離那種文化」。他還透露,即使在矽谷的各家公司內部,也有不少人心裡很清楚:這條路走不通!因此,擺脫這種單一文化,正是LeCun創辦AMI的動因之一。他透露,AMI這家公司是全球性的,總部將設在巴黎,其全球其他幾個地方,包括紐約設立分辦公室。AGI是胡扯「類人AI」還需5-10年當被問及AGI時間線,LeCun先澄清:不存在「通用智能」這種東西!這個概唸完全沒有意義,因為它是被設計用來指代人類水平的智能,但人類智能是超級專業化的。所以AGI這個概唸完全是胡扯。話又說回來,他還是認為,我們會擁有在所有領域都和人類一樣好或更好的機器。「但這不會是一個單一事件,這將是非常漸進的」。他樂觀地預測道,如果未來兩年,能在JEPA、世界模型、規劃等方向取得重大進展。我們可能在5-10年內,看到接近人類智能,也許是狗的智能水平的AI。但這已是極度樂觀。更現實的是,AI歷史上多次出現未預見的障礙,需要我們發明新概念實現超越。那可能需要20年,甚至更久。有趣的是,LeCun認為最難的部分不是從狗到人類,而是達到狗的水平——一旦你達到了狗的水平AI,你基本上就擁有了大部分要素。從靈長類動物到人類,除了大腦的大小差異之外,還缺的是「語言」。語言基本上由韋尼克區(Wernicke area)以及布羅卡區(Broca area)處理。而LLM已經在語言編碼/解碼上表現不錯,或許能充當大腦的韋尼克區和布羅卡區。LeCun稱,我們現在正在研究的是前額葉皮層,那是「世界模型」所在的地方。離職Meta,三周倒計時訪談中,LeCun還談及了Meta AI的重組。他表示,Alexandr Wang並非接替他的位置,而是統管Meta所有AI相關研發和產品,包括四個主要部門:FAIR(長期研究)GenAI Lab(專注前沿LLM建構)AI基礎設施模型轉化為實際產品的部門重磅的是,LeCun透露,自己將在Meta再待三個星期。(估計1月初,正式告別Meta了)FAIR現在由紐約大學Rob Fergus領導,正被推向「更短期的項目」——較少強調發表論文,更多專注於協助GenAI Lab進行LLM和前沿模型的研究。GenAI Lab也有一個首席科學家,專注於LLM,其他組織更像是基礎設施和產品。看得出,Meta重組重心完全放在了LLM,這也是LeCun選擇出來創業的部分原因。此外,LeCun還點評了一些大模型公司,包括SSI、Physical Intelligence、Thinking Machines等。Ilya創立的SSI,甚至包括他們的投資人,都不知道這家公司要做什麼。給年輕人的建議:別學CS訪談的最後,主持人問道,「如果你今天重新開始AI職業生涯,會專注那些技能和方向」?LeCun的回答直擊要害,學習那些「保質期長」(long shelf life)的知識,以及能讓你「學會如何學習」的東西。因為技術演變得太快了,你需要具備快速學習的能力。他開玩笑地說,「保質期長的東西,往往不是電腦科學」。所以,作為一個電腦科學教授,我勸大家別學電腦科學。不過,LeCun還是給出了一些具體的建議,其中包括:深入學習數學(微積分、線性代數、機率論)、建模基礎,尤其是能與現實世界聯絡的數學(工程學科中常見);電氣工程、機械工程等傳統工程專業,能提供控制理論、訊號處理、最佳化等對AI極有用的工具;物理學也是絕佳選擇:物理學的核心就是「如何表徵現實以建立預測模型」——這正是智能的本質;電腦科學只需學到能熟練程式設計和使用電腦的程度(即使未來AI寫程式碼,你仍需懂底層);別忘了學點哲學。LeCun強調,這些基礎能讓你在AI快速變化中始終站穩腳跟,而不是被短期熱點牽著鼻子走。 (新智元)
圖靈獎得主 Yann LeCun:大模型是“死胡同”,下一步押在那一條路?
2025 年 11 月 19 日,圖靈獎得主 Yann LeCun 宣佈:自己將離開 Meta,轉向創辦一家專注 Advanced Machine Intelligence(AMI)的新公司。這不是普通的高管跳槽。(CNBC:Yann LeCun 即將離職,創立自己的初創公司)這點陣圖靈獎得主沒有選擇加入 LLM 的軍備競賽,而是投身一個被冷落多年的方向:世界模型。LeCun 用了一個極端詞語:大語言模型是通往人類智能的“死胡同”(dead end)。在 11 月 23 日的一場題為《Do LLMs Understand?》的公開對談中,他直接指出:LLM擅長語言表達,但缺乏對真實世界的理解。幾乎同時,OpenAI前首席科學家 Ilya Sutskever 在 11 月 25 日的播客中也提出:“Just Add GPUs(拼算力)”的時代結束了。一周之內,兩位元深度學習先驅不約而同地質疑主流路線。這不是偶然,而是技術路線集體轉向的訊號:後LLM時代,正在成形。第一節 | 為什麼他說大模型是死胡同?在討論世界模型之前,必須先搞清楚:為什麼Yann LeCun 會把 LLM 稱為“死胡同”。他給出的答案,比外界以為的更系統。① 模型越來越大,但理解沒有跟上LeCun 的原話是:LLM 在語言層面表現不錯,但它們並不理解世界。沒有常識,也沒有因果關係,只是大量統計相關性的堆疊。換句話說:規模能讓模型更像會說話的人,但不能讓它更像懂世界的人。事實上,Meta 的 Llama 4 就是最好的例證。2025 年 4 月發佈後,它在真實場景中的表現遠不如基準測試,甚至被開發者質疑過度最佳化了評測指標。正應驗了 LeCun 的判斷:語言流暢度提升了,但世界理解力沒有跟上。② LLM的能力天花板,已經在實驗室裡顯露他在公開對話中強調:我們看到性能正在飽和。更大的模型,不一定帶來更高的真實智能。訓練資料正在逼近極限,算力成本呈指數上漲,而理解力卻沒有同步提升。這就是他所謂的死胡同:繼續堆算力,邊際收益越來越低。OpenAI前首席科學家Ilya Sutskever也訪談中表達了類似觀點:單純100倍擴大算力規模,不會帶來質變。③ 語言只是副產品,物理世界才是智能核心他的核心觀點是:語言是人類智能的副產品,不是核心機制。這句話背後的邏輯是:語言只描述世界的一部分,而真正的智能來自對物理世界的建模、預測和行動。但LLM做不到這一點。它們連杯子為什麼不會穿過桌子都不理解。它們知道語言中的規律,卻不知道世界的規律。飛機的設計靈感來自鳥類,但不是簡單模仿鳥類的飛行方式。同樣,智能也不是靠模仿語言表面規律產生的。④ LLM做不到規劃,更做不到行動LeCun 的批判重點在於:LLM 只是在對話裡看起來聰明,但在涉及多步驟推理、長期規劃、具身互動時,能力驟降。他舉了一個刺眼的對比:一個十幾歲的孩子,20小時就能學會開車。 但我們到現在還沒有level 5的自動駕駛。一個孩子第一次就能清理餐桌、裝滿洗碗機。 但我們連能做家務的機器人都沒有。這些對比說明:智能不是說話的能力,而是行動的能力。而這恰恰是LLM的軟肋。LeCun 的邏輯不是反對大模型,而是認為:預測語言這條路走不到終點。要想讓 AI 真正具有理解、推理與行動能力,必須換一套架構。第二節 | 世界模型:下一代AI要如何看世界?如果語言模型無法理解世界,那該怎麼建造真正的智能?LeCun的答案是:讓AI學會看世界。他指出,未來的AI必須像人類和動物一樣,能夠從多模態輸入中建構出對世界的內部理解,然後基於這個理解預測和行動。這種能力,GPT-4沒有,Claude、Gemini也都沒有。但貓有,嬰兒有,人有。① 什麼是世界模型?LeCun 解釋說:我們用預測下一個詞來訓練語言模型,是因為語言中詞彙有限,可以列舉。但真實世界無限豐富,預測像素等級的未來根本不成立。真實世界是高維、連續、混沌的感官流。人類不是通過預測下一個字來理解世界,而是通過觀察、記憶、總結,在腦中形成了一個抽象世界的內部投影。比如:嬰兒不需要有人告訴他重力是什麼,摔幾次東西就懂了貓不需要語言指導,看幾次就知道跳多高能上桌子人類開車20小時就能掌握,靠的不是背規則,而是建立了對速度、距離、慣性的直覺模型LLM缺的就是這個投影空間,它沒有世界的內部表徵。這就是LeCun正在建構的新路徑:Joint Embedding Predictive Architecture(JEPA),聯合嵌入預測架構。② JEPA:一種全新的學習範式JEPA與LLM的核心差異體現在多個層面。在輸入形式上,LLM只處理語言token,而JEPA可以處理視訊、圖像、感測器等多模態資料。在學習目標上,LLM是預測下一個詞,JEPA則是預測抽象狀態的變化。在學習方式上,LLM依靠離散序列建模,JEPA結合了表徵學習和因果建模。最關鍵的是,LLM沒有行動能力,而JEPA天然具備規劃和執行介面。LeCun用了一個形象比喻:用LLM去理解真實世界,就像用聽說來教人開車。你可以背下所有交規,但永遠學不會真正駕駛。因為語言描述不了摩擦力、慣性、視野盲區的感覺,而這些正是行動智能的核心。③ 從模擬世界開始,訓練下一代AILeCun正在AMI推動的,是一種類似動物學習的AI訓練模式:首先在模擬環境中讓AI自主互動,然後從互動中提取因果關係,形成持續記憶,最終具備規劃行動的能力。這種模式不再依賴更多token,而是依賴更好的世界模型。他說:我們不需要能背百科全書的AI,我們需要能用眼睛和手理解世界的AI。如果說 LLM 是語言的大師,世界模型就是物理世界的學徒。Yann LeCun 選擇押注後者。這不僅是技術路線的分叉,更是對 AGI 本質的重新定義。第三節 | 不只 LeCun:另一個方向也在探索在質疑 LLM 這條路的,不只 LeCun 一個人。Sutskever 也認為,縮放時代已經結束,下一代智能需要新的架構基礎。兩位元深度學習先驅達成了共識,但他們給出的答案完全不同。① LeCun押注世界模型,Sutskever押注安全超智能LeCun的方向很明確:讓AI具備對物理世界的理解和行動能力。通過自監督學習、表徵建模、因果預測,建構能夠真正看世界、理解世界的系統。他判斷10年內會出現具身AGI的原型。Sutskever的關注點在另一邊:當前AI系統的泛化能力遠不如人類,在benchmark上表現出色,但在真實場景中容易陷入錯誤循環。這種脆弱性如果不解決,規模越大風險越高。他創立SSI公司,要在AI能力繼續提升的同時,確保其安全可控。一句話總結:LeCun 要教 AI 理解世界和行動,Sutskever 要讓 AI 在變強的過程中可控。② 兩條路線背後的不同關切這種分歧源於兩人的關注焦點。LeCun關心的是 AI 如何有效泛化、如何在現實世界中行動。他強調的是:我們缺的不是算力,也不是資料,而是架構。Sutskever 關心的是 AI 的安全性和可控性。他認為在沒有解決泛化脆弱性之前,單純追求能力提升是危險的。他們代表了後 LLM 時代的兩個方向:架構創新派和安全優先派。過去十年,AI 競爭的是模型規模和訓練資料。但當兩位先驅先後離開大廠時,他們告訴我們:規則變了。下一階段的比拚,是誰先發明新架構、誰的系統既強大又可控。這是一個時代的落幕,另一個時代的起點。第四節 | 一場轉向,正在發生當圖靈獎得主公開質疑主流路線,當 OpenAI 啟動硬體項目、Google 挖來波士頓動力CTO,當數十億美元的投資開始流向具身智能,一個問題浮現出來:後LLM時代,到底會是什麼樣子?① 工業界的悄然轉向雖然 LLM 仍在快速發展,但一些關鍵變化已經在發生。OpenAI的硬體野心正在浮出水面。11月24日,公司確認首個AI硬體原型已完成,這是與蘋果前首席設計師Jony Ive合作的成果。按計畫,這款無螢幕AI裝置將在2年內發佈,徹底改變人與AI的互動方式。Google的多路線策略同樣值得關注。11月18日發佈Gemini 3 Pro,11月21日又挖來波士頓動力前CTO Aaron Saunders,推動Gemini成為通用機器人控制平台。目標是讓同一個模型適配任何形態的機器人,開箱即用。李飛飛的World Labs在融資2.3億美元後,11月12日發佈首個商業產品Marble,一個生成式世界模型平台。具身智能領域更熱鬧:Figure AI 估值390億美元,Tesla Optimus計畫 2026 年開始量產。這些動作指向一個共識:下一代 AI 不會只存在於對話方塊裡。② 兩條路線,都需要時間無論是 LeCun 的世界模型,還是 Sutskever 的安全超智能,都不是短期內能看到成果的方向。LeCun說需要幾年到十年,Sutskever說需要5到20年。這意味著: 當前的 LLM 仍然是主流應用的基礎。GPT、Claude、Gemini會繼續迭代,繼續服務數億使用者。但長期的技術制高點,可能不在這條路上。誰先在新架構上取得突破,誰就掌握了下一個十年的話語權。這是一場需要耐心的馬拉松,而不是百米衝刺。③ 對創業者和開發者意味著什麼?LeCun的轉向傳遞了幾個重要訊號:首先,不要迷信規模。更大的模型不等於更好的智能,架構創新的空間仍然巨大。其次,垂直場景有機會。世界模型最先落地的可能不是通用 AGI,而是機器人、自動駕駛、工業控制這些需要物理互動的領域。第三,開源仍然重要。LeCun一直是開放原始碼的堅定支持者,他的新公司AMI會繼續這條路線,這意味著小團隊也有機會參與到新範式的探索中。最後,要做好長期準備。這不是一兩年就能看到回報的方向,但可能是未來十年最重要的方向。LeCun 說過:真正的智能不在語言表面,而在對世界的深層理解。這不是對 LLM 的否定,而是對 AI 未來的更大想像。大模型已經證明了規模的力量,但下一步的突破,可能來自完全不同的架構。真正的AGI,不會困在對話方塊裡,而會出現在能夠理解世界、執行任務的系統中。這條路上,探索才剛剛開始。 (AI深度研究員)
美國 AI 界巨震!圖靈獎得主 Yann Lecun 離職創業:大語言模型走錯了
不用再猜了,Yann LeCun 本人剛剛證實:他要離開 Meta 創業了。這不是一般的矽谷大佬出走。LeCun 是能讓祖克柏親自登門三顧茅廬的人物,是深度學習三巨頭之一,圖靈獎得主,Meta AI Research 的開山祖師。更特殊的是,他這些年一直在幹一件特別擰巴的事:站在全世界最熱鬧的 LLM 路線門口, 舉著牌子說「這幫人走錯路了」。在離職聲明中,LeCun 透露了更多細節。他正在創立一家初創公司,繼續推進過去幾年在 FAIR、紐約大學及其他地方開展的「高級機器智能」(AMI) 項目。這家公司的目標直指下一次 AI 變革——創造能夠理解物理世界、具備持久記憶、能進行推理並規劃複雜行動序列的系統。值得注意的是,Meta 將成為這家新公司的合作夥伴。LeCun 特別感謝了祖克柏、Andrew Bosworth、Chris Cox 和 Mike Schroepfer 對 FAIR 及 AMI 項目的支援。他強調,之所以選擇獨立實體的形式, 是為了最大化其廣泛影響力。而他本人將在 Meta 工作到今年年底,關於新公司的更多細節,會在合適時機公佈。帖子底下的網友也是紛紛送上祝福。從祖克柏三顧茅廬到如今分道揚鑣,這十二年,LeCun 始終堅持著自己對 AI 未來的判斷。那麼這段旅程究竟經歷了什麼?2013 年那場豪賭,祖克柏賭對了嗎?Lecun 與 Meta 故事得從 2013 年說起。那段時間,正是深度學習蓬勃興起的階段。2012 年,Geoffrey Hinton 與其學生 Alex Krizhevsky、Ilya Sutskever 提交的 AlexNet 在 ILSVRC-2012 一騎絕塵,top-5 錯誤率約 15.3%,這個突破讓整個學術界和工業界都看到了神經網路的潛力。然後就是科技巨頭們的搶人大戰——Google花大價錢收購了 Hinton 所在的創業公司 DNNresearch,順帶把老爺子本人也挖走了;微軟研究院也在瘋狂擴張 AI 團隊。祖克柏坐不住了。Facebook(現為 Meta)當時正在從 PC 網際網路往移動網際網路轉型,新聞推送演算法、照片識別、內容稽核,那那兒都需要技術。但問題是,Facebook 的 AI 能力跟Google、微軟根本不在一個量級。祖克柏需要一個能撐起門面的人物,最好是那種在學術界有足夠份量、能吸引頂尖人才加盟的大牛。他盯上了 Yann LeCun。LeCun 當時在紐約大學當教授,已經幹了十多年。那時的 Lecun 自然不是什麼新人,早在 1989 年,他就在貝爾實驗室搞出了摺積神經網路 (CNN),用來識別手寫數字,這後來也成了電腦視覺的基石。但那個年代深度學習不受待見,LeCun 就這麼冷板凳坐了許久,眼睜睜看著自己的研究被邊緣化。直到 2012 年,Hinton 用深度學習拿下 ImageNet 冠軍,證明了神經網路這條路走得通。LeCun 憋了的那口氣,終於能吐出來了。後續,祖克柏親自登門拜訪。具體談了什麼外人不知道,但最後開出的條件足夠誘人:第一,給錢,主打一個資源自由;第二,給自由,LeCun 可以保留紐約大學的教授身份,繼續教書搞研究;第三,給權,讓他參與建立 Facebook AI 研究院,怎麼招人、做什麼方向,全由他說了算。這對一個憋屈了多年的學者來說,簡直是夢寐以求的機會。2013 年末,LeCun 正式加入 Facebook,出任新成立的 Facebook AI Research(FAIR) 實驗室負責人。他在紐約、門洛帕克和倫敦三地建起了 FAIR 實驗室,自己常駐紐約辦公室。團隊最初規模較小,但個個都是從頂尖高校和研究機構挖來的——LeCun 的號召力在這時候體現出來了,但凡是做深度學習的,沒人不知道「摺積神經網路之父」這個名號。祖克柏給了資源,LeCun 也拿出了成果。加入 Facebook 這些年,LeCun 干的事情可以分成三條線:一是把深度學習塞進 Facebook 的產品裡,二是推動學術界的前沿研究,三是培養下一代 AI 人才。產品線上,2014 年的 DeepFace 人臉識別系統達到 97.35% 精準率,深度學習最佳化的推送演算法也提升了廣告點選率。與此同時,LeCun 自己繼續在學術圈刷存在感:發論文、頂會 keynote、帶學生辦 workshop。直到和 Hinton、Bengio 一起拿圖靈獎, 才算是熬出頭了。此外,在 LeCun 建立的 FAIR 實驗室,Soumith Chintala 主導開發了 PyTorch 框架並於 2017 年開源,這也是 Meta 至今為數不多的形象招牌。PyTorch 動態計算圖、Python 原生介面, 偵錯方便, 學術圈迅速倒戈。這一招等於把全球 AI 研究者都拉進了 Facebook 生態。不過,或許是冥冥中自有天意,Soumith 前不久也宣佈離職 Meta,表示「不想一輩子做 PyTorch」。而更重要的是人才培養。FAIR 有個規矩:研究員可以自由發表論文、跟學術界合作、指導外部學生。頂級資源加學術自由的組合,自然吸引了一批頂尖研究人員。到 2020 年前後,FAIR 已是全球頂尖 AI 研究機構之一, 跟Google DeepMind 並列第一梯隊。祖克柏的那場豪賭, 至少在前七八年就已經得到了不小的回報。貓比 ChatGPT 聰明?這個圖靈獎得主是認真的在 ChatGPT 席捲世界初期,Yann Lecun 和祖克柏也有過一段甜蜜期。2023 年以來,Meta 陸續開源 LLaMA 系列模型,引發業界震動。OpenAI、Google走的是封閉路線,靠 API 賺錢;Meta 卻把模型權重直接扔出來,任人取用。這步棋背後的算盤其實挺清楚:與其讓對手一家獨大,不如用開源贏得開發者生態,讓 LLaMA 成為 AI 界的 Android。至少在明面上,身居 Meta 首席 AI 科學家一職的 LeCun,是這條路線最堅定的擁護者。開源 LLaMA 讓 Meta 在大模型競賽中站穩了腳跟,也讓 LeCun 的 AI 理想得到了一定程度的實現——儘管這個實現的方式,恰恰是通過他並不完全認同的 LLM 技術路線。沒錯,LeCun 一直覺得 LLM 是條死胡同。這才是矛盾的核心。LeCun 不止一次在公開場合炮轟 LLM 路線,在他看來,LLM 只會根據統計相關性預測下一個詞,根本不理解世界。你問它常識問題,它能給你編出一本正經的瞎話——這叫「幻覺」(hallucination),說白了就是不懂裝懂。熟悉 LeCun 的人都知道,他最喜歡舉的例子是貓和機器人:「我們有了會考試聊天的語言模型,但家務機器人在那裡?那怕像貓那樣靈巧的機器人都沒有出現。」「你的貓肯定有一個比任何 AI 系統都更複雜的模型。動物擁有持久記憶的系統,這是目前的 LLM 所不具備的;能夠規劃複雜動作序列的系統,這在今天的 LLM 中是不可能的。」他算過一筆帳:一個 4 歲小孩通過視覺獲取的資訊量,幾年下來就有 10 的 15 次方字節,遠超 LLM 讀遍網際網路文字。但小孩已經掌握了基本的物理直覺和語言,LLM 耗費這麼多資料,智能仍然很有限。「光靠喂文字,不可能達到人類水平智能。這條路永遠走不通。」他如此說道。在當下最火的風口面前,這樣唱反調的言論顯然並不討喜,有人批評他傲慢,有人說他故步自封。甚至 Meta 內部都有聲音認為,正是 LeCun 對 LLM 路線的牴觸,讓公司在大模型競賽中暫時落後。但 LeCun 不在乎。他有自己的路線圖:世界模型 (World Model)、聯合嵌入預測架構 (JEPA)等等。這些概念聽起來學術味十足,核心思想其實很直觀——讓 AI 通過觀察世界來學習,而不是通過閱讀文字來記憶。就像嬰兒成長那樣,先理解重力、因果關係這些物理常識,再逐步建立抽象認知。他設想的 AI 架構是模組化的:感知模組、世界模型模組、記憶模組、行動模組,各司其職。不像 LLM 那樣把所有知識和推理揉在一個巨型網路裡,搞得像個什麼都懂但其實什麼都不懂的「書呆子」。具體來說,世界模型就是讓 AI 在內部學會一個對外部世界的預測模型。就像嬰兒在成長過程中建立起對重力、物體恆存等常識那樣,AI 應該通過觀察世界,形成對物理規律、因果關係的理解。有了世界模型,AI 就可以在腦海中模擬未來,從而具備計畫行動的能力。JEPA 則是實現這個世界模型的具體架構。它採用自監督學習的方法,給 AI 兩個相關的輸入 (比如視訊中相鄰的兩幀畫面),模型將這兩個輸入分別編碼到一個抽象的表示空間中,然後訓練一個預測器,根據「上下文」表示去預測「目標」表示。這種方式避免了直接生成所有細節,而是關注抽象的關鍵因素——更符合人類學習方式。LeCun 曾預言,如果團隊的路線順利推進,三到五年內就會有更好的範式出現,使得現在基於 LLM 的方法過時。問題是,三到五年,Meta 等得起嗎?一場猝不及防的重組,FAIR 的黃金時代結束了當初,LeCun 建立 FAIR 時的承諾是「做長期的、基礎性的 AI 研究」,祖克柏也同意了。但這個「長期」到底有多長?「基礎研究」到底能給公司帶來多少直接收益?這些問題在早期不是問題,因為深度學習本身就是風口,FAIR 做什麼都有望轉化成產品優勢。可隨著生成式 AI 開始爆發,競爭也日益激烈,形勢開始發生了變化,尤其是 Llama 4 的失敗也給了祖克柏當頭一棒。祖克柏要的是現在就能用的技術,不是五年後可能有用的理念。於是,一場猝不及防的重組出現了。就在今年,Meta 搞了個大動作,成立「超級智能實驗室」,把 FAIR、基礎模型團隊和各應用 AI 團隊統統塞進一個筐裡。表面上是整合資源,實際上是一場徹底的權力重組。這場重組的核心邏輯很明確:讓研究直接服務產品,讓科學家為商業目標讓路。FAIR 團隊原本「相對不受干擾地開展研究」,現在得跟著產品節奏走,研究方向要服務於個人 AI 助手。此外,Meta 對 FAIR 的研究發表制定了更嚴格的內部稽核機制。研究員在對外發佈論文、開放原始碼之前,需要經過額外的內部交叉審閱和管理層審批,原因在於 Meta 擔心自己砸錢搞出來的成果被競爭對手白嫖。LeCun 對這些變化表現出強烈的牴觸。據多方報導,他在內部激烈反對新的論文稽核制度,為維護研究自由據理力爭。The  Information 援引知情者的話稱,LeCun 在今年 9 月一度「氣到考慮辭職」以示抗議。但或許更讓他難以接受的是領導權的旁落。祖克柏在重組中做了一個大膽的人事任命:從外部挖來 Alexandr Wang,讓他擔任 Meta 的首席 AI 官,直接向 CEO 匯報。Alexandr Wang 是誰?一個 28 歲的 MIT 輟學生,他創辦的公司 Scale AI 專門做資料標註業務,給各大科技公司的 AI 模型提供訓練資料。祖克柏看中的,恰恰是 Wang 的產品思維和商業嗅覺。在生成式 AI 的競賽中,Meta 需要的不是象牙塔裡的理想主義者,而是能快速把技術轉化為產品的實幹家。這個任命的震撼在於:LeCun 這個圖靈獎得主、深度學習三巨頭之一、在 Meta 幹了十二年的首席 AI 科學家,在新架構下的話語權被大幅削弱,甚至要向 Wang 匯報。同時,今年 7 月,祖克柏還任命了年輕有為的趙晟佳為超級智能實驗室的首席 AI 科學家,負責制定新實驗室的研究方向。有趣的是,LeCun 當時發了個聲明,說自己角色沒變、使命沒變,還期待跟新團隊合作。這求生欲屬實拉滿。但他對於研究方向和領導層重組的分歧,顯然是公開的秘密。而真正可能成為壓垮駱駝的最後一根稻草的,是最近的裁員。據報導,Meta 近期對 AI 團隊進行了裁員,波及到 FAIR 研究部門以及與產品相關的 AI 團隊,甚至華人大佬田淵棟也因此受到了波及。裁員的訊號很明確:Meta 不再願意為「看不到短期回報」的基礎研究買單了。那些不能直接轉化為產品功能、不能立即提升使用者增長或廣告收入的研究方向,都成了被砍的對象。FAIR 的黃金時代結束了。而學術大佬出來單干,最近幾年已經成了矽谷新常態。Hinton 退休後到處演講呼籲 AI 監管,Bengio 也有自己的實驗室和創業項目。LeCun 真出去創業,沒準反而是好事。說到底,這事兒沒有誰對誰錯。LeCun 能夠在 Meta 之外繼續他畢生的事業。他帶走了那個被 Meta「擱置」的願景,可以放開手腳搞自己的世界模型,用自己的方式證明它是正確的,再也不用跟產品經理扯皮,不用向 28 歲的小老弟匯報。成了,那就是「我早說過 LLM 是死路」;敗了,頂多被人嘲笑幾句「你看那個老頑固」。而對於 Meta 來說,祖克柏要給股東講故事,要把最實用的生成式 AI 塞進旗下產品的各個角落,這確實是 CEO 該干的事。只是,儘管少了 LeCun 也不會傷筋動骨,但可能會少點不一樣的聲音。等那天大家發現 LLM 真的走到瓶頸了,回頭看看當年那個舉著反對牌子的倔老頭說過什麼,或許會覺得別有一番趣味。 (愛范兒)
李飛飛和LeCun的世界模型之爭
AGI之路,終於交會到了世界模型的戰場。李飛飛,發佈了旗下首款商用世界模型Marble;幾乎在同一時間,Lecun離職Meta,準備創立自己的世界模型公司;在此之前,Google旗下的世界模型Genie 3,也曾掀起業界轟動。AI界三股大佬力量,雖然同樣進軍世界模型,卻意味著三種截然不同的技術路線賭注—世界模型之爭李飛飛剛剛為空間智能舉大旗的萬字長文發佈,她旗下的創業公司World Labs,就緊鑼密鼓推出了首款商用世界模型Marble。業界普遍認為Marble有商業化潛力,是因為它產生的是持久的、可下載的3D環境。團隊表示,這種方式能顯著減少場景變形和細節不一致的問題,而且還能將生成的世界匯出成高斯斑點、Mesh網格,甚至直接匯出影片。更進一步,Marble還內建原生的AI世界編輯器Chisel,使用者只需一句提示,就能依照自己的想法自由改造世界。對於做VR或遊戲的開發者來說,「一句提示→直接生成3D世界→一鍵匯出到Unity」這樣的鏈路,非常有幫助。然而,Hacker News的一名機器學習工程師指出,比起所謂的世界模型,Marble看起來更像是單純的3D渲染模型。這不就是高斯Splat模型嗎?我在AI產業做了這麼久,到現在都還是搞不懂「世界模型」裡的「世界」究竟指什麼。Reddit網友的說法則更直接:用高斯散射、深度和影像修復把圖片轉成3D環境,確實很酷,但這就是一組3D高斯生成流水線,不是機器人的大腦。這裡的高斯潑濺,指的是近幾年3D建模裡最火紅的一類新技術。它把一個場景表示成成千上萬個漂浮在空間中的彩色模糊小斑點(也就是高斯),再把這些斑點“潑濺”到螢幕上,讓它們自然融合成一張圖像。可以這麼理解:高斯就像是漂浮在立體空間、半透明、有光暈、邊緣柔軟的小氣泡。單一氣泡當然軟乎乎的成不了形,但如果成千上萬個這樣的氣泡聚在一起,再從不同角度渲染出來,就能組合出一幅精美的三維畫面。這樣做,不需要像傳統攝影測量那樣走複雜的建模流程,雖然犧牲了一些精確度,但速度極快,而且操作更輕鬆。Marble採取的正是這樣一種路徑。然而,這也意味著,Marble可能不是大家想的那種、可以直接用於機器人訓練的「世界模型」。Marble確實建構了一個完整世界,但我們看到的其實只是一個能被渲染器直接轉成像素的檢視。換句話說,它捕捉的是「表面是什麼樣子」,而並沒有內建「這個世界為什麼會這樣運作」的物理規律。這對人來說完全夠用了,但對機器人來說,重要的其實不是這些視覺訊息,而是背後的因果結構——例如,一放在斜坡上的球會滾下來,這對人類來說是看一眼就懂的事;但機器人想做出類似判斷,還需要質量、摩擦、速度……這些資訊在Marble里根本不存在。或許正是因為如此,在Marble自己的部落格上,雖然屢屢提及“世界模型”與“匯出高斯散射體、網格和視訊”,但幾乎完全沒有提到機器人。不過在商業化層面,Marble明顯更具優勢。相較於AI圈熱議的那類、可孕育具身智能世界模型,Marble已經不是一個遙遠的概念,而是一款能夠立刻融入遊戲開發者日常工作流程的實用工具。但這也不禁令人有些黯然,難道那條能通往AGI的「世界模型」之路,只是個噱頭嗎?當然不是。確實存在著能與機器人真正互動的世界模型,例如——LeCun的JEPA。LeCun所理解的「世界模型」,根子並不在3D圖形學,而是在控制理論和認知科學。它不需要輸出漂亮的畫面,因為你根本「看不到」這種世界模型。這類世界模型的任務,不是渲染精美的像素,是讓機器人能提前想幾步,學習在行動前預判世界的變化。JEPA走的正是這條路——LeCun認為,對AI來說,只有中間那個抽象表徵才重要,模型沒必要浪費算力去產生像素,只要專注於捕捉那些能用於AI決策的世界狀態。所以,這類模型雖然沒辦法像Marble那樣生成精緻的3D影像,看起來不那麼「驚豔」,但它更像是在訓練機器人的「大腦」。其優勢在於對世界更本質的理解,因此,更適合作為機器人的健身房。這麼一對比,李飛飛和LeCun在「世界模型」上的路線幾乎南轅北轍——前者做的是一個前端資產產生器;後者則更像一個後端預測系統。而在這二位神仙打架的中間,還站著一位科技巨頭——Google。今年8月,GoogleDeepMind推出了新版世界模型,這就是Genie 3。只要一句Prompt,模型就能產生一個可互動的影片環境,使用者可以在其中自由探索數分鐘。最令人印象深刻的是,Genie 3首次在這一類模型中解決了長時一致性的問題——不會再出現那種「轉個身整棟大樓消失」的狀況。同時,它也支援觸發世界事件,例如「開始下雨」「夜幕降臨」等,整個過程就像一款由模型而非傳統引擎驅動的電子遊戲。不過,Genie應該更像一款「世界模型式影片產生器」。儘管Genie 3讓「世界動了起來」,它的核心仍然是視訊邏輯,而非JEPA那種基於物理和因果的邏輯。也就是說,它雖然可以產生動態畫面,但也無法完全「理解」這些畫面背後的物理規律。依然可以用於機器人訓練,但不如JEPA那樣直擊本質。同時,畫面品質和解析度也有限,難以與Marble那種高精度、可匯出的3D資產相提並論。綜上來看,三種「世界模型」雖然都在描繪「世界」,但理解路徑完全不同,也因此各有千秋——Marble渲染「世界長什麼樣子」,Genie 3展示「世界怎麼變」,JEPA則探究「世界的結構是什麼」。而市面上幾乎所有的「世界模型」,大致也都可歸入這三種範式:世界模型金字塔第一種:世界模型即介面以Marble為代表,它讓人們能夠從文字或二維素材,直接產生可編輯、可分享的三維環境。在這個模式下,「世界」是呈現在VR頭戴裝置、顯示器或電腦螢幕上的那片可供人觀賞與遊走的空間。第二種:世界模型即模擬器:以Genie 3為代表,這類模型能產生連續、可控制的視訊式世界,讓智能體在其中反覆嘗試、失敗、再嘗試。像SIMA 2這樣的智能體,便可把這類世界當作「虛擬健身房」。第三種:世界模型即認知框架以JEPA為代表,這是一種高度抽象的形式,沒有像前兩種一樣可供人欣賞的畫面。在這裡,焦點不在於渲染,「世界」以潛在變數和狀態轉移函數的形式呈現,可以說是機器人完美的訓練基地。在智源學者趙昊看來,其實可以將三者拼裝為「世界模型金字塔」——自下而上依序是李飛飛、Genie 3、Lecun。站在地面仰望這座金字塔:越往上,模型越抽象、越貼近AI的思考方式,因此更適合用於機器人訓練與推理;越往下,模型在外觀、互動與視覺化等方面對人類來說更真實,但更難被機器人理解。 (量子位元)
65歲圖靈巨頭離職創業!LeCun憤然與小扎決裂,Meta巨震
AI圈爆出大瓜!65歲圖靈巨頭LeCun即將離職Meta,與小扎正式決裂。接下來,他將投身「世界模型」開啟創業下半場。圖靈巨頭LeCun真的要跑路了!剛剛,FT獨家爆料,現任Meta首席AI科學家LeCun,決定將在未來幾個月離職。下一步,開啟人生創業的第二階段。消息一出,瞬間引爆全網。此前,坊間傳聞稱,LeCun因不滿內部架構調整想要離職。如今,65歲的圖靈巨頭,終於做出了這個決定。據稱,LeCun將要成立的新公司主要推進「世界模型」,目標直指真正的人類級智能。目前,他正在進行早期的融資洽談。網友盲猜,LeCun離職可能和會見吳恩達有所關聯任職12年,從創辦FAIR實驗室,到拿下圖靈獎,再到篤定的世界模型,LeCun出走對於Meta來說,是一次巨震。或許,小扎的超級智能夢,真的要碎了。有網友表示,這並不意外。另有人調侃道,「要始終向一個孩子匯報工作,LeCun的自尊心怎麼不會受到傷害呢」。不得不說,這事兒來的太突然,但卻早有苗頭。當前,正值Meta對公司AI業務進行大刀闊斧的改革之際,希望開發出更強大的AI,挑戰OpenAI、Google等競爭對手。今年初,Llama 4發佈翻車,且性能遠不及ChatGPT、Gemini等模型。而且,Meta AI聊天機器人推出後,許多人並不買帳。在認定Meta在競爭中落後之後,小扎的戰略重心也隨之改變——從LeCun領軍的FAIR實驗室,轉向更快推出模型和AI產品。先是今年4月,小扎斥資143億美元聘請了28歲Alexandr Wang,去領導全新「超級智能」團隊。在此過程中,他親自組建TBD Lab,開出高達1億美元的薪酬包,從Google、OpenAI搶人。其中包括,ChatGPT的核心研究員Shengjia Zhao,被挖來出任MSL首席科學家。目標很簡單,推動其下一代大語言模型的開發。僅在今年,Meta內部就進行了超4次架構調整和最佳化,並將MSL分立出四大部門,全部由Alexandr Wang掌舵:1. TBD Lab (To Be Determined,待確定,負責探索/先導研究)2. FAIR (Fundamental AI Research,長期前沿研究)3. 產品和應用團隊 (含Meta AI助手等)4. 基礎設施 (訓練與推理的算力、資料與平台)因此,此前向首席產品官Chris Cox匯報的LeCun,現在轉而向Wang匯報。不僅如此,LeCun長期領導的FAIR也逐漸被邊緣化,向比他小30多歲的Wang匯報,包括論文,也需得到審批後才可發表。另一方面,LeCun認為小扎置於其戰略核心的LLM雖然「有用」,但永遠無法像人類一樣進行推理和規劃。在FAIR內部,LeCun也一直專注於開發「世界模型」,但在短期內,是看不到KPI的。而小扎現在要的是,立即就能變現的AI產品。看得出,LeCun所堅持的路線和個人觀點,與Meta的AI願景出現了明顯的分歧。種種因素的疊加,早已成為LeCun離職的導火索。而現在,就是最好的時機。全力押注「世界模型」慶幸的是,LeCun終於可以在「世界模型」上大展身手了。一直以來,他堅信大模型最終沒有出路,永遠學不會真正的推理和規劃,也根本無法通往AGI。LLM不如阿貓阿狗,LeCun已在多種公開場合中多次提出。在他看來,AI的終局就是「世界模型」。前段時間,他在MIT訪談中直言,未來3-5年內,「世界模型」會成為AI架構的主流模型。這話可讓我在矽谷得罪了不少人,包括某些巨頭公司。到那時候,但凡頭腦清醒的人,都不會再用現在這種生成式LLM的路子了。世界模型不僅僅學習語言,還通過視訊和空間資料,來理解物理世界。直白講,它讓AI可以像嬰兒一樣,從觀察中學習世界的規律。不過,LeCun表示,開發出這個架構需要十年的時間才能成熟。即便時間漫長,他終於可以堅定按著目標方向前進了。未來幾個月,LeCun將正式離職Meta,下一步計畫將專注於深化在「世界模型」領域的研究。AI掌舵人出走,這意味著,FAIR實驗室就徹底被邊緣化了。圖靈巨頭,開啟AI革命1960年7月8日出生的Yann LeCun,在法國巴黎的郊區長大。他的姓氏原本是Le Cun,但他發現美國人常對此感到困惑,將Le誤作他的中間名,於是便去掉了中間的空格。他的父親是一名工程師,在LeCun充滿修補創造的童年中,將自己對電子和機械的熱愛傳給了他。青少年時期,LeCun既喜歡在樂隊中演奏,也熱愛科學與工程。後來,他在法國精英工程師學校之一的巴黎高等電子與電工工程師學院(ESIEE Paris)獲得了相當於碩士的學位。在那裡,他專注於微晶片設計與自動化。他從本科時代就開始獨立進行機器學習研究,並將其作為他在索邦大學(當時稱為皮埃爾和瑪麗·居里大學)博士階段的核心工作。LeCun的研究與Geoffrey Hinton獨立做出的發現高度相似。與Hinton一樣,他被當時尚屬非主流的神經網路人工智慧方法所吸引;也與Hinton一樣,他發現可以通過使用後來被稱為「反向傳播」的演算法來有效訓練輸入和輸出節點之間中間層的「隱藏」神經元,從而克服簡單神經網路眾所周知的侷限性。1985年在法國阿爾卑斯山區舉辦的一場研討會,首次讓LeCun與從事相關研究的國際學術界有了直接接觸。正是在那裡,他結識了Hinton的密切合作者Terry Sejnowski。當時,Sejnowski關於反向傳播的研究尚未發表。幾個月後,Hinton到訪巴黎,並主動向LeCun作了自我介紹。再之後,LeCun則受邀參加卡內基梅隆大學的夏季研討會,並在多倫多Hinton新成立的研究小組進行了一年的博士後研究。1988年,博士後研究結束時,LeCun加入了著名的電腦科學研究中心——貝爾實驗室。在貝爾實驗室,LeCun的工作專注於神經網路架構和學習演算法。他影響最為深遠的貢獻是一種名為「摺積神經網路」的新方法。這是他早期成就的延伸,因為摺積網路依賴反向傳播技術來訓練其隱藏層。除了開髮捲積方法,LeCun還率先將其應用於「圖Transformer網路」,用於識別印刷體和手寫文字。這項技術被用於一個廣泛部署的系統,以讀取支票上的手寫數字。他在貝爾實驗室的另一項主要貢獻是開發了「最佳腦損傷」(Optimal Brain Damage)正則化方法。這個名字生動的概念旨在通過移除神經網路中不必要的連接來簡化網路。如果操作得當,這種「腦損傷」可以產生更簡單、更快速的網路,其性能與完整版本相當甚至更優。1996年,在電腦行業未能立足的AT&T公司,將貝爾實驗室的大部分業務及其電信硬體業務分拆成立了一家新公司——朗訊科技。LeCun留在了AT&T,負責一個專注於圖像處理研究的實驗室小組。在那裡,他的主要成就是DjVu圖像壓縮技術。2003年,LeCun離開工業界,前往紐約大學庫朗數學科學研究所擔任電腦科學教授。在紐約大學,LeCun負責計算與生物學習實驗室,繼續他在機器學習演算法和電腦視覺應用方面的工作。他至今仍在紐約大學任教,儘管隨著聲譽日隆,他又增添了幾個新頭銜和額外職位。到2010年代初,各大科技公司競相部署基於神經網路的機器學習系統。與其他頂尖研究人員一樣,LeCun也受到了科技巨頭的青睞。2013年12月,他加入Facebook並建立了FAIR(Facebook AI Research),同時,他也還兼顧在紐約大學的工作。2018年,他卸任主任一職,轉任Facebook首席人工智慧科學家,專注於戰略規劃和科學領導力。同年,他與Geoffrey Hinton和Yoshua Bengio,共同獲得了圖靈獎。時至今日,LeCun一直保持著對動手創造的熱愛,他的愛好包括製造飛機、電子樂器和機器人。或許,這也是他在65歲時,毅然決定下海創業的動力之一。 (新智元)
AI六巨頭罕見同台!李飛飛激辯LeCun,黃仁勳:你們都錯了
【新智元導讀】AI革命真實不虛,但通往終局的地圖,連繪製它的人都一無所知。近日,Yann LeCun、李飛飛、黃仁勳、Geoffrey Hinton、Bill Dally,以及Yoshua Bengio六位AI領域的頂尖人物,因共獲伊麗莎白女王工程獎而齊聚一堂,展開了一場關於人工智能的巔峰對話。人類群星閃耀之時!當這6個人聚在一起,坐而論道的時候,你就知道事情並不簡單!這次訪談非常寶貴,能把這6位AI天團巨佬湊在一起。本周,輝達CEO黃仁勳、Meta首席AI科學家Yann LeCun,以及頂尖電腦科學家Yoshua Bengio、Geoffrey Hinton、李飛飛和Bill Dally共同榮獲本年度伊麗莎白女王工程獎。在這次訪談中,大佬們各自分享了自己職業生涯中的頓悟時刻。這些「啊哈」時刻不僅為他們指明了研究方向,也徹底改變了人類社會科技的方向。而這次6個人都圍繞著一個核心問題展開激辯:我們人類,是真的處於一場真實的AI產業革命之中?還是AI是一個即將破裂的,史上最大的泡沫?四十年等待,只為一個「頓悟」時刻主持人說他們是這個星球上最傑出、最有影響力的6個人。這絕非誇大其詞。這場AI革命從何而來?答案不是某個天才的靈光一閃,而是一群人的漫長堅守。思想的火花,在40年前就已點燃。AI教父Geoffrey Hinton回憶起1984年,他用當時極其簡陋的計算機,訓練一個微型模型來預測序列中的下一個詞。「我發現它竟然能學到字的意思!」他說。這,就是今天所有大語言模型最原始的雛形。一個在黑暗中被點亮的、穿越了40年時光的想法。Yann LeCun則坦言,年輕時是個「懶惰」的工程師,不想一行行程式設計去創造智能,而是著迷於「讓機器自己學會智能」。這個看似偷懶的想法,正是機器學習的核心哲學。但光有想法還不夠,革命需要燃料和引擎。時間來到2006年,當時還是年輕教授的李飛飛發現,所有演算法都受困於一個問題:數據太少了。一個孩子在成長中會看到大量的訊息,而我們的機器卻在資料荒中挨餓。於是,她和團隊做了一件在當時看來無比瘋狂的事——耗時三年,手動標註了1500萬張圖片,創建了名為ImageNet的數據集。這桶「燃料」被澆灌到AI領域後,瞬間引燃了整個產業。同時,在輝達,黃仁勳和他的同事們也在打造一個越來越強大的「引擎」。他們最初為遊戲設計的GPU,意外地被發現是進行深度學習計算的完美工具。2010年,在一個歷史性的早餐上,史丹佛的吳恩達教授告訴輝達的科學家Bill Dally,他用了16,000個CPU在網路上辨識貓。Bill Dally和同事回去後,用短短48個GPU就復現了實驗。那一刻,他頓悟了:「我們應該為深度學習製造專門的GPU。」這些故事串在一起,就是一部AI誕生的「前傳」:思想的火花在AI寒冬中,早已點燃,只待數據的燃料和算力的引擎到位,一場革命便無可阻擋。六人頓悟時刻(精華版)Yoshua Bengio讀到Hinton早期論文。直覺:或許有如物理定律般的簡單原則解釋智能、建造智能機。ChatGPT出現兩年半後警覺:機器理解語言、有目標、卻難控。若更聰明或被濫用怎麼辦?於是轉向安全與對策研究。Bill Dally90年代末「內存牆」頓悟:用「流」連接內核,做更多算術、少訪存。為GPU計算奠基。2010年與吳恩達早餐:Google用16000 CPU找「貓」。受其啟發,2011年與同事用48 GPU復現。結果驚人:下定決心讓GPU專用於深度學習,並持續優化。Geoffrey Hinton1984年做小型語言模型:用反向傳播預測下一個詞。模型自動學到詞義特徵及交互作用。思想與今天的LLM相同,只是很小、樣本僅100。阻礙在於算力與數據不足。但當時並不自知。Jensen Huang(黃仁勳)Fei-Fei Li(李飛飛)Yann LeCun(楊立昆)好了,歷史講完,回到當下最尖銳的問題:輝達市值衝上雲霄,全世界都在談論AI,這一切到底是真實的價值,還是另一個網路泡沫?對此,黃仁勳給了一個堪稱絕妙的答案。在21世紀初的網路泡沫時期,整個產業鋪設了巨量的光纖,但其中絕大多數都是未被點亮的「暗光纖」,需求遠遠跟不上建造。而今天,幾乎你能找到的每一塊GPU,都在被點亮並投入使用。為什麼?因為AI從根本上改變了「價值」的生產方式。老黃表示,我們正在創造一個全新的產業,一個智慧工廠。過去的軟體是「工具」,你買來使用即可。而AI,第一次,成為了「生產力」本身。它不是內容,而是即時生成的智慧。你不能提前生產好智能,再把它存起來。每次你問ChatGPT問題,它都在為你「生產」答案。這個生產過程,需要龐大的運算能力,就像工廠需要機器和電力一樣。因此,我們需要價值數千億美元的「AI工廠」(資料中心),來服務一個建立在智慧之上的、價值數兆美元的全新產業。我們正處於建構這個產業的初期,怎麼會是泡沫呢?換句話說,這是繼農業革命、工業革命之後,一場全新的「智慧革命」的基建時期。我們正處於為新世界鋪設水力發電煤氣管道的階段,而需求,才剛開始。不過李飛飛和LeCun當場還進行了一場「辯論」。李飛飛強調AI仍然是一個非常年輕的領域,除了語言之外,還存在著廣闊的「空間智能」等前沿領域有待開拓。Yann LeCun則指出,泡沫在於「認為目前的大語言模式範式最終能夠發展到人類層級的智慧」這個想法,他個人並不相信,並認為需要根本性的突破。終極的未來,「人類級AI」還有多遠?這是整場對話最精彩的高潮。當被問及「我們離那種與人類相當的智慧還有多遠」時,桌邊的六位大腦,給出了六幅截然不同的未來圖景。「務實派」黃仁勳這個問題不重要,而且它已經發生了。已有足夠“通用智能”轉化為大量有用應用。是否「人類級」並不重要;關鍵在於持續應用解決重大問題。他認為,我們已經擁有了足夠強大的AI,可以解決大量現實問題。糾結於一個學術上的「奇點」定義沒有意義。科技正在以驚人的速度進步,我們應該專注於應用它。「合作派」Bill Dally這壓根就是個錯誤的問題。他說,我們的目標從來不是創造AI來取代人類,而是「增強」人類。就像飛機一樣,它會飛,但它和鳥的飛行方式完全不同。AI將是我們強大的助手,幫助我們處理我們不擅長的事(例如記住22,000種物體),讓我們能專注於創造、共感等獨屬於人類的領域。AI 擅長分類、解難題;人類擅長創作、同理心、社交。是否「人類級」並不確定,但助力巨大。「開拓派」李飛飛:她認為我們甚至還沒搞懂「智能」的全貌。機器將在部分維度「超人」(如辨識2.2 萬物體、翻譯百種語言),但不會與人類智慧同形。像飛機會飛,但不像鳥。人類智能仍是核心。她提醒我們,人類的智能遠不止語言。我們在空間感知、與物理世界互動方面的能力,是今天最強的AI也望塵莫及的。她說,AI作為一門學科才70多年,物理學已經400多年了。「還有廣闊的前沿等待我們去征服。」「懷疑派」Yann LeCun靠現在這條路,走不到終點。不會是單一時刻。不同能力會漸進擴展。未來5–10 年或出新範式,整體會比想像更久。他直言不諱地指出,當前的大語言模型範式,無法通往真正的人類級智慧。我們需要一些「根本性的突破」,才能創造出那怕和貓一樣聰明的機器人。「我們仍然缺失了某些非常重要的東西。」「預言派」Geoffrey Hinton他給了一個具體的時間──20年。這位AI教父用一個非常具體的標準定義了問題:「多久以後,你和一台機器辯論,它永遠都能贏你?」他的答案是:「我相當肯定,在20年內我們會做到。」「敬畏派」Yoshua Bengio充滿不確定性,但警惕指數級加速。他認為最終AI可做「幾乎人類能做的一切」。但時間高度不確定,人類應做好預案。他認為未來難以預測,但有一個「遊戲規則改變者」──當AI開始具備自己研究AI的能力。那時,AI將成為自己的「加速器」,自我迭代的速度可能遠超乎我們的想像。AI時代傑出的6個人雖然這些大佬都無人不知,無人不曉,但還是簡單介紹一下他們。這六位大佬涵蓋了從硬體、體系結構、平行計算、基礎理論與演算法到大規模視覺資料等多個維度,他們的貢獻協同推動了今日AI與工程系統的巨大飛躍。Jensen Huang,黃仁勳,輝達聯合創辦人兼執行長。從3D圖形時代起便領導輝達,並推動了人工智慧運算平台的轉型。Yann LeCun,楊立昆,法國電腦科學家,現任Meta首席AI科學家,長期兼任紐約大學(NYU)教授。他是現代深度學習史上的重要人物之一。Geoffrey Hinton,傑佛瑞·辛頓,被譽為「深度學習之父/人工智慧教父」之一。老爺可以說是現在AI領域第一人,任何介紹都多餘。Yoshua Bengio,約書亞‧本吉奧,加拿大電腦科學家、蒙特婁大學教授、蒙特婁學習演算法研究所(MILA)科學主任,被稱為深度學習的關鍵人物之一。Fei-Fei Li,李飛飛,在電腦視覺、大規模資料集建設和以人為本的AI方面影響深遠。主導創建了著名的大規模視覺資料庫ImageNet。Bill Dally,比爾‧達利,美國電腦科學家、教育家,曾任麻省理工學院教授、史丹佛大學系主任,後來加入輝達擔任首席科學家和資深副總裁。他在高性能並行電腦體系結構、互聯網、路由/同步/通訊機制等方面做出基礎性研究。(新智元)