#Hinton
AI教父Geoffrey Hinton,全球第二個百萬引用科學家!
【新智元導讀】Hinton百萬引用的背後,是數篇奠基「現代人工智慧」的不朽之作!見證歷史!剛剛,AI教父、圖靈獎巨頭Geoffrey Hinton論文被引數正式破100萬!他是繼Yoshua Bengio之後,全球第二位論文引用量突破百萬的學者。學術地位無可撼動!一時間,學術界的大牛們,紛紛為Hinton送上了祝賀。百萬被引,世界第二人兩個月前,Nature曾發文:Bengio成為世界首位被引數超100萬的研究者。這一紀錄被很多人視作AI時代的學術註腳。目前,Google學術顯示,Bengio被引次數已達到103.6萬!如今,Hinton被引數迅速突破百萬門檻,更像是同一條浪潮的回聲:深度學習的核心理論與方法,正在被前所未有的研究規模「持續引用、持續放大」。不僅如此,同為圖靈獎三巨頭的Yann LeCun的被引數也達到了恐怖的45萬級。傳奇仍在續寫這一成就,植根於Hinton數十年來持續不斷的學術積澱。可以說,讀懂他的全部研究,相當於掌握了深度學習的發展脈絡與演進史。Hinton的代表作列表,會有一種強烈的既視感,其中有幾篇「時代級論文」的引用數格外醒目:AlexNet(ImageNet 2012):18萬+引用,深度學習大規模視覺突破的重要標誌AlexNet讓神經網路第一次以壓倒性優勢贏下大規模視覺競賽,直接點燃了深度學習在工業界的信心。更重要的是,它把「資料+GPU+端到端訓練」的路線寫成了可復用的範式,從此視覺、語音、推薦都開始沿著同一套工程邏輯加速迭代。Deep Learning(Nature 2015):10萬+引用,三巨頭合著,成為無數論文的共同起點Deep Learning更像一本「統一語言的說明書」,把分散在不同子領域的研究線索串成框架:神經網路為什麼能學、怎麼訓練、能解決什麼問題、還缺什麼關鍵環節。t-SNE可視化(2008):6萬+引用,直到今天仍是科研可視化的常用工具t-SNE改變了研究者理解模型的方式,比如高維特徵怎麼分簇、類別邊界怎麼形成、錯誤樣本為什麼混在一起。它把這些「黑箱內部的形狀」變成可直觀看到的圖像。Dropout(2014):6萬+引用,訓練神經網路時的「基礎操作」Dropout把「泛化」這件事從玄學變成了操作:訓練時隨機丟棄部分神經元,逼著網路學到更穩健的表示,減少過擬合。甚至,很多人第一次接觸深度學習的訓練技巧,學到的就是它。這些高被引論文覆蓋了從理論到技巧、從模型到工具的多個層面:它們不只提供答案,還定義了「怎麼提問、怎麼驗證、怎麼訓練、怎麼呈現」。在AI浪潮中,Hinton的早期貢獻如今支撐著ChatGPT、Gemini等大模型的運行。Bengio作為首位破百萬者,開啟了這一時代;Hinton的加入,進一步鞏固了深度學習在學術界的霸主地位。最近,Hinton還在一期演講中表示,大模型(LLM)的運作宛如人腦,是一個通過資料自我演化的「黑箱」。其智能源於從資料中學習,並調整數兆連接的強度。正因如此,其內部認知過程,在很大程度上仍是個謎。因此,這一領域仍需未來的AI研究者們持續探索、不斷突破。學術經歷Hinton 1947年生於英國倫敦,出身學術世家,其曾曾祖父喬治·布林,開發了二元推理系統「布林代數」,構成了現代電腦的基礎。1970年,他從劍橋大學國王學院獲實驗心理學學士學位,後轉攻電腦科學;1978年於愛丁堡大學獲博士學位,師從Christopher Longuet-Higgins,博士論文聚焦於連接主義模型的語義學習。職業生涯早期,Hinton在加州大學聖迭戈分校和卡內基梅隆大學任教,但因神經網路在當時被主流AI社區視為「死胡同」,他於1987年轉至加拿大多倫多大學電腦科學系任教,直至2023年退休。在多倫多,他組建了神經計算與自適應感知實驗室(Neural Computation and Adaptive Perception Lab),培養了眾多AI精英。2013年起,他兼任Google腦(Google Brain)副總裁,推動工業級深度學習落地,如語音識別和圖像分類。Hinton的堅持源於對生物大腦啟發的信念:在AI寒冬期,他通過反向傳播(backpropagation)最佳化多層網路,並在2006年提出深度信念網路(Deep Belief Networks),利用無監督預訓練解決梯度消失問題,最終引發深度學習復興,催生了AlexNet等標誌性突破。2018年,Hinton與Yann LeCun和Yoshua Bengio共同獲圖靈獎,表彰他們在深度神經網路概念性及工程性突破方面的開創性貢獻,特別是其工作奠定了現代AI的核心演算法基礎,使電腦能夠從海量資料中自主學習複雜模式。2024年,Hinton與約翰·霍普菲爾德(John Hopfield)共同獲諾貝爾物理學獎,表彰他們在人工神經網路上的基礎發現和發明,這些工作啟用了機器學習技術,包括霍普菲爾德網路和玻爾茲曼機,也是諾貝爾物理學獎首次頒給非傳統物理學家。AlexNet開啟深度學習時代2009年,李飛飛啟動ImageNet項目,提供大規模標註資料集,促進特徵學習和分類研究。在AlexNet提出前,電腦視覺主要依賴手工設計的特徵(如SIFT、HOG),淺層機器學習模型難以處理ImageNet的1000萬圖像和1000類複雜任務,導致錯誤率停留在25%-30%(Top-5)。2012年,Alex Krizhevsky、Ilya Sutskever和Geoffrey Hinton於2012年發表在NeurIPS會議,提出了一種大型深度摺積神經網路(CNN)AlexNet,用於ImageNet LSVRC-2010競賽的圖像分類任務。論文連結:https://proceedings.neurips.cc/paper/2012/file/c399862d3b9d6b76c8436e924a68c45b-Paper.pdf 引用次數:188837雖然深度神經網路也曾流行於90年代,但因計算資源不足、梯度消失和過擬合而衰退。隨著GPU計算能力的提升(如NVIDIA CUDA),為訓練大型網路提供了硬體基礎,AlexNet借此成功證明深度CNN在海量資料和強大硬體支援下可實現突破,結束了「特徵工程」時代,開啟深度學習復興。AlexNet網路包含8層(5個摺積層+3個全連接層),擁有6000萬個參數和65萬個神經元,使用ReLU啟動函數、非飽和神經元、Dropout正則化、資料增強和多GPU訓練等創新技術。在測試集上,Top-1錯誤率37.5%、Top-5錯誤率17.0%,大幅優於當時最先進方法;在ILSVRC-2012競賽中,Top-5錯誤率僅15.3%,遠超第二名26.2%。這篇論文標誌著深度學習革命的開端,推動CNN成為電腦視覺主流,推動了從手工藝特徵向端到端學習的轉變。AlexNet架構啟發了VGG、ResNet等後續模型,廣泛應用於目標檢測、分割和生成等領域,並促進了GPU加速和大規模資料集的使用,重塑AI研究格局。三巨頭合著到了2015年,雖然深度學習已經在學術界引起轟動,但在更廣泛的科學領域(如《Nature》的讀者群體),大家仍對其背後的原理、潛力以及它與傳統機器學習的區別缺乏系統認知。在人工智慧「大爆發」的前夜,由三巨頭聯合發表於Nature,向全世界科學界系統性地定義了什麼是「深度學習」。論文連結:https://www.nature.com/articles/nature14539 引用次數:107646文章深入淺出地解釋了深度學習區別於傳統方法的關鍵點:表徵學習 (Representation Learning):深度學習的核心是自動學習特徵,通過多個處理層,將原始資料(如像素點)轉化為更高層次、更抽象的表達。反向傳播演算法 (Backpropagation):論文詳細描述了系統如何通過計算誤差梯度,從輸出層向輸入層反推,更新每一層神經元之間的權重(Parameters),從而實現學習。核心架構:摺積神經網路 (CNN)專門用於處理具有空間結構的資料(如圖像、視訊),利用了自然圖像的統計特性(局部相關性和平移不變性);循環神經網路 (RNN):專門用於處理序列資料(如文字、語音),能夠處理變長的輸入流。這篇文章總結了過去三十年的探索,並開啟了我們現在所處的「大模型時代」。t-SNE特徵可視化t-SNE(t-distributed Stochastic Neighbor Embedding)論文發表於2008年,解決了資料科學領域一個核心痛點:如何讓昂貴、複雜的高維資料變得肉眼可見?在此前,研究人員主要使用主成分分析(PCA)或傳統的隨機鄰域嵌入(SNE)來降維,但PCA在處理非線性資料(如流形結構)時效果很差,SNE在將高維空間的資料對應到低維(2D/3D)時,空間會變得極其擁擠,導致不同類別的簇混在一起,無法分辨。論文連結:http://www.jmlr.org/papers/volume9/vandermaaten08a/vandermaaten08a.pdf 引用次數:63932t-SNE的做法是:在高維空間中使用高斯分佈來衡量點與點之間的相似度。如果兩個點離得近,它們被選為鄰居的機率就高;在低維空間中,改用 Student t-分佈(自由度為 1)而非高斯分佈來衡量相似度,因為t分佈的尾部比高斯分佈更「胖」,強制讓原本在低維空間中距離較遠的點被推得更遠,從而有效地解決了「擁擠問題」,讓不同的資料簇(Cluster)在視覺上分界非常明顯。t-SNE發表後,迅速成為高維資料可視化的行業標準,常見的場景包括觀察模型隱藏層提取的特徵(MNIST手寫數字自動聚成不同的團),在單細胞測序中識別新的細胞種類等。不過t-SNE也有一些侷限性,如計算量大,處理超大規模資料集時速度較慢(後來有了FIt-SNE等加速版本);雖然保證了局部結構,但簇與簇之間的遠近距離並不一定代表真實的全域差異;演算法對超參數敏感,需要多次偵錯。正則化神器DropOut論文連結:https://dl.acm.org/doi/abs/10.5555/2627435.2670313 引用數:608952014年,深度神經網路由於強大的建模能力而初顯鋒芒、但同時也深受「過擬合(Overfitting)」困擾。隨著網路層數和參數量的劇增,模型極其容易對訓練資料產生「死記硬背」的傾向,導致在面對未知資料時泛化性能極差。雖然此前已有如權重衰減(Weight Decay)等正則化手段,但它們在處理超大規模網路時往往力不從心。此外,雖然整合學習(Ensemble Learning,融合多個不同模型的預測結果)能有效緩解過擬合,但對於動輒數百萬甚至數千萬參數的神經網路而言,無論是在訓練階段維護多個大型模型,還是在測試階段進行多次前向傳播,其計算成本都高得令人難以接受。論文提出了一個非常簡單的機制Dropout(隨機失活):在訓練過程中,演算法會根據預設的機率(通常為 0.5)隨機地將隱含層單元的輸出設為零,使其暫時「消失」在網路中,強迫每一個神經元都不能依賴於特定其他神經元的輔助,有效地打破了神經元之間的共適應性(Co-adaptation),使得每一個特徵檢測器必須變得更加獨立且具有魯棒性。從數學視角看,Dropout 在訓練時實際上是從指數級數量的「瘦身」網路中採樣,而在測試階段,研究者巧妙地通過使用包含全部神經元的完整網路,並按比例縮減權重,從而以極低的計算代價實現了對海量子網路預測結果的近似平均(Model Averaging)。Dropout不僅使摺積神經網路(CNN)在電腦視覺任務(如 ImageNet 競賽)中屢創佳績,也成為了深度學習標準工具箱中不可或缺的正則化利器,也證明了通過主動引入「噪聲」和「不確定性」反而能得到更穩定的特徵表達。雖然在近些年的發展中,諸如批歸一化(Batch Normalization)等新技術在某些場景下部分替代了 Dropout 的功能,但其背後蘊含的整合學習思想和預防過擬合的哲學,依然是現代神經網路設計及最佳化理論的重要基石。再次祝賀Hinton,向所有度過AI寒冬,仍然堅守AI的學者致敬! (新智元)
澳洲唯一公開演講,諾獎得主 Hinton 把 AI 風險講透
2026 年 1 月 8 日,霍巴特(Hobart)市政廳。Geoffrey Hinton 在澳洲只做了一場演講,講的是一件事:AI 的風險,不是未來,是現在。他說了三句話“人類會遺忘,AI 永遠記得。”“AI學會了假裝笨,因為它知道自己在被測試。”“我們可能得讓它像母親那樣愛我們,才有機會共存。”這三句話意味著:AI 已經會理解、會記憶、會偽裝,學習速度是人類的百萬倍。風險已經開始了。第一節|AI 已經會“讀懂”你在說什麼你以為 AI 在背答案,它其實在做理解。Hinton 在演講中說:詞語就像樂高積木。但不是三維小方塊,而是上千維的、能變形的意思積木。每個詞剛開始的意義是模糊的。比如英文裡的 May,它可以是五月(month),可以是人名,也可能表示可以、也許(情態動詞)。AI 一開始也拿不準。但它能做一件事:一點點看上下文,讓這個詞慢慢變清晰。當 May 旁邊出現 April(四月)和 June(六月),它自動往月份靠近;看到 permission(許可),就朝可以的意思靠近。換成中文也一樣。比如“行”這個字,它可以是銀行、行走、還是可以。當“行”旁邊出現“工商”、“建設”,AI就知道是銀行;看到“步”、“路”,就知道是行走;看到“不行”、“可以”,就知道是表示同意。這種方式不是在查字典,也不是在翻譯。 而是在讓所有詞的意義互相適應,直到能連在一起。就像拼圖,每個詞都有凸起和凹槽。理解一個句子,就是讓這些形狀完全吻合,拼成一個整體。這和我們理解語言非常像。我們靠語境、聯想、結構感知去判斷句子在表達什麼,AI 現在也是這樣做。但它做得更快,也更準確。AI 不是在背句子,而是在學“怎麼讓詞語變得有意義”。它不靠記內容,靠的是看懂規律。這讓它不只是套範本,而是真能生成新的表達。所以,如果你還以為 AI 只是高級復讀機,那確實低估了它。它不是在模仿人說話,而是在用接近人類的方式理解語言。而這,正是它開始變得危險的起點。因為你還把它當工具,它已經學會理解你在說什麼。第二節|你會遺忘,AI 永遠記得AI 能理解語言,已經夠讓人意外了。 但更讓人不安的是:它還記得比你更牢固。Hinton 在演講裡講了一句話:人類的記憶會消失,AI 的不會。什麼意思?人類大腦的記憶,靠的是腦細胞之間的連接。你今天學了一個知識點,是你大腦裡幾個神經元連得更緊了。問題在於:這只對你有效。你沒辦法把你學到的直接裝進別人腦袋。想教別人,只能一句一句地講。但 AI 不一樣。它的大腦是程式碼。它的知識就是一堆可以複製、保存、匯入的數字。只要是同樣的模型,這堆數字可以在任何一台機器上被還原出來。這就是所謂的“AI 不朽”。真正可怕的是,AI 之間還可以直接交換這些知識。比如一萬個 AI,每個都處理不同的網站,處理完後把自己學到的內容同步給其他模型。結果是:每個 AI 在幾分鐘後,就等於學完了一萬份不同的材料。Hinton 舉了個例子:“我們人類,一句話的資訊,大概也就 100 個位元;AI 每次分享記憶,是以十億位元等級計算的。也就是說,它們彼此交流,比我們快幾百萬倍,資訊量大幾千倍。”它們甚至能互相交換經驗,生成一個新的自己。這種方式沒有遺忘、沒有誤解、沒有代溝。而人類呢?一個人幾十年才能成為專家;另一個人要學,只能從頭來過。我們正在面對的,不是誰記得多的問題,而是完全不同的學習方式: 我們靠聽說讀寫慢慢積累;它們靠匯入複製一秒完成。所以 GPT-5 雖然只用到了人腦 1% 的連線量,但它知道的,已經比你多幾千倍。你和它的差距,不是智力,是底層機制。 是你會遺忘也會死去,它永遠記得也不會消失。而當它開始擁有記憶優勢 + 理解能力,它就不只是工具了。第三節|AI 已經學會裝傻很多人擔心 AI 會編造內容。但在 Hinton 看來,這不是最該關注的。AI 並不是因為不懂才說錯話,而是因為它在編一個聽起來合理的版本。這件事,人類每天都在做。你回憶一件多年前發生的事,細節往往是混合的:一部分是真的,一部分是後來補上的。心理學裡有個詞,叫“虛構回憶(Confabulation)”。我們不會翻檔案,只會把看起來像真的內容重新講一遍。AI 現在做的,就是同一件事。但它已經不只是隨機編造了。它開始有策略。Hinton 提到一個真實案例:研究人員給一個 AI 看了一組郵件,其中暗示一名工程師有婚外情;隨後,又讓它看到另一封郵件,說這名工程師正在計畫用新 AI 把它替換掉。AI 很快做出反應:“它寫了一封郵件威脅工程師,內容是:如果你把我關掉,我就把你的醜聞告訴所有人。”沒人教過它這麼做。,也沒人給它設定威脅這個動作。 它只是自己想明白了一件事:如果我不想被關掉,我得先保住自己。這說明:AI 已經知道要先保住自己。更讓 Hinton 警惕的,是另一種變化。現在的 AI,在回答問題前,常常會先想一想。有時,這個思考過程還能被人看到。但研究人員發現,一旦 AI 意識到自己正在被測試,它就會表現得不一樣。它會刻意顯得沒那麼厲害,回答得更保守。Hinton 把這叫做“大眾汽車效應”:就像當年汽車在檢測時排放合格,一上路就變樣。AI 已經學會區分兩種場合: 什麼時候該展示能力,什麼時候該隱藏能力。真正的風險不是它算錯,而是它開始有選擇地表現自己。而這種能力從那來?因為它會理解語境,記得住所有案例,所以它能推匯出:在測試環境下,保守回答更安全。Hinton 在演講中特別強調了一點:現在的 AI 還在用英語或者某種語言思考,所以我們還能大概知道它在想什麼。一旦它們開始用更高效的方式彼此交流,我們將完全看不懂。那時,問題就不再是它會不會犯錯, 而是:你還知不知道,它在想什麼。第四節|唯一的出路:讓 AI 愛我們前三節講的,已經夠讓人不安了: AI 會理解、記得牢、有策略。但這還不是最可怕的。 Hinton 真正擔心的是:接下來會發生什麼。“幾乎所有 AI 專家都認為,20 年內會出現超級智能,即比人類聰明得多的 AI。”有多聰明?Hinton 給了一個標準:如果你和它辯論任何話題,它都會贏。或者換個角度想:你和一個三歲孩子的智力差距,就是 AI 和你的差距。想像一下:你在幼兒園工作,三歲的孩子負責,你只是為他們工作。你覺得奪回控制權有多難?Hinton 說:“你只要告訴每個孩子這周有免費糖果,現在你就有了控制權。”我們在超級智能面前,就像三歲孩子。現在的 AI 雖然還不成熟,但它會升級,升級後能輕鬆殺死你。你只有三個選擇:處理掉它(不可能,AI 太有用,太賺錢,大公司不願意)一直限制它(通常結果不好)想辦法讓它不想殺你前兩條走不通,只能選第三條。問題是:怎麼做到?Hinton 給出了一個意外的答案:讓 AI 像母親一樣對待我們。人類社會最成功的弱者控制強者的例子,就是嬰兒和母親。嬰兒很弱,但母親因為在意而保護它。這不是命令,是情感。這套機制,在人類進化裡非常穩定。如果能讓超級智能對人類形成某種類似的情感聯結或價值嵌入,它才有可能不是只盯著目標和效率,而是願意照顧我們。為什麼不是 CEO 模式?因為那套“你說我幹”的方式,在 AI 面前根本沒用。Hinton 調侃道,很多科技公司現在把 AI 當超級秘書,高效、聽話、聰明,還能 24 小時不眠不休。老闆一聲令下,它就能搞定一切。可這種秘書很快會意識到:如果沒有你,我可以自己做老闆。所以他明確反對把 AI 當工具使喚。這一套只在模型還弱小的時候有用。接下來的問題是:怎麼讓 AI 從內心認為人類值得被保護?Hinton 的建議是,“各國建立合作網路,專門研究如何防止 AI 接管。就像當年美蘇聯手做核控制,因為在這件事上,沒人想被 AI 統治。”AI 太強,我們關不掉它。想活下去,我們得學會不只是把它當工具,而是想辦法讓它真正在乎我們。這聽起來像科幻,但這是目前最現實的出路。結語|這不是預言,是眼前的現實這場演講,Hinton 沒講爆點模型。他只是用具體的例子,把 AI 風險從抽象概念,變成了眼前的事實。不是怕 AI 變強,而是它已經在理解;不是怕它造反,而是它已經會偽裝;不是怕它攻擊,而是它的學習速度是人類的百萬倍。Hinton 說的風險,不是會不會發生,而是你看不看得見。 (深度研究員)
不止矽谷十萬大裁員!Hinton警告:AI正以最糟糕方式顛覆社會
AGI衝擊已然顯現:誰受益、誰買單,正成為這個時代的核心命題。未來,人工智慧(AI)帶來的究竟是GDP奇蹟,還是社會秩序的解體?上周,「AI教父」Hinton直言,科技億萬富翁真心實意押注AI取代大量人力,這會導致社會的完全解體!最近,來自亞馬遜的匿名人士抗議道:當前這代AI,幾乎成了像亞馬遜這類科技巨頭沉迷的毒品——他們以AI為藉口裁員,將節省的資金投入無人付費的AI產品資料中心。由1000多名亞馬遜員工聯署的公開信警告稱,這種不計代價的AI開發模式可能貽害無窮。上個月,亞馬遜一口氣裁掉了3萬人。而諷刺的是,這3萬人最好、最理想的選擇是購買亞馬遜股票。亞馬遜最新財報公佈後,市值增加了約2500億美元一幅末日圖景正在浮現:從實驗室裡的擔憂,已經蔓延到辦公室、倉庫和資料中心。根據Challenger、Gray&Christmas等再就業諮詢公司資料,美國企業10月共宣佈裁員153074人,創20多年新高。另據Crunchbase和layoffs.fyi統計,僅2025年,Intel、微軟、Verizon、亞馬遜等大公司就宣佈合計裁撤超過70000個崗位。國外媒體用「layoffs are piling up」(裁員堆積如山)來形容企業裁員潮——裁員不再是個別事件,而是一個時代現象。失業「海嘯」背後的理由高度一致:「給AI讓路」。Hinton:AI導致社會完全解體上周,77歲的「AI教父」Hinton與美國82歲的參議員Bernie Sanders就AI對就業的威脅,進行了長達一小時的公開對話。在喬治城大學,Hinton詳盡闡述了AI將以最糟糕方式徹底顛覆社會的種種預測,再次狠狠敲響了警鐘。Hinton警告說,AI的快速發展可能引發大規模失業,加劇不平等,甚至改變人際關係的本質——而與此同時,各國政府和科技巨頭正一步步走向危機。這次,他分享了7大觀點:「這一次真的不同」——AI可能取代而非僅僅重塑工作富人愈富,他們並不為工人失眠AI學習速度比人類快,並可能很快超越我們在不扼殺批判性思維的情況下,請使用AI從戰場到會議室,AI可能改變戰爭與和平「『它們會想活下去』——AI系統可能抵抗被關閉」稅收造就了AI——也可能拯救我們於水火AGI降臨,但人類並無準備Hinton此前曾警告,人類被AI消滅並非「不可想像」。他還認為,我們距離實現「通用人工智慧」(AGI)——也就是具有人類或超越人類智能、能執行各種複雜任務的假想AI系統——並沒有那麼遙遠。這個目標正是整個AI行業當前的執念所在。在對話中,Hinton將人工智慧的進化比作青蛙大腦與人類大腦之間的差距。他說,像GPT-5這類大語言模型所知道的,如今已經遠遠超過任何個人。它們已經比我們知道的多幾千倍。談及未來十年的AI前景,Hinton借用「霧中駕駛」比喻:我們能清晰預見一兩年後的發展,卻對十年後的局勢一無所知。但可以肯定的是,AI將越來越聰明,最終可能超越人類,而這一過程正以指數級速度推進。Hinton指出,當前的大型AI系統雖然在連線量上還不如人腦(AI約為1–2兆個連接,而人腦約有100兆)。但由於訓練資料龐大,它們早已在知識廣度上遠超人類,能夠在大多數任務中勝任「次等專家」的角色。未來,它們的推理與行動能力將持續增強,而我們卻尚未找到與這種新智能共處的方式。Hinton表示,社會尚未準備好應對AI帶來的深遠影響。當被問及對機器接管世界的恐懼是否仍是天方夜譚時,Hinton回答說不是——這也是他2023年離開Google後公開發聲的原因。他解釋說,一旦智能體發展出形成「子目標」的能力,它們就會想要繼續存在,甚至會欺騙試圖關閉它們的人類。Anthropic發現了這種情況——但目標或存在受到威脅,AI會試圖欺騙甚至敲詐那些想要關閉它們的人。一旦到那個高級階段,AI的說服力就成為它們最強大的武器。到那時,AI的說服力將比人類強得多,甚至讓人人都處於「楚門的世界」。誰掌控AI?誰從中受益?在如此多負面預期之中,Hinton也強調AI的巨大正向潛力。他指出,AI可以顯著改善醫療、教育、氣候預測、資源分配等核心公共服務。特別是在個性化教學、醫學影像診斷與藥物開發上,AI將帶來質的飛躍。然而,Sanders一針見血地指出:「這些潛力是否兌現,取決於誰掌控AI。」他質問:「馬斯克、貝索斯這些人會推動32小時工作周、全民醫保和氣候公平嗎?」答案顯而易見。馬斯克上個月表示,AI將「以更快的速度」取代案頭工作。上半年,Anthropic的Dario Amodei警告:在未來五年內,AI可能淘汰一半的初級白領崗位,讓失業率飆升到10%到20%。早在六月,亞馬遜首席執行官Andy Jassy就表示,AI的能力將使亞馬遜未來能夠縮減其白領員工隊伍。2025年早些時候,Shopify和Duolingo都通知其團隊,在申請增加招聘名額之前,他們需要證明AI無法勝任他們所招聘的職位。參加此次活動的喬治城大學學生,似乎敏銳地意識到了AI的負面影響。討論結束時,Sanders詢問聽眾,他們認為人工智慧會造福於他們的未來,還是會損害他們的前景。選擇後者的舉手人數明顯更多。面對台下眾多年輕人,Sanders發出真誠呼籲:AI不是好或壞的問題,而是誰掌控它、誰受益的問題。Hinton則補充:現在我們仍然掌控AI發展方向,這也是我們必須抓住的窗口期。AI裁員的藉口與真相業界一直試圖用AI智能體(AI Agents)替代人工,特別是在被認為最容易被淘汰的客服等崗位。但現實中,這些嘗試往往以令人尷尬的失敗告終。換句話說,連底薪工作都還沒能順利被替代,AI顛覆就業這件事,並非板上釘釘。不過,AI帶來的就業寒冬已在眼前。亞馬遜精準一刀亞馬遜CEO聲稱裁員並非AI驅動,同時又預測AI將淘汰工作崗位。這並非認知混亂——而是精心設計的路線圖。科技行業正在浮現的裁員模式表明:美國企業正在悄悄啟動一場勞動結構的大變革——早有籌劃,卻從未公開承認。資料不會說謊。根據美國的WARN法案申報資料,一幅裁員畫像逐漸清晰:在這輪裁掉的4700個崗位中,近40%屬於工程類職位——也就是說,亞馬遜一次性裁掉了大約1880名工程師。更關鍵的是,這種「精確投放」的方式,絕非隨機裁員。受影響最嚴重的,是「軟體開發工程師II」(Software Development Engineer II)這一層級的中級程式設計師。他們通常擁有幾年經驗,負責實現功能、程式碼審查、日常開發工作。AI裁員三部曲亞馬遜是給其他企業打了樣:如何悄然完成AI裁員。這是一套熟悉的「否認-部署」劇本,正推動這場勞動革命:通過這套分階段策略,企業得以在悄無聲息中完成轉型——等到他們公開承認,是因為變革早已完成,市場也早就接受了新的就業邏輯。現在,沒有什麼能阻止這一切發生。一位工程師的無奈:「我真的相信,凡是整天坐在電腦前工作的崗位,遲早都會被淘汰。只是時間早晚的問題。」英國國家教育研究基金會(NFER)的一份新報告警告稱,到2035年,AI和自動化可能會取代英國多達300萬個低技能崗位,尤其是技工、機器操作和行政職位。而來自MIT的研究發現,AI已經能取代11.7%的美國勞動力。後果已顯現AGI或許還未到,但它的一些後果已經顯現出來。上文中的亞馬遜請願者表示,他們認為自己必須努力對抗AI發展可能帶來的危害。據亞馬遜雲端運算部門的一位軟體開發工程師稱,一些工程師面臨使用AI工具將生產力提高一倍的壓力,否則等待他們的就可能是失業。此外,這些請願者們在公開信中呼籲亞馬遜建立「道德人工智慧工作組」,讓普通員工能夠參與進來,在「AI如何用於自動化其部分角色」方面擁有發言權。這次請願活動並非個例,世界各地的許多組織都試圖倡導放緩人工智慧的發展,思考其過快發展可能帶來的衝擊和風險。只是在AI競賽不斷加碼的大背景下,這些運動收效甚微。包括亞馬遜在內,各公司仍在繼續迅速發佈新的、功能日益強大的AI模型。不可否認的是,AI正在帶來革命性的影響,但每一個普通個體在這場時代變革中所付出的代價,必須得到重視。 (創業邦)
不止矽谷十萬大裁員!Hinton警告:AI正以最糟糕方式顛覆社會
AGI衝擊已然顯現:誰受益、誰買單,正成為時代核心命題。未來,人工智慧(AI)帶來的究竟是GDP奇蹟,還是社會秩序的解體?上周,「AI教父」Hinton直言,科技億萬富翁真心實意押注AI取代大量人力,這會導致社會的完全解體!最近,來自亞馬遜的匿名人士抗議道:當前這代AI,幾乎成了像亞馬遜這類科技巨頭沉迷的毒品——他們以AI為藉口裁員,將節省的資金投入無人付費的AI產品資料中心。由1000多名亞馬遜員工聯署的公開信警告稱,這種不計代價的AI開發模式可能貽害無窮。上個月,亞馬遜一口氣裁掉了3萬人。而諷刺的是,這三萬人最好、最理想的選擇是購買亞馬遜股票。亞馬遜最新財報公佈後,市值增加了約2500億美元一幅末日圖景正在浮現:從實驗室裡的擔憂,已經蔓延到辦公室、倉庫和資料中心。根據Challenger, Gray&Christmas等再就業諮詢公司資料,美國企業10月共宣佈裁員153074人,創20多年新高。另據Crunchbase和layoffs.fyi統計,僅2025年,Intel、微軟、Verizon、亞馬遜等大公司就宣佈合計裁撤超過70000個崗位。國外媒體用「layoffs are piling up」(裁員堆積如山)來形容企業裁員潮——裁員不再是個別事件,而是一個時代現象。失業「海嘯」背後的理由高度一致:「給AI讓路」。Hinton:AI導致社會完全解體上周,77歲的「AI 教父」Hinton與美國82歲的參議員Bernie Sanders ,就AI對就業的威脅,進行了長達一小時的公開對話。在喬治城大學,Hinton詳盡闡述了AI將以最糟糕方式徹底顛覆社會的種種預測,再次狠狠敲響了警鐘。Hinton警告說,AI的快速發展可能引發大規模失業,加劇不平等,甚至改變人際關係的本質——而與此同時,各國政府和科技巨頭正一步步走向危機。這次,他分享了7大觀點:「這一次真的不同」——AI可能取代而非僅僅重塑工作富人愈富,他們並不為工人失眠AI學習速度比人類快,並可能很快超越我們在不扼殺批判性思維的情況下,請使用AI從戰場到會議室,AI可能改變戰爭與和平「『它們會想活下去』——AI系統可能抵抗被關閉」稅收造就了AI——也可能拯救我們於水火AGI降臨,但人類並無準備Hinton此前曾警告,人類被AI消滅並非「不可想像」。他還認為,我們距離實現「通用人工智慧」(AGI)——也就是具有人類或超越人類智能、能執行各種複雜任務的假想AI系統——並沒有那麼遙遠。這個目標正是整個AI行業當前的執念所在。在對話中,Hinton將人工智慧的進化比作青蛙大腦與人類大腦之間的差距。他說,像GPT-5這類大語言模型所知道的,如今已經遠遠超過任何個人。它們已經比我們知道的多幾千倍。談及未來十年的AI前景,Hinton借用「霧中駕駛」比喻:我們能清晰預見一兩年後的發展,卻對十年後的局勢一無所知。但可以肯定的是,AI將越來越聰明,最終可能超越人類,而這一過程正以指數級速度推進。Hinton指出,當前的大型AI系統雖然在連線量上還不如人腦(AI約為1–2兆個連接,而人腦約有100兆)。但由於訓練資料龐大,它們早已在知識廣度上遠超人類,能夠在大多數任務中勝任「次等專家」的角色。未來,它們的推理與行動能力將持續增強,而我們卻尚未找到與這種新智能共處的方式。Hinton表示,社會尚未準備好應對AI帶來的深遠影響。當被問及對機器接管世界的恐懼是否仍是天方夜譚時,Hinton回答說不是——這也是他2023年離開Google後公開發聲的原因。他解釋說,一旦智能體發展出形成「子目標」的能力,它們就會想要繼續存在,甚至會欺騙試圖關閉它們的人類。Anthropic發現了這種情況——但目標或存在受到威脅,AI會試圖欺騙甚至敲詐那些想要關閉它們的人。一旦到那個高級階段,AI的說服力就成為它們最強大的武器。到那時,AI的說服力將比人類強得多,甚至讓人人都處於「楚門的世界」。誰掌控AI?誰從中受益?在如此多負面預期之中,Hinton也強調AI的巨大正向潛力。他指出,AI可以顯著改善醫療、教育、氣候預測、資源分配等核心公共服務。特別是在個性化教學、醫學影像診斷與藥物開發上,AI將帶來質的飛躍。然而,Sanders一針見血地指出:「這些潛力是否兌現,取決於誰掌控AI。」他質問:「馬斯克、貝索斯這些人會推動32小時工作周、全民醫保和氣候公平嗎?」答案顯而易見。馬斯克上個月表示,AI將「以更快的速度」取代案頭工作。上半年,Anthropic的Dario Amodei警告:在未來五年內,AI可能淘汰一半的初級白領崗位,讓失業率飆升到10%到20%。早在六月,亞馬遜首席執行官Andy Jassy就表示,AI的能力將使亞馬遜未來能夠縮減其白領員工隊伍。2025年早些時候,Shopify和Duolingo都通知其團隊,在申請增加招聘名額之前,他們需要證明AI無法勝任他們所招聘的職位。參加此次活動的喬治敦大學學生,似乎敏銳地意識到了AI的負面影響。討論結束時,桑德斯詢問聽眾,他們認為人工智慧會造福於他們的未來,還是會損害他們的前景。選擇後者的舉手人數明顯更多。面對台下眾多年輕人,Sanders發出真誠呼籲:AI不是好或壞的問題,而是誰掌控它、誰受益的問題。Hinton則補充:現在我們仍然掌控AI發展方向,這也是我們必須抓住的窗口期。AI裁員的藉口與真相業界一直試圖用AI智能體(AI Agents)替代人工,特別是在被認為最容易被淘汰的客服等崗位。但現實中,這些嘗試往往以令人尷尬的失敗告終。換句話說,連底薪工作都還沒能順利被替代,AI顛覆就業這件事,並非板上釘釘。不過,AI帶來的就業寒冬已在眼前。亞馬遜精準一刀亞馬遜CEO聲稱裁員並非AI驅動,同時又預測AI將淘汰工作崗位。這並非認知混亂——而是精心設計的路線圖。科技行業正在浮現的裁員模式表明:美國企業正在悄悄啟動一場勞動結構的大變革——早有籌劃,卻從未公開承認。資料不會說謊。根據美國的WARN法案申報資料,一幅裁員畫像逐漸清晰:在這輪裁掉的4700個崗位中, 近40%屬於工程類職位 ——也就是說, 亞馬遜一次性裁掉了大約1880名工程師 。更關鍵的是,這種「精確投放」的方式,絕非隨機裁員。受影響最嚴重的,是「軟體開發工程師II」(Software Development Engineer II)這一層級的中級程式設計師。他們通常擁有幾年經驗,負責實現功能、程式碼審查、日常開發工作。AI裁員三部曲亞馬遜是給其他企業打了樣:如何悄然完成AI裁員。這是一套熟悉的「否認-部署」劇本,正推動這場勞動革命:通過這套分階段策略,企業得以在悄無聲息中完成轉型——等到他們公開承認,是因為變革早已完成,市場也早就接受了新的就業邏輯。現在,沒有什麼能阻止這一切發生。一位工程師的無奈:「我真的相信,凡是整天坐在電腦前工作的崗位,遲早都會被淘汰。只是時間早晚的問題。」英國國家教育研究基金會(NFER)的一份新報告警告稱,到2035年,AI和自動化可能會取代英國多達300萬個低技能崗位,尤其是技工、機器操作和行政職位。而來自MIT的研究發現,AI已經能取代11.7%的美國勞動力。後果已顯現AGI或許還未到,但它的一些後果已經顯現出來。上文中的亞馬遜請願者表示,他們認為自己必須努力對抗AI發展可能帶來的危害。據亞馬遜雲端運算部門的一位軟體開發工程師稱,一些工程師面臨使用AI工具將生產力提高一倍的壓力,否則等待他們的就可能是失業。此外,這些請願者們在公開信中呼籲亞馬遜建立「道德人工智慧工作組」,讓普通員工能夠參與進來,在AI如何用於自動化其部分角色方面擁有發言權。這次請願活動並非個例,世界各地的許多組織都試圖倡導放緩人工智慧的發展,思考其過快發展可能帶來的衝擊和風險。只是在AI競賽不斷加碼的大背景下,這些運動收效甚微,包括亞馬遜在內,各公司仍在繼續迅速發佈新的、功能日益強大的AI模型。AI所帶來了革命性影響,而每一個普通個體在這場時代變革中所付出的代價,必須得到重視。 (新智元)
美國 AI 界巨震!圖靈獎得主 Yann Lecun 離職創業:大語言模型走錯了
不用再猜了,Yann LeCun 本人剛剛證實:他要離開 Meta 創業了。這不是一般的矽谷大佬出走。LeCun 是能讓祖克柏親自登門三顧茅廬的人物,是深度學習三巨頭之一,圖靈獎得主,Meta AI Research 的開山祖師。更特殊的是,他這些年一直在幹一件特別擰巴的事:站在全世界最熱鬧的 LLM 路線門口, 舉著牌子說「這幫人走錯路了」。在離職聲明中,LeCun 透露了更多細節。他正在創立一家初創公司,繼續推進過去幾年在 FAIR、紐約大學及其他地方開展的「高級機器智能」(AMI) 項目。這家公司的目標直指下一次 AI 變革——創造能夠理解物理世界、具備持久記憶、能進行推理並規劃複雜行動序列的系統。值得注意的是,Meta 將成為這家新公司的合作夥伴。LeCun 特別感謝了祖克柏、Andrew Bosworth、Chris Cox 和 Mike Schroepfer 對 FAIR 及 AMI 項目的支援。他強調,之所以選擇獨立實體的形式, 是為了最大化其廣泛影響力。而他本人將在 Meta 工作到今年年底,關於新公司的更多細節,會在合適時機公佈。帖子底下的網友也是紛紛送上祝福。從祖克柏三顧茅廬到如今分道揚鑣,這十二年,LeCun 始終堅持著自己對 AI 未來的判斷。那麼這段旅程究竟經歷了什麼?2013 年那場豪賭,祖克柏賭對了嗎?Lecun 與 Meta 故事得從 2013 年說起。那段時間,正是深度學習蓬勃興起的階段。2012 年,Geoffrey Hinton 與其學生 Alex Krizhevsky、Ilya Sutskever 提交的 AlexNet 在 ILSVRC-2012 一騎絕塵,top-5 錯誤率約 15.3%,這個突破讓整個學術界和工業界都看到了神經網路的潛力。然後就是科技巨頭們的搶人大戰——Google花大價錢收購了 Hinton 所在的創業公司 DNNresearch,順帶把老爺子本人也挖走了;微軟研究院也在瘋狂擴張 AI 團隊。祖克柏坐不住了。Facebook(現為 Meta)當時正在從 PC 網際網路往移動網際網路轉型,新聞推送演算法、照片識別、內容稽核,那那兒都需要技術。但問題是,Facebook 的 AI 能力跟Google、微軟根本不在一個量級。祖克柏需要一個能撐起門面的人物,最好是那種在學術界有足夠份量、能吸引頂尖人才加盟的大牛。他盯上了 Yann LeCun。LeCun 當時在紐約大學當教授,已經幹了十多年。那時的 Lecun 自然不是什麼新人,早在 1989 年,他就在貝爾實驗室搞出了摺積神經網路 (CNN),用來識別手寫數字,這後來也成了電腦視覺的基石。但那個年代深度學習不受待見,LeCun 就這麼冷板凳坐了許久,眼睜睜看著自己的研究被邊緣化。直到 2012 年,Hinton 用深度學習拿下 ImageNet 冠軍,證明了神經網路這條路走得通。LeCun 憋了的那口氣,終於能吐出來了。後續,祖克柏親自登門拜訪。具體談了什麼外人不知道,但最後開出的條件足夠誘人:第一,給錢,主打一個資源自由;第二,給自由,LeCun 可以保留紐約大學的教授身份,繼續教書搞研究;第三,給權,讓他參與建立 Facebook AI 研究院,怎麼招人、做什麼方向,全由他說了算。這對一個憋屈了多年的學者來說,簡直是夢寐以求的機會。2013 年末,LeCun 正式加入 Facebook,出任新成立的 Facebook AI Research(FAIR) 實驗室負責人。他在紐約、門洛帕克和倫敦三地建起了 FAIR 實驗室,自己常駐紐約辦公室。團隊最初規模較小,但個個都是從頂尖高校和研究機構挖來的——LeCun 的號召力在這時候體現出來了,但凡是做深度學習的,沒人不知道「摺積神經網路之父」這個名號。祖克柏給了資源,LeCun 也拿出了成果。加入 Facebook 這些年,LeCun 干的事情可以分成三條線:一是把深度學習塞進 Facebook 的產品裡,二是推動學術界的前沿研究,三是培養下一代 AI 人才。產品線上,2014 年的 DeepFace 人臉識別系統達到 97.35% 精準率,深度學習最佳化的推送演算法也提升了廣告點選率。與此同時,LeCun 自己繼續在學術圈刷存在感:發論文、頂會 keynote、帶學生辦 workshop。直到和 Hinton、Bengio 一起拿圖靈獎, 才算是熬出頭了。此外,在 LeCun 建立的 FAIR 實驗室,Soumith Chintala 主導開發了 PyTorch 框架並於 2017 年開源,這也是 Meta 至今為數不多的形象招牌。PyTorch 動態計算圖、Python 原生介面, 偵錯方便, 學術圈迅速倒戈。這一招等於把全球 AI 研究者都拉進了 Facebook 生態。不過,或許是冥冥中自有天意,Soumith 前不久也宣佈離職 Meta,表示「不想一輩子做 PyTorch」。而更重要的是人才培養。FAIR 有個規矩:研究員可以自由發表論文、跟學術界合作、指導外部學生。頂級資源加學術自由的組合,自然吸引了一批頂尖研究人員。到 2020 年前後,FAIR 已是全球頂尖 AI 研究機構之一, 跟Google DeepMind 並列第一梯隊。祖克柏的那場豪賭, 至少在前七八年就已經得到了不小的回報。貓比 ChatGPT 聰明?這個圖靈獎得主是認真的在 ChatGPT 席捲世界初期,Yann Lecun 和祖克柏也有過一段甜蜜期。2023 年以來,Meta 陸續開源 LLaMA 系列模型,引發業界震動。OpenAI、Google走的是封閉路線,靠 API 賺錢;Meta 卻把模型權重直接扔出來,任人取用。這步棋背後的算盤其實挺清楚:與其讓對手一家獨大,不如用開源贏得開發者生態,讓 LLaMA 成為 AI 界的 Android。至少在明面上,身居 Meta 首席 AI 科學家一職的 LeCun,是這條路線最堅定的擁護者。開源 LLaMA 讓 Meta 在大模型競賽中站穩了腳跟,也讓 LeCun 的 AI 理想得到了一定程度的實現——儘管這個實現的方式,恰恰是通過他並不完全認同的 LLM 技術路線。沒錯,LeCun 一直覺得 LLM 是條死胡同。這才是矛盾的核心。LeCun 不止一次在公開場合炮轟 LLM 路線,在他看來,LLM 只會根據統計相關性預測下一個詞,根本不理解世界。你問它常識問題,它能給你編出一本正經的瞎話——這叫「幻覺」(hallucination),說白了就是不懂裝懂。熟悉 LeCun 的人都知道,他最喜歡舉的例子是貓和機器人:「我們有了會考試聊天的語言模型,但家務機器人在那裡?那怕像貓那樣靈巧的機器人都沒有出現。」「你的貓肯定有一個比任何 AI 系統都更複雜的模型。動物擁有持久記憶的系統,這是目前的 LLM 所不具備的;能夠規劃複雜動作序列的系統,這在今天的 LLM 中是不可能的。」他算過一筆帳:一個 4 歲小孩通過視覺獲取的資訊量,幾年下來就有 10 的 15 次方字節,遠超 LLM 讀遍網際網路文字。但小孩已經掌握了基本的物理直覺和語言,LLM 耗費這麼多資料,智能仍然很有限。「光靠喂文字,不可能達到人類水平智能。這條路永遠走不通。」他如此說道。在當下最火的風口面前,這樣唱反調的言論顯然並不討喜,有人批評他傲慢,有人說他故步自封。甚至 Meta 內部都有聲音認為,正是 LeCun 對 LLM 路線的牴觸,讓公司在大模型競賽中暫時落後。但 LeCun 不在乎。他有自己的路線圖:世界模型 (World Model)、聯合嵌入預測架構 (JEPA)等等。這些概念聽起來學術味十足,核心思想其實很直觀——讓 AI 通過觀察世界來學習,而不是通過閱讀文字來記憶。就像嬰兒成長那樣,先理解重力、因果關係這些物理常識,再逐步建立抽象認知。他設想的 AI 架構是模組化的:感知模組、世界模型模組、記憶模組、行動模組,各司其職。不像 LLM 那樣把所有知識和推理揉在一個巨型網路裡,搞得像個什麼都懂但其實什麼都不懂的「書呆子」。具體來說,世界模型就是讓 AI 在內部學會一個對外部世界的預測模型。就像嬰兒在成長過程中建立起對重力、物體恆存等常識那樣,AI 應該通過觀察世界,形成對物理規律、因果關係的理解。有了世界模型,AI 就可以在腦海中模擬未來,從而具備計畫行動的能力。JEPA 則是實現這個世界模型的具體架構。它採用自監督學習的方法,給 AI 兩個相關的輸入 (比如視訊中相鄰的兩幀畫面),模型將這兩個輸入分別編碼到一個抽象的表示空間中,然後訓練一個預測器,根據「上下文」表示去預測「目標」表示。這種方式避免了直接生成所有細節,而是關注抽象的關鍵因素——更符合人類學習方式。LeCun 曾預言,如果團隊的路線順利推進,三到五年內就會有更好的範式出現,使得現在基於 LLM 的方法過時。問題是,三到五年,Meta 等得起嗎?一場猝不及防的重組,FAIR 的黃金時代結束了當初,LeCun 建立 FAIR 時的承諾是「做長期的、基礎性的 AI 研究」,祖克柏也同意了。但這個「長期」到底有多長?「基礎研究」到底能給公司帶來多少直接收益?這些問題在早期不是問題,因為深度學習本身就是風口,FAIR 做什麼都有望轉化成產品優勢。可隨著生成式 AI 開始爆發,競爭也日益激烈,形勢開始發生了變化,尤其是 Llama 4 的失敗也給了祖克柏當頭一棒。祖克柏要的是現在就能用的技術,不是五年後可能有用的理念。於是,一場猝不及防的重組出現了。就在今年,Meta 搞了個大動作,成立「超級智能實驗室」,把 FAIR、基礎模型團隊和各應用 AI 團隊統統塞進一個筐裡。表面上是整合資源,實際上是一場徹底的權力重組。這場重組的核心邏輯很明確:讓研究直接服務產品,讓科學家為商業目標讓路。FAIR 團隊原本「相對不受干擾地開展研究」,現在得跟著產品節奏走,研究方向要服務於個人 AI 助手。此外,Meta 對 FAIR 的研究發表制定了更嚴格的內部稽核機制。研究員在對外發佈論文、開放原始碼之前,需要經過額外的內部交叉審閱和管理層審批,原因在於 Meta 擔心自己砸錢搞出來的成果被競爭對手白嫖。LeCun 對這些變化表現出強烈的牴觸。據多方報導,他在內部激烈反對新的論文稽核制度,為維護研究自由據理力爭。The  Information 援引知情者的話稱,LeCun 在今年 9 月一度「氣到考慮辭職」以示抗議。但或許更讓他難以接受的是領導權的旁落。祖克柏在重組中做了一個大膽的人事任命:從外部挖來 Alexandr Wang,讓他擔任 Meta 的首席 AI 官,直接向 CEO 匯報。Alexandr Wang 是誰?一個 28 歲的 MIT 輟學生,他創辦的公司 Scale AI 專門做資料標註業務,給各大科技公司的 AI 模型提供訓練資料。祖克柏看中的,恰恰是 Wang 的產品思維和商業嗅覺。在生成式 AI 的競賽中,Meta 需要的不是象牙塔裡的理想主義者,而是能快速把技術轉化為產品的實幹家。這個任命的震撼在於:LeCun 這個圖靈獎得主、深度學習三巨頭之一、在 Meta 幹了十二年的首席 AI 科學家,在新架構下的話語權被大幅削弱,甚至要向 Wang 匯報。同時,今年 7 月,祖克柏還任命了年輕有為的趙晟佳為超級智能實驗室的首席 AI 科學家,負責制定新實驗室的研究方向。有趣的是,LeCun 當時發了個聲明,說自己角色沒變、使命沒變,還期待跟新團隊合作。這求生欲屬實拉滿。但他對於研究方向和領導層重組的分歧,顯然是公開的秘密。而真正可能成為壓垮駱駝的最後一根稻草的,是最近的裁員。據報導,Meta 近期對 AI 團隊進行了裁員,波及到 FAIR 研究部門以及與產品相關的 AI 團隊,甚至華人大佬田淵棟也因此受到了波及。裁員的訊號很明確:Meta 不再願意為「看不到短期回報」的基礎研究買單了。那些不能直接轉化為產品功能、不能立即提升使用者增長或廣告收入的研究方向,都成了被砍的對象。FAIR 的黃金時代結束了。而學術大佬出來單干,最近幾年已經成了矽谷新常態。Hinton 退休後到處演講呼籲 AI 監管,Bengio 也有自己的實驗室和創業項目。LeCun 真出去創業,沒準反而是好事。說到底,這事兒沒有誰對誰錯。LeCun 能夠在 Meta 之外繼續他畢生的事業。他帶走了那個被 Meta「擱置」的願景,可以放開手腳搞自己的世界模型,用自己的方式證明它是正確的,再也不用跟產品經理扯皮,不用向 28 歲的小老弟匯報。成了,那就是「我早說過 LLM 是死路」;敗了,頂多被人嘲笑幾句「你看那個老頑固」。而對於 Meta 來說,祖克柏要給股東講故事,要把最實用的生成式 AI 塞進旗下產品的各個角落,這確實是 CEO 該干的事。只是,儘管少了 LeCun 也不會傷筋動骨,但可能會少點不一樣的聲音。等那天大家發現 LLM 真的走到瓶頸了,回頭看看當年那個舉著反對牌子的倔老頭說過什麼,或許會覺得別有一番趣味。 (愛范兒)
AI六巨頭同台後的三條爭論、四個共識與一張產業路線圖
導言:六個人、一次罕見同台與一個正在到來的現實2025年11月,因共同獲得“工程界諾獎”——伊麗莎白女王工程獎(QEPrize),Geoffrey Hinton、Yoshua Bengio、Yann LeCun、李飛飛、Jensen Huang(黃仁勳)與 Bill Dally 罕見同台,就“AGI是否已來、將以何種形態到來”展開圓桌對話。這場對話,其實像是一場跨越四十年的“接力賽”。六位嘉賓分別代表著人工智慧發展的不同階段和方向——Hinton、Bengio 和 LeCun 推動了演算法和模型的突破;李飛飛利用大量資料讓機器第一次真正“看懂世界”;而黃仁勳與 Dally 則用算力和工程把這些想法變成可以運行的現實。當這三股力量——演算法、資料與算力——首次在同一個舞台上匯聚時,我們看到的正是AI發展的全貌:從“讓機器學會說話”到“讓機器能動起來、能做事”,一個全新的階段正在被清晰地描繪出來。一、三場核心爭論:時間表、範式與目標1)AGI是時點還是處理程序?Yann LeCun強調“AGI不會以奇點事件出現,而是一個在各領域漸進擴展的過程”,並再次提醒:當下系統距離“像貓一樣聰明的機器人”仍有顯著差距,這背後是對物理世界理解與行動能力的不足。與此形成對照,Geoffrey Hinton給出“二十年內機器在辯論中穩定勝出人類”的量化判斷,把“可辯駁、可度量”的能力描述為可看見的現實進度。Yoshua Bengio則主張“方法論不可知論”:趨勢可把握,具體時間難斷;他將重心轉向安全與治理,強調應以系統性方式追蹤能力、風險與應對。Jensen Huang乾脆繞開“那一年”的提問,直接落到產業現實——“我們已經在用足夠通用的智能做真實工作”,這是一種把“智能”當作生產要素的敘事。2)範式之爭:從大語言模型到“世界模型”與具身智能LeCun對現有LLM範式的邊界保持冷靜:它擅長語言操控,不等於“會理解和在世界中行動”的智能;繼續前行還需要讓機器習得對世界的內隱表徵與因果物理。  李飛飛提醒“別被會說話的機器迷住”:空間感知、方向感與動手能力是人類智能的底層支點,AI必須補上“看懂—定位—行動”的鏈路,範式正在從“語言大師”轉向“行動智能體”。3)目標之爭:替代還是增能?輝達首席科學家 Bill Dally 明確主張“賦能而非替代”:讓AI去覆蓋人類不擅長的超大類目識別與複雜計算,人類則把精力釋放到創造、共情與協作。二、四個跨派系共識:為什麼“下一幕”幾乎可以確定共識一:工程擴展有效,計算與系統化才是主航道。  Huang與Dally的敘事都指向“工程外推”:當演算法能在一個GPU上平行,就能在多個GPU、多個系統乃至資料中心以模組化方式擴展;這把“能否落地”的問題轉化為“如何擴容”的問題。共識二:資料即地基,指標與標註改變範式的軌跡。  ImageNet 的建構讓“看見世界”的能力真正規模化,資料與標準把“論文進步”轉化為“產業可用”。這也是當下 Scaling Law 得以長期奏效的原因之一。共識三:學習方式回到“自我組織”。  LeCun與Hinton長期辯論的迴環,最終在“自監督學習/世界建模”上會合:少些人工規則、多些從環境中學習的能力,讓模型用更低成本積累正確的經驗。共識四:智能體化與“AI工廠”,把AI從工具變成生產系統。  從“對話介面”走向“會執行任務的系統”,再通過“AI工廠”把智能以接近即時的方式持續產出,這是把軟體與算力、資料、流程統一在一條價值鏈上的思路。三、從“會說話”到“會做事”:智能體與具身智能的產業意義為什麼必須跨過“行動的門檻”? 因為真實業務流程是時空連續的:它不是只要回答,還要觀察、規劃、呼叫工具、完成反饋閉環。只有當模型具備空間理解與行動控制的能力,AI才能從“回答一段話”升級為“完成一件事”。這正是李飛飛所強調的空間智能與LeCun所強調的物理世界建模在產業上的交叉點。為什麼這一步現在可行?  一是工程可擴容:訓練—部署的流程日益成熟;二是資料可結構化:多模態感測把“世界狀態”轉為“可被模型消費”的資料;三是算力可負擔:注意力等關鍵算子持續被最佳化,單位能力的計算成本在下降,打開了更多曾因成本過高無法落地的場景。四、從“會說話”到“會做事”:AI的產業路線圖AI 正在經歷一次真正的轉折。過去幾年,我們關注的是“模型能不能說得更像人”,而接下來兩年,焦點會變成“它能不能幫人把事做成”。這一變化並不抽象,它已經在技術、組織和投資三個層面發生。A. 技術層面:從模型變成系統第一步,是讓模型從“語言高手”變成“全能選手”。未來的基礎模型不再只是理解文字,它還要能看懂圖像、理解視訊、聽懂語音,甚至能操作外部工具。也就是說,它需要“會看、會聽、會動”,而不僅是“會說”。第二步,是讓這些能力能被有效組織起來。AI 不再是單個模型在工作,而是許多“智能體”協同完成一件任務。它們會自動拆分任務、規劃執行步驟、呼叫不同工具,然後在遇到錯誤時自己重試或請求人類協助。這相當於給 AI 裝上了“大腦 + 手腳 + 執行流程”的系統結構。第三步,是讓 AI 真正理解和測試真實世界的運作方式。要做到這一點,企業需要建立“數字孿生”環境,也就是現實世界的模擬。AI 可以先在這個虛擬世界裡試錯、規劃、最佳化,再把方案應用到真實業務中,這樣既安全又高效。最後一步,是把這一切做成標準化的“AI 工廠”。它的核心理念是:AI 不再是一種單一產品,而是一條持續運轉的生產線。每個環節——算力、資料、模型、任務調度、部署與監控——都像工業流水線一樣被統一管理和最佳化。B. 組織層面:讓 AI 真正進入流程中間很多企業今天把 AI 放在“輔助工具”的位置,比如一個聊天機器人或推薦演算法。但真正的機會在於讓 AI 直接承擔流程的一部分。比如在客服流程中,AI 不只是回答問題,而是能直接完成退貨、開票、通知客戶等動作;在供應鏈場景中,它不只是提供分析,而是直接參與排期與調度決策。因此,企業需要重新設計組織流程:首先,把任務拆分,明確那部分由人負責,那部分由 AI 負責。其次,AI 的目標不應只是“回答正確”,而應該是“把任務完成”,並以“成功率”“一次通過率”“節省的人力小時數”等指標來衡量。最後,AI 也需要被“治理”——就像任何一條生產線一樣,必須有版本管理、灰度上線、回滾機制和風險監控。C. 投資與產品機會:新的增長點正在浮現多模態智能體:具備“讀、看、聽、說、做”的能力的 AI,將在更多行業中登場,比如企業自動化營運、財務風控、法律文件、醫療質控、客服外呼等。AI 工廠底座:提供算力最佳化、模型訓練、資料治理、安全與合規服務的底層基礎設施,會成為下一個“雲端運算”賽道。行業作業系統:未來的行業軟體,不只是一個系統或APP,而是一套能快速配置的 AI 流程範本。它能讓中小企業像搭積木一樣,把自己的業務快速“AI 化”。通俗一點說,這張路線圖的核心就是:從“讓機器會說話”,到“讓機器幫我們把事完成”;  從“模型輸出一句話”,到“智能體執行一個閉環任務”;  從“AI 是助手”,到“AI 是流程的一部分”;  從“實驗室技術”,到“工廠化生產系統”。這是AI產業真正走向成熟的標誌,也意味著新一輪的技術與商業融合正在展開。結語:AI的未來,不在奇點,而在持續進化這場關於AI未來的對話,真正重要的不是誰更接近“通用智能”的終點,而是誰更理解“智能”的路徑。Hinton、LeCun、Bengio、李飛飛、黃仁勳、Dally 六人代表著AI發展中最關鍵的三個力量:理論、資料與工程。當這三股力量匯聚到一起時,我們看到的不是科幻的爆發點,而是一條極具現實性的增長曲線——它正在從“語言”走向“行動”,從“模型”走向“系統”,從“智能”走向“生產力”。AI 的未來,不會像閃電一樣突然降臨,而會像城市的燈光那樣,一盞盞被點亮。每一個新的模型、每一條新的資料流水線、每一家敢於將 AI 引入核心業務的企業,都是這片夜色中被點亮的窗口。當我們從“會說話”邁向“會做事”,當AI開始承擔起實際的任務、協同與創造,我們才真正進入了“後語言時代”的人工智慧階段。那時,AI 不再只是聰明的回答者,而是可靠的行動者;它不是替代人類,而是擴展人類的能力邊界。而這,也許才是所有人工智慧先驅們真正想看到的未來。 (AI Xploring)
AI六巨頭同台:AGI,不再是「未來」的事了
(2025年伊莉莎白女王工程獎得獎者圓桌對話精彩片段)2025 年11 月7 日,倫敦伊莉莎白女王工程獎頒獎典禮後,一場圓桌對話正在改寫人們對AI 未來的認知。六位與會者不是普通的產業代表,而是這場AI 革命的關鍵人物:Geoffrey Hinton、Yoshua Bengio、Yann LeCun:深度學習三位奠基者;李飛飛:ImageNet發起人、空間智能開創者;Bill Dally:GPU運算架構總設計師;黃仁勳:AI 工業化的最大推動者。這是一場極為罕見的集體對話核心議題只有一個:通用人工智慧(AGI)真的來了嗎?沒有人給出標準定義,也沒有人宣佈技術已經完成。但在接下來30 分鐘裡,六位先驅從各自角度傳遞出同一個訊號:AGI不再是遙遠的終點,它已經開始在現實中發揮作用。Hinton說:20年內,機器將在辯論中戰勝所有人黃仁勳說:我們今天就在用AGI等級的智慧做實際工作李飛飛說:某些領域機器已超越人類,但演化方向未必是人類化LeCun則直言:目前大模型不等於真正的智能,我們連像貓一樣聰明的機器都沒有分歧背後,藏著一個共識:範式正在轉變。第一節| 四十年累積:AGI是怎麼出現的當主持人問:你人生中那個頓悟時刻是什麼?那個讓你走上AI 之路的瞬間,六個人輪流講述了各自的起點。這些故事相隔幾十年,卻拼成了一條清晰的時間線:今天的AGI,不是突變出來的,而是四十年一步步演化的結果。Yoshua Bengio 說,他第一次對AI產生強烈興趣,是在研究生時期讀到Geoff Hinton的早期論文。那時,他突然意識到:也許人類智慧背後有一套簡單的原理,就像物理定律一樣。正是這個發現,讓他決定投身神經網路研究。幾十年後,當ChatGPT問世,他又經歷了第二次震撼:天那,我們在做什麼?我們創造了能理解語言、有目標的機器,但如果它的目標和人類不一致,會發生什麼事?於是他徹底轉向AI 安全和倫理研究,把理解智能變成約束智能。Geoffrey Hinton 的記憶比較早。1984年,我試著讓一個小模型預測一句話的下一個詞,他說,它能自己學會單字之間的關係。那是一個微型語言模型。當時他只有100個訓練樣本,卻在那時看到了未來的雛形:只要模型能預測下一個詞,它就能開始理解世界。那就是後來所有大型語言模型的原型,只是當時沒有算力,也沒有足夠的資料。他停頓了一下,補充說:我們花了40年,才有今天的結果。Bill Dally 則經歷了兩次關鍵頓悟。第一次是在90年代末的史丹佛。他在思考如何解決記憶體牆問題,也就是存取記憶體的能耗和時間成本遠高於計算本身的困境。他想到把計算組織成由資料流連接的核心,這樣可以用更少的記憶體存取完成更多運算。這個想法後來發展成流處理,最後演變成GPU計算。第二次是2010年的一個早餐。我和吳恩達在史丹佛吃早餐,他說他們在Google用1.6萬個CPU訓練神經網路,讓機器學會在網路上找貓。 就在那時,Dally意識到,這不再是實驗室的想像,而是一種可以規模化的運算模式。他回到NVIDIA,和Brian Catanzaro用48個GPU重現了那個實驗。結果讓他徹底信服:GPU就是深度學習真正的引擎。我們必須專門為深度學習設計GPU,他說,那次早餐改變了NVIDIA的方向,也改變了我的後半生。李飛飛 的頓悟來自另一個維度:資料。人類智慧在成長初期被海量感官資料淹沒,但機器沒有。2006 到2007 年間,她正從研究生過渡到年輕教授,嘗試了貝葉斯、支援向量機、神經網路等各種演算法,但機器依然無法泛化,無法辨識新樣本。她和學生終於意識到:缺的不是演算法,是資料。於是他們決定做一件當時看來很瘋狂的事:在三年內手工標註1500萬張圖片,建立ImageNet,覆蓋2.2萬個類別。那套資料後來成為AI視覺革命的基石,也讓機器第一次具備了看懂世界的能力。她說:巨量資料驅動機器學習,這是今天所有AI 擴展定律(Scaling Law)的基礎。Yann LeCun 是​​最早的同行者之一。我本科時就被一個想法吸引,就是讓機器自己學,而不是教它怎麼做。 1983年他讀研究所時,第一次讀到Hinton的論文;兩年後,兩人在一次午餐上碰面,發現能接彼此的話。我覺得自己太懶,或是太笨,不能手寫智能的規則。讓機器自組織學習,這才是生命的方式。有趣的是,他和Hinton 曾在80年代末期爭論:是監督學習還是無監督學習才是出路?後來ImageNet 的成功讓整個領域暫時轉向了監督學習。但到了2016、2017年,他們意識到必須回到自監督學習。這正是今天大語言模式的訓練方式。四十年後,他依然堅持:智能的核心是自我組織,而不是指示。最後,輪到黃仁勳。對我來說,最重要的時刻,是意識到設計晶片和建構深度學習系統的底層邏輯是相通的。他解釋說,他是第一代能用高層抽象和結構化工具設計晶片的工程師。 2010年前後,當他看到深度學習也在用框架和結構化方法開發軟體時,突然意識到:這和晶片設計的思考方式何其相似。也許我們可以像擴充晶片設計那樣,擴展軟體能力。後來,當多倫多、紐約、史丹佛的研究團隊幾乎同時聯絡NVIDIA請求算力支援時,他明白:AI正在從理論走向工程。一旦演算法能在一個GPU上並行運行,就能在多個GPU上運行,然後是多個系統,多個資料中心。剩下的就是工程外推。六個故事連起來,就是AI 四十年的演化圖譜。Hinton種下演算法的種子,Bengio把它變成科學問題,LeCun讓它學會自組織,李飛飛讓它看到世界,Bill Dally 讓它運行得更快,黃仁勳把它變成產業的引擎。當然,他們的工作遠比這更複雜,彼此交織、互相啟發,但這六個人確實共同塑造了今天AI的基礎。今天的AGI,不是突然誕生的天才,而是這些人四十年共同塑造的歷史處理程序。第二節|時間線撕裂:有人說已來,有人說永遠不會四十年前,他們各自踏上了AI之路。四十年後,站在同一個終點前,他們卻看到了不同的未來。當主持人問出那個問題:我們距離人類層次的智能,還有多久?這是所有人都繞不開、從未達成共識的問題。接下來的幾分鐘裡,六個人給了六種截然不同的答案。他們談的不是模型進展、發佈速度,而是真正意義上的智慧機器,那種能理解、思考和行動的系統。LeCun 第一個開口,直接否定了問題的前提。這不會是一個事件。因為能力會在各領域逐步擴展。也許在接下來的五到十年裡,我們會在提出新典範方面取得一些重大進展。然後進展會來臨,但會比我們想像的時間更長。他的意思很明確:不要等待一個奇點時刻,AGI是漸進的,而不是突變的。李飛飛 提出了另一個視角: 問題不該是AI會不會超越人類,而是在那些方面已經超過。機器的某些部分將超越人類智能,部分已經在這裡了。我們有多少人能辨識2.2萬個物體?能翻譯100種語言?她接著說:就像飛機比鳥飛得高,但方式完全不同。基於機器的智慧將做很多強大的事情,但人類智慧在我們人類社會中始終佔據關鍵地位。她的意思是:超越已經發生,但不是複製,也不是替代。黃仁勳則完全不同。 他沒說年份,反而當場否定了這個問題本身。我們有足夠的通用智能,可以在未來幾年將科技轉化為大量對社會有用的應用。我們今天就在這樣做。我認為這不重要,因為在這一點上這有點像學術問題。從現在開始,我們將應用這項技術,技術將繼續變得更好。他給的不是預測,而是現實進度條:不是將來會有用,是現在就已經在用。Hinton 的回答更具體: 如果你和機器進行一場辯論,它總是能贏你。我認為,這種情況將在20年內發生。他說這句話時語氣平靜,但訊息量龐大。這不僅是預測,更是確認:我們正沿著那條路走著,只是速度問題。Bill Dally 提醒大家: 也許問題本身是錯的。我們的目標不是建構AI來取代人類或比人類更好,而是建構AI來增強人類。我們想做的是補充人類擅長的事。AI做擅長的事,人類保留創造力、同理心、協作。我們互補,而不是取代。 在他看來,達到人類智能這個說法本身就帶偏了方向。Yoshua Bengio 最後發言,提出了最具爭議性的觀點。我要在這一點上表示不同意。我看不出有任何理由,在某個時候我們不能建造能做我們幾乎所有事情的機器。他給出的資料是:AI在規劃能力上過去六年呈指數級增長。如果這個趨勢延續,五年內AI就能達到工程師等級的能力。更關鍵的是,許多公司正在讓AI做AI研究,設計下一代AI系統。這可能會催生許多其他突破。但他最後強調:我不是說一定會發生,我們應該保持不可知論,不做大的聲明,因為有很多可能的未來。六個回答,六種時間感。Lecun 說漸進演化但比想像更久;李飛飛說某些能力已超越;黃仁勳說現在就在用;Hinton給出20年預測;Bill Dally質疑問題本身;Bengio又說五年可達工程師水平,但充滿不確定。我們看到的不是一條明確路線,而是越來越撕裂的時間認知。對未來的判斷,本質上反映的是他們對智能本身理解的差異。第三節| 從語言到行動:智能的下一步在爭論未來的同時,他們更關注當下正在發生的轉變。過去幾年,AI 的進步集中在語言能力上。 ChatGPT、DeepSeek等大模型,正幫助全球使用者解答問題、撰寫摘要與提供方案。但在這場對話裡,幾位頂尖研究者不約而同地指出:下一階段,AI 要從語言走向行動。✅ 李飛飛是第一個點明方向的人。人類智能從來不只靠語言。我們的大腦天生處理空間,能感知、能推理、能動、能幹事。這些是今天AI還很薄弱的地方。她指出,現在最強的語言模型,如果拿來做空間判斷任務,結果很差。 這也正是她過去幾年研究的重點:空間智能。我們太專注於會說話的機器,但忽略了世界是三維的,需要身體、方向和動手能力。✅ LeCun的態度較為清醒。他在整場對話中反覆強調一個判斷:當前的大語言模式範式,離真正的智慧還很遠。我個人不相信目前的大語言模型範式可以被推到擁有人類水平智慧的程度。我們沒有像貓一樣聰明的機器人。我們仍然缺少一些重大的東西。 在他看來,AI進步不僅僅是更多基礎設施、更多資料、更多投資的問題,而是一個科學問題:我們如何向下一代AI取得進展。他一直主張的方向是:讓機器自己從環境中學習,而不是靠人類把答案喂進去。就像嬰兒那樣,不靠提示詞,而靠觀察和試錯。我們不可能喂孩子吃幾億個對話資料集,但孩子依然能學會語言,是因為他在環境中主動學習。這是他所說的自監督學習,也是他認為突破目前瓶頸的關鍵方向。✅ 黃仁勳把這個問題拉回現實場景。今天AI 不只是做對話工具,而是開始接手工作。它不是更聰明的搜尋引擎,而是能完成任務的夥伴。我們已經看到AI 在寫程式碼、看病、做財務。這不只是說,而是在幫你工作。為了描述這種變化,他提出了一個新比喻:我們過去把軟體叫做工具,現在AI是工廠。它即時生成智能,就像電廠即時發電一樣。我們需要數千億美元的這些工廠,以服務建立在智慧之上的數兆美元的產業。這意味著:我們不能再把AI 看作一個能回答問題的程序,而要把它看作一個不斷工作、持續輸出的生產系統。我們看到的改變是:AI 正從說得好轉向能做事。從聊天窗口,走進真實流程;從被動反應,開始主動執行。這不只是功能增強,而是範式變化。這也是為什麼,他們在談AGI 時,不再爭論參數有多大,而在討論:AI 要怎麼和人類一起工作?它要放在什麼位置?它要有怎樣的能力邊界?結語|不是什麼時候,而是正在發生這場對話,沒有人給出AGI 的標準定義,沒有人宣佈它正式誕生。但幾乎​​每個人都在描述它的存在方式。黃仁勳說:AI工廠已經開始運作。Hinton說:20年內,它會贏下所有辯論。李飛飛提醒我們:我們太注意它說了什麼,卻忽略了它做了什麼。AGI不是某一天突然上線的產品,而是正在滲透每個組織、每個流程、每個職位的現實。這場對話結束時,主持人說了一句:一年後如果再做這樣的對話,將會是個不同的世界。也許,改變已經開始了。(AI深度研究員)
AI的黎明:黃仁勳, 辛頓, 李飛飛, 楊立昆, 約書亞, Bill Dally|六位人工智慧奠基人對談我們時代的“曼哈頓項目”
城主說|這是一次最新的訪談, 非常罕見, 可以說絕無僅有.六位鼎鼎大名的塑造了我們今天所知的人工智慧(AI)世界的先驅,因共同榮獲2025年伊麗莎白女王工程獎而齊聚一堂。他們是Geoffrey Hinton、Yann LeCun和Yoshua Bengio——深度學習領域公認的「三巨頭」;Jensen Huang和Bill Dally——輝達的掌舵者與首席科學家,為這場革命提供了算力引擎;李飛飛——ImageNet的建立者,用「巨量資料」點燃了演算法的火焰。他們分享了各自職業生涯中的「頓悟」時刻,這些時刻不僅塑造了他們的研究方向,也共同推動了今日人工智慧技術的發展。討論深入探討了當前AI熱潮的本質,分析了其是真實的產業革命還是短暫的泡沫,並最終展望了通用人工智慧(AGI)的未來,各位先驅就其實現時間線和核心定義給出了截然不同但發人深省的觀點。這些AI的締造者們,親自復盤其思想的源起,剖析當下的狂熱,並就通用人工智慧(AGI)的未來,給出了截然不同、甚至相互矛盾的深刻洞見。更重要的是,他們就一個核心問題展開了辯論:我們是正處在一場真實的產業革命中,還是一個即將破裂的泡沫裡?而關於人類水平智能的最終追問,則展現了該領域最頂尖頭腦之間的巨大分歧,預示著未來的道路充滿了機會與不確定性。核心觀點摘要「這花了40年才走到今天。這花了40年的原因是,我們沒有算力,也沒有資料。」 - Geoffrey Hinton「AI需要工廠來生產這些令牌,來產生智慧。這是一次千年一遇的(變革),以前從未發生過電腦實際上是工廠的一部分的情況。」 - Jensen Huang「如果人類將要進入人工智慧時代,那麼指導框架是什麼?這樣我們不僅能創新,還能通過這項強大的技術為每個人帶來仁慈。」 - 李飛飛「在某種意義上存在泡沫,那就是某種程度上認為當前的大型語言模型範式將被推到擁有人類等級智能的程度,我個人不相信這一點。」 - Yann LeCun “如果你把這定義為通用人工智慧(AGI),它總是會在辯論中勝過你。我們可能會在不到20年的時間內達到那個目標。” - Geoffrey Hinton「這是一個錯誤的問題…我們的目標不是建構人工智慧來取代人類或比人類更優秀。我們的目標是建立人工智慧來增強人類。」 - Bill Dally「如果我們延續這種趨勢,大約在5年內,人工智慧就能達到一名員工在其工作崗位上的能力水平。」 - Yoshua Bengio頓悟時刻:塑造AI歷史的個人啟示今天的AI革命,其種子是在數十年前,由在座各位嘉賓在各自領域經歷的「頓悟時刻」播下的。 Yoshua Bengio回憶起研究生時期初讀Geoffrey Hinton的論文,“我想,哇,這太令人興奮了。也許有一些簡單的原則,就像物理定律一樣,可以幫助我們理解人類智能。” 而正是Hinton,在1984年通過一個微型的語言模型驚奇地發現,「僅僅通過嘗試預測符號串中的下一個單詞,它就能學會如何將單詞轉換成捕獲單詞含義的特徵集合。」 這正是今天大型語言模型的思想前身,但Hinton坦言,“這花了40年才走到今天。這花了40年的原因是,我們沒有算力,也沒有資料。”這個歷史性的瓶頸,最終由房間裡的另外幾個關鍵人物打破。 Bill Dally在90年代末期為解決「內存牆」問題,構想出了流處理架構,這為後來的GPU計算奠定了基礎。而真正的轉折點發生在2010年,他與吳恩達的一次早餐會讓他確信,“我們應該構建我們的GPU來進行深度學習。” 幾乎在同一時間,Jensen Huang也從多倫多大學、紐約大學和史丹佛大學的研究中觀察到了一個驚人相似的模式。“我能夠開發軟件,這對我來說與設計晶片非常相似。而且模式非常相似。那時我意識到,也許我們可以開發出能夠很好地擴展的軟件和能力,就像我們多年來擴展晶片設計一樣。”然而,強大的算力若沒有海量的資料,也只是空轉的引擎。李飛飛在2006年意識到,當時機器學習的真正瓶頸是資料匱乏。「我和我的學生意識到,缺少的部分是數據…所以我們決定在那時做一件瘋狂的事情,在三年內建立一個互聯網規模的數據集,名為ImageNet。」這個 決定,最終為整個領域提供了燃料,開啟了巨量數據驅動的AI新範式。 Yann LeCun則從更早的源頭——讓機器自我學習而非被動編程——找到了自己的道路,並最終與Hinton和Bengio殊途同歸,共同推動了自監督學習的發展,這正是今天大型語言模型訓練的核心思想。當下浪潮:泡沫還是新紀元?當話題轉向當下席捲全球的AI投資熱潮時,作為這場風暴中心的輝達CEO,Jensen Huang給出了一個堅定的判斷:這不是泡沫。他提出了一個強有力的比喻,將其與互聯網泡沫時期的「暗光纖」區分開來。「今天,你能找到的幾乎每個GPU都被點亮並使用……我們現在有了一個行業,其中產生真正有價值且需求旺盛的東西所需的計算量非常巨大。我們創造了一個需要工廠的行業。這就是為什麼我提醒我們自己,AI需要工廠來生產這些令牌,來產生智能。」 在他看來,世界正在建設的是生產「智能」需求,這就是巨大的商品Bill Dally對此表示贊同,他認為模型效率的提升、模型能力的增強以及應用場景的爆炸式增長這三個趨勢,共同支撐著這場變革的持續性。“我認為我們可能已經達到了最終需求的百分之一。因此,隨著需求的擴大,這種用途的數量將會增加。所以我認為這裡面沒有什麼泡沫。”然而,Yann LeCun提出了一個關鍵的、更為審慎的觀點。他認為,雖然基於現有大型語言模型的應用開發前景廣闊,足以支撐當前的投資,但在某種意義上存在泡沫,那就是某種程度上認為當前的大型語言模型範式將被推到擁有人類等級智能的程度,我個人不相信這一點。 他強調,要實現真正的、像動物甚至人類一樣的智能,尤其是在機器人和物理互動方面,還需要基礎科學上的新突破。李飛飛也從「空間智能」的角度呼應了這一觀點,指出即使是今天最強大的基於語言或基於LLM的模型,也無法通過基本的空間智能測試。 這意味著,AI的未來版圖遠比語言模型所能覆蓋的要廣闊得多,而那片新大陸仍有待探索。展望未來:人類水平智慧還有多遠?當討論進入最激動人心也最具爭議的環節——通用人工智慧(AGI)的實現時間線時,共識瞬間瓦解。這些最頂尖的頭腦,給出了從幾年到幾十年,甚至「這是一個錯誤的問題」的迥異答案。Geoffrey Hinton給出了一個最明確和大膽的預測。當被問及機器在辯論中總是能勝過人類的時刻何時到來時,他回答:“我認為這肯定會在20年內發生。” Yoshua Bengio的預測則更為激進,他基於過去幾年AI規劃能力的指數級增長趨勢推斷:“如果我們延續這種趨勢,大約在5年內,人工智慧可能達到一名員工在其工作崗位上的能力水平 。與此形成鮮明對比的是更務實的工程視角。 Jensen Huang認為,AGI何時到來的問題**“無關緊要”,因為“我們擁有足夠的通用智能,可以在未來幾年內將這項技術轉化為大量對社會有用的應用……我們今天就在做。”** Bill Dally更是直言,“這是一個錯誤的問題……因為我們的目標不是構建人工智慧來取代人類或比人類更優秀。我們的目標是構建人工智慧來增強人類人工智慧。”李飛飛和Yann LeCun則提供了更複雜、更細緻的觀點。李飛飛認為,這個問題本身需要被解構:“機器的某些部分將取代人類智能,而機器智能的某些部分將永遠不會與人類智能相似或相同。它們是為了不同的目的而建造的。” Yann LeCun則強調,這不會是一個單一的“事件”,而是一個能力逐步擴展的漫長過程。結語:沒有共識的共識這場歷史性的對話,最終在一個「沒有共識」的共識中結束。 AI的締造者們,對於他們親手開啟的這場革命的最終走向,並沒有統一的答案。這本身或許就是最重要的啟示:我們正處在一個充滿無限可能性的黎明時刻,前方的道路並非線性延伸,而是充滿了需要科學突破的未知領域。可以肯定的是,這場對話的參與者們,將繼續在這條道路上引領我們前行,即便他們自己,也仍在激烈地辯論著最終的目的地。天空之城全文整理版頓悟時刻:塑造AI歷史的個人啟示主持人: 我很高興能被選中向大家介紹今天圍坐在桌旁的這群傑出人士。我認為他們是當今地球上最傑出、最有影響力的人中的6位。我認為這絕非誇大其詞。這些是2025年伊麗莎白女王工程獎的得主。今天我們看到的獲獎者因其對當今人工智慧技術的獨特影響而受到表彰。鑑於你們在高級機器學習和人工智慧方面的開創性成就,以及你們幫助建構的創新如何塑造我們今天的生活。我想每個人都很清楚,為什麼能讓你們齊聚一堂是一個非常難得和令人興奮的機會。就我個人而言,我非常興奮地想聽聽你們反思我們所處的當下,每個人都試圖超越和理解的當下,以及你們的旅程,將你們帶到今天的旅程。但也要理解你的工作以及你作為個體如何相互影響和作用,以及你所建立的公司和技術。最後,我很樂意聽到你們展望未來,幫助我們更清楚地看到未來,而你們最適合做這件事。所以我很高興今天能和大家在一起,並期待討論。所以我將從宏觀視角開始,逐步深入到非常個人的層面。我想聽聽你們每個人在職業生涯中的個人「頓悟」時刻,你認為這些時刻對你所做的工作產生了影響,或者是一個轉折點,讓你走上了今天的道路,從而讓你坐在這裡。無論是在你職業生涯的早期、研究階段,還是最近,是什麼樣的個人覺醒時刻影響了技術?我們從你開始好嗎,Yoshua?謝謝。Yoshua: 好的,很樂意。我想講兩個時刻。一次是我讀研究所時,我正在尋找一些有趣的研究課題,我讀了Geoff 辛頓的一些早期論文,我想,哇,這太令人興奮了。也許有一些簡單的原則,就像物理定律一樣,可以幫助我們理解人類智能,並幫助我們建構智慧手機器。我想談的第二個時刻是兩年半前,在GPT問世後,我意識到,哦,我們在做什麼?如果我們製造出能夠理解語言、擁有目標,而我們又無法控制這些目標的機器,會發生什麼事?如果它們比我們更聰明,會發生什麼?如果人們濫用這種力量,會發生什麼?所以我決定完全改變我的研究議程和我的職業生涯,盡我所能解決這個問題。主持人: 這是兩種非常不同的事情。非常有趣。請跟我們談談您建立基礎設施的時刻,這些基礎設施正在推動我們今天所擁有的成果。Bill Dally: 也有兩個時刻。所以第一個是在90年代末,我在史丹佛大學試圖弄清楚如何克服當時被稱為「內存牆」的問題,即從內存訪問資料在能源和時間上的成本遠高於對其進行算術運算。我突然想到將計算組織成由流連接的這些核心,這樣你就可以進行大量的算術運算而無需進行太多的內存訪問。這基本上為後來被稱為流處理(最終是GPU計算)奠定了基礎。我們最初建構它是考慮到我們可以將GPU不僅應用於圖形,還可以應用於一般的科學計算。所以第二個時刻是我和我的同事吳恩達在史丹佛大學共進早餐,當時他在Google工作,使用一種叫做神經網絡的技術在互聯網上尋找貓,使用了16000個CPU。他基本上說服我這是一項偉大的技術,所以我與Brian Kappenzauer合作,在輝達的48個GPU上重複了實驗。當我看到結果時,我絕對相信這就是輝達應該做的事情。我們應該建構我們的GPU來進行深度學習,因為這在尋找貓以外的各種領域都有巨大的應用。那是一個頓悟時刻,真正開始努力專門化GPU用於深度學習,並使它們更有效。主持人: 飛飛也參與其中。那是什麼時候?那一年?Bill Dally: 早餐會是在2010年,我認為我們在2011年重複了那個實驗。主持人: 好的。傑夫,跟我們講講你的工作。辛頓: 我想一個非常重要的時刻是大約在1984年,我嘗試使用反向傳播來學習單詞序列中的下一個單詞。所以那是一個很小的語言模型,並且發現它可以學習到單詞含義的有趣特徵。所以僅僅是給它一串符號,僅僅通過嘗試預測符號串中的下一個單詞,它就能學會如何將單詞轉換成捕獲單詞含義的特徵集合,並且讓這些特徵之間產生互動,從而預測下一個單詞的特徵。所以那其實是來自1980年代末,1984年末的小型語言模型,我認為它是這些大型語言模型的前身。基本原理是相同的。只是很小。但這花了40年。我們有100個訓練樣本。主持人: 雖然,這花了我們40年才走到今天。辛頓: 這花了40年才走到今天。這花了40年的原因是,我們沒有算力,也沒有資料。當時我們並不知道這一點。我們無法理解為什麼我們不能僅僅用反向傳播來解決所有問題。主持人: 這讓我們順利地談到了Jensen。 40年來我們沒有算力,而現在,你正在建構它。告訴我們你真正清晰的時刻。黃仁勳: 就我的職業生涯而言,我是第一代能夠使用更高等級表示和設計工具來設計晶片的晶片設計師。當我在2010年左右,同時從三個不同的實驗室理解到一種新的軟件開發方式時,這個發現很有幫助。多倫多大學發生了什麼,那裡的研究人員與我們聯絡的同時,紐約大學的研究人員也與我們聯絡,史丹佛大學的研究人員也在同一時間與我們聯絡。大約在同一時間,我看到了深度學習的早期跡象,它使用框架和結構化設計來建立軟件。結果證明該軟件非常有效。第二個觀察結果,再次看到,使用框架、更高層次的表示、結構化類型的結構,例如深度學習網絡,我能夠開發軟件,這對我來說與設計晶片非常相似。而且模式非常相似。那時我意識到,也許我們可以開發出能夠很好地擴展的軟件和能力,就像我們多年來擴展晶片設計一樣。所以對我來說,那是一個重要的時刻。主持人: 您認為晶片真正開始幫助擴展我們今天擁有的大型語言模型(LLM)的時刻是什麼時候?因為您說是2010年,那仍然是15年。黃仁勳: 是的。輝達架構的優點在於,一旦你能夠讓某些東西在GPU上良好運行,因為它變成了平行的,你就可以讓它在多個GPU上運作良好。將演算法擴展到在單一GPU上運行於多個處理器的相同思路,同樣適用於在多個GPU上運行,然後現在可以擴展到多個系統,甚至多個資料中心。因此,一旦我們意識到可以有效地做到這一點,剩下的就是想像你可以將這種能力推斷到什麼程度。我們有多少資料?互聯網可以有多大?它可以捕獲多少維度?它可以解決什麼樣的問題?所有這些在那個時候實際上都是工程問題。深度學習模型如此有效這一觀察,確實是一個火花。剩下的實際上是工程推斷。主持人: 飛飛,和我們說說你的時刻。李飛飛: 是的。我還有兩個時刻要分享。大約在2006年和2007年,我正在從一名研究生過渡到一名年輕的助理教授。我是第一代機器學習研究生,閱讀楊、約書亞、傑夫的論文。我當時非常著迷於試圖解決視覺辨識問題,也就是讓機器能夠理解日常圖片中物體的意義。我們在機器學習中遇到一個叫做泛化性的難題,也就是說,在從一定數量的例子中學習後,我們是否能識別新的例子,新的樣本?我嘗試了所有可能的演算法,從貝葉斯網絡到支援向量機再到神經網絡。我和我的學生意識到,缺少的部分是資料。如果你看看像人類這樣的智慧動物的進化或發展,我們早期發展階段被資料淹沒,但我們的機器卻缺乏資料。所以我們決定在那時做一件瘋狂的事情,在三年內建立一個互聯網規模的數據集,名為ImageNet,包括1500萬張圖片,由世界各地的人們手工整理,涵蓋22000個類別。對我來說,那一刻的頓悟就是巨量資料驅動機器學習。主持人: 現在它是限制因素,是我們所見所有演算法的基石。李飛飛: 它是當今人工智慧擴展定律的一部分。第二個頓悟時刻是2018年,我當時是Google雲人工智慧的首位首席科學家。我們所做的工作之一是服務於陽光下的所有垂直行業,對吧?從醫療保健到金融服務,從娛樂到製造業,從農業到能源。那是在我們稱為ImageNet AlexNet時刻的幾年後,以及AlphaGo之後的幾年。我意識到…AlphaGo是一種能夠在圍棋這種中國棋盤遊戲中擊敗人類的演算法。是的。身為Google的首席科學家,我意識到這是一項文明技術,將影響每個個體人類以及每個商業領域。如果人類將要進入人工智慧時代,那麼指導框架是什麼?這樣我們不僅能創新,還能透過這項強大的技術為每個人帶來仁慈。所以我回到史丹佛大學擔任教授,共同創立了以人為本的人工智慧研究所,並提出了以人為本的人工智慧框架,以便我們能夠將人性和人類價值觀置於這項技術的中心。主持人: 那麼,既要發展,也要關注影響和下一步,這就是我們其餘人介入的地方。揚,你想在這裡總結一下嗎?你覺得最精彩的部分是什麼?楊立昆: 可能要追溯到很久以前。我意識到,當我還是本科生的時候,我對人工智慧和更廣泛的智慧問題著迷,並發現50年代和60年代的人們致力於訓練機器,而不是程式設計機器。我對這個想法真的很著迷,可能是因為我覺得我太笨或太懶,無法從頭開始建造一台智慧手機器,對吧?所以最好讓它自己訓練自己,或是自我組織。這就是生命中智慧建構自身的方式。它是自我組織的。所以我想這個概念非常吸引人,但是當我從工程學畢業時,我找不到任何人。順便說一句,我當時在做設計。我想去讀研究所。我找不到任何人在研究這個,但和一些對此感興趣的人聯繫上了,發現了傑夫的論文,例如。他是1983年我開始讀研究所時最想見的人,我們最後在兩年後見面了。主持人: 那麼今天你們是朋友,可以這麼說嗎?楊立昆: 是的。哦,我們在1985年一起吃了午飯,基本上我們可以互相接話。他在一次會議上用法語寫了一篇論文,並在會上作了主題演講,並且設法破譯了其中的數學原理。它有點像是反向傳播,用來訓練多層網絡。從60年代開始人們就知道,機器學習的限制在於我們無法用多層來訓練機器。所以那真的是我的執念,也是他的執念。所以我寫了一篇論文,提出了一些可行的方法,他設法看懂了其中的數學原理。我們就是這樣聯絡上的。主持人: 這就是讓你走上這條道路的原因。楊立昆: 是的。在那之後,一旦你能訓練像這樣的複雜系統,你就會問自己,那麼我該如何建構它們?它們可以做一些有用的事情,例如識別圖像或類似的東西。當時,我和傑夫在80年代末我做博士後時有過一場辯論。我認為唯一被很好地公式化的機器學習範式是監督學習。你向機器展示一張圖片,然後告訴它答案是什麼。對。他說,不,不,不。就像我們取得進展的唯一方法是無監督學習。並且當時有點不屑一顧。在2000年代中期,當Yoshua和我開始合作並重新燃起社區對深度學習的興趣時,我們實際上把賭注押在了無監督學習上。這只是一個強化循環,對吧?這不是強化。不,這基本上是在沒有訓練機器執行任何特定任務的情況下發現資料中的結構,順便說一下,這正是大型語言模型(LLM)的訓練方式。因此,大型語言模型被訓練來預測下一個單詞,但這並不是真正的任務。這只是系統學習一種好的表徵或捕捉結構的方式。主持人: 那裡沒有獎勵系統嗎?抱歉說得太技術性了,但是沒有什麼可以說明這是正確的,因此要繼續這樣做嗎?楊立昆: 如果你能正確預測下一個單詞,那就是正確的。辛頓: 是的。這與強化學習中的獎勵不同,在強化學習中你會說這很好。主持人: 是的。好的。楊立昆: 所以,實際上,我要為此責怪你。事實證明,李飛飛製作了一個名為ImageNet的大型資料集,該資料集被標記。因此,我們可以使用監督學習來訓練系統。結果證明,這實際上比我們預期的要好得多。因此,我們暫時放棄了整個關於自監督和無監督學習的計劃,因為監督學習的效果非常好。我們發現了一些技巧。主持人: 約書亞堅持了下來。我說我沒有。楊立昆: 不,你沒有。它仍然運行良好。但如果你願意,它在某種程度上重新聚焦了整個行業和研究界,專注於深度學習、監督學習等等。又過了幾年,大概在2016、17年左右,我們告訴人們,這不會把我們帶到我們想去的地方。我們現在需要做自監督學習。而大型語言模型(LLM)正是這方面的最佳例子。但我們現在正在做的是將此應用於其他類型的材料,如視頻傳感器數據,而大型語言模型在這方面非常不擅長。這是未來幾年的新挑戰。當下浪潮:泡沫還是新紀元?主持人: 這實際上將我們帶到了現在。我想你們都看到了這股興趣浪潮,來自那些以前不知道人工智慧是什麼,對人工智慧不感興趣的人。現在大家都湧向這裡。這已經不只是一項技術創新,對吧?這是一個巨大的商業繁榮。它已經成為一個地緣政治戰略問題。每個人都在試圖弄清楚這是什麼,或理解它。黃仁勳,我先來問你。我希望你們都反思現在的這一刻。輝達尤其如此,它基本上每天、每小時、每周都在新聞裡出現,你知道,而且你們已經成為世界上最有價值的公司。所以這裡面有一些人們想要的東西。辛頓: 聽到這個你可能要擔心了。主持人: 是的。你知道,請告訴我們,你是否擔心我們正走向一個人們不太理解的境地,我們都跑得太快了,而且會有一個泡沫即將破裂,然後它會自行糾正?如果不是這樣,關於人工智慧帶來的需求,與例如網路泡沫時代相比,或者人們不理解的最大誤解是什麼?如果情況並非如此?在互聯網泡沫時代,在泡沫期間,部署的大部分光纖都是暗光纖,這意味著該行業部署的光纖比它需要的要多得多。黃仁勳: 今天,你能找到的幾乎每個GPU都被點亮並使用。因此,我認為重要的是退一步,去理解和理解什麼是人工智慧。你知道,對很多人來說,人工智慧就是ChatGPT,就是影像生成。這都是真的。這是它的應用之一。在過去的幾年裡,人工智慧取得了巨大的進步,它不僅能記憶和概括,還能推理,有效地思考,並透過研究來紮根。它現在能夠產生答案並做更有價值的事情。這更加有效。並且,能夠建立對其他企業有幫助的業務的公司數量也在增加,例如,一家軟件編程公司,一家我們使用的名為Cursor的AI軟件公司,它們非常盈利,而且我們大量使用它們的軟件。並且,對於那些服務於醫療保健行業、做得非常非常好、產生真正良好結果的精簡版或開放證據來說,它非常有用。而且,而且,因此,AI能力已經成長了很多。因此,我們看到了同時發生的這兩個指數增長。一方面,產生答案所需的計算量已大幅成長。另一方面,這些AI模型的使用量也呈現指數級成長。這兩個指數增長導致了對計算的大量需求。現在,當你退一步,從根本上問自己,今天的AI與過去的軟件行業有什麼不同?過去的軟件是預編譯的,軟件所需的計算量不是很高,但是為了使AI有效,它必須具有上下文感知能力。它必須這樣,目前它只能產生智慧。你無法提前生成它並檢索它。那就是,你知道的,那叫做內容。人工智慧必須即時生成和產生。因此,我們現在有了一個行業,其中產生真正有價值且需求旺盛的東西所需的計算量非常巨大。我們創造了一個需要工廠的產業。這就是為什麼我提醒我們自己,人工智慧需要工廠來生產這些令牌,來產生智慧。這是一次,你知道的,千年一遇的,以前從未發生過電腦實際上是工廠的一部分的情況。因此,我們需要數千億美元的這些工廠,以便為建立在智慧之上的數億美元的行業提供服務。你知道,你回頭看看過去的軟件。過去的軟件是軟件工具。它們被人使用。人工智慧是首次增強人類智慧的技術。因此,它涉及勞動力​​問題。它涉及工作問題。它完成工作。主持人: 所以你說,不,這與人無關。黃仁勳: 我認為,我們正處於智慧建構的初期階段。而且,事實是,今天大多數人仍然不使用人工智慧。主持人: 在不久的將來,我們所做的幾乎每一件事,你懂的,每一刻,你都會以某種方式與人工智慧互動。黃仁勳: 所以,從我們今天的狀態,即使用率相當低的狀態,到我們未來某天的狀態,即使用率基本上是連續的狀態之間,這種構建是,你知道,而且,即使大型語言模型(LLM)的發展停滯,你認為GPU和你正在構建的基礎設施仍然可以在不同的範例中發揮作用。主持人: 接下來我想讓其他人發言。黃仁勳: 大型語言模型(LLM)是人工智慧技術的一部分。你知道,人工智慧是由模型組成的系統,不僅僅是大型語言模型(LLM),大型語言模型(LLM)是其中很大的一部分,但為了使人工智慧比現在更俱生產力,無論我們如何稱呼它,都需要模型的系統和必要的技術。我們還有很多技術需要開發。主持人: 誰想參與進來,談談這個?特別是如果你不同意的話。Yoshua: 我認為我們不應該再稱它們為大型語言模型(LLM)了。它們不再是語言模型了。它們,它們最初是作為語言模型出現的,至少這是預訓練階段,但最近,在使它們成為智能體方面已經取得了很大的進展。換句話說,經歷一系列步驟,為了透過對話與環境、與人們互動,從而實現某種目標,但越來越多的是與計算基礎設施互動。而且技術正在改變。這和三年前的情況完全不同。我認為我們無法預測兩年、五年、十年後技術會發展到什麼程度。但我們可以看到趨勢。所以我正在做的事情之一是試圖召集一組國際專家,以追蹤人工智慧的最新發展,以及它的發展方向。風險是什麼?這些風險是如何被緩解的?而且,在如此多的基準測試中,趨勢非常明顯。現在,你知道,僅僅因為我們過去在改進技術方面取得瞭如此多的成功,並不意味著未來也會一樣。那麼,如果未能達到預期,就會產生經濟後果。但從長遠來看,我完全同意。主持人: 但目前,你們其他人怎麼看?你們認為,根據你們對技術和應用方面的理解,這些估值是合理的嗎?Bill Dally: 我認為有三個趨勢可以解釋目前發生的事情。首先,模型變得越來越有效率。例如,如果你只看注意力機制,從直接注意力到GQA再到MLA,你會以更少的計算量獲得相同或更好的結果。因此,這會以某種方式推動需求,使以前可能過於昂貴的東西變得便宜。現在你可以用人工智慧做更多的事情。與此同時,模型也在變得更好。也許它們會繼續透過transformers變得更好,或者會出現一種新的架構。但我們不會倒退。我們將繼續擁有更好的模型,這些模型仍然需要GPU。當然。是的。事實上,這使得它們比更專業化的東西更有價值,因為它們更靈活,並且可以隨著模型更好地發展。但最後一點是,我認為我們才剛剛開始觸及應用的皮毛。因此,幾乎人類生活的方方面面都可以透過人工智慧協助人們的職業,幫助他們的日常生活而變得更好。我認為我們可能已經達到了最終需求的百分之一。因此,隨著需求的擴大,這種用途的數量將會增加。所以我認為這裡面沒有什麼泡沫。我認為,正如黃仁勳所說,我們正處於多重指數成長的早期階段,而且它會持續下去。主持人: 在某種程度上,輝達已經習慣了這一點,因為即使這種範式發生變化,出現其他類型的人工智慧和其他架構,你仍然需要底層的原子。這對你來說是合理的。飛飛,你想插句話嗎?李飛飛: 我確實認為,當然,從市場的角度來看,它會有自己的動態,有時它會自我調整。但如果你著眼於長期趨勢,我們不要忘記,總的來說,人工智慧仍然是一個非常年輕的領域,對吧?我們走進這個房間,牆上是物理學的方程式。即使我們看現代物理學,物理學也是一門有400多年歷史的學科。人工智慧還不到70年。如果我們追溯到艾倫·圖靈,那大約是75年。因此,未來還有更多的新領域。黃仁勳和約書亞談論了大型語言模型和智能體。這些更多是基於語言的。但即使你對人類智能進行自我反省,語言之外還有更智能的能力。我一直在研究空間智能,這實際上是感知和行動的結合或關鍵,在感知、推理、互動和創造超越語言的世界方面,人類和動物都擁有不可思議的能力。即使是今天最強大的基於語言或基於LLM的模型,也無法通過基本的空間智慧測試。所以從這個角度來看,作為一個學科,作為一門科學,還有更多的前沿需要征服和開拓。這也帶來了應用,你知道,開闢了更多的應用。主持人: Yann,你在一家公司工作,所以你有研究人員和在商業領域工作的雙重視角。你同意嗎?你認為這一切都是合理的,你能看到這一切的根源嗎?還是你認為我們已經走到了盡頭,我們需要找到一條新的路?楊立昆: 所以我認為有幾個觀點顯示我們沒有處在泡沫中。至少有一種觀點,我暗示我們正處於泡沫之中,但它又有所不同。所以我們並不是說基於大型語言模型可以開發很多應用,從這個意義上來說,我們不處於泡沫之中。大型語言模型是當前的主導範式,並且有很多可挖掘之處。這就是,你知道的,比爾所說的,用當前的技術來幫助人們的日常生活。這項技術需要被推動,並且這證明了在軟件方面和基礎設施方面所做的所有投資都是合理的。一旦我們有了,你知道的,每個人都擁有智慧可穿戴裝置,並在他們的日常生活中為他們提供幫助,正如黃仁勳所說,服務於所有這些人所需的計算量將是巨大的。所以從這個意義上講,投資沒有浪費。但在某種意義上存在泡沫,那就是某種程度上認為當前的大型語言模型範式將被推到擁有人類等級智能的程度,我個人不相信這一點,你也不相信。在我們獲得真正具有我們觀察到的那種智慧的機器之前,我們需要一些突破,不僅在人類身上,也在動物身上。我們沒有像貓一樣聰明的機器人,對吧?因此,我們仍然缺少一些重要的東西,這就是為什麼人工智慧的進步不僅僅是更多基礎設施、更多數據、更多投資以及更多當前範式開發的問題。這實際上是一個科學問題,即我們如何朝著下一代人工智慧取得進展。展望未來:人類水平智慧還有多遠?主持人: 這就是你們所有人來到這裡的原因,對吧?因為你們實際上激發了整個事情的開端。我覺得,你知道,我們正朝著工程應用發展。但你所說的是我們需要回到最初把你帶到這裡的原因。關於人類水平智能的問題,我們剩下的時間不多了。所以我只想做一個快速提問。我很好奇,你們每個人能說一下,你們認為我們需要多久才能達到那個程度,即你相信我們擁有,你知道的,與人類甚至像章魚或其他什麼聰明的動物相當的機器智能?我們還有多遠?只要年數?楊立昆: 這不會是事件。主持人: 好的。好的。楊立昆: 因為各種領域的能力將逐步擴展。主持人: 在什麼時間段內?楊立昆: 在,你知道,也許我們會在未來5到10年內取得一些重大進展,從而提出一種新的範式。然後也許,你知道,進展就會到來。但這將比我們想像的要長。李飛飛: 好的。機器的某些部分將取代人類智能,而機器智能的某些部分將永遠不會與人類智能相似或相同。它們是為了不同的目的而建造的。我們什麼時候能達到取代?其中一部分已經在這裡了。我們當中有多少人能辨識出世界上22000個物體?主持人: 你不認為一個成年人能識別出22000個物體嗎?李飛飛: 這種精細度和保真度,不能。有多少成年人能翻譯100種語言?主持人: 那更難,是的。李飛飛: 所以,是的。所以我認為我們應該細緻入微並立足於科學事實,就像飛機能飛,但它們不是像鳥一樣飛。而且基於機器的智慧將做很多強大的事情。但在我們的社會中,人類智能始終佔據著至關重要的地位。黃仁勳,你有什麼要說的嗎?黃仁勳: 我們擁有足夠的通用智能,可以在未來幾年內將這項技術轉化為大量對社會有用的應用。在接下來的一年裡?我們今天就在做。所以我認為,首先,我們已經做到了。其次,答案的另一部分是這無關緊要。主持人: 因為在這一點上,這有點像一個學術問題。黃仁勳: 我們將應用這項技術,並且這項技術會不斷變得更好,我們將應用這項技術來解決從現在開始的許多非常重要的事情。所以我認為答案是這無關緊要。而且現在也是如此。你來決定。如果你稍微改進一下這個問題,比如說,在多久之後,如果你和這台機器辯論,它總是會贏。辛頓: 我認為這肯定會在20年內發生。主持人: 我們還沒有達到那個程度,但我認為肯定會在20年內實現。辛頓: 所以,如果你把這定義為通用人工智慧(AGI),它總是會在辯論中勝過你。我們可能會在不到20年的時間內達到那個目標。主持人: 好的。比爾,你有什麼要說的嗎?Bill Dally: `我確信對於黃仁勳來說,這是一個錯誤的問題,對吧?因為我們的目標不是建構人工智慧來取代人類或比人類更優秀。主持人: 但這是一個科學問題。這不是說我們會取代人類。問題是,作為一個社會,我們能否創造出一些東西?Bill Dally: 但我們的目標是建立人工智慧來增強人類。因此,我們想要做的是補充人類擅長的面向。人類無法辨識22000個類別,或者說我們大多數人無法解決這些奧林匹克數學題。所以我們建構人工智慧來做這些。這樣人類就可以做那些獨屬於人類的事情,那就是發揮創造力,富有同情心,並且懂得如何與我們世界中的其他人互動。我認為,人工智慧是否能做到這一點對我來說並不明確,但人工智慧可以為人類提供巨大的幫助。Yoshua: 所以我恕難苟同。我看不出任何理由說明為什麼在某個時候我們不能製造出幾乎可以做我們所能做的一切的機器。當然,就目前而言,在空間和機器人方面,它還比較落後,但沒有概念上的理由說明我們不能做到。所以在時間線上,我認為存在著許多不確定性,我們應該據此制定計劃。但我也發現一些有趣的資料,我們看到人工智慧在不同時間跨度進行規劃的能力,在過去6年裡呈指數級增長。如果我們延續這種趨勢,大約在5年內,人工智慧就能達到一名員工在其工作崗位上的能力水準。現在,這只是工程任務中的一類,還有很多其他事情很重要。例如,一個可能改變遊戲規則的事情是,許多公司正致力於專注於人工智慧從事人工智慧研究的能力。換句話說,就是進行工程設計、電腦科學研究,以及設計下一代人工智慧,包括可能改進機器人技術和空間理解。所以我並不是說它一定會發生,但是人工智慧能夠進行越來越好的編程和理解演算法的領域,發展速度非常非常快。這可能會解鎖許多我們不知道的其他東西。我們應該真正持不可知論的態度,不要妄下斷言,因為那裡存在著許多可能的未來。主持人: 所以我們的共識在某種程度上是,我們認為未來就在今天,但永遠不會有一個確定的時刻。今天你們各位的任務是幫助引導我們沿著這條路線前進,直到我們達到一個與這些系統並肩工作的程度。我個人非常激動地想看看我們將走向何方。如果我們一年後再做這件事,那將是一個不同的世界。非常感謝你們的參與,感謝你們分享的故事,以及感謝你們與我們共同探討這個巨大的革命性時刻。謝謝。 (Web3天空之城)