(2025年伊莉莎白女王工程獎得獎者圓桌對話精彩片段)
2025 年11 月7 日,倫敦伊莉莎白女王工程獎頒獎典禮後,一場圓桌對話正在改寫人們對AI 未來的認知。
六位與會者不是普通的產業代表,而是這場AI 革命的關鍵人物:
Geoffrey Hinton、Yoshua Bengio、Yann LeCun:深度學習三位奠基者;
李飛飛:ImageNet發起人、空間智能開創者;
Bill Dally:GPU運算架構總設計師;
黃仁勳:AI 工業化的最大推動者。
這是一場極為罕見的集體對話
核心議題只有一個:通用人工智慧(AGI)真的來了嗎?
沒有人給出標準定義,也沒有人宣佈技術已經完成。但在接下來30 分鐘裡,六位先驅從各自角度傳遞出同一個訊號:AGI不再是遙遠的終點,它已經開始在現實中發揮作用。
分歧背後,藏著一個共識:範式正在轉變。
當主持人問:你人生中那個頓悟時刻是什麼?那個讓你走上AI 之路的瞬間,六個人輪流講述了各自的起點。
這些故事相隔幾十年,卻拼成了一條清晰的時間線:今天的AGI,不是突變出來的,而是四十年一步步演化的結果。
Yoshua Bengio 說,他第一次對AI產生強烈興趣,是在研究生時期讀到Geoff Hinton的早期論文。那時,他突然意識到:也許人類智慧背後有一套簡單的原理,就像物理定律一樣。
正是這個發現,讓他決定投身神經網路研究。
幾十年後,當ChatGPT問世,他又經歷了第二次震撼:天那,我們在做什麼?我們創造了能理解語言、有目標的機器,但如果它的目標和人類不一致,會發生什麼事?
於是他徹底轉向AI 安全和倫理研究,把理解智能變成約束智能。
Geoffrey Hinton 的記憶比較早。
1984年,我試著讓一個小模型預測一句話的下一個詞,他說,它能自己學會單字之間的關係。那是一個微型語言模型。當時他只有100個訓練樣本,卻在那時看到了未來的雛形:只要模型能預測下一個詞,它就能開始理解世界。
那就是後來所有大型語言模型的原型,只是當時沒有算力,也沒有足夠的資料。
他停頓了一下,補充說:我們花了40年,才有今天的結果。
Bill Dally 則經歷了兩次關鍵頓悟。
第一次是在90年代末的史丹佛。他在思考如何解決記憶體牆問題,也就是存取記憶體的能耗和時間成本遠高於計算本身的困境。他想到把計算組織成由資料流連接的核心,這樣可以用更少的記憶體存取完成更多運算。
這個想法後來發展成流處理,最後演變成GPU計算。
第二次是2010年的一個早餐。我和吳恩達在史丹佛吃早餐,他說他們在Google用1.6萬個CPU訓練神經網路,讓機器學會在網路上找貓。 就在那時,Dally意識到,這不再是實驗室的想像,而是一種可以規模化的運算模式。他回到NVIDIA,和Brian Catanzaro用48個GPU重現了那個實驗。結果讓他徹底信服:GPU就是深度學習真正的引擎。
我們必須專門為深度學習設計GPU,他說,那次早餐改變了NVIDIA的方向,也改變了我的後半生。
李飛飛 的頓悟來自另一個維度:資料。
人類智慧在成長初期被海量感官資料淹沒,但機器沒有。
2006 到2007 年間,她正從研究生過渡到年輕教授,嘗試了貝葉斯、支援向量機、神經網路等各種演算法,但機器依然無法泛化,無法辨識新樣本。
她和學生終於意識到:缺的不是演算法,是資料。
於是他們決定做一件當時看來很瘋狂的事:在三年內手工標註1500萬張圖片,建立ImageNet,覆蓋2.2萬個類別。那套資料後來成為AI視覺革命的基石,也讓機器第一次具備了看懂世界的能力。
她說:巨量資料驅動機器學習,這是今天所有AI 擴展定律(Scaling Law)的基礎。
Yann LeCun 是最早的同行者之一。
我本科時就被一個想法吸引,就是讓機器自己學,而不是教它怎麼做。 1983年他讀研究所時,第一次讀到Hinton的論文;兩年後,兩人在一次午餐上碰面,發現能接彼此的話。
我覺得自己太懶,或是太笨,不能手寫智能的規則。讓機器自組織學習,這才是生命的方式。
有趣的是,他和Hinton 曾在80年代末期爭論:是監督學習還是無監督學習才是出路?後來ImageNet 的成功讓整個領域暫時轉向了監督學習。但到了2016、2017年,他們意識到必須回到自監督學習。這正是今天大語言模式的訓練方式。
四十年後,他依然堅持:智能的核心是自我組織,而不是指示。
最後,輪到黃仁勳。
對我來說,最重要的時刻,是意識到設計晶片和建構深度學習系統的底層邏輯是相通的。
他解釋說,他是第一代能用高層抽象和結構化工具設計晶片的工程師。 2010年前後,當他看到深度學習也在用框架和結構化方法開發軟體時,突然意識到:這和晶片設計的思考方式何其相似。
也許我們可以像擴充晶片設計那樣,擴展軟體能力。
後來,當多倫多、紐約、史丹佛的研究團隊幾乎同時聯絡NVIDIA請求算力支援時,他明白:AI正在從理論走向工程。一旦演算法能在一個GPU上並行運行,就能在多個GPU上運行,然後是多個系統,多個資料中心。剩下的就是工程外推。
六個故事連起來,就是AI 四十年的演化圖譜。
Hinton種下演算法的種子,Bengio把它變成科學問題,LeCun讓它學會自組織,李飛飛讓它看到世界,Bill Dally 讓它運行得更快,黃仁勳把它變成產業的引擎。
當然,他們的工作遠比這更複雜,彼此交織、互相啟發,但這六個人確實共同塑造了今天AI的基礎。
今天的AGI,不是突然誕生的天才,而是這些人四十年共同塑造的歷史處理程序。
四十年前,他們各自踏上了AI之路。四十年後,站在同一個終點前,他們卻看到了不同的未來。
當主持人問出那個問題:我們距離人類層次的智能,還有多久?
這是所有人都繞不開、從未達成共識的問題。
接下來的幾分鐘裡,六個人給了六種截然不同的答案。他們談的不是模型進展、發佈速度,而是真正意義上的智慧機器,那種能理解、思考和行動的系統。
LeCun 第一個開口,直接否定了問題的前提。
這不會是一個事件。因為能力會在各領域逐步擴展。
也許在接下來的五到十年裡,我們會在提出新典範方面取得一些重大進展。然後進展會來臨,但會比我們想像的時間更長。
他的意思很明確:不要等待一個奇點時刻,AGI是漸進的,而不是突變的。
李飛飛 提出了另一個視角: 問題不該是AI會不會超越人類,而是在那些方面已經超過。
機器的某些部分將超越人類智能,部分已經在這裡了。我們有多少人能辨識2.2萬個物體?能翻譯100種語言?
她接著說:就像飛機比鳥飛得高,但方式完全不同。基於機器的智慧將做很多強大的事情,但人類智慧在我們人類社會中始終佔據關鍵地位。
她的意思是:超越已經發生,但不是複製,也不是替代。
黃仁勳則完全不同。 他沒說年份,反而當場否定了這個問題本身。
我們有足夠的通用智能,可以在未來幾年將科技轉化為大量對社會有用的應用。我們今天就在這樣做。
我認為這不重要,因為在這一點上這有點像學術問題。從現在開始,我們將應用這項技術,技術將繼續變得更好。
他給的不是預測,而是現實進度條:不是將來會有用,是現在就已經在用。
Hinton 的回答更具體: 如果你和機器進行一場辯論,它總是能贏你。我認為,這種情況將在20年內發生。
他說這句話時語氣平靜,但訊息量龐大。這不僅是預測,更是確認:我們正沿著那條路走著,只是速度問題。
Bill Dally 提醒大家: 也許問題本身是錯的。
我們的目標不是建構AI來取代人類或比人類更好,而是建構AI來增強人類。我們想做的是補充人類擅長的事。
AI做擅長的事,人類保留創造力、同理心、協作。我們互補,而不是取代。 在他看來,達到人類智能這個說法本身就帶偏了方向。
Yoshua Bengio 最後發言,提出了最具爭議性的觀點。
我要在這一點上表示不同意。我看不出有任何理由,在某個時候我們不能建造能做我們幾乎所有事情的機器。
他給出的資料是:AI在規劃能力上過去六年呈指數級增長。如果這個趨勢延續,五年內AI就能達到工程師等級的能力。更關鍵的是,許多公司正在讓AI做AI研究,設計下一代AI系統。這可能會催生許多其他突破。
但他最後強調:我不是說一定會發生,我們應該保持不可知論,不做大的聲明,因為有很多可能的未來。
六個回答,六種時間感。
Lecun 說漸進演化但比想像更久;李飛飛說某些能力已超越;黃仁勳說現在就在用;Hinton給出20年預測;Bill Dally質疑問題本身;Bengio又說五年可達工程師水平,但充滿不確定。
我們看到的不是一條明確路線,而是越來越撕裂的時間認知。
對未來的判斷,本質上反映的是他們對智能本身理解的差異。
在爭論未來的同時,他們更關注當下正在發生的轉變。
過去幾年,AI 的進步集中在語言能力上。 ChatGPT、DeepSeek等大模型,正幫助全球使用者解答問題、撰寫摘要與提供方案。
但在這場對話裡,幾位頂尖研究者不約而同地指出:下一階段,AI 要從語言走向行動。
✅ 李飛飛是第一個點明方向的人。
人類智能從來不只靠語言。我們的大腦天生處理空間,能感知、能推理、能動、能幹事。這些是今天AI還很薄弱的地方。
她指出,現在最強的語言模型,如果拿來做空間判斷任務,結果很差。 這也正是她過去幾年研究的重點:空間智能。
我們太專注於會說話的機器,但忽略了世界是三維的,需要身體、方向和動手能力。
✅ LeCun的態度較為清醒。
他在整場對話中反覆強調一個判斷:當前的大語言模式範式,離真正的智慧還很遠。
我個人不相信目前的大語言模型範式可以被推到擁有人類水平智慧的程度。我們沒有像貓一樣聰明的機器人。我們仍然缺少一些重大的東西。 在他看來,AI進步不僅僅是更多基礎設施、更多資料、更多投資的問題,而是一個科學問題:我們如何向下一代AI取得進展。
他一直主張的方向是:讓機器自己從環境中學習,而不是靠人類把答案喂進去。就像嬰兒那樣,不靠提示詞,而靠觀察和試錯。
我們不可能喂孩子吃幾億個對話資料集,但孩子依然能學會語言,是因為他在環境中主動學習。
這是他所說的自監督學習,也是他認為突破目前瓶頸的關鍵方向。
✅ 黃仁勳把這個問題拉回現實場景。
今天AI 不只是做對話工具,而是開始接手工作。它不是更聰明的搜尋引擎,而是能完成任務的夥伴。
我們已經看到AI 在寫程式碼、看病、做財務。這不只是說,而是在幫你工作。
為了描述這種變化,他提出了一個新比喻:我們過去把軟體叫做工具,現在AI是工廠。它即時生成智能,就像電廠即時發電一樣。我們需要數千億美元的這些工廠,以服務建立在智慧之上的數兆美元的產業。
這意味著:我們不能再把AI 看作一個能回答問題的程序,而要把它看作一個不斷工作、持續輸出的生產系統。
我們看到的改變是:AI 正從說得好轉向能做事。
從聊天窗口,走進真實流程;從被動反應,開始主動執行。這不只是功能增強,而是範式變化。
這也是為什麼,他們在談AGI 時,不再爭論參數有多大,而在討論:
AI 要怎麼和人類一起工作?
它要放在什麼位置?
它要有怎樣的能力邊界?
這場對話,沒有人給出AGI 的標準定義,沒有人宣佈它正式誕生。但幾乎每個人都在描述它的存在方式。
黃仁勳說:AI工廠已經開始運作。
Hinton說:20年內,它會贏下所有辯論。
李飛飛提醒我們:我們太注意它說了什麼,卻忽略了它做了什麼。
AGI不是某一天突然上線的產品,而是正在滲透每個組織、每個流程、每個職位的現實。
這場對話結束時,主持人說了一句:一年後如果再做這樣的對話,將會是個不同的世界。
也許,改變已經開始了。(AI深度研究員)