#伊莉莎白
AI六巨頭同台後的三條爭論、四個共識與一張產業路線圖
導言:六個人、一次罕見同台與一個正在到來的現實2025年11月,因共同獲得“工程界諾獎”——伊麗莎白女王工程獎(QEPrize),Geoffrey Hinton、Yoshua Bengio、Yann LeCun、李飛飛、Jensen Huang(黃仁勳)與 Bill Dally 罕見同台,就“AGI是否已來、將以何種形態到來”展開圓桌對話。這場對話,其實像是一場跨越四十年的“接力賽”。六位嘉賓分別代表著人工智慧發展的不同階段和方向——Hinton、Bengio 和 LeCun 推動了演算法和模型的突破;李飛飛利用大量資料讓機器第一次真正“看懂世界”;而黃仁勳與 Dally 則用算力和工程把這些想法變成可以運行的現實。當這三股力量——演算法、資料與算力——首次在同一個舞台上匯聚時,我們看到的正是AI發展的全貌:從“讓機器學會說話”到“讓機器能動起來、能做事”,一個全新的階段正在被清晰地描繪出來。一、三場核心爭論:時間表、範式與目標1)AGI是時點還是處理程序?Yann LeCun強調“AGI不會以奇點事件出現,而是一個在各領域漸進擴展的過程”,並再次提醒:當下系統距離“像貓一樣聰明的機器人”仍有顯著差距,這背後是對物理世界理解與行動能力的不足。與此形成對照,Geoffrey Hinton給出“二十年內機器在辯論中穩定勝出人類”的量化判斷,把“可辯駁、可度量”的能力描述為可看見的現實進度。Yoshua Bengio則主張“方法論不可知論”:趨勢可把握,具體時間難斷;他將重心轉向安全與治理,強調應以系統性方式追蹤能力、風險與應對。Jensen Huang乾脆繞開“那一年”的提問,直接落到產業現實——“我們已經在用足夠通用的智能做真實工作”,這是一種把“智能”當作生產要素的敘事。2)範式之爭:從大語言模型到“世界模型”與具身智能LeCun對現有LLM範式的邊界保持冷靜:它擅長語言操控,不等於“會理解和在世界中行動”的智能;繼續前行還需要讓機器習得對世界的內隱表徵與因果物理。  李飛飛提醒“別被會說話的機器迷住”:空間感知、方向感與動手能力是人類智能的底層支點,AI必須補上“看懂—定位—行動”的鏈路,範式正在從“語言大師”轉向“行動智能體”。3)目標之爭:替代還是增能?輝達首席科學家 Bill Dally 明確主張“賦能而非替代”:讓AI去覆蓋人類不擅長的超大類目識別與複雜計算,人類則把精力釋放到創造、共情與協作。二、四個跨派系共識:為什麼“下一幕”幾乎可以確定共識一:工程擴展有效,計算與系統化才是主航道。  Huang與Dally的敘事都指向“工程外推”:當演算法能在一個GPU上平行,就能在多個GPU、多個系統乃至資料中心以模組化方式擴展;這把“能否落地”的問題轉化為“如何擴容”的問題。共識二:資料即地基,指標與標註改變範式的軌跡。  ImageNet 的建構讓“看見世界”的能力真正規模化,資料與標準把“論文進步”轉化為“產業可用”。這也是當下 Scaling Law 得以長期奏效的原因之一。共識三:學習方式回到“自我組織”。  LeCun與Hinton長期辯論的迴環,最終在“自監督學習/世界建模”上會合:少些人工規則、多些從環境中學習的能力,讓模型用更低成本積累正確的經驗。共識四:智能體化與“AI工廠”,把AI從工具變成生產系統。  從“對話介面”走向“會執行任務的系統”,再通過“AI工廠”把智能以接近即時的方式持續產出,這是把軟體與算力、資料、流程統一在一條價值鏈上的思路。三、從“會說話”到“會做事”:智能體與具身智能的產業意義為什麼必須跨過“行動的門檻”? 因為真實業務流程是時空連續的:它不是只要回答,還要觀察、規劃、呼叫工具、完成反饋閉環。只有當模型具備空間理解與行動控制的能力,AI才能從“回答一段話”升級為“完成一件事”。這正是李飛飛所強調的空間智能與LeCun所強調的物理世界建模在產業上的交叉點。為什麼這一步現在可行?  一是工程可擴容:訓練—部署的流程日益成熟;二是資料可結構化:多模態感測把“世界狀態”轉為“可被模型消費”的資料;三是算力可負擔:注意力等關鍵算子持續被最佳化,單位能力的計算成本在下降,打開了更多曾因成本過高無法落地的場景。四、從“會說話”到“會做事”:AI的產業路線圖AI 正在經歷一次真正的轉折。過去幾年,我們關注的是“模型能不能說得更像人”,而接下來兩年,焦點會變成“它能不能幫人把事做成”。這一變化並不抽象,它已經在技術、組織和投資三個層面發生。A. 技術層面:從模型變成系統第一步,是讓模型從“語言高手”變成“全能選手”。未來的基礎模型不再只是理解文字,它還要能看懂圖像、理解視訊、聽懂語音,甚至能操作外部工具。也就是說,它需要“會看、會聽、會動”,而不僅是“會說”。第二步,是讓這些能力能被有效組織起來。AI 不再是單個模型在工作,而是許多“智能體”協同完成一件任務。它們會自動拆分任務、規劃執行步驟、呼叫不同工具,然後在遇到錯誤時自己重試或請求人類協助。這相當於給 AI 裝上了“大腦 + 手腳 + 執行流程”的系統結構。第三步,是讓 AI 真正理解和測試真實世界的運作方式。要做到這一點,企業需要建立“數字孿生”環境,也就是現實世界的模擬。AI 可以先在這個虛擬世界裡試錯、規劃、最佳化,再把方案應用到真實業務中,這樣既安全又高效。最後一步,是把這一切做成標準化的“AI 工廠”。它的核心理念是:AI 不再是一種單一產品,而是一條持續運轉的生產線。每個環節——算力、資料、模型、任務調度、部署與監控——都像工業流水線一樣被統一管理和最佳化。B. 組織層面:讓 AI 真正進入流程中間很多企業今天把 AI 放在“輔助工具”的位置,比如一個聊天機器人或推薦演算法。但真正的機會在於讓 AI 直接承擔流程的一部分。比如在客服流程中,AI 不只是回答問題,而是能直接完成退貨、開票、通知客戶等動作;在供應鏈場景中,它不只是提供分析,而是直接參與排期與調度決策。因此,企業需要重新設計組織流程:首先,把任務拆分,明確那部分由人負責,那部分由 AI 負責。其次,AI 的目標不應只是“回答正確”,而應該是“把任務完成”,並以“成功率”“一次通過率”“節省的人力小時數”等指標來衡量。最後,AI 也需要被“治理”——就像任何一條生產線一樣,必須有版本管理、灰度上線、回滾機制和風險監控。C. 投資與產品機會:新的增長點正在浮現多模態智能體:具備“讀、看、聽、說、做”的能力的 AI,將在更多行業中登場,比如企業自動化營運、財務風控、法律文件、醫療質控、客服外呼等。AI 工廠底座:提供算力最佳化、模型訓練、資料治理、安全與合規服務的底層基礎設施,會成為下一個“雲端運算”賽道。行業作業系統:未來的行業軟體,不只是一個系統或APP,而是一套能快速配置的 AI 流程範本。它能讓中小企業像搭積木一樣,把自己的業務快速“AI 化”。通俗一點說,這張路線圖的核心就是:從“讓機器會說話”,到“讓機器幫我們把事完成”;  從“模型輸出一句話”,到“智能體執行一個閉環任務”;  從“AI 是助手”,到“AI 是流程的一部分”;  從“實驗室技術”,到“工廠化生產系統”。這是AI產業真正走向成熟的標誌,也意味著新一輪的技術與商業融合正在展開。結語:AI的未來,不在奇點,而在持續進化這場關於AI未來的對話,真正重要的不是誰更接近“通用智能”的終點,而是誰更理解“智能”的路徑。Hinton、LeCun、Bengio、李飛飛、黃仁勳、Dally 六人代表著AI發展中最關鍵的三個力量:理論、資料與工程。當這三股力量匯聚到一起時,我們看到的不是科幻的爆發點,而是一條極具現實性的增長曲線——它正在從“語言”走向“行動”,從“模型”走向“系統”,從“智能”走向“生產力”。AI 的未來,不會像閃電一樣突然降臨,而會像城市的燈光那樣,一盞盞被點亮。每一個新的模型、每一條新的資料流水線、每一家敢於將 AI 引入核心業務的企業,都是這片夜色中被點亮的窗口。當我們從“會說話”邁向“會做事”,當AI開始承擔起實際的任務、協同與創造,我們才真正進入了“後語言時代”的人工智慧階段。那時,AI 不再只是聰明的回答者,而是可靠的行動者;它不是替代人類,而是擴展人類的能力邊界。而這,也許才是所有人工智慧先驅們真正想看到的未來。 (AI Xploring)
AI六巨頭同台:AGI,不再是「未來」的事了
(2025年伊莉莎白女王工程獎得獎者圓桌對話精彩片段)2025 年11 月7 日,倫敦伊莉莎白女王工程獎頒獎典禮後,一場圓桌對話正在改寫人們對AI 未來的認知。六位與會者不是普通的產業代表,而是這場AI 革命的關鍵人物:Geoffrey Hinton、Yoshua Bengio、Yann LeCun:深度學習三位奠基者;李飛飛:ImageNet發起人、空間智能開創者;Bill Dally:GPU運算架構總設計師;黃仁勳:AI 工業化的最大推動者。這是一場極為罕見的集體對話核心議題只有一個:通用人工智慧(AGI)真的來了嗎?沒有人給出標準定義,也沒有人宣佈技術已經完成。但在接下來30 分鐘裡,六位先驅從各自角度傳遞出同一個訊號:AGI不再是遙遠的終點,它已經開始在現實中發揮作用。Hinton說:20年內,機器將在辯論中戰勝所有人黃仁勳說:我們今天就在用AGI等級的智慧做實際工作李飛飛說:某些領域機器已超越人類,但演化方向未必是人類化LeCun則直言:目前大模型不等於真正的智能,我們連像貓一樣聰明的機器都沒有分歧背後,藏著一個共識:範式正在轉變。第一節| 四十年累積:AGI是怎麼出現的當主持人問:你人生中那個頓悟時刻是什麼?那個讓你走上AI 之路的瞬間,六個人輪流講述了各自的起點。這些故事相隔幾十年,卻拼成了一條清晰的時間線:今天的AGI,不是突變出來的,而是四十年一步步演化的結果。Yoshua Bengio 說,他第一次對AI產生強烈興趣,是在研究生時期讀到Geoff Hinton的早期論文。那時,他突然意識到:也許人類智慧背後有一套簡單的原理,就像物理定律一樣。正是這個發現,讓他決定投身神經網路研究。幾十年後,當ChatGPT問世,他又經歷了第二次震撼:天那,我們在做什麼?我們創造了能理解語言、有目標的機器,但如果它的目標和人類不一致,會發生什麼事?於是他徹底轉向AI 安全和倫理研究,把理解智能變成約束智能。Geoffrey Hinton 的記憶比較早。1984年,我試著讓一個小模型預測一句話的下一個詞,他說,它能自己學會單字之間的關係。那是一個微型語言模型。當時他只有100個訓練樣本,卻在那時看到了未來的雛形:只要模型能預測下一個詞,它就能開始理解世界。那就是後來所有大型語言模型的原型,只是當時沒有算力,也沒有足夠的資料。他停頓了一下,補充說:我們花了40年,才有今天的結果。Bill Dally 則經歷了兩次關鍵頓悟。第一次是在90年代末的史丹佛。他在思考如何解決記憶體牆問題,也就是存取記憶體的能耗和時間成本遠高於計算本身的困境。他想到把計算組織成由資料流連接的核心,這樣可以用更少的記憶體存取完成更多運算。這個想法後來發展成流處理,最後演變成GPU計算。第二次是2010年的一個早餐。我和吳恩達在史丹佛吃早餐,他說他們在Google用1.6萬個CPU訓練神經網路,讓機器學會在網路上找貓。 就在那時,Dally意識到,這不再是實驗室的想像,而是一種可以規模化的運算模式。他回到NVIDIA,和Brian Catanzaro用48個GPU重現了那個實驗。結果讓他徹底信服:GPU就是深度學習真正的引擎。我們必須專門為深度學習設計GPU,他說,那次早餐改變了NVIDIA的方向,也改變了我的後半生。李飛飛 的頓悟來自另一個維度:資料。人類智慧在成長初期被海量感官資料淹沒,但機器沒有。2006 到2007 年間,她正從研究生過渡到年輕教授,嘗試了貝葉斯、支援向量機、神經網路等各種演算法,但機器依然無法泛化,無法辨識新樣本。她和學生終於意識到:缺的不是演算法,是資料。於是他們決定做一件當時看來很瘋狂的事:在三年內手工標註1500萬張圖片,建立ImageNet,覆蓋2.2萬個類別。那套資料後來成為AI視覺革命的基石,也讓機器第一次具備了看懂世界的能力。她說:巨量資料驅動機器學習,這是今天所有AI 擴展定律(Scaling Law)的基礎。Yann LeCun 是​​最早的同行者之一。我本科時就被一個想法吸引,就是讓機器自己學,而不是教它怎麼做。 1983年他讀研究所時,第一次讀到Hinton的論文;兩年後,兩人在一次午餐上碰面,發現能接彼此的話。我覺得自己太懶,或是太笨,不能手寫智能的規則。讓機器自組織學習,這才是生命的方式。有趣的是,他和Hinton 曾在80年代末期爭論:是監督學習還是無監督學習才是出路?後來ImageNet 的成功讓整個領域暫時轉向了監督學習。但到了2016、2017年,他們意識到必須回到自監督學習。這正是今天大語言模式的訓練方式。四十年後,他依然堅持:智能的核心是自我組織,而不是指示。最後,輪到黃仁勳。對我來說,最重要的時刻,是意識到設計晶片和建構深度學習系統的底層邏輯是相通的。他解釋說,他是第一代能用高層抽象和結構化工具設計晶片的工程師。 2010年前後,當他看到深度學習也在用框架和結構化方法開發軟體時,突然意識到:這和晶片設計的思考方式何其相似。也許我們可以像擴充晶片設計那樣,擴展軟體能力。後來,當多倫多、紐約、史丹佛的研究團隊幾乎同時聯絡NVIDIA請求算力支援時,他明白:AI正在從理論走向工程。一旦演算法能在一個GPU上並行運行,就能在多個GPU上運行,然後是多個系統,多個資料中心。剩下的就是工程外推。六個故事連起來,就是AI 四十年的演化圖譜。Hinton種下演算法的種子,Bengio把它變成科學問題,LeCun讓它學會自組織,李飛飛讓它看到世界,Bill Dally 讓它運行得更快,黃仁勳把它變成產業的引擎。當然,他們的工作遠比這更複雜,彼此交織、互相啟發,但這六個人確實共同塑造了今天AI的基礎。今天的AGI,不是突然誕生的天才,而是這些人四十年共同塑造的歷史處理程序。第二節|時間線撕裂:有人說已來,有人說永遠不會四十年前,他們各自踏上了AI之路。四十年後,站在同一個終點前,他們卻看到了不同的未來。當主持人問出那個問題:我們距離人類層次的智能,還有多久?這是所有人都繞不開、從未達成共識的問題。接下來的幾分鐘裡,六個人給了六種截然不同的答案。他們談的不是模型進展、發佈速度,而是真正意義上的智慧機器,那種能理解、思考和行動的系統。LeCun 第一個開口,直接否定了問題的前提。這不會是一個事件。因為能力會在各領域逐步擴展。也許在接下來的五到十年裡,我們會在提出新典範方面取得一些重大進展。然後進展會來臨,但會比我們想像的時間更長。他的意思很明確:不要等待一個奇點時刻,AGI是漸進的,而不是突變的。李飛飛 提出了另一個視角: 問題不該是AI會不會超越人類,而是在那些方面已經超過。機器的某些部分將超越人類智能,部分已經在這裡了。我們有多少人能辨識2.2萬個物體?能翻譯100種語言?她接著說:就像飛機比鳥飛得高,但方式完全不同。基於機器的智慧將做很多強大的事情,但人類智慧在我們人類社會中始終佔據關鍵地位。她的意思是:超越已經發生,但不是複製,也不是替代。黃仁勳則完全不同。 他沒說年份,反而當場否定了這個問題本身。我們有足夠的通用智能,可以在未來幾年將科技轉化為大量對社會有用的應用。我們今天就在這樣做。我認為這不重要,因為在這一點上這有點像學術問題。從現在開始,我們將應用這項技術,技術將繼續變得更好。他給的不是預測,而是現實進度條:不是將來會有用,是現在就已經在用。Hinton 的回答更具體: 如果你和機器進行一場辯論,它總是能贏你。我認為,這種情況將在20年內發生。他說這句話時語氣平靜,但訊息量龐大。這不僅是預測,更是確認:我們正沿著那條路走著,只是速度問題。Bill Dally 提醒大家: 也許問題本身是錯的。我們的目標不是建構AI來取代人類或比人類更好,而是建構AI來增強人類。我們想做的是補充人類擅長的事。AI做擅長的事,人類保留創造力、同理心、協作。我們互補,而不是取代。 在他看來,達到人類智能這個說法本身就帶偏了方向。Yoshua Bengio 最後發言,提出了最具爭議性的觀點。我要在這一點上表示不同意。我看不出有任何理由,在某個時候我們不能建造能做我們幾乎所有事情的機器。他給出的資料是:AI在規劃能力上過去六年呈指數級增長。如果這個趨勢延續,五年內AI就能達到工程師等級的能力。更關鍵的是,許多公司正在讓AI做AI研究,設計下一代AI系統。這可能會催生許多其他突破。但他最後強調:我不是說一定會發生,我們應該保持不可知論,不做大的聲明,因為有很多可能的未來。六個回答,六種時間感。Lecun 說漸進演化但比想像更久;李飛飛說某些能力已超越;黃仁勳說現在就在用;Hinton給出20年預測;Bill Dally質疑問題本身;Bengio又說五年可達工程師水平,但充滿不確定。我們看到的不是一條明確路線,而是越來越撕裂的時間認知。對未來的判斷,本質上反映的是他們對智能本身理解的差異。第三節| 從語言到行動:智能的下一步在爭論未來的同時,他們更關注當下正在發生的轉變。過去幾年,AI 的進步集中在語言能力上。 ChatGPT、DeepSeek等大模型,正幫助全球使用者解答問題、撰寫摘要與提供方案。但在這場對話裡,幾位頂尖研究者不約而同地指出:下一階段,AI 要從語言走向行動。✅ 李飛飛是第一個點明方向的人。人類智能從來不只靠語言。我們的大腦天生處理空間,能感知、能推理、能動、能幹事。這些是今天AI還很薄弱的地方。她指出,現在最強的語言模型,如果拿來做空間判斷任務,結果很差。 這也正是她過去幾年研究的重點:空間智能。我們太專注於會說話的機器,但忽略了世界是三維的,需要身體、方向和動手能力。✅ LeCun的態度較為清醒。他在整場對話中反覆強調一個判斷:當前的大語言模式範式,離真正的智慧還很遠。我個人不相信目前的大語言模型範式可以被推到擁有人類水平智慧的程度。我們沒有像貓一樣聰明的機器人。我們仍然缺少一些重大的東西。 在他看來,AI進步不僅僅是更多基礎設施、更多資料、更多投資的問題,而是一個科學問題:我們如何向下一代AI取得進展。他一直主張的方向是:讓機器自己從環境中學習,而不是靠人類把答案喂進去。就像嬰兒那樣,不靠提示詞,而靠觀察和試錯。我們不可能喂孩子吃幾億個對話資料集,但孩子依然能學會語言,是因為他在環境中主動學習。這是他所說的自監督學習,也是他認為突破目前瓶頸的關鍵方向。✅ 黃仁勳把這個問題拉回現實場景。今天AI 不只是做對話工具,而是開始接手工作。它不是更聰明的搜尋引擎,而是能完成任務的夥伴。我們已經看到AI 在寫程式碼、看病、做財務。這不只是說,而是在幫你工作。為了描述這種變化,他提出了一個新比喻:我們過去把軟體叫做工具,現在AI是工廠。它即時生成智能,就像電廠即時發電一樣。我們需要數千億美元的這些工廠,以服務建立在智慧之上的數兆美元的產業。這意味著:我們不能再把AI 看作一個能回答問題的程序,而要把它看作一個不斷工作、持續輸出的生產系統。我們看到的改變是:AI 正從說得好轉向能做事。從聊天窗口,走進真實流程;從被動反應,開始主動執行。這不只是功能增強,而是範式變化。這也是為什麼,他們在談AGI 時,不再爭論參數有多大,而在討論:AI 要怎麼和人類一起工作?它要放在什麼位置?它要有怎樣的能力邊界?結語|不是什麼時候,而是正在發生這場對話,沒有人給出AGI 的標準定義,沒有人宣佈它正式誕生。但幾乎​​每個人都在描述它的存在方式。黃仁勳說:AI工廠已經開始運作。Hinton說:20年內,它會贏下所有辯論。李飛飛提醒我們:我們太注意它說了什麼,卻忽略了它做了什麼。AGI不是某一天突然上線的產品,而是正在滲透每個組織、每個流程、每個職位的現實。這場對話結束時,主持人說了一句:一年後如果再做這樣的對話,將會是個不同的世界。也許,改變已經開始了。(AI深度研究員)
AI群星閃耀時:全球AI六巨頭首次同台!縱論四十年AI風雲、泡沫之辯與AGI時間表(附對話實錄)
這是一個人類AI 群星閃耀時的時刻——黃仁勳、李飛飛、傑佛瑞·辛頓(Geoffrey Hinton)、約書亞·本吉奧(Yoshua Bengio)、楊立昆(Yann LeCun)、比爾·戴利(Bill Dally),罕見同台參與同一個圓桌討論AI。之所以能聚在一起,是因為他們六人獲得了2025 年伊莉莎白女王工程獎。當地時間11 月5 日,六人在圍繞該獎項的一場英國AI 活動上進行了一場圓桌對談。圖| 從左到右:諾貝爾獎得主傑佛瑞·辛頓(Geoffrey Hinton)、圖靈獎得主約書亞·本吉奧(Yoshua Bengio)、圖靈獎得主楊立昆(Yann LeCun)、輝達CEO 黃仁勳、美國史丹佛大學教授李飛飛和輝達首席科學家兼高級副總裁比爾·戴利(高級副總裁比爾·戴利(高級副總裁Bill Dally)(資料來源:https://www.ft.com/content/5f2f411c-3600-483b-bee8-4f06473ecdc0)對談中,他們六位針對當前AI 發展是否存在泡沫發表了自己的觀點,同時均認為AI 將逐漸接近人類智慧。黃仁勳表示過去的軟體本質上是工具,是首次被人們使用的自動化手段。而AI 是增強人類能力的智能,因此它關乎勞動、關乎工作,並且它確實在發揮實際作用。在黃仁勳看來,人類正處於智慧建構的起步期。並指出一個基本事實是,目前AI 還未普及到大多數人。他認為在不久的將來,我們日常的幾乎所有行為,在一天中的每時每刻,都會以某種方式與AI 相伴。這意味著,人類需要完成從今天使用率尚低、到未來使用率幾乎不間斷的巨大跨越,而這背後的擴展工程是顯而易見的。李飛飛指出,AI 還是一個非常年輕的領域。即便對比現代物理學,AI 的歷史也不到七十年,從艾倫·圖靈(Alan Turing)算起也才七十五年左右。所以,前方還有太多新領域等待出現。她認為,機器的某些能力將超越人類智能,而另一些機器智能則永遠不會與人類智能趨同或等同。因為它們的設計初衷就與人類不同,是為不同的目的而生的。辛頓認為假如問他「與機器進行辯論,它需要多久才能永久地勝出」這個問題,他認為這必定會在二十年內成為現實。人類目前尚未達到這一水平,但辛頓認為在二十年內必實現。但他同時指出,如果將AGI 定義為在辯論中總是勝過人類,那麼人類很可能在不到二十年的時間內達成這個目標。約書亞認為人類不該繼續使用「大語言模型」這個稱呼,因為它們的功能已遠超語言範疇。並指出人類無法預言未來幾年或十年的具體技術樣貌,但趨勢是可以掌握的。為此,約書亞認為人類應該保持一種真正的不可知論立場,避免做出過於誇張的斷言,因為未來的可能性是開放且多樣的。他也表示目前自己正著手聯絡國際專家,共同追蹤AI 的進展、方向、潛在風險以及應對之道。Yann LeCun 認為AI 泡沫確實存在——它體現在一種信念上,即認為當前的大語言模型範式將被直接推升至人類水平智能。在人類創造出真正具備人類所觀察到的(不只是人類,還包括動物)那種智慧的機器之前,人們還需要取得一些根本性的突破。身為輝達的首席科學家,Bill Dally 指出AI 應該填補人類能力的空白。人類辨識不了22,000 種物品,大多數人也解決不了那些甲基雙性問題,這些就可以交給AI 來做。當人類能騰出精力,去從事那些更人性特質的工作:例如創造、共情,以及人際互動。圖| AI 群星閃耀時:六位AI 領導者進行圓桌訪談(資料來源:https://www.ft.com/content/5f2f411c-3600-483b-bee8-4f06473ecdc0)以下為對談實錄,DeepTech 做了不改變原意的編輯:六人暢談人生關鍵時刻主持人:各位好,無論您身處下午或早晨。我很高興能受托介紹圍坐在這張桌旁的傑出人物們,在我看來他們是當今世界上最為出色、也最具影響力的六位人物。而且,我認為這絕非誇大其詞。他們就是2025 年伊莉莎白女王工程獎的得主。這個獎項正是為了表彰這幾位獲獎者對當今AI 技術所產生的獨特影響。我希望聽聽你們每個人的經歷:在你們的職業生涯裡,有沒有那樣一個靈光乍現的瞬間,讓你感覺從此改變了自己工作的軌跡?那個真正觸動你的個人覺醒時刻是什麼?它又是怎樣影響這項技術發展的?可以先從你開始嗎,Yoshua?Yoshua Bengio:有兩個關鍵節點讓我記憶猶新。第一個是我研究生時期,正苦於尋找一個有吸引力的研究主題。當我讀到 Geoffrey的早期論文時,我覺得豁然開朗。我內心非常激動,覺得其中可能蘊藏著像物理學定律一樣優美而基本的原則,能引導我們理解智慧的本質,最終建造出智慧機器。而第二個時刻,大概是兩年半前ChatGPT 橫空出世的時候。它給了我當頭一棒,讓我不禁反思:我們到底在做什麼?如果我們開發出能懂語言、有自己目標但我們管不住的機器,會發生什麼事?如果它們比我們更聰明呢?如果有人濫用這種力量呢?正是這種強烈的危機感,促使我下定決心,徹底扭轉了我的研究軌道和職業道路,盡我所能應對這個問題。Bill Dally:我和約書亞的經驗也有些相似之處。那是在20 世紀90 年代末,當時我在史丹佛大學主要在研究如何突破所謂的「內存牆」難題——即從記憶體中獲取數據所需的能耗與時間,遠遠高於數據計算本身。後來我萌生了一個想法:將計算組織成由資料流連接的核心模組。這樣就能在執行大量算術運算的同時,大幅減少對記憶體的存取。這個思路,實際上為後來被稱為「流處理」、並最終發展為GPU 運算的技術奠定了基礎。所以在我們最初建構它的時候,就意識到它不僅能夠用於圖形處理,更可以應用在通用的科學計算領域。而我的第二個關鍵時刻,是某次在史丹佛與我的同事安德魯安格(Andrew Ang)共進早餐時。他當時在Google工作,正利用一項名為「神經網路」的技術,在網路上尋找貓的圖片——而且動用了16,000 個CPU。他成功說服了我,讓我相信這是一項非常出色的技術。於是,我聯合其他人利用輝達的48 塊GPU 重現了整個實驗。在親眼見證成果的那一刻,我內心無比堅定:這就是輝達應該全力以赴的事業。我們必須調整GPU 的設計方向,使其更能服務於深度學習。原因很清楚,這項技術的用武之地遠不止於在網路上找貓,它擁有廣闊的應用前景,能滲透到各行各業。可以說,正是那個時刻,我們正式啟動了將GPU 深度最佳化、專門用於深度學習的進程。 (編者註:「網路上找貓」指2012 年Google用1.6 萬CPU 訓練神經網絡,讓機器從海量視頻幀中自主識別出貓臉,後成為深度學習里程碑事件。)主持人:具體是在什麼時候?又是指的什麼事情呢?Bill Dally:那次早餐是在2010 年。如果我沒記錯,我們是在隔年,也就是2011 年重複了那個實驗。主持人:Geoffrey,輪到你跟我們講講了。Geoffrey Hinton:對我來說一個非常關鍵的時刻發生在大約1984 年。當時我嘗試運用反向傳播演算法,讓模型學習預測一個單字序列中的下一個單字。這本質上是一個小型語言模型。實驗發現,這個模型能夠自主學習到一些關於詞語意義的有趣特徵。也就是說,光是輸入一串符號序列,它就能依據某種內部規律,學習如何將單字轉換為一組特徵。這組特徵不僅能捕捉單字的語義,還能透過特徵間的相互作用,來預測下一個單字的特徵表現。事實上,這個在1984 年末建構的小型語言模型,我認為它是當今大語言模型的雛形。其核心原理是相通的。儘管它規模很小,訓練量也只有100 次,但已經揭示了基本範式。主持人:然而,我們卻歷經了整整四十年,才終於實現今天的突破。Geoffrey Hinton:是的,我們愣是花了四十年才走到這兒。原因很簡單:那時候要算力沒算力,要數據沒數據,而且我們壓根沒意識到這個問題。我們當時怎麼也想不通,為什麼光靠那個好點子,就是行不通。主持人:這番回顧也讓我們自然而然地想到了黃仁勳。正如剛才所說,我們曾長達四十年受限於運算能力的匱乏。而如今,恰是您正在親手解決這個問題。能否請您和我們分享一下,在您這段旅程中,那些讓您豁然開朗的關鍵時刻?黃仁勳:就我的職業生涯來說,我是第一代能夠運用更高層次的抽象表達和設計工具來設計晶片的工程師。這一背景,讓我對軟體開發的新趨勢非常敏感。大約在2010 年,我幾乎同時接觸了加拿大多倫多大學、美國紐約大學和史丹佛大學三個不同實驗室的研究。他們不約而同地向我展示了一種後來被證明是深度學習早期的技術——即利用框架和結構化設計來創建軟體,並且該軟體被證明極其高效。這引出了我的第二個發現:透過再次使用框架、更高層次的抽像以及像深度學習網路這樣的結構化模式,我們就能開發出強大的軟體。我意識到,設計晶片與建構這些模式非常相似。當時我就在想,我們或許能創造出一種軟體和能力,它能像過去幾十年晶片擴展那樣,持續地進化與發展。主持人:您認為晶片助力大語言模型規模化發展的關鍵轉折點在什麼時候?畢竟您提到的2010 年,距今已相隔十五年了。黃仁勳:輝達架構的核心優勢在於:一旦演算法能在單一GPU 上高效並行運行,那麼它就能幾乎無礙地擴展到多個GPU、多個系統,甚至多個資料中心。其內在邏輯是相通的。當我們意識到能夠有效地實現這種擴展後,問題的關鍵就變成了:我們究竟能將這種能力推向多遠?我們擁有多少數據?網路的規模能有多大?模型能捕捉多少維度?最終能解決何種複雜的問題?正是在那個階段,我發現深度學習的核心價值已由模型的有效性所證明,這無疑是一個巨大的亮點。而此後的大部分工作,本質上都屬於工程上的延伸與拓展。主持人:飛飛,跟我們講講你的重要時刻。李飛飛:我也有兩個關鍵時刻想分享。大約在2006 到2007 年間,我正從博士生轉變為年輕的助理教授。身為第一代專注於機器學習的博士生,我閱讀了Yoshua 和Geoffrey 等學者當時的論文,並深深著迷於解決視覺辨識問題——也就是讓機器理解日常圖片中物體意義的能力。我們當時一直受困於機器學習程式碼的泛化問題:模型在學習了有限數量的樣本後,能否成功辨識出全新的、從未見過的樣本?我嘗試了從基礎網路、支援向量機到神經網路等各種演算法。最終,我和我的學生意識到,缺少的關鍵要素是數據。我們觀察到,如同人類這樣的智慧生物,在早期發展階段都經歷了海量資料的洗禮,而我們的機器卻處於資料匱乏的狀態。於是,我們決定在當時做一件看似瘋狂的事:花費三年時間,創造一個網路規模的資料集。這個資料集包含了由全球網路使用者手工標註的1,500 萬張圖像,涵蓋22,000 個類別。因此,對我而言,那個頓悟的時刻就是要體認到:是大數據在驅動機器學習的未來。主持人:而如今,它已成為所有演算法模型的基石。李飛飛:沒錯,這如今已成為AI 規模化定律的一部分。我的第二個頓悟時刻發生在2018 年。當時我擔任Google雲端的首位AI 首席科學家,我們的工作涵蓋了從醫療保健、金融服務到娛樂、製造,甚至農業與能源等所有垂直產業。在所謂的「Alex 瞬間」圖像以及AlphaGo 出現幾年之後,我正是在那時意識到了關鍵問題。在擔任Google首席科學家期間,我認識到這項技術的影響力將達到“文明級別”,它將觸及每個人和所有行業。面對人類邁向AI 時代的歷史進程,我們必須思考:什麼樣的指導原則能讓我們在大力創新的同時,確保這項強大的技術最終能造福所有人?這個想法促使我重返史丹佛任教我們隨後創立了以人為本人工智慧研究院(HAI,Stanford Human-Centered AI Institute),其核心就是建立一個框架,將人性和人類價值放回技術進步的中心。 (編按:李飛飛所提到的「Alex 瞬間」指的是一個名為AlexNet 的深度卷積神經網路在2012 年的ImageNet 影像辨識競賽中取得了遠超傳統方法的成績,準確率實現巨大突破。)主持人:所以,我們既要發展技術,也要審視其影響並思考未來走向。這正是我們大家發揮作用的地方。您(Yann LeCun)是否願意為我們做一個總結?請不必客氣,盡情講講吧。Yann LeCun:早在本科時期,我就對廣義智能領域中的AI 問題非常著迷,並發現20 世紀五六十年代的研究者,其核心工作是「訓練」機器而非「程式設計」機器。這個想法讓我深深入迷,或許是因為我自覺不夠聰明或不夠勤勉,無法從零開始直接建構出一台智慧機器。那麼,最好的方式豈不是讓機器能夠自我訓練、自我演進?這不正如同生命體中智慧的建構方式嗎?它是自組織的。因此,我覺得這個概念極具吸引力,但當時找不到志同道合的人。我從工程專業畢業,一直從事一些低成本設計,同時也計劃攻讀研究所。我始終找不到任何從事相關研究的人,但與一些對此感興趣的人保持聯繫,例如他們發現了 Geoffrey 的論文。到了1983 年我開始讀研究所時,他已成為我最想見到的學者。最終,我們在兩年後得以見面。我們1985 年一起吃了頓午飯,基本上是一見如故,聊得非常投機。當時我在一個他做主題報告的會議上發表了一篇法文論文,而他居然成功讀懂並理解了我文中的數學內容——那篇文章講的是一種用於訓練多層網絡的傳播方法。要知道,從20 世紀60 年代開始,大家就清楚一個限制:我們沒辦法訓練多層模型。這成了我那時心心唸唸要解決的問題,後來也變成了他的執念。之後我寫了一篇提出解決方案的論文,他讀懂了裡面的數學。我們就是這樣結緣並開始合作的。主持人:而這正是讓你踏上這段旅程的原因。Yann LeCun:確實如此。因此,當你掌握了訓練此類複雜系統的能力後,自然會思考下一個問題:如何建構它們,使其能夠執行辨識影像等實際意義的任務。早在20 世紀80 年代末我擔任博士後期間,我和 Geoffrey 曾有過一場辯論。我當時認為,唯一可行的路徑是經過精心設計的、在監督式學習範式下運作的機器學習。即你向機器展示一張圖片,並告訴它正確答案。但他對此表示反對,他認為要取得真正的進展,就必須超越監督學習。有一段時間,我並未充分重視這個觀點。直到2000 年代中期,當我和 Yoshua 開始合作,並致力於重新喚起學界對深度學習的興趣時,我們實際上是將重點押注在了無監督學習等相關方向上。主持人:它本質上是一個自我強化的過程。Yann LeCun:這並非強化學習。它的本質是從結構化資料中發現規律,而無需針對任何特定任務來訓練機器。自然語言模型雖然被訓練來預測下一個單詞,但這本身並非一個真正的任務目標。這只是系統為了學習一種優質的資料表徵,或者說為了捕捉資料內在規律所採用的一種方式。主持人:系統裡面有沒有一個東西在管它?抱歉我得說得專業點,就是有沒有一個根本的機制,能判斷它現在這樣跑是對的,好讓它一直保持在正軌上?Yann LeCun:如果你能正確預測下一個單詞,那麼這本身便證明了預測的正確性。Geoffrey Hinton:所謂強化學習裡的獎勵,打個比方,就像是你對系統說「幹得漂亮」。Yann LeCun:說實話,這得「歸咎」Geoffrey。如你所知,飛飛建構了大型標註資料集ImageNet,這使得我們可以採用監督式學習來訓練系統。而實際結果是,這個網路的效能遠遠超出我們預期。於是,我們當時便暫時擱置了整個關於自監督學習的專案計劃,因為監督學習的方法已經表現得如此出色。當然,我們也琢磨出了一些提升效能的小技巧。但在某種程度上,我們確實引導了整個產業和研究界將重心放在了深度學習、監督學習等方向。直到幾年後,大約在2016、2017 年左右,大家才意識到這無法達成我們的終極目標,並開始轉向自監督學習。是的,這確實是說明範式轉移的絕佳例證。而我們目前的工作,是將其應用於視訊、感測器資料等新型資料。然而,像自然語言模型這類架構在處理這類資料上其實並不擅長,這將是未來幾年我們面臨的新挑戰。AI 泡沫是否存在?主持人:這正好將我們引向了當前的情況。我想大家都觀察到一個現象:以前對AI 完全不關心的人,現在都興致勃勃。一時間,所有人都湧向這個領域。它早已超越技術革新本身,演變成了一個巨大的商機,甚至成為了大國博弈的戰略焦點。每個人都在努力探究其真正本質,圍繞著它不斷思索。我此刻首先想請教黃仁勳,也希望在座各位都能審視一下此刻:特別是輝達,它幾乎天天佔據新聞頭條,並且成為了全球最有價值的公司。這說明市場存在著真實的需求。您是否憂慮,我們正走向一個因普遍理解不足而過於急躁的階段,最終會導致泡沫破裂,經歷一番調整後才能恢復正常?如若不然,與當年的網路泡沫相比,如今人們對AI 需求最顯著、也是最未被理解的差異到底是什麼?黃仁勳:在網路泡沫時期,鋪設的絕大多數光纖都被閒置,這意味著產業的供應遠遠超過了實際需求。而如今,幾乎每一塊能找到的GPU 都在全負荷運作。因此,我認為退一步理解「AI 究竟是什麼」至關重要。對許多人而言,AI 就是ChatGPT 或影像生成,這沒錯,但這些都只是它的具體應用。過去幾年,AI 取得了巨大進步,它不僅能夠記憶和歸納,更具備了推理與有效思考的能力,並能透過研究來確立觀點。現在它可以產生答案,完成更有價值的任務,效果也出色得多。此外,那些能建構對其他企業有用工具的公司,例如我們正在使用的Cursor 等AI 程式軟體公司,它們獲利能力很強,我們也大量使用其產品。在醫療健康等領域,AI 也顯示出極大的效用。 AI 的能力已經實現了質的飛躍。結果是,我們正同時目睹兩個指數級變化:一是產生答案所需的計算量急劇增加,二是這些AI 模型的使用量本身也在指數級增長。這兩條指數曲線對計算資源構成了巨大需求。現在,當你退後一步,會從根本上追問:今天的AI 與過去的軟體產業有何本質不同?過去的軟體是預先編譯好的,所需的計算量不大。但為了讓AI 發揮作用,它必須具備上下文感知能力。目前它已能產生智能,而你無法事先製作並儲存這種智能——那被稱為「預製內容」。智能必須即時產生。因此,我們所在的這個行業,要生產高需求且真正有價值的產品,所需的計算量是空前巨大的。我們在一個需要「工廠」的產業中創造價值。這就是為什麼我常提醒自己:AI 需要工廠來生產這些「智慧標記」。這是前所未有的情況,電腦本身成為了工廠的核心。我們需要投入數千億美元來建造這些工廠,以服務未來價值數兆美元的產業。回顧過去的軟體,它們本質上是工具,是首次被人們使用的自動化手段。而AI,是增強人類能力的智慧。因此,它關乎勞動,關乎工作,並且它確實在發揮實際作用。在我看來,我們正處於智慧建造的起步期。一個基本事實是,目前AI 還未普及到大多數人。可以預見,在不久的將來,我們日常的幾乎所有行為,在一天中的每時每刻,都會以某種方式與AI 相伴。這意味著,我們需要完成從今天使用率尚低、到未來使用率幾乎不間斷的巨大跨越,而這背後的擴展工程是顯而易見的。主持人:假設大語言模型的進展放緩,您認為GPU 和您打造的基礎設施,是否仍能適應新的技術範式並保持其價值?您回答之後,我也非常希望聽到在座其他人的想法。黃仁勳:大語言模式屬於AI 技術的一部分。但AI 的範疇是包含各類模型系統的廣大天地,大語言模型只是其中一個重要的成員。現在已經有了一些模型系統和必要的技術,可以讓AI 從現在的樣子變得更俱生產力,或者說讓它更「能幹」。無論我們給它什麼名字,未來還有大量的技術等著我們去探索和發展。主持人:在座各位誰有想說的?Yoshua Bengio:我認為我們不該繼續使用「大語言模型」這個稱呼,因為它們的功能已遠超語言範疇。是的,它們確實從語言模型起步,預訓練是其基礎。但最近,科技在質上有了飛躍,正朝著「智能體」的方向發展:能夠透過多輪對話,與環境、與人即時互動,完成目標,甚至與底層運算設施深度互動。它和三年前完全不可同日而語。我們無法預言未來幾年或十年的具體技術樣貌,但趨勢是可以掌握的。為此,我正著手聯絡國際專家,共同追蹤AI 的進展、方向、潛在風險以及應對之道。現在,許多基準測試的趨勢已經清晰可辨。過去的技術驗證非常成功,但這不代表未來沒有挑戰。期望落空會帶來金融風險,這一點我承認。但從長遠發展來看,我完全同意其重要性。不過,我們仍需保持清醒。主持人:那麼,目前在座的其他人怎麼看?Bill Dally:目前的趨勢在某種程度上解釋了現狀。首先,模型正變得越來越有效率。以注意力機制的演進的為例:從普通注意力到分組查詢注意力,再到多頭注意力...... 如今人們可以用少得多的計算成本,獲得相同甚至更優的效果。這從某種程度上催生了新的需求:許多曾經因成本過高而無法實現的應用,現在變得足夠便宜,從而使得AI 能夠涉足更廣泛的領域。同時,AI 模型本身的能力也持續進步。或許它會隨著Transformer 架構的優化而提升,或許會有全新的架構出現。但技術發展的方向是明確的:我們必將擁有能力更卓越、且同樣有效率的模型。實際上,它們比那些功能專一的方案更有價值,因為它們更靈活,也能更好地隨著模型一起進化。最關鍵的一點是,我認為我們對AI 的應用探索還只是冰山一角。人類生活的幾乎每個角落,無論是職業生涯還是日常瑣事,都能藉助AI 變得更好。我想,我們可能連它最終需求的1% 都還沒碰到。隨著AI 不斷進步,應用場景只會越來越多。所以,我認為這裡根本談不上泡沫。就像黃仁勳說的,我們正描繪一條多重指數成長的曲線,而現在只是開端,這條路會一直延伸下去。主持人:在某種程度上,輝達對此已經適應了。因為無論範式如何變化,湧現出何種新型AI 或架構,那些最核心的硬體構件始終是需要的。飛飛有什麼想說的話嗎?李飛飛:我的確認同從市場層面來看,它有其自身規律,有時會自我修正。但如果我們關注長期趨勢,必須意識到AI 還是一個非常年輕的領域。我們環顧這個房間,牆上寫有物理學方程式。物理學已有四百多年歷史。即便對比現代物理學,AI 的歷史也不到七十年,從艾倫·圖靈(Alan Turing)算起也才七十五年左右。所以,前方還有太多新領域等待出現。我們知道,黃仁勳常談及大語言模型和智能體,它們大多以語言為核心。但即便反思人類智能本身,能力遠不止於語言。我一直關注空間智能,它研究的是感知與行動的結合。在此方面,人類和動物展現的感知、推理、互動和創造力,遠超語言所能涵蓋的範疇。今天最頂尖的語言或大語言模型,在基礎空間智慧測驗中依然表現不佳。由此可見,作為一門科學與學科,我們面前還有廣闊的疆域需要征服與探索。這也意味著,未來將開啟更多樣化的應用可能性。主持人:您(Yann LeCun)在公司任職,所以同時擁有研究和商業的雙重角度。您是否相信這一切AI 發展現狀都是合理的,並且能看得明白背後的根源?還是覺得我們正面臨一個不確定的十字路口,必須找到新的方向?Yann LeCun:我認為有幾種觀點支援我們並未處於泡沫之中,但至少也存在一種觀點認為我們正身處泡沫。這確實是另一個需要探討的問題。從某個角度說,結局並非註定。因為基於大語言模型,尚有大量應用有待開發。大語言模型是當前的主導範式,其中蘊含著巨大的潛力可供挖掘。這正是 Bill所提到的──利用現有科技改善人們的日常生活。技術需要被推動,這也證明了在軟體和基礎設施方面的所有投入是合理的。一旦我們讓智慧助理普及到每個人手中,正如黃仁勳所言,為如此龐大的使用者群提供服務所需的運算量將是天文數字。因此,從這個層面來看,這些投資並未被浪費。然而,從另一個意義上說,泡沫確實存在——它體現在一種信念上,即認為當前的大語言模型範式將被直接推升至人類水平智能。我個人並不相信這一點,在我們創造出真正具備我們所觀察到的(不僅是人類、還包括動物)那種智慧的機器之前,我們還需要取得一些根本性的突破。舉例來說,我們甚至還沒有像貓一樣聰明的機器人,對吧?因此,我們仍然缺少某些關鍵的東西。這正是為什麼AI 的進步不能只依靠更多基礎設施、更多資料、更多投資和現有的Python 開發。實際上,這是一個科學問題,關乎我們如何朝著下一代AI 取得突破。用「年」給出對於AGI 的預估主持人:能否請你們每一位都談談:在你們看來,我們還需要多久才能達到你們所堅信的那個階段——即創造出與人類、甚至與章魚這類高智能動物相當的機器智能?我們距離這個目標究竟有多遠?請用「年」來給你們的預估。Yann LeCun:這不會是一場短暫的運動。因為各項能力將在不同領域以漸進的方式逐步拓展。主持人:您預計在什麼時間內?Yann LeCun:或許在未來五到十年內,我們能在技術上取得一些實質突破,從而催生出一個全新的範式。但隨之而來的商業應用與公司層面的發展,其處理程序可能比我們預想得更為漫長。李飛飛:機器的某些能力將超越人類智能,而另一些機器智能則永遠不會與人類智能趨同或等同。因為它們的設計初衷就與人類不同,是為不同的目的而生的。主持人:預計何時啟動機器取代人類的處理程序?李飛飛:其中的一部分能力已經成為現實。試問,我們當中有多少人能夠辨識出世界上的22,000 種物體呢?而AI 可以。試問,有多少成年人能翻譯100 種語言?而AI 可以。因此,我認為我們的思考應該更加細緻入微,並且必須立足於科學事實——正如飛機能夠飛行,但其飛行方式與鳥類有著根本區別。基於機器的智慧必將發揮許多強大的作用。但在人類社會的框架內,人類智慧的價值始終是核心且不可取代的。主持人:黃仁勳,你有什麼想說的嗎?黃仁勳:我們已擁有足夠的通用智能,可以在未來幾年將這項技術轉化為大量有益於社會的應用。從現在開始,我們的重點是利用科技去攻克眾多重大難題。我認為我們已經具備了基礎能力。所以,我認為當前的限制無關緊要。主持人:正因如此,現在才是時候,沒錯。Geoffrey Hinton:如果您將問題稍微具體化一些,設定為“與機器進行辯論,它需要多久才能永久性地勝出”,我認為這必定會在二十年內成為現實。我們目前尚未達到這一水平,但我可以肯定地預見,在二十年內必將實現。因此,如果您將「AGI」定義為在辯論中總是勝過人類,那麼我們很可能在不到二十年的時間內達成這個目標。Bill Dally:我們的初衷並非是要打造一個能取代人類或超越人類的AI。主持人:但這本質上是一個科學問題。其核心意圖並非要取代人類。真正的問題是:我們作為一個社會整體,是否具備創造出這種事物的能力?Bill Dally:我們的宗旨是創造能增強人類能力的AI。換句話說,我們是想讓AI 去填補人類能力的空白。人類辨識不了22,000 種物品,大多數人也解決不了那些甲基烷基化問題,這些就可以交給AI 來做。其目的是讓人類能騰出精力,去從事那些更人性特質的工作:例如創造、共情,以及人際互動。至於AI 自己能否做到這些,我認為還不確定。但它無疑可以成為人類的得力助手。Yoshua Bengio:在這​​一點上我持有不同看法。我認為,沒有根本性的理由能證明我們在未來無法創造出能夠完成人類幾乎所有工作的機器。當然,目前在空間感知和機器人技術領域,它確實相對滯後,但從理論層面來看,不存在我們無法實現這一目標的障礙。所以,在具體的時間線上,我認為存在著巨大的不確定性,我們的規劃要充分考慮這一點。但我注意到一組非常有趣的資料:過去六年中,AI 系統在不同時間跨度上進行規劃的能力正呈指數級快速增長。如果這一趨勢得以延續,大約五年後,AI 將能夠勝任普通員工在職位上的大部分工作。需要明確的是,這只是工程任務中的一個類別,還有許多其他至關重要的面向。例如,一個可能改變遊戲規則的動向是,許多公司正致力於開發「由AI 主導AI 研究」的能力——即讓AI 進行工程、電腦科學的研究,並設計下一代AI 系統,這其中可能就包括對機器人技術和空間理解能力的改進。我並非斷言這一定會發生,但AI 在程式設計和演算法理解方面的能力正在飛速提升,這可能會解鎖許多我們目前尚無法預見的可能性。因此,我們應該保持一種真正的不可知論立場,避免做出過於誇張的斷言,因為未來的可能性是開放且多樣的。 (invest wallstreet)