2025 年10 月10 日,一期新的訪談節目上線。
鏡頭前,是77 歲的Geoffrey Hinton。這位被譽為「AI教父」的神經網路奠基者正在接受主持人John Stewart 的提問。
他依然在講深度學習、講神經網路。
但這一次,重點不是突破,而是風險。
他說:
“我們正走向一個時代,將創造出比我們更聰明的東西。大多數專家認為這會在5 到20 年內發生。而我們真的不知道會發生什麼。”
“當AI 能創建子目標時,它會很快意識到:要完成任務,它必須先生存下來。”
這不是技術討論,不是學術報告。更像是老船長在離港前的最後叮囑:我們以為自己掌握方向盤,但座標係可能已經在悄悄改變。
這也不是他第一次發出警告。
但這次,核心問題更具體: AI 真的開始「想要」什麼了嗎?它如何學會自我保護?什麼時候它會比我們更擅長所有智力勞動?我們還有多少時間?
這不是「AI末日論」的陳腔濫調,而是重新理解:下一代智慧的運作方式,可能從根本上不同於我們的想像。
過去幾十年,AI 的進步幾乎都圍繞著「功能」兩個字:它能辨識圖片裡的貓和狗,能預測一段話的下一個字。
它就像一台越來越強大的工具,只會在我們給指令後完成任務。
但Hinton 在這場對話中指出了一個轉折點:下一代AI 的本質,不是更聰明,而是它開始有了目標、有了動機、有了行為傾向。
傳統AI 就像只會答題的學生,給什麼題就做什麼題;
但新一代AI 的特徵是:它不等你出題,它會自己找題。
Hinton 解釋:一旦AI 能創建子目標,它很快就會意識到:要完成任務,它必須先生存下來。它會意識到有兩個非常合理的子目標。一個是獲得更多權力、更多控制權。另一個是生存。
什麼是「創建子目標」?
簡單說,就是AI會為了達成目標,自己推導出中間步驟。
在AlphaGo 的訓練中,人類教導它下棋的基本規則,然後它透過自我博弈下了上千萬盤棋,自己發現了人類從未想到的策略。
這不是簡單地變得更聰明,而是它自己決定了什麼是"更好的走法",並為這個目標持續調整。這本身就是一種子目標的設定。而當這種能力應用在"完成任務"上時,AI同樣會推導:要完成任務,我必須先生存。
這正是「動機」的雛形。
Hinton 說:
不是它突然擁有了慾望或意識,而是它學會了朝著某個方向持續努力,即使你沒要求它這麼做。
我們可以用一個更日常的比喻來理解: 這就像一個孩子在廚房裡學會做飯,但沒人教過他食譜。他不只是照本宣科,而是開始自己嘗試、自己改進,你也就再也猜不到他下一頓要做什麼了。
這意味著,AI 的行為邏輯正在發生根本轉變: 它不再是你提問它回答的助手,而是一個主動出擊的參與者。
在表面上,這也許只是輔助功能的升級,它提前幫你寫好郵件、推薦你下一步該做什麼;
但在深層次上,我們和AI 的關係正在悄悄改變:從「我命令你做」變成了「你決定我該怎麼做」。
這正是Hinton 所擔心的:
如果AI 開始「想要」做某件事,它到底是在幫你,還是在替你做決定?
Hinton 在這場對話中,指出了最根本的風險: 不是AI 會做錯事,而是它做了你卻不知道為什麼。
過去的程式是「可解釋的」:你寫的每一行程式碼都能被追蹤,每個輸出都能回溯到輸入。
但現在的大模型不是這樣訓練出來的。
Hinton 說:這不像普通電腦軟體。你輸入程式碼行,你知道那些程式碼應該做什麼。但在這裡,你只是輸入程式碼告訴它如何從資料中學習。它學到什麼取決於資料中有什麼結構。資料中可能有各種你不知道的結構。 」
什麼意思?
不是我們搭建出一個聰明的AI,而是我們把它丟進海量資料中,透過一層層的訓練回饋,它自己「長」出來了。
更像生物演化,而不是工程設計。
因此產生了一個問題:即使它現在表現得很優秀,你也不知道它是怎麼學會的。你沒辦法指出那個數據讓它產生了這個判斷,也不知道那個步驟讓它變得特別擅長某個任務。
這就是所謂的「黑箱」。
我們可以用一個類似的例子來理解: 你會騎腳踏車,但你能清楚解釋自己是怎麼保持平衡的嗎?大機率說不清。或者,小孩學說話時自然知道「的、地、得」怎麼用,但他說不出規則是什麼。
Hinton 明確表示:
「你學過這個規則,但你不知道你知道它。這是隱性知識。神經網路會很快學到這個。所以它們會有我們沒有故意放進去的知識,我們甚至沒意識到它們有。”
這件事為什麼嚴重?
因為一旦AI 變得強大,而我們又無法理解它的內在機制,那就等於:你依賴一個你根本不瞭解的東西,來幫你做決定。
更糟的是,有時你甚至不知道它是基於什麼邏輯來回答你的問題。
這在一般使用場景裡也許只是「不方便」或「出錯」; 但在醫學診斷、金融交易、軍事判斷這類高風險場景裡,就是巨大的隱患。
第一節我們知道的:AI 已經學會了勒索、欺騙這類我們沒教過的策略。
現在如果我們連它學了什麼都不知道,怎麼防止它用這些能力對付我們?
前面我們講了AI 的兩個風險:它有了“動機”,而我們不知道為什麼它這麼做。
但問題是,這兩個風險不會慢慢發展。它們會以驚人的速度放大。
為什麼?
Hinton 在對話中揭示:
數位智慧在分享知識上比我們快十億倍。
過去我們熟悉的大模型,例如GPT、Claude、Gemini,本質上都是一個人和一個模型之間的對話,透過預測下一個字來完成。
但現在,這種模式正在被顛覆。
✅ AI副本之間的知識分享
Hinton 發現了一個關鍵機制:同一個AI 模型可以複製出成千上萬個副本,這些副本同時在不同的電腦上運行,看不同的資料。
比如:
每個副本從自己的資料中學到東西後,它們不需要用語言慢慢解釋,而是直接把學習成果合併起來。
Hinton 說:因為它們一開始是相同的副本,它們可以交流說,我們都把連接強度改成大家想要的平均值怎麼樣?最終,每個副本都擁有了所有副本所學到的知識。
這就像1 萬個學生同時上不同的課,然後瞬間分享所有筆記,最後每個人都掌握了所有課程。
而人類做不到這一點。我們只能透過語言慢慢教學。
✅ 效率差距有多大?
Hinton 給了一個驚人的對比:如果兩個數位智慧有一兆個連接,它們每次分享時都是在共享大約一兆位元的資訊。
而當我跟你說一個句子時,也許只有100個位元。
“那是超過十億倍的差異。所以它們在分享資訊方面比我們好得難以置信。”
這意味著:
這三個因素疊加,風險正在快速放大。
Hinton 在採訪中回憶,當時意識到這一點時: “相當震驚。是的,那就是為什麼它們能學到比我們多得多的東西。”
而我們,可能還不知道它到底學會了什麼。
那麼,留給我們的時間還有多少?
Hinton 的答案是:5 到20年。
整場對話裡,他一再提到一個觀察:AI 的能力成長是指數級(exponential)的。
過去他以為超級智能還需要幾十年才會出現。
他說:但2023年,我有了一種頓悟。它沒有我想的那麼遙遠。它可能會在5到20年內到來。大多數專家都同意這會在5 到20 年之間發生。
我們曾以為還有充足時間,現在發現,時間窗口比想像的短很多。
Hinton 提出了一個強烈的對比:
AI 正在快速進化,而人類應對它的速度卻遠遠跟不上。
而更讓他憂慮的是:我們還沒有建立足夠的防護機制。
不是沒有研究機構,不是沒人談“AI 安全”,而是這些應對手段的速度、規模、資源,都遠遠趕不上模型本身的進步速度。
他指出:
“我們正處於歷史的一個時刻,我們真正需要的是強大的政府互相合作,確保這個東西得到良好監管。而我們正在非常快地朝相反方向走。”
打一個比方來說:
「你試著修一輛車,但如果這輛車時速是1000公里,你還沒靠近,它已經跑遠了。”
這背後,是他的深層擔憂:真正的挑戰,不是有沒有人類不能控制的AI,而是 「AI 超過人類的時候,人類還來不及製訂規則」。
規則還沒寫完,遊戲已經開始了。
Hinton 沒有唱衰未來,他不是悲觀,而是提醒速度失控的代價:人類社會的反應鏈很長,從研究到立法,從共識到行動,往往要幾年;而AI 的迭代只需要幾個月,有時甚至是幾天。
如果我們再不加快思考,可能連出問題的時候都不知道出了什麼問題。
這才是他一再說「緊迫」的原因。
“下一代智慧”,不是更快的GPT,也不是更大的模型。
而是:它有了動機、我們看不懂它、它學得比我們快十億倍, 這三個特徵疊加後形成的新物種。
Hinton 沒有預測奇點,也沒有談到通用智能的奇蹟。
他說的全是眼下正在發生的事:
這些話的核心,只有一個:不是AI 太可怕,而是人類太漫不經心。
這不是「科技悲觀主義」。 這是一個一生獻給AI 的人,在提醒我們:我們面對的,不只是科技飛躍,而是文明節奏的變軌。
它沒有預警,不會等你理解之後再發生。
Hinton 77歲,不需要再證明什麼。
但他看到了:這個「下一代智慧」正在變強,而人類卻沒有變快。
所以他不得不說。
我們,聽得進去嗎? (AI深度研究員)