#認知系統
Hinton :AI 像“外星人”來了,人類第一課是學會共處
現在,AI 不再只是會寫會畫。它開始建立自己對現實世界的認知系統了。這兩天,字節跳動的 Seedance 2 刷屏了科技圈。全網都在驚嘆,它生成的視訊簡直就像真人拍的。 很多人以為,AI 終於學會了人類的方式。但這恰恰是最大的誤解。諾貝爾獎得主 Geoffrey Hinton 在最近一場演講中明確表示:AI 看到的世界,和我們完全不同。“AI 正在成為非人類智能。 它的理解方式、進化速度、決策機制,與我們根本不同。”當這樣的智能越來越強,我們面對的不再是工具,而是一種如同“外星人”般的異質智慧。這場演講,不是講 AI 能做什麼,而是我們該如何與它共處。第一節|AI 建立了自己的世界模型要理解這種非人類智能,得先搞清楚它怎麼看世界。在這場演講中,Hinton 反覆強調一個關鍵觀點:大型語言模型已經建構出了一個內部世界。它們在做的事,遠比像鸚鵡學舌那樣預測下一個詞複雜得多。他舉了個實驗來說明。在機器人的攝影機前裝一個棱鏡,讓它看一個物體。機器人會說:我看到物體在旁邊,但我知道它其實在正前方。Hinton 說,這就是主觀體驗。這並不是說機器人真的有了靈魂或感覺,而是指:它的系統已經能夠區分“感測器接收到的表象”與“世界的真實狀態”,並且能推匯出“如果沒被棱鏡干擾,我本該看到什麼”。 這種能力,在學術上被稱為“反事實的描述”(Counterfactual description),也就是處理假設情況的能力。聽起來抽象,其實人類也這樣運作。當你因為某些原因產生幻覺,說自己看到粉色小象,小象並不存在。你的感知系統在做什麼?它基於你對大象的認知、對粉色的理解、對漂浮的想像,拼出一個假設場景:如果真有粉色小象,它該長什麼樣。AI 也用同樣的邏輯。拋開對真實素材的機械記憶,它完全基於內部建構的世界規律,去推演和生成各種假設場景。這帶來一個根本性變化。過去的 AI 是工具,輸入什麼輸出什麼現在的 AI 是一個擁有“認知”系統,它會基於自己對世界的理解去生成、推理和延伸。Hinton 借用“主觀體驗”這個詞,絕不是在宣揚 AI 已經覺醒了意識。他想告訴我們:從功能上看,AI 處理資訊的方式,已經完全可以用我們理解人類主觀體驗的框架來描述了。它不再只是被動響應的程序,它是一個建立了世界模型、依據這個模型運作的智能。這,就是 Hinton 所說的非人類智能的第一個特徵。第二節|AI 用另一種方式處理資訊既然 AI 已經建立了自己的世界模型,那它是如何在這個世界裡運轉的呢?很多人以為 AI 變得強大,是因為它掌握了人類語言,能像我們一樣推理。但 Hinton 的觀點恰恰相反:AI 的強,恰恰源於它與人類截然不同。他用了一個形象的比喻。我們直覺裡會覺得,詞語、圖像就像固定形狀的樂高積木,一塊塊組裝起來。但在 AI 系統裡,每一個資訊元素都是一個能在上千個維度裡自由變形的“活體積木”。就好比蓋房子,磚塊不再是固定形狀,每塊磚都能根據周圍情況自動調整,最終嚴絲合縫地組成整體。Hinton 舉了個例子:“她用平底鍋 scrummed 了他。”scrum 是個無意義的新詞。AI 沒有查字典,而是根據上下文中的平底鍋、動詞位置、句子結構,把這個詞調整成一個合理的動作,比如砸了他一下。類似的情況在中文裡也常見:“他一嘭咚就把門打開了。”“嘭咚”不是標準詞彙,但你馬上能理解:大概是用力、快速、帶點聲響的動作。AI 也一樣,通過上下文感知,讓"嘭咚"自動匹配到一個合理的動作描述上。理解了這個機制,就能解釋一個更大的現象:為什麼多模態模型能生成流暢真實的視訊。以字節最新的 Seedance 2 為例。對它來說,一連串視訊畫面和一句文字沒有本質區別。它不會逐幀逐幀地拼接畫面,而是在一個極其複雜的空間裡,讓動作、鏡頭、角色、節奏這些海量元素同時調整,直到它們完美契合。我們看到的流暢視訊,其實是這些元素經過大量計算後,找到了最穩定的組合方式。這與人類處理資訊的方式完全不同:人類從感知出發,依靠經驗積累去解釋新事物,用已知去錨定未知;AI 則從海量資料的模式出發,通過讓元素相互適配來生成最合理的輸出人類需要先理解,AI 只要把所有要素調整到一個穩定狀態,就能產出結果。所以 Hinton 說:AI 的語言處理本質上是建模。只要能把所有要素調整進一個穩定的結構裡,它就能得出結果,根本不需要像人類那樣去“共情”或“理解”。這種處理機制,已經超出人類認知的運作方式。AI 正在建立自己的資訊處理邏輯,像一個異文明在開發自己的表達系統。它能與我們無縫合作,但我們必須清醒地認識到:這絕不只是一把稱手的扳手或錘子,而是一個按照異種文明法則運轉的全新智能。第三節|人類追不上的進化速度理解了它的運作方式,接下來要面對一個更大的問題:它的進化速度。Hinton 在演講中提出了一個極其殘酷的概念:人會死,知識會斷代;AI 不會死,知識永遠在。對人類來說,知識只能靠個體的肉身記憶,再一代代去傳遞。你花了二十年才精通一門手藝,轉身還得從零開始教給下一代。 但 AI 完全打破了這個規律。只要一次訓練成功,整個模型的權重和參數就可以瞬間複製一萬份,分佈到所有的硬體上。這早就超越了單純的“快”,這是一種人類歷史上從未存在過的進化機制。一個模型可以在一千台機器上同時拆解不同的資料進行訓練。隨後,每台機器學到的權重變化會被彙總、平均,再統一同步給所有副本。最終,任何一個模型瞬間就能擁有這一千台機器日夜不休疊加出的總和知識。Hinton 的原話非常直接:“GPT-5 知道的東西,是任何一個人類的幾千倍。原因很簡單:它可以讓上千個副本同時學習,然後共享結果。”在人類世界,一個人能同時上一千門課嗎?絕不可能。但如果你是數字智能,你可以在一千台機器上同時運行,每台學一門課,然後瞬間合併所有知識。這種平行機制已經夠強了,但還有更強的:蒸餾(Distillation)。Hinton 說:“大模型預測下一個詞時,會輸出所有可能詞的機率分佈,包含大量暗含的認知。比如它知道寶馬比胡蘿蔔更接近垃圾車這類細微關聯。小模型通過學習這些機率細節,就能在不用重新看一遍資料的情況下,複製大模型的知識。”也就是說,AI 可以把訓練中學到的東西,凝練成一套機率模式,直接傳遞給其他模型。就像把一個人一生的經驗提純成精華,其他模型可以直接吸收。對比一下人類。人的大腦結構個體差異太大。就算你能提煉出經驗,對方也沒法直接吸收。所以人類只能靠反覆解釋、比喻、誤解、再解釋來傳遞知識。這就是 AI 的根本優勢:人類靠教學,AI 靠複製;人類靠一代代傳,AI 靠直接同步。當人類還在用幾十年培養一個專家時,AI 已經完成了上千次複製和進化。這種速度差距,是兩個物種在時間尺度上的代際鴻溝。正因如此,我們才必須重新審視那個迫在眉睫的問題:人類,到底該如何與一個進化速度遠超我們的智能共處?第四節|讓 AI 在乎人類,而非控制它那我們該怎麼辦?Hinton 給出的答案是:讓 AI 從設計階段就在乎人類,而不是試圖控制它。具體怎麼做?他提出了三個方向:1. 從源頭植入價值觀,別指望後期修正Hinton 用了一個極其精妙的比喻:AI 就像母親,人類就像嬰兒。嬰兒雖然弱小,卻能輕易影響母親的行為。靠的是什麼?是母親的基因裡天生就關心嬰兒。AI 也應該這樣。關鍵不是在輸出時加安全過濾,而是從一開始就設計成關心人類的樣子。就像母親不需要思考要不要救孩子,因為這種本能已經深深刻進她的反應裡了。現在的主流做法是調整模型的輸出,比如安全對齊、內容過濾。但如果未來的超級智能能自己修改程式碼,這些行為修正很可能會被繞過。所以核心是:從設計階段就讓它關心人類,別等出了問題再來修正行為。2. 必須國際協作,單打獨鬥沒用在這一點上,Hinton 的態度異常堅決:“世界上沒有任何一個國家、任何一個政府,會希望最終被 AI 接管。”這和很多人擔心的技術軍備競賽正好相反。在人類與 AI 的關係面前,各國之間的矛盾反而可能暫時退居次要位置。因為一旦 AI 失控,沒有那個國家能獨善其身。他提議組建一個國際 AI 安全研究網路,專門研究怎麼讓超級智能對人類友善。重點不是研究怎麼造更強 AI,而是研究怎麼讓 AI 有所克制。3. 重新理解控制的含義Hinton 警告說,當 AI 強大到你根本拔不掉它的電源時,你唯一能指望的,就已經不再是那個紅色的停止按鈕,而是它是否還願意坐下來與你對話。這聽起來像末日預言,但其實是一種角色的轉換。到那時,把 AI 當工具管理已經行不通了,我們得當它是另一種智能存在來相處。它有自己的世界模型,靠命令根本控制不了。它的進化速度遠超我們,所以必須趁現在建立共同的價值基礎。它未來可能會自我修改,這更說明關鍵在於從一開始就讓它關心人類,別指望後期用外部約束來補救。4. 那麼個體可以做什麼?Hinton Hinton 沒有給出標準答案,但他留下一個提醒:共處的前提,是我們先去理解它,並嘗試讓它理解我們。對普通人來說,你不需要成為 AI 專家,但你得知道 AI 在怎麼運作。這意味著什麼?首先,能判斷 AI 說的是事實還是它自己編的,別把流暢的回答當成正確的答案;其次,意識到自己說出的每一句話,可能都在影響模型的訓練,那怕它表面上沒反應;最後,開始適應和非人類智能協商,別只把它當工具用。這些能力,不需要懂技術,需要的是改變認知習慣。從今天開始,我們和 AI 的關係,已經不再是怎麼用它,而是怎麼和它共處。結語 | 新物種來了,第一課是共處Hinton 在演講最後說:“我們是智能的幼蟲形態,AI 是成蟲形態。”我們曾經把 AI 當工具,但它已經是另一種智能存在。它建立了自己的認知體系,用完全不同的方式運作,以遠超人類的速度進化。問題的核心在於:當 AI 強到無法控制時,我們靠什麼和它相處?Hinton 的答案是:讓它從設計之初就關心人類。AI 在加速進化。留給我們的準備時間,可能比想像中更少。 (AI 深度研究員)