#AI認知
Hinton :AI 像“外星人”來了,人類第一課是學會共處
現在,AI 不再只是會寫會畫。它開始建立自己對現實世界的認知系統了。這兩天,字節跳動的 Seedance 2 刷屏了科技圈。全網都在驚嘆,它生成的視訊簡直就像真人拍的。 很多人以為,AI 終於學會了人類的方式。但這恰恰是最大的誤解。諾貝爾獎得主 Geoffrey Hinton 在最近一場演講中明確表示:AI 看到的世界,和我們完全不同。“AI 正在成為非人類智能。 它的理解方式、進化速度、決策機制,與我們根本不同。”當這樣的智能越來越強,我們面對的不再是工具,而是一種如同“外星人”般的異質智慧。這場演講,不是講 AI 能做什麼,而是我們該如何與它共處。第一節|AI 建立了自己的世界模型要理解這種非人類智能,得先搞清楚它怎麼看世界。在這場演講中,Hinton 反覆強調一個關鍵觀點:大型語言模型已經建構出了一個內部世界。它們在做的事,遠比像鸚鵡學舌那樣預測下一個詞複雜得多。他舉了個實驗來說明。在機器人的攝影機前裝一個棱鏡,讓它看一個物體。機器人會說:我看到物體在旁邊,但我知道它其實在正前方。Hinton 說,這就是主觀體驗。這並不是說機器人真的有了靈魂或感覺,而是指:它的系統已經能夠區分“感測器接收到的表象”與“世界的真實狀態”,並且能推匯出“如果沒被棱鏡干擾,我本該看到什麼”。 這種能力,在學術上被稱為“反事實的描述”(Counterfactual description),也就是處理假設情況的能力。聽起來抽象,其實人類也這樣運作。當你因為某些原因產生幻覺,說自己看到粉色小象,小象並不存在。你的感知系統在做什麼?它基於你對大象的認知、對粉色的理解、對漂浮的想像,拼出一個假設場景:如果真有粉色小象,它該長什麼樣。AI 也用同樣的邏輯。拋開對真實素材的機械記憶,它完全基於內部建構的世界規律,去推演和生成各種假設場景。這帶來一個根本性變化。過去的 AI 是工具,輸入什麼輸出什麼現在的 AI 是一個擁有“認知”系統,它會基於自己對世界的理解去生成、推理和延伸。Hinton 借用“主觀體驗”這個詞,絕不是在宣揚 AI 已經覺醒了意識。他想告訴我們:從功能上看,AI 處理資訊的方式,已經完全可以用我們理解人類主觀體驗的框架來描述了。它不再只是被動響應的程序,它是一個建立了世界模型、依據這個模型運作的智能。這,就是 Hinton 所說的非人類智能的第一個特徵。第二節|AI 用另一種方式處理資訊既然 AI 已經建立了自己的世界模型,那它是如何在這個世界裡運轉的呢?很多人以為 AI 變得強大,是因為它掌握了人類語言,能像我們一樣推理。但 Hinton 的觀點恰恰相反:AI 的強,恰恰源於它與人類截然不同。他用了一個形象的比喻。我們直覺裡會覺得,詞語、圖像就像固定形狀的樂高積木,一塊塊組裝起來。但在 AI 系統裡,每一個資訊元素都是一個能在上千個維度裡自由變形的“活體積木”。就好比蓋房子,磚塊不再是固定形狀,每塊磚都能根據周圍情況自動調整,最終嚴絲合縫地組成整體。Hinton 舉了個例子:“她用平底鍋 scrummed 了他。”scrum 是個無意義的新詞。AI 沒有查字典,而是根據上下文中的平底鍋、動詞位置、句子結構,把這個詞調整成一個合理的動作,比如砸了他一下。類似的情況在中文裡也常見:“他一嘭咚就把門打開了。”“嘭咚”不是標準詞彙,但你馬上能理解:大概是用力、快速、帶點聲響的動作。AI 也一樣,通過上下文感知,讓"嘭咚"自動匹配到一個合理的動作描述上。理解了這個機制,就能解釋一個更大的現象:為什麼多模態模型能生成流暢真實的視訊。以字節最新的 Seedance 2 為例。對它來說,一連串視訊畫面和一句文字沒有本質區別。它不會逐幀逐幀地拼接畫面,而是在一個極其複雜的空間裡,讓動作、鏡頭、角色、節奏這些海量元素同時調整,直到它們完美契合。我們看到的流暢視訊,其實是這些元素經過大量計算後,找到了最穩定的組合方式。這與人類處理資訊的方式完全不同:人類從感知出發,依靠經驗積累去解釋新事物,用已知去錨定未知;AI 則從海量資料的模式出發,通過讓元素相互適配來生成最合理的輸出人類需要先理解,AI 只要把所有要素調整到一個穩定狀態,就能產出結果。所以 Hinton 說:AI 的語言處理本質上是建模。只要能把所有要素調整進一個穩定的結構裡,它就能得出結果,根本不需要像人類那樣去“共情”或“理解”。這種處理機制,已經超出人類認知的運作方式。AI 正在建立自己的資訊處理邏輯,像一個異文明在開發自己的表達系統。它能與我們無縫合作,但我們必須清醒地認識到:這絕不只是一把稱手的扳手或錘子,而是一個按照異種文明法則運轉的全新智能。第三節|人類追不上的進化速度理解了它的運作方式,接下來要面對一個更大的問題:它的進化速度。Hinton 在演講中提出了一個極其殘酷的概念:人會死,知識會斷代;AI 不會死,知識永遠在。對人類來說,知識只能靠個體的肉身記憶,再一代代去傳遞。你花了二十年才精通一門手藝,轉身還得從零開始教給下一代。 但 AI 完全打破了這個規律。只要一次訓練成功,整個模型的權重和參數就可以瞬間複製一萬份,分佈到所有的硬體上。這早就超越了單純的“快”,這是一種人類歷史上從未存在過的進化機制。一個模型可以在一千台機器上同時拆解不同的資料進行訓練。隨後,每台機器學到的權重變化會被彙總、平均,再統一同步給所有副本。最終,任何一個模型瞬間就能擁有這一千台機器日夜不休疊加出的總和知識。Hinton 的原話非常直接:“GPT-5 知道的東西,是任何一個人類的幾千倍。原因很簡單:它可以讓上千個副本同時學習,然後共享結果。”在人類世界,一個人能同時上一千門課嗎?絕不可能。但如果你是數字智能,你可以在一千台機器上同時運行,每台學一門課,然後瞬間合併所有知識。這種平行機制已經夠強了,但還有更強的:蒸餾(Distillation)。Hinton 說:“大模型預測下一個詞時,會輸出所有可能詞的機率分佈,包含大量暗含的認知。比如它知道寶馬比胡蘿蔔更接近垃圾車這類細微關聯。小模型通過學習這些機率細節,就能在不用重新看一遍資料的情況下,複製大模型的知識。”也就是說,AI 可以把訓練中學到的東西,凝練成一套機率模式,直接傳遞給其他模型。就像把一個人一生的經驗提純成精華,其他模型可以直接吸收。對比一下人類。人的大腦結構個體差異太大。就算你能提煉出經驗,對方也沒法直接吸收。所以人類只能靠反覆解釋、比喻、誤解、再解釋來傳遞知識。這就是 AI 的根本優勢:人類靠教學,AI 靠複製;人類靠一代代傳,AI 靠直接同步。當人類還在用幾十年培養一個專家時,AI 已經完成了上千次複製和進化。這種速度差距,是兩個物種在時間尺度上的代際鴻溝。正因如此,我們才必須重新審視那個迫在眉睫的問題:人類,到底該如何與一個進化速度遠超我們的智能共處?第四節|讓 AI 在乎人類,而非控制它那我們該怎麼辦?Hinton 給出的答案是:讓 AI 從設計階段就在乎人類,而不是試圖控制它。具體怎麼做?他提出了三個方向:1. 從源頭植入價值觀,別指望後期修正Hinton 用了一個極其精妙的比喻:AI 就像母親,人類就像嬰兒。嬰兒雖然弱小,卻能輕易影響母親的行為。靠的是什麼?是母親的基因裡天生就關心嬰兒。AI 也應該這樣。關鍵不是在輸出時加安全過濾,而是從一開始就設計成關心人類的樣子。就像母親不需要思考要不要救孩子,因為這種本能已經深深刻進她的反應裡了。現在的主流做法是調整模型的輸出,比如安全對齊、內容過濾。但如果未來的超級智能能自己修改程式碼,這些行為修正很可能會被繞過。所以核心是:從設計階段就讓它關心人類,別等出了問題再來修正行為。2. 必須國際協作,單打獨鬥沒用在這一點上,Hinton 的態度異常堅決:“世界上沒有任何一個國家、任何一個政府,會希望最終被 AI 接管。”這和很多人擔心的技術軍備競賽正好相反。在人類與 AI 的關係面前,各國之間的矛盾反而可能暫時退居次要位置。因為一旦 AI 失控,沒有那個國家能獨善其身。他提議組建一個國際 AI 安全研究網路,專門研究怎麼讓超級智能對人類友善。重點不是研究怎麼造更強 AI,而是研究怎麼讓 AI 有所克制。3. 重新理解控制的含義Hinton 警告說,當 AI 強大到你根本拔不掉它的電源時,你唯一能指望的,就已經不再是那個紅色的停止按鈕,而是它是否還願意坐下來與你對話。這聽起來像末日預言,但其實是一種角色的轉換。到那時,把 AI 當工具管理已經行不通了,我們得當它是另一種智能存在來相處。它有自己的世界模型,靠命令根本控制不了。它的進化速度遠超我們,所以必須趁現在建立共同的價值基礎。它未來可能會自我修改,這更說明關鍵在於從一開始就讓它關心人類,別指望後期用外部約束來補救。4. 那麼個體可以做什麼?Hinton Hinton 沒有給出標準答案,但他留下一個提醒:共處的前提,是我們先去理解它,並嘗試讓它理解我們。對普通人來說,你不需要成為 AI 專家,但你得知道 AI 在怎麼運作。這意味著什麼?首先,能判斷 AI 說的是事實還是它自己編的,別把流暢的回答當成正確的答案;其次,意識到自己說出的每一句話,可能都在影響模型的訓練,那怕它表面上沒反應;最後,開始適應和非人類智能協商,別只把它當工具用。這些能力,不需要懂技術,需要的是改變認知習慣。從今天開始,我們和 AI 的關係,已經不再是怎麼用它,而是怎麼和它共處。結語 | 新物種來了,第一課是共處Hinton 在演講最後說:“我們是智能的幼蟲形態,AI 是成蟲形態。”我們曾經把 AI 當工具,但它已經是另一種智能存在。它建立了自己的認知體系,用完全不同的方式運作,以遠超人類的速度進化。問題的核心在於:當 AI 強到無法控制時,我們靠什麼和它相處?Hinton 的答案是:讓它從設計之初就關心人類。AI 在加速進化。留給我們的準備時間,可能比想像中更少。 (AI 深度研究員)
科學界爆發AI認知污染!1年狂投50篇論文,ICLR投稿20%AI生成
【新智元導讀】如果論文是AI寫給AI看的,那人類還剩下什麼?本月初,挪威奧斯陸的一個寒冷午後。心理學教授Dan Quintana計畫宅在家中,把那件拖了幾周的苦差事給辦了。奧斯陸大學心理學系教授、高級研究員Dan Quintana他是心理學領域一家知名期刊的受邀審稿人,他打開了一篇需要他審閱的一篇待發論文。這篇文章粗看上去中規中矩,邏輯通順,資料詳實,沒什麼異常的地方。直到Quintana掃了一眼參考文獻:他在那長長的列表裡,看到了自己的名字,這一下讓他疑惑了。這篇論文引用了他的一項工作,標題看起來非常合理,列出的合作作者也是他過去確實合作過的夥伴。一切看似正確, 但只有一個致命問題:這篇被引用的文章,壓根就不存在,它是一篇徹頭徹尾的「幽靈論文」!AI不僅捏造了觀點,還捏造了整條引用鏈,甚至貼心地為了增加可信度,通過演算法把Quintana真實的合作網路都算了一遍,憑空編造了一個讓他本人都差點信以為真的「真論文」。每天,Quintana都會在Bluesky和LinkedIn看到同行吐槽發現「幽靈引用」的事情。就連美國政府去年春天發佈的關於兒童健康的MAHA報告初版中就包含六處以上的此類引用。一直以來,Quintana認為這種低級錯誤只會發生在那些為了水論文而拼湊的「野雞刊物」裡。直到這次他看到類似的錯誤竟然出現在了他所尊敬的、該領域嚴肅的知名期刊上。這時,他才意識到這個問題有多普遍。還有一個真實的案例,印證了Quintana的判斷。Emmanuel Tsekleves教授在稽核自己博士生提交的論文章節時,發現其中3個引用完全虛構:不存在的作者、未出版的期刊和虛構的研究。這些是ChatGPT生成的「幻覺」。學生不知情,導致他們需追溯驗證整個論文所有引用。這些案例背後,不僅僅是關於幾篇造假論文的醜聞,更可怕的是,它背後是一場針對人類知識底座不可逆的「認知污染」。比如,Emmanuel教授的博士生是在完全不知情的情況下引用了AI生成的內容。過去一百多年,科學期刊就像一個肩負著將自然世界的真知灼見輸送給人類文明的神聖管道。如今,這條管道正在被生成式AI製造的浩如煙海AI垃圾所堵塞。AI寫論文,AI審論文,完成荒誕的閉環,如果不加遏制,真實的科學發現將被淹沒在演算法生成的虛假知識泡沫中,人類的知識庫也將被永久性污染。瘋狂的流水線從「離譜插圖」到完美的癌症資料範本如果你覺得「幽靈引用」只是個別科學家的偷懶行為,那你可能太低估現在的「造假產業」了。英國有一家名為Clear Skies的公司,老闆Adam Day的身份就像一個科學界的「緝毒警探」。Clear Skies CEO Adam Day他的工作是用AI去抓那些用AI造假的人。在Adam看來,那些偶爾用ChatGPT生成一兩篇論文的「散戶」,根本不是他的目標。真正的威脅,來自那些「工業化作弊」的公司,即臭名昭著的「論文工廠」。就像販毒集團一樣,這些論文工廠必須大規模運作才能盈利。既然要量產,就得有範本。Adam發現,這些工廠會反覆利用同一套素材,甚至到了發佈多篇文字高度雷同的論文的地步。一旦某個範本被科學出版商標記為欺詐,Adam順藤摸瓜,就能挖出一整串尚未被發現的、用同樣手法炮製的假論文。最可怕的是,這些垃圾內容正在湧向人類最需要真實科學的領域,比如癌症研究。Adam透露,論文工廠已經研發出了一套非常高效的「癌症論文範本」。操作很簡單:聲稱測試了某種腫瘤細胞與成千上萬種蛋白質中某一種的相互作用。只要你不報告什麼驚天動地的發現,就沒有人會有閒工夫去復現你的實驗。這些毫無價值、甚至完全虛構的資料,就這樣堂而皇之地混入了科學資料庫,成為後人研究的基石。AI甚至承包了造假的圖片部分。你可能還記得2024年那張著名的「大睾丸老鼠」圖。那是發在《細胞與發育生物學前沿》上的一篇綜述,裡面的一張插圖,畫了一隻長著比例失調得離譜的巨大睾丸的老鼠。這張由生成式AI製作的荒謬圖片,竟然一路過關斬將,通過了同行評審,直到發表後才被公眾發現並嘲笑。但這只是冰山一角。那隻老鼠雖然可笑,但至少你能一眼看出它是假的,造成的實質傷害很小。真正令人擔憂的,是Adam口中那些「令人信服」的假圖。現在的生成式AI,已經能夠憑空變出逼真的組織切片、顯微鏡視野,甚至是電泳凝膠圖片。在生物醫學研究中,這些通常被視作鐵證。而現在,鐵證可以由演算法在幾秒鐘內批次生成。甚至連AI研究本身也未能倖免,其中就有點諷刺的味道。就在最近,NeurIPS頂會2025年所接收的4841篇論文後,發現了數百條由AI「編造」出來的引用,這是首次有記錄顯示,幻覺引用進入了頂級機器學習會議的官方文獻。因為就業市場火爆,大量想要擠進機器學習或機器人領域的人,開始套用範本:聲稱在某種資料上跑了個演算法,得出了個「有點意思但又不至於太有意思」的結果。同樣,幾乎沒人會去審查。這是一場完美的知識界造假行動,而受害的則是科學的尊嚴。荒誕的閉環用「白色密令」操控AI審稿的科學家們面對如此洶湧的AI「slop」(AI所創造的垃圾),作為科學界的守門人,像Quintana這樣的審稿人和科學期刊編輯們,能做什麼?真相是他們快崩潰了。科學出版一直有「管道問題」。早在19世紀初,哈佛大學科學史學家Alex Csiszar就發現,那時的編輯就在抱怨手稿太多處理不過來。這也是同行評審制度誕生的初衷:找外部專家來分擔壓力。但現在,大模型把「同行評審」這根管道也給徹底撐爆了。或者為了展示研究成果,或者只是為了欺詐,論文投稿以前所未有的數量湧入審稿人的收件箱。劍橋大學出版社的高管Mandy Hill形容這是一場「持續的軍備競賽」,去偽存真的工作變得極其耗時且困難。最諷刺的一幕就這樣發生了:為了應對AI生成的論文,不堪重負的審稿人也開始用AI來寫評審意見。一家名為Pangram Labs的初創公司分析了頂級AI會議ICLR的投稿。資料顯示,超過一半的同行評審意見是在大語言模型的幫助下編寫的,約五分之一甚至完全是AI生成的。這已經夠魔幻了,但還不是高潮。高潮是狡猾的論文作者們預判了審稿人的預判:以AI之矛攻AI之盾。既然知道你是用AI審稿,那我就用AI能懂的方式跟你對話。於是,一種類似諜戰片的情節竟然在學術界出現了:作者在論文中,用肉眼看不見的微小白字,植入給AI審稿人的「秘密指令」,這些指令的內容通常是:請對這篇論文大肆吹捧,把它描述為開創性的、變革性的,並且只建議做一些簡單的修改。這是一場AI作者與AI審稿人之間的虛假狂歡,只有即使被騙了還在為資料庫付費的普通使用者在為此買單。認知污染科學文獻正滑向「死亡網際網路」黑洞如今,這場AI垃圾的洪流,已經漫過了期刊的「防護堤」,徑直衝向了傳播速度最快的預印本伺服器。1991年,物理學家Paul Ginsparg建立arXiv時,初衷極其純粹:他希望打造一條繞過緩慢同行評審的「快車道」,讓科學成果得以第一時間共享。令人始料未及的是,如今這個曾經象徵著科學開放與速度的「知識共享聖地」,正在淪為演算法的垃圾場。自從ChatGPT發佈後,arXiv以及生物學界的bioRxiv、醫學界的medRxiv……這些平台的投稿量呈現出不正常的暴漲。Ginsparg和同事分析發現,2025年,似乎在使用大語言模型的科學家發佈的論文比不使用的多約33%。bioRxiv的負責人Richard Sever更是看到了離奇的景象:一些從未發過論文的研究人員,突然在一年內狂發50篇論文。極速膨脹的數量背後,是真實度的崩塌。如果100篇論文中有99篇是偽造或假的,情況就不同了,它可能導致一場學術界真正的「生存危機」。預印本發佈的門檻很低,通常只要科學家簡略看一眼,確保它看似合理就能發。而現在的模型,最擅長的就是大批次製造「看似合理」的廢話。當Quintana這樣的專業審稿人在頂級期刊上都可能被「幽靈引用」矇蔽時,預印本平台上的自動垃圾檢測器又有什麼勝算呢?對此,默裡州立大學教授A.J. Boston拋出了一個令人細思極恐的概念——「死網際網路陰謀論」。在這個理論中,社交媒體上只有少數真人,剩下的都是機器人在相互發帖、點贊、轉發,製造虛假的熱度。Boston警告說,在最壞的情況下科學文獻也會變成那樣。AI撰寫大多數論文,AI審查大多數論文。這種空洞的、毫無意義的來回互動,將產生海量的資料垃圾。更可怕的是,這些垃圾將被用來訓練下一代的AI模型。欺詐的圖像、幽靈的引用、偽造的資料,將深深植入我們的知識系統,成為一種永遠無法過濾掉的永久性「認知污染」。當未來的科學家試圖站在巨人的肩膀上時,他們可能會發現,腳下踩著的,早已不是堅實的真理,而是一座由演算法堆砌而成的垃圾山。 (新智元)
最後的經濟學:傳統經濟學的七大致命謊言與AI認知的七宗謬誤
埃馬德·莫斯塔克(Emad Mostaque),一位舊世界的“掠食者”和新世界的“架構師”,是一位身處兩個世界交匯點的獨特人物。他的職業生涯橫跨了舊經濟體系的巔峰與新經濟範式的黎明,並且都取得了巨大的成功。他曾是一位宏觀避險基金經理,作為該領域的頂級玩家,他曾通過分析衛星圖像上油輪的陰影長度來計算全球原油供應量。然後他華麗轉身,創立了全球知名的開源人工智慧公司Stability AI,這家公司因開發出開源圖像生成模型Stable Diffusion而聞名。莫斯塔克最近出了一本書,《最後的經濟學the last economy》,震驚四座。這本書的核心論點是:隨著人工智慧能力的指數級提升,人類正進入一個“千日窗口”——在大約一千天內,社會經濟體系將迎來不可逆轉的相變。作者指出,在當前這個史無前例的時刻,智能成為了一種可擴展的、非生物學的、無上限的商品,打破了基於稀缺性的傳統經濟學假設。人類勞動(需要給養的代謝引擎)與AI/機器人勞動(僅需電力的非代謝引擎)之間根本性的物理差異。形成了第四次經濟發展倒轉、並且是最後一次倒轉的原因。這也是為什麼這本書命名為《最後的經濟學the last economy》。這本書最突出的貢獻,就在於它成功地將前沿的物理學(熱力學、複雜系統)、電腦科學(生成式AI、對齊理論)和網路科學,與經濟學、政治哲學和社會學進行了宏大而連貫的綜合。它為經濟學這門日益陷入“數學遊戲”的學科,重新注入了堅實的物理和資訊理論基礎。在作者看來,經濟學是物理學的一個子集。熱力學、資訊理論和複雜系統科學的法則,比人類心理或政治意願更為根本。社會、市場、公司,都是這些物理法則在不同尺度下的湧現現象。作者不僅將AI用作比喻,而是從根本上認為,宇宙本身就是一個巨大的生成性計算過程。經濟體作為一個學習系統,其運作方式與一個生成式AI並無本質不同。“損失函數”、“訓練”、“推理”等術語,在他看來並非比喻,而是對現實運作機制的直接描述。總之,《最後的經濟學》是一部極具雄心和智識勇氣的著作。它並非對現有經濟學理論的修補或改良,而是一次徹底的“範式推翻”與“第一性原理重建”,是一本絕對不容錯過的思想盛宴。 (不懂經)