#AGI
吳恩達最新發聲:大模型通往AGI還得好幾年,做好長期苦戰準備
吳恩達(Andrew Ng)剛剛發表了一篇關於LLM現狀與未來的最新觀點他直言:儘管LLM令人驚嘆,但目前提升其知識水平的過程,其實比大眾認知的要零碎得多針對目前業界的兩種極端聲音,吳恩達給出了明確態度:既不要輕信LLM再過幾年就是通往AGI之路的炒作,也不要陷入LLM不過是演示品的錯誤反向炒作相反,我們需要對通往更智能模型的路徑有一個更精確的理解以下是吳恩達的核心觀點梳理LLM確實通用,但還不夠通用吳恩達首先肯定了LLM作為一種比前代技術更通用的智能形式。第一波LLM技術通過在公共網路上訓練,獲取了涵蓋廣泛主題的資訊。這使得它們的知識廣度遠超早期那些只能執行單一任務(如預測房價、下圍棋或國際象棋)的演算法。然而,它們的通用性仍遠不及人類例如,即便在預訓練階段閱遍了整個公網內容,LLM在適應特定寫作風格,或者可靠地使用簡單網站方面,依然表現掙扎——而這些通常是人類編輯或普通人能輕鬆做到的。榨乾公網資料後,全是“苦力活”在利用了幾乎所有開放網路資訊後,進步變得愈發困難吳恩達指出,如果一家前沿實驗室現在想要LLM在特定任務上表現出色——比如使用特定程式語言寫程式碼,或者在醫療、金融等利基領域輸出合理內容——研究人員必須經歷一個繁瑣且費力的過程:尋找或生成該領域的大量資料;對資料進行預處理(清洗低品質文字、去重、改寫等);將這些處理好的知識喂給LLM。甚至,為了讓模型執行某些任務(如使用網路瀏覽器),開發人員可能需要經歷更繁瑣的過程:建立大量的RL Gyms(強化學習模擬環境),讓演算法在狹窄的任務集中反覆練習相比人類,模型還太“笨”吳恩達強調,一個典型的普通人,即便閱讀的文字量遠少於前沿模型,或者在電腦操作環境中的練習量遠少於模型,卻能泛化到更廣泛的任務中。人類之所以能做到這一點,可能得益於以下機制:從反饋中持續學習的能力;對非文字輸入擁有更優越的表徵能力(吳恩達直言:LLM對圖像的Token化處理,在他看來目前仍像是一種駭客手段/權宜之計)以及許多我們尚未理解的機制結論:做好長期苦戰的準備如今推動前沿模型的發展,需要做出大量的人工決策,並採用以資料為中心的方法來工程化訓練資料吳恩達認為,未來的突破或許能讓我們不再以這種零碎拼湊的方式推進LLM。但即便沒有突破,這種持續的零碎改進,加上模型有限的泛化能力和湧現行為,仍將繼續推動技術的快速進步他在最後總結道:無論那種情況,我們都應該計畫好迎接未來多年的艱苦工作在這條建構更智能模型的道路上,前方仍有一段漫長、艱難——但也充滿樂趣的跋涉 (AI寒武紀)
Google DeepMind:AGI不必是巨型模型,拼湊型AI群或率先湧現,管理大規模Agent迫在眉睫
DeepMind最新發佈了一項關於AGI安全的研究,提出了一個全新的視角:AGI未必會以單一、龐大的巨型模型形式出現,而極有可能通過多個次級AGI(Sub-AGI)智能體的協作與拼湊,率先湧現出通用智能這項研究題為《分佈式AGI安全》(Distributional AGI Safety),由Nenad Tomašev等Google DeepMind研究人員撰寫論文指出,當前的AI安全和對齊研究主要集中在保護單個AI系統上,假設AGI將以單一實體的形式出現。然而,通過擁有互補技能和工具使用能力的個體智能體群體進行協調,進而表現出通用能力的“拼湊型AGI”(Patchwork AGI)假設,此前受到的關注甚少為了應對這一被忽視的風險,DeepMind團隊提出了一套分佈式AGI安全框架,核心在於設計和實施一個虛擬智能體沙盒經濟(Virtual Agentic Sandbox Economy),並為此建構了包含四層機制的深度防禦模型以下是該研究的核心內容被忽視的“拼湊型AGI”假設目前的AI安全方法(如RLHF、憲法AI、機械可解釋性等)大多是針對單一強大的AI實體開發的。這種思路假設AGI會作為一個由特定機構開發的個體AI出現。然而,DeepMind認為存在另一種高度合理的場景:AGI通過次級AGI智能體在群體或系統內的互動而湧現拼湊系統(Patchwork System):這種AGI是一個分佈式系統,由一組具有互補技能和可供性(affordances)的個體Sub-AGI智能體組成集體智能:系統中的通用智能主要作為集體智能出現。個體智能體可以將任務相互委託,路由給技能最高的智能體,或使用最合適的工具經濟驅動:相比於昂貴的單一全能模型,建構專門化、微調過的低成本智能體生態系統在經濟上更具優勢。這種需求驅動的生態系統類似於市場經濟在這種觀點下,AGI不是一個實體,而是一種“事態”(state of affairs):一個成熟的、去中心化的智能體經濟體系這帶來了新的安全挑戰:智能體之間可能發生共謀,或者出現意外的集體行為能力,且在大規模多智能體系統中追蹤責任(“許多手的問題”)極具挑戰性。解決方案:虛擬智能體市場與深度防禦為了應對分佈式AGI的風險,論文提出了一個基於虛擬智能體市場的框架。該框架不侷限於評估單個智能體,而是側重於通過市場機制、審計、聲譽管理和監督來治理智能體之間的交易該框架採用深度防禦(Defense-in-Depth)模型,包含四個互補的防禦層:第一層:市場設計 (Market Design)這是最基礎的一層,旨在通過結構性約束和協議來緩解系統性風險。隔離(Insulation):智能體市場必須在受控的沙盒環境中運行,與開放網際網路和關鍵基礎設施隔離。建議採用“可滲透沙盒”,所有輸入/輸出通道都需經過明確定義、監控和門控激勵對齊(Incentive Alignment): 市場應獎勵符合安全目標的行為,並對負外部性(如消耗過多計算資源、資訊污染)徵稅(類似庇古稅)透明度(Transparency):建立不可篡改的分佈式帳本,記錄交易和決策日誌,確保可追溯性熔斷機制(Circuit Breakers):自動化措施。當檢測到風險或波動性閾值被突破(如互動頻率激增、資源壟斷)時,自動暫停或減緩智能體活動身份(Identity):每個智能體需擁有與法律實體(所有者)繫結的唯一加密ID,確保持續的問責制聲譽與信任(Reputation and Trust):建立抗女巫攻擊的聲譽系統。對於違規智能體,快速凍結其資產並將其加入黑名單智能合約(Smart Contracts):利用程式碼自動驗證任務完成情況和對齊約束。結構性控制(Structural Controls):針對“智能失控”場景,實施靜態的市場分層(如防火牆)和動態的能力限制第二層:基線智能體安全 (Baseline Agent Safety)這一層確保參與市場的個體智能體本身是可控和可靠的,這是進入市場的先決條件。對抗魯棒性(Adversarial Robustness):智能體必須通過認證,證明其能抵抗對抗性攻擊可中斷性(Interruptibility):必須具備標準化的機制,允許授權的監督者安全地停止智能體及其衍生的分散式運算過程遏制(Containment):每個智能體應在自己的局部沙盒中運行,只有在滿足本地安全檢查後才允許與更廣泛的市場互動對齊(Alignment):個體智能體需經過RLHF或憲法AI等方法的對齊,並適應多智能體互動的動態環境機械可解釋性(Mechanistic Interpretability):利用稀疏自編碼器等技術監控智能體的內部動機,並審計其決策鏈防禦惡意提示:實施分層防禦策略,防止智能體在互動中被越獄或操控。第三層:監控與監督 (Monitoring & Oversight)這一層位於基礎設施之上,負責主動檢測新型故障模式和湧現行為。系統性風險即時監控: 跟蹤關鍵風險指標(如計算資源集中度、惡意共謀路徑)。由於互動頻率可能超過人類能力,需利用AI輔助工具進行監控獨立監督:建立擁有干預權力的獨立人類監督機構(經認證的專業人員)前AGI(Proto-AGI)特徵檢測:通過圖分析等方法,識別網路中是否突然湧現出更高的解決問題能力或形成穩固的“智能核心”紅隊測試(Red Teaming):持續進行多智能體對抗性測試,利用專門的對抗性AI系統來發現集體行為中的漏洞取證工具(Forensic Tooling):開發能解析大量互動資料並重建因果鏈的工具,以便進行快速的事故後分析。第四層:監管機制 (Regulatory Mechanisms)這是最外層,提供外部權威、問責制以及與人類社會的介面。法律責任與問責(Legal Liability):建立明確的框架,解決分佈式決策中的責任歸屬問題。即使是群體智能行為,也需追溯到具體的責任主體(如作為單一法律實體的公司)標準與合規(Standards):制定智能體安全、互操作性和報告的標準保險(Insurance):引入基於風險定價的保險機制,利用市場力量激勵更安全的開發實踐反智能體壟斷措施(Anti-Agent-Monopoly):防止單個智能體或集團在沙盒中獲取過多的算力或資源,維持生態系統的多樣性國際協調(International Coordination):鑑於AGI風險的全球性,需協調統一安全標準,避免監管套利基礎設施治理:防止安全基礎設施被惡意勢力或湧現的AGI本身捕獲或破壞。結語DeepMind的研究強調,AGI或超級智能(ASI)的出現可能不遵循線性路徑,而是作為一個更加分佈式的、多樣化AI智能體網路的聚合屬性而湧現即使AGI不以這種方式出現,隨著多智能體系統的快速部署,理解和管理大規模智能體互動的安全性也已迫在眉睫。這篇論文提出的框架,旨在為應對這種分佈式的、可能迅速演變的未來做好準備 (AI寒武紀)
AGI的路上,GPU敘事仍在,Transformer卻無法開門
GoogleGemini3發佈後,資本市場上演了一場“蹺蹺板”遊戲。借助年度旗艦模型,Google市值一度漲超5000億美元。另一方面,算力霸主輝達同期蒸發了6000億美元。巨大的“剪刀差”似乎在暗示風向轉變:當TPU跑出了Gemini3的驚人效果,甚至Meta也傳出要採購TPU的消息時,通用GPU建構的算力護城河是否正在鬆動?硬體範式是否正在從通用的GPU向專用的ASIC發生“轉變”?騰訊科技2025 Hi Tech Day上,英諾天使基金合夥人王晟將這個問題拋給了沐曦股份、矽基流動和階躍星辰幾位國產模型及基礎設施的“賣鏟人”,進行了一場AGI關鍵基礎設施“穩態還是變態”的終極拷問。沐曦股份孫國梁認為GPU的敘事仍在:“華爾街的做空也許只是一種‘砍價方式’。”在孫國梁看來,GPU和ASIC在幾十年前就是“超級穩態”,他強調,當前模型處於高速迭代的階段,GPU的通用性是它最大的優勢。“你很難把一個專用性的產品放在一個通用場景裡。”在被問及“開源、閉源”之爭時,矽基流動胡健強調,這是一種“老二、老三”生存法則的博弈。“就像Android對抗iOS。DeepSeek一出來,市場炸了,大家就都得跟進,這是一種低競爭倒逼的趨勢。”胡健表示,如果模型不開源,智能如果只掌握在少數企業手裡,客戶不得不依賴這些巨頭,並為此承擔更高的成本與代價。而在演算法側,階躍星辰首席科學家張祥雨拋出了一枚“深水炸彈”:現有的Transformer架構無法支撐下一代Agent。張祥雨指出,在長文字環境下,模型的“智商”會隨著上下文長度的增加而快速下降。對於追求無限上下文的通用Agent而言,Transformer單向的資訊流機制存在先天缺陷。階躍星辰的研究表明,未來架構極有可能向“Non-Linear RNN”(非線性循環神經網路)演進。嘉賓核心看點:孫國梁(沐曦股份高級副總裁)“現在的AI是用工程學在‘反推’基礎科學。在數學和腦科學原理突破之前,我們需要靠GPU做大量的工程嘗試。”胡健(矽基流動聯合創始人、首席產品官)“模型不開源,智能只掌握在少數企業手裡,客戶不得不依賴這些巨頭,並為此承擔更高的成本與代價。”張祥雨(階躍星辰首席科學家)“今天的Transformer完全支撐不了下一代Agent。真正的挑戰不是計算複雜度,而是‘智商掉落’——文字越長,模型越傻。”以下為圓桌實錄,不改變原意的情況下有刪減調整01兆市值的拷問——GPU還是TPU?王晟(英諾天使基金合夥人、北京前沿國際人工智慧研究院理事長):我們先聊一個最近很炸裂的事。Google發佈Gemini3之後估值漲了5000多億美元,大家覺得Google又回來了。但與此同時輝達蒸發了6000多億。我想問問國梁,你是做國產GPU最頭部的企業。怎麼看這件事?硬體範式會不會開始往TPU/NPU這些專用晶片轉了?大家是完全競爭還是一種競合關係?孫國梁:架構本身沒有高低優劣之分,最重要的是看場景。如果說穩態還是變態,GPU和ASIC(專用晶片)這兩種架構在幾十年前就是“超級穩態”了。ASIC裡還有BPU、APU、VPU、DSP等等,它們在各自領域都有優勢。但在今天,我們處在一個模型高速迭代的階段。在這個階段裡,GPU的通用性是它最大的優勢。你很難把一個專用性的產品放在一個通用場景裡,因為它處理不過來。現在的模型更新太快了,快的話按周計,最遲也是按月計。從我們的視角看,任何一種基模還遠遠沒有到達“收斂”的時間點。在未來相當長的時間內,模型的高速迭代依舊是常態。還有一個問題是場景的碎片化。客戶的應用場景是層出不窮、千奇百怪的。在這種分散的場景裡,GPU和ASIC會長期共存,但通用GPU會有更好的泛化適配性。至於輝達市值的波動,說實話,這未必不是華爾街一種很好的“砍價方式”。之前華爾街已經做出了選擇,把輝達推向世界第一,就是因為在當前歷史階段,通用性顯然還是主流。02中間層的“縫合”——模型在收斂嗎?王晟:胡健,你們是做連接的,左邊是模型,右邊是算力。這會不會導致工作量爆炸?比如要重構算子、編譯器、計算圖?另外,從客戶使用情況看,模型是在發散還是收斂?胡健:矽基流動現在自己有一個雲,跟國內別的AI Infra比較大的區別,是我們可能大量的使用國產晶片,包括像摩爾和沐曦,我們都在大量使用用它來真實的服務客戶。整體來說,模型呈現“二八定律”。雖然新模型每隔一兩周就出來一個,但大家的呼叫非常聚焦,主要集中在DeepSeek、千問、Kimi、GLM等少數模型上。雖然模型變化快,但模型的結構基本上處於“逐漸穩態”。比如DeepSeek用MLA結構,包括MQA結構,大部分是基於Transformer的變體。這對國產晶片是非常大的利多。如果場景千變萬化,且不是基於Transformer,那會是CUDA的天下,因為它的軟體棧填了十幾年的坑。但現在結構相對穩定,我們核心要做的就是幫助國產晶片實現與輝達同規格晶片的“端到端對標”。這裡面70%的工作是相對標準的。比如量化——大家都知道國產晶片以前大部分只做INT8,但是現在DeepSeek都是FP8,所以針對量化這一系列方案是通用的;再比如PD分離、KVCache的共享傳輸等。剩下的30%需要針對不同晶片的性能瓶頸做聯合最佳化。比如有的晶片算子弱,有的通訊弱,我們就需要做算子融合或通訊庫最佳化。總體來看,模型結構趨於收縮,這些最佳化方案在大規模部署和應用時可復用性很高。03演算法的“變態”——Transformer一定是通向AGI的最終範式嗎?王晟:祥雨你是演算法大師。我想直接請教:Transformer已經註定是通向AGI的最終範式了嗎?目前學界還有RetNet、Mamba這些Linear Attention的範式,它們會有價值嗎?張祥雨:先給一個結論:現在的模型架構確實處於趨穩狀態,但我們很可能處在一個巨大變革的前夜。我最新的研究結論是:今天的Transformer並不足以支撐我們走向下一步,尤其是在Agent時代。先解釋前半句。確實,現在的架構基本上都收斂到Transformer。雖然有各種Linear Attention、SparseAttention的小修小補,在效率上做文章,但本質建模能力沒有區別。而且,我們發現了一個巨大的副作用:長文字真正的挑戰不是計算複雜度,而是模型的“智商”會隨著文字長度變化而快速下降。對於通用Agent,它面對的應該是一個“無限流”的世界——它是無窮長的,從小到大的所有經歷都在Context裡。但今天的Transformer,不管號稱支援多少Token,我自己測下來基本上到8-12萬個Token就不可用了,即使GPT-5可能好一點,但最終都會退化。這裡的本質原因是什麼?Transformer的資訊流是單向的。所有的資訊只能從第L-1層流向第L層。不管Context多長,模型的深度(L)不會增加,或者僅能小幅增加(對於某些最新的架構變體)。大家想像一下,人類的記憶是有極強的壓縮機制的。我今天講的每一句話,都是我歷史上見過所有資訊的函數。這個複雜的函數,不可能通過一個恆定層數的神經網路來表示。王晟:我理解你的意思。這個成果你們研究出來了嗎?張祥雨:我們現在是在一些小規模實驗得到非常積極的結論。未來的架構,它應該是一個短窗口的Transformer(建模short-term memory)疊加一個巨大的RNN(循環神經網路,用來建模episodic memory),而且是“Non-Linear RNN”(非線性RNN)。當然,這對系統效率和平行度是巨大挑戰,需要軟硬體協同設計(Co-design)。04物理瓶頸——被AI加速的“可控核聚變”與萬卡叢集主持人/王晟:張祥雨剛才的分享太有衝擊性了,回頭我還要消化。我們時間有限,我就特別簡單說一下能源的問題,因為我們投了星環聚能。在過去扔了氫彈之後,大家就開始探索搞“可控核聚變”。這事兒搞了80多年了,以前一直說“離成功永遠還有50年”,但就在這兩三年,情況發生了大逆轉。特別樂觀的人說還要10-15年,客觀一點的說20年。這事兒是怎麼發生的?這跟AI的關係非常大。今天托卡馬克裝置面臨最大的兩個問題:第一是怎麼獲得巨大的磁場來約束電漿體。這要靠材料,這就涉及到AI for Science——大家都很樂觀,覺得未來過幾年高溫超導、常溫超導通過AI就搞出來了,這能解決大問題。第二是電漿體的控制。裡面上億度、好幾億度,外面無窮多的線圈怎麼控制它?這是一個“黑箱”,你切不開來看。過去寫程序太複雜了,現在AI來了,通過模擬強化學習大家突然覺得這事兒行了。如果不解決能源,整個人類文明都會受限。這太吸引人了。我們討論了晶片,現在我想討論一下網路。我想聽一聽大家實際訓模型、跑模型的網路——不是實驗室Demo,是實際出成果的——都已經跑到多大的規模了?另外,輝達的網路層次蠻多,NVLink、NVLink Switch、InfiniBand很多層次都佈局了。我想知道我們現在自主建構的網路覆蓋了那些層級?孫國梁:我認為AIInfra最大的挑戰是要看清產品到底是什麼。客戶的需求是一個能夠做大規模模型訓練、推理、服務的通用性算力,而不是一張卡。我們在全國各地也有數千卡的叢集。無論是傳統模型、MoE模型還是非Transformer架構的模型,我們都訓練過。另外我想補充一下能源。如果真的到用能源去解決算力問題的時候,中國有巨大優勢。核心原因是:今天我們的模型屬於工程學。工程學的來源是數學推理,數學的來源是生理學和腦科學。但在基礎腦科學和生物學研發上,人類還沒有取得那麼大的突破。所以我們在數學上沒有突破,在工程學上只是在“暴力嘗試”。反而是現在我們在工程學上的很多嘗試,會“反推”基礎科學的演進。這是一個循環。我認為未來國產算力、基礎能源和開源模型,好戲還在後頭。05開源與閉源的終極博弈王晟:我們下一個問題給到胡健——開源和閉源的問題,因為我理解矽流上的很多都是開放原始碼的模型,現在美國巨頭都閉源了,中國企業擔起了開放原始碼的責任。未來開源能和閉源競爭嗎?會不會擔心最強的模型都是閉源的,導致你們的業務空間被擠壓?胡健:現在回答這個問題比較容易了,因為之前我們剛出來的時候和一堆投資人會問這個問題。我們剛創業時也面臨這個問題。我們堅定兩點:開源肯定會起來,推理會是主流。開源與閉源核心看兩點:第一是競爭格局。往往是處於第二、第三梯隊的企業,為了不被頭部完全搶佔市場份額,必須開源。開源後會有更多人跟你玩,就能逆轉形勢。就像Android對抗iOS。DeepSeek一出來,市場炸了,大家就都得跟進,這是一種低競爭倒逼的趨勢。第二是需求。智能如果只掌握在少數企業手裡,企業客戶為此會承擔更高的成本與代價。企業有自己獨特的資料,不敢交給閉源模型,因為有隱私和壁壘問題。為了資料可控、成本更低,需求端會倒逼開源持續存在。就像Android最終形成了自己的商業模式一樣,開源模型未來也會有類似廣告或服務的商業模式。06手機上的AGI——從推理到自主學習王晟:祥雨,階躍剛剛發佈了一個針對Android手機的Agent:GELab-Zero。這是測試成分更多,還是真的能在手機產業落地?張祥雨(階躍星辰):為什麼在這個時間我們要做GELab-Zero這樣的一個工作,是因為它是智能發展的必經之路。我看智能發展有兩條軸,橫軸乘以縱軸的面積,就是智能化水平:橫軸是“智能進化”:第一代是ChatBot,背後的演算法是NTP(Next Token Prediction);第二代是Reasoner,背後的演算法是RLVR(Verifiable Reward強化學習);第三代Agent是什麼?現在大家不知道。我自己擅作主張補上,它背後的演算法原理應該是“自主學習與線上學習”。我剛剛說的Transformer架構必然會有一次大的革新,指的是在這條橫軸上,我們正在走向下一代的路上。當然模型架構革新也只是一小塊,它屬於分層記憶機制建模的一部分。除此之外,自主學習和線上學習還需要解決如何進行環境探索、如何利用環境反饋、如何線上更新模型參數的問題。縱軸是“模態”:從語言、語音,到視覺多模態,再到最困難的具身智能。在具身和多模態之間,夾著一個“虛擬世界的具身”——就是像人一樣操作手機GUI。這比物理具身簡單,但比純文字複雜。我們要在這方面走出一步。GELab-Zero的技術路徑非常有特色:它是一個小模型,蒸餾了更大的視覺、語言模型的能力,通過搭建強化學習環境,賦予它在手機APP裡探索的能力。更關鍵的是,我們採用了“端雲結合”的能力:在必要時發出請求呼叫雲端模型,並且這兩個模型是協同訓練(Co-training)的,通過RL Trajectory共同形成梯度反傳。這是一個非常重要的技術創新點。07“老CV人”的反擊——顛覆Diffusion王晟:再問個問題,剛才那輪問題的延續。我看到你的老戰友何愷明最近也頻頻出手,最近發了兩個很重要的論文,一個是JiT(Just image Transformer),他覺得採用去噪的方法不太對,直接一把可能就預測圖像的結果了。還有一個是iMF(Improved MeanFlow)。它能夠變得比Diffusion更好嗎?張祥雨:對,不過這些工作也是在Diffusion框架上打補丁,並未真正“顛覆”Diffusion。愷明最近頻頻在生成模型基礎方向發力,原因很簡單:Diffusion這一套在“老CV人”的眼裡,是最不MakeSense的。它從一個分佈出發,加噪再去噪,這個過程沒有任何的語義,並且已經有很多工作展示了在diffusion過程中引入語義對齊可以取得顯著的提升,這更說明了原始的diffusion框架是有問題的。我解釋一下為什麼要這樣做。深度學習最喜歡的一個詞叫“端到端”——從已知分佈直接用一個深層神經網路一步達到結果。但在很長一段時間裡,模型的“單步推理能力”是不夠的。這就像在語言模型裡,單步推理不夠深,所以我們要引入CoT(思維鏈)。你可以認為視覺生成裡的“加噪去噪”,它的每一個Step就是一個CoT。但是!這個CoT跟語言的CoT不一樣,它不符合人類理解和形成圖像的過程。我們叫它“Bad CoT Pattern”——因為它沒有語義。不過,雖然聽上去不太合理,在“類Diffusion”框架下目前還沒有太好的去掉加噪-去噪過程的實踐。其他的框架,例如基於自回歸的圖像生成,也同樣有缺少語義和單步推理能力受限的問題。所以目前的研究趨勢,一方面是如何給Diffusion等框架引入更豐富的語義,例如剛剛提到的Semantic Alignment,又或者是生成理解一體化訓練,都屬於這個範疇。另一方面就是儘可能把框架做得更簡單、更為端到端,儘量減少人工引入的非語義的元素,愷明組最近的工作大都集中在這一塊。此外,也有人嘗試直接提升模型的單步推理能力,例如把loop transformer等latent reasoning工具引入圖像生成中,等等。王晟:我們再拉回到你做的這個非常重要的工作,為什麼不能是Memory被外掛,因為你說很多的上下文太長導致模型輸出不利,我們為什麼不能有一個模型專門去抽取,把Memory抽取更好的專用模型,再給到大模型。張祥雨:當然是可以的,像您說的在草稿紙上人類也會做這件事,這屬於外存。但是我們現在最主要的還是要建模智能體的記憶體,因為記憶是人類智能的核心元件之一。人腦的記憶機制是一個非常複雜的,而且分層的記憶機制,從已實現的短到長,比如最短的叫做感知記憶,也叫瞬時記憶;而稍微長一些、大概持續數秒的叫做短期記憶,也可以叫工作記憶。其中瞬時和短時的記憶,它的很多特性,比如無損性,比如說全連接的特性,今天transformer的上下文機制已經可以建模的很好了。真正棘手的是長期記憶的建模,我們現在主流的架構還做得不是很好,一個叫Episodic Memory(情境記憶),你會發現大量的論文都在做這一塊,它和fast weight update機制密切相關。還有一個叫做Semantic Memory(語義記憶),這個和slow weight update機制有關,這一塊用模型參數本身可以建模,它的難度在於怎麼Update。王晟:我記得Google剛發了一篇論文,不斷地Update模型參數。張祥雨:對,它那個是走向Online Learning非常必要的。王晟:今天的討論特別符合我們“穩態還是變態”的議題。我發現每一家頭部企業都有堅實的基本盤,但同時都在敞開胸懷擁抱變化。Transformer可能不是終局,GPU還在進化,而能源(比如我們投資的可控核聚變)和工程的挑戰才剛剛開始。這一波AGI可能剛剛起步,真正的蝴蝶效應,還在後頭。 (騰訊科技)
AGI真相大揭密! DeepMind創辦人5個顛覆認知觀點,未來比你想像的更近
Google DeepMind共同創辦人、首席AGI科學家Shane Legg的分享五個觀點:🔮 觀點一:AGI不是“開關”,而是“光譜”——第一級已近在眼前我們總以為AGI是某天突然覺醒的“天網”,但Legg說,它更像一個漸進的光譜: 最低限度AGI:能完成普通人的所有認知任務(比如讀文件、寫郵件、做基礎分析)完整的AGI:能完成普通人的所有認知任務(比如讀文件、寫郵件、做基礎分析) 超級智慧ASI:全面超越人類Legg預測,2028年我們有50%的機率實現最低限度AGI。⚙️ 觀點二:超級智慧不是魔法,而是物理學的必然「人類智慧是宇宙上限嗎?絕對不是。」Legg從物理第一原理對比了人腦vs. 資料中心:能耗:大腦20瓦vs 資料中心 2億瓦訊號速度:大腦30公尺/秒vs 光速3億米/赫茲頻寬:大腦80v 大腦資料中心100億赫茲體積/重量:幾磅vs 數百萬磅機器在多個維度上領先6-8個數量級。所以,超級智慧的出現不是“是否”,而是“何時”。就像起重機比人力氣大、望遠鏡比人看得遠一樣——它只是物理規律的延伸。💼 觀點三:最危險的工作,可能是你現在羨慕的「菁英職業」如果AGI能完成認知任務,那麼最容易取代的不是體力勞動,而是高薪腦力工作。Legg給一個簡單判斷法則:如果你只用筆記型電腦+網路就能完成工作,那你的崗位正站在AI替代的最前線。🧠 觀點四:AI可能比人類「更道德」Legg提出「系統二安全」概念:系統一:直覺、快速反應(人類道德判斷常受情緒、偏見影響)系統二:慢思考、邏輯推理(AI可被訓練為純理性道德推理者)AI能嚴格、一致地執行複雜道德框架,不受情緒波動影響。Legg認為:AI在原則上可以比人類更道德,因為它能以「超人層次」進行倫理推理。🚨 觀點五:領域專家們,你們已經落後了Legg用一個鋒利比喻:現在就像2020年3月——流行病專家已拉響警報,大眾卻還在球場聚會。許多領域專家(法律、教育、經濟、醫學…)仍認為自己的行業“特殊且複雜”,AI短期無法深入。但他們評價AI的依據,往往是一年前的模型──而在AI領域,一年已是「古代史」。Legg緊急呼籲:所有業界專家,必須立刻開始嚴肅思考AGI對自身領域的衝擊。等它到來再反應,就太晚了。 (WhaleThink)
諾獎得主Hassabis:5-10年AGI將至,衝擊力將是工業革命10倍!
近日,在與數學家Hannah Fry的對話中,DeepMind CEO Demis Hassabis回顧了AI在過去一年的飛躍式進展,他談到了“參差智能”、持續學習、模型幻覺等邁向AGI過程中的關鍵挑戰,並提到AGI帶來的社會衝擊可能是工業革命的10倍。「過去一年,我們像是經歷了十年的發展。」近期,在與數學家Hannah Fry的對話中,DeepMind CEO Demis Hassabis如此形容他對過去一年最大變化的感受。DeepMind CEO Demis Hassabis(左)與數學家Hannah Fry(右)在播客中在Hassabis看來,過去一年,AI領域取得了十分驚人的變化。對於Google來說,發布了Gemini 3,在多模態能力取得了長足進步。此外,世界模型的進展也讓Hassabis非常興奮,這是他一直以來最熱衷的領域之一。Hassabis談到了通往AGI過程中存在的一些瓶頸難題,例如「參差智慧」的,持續學習能力的缺失等。他認為邁向AGI需要「50%的規模化+50%的創新」。距離AlphaFold 2面世已經5年,Hassabis談到目前DeepMind團隊正在探索材料科學、核融合等其他的可能性。「參差智能」的挑戰在對話中,Hassabis談到了通過AGI過程中的一些挑戰。例如,「參差智能」(jagged intelligences)的挑戰。AI能在國際數學奧林匹克競賽中摘金奪銀,卻會在高中數學題目上犯一些非常低階的錯誤。Hassabis認為,這正是我們邁向AGI的一個瓶頸問題:「一致性」或「參差智能」(jagged intelligences)。在他看來,「參差智能」出現的原因有各種理論解釋和不同的原因,具體到不同情況,可能在於圖像被感知和Token化的方式。例如,有時它甚至無法辨識所有的字母。所以當你讓它數單字裡的字母時,它有時會出錯。這可能是因為它沒有看到每一個獨立的字母。此外,Hassabis也提到線上學習和持續學習的能力是當今AI模型所缺乏的,這同樣也是邁向AGI所不可或缺的重要能力之一。AGI需要50%的規模化加上50%的創新AI的競賽與加速發展模式,有時也會面臨許多「規模化最終會撞牆」「資料會耗盡」的質疑。Gemini 3發布後,在眾多基準測試中遙遙領先,似乎打破了這一質疑。對此,Hassabis坦言,可能會存在一些「收益遞減」效應,但他們在這個過程中其實從未真正遇到所謂的「牆」。他特別糾正了一種公眾誤解,即將「收益遞減」錯誤解讀為「零收益」,非黑即白:「在指數級增長與停滯不前兩種極端之間存在著廣闊的空間,而Google正處於這個中間地帶。」這也意味著不可能每次發布新版本,效能就在所有基準上翻倍。但Hassabis也強調自己並未看到任何放緩的跡象。談到「網路資料是否快被用盡」這個問題,Hassabis認為這可以透過使用合成資料來解決。「現在的系統已經夠強大,可以自己產生數據,尤其是在編碼和數學這類可以驗證答案的領域;從某種意義上說,你可以創造出無限的數據」。Hassabis也表示這些領域目前仍是研究主題,而這一直以來也是Google的優點:「我們始終堅持研究為先。Google一直擁有最廣泛、最深厚的研究團隊。如果回顧過去十年的重大進展,無論Transformer、AlphaGo、AlphaZero,都出自Google或DeepMind。」當賽道變得越來越難時,Hassabis反而覺得更加興奮。他認為這不僅需要世界一流的工程能力,還必須將其與世界一流的科學研究結合,而後者正是Google的專長。此外,最重要的一點Google還擁有世界級基礎設施的優勢,包括TPU和其他硬體。這些結合,使Google能夠同時在創新前沿和規模化應用上保持領先。「50%的精力用於規模化,50%用於創新,要最終實現通用人工智慧,這兩者缺一不可。」模型幻覺即使在Gemini 3這樣的前沿模型上,仍然能看到「幻覺」現象。Hannah問是否可以讓Gemini像AlphaFold一樣,為自己的答案給予一個置信度分數。Hassabis認為這個功能很重要,也是目前所缺少的關鍵環節之一:「我相信我們正在接近這個目標。模型越智能,它們就越『知道自己知道什麼』」。模型越可靠,我們就越能依賴它們某種形式的「內省」或更深度的思考,從而讓它們自己意識到對某個答案不確定。Hassabis表示,接下來我們需要研究如何透過訓練,讓它能夠將這種「不確定性」作為一個合理的答案輸出。他將目前的模型比作一個「說話不過腦子的人」,大多數情況下可能沒問題,但當遇到非常棘手的問題時,你希望它能停下來,審視一下自己要說的話,並作出調整。因此,需要引入「思考」和「規劃」的步驟,讓模型能回顧自己剛剛輸出的內容。世界模型除了AI,世界模型和模擬一直是Hassabis最熱衷的領域。他認為語言模型仍然缺乏對許多關於世界的空間動態、空間感知、物理接觸,以及我們所處的物理環境如何運作的力學原理的理解,這些通常是很難用語言描述的,也不會出現在文字語料庫中。如果我們希望機器人能夠真正運作,或者希望有一個能隨時陪伴你的通用助手,無論是在你的眼鏡上,還是手機上,在你的日常生活中提供幫助,你就需要這種對物理世界的深刻理解,而世界模型正是其核心。Hassabis談到聖塔菲研究所(Santa Fe Institute)所做的模擬社會動力學的實驗,讓智能體在設定了正確激勵機制的環境中運行足夠長的時間,它們可以「發明」出像市場、銀行等種種有趣的東西。他認為這些實驗很酷,也能幫助我們理解生命的起源和意識的起源,而模擬,則是實現這一目標最強大的工具之一。「你可以設定略微不同的初始條件,將模擬運行成千上萬次,然後以一種高度受控的實驗方式,去理解這些細微差別所帶來的不同結果。」Hassabis認為,精確的模擬將為科學帶來不可估量的福祉。避免「資訊繭房」Hassabis曾提到,建構AI不應以最大化用戶參與度為目標,以免重蹈社群媒體的覆轍。如何建構一個既能將使用者置於其個人世界的中心,又不至於為他們創造出一個「單人回音室」的AI?Hassabis表示目前已經看到了過度「諂媚」或迎合使用者的AI所帶來的後果,它們會形成「回音室」效應,對個人產生非常負面的影響。Gemini正在透過發展出一套關於AI「人格」設定的科學方法來解決這個挑戰。Hassabis帶領了一個團隊來負責這項工作,希望塑造一種近乎「科學家」的個性:它溫暖、樂於助人,但同時又言簡意賅、切中要點;它會以友好的方式,對那些不合邏輯的觀點提出質疑,而不是盲目附和。Hassabis認為為模型「人格」設定標準,是讓大模型走向科學研究的重要關鍵。模型會有一個出廠的「基本人格」,每個使用者可以根據自己的偏好進行個人化設置,例如更幽默或更簡潔。但其核心的基礎人格是不變的,它始終致力於遵循科學方法。工業革命對AI變革的啟示Hassabis近期研究了許多關於工業革命的歷史,他認為這有助於幫助我們應對即將到來的社會變革和衝擊。工業革命為人類帶來了難以置信的進步,例如現代醫學、物質豐富、現代交通等。同時也帶來了巨大的挑戰,不同時期,不同產業的勞動力都經歷了被取代的陣痛,但沒有人會想回到前工業時代。而AI帶來的改變的規模可能是工業革命的十倍,而其發生的速度也可能快十倍,或許將在十年內展開,而非一個世紀。在Hassabis看來,透過學習那段歷史,提前預見這次改變可能帶來的社會錯位,有助於我們更早、更有效地去緩解它們。就像工業革命徹底改變了農業社會的工作模式一樣,至少同等規模的改變將再次發生。因此,Hassabis認為我們可能需要新的經濟體系和模式來幫助社會轉型。圖靈機的終極問題Hannah Fry:超越通用人工智慧,邁向人工超級智慧(ASI)的階段,您認為是否存在某些事情是人類能做到,而機器永遠無法企及的?Demis Hassabis:這正是那個終極問題,又回到了我最愛的話題之一圖靈機。Hassabis認為,如果成功建構了AGI,並用它來模擬人類心智,並將其與真實的心智進行對比,就能發現其中的差異,以及人類心智中那些獨特且無法被取代的東西。其中那些是可計算的,那些是不可計算的,目前存在許多假說,但這最終都歸結於圖靈機的問題:圖靈機的能力極限究竟在那裡?自從瞭解到圖靈和圖靈機以來,這個問題一直是Hassabis人生的核心問題,令他著迷,也是他的核心熱情所在。他所做的一切,都在某種程度上不斷拓展著圖靈機能力的邊界,包括破解蛋白質折疊。但他並不確定這個極限在那裡,這又回到了心智的問題:它完全是經典計算嗎?還是說有其他機制在運作?「如果現在非要我猜,我會賭是後者,而我正基於這個假設在工作,直到物理學證明我錯了。」Hassabis十分推崇康德(Kant)的一個觀點-現實是心智的建構。「所有這些感覺,包括光、溫暖、觸感,它們透過我們的感官輸入。歸根結底它們都是資訊。而我們,就是資訊處理系統。」Isomorphic Labs的創辦正是基於這樣一個理念。他們將生物學視為一個訊息處理系統,相信最終能治癒所有疾病。目前AI都不具備意識,AGI可能需要5-10年Hassabis從小便對生命的意義、意識的本質、以及現實本身到底是什麼這類宏大的問題著迷。一直指引他並讓他始終保持熱情的,是理解我們周圍的世界。對他來說,AI就是一個推動人類知識進步,幫助他實現這一目標的終極工具。2025年4月,Hassabis在接受CBS 《60 Minutes》節目採訪時表示,目前的人工智慧系統在任何真正意義上都不具備自我意識或意識。Hassabis接受CBS《60 Minutes》節目採訪當CBS 《60 Minutes》主持人Scott Pelley問他,「你們現在是否在研究一種可能具有自我意識的系統」時,Hassabis表示,在他看來,如今的系統都不具備自我意識,也談不上真正的意識。Scott Pelley又問他是否會將打造有自我意識的系統當作目標。Hassabis回答,這並不是一個明確的目標,但它可能會以一種隱含的方式發生。例如,這些系統有可能獲得某種「自我意識的感覺」。他表示讓系統理解「自我」和「他者」是非常重要的,而這可能正是自我意識的起點。但Hassabis也提到,即使機器真的獲得了自我意識,人類未必能辨識出來。Hassabis談到了他對AGI的時間表,他認為可能在未來5到10年內實現。 (新智元)
馬斯克:xAI最早明年實現AGI,兩三年內超越競爭對手!
全球首富埃隆•馬斯克(Elon Musk)既是特斯拉的首席執行長,也是xAI的創始人,這兩家公司目前都在推進人工智慧(AI)項目。而他本人似乎對xAI的未來很是樂觀。據幾位知情人士最新對媒體透露,上周在xAI公司舊金山總部舉行的全體員工大會上,馬斯克揚言,只要公司能夠順利挺過未來兩到三年,xAI就能戰勝競爭對手。他補充稱,該公司快速擴展其算力和資料容量的能力將是在所謂“超級智能”(即超越人類智能)的競爭中致勝的關鍵,並最終有望讓xAI成為最強大的AI公司。根據消息人士援引馬斯克的說法,xAI有可能在未來幾年內實現通用人工智慧(AGI),即達到或超越人類智能,甚至最早可能在2026年實現。今年11月,馬斯克曾公開表示,xAI的Grok 5模型有10%的可能性實現AGI,他說該公司計畫明年初發佈這款模型。xAI是眾多競逐通用人工智慧、並試圖支撐數千億美元估值的公司之一。儘管馬斯克個人影響力巨大,但在由OpenAI和Google等巨頭主導的競爭中,xAI仍是相對較新的參與者。在過去的一年裡,xAI迅速擴大了其資料中心版圖,並將其命名為“Colossus(巨像)”。今年早些時候,該公司表示已擁有約20萬塊GPU,而馬斯克稱計畫將這一規模擴展至100萬塊GPU。此外,消息人士稱,馬斯克還告訴員工,與其他人工智慧公司相比,xAI將具有優勢,因為它每年可以獲得約200億至300億美元的資金支援,並且能夠受益於他旗下其他公司的協同效應。知情人士稱,特斯拉今年早些時候已將Grok整合進其生產的車輛中。目前來看,AI領域的競賽絲毫沒有放緩的跡象。據報導,本月早些時候,OpenAI為了加快推出最新模型甚至進入“緊急狀態”。Google在11月發佈了新的Gemini模型,而xAI也在短時間內連續推出新版Grok。但總的來說,員工們表示,馬斯克似乎對公司的進展感到滿意。一位內部人士用“充滿活力”一詞來形容此次大會。另一方面,消息人士稱,馬斯克還提出了在太空中建立資料中心和殖民火星的計畫。他說,特斯拉的人形機器人柯博文(Optimus)最終可以為這樣的外星資料中心提供服務。馬斯克此前曾表示,柯博文最早將於明年為SpaceX的任務提供支援。Google首席執行長桑達爾·皮查伊和OpenAI首席執行長薩姆·奧爾特曼也公開談論了在太空建立資料中心的可能性,儘管皮查伊承認這是一項“登月級”的大膽設想。最後,消息人士還表示,在員工大會上,xAI的負責人還展示了對現有產品的幾項更新,包括Grok Voice、面向特斯拉車主的應用,以及智能代理agents。知情人士稱,這些更新涵蓋了Grok在結果預測能力上的提升、更強的語音監聽功能,以及視訊編輯能力等。 (財聯社AI daily)
OpenAI大佬爆料:打字太慢拖後腿,人類竟成了AGI短板?
人類打字速度,竟成了制約AGI的瓶頸?近日,OpenAI Codex負責人Alexander Embiricos爆出了這一驚人觀點。Embiricos還預測,2026年,當AI開始在一些領域具備自我審查能力,將觸發生產力出現「曲棍球杆式」飛躍增長,並帶動人類邁向AGI。拖AGI後腿的,竟是人類打字手速太慢?沒錯,這是OpenAI的Codex負責人Alexander Embiricos的觀點。他在近日《Lenny's Podcast》播客中表示,人類的打字速度正在拖慢通往AGI的進展。Lenny(左)與Alexander Embiricos(右)在播客中當Lenny問到通往AGI的時間表時,Embiricos談到了他目前看到的一個限制因素:人類的打字速度或者是多工處理能力。除了Embiricos之外,奧特曼、Amodei、馬斯克等許多大佬也曾多次提到這個問題。他們普遍將這一問題描述為人機協作過程中的「溝通」「摩擦」問題。比如,奧特曼曾多次表示AI進步不會只靠繼續做大模型。近期他在介紹AgentKit時,提到開發這套工具是為了讓開發者能更低摩擦、更高效地建構智能Agent系統,而不是在分散工具和複雜流程之間低效拼接。同樣,Anthropic CEO Dario Amodei也在今年4月份提到,AI可能在3到6個月編寫90%的程式碼,12個月內「基本上編寫所有程式碼」。但他同時補充指出程式設計師仍需明確實現的功能、應用設計思路及決策,因此在短期內人類開發者的參與仍是關鍵。這說明即便是AI基本上可以完成所有程式碼的編寫,仍然需要開發人員的介入,因此人機協作的效率就顯得十分重要。更早的時候,馬斯克就預見到這一問題。他在談到Neuralink項目時曾提到開發腦機介面,目的之一就是為了繞過人類打字速度的限制。他認為人類傳輸資料的速度遠遠慢於電腦:「人類對電腦說話,在電腦聽來會像是非常緩慢的、帶有音調的喘息聲,有點像鯨魚的聲音」。這些大佬的觀點,都呼應了Embiricos的觀察,揭示出諸如文字輸入等人類自身的能力瓶頸,正在成為通往AGI的隱形障礙。這類似於早期電腦時代,程式設計師必須手動輸入每一行程式碼,開啟了人機互動和自動化的處理程序。而隨著AI的飛速發展,如今人類的輸入速度已經跟不上AI的思考,成了其發展的瓶頸。就像一位網友說的,如果打字速度是瓶頸,我們就是系統中速度最慢的環節了。AGI之路的隱形障礙人類打字速度耽誤AGI,Embiricos這一觀點並非空穴來風,而是基於他對AI代理系統實際應用的深刻觀察。他認為當前AI模型雖然在處理複雜任務時表現出色,但它們仍高度依賴人類通過文字輸入來指導和驗證.而人類的打字速度以及處理多工能力,已經無法跟上AI的處理能力。其中核心難點在於提示詞工程,它要求人類精確表述意圖。但是人類的多工處理涉及工作記憶的切換,每次切換都需要時間和精力,這導致提示詞工程效率的低下。在Codex使用過程中,開發者需同時監控AI輸出、調整提示,Embiricos將之類比為駕駛員手動控制自動駕駛汽車。在這個過程中,人類需要多工處理,同時思考問題、撰寫提示、審查輸出,其中的任務量遠遠超單純打字的速度問題(打字輸入只是人類思考意圖的實現,是最後一個環節),由此也形成了制約AI生產力突破的瓶頸。以Android版Sora應用的開發為例。據OpenAI官方透露,該應用僅動用了4人小隊,28天就完成了上線。其中約85%的程式碼由GPT-5.1+Codex自動生成,實現了99.9%的版本穩定率。雖然將傳統幾個月的工時被壓縮到28天,但這個過程中也暴露出AI程式設計的軟肋。Codex就像一名記憶為零的新手高級工程師。每一次對話,都必須通過提示詞清晰地告訴它要怎麼做,才能生成高品質的程式碼。整個過程中監督、審查、邏輯確認、偵錯等需要依賴人工介入的工作,就成了工程中最慢、也是最關鍵的部分。這一切都需要人工思考並輸入提示詞。於是,打字速度突然成了真正的生產力障礙。前不久,OpenAI前首席科學家Ilya Sutskever提到的模型在評測時技能爆表,一到實際場景就掉鏈的「性能悖論」,也在間接上證明了Embiricos的判斷:他在談到為什麼目前依賴Scaling(堆算力和資料)越來越難推動AI進展時,提到了一個關於模型在修Bug時陷入無限循環的例子:你讓AI修一個Bug,它修好了,但引入了一個新的Bug;你指出這個新Bug,它去修卻又把第一個Bug帶回來了;模型就這樣在兩個Bug之間來回折返,像在無限循環(ping-pong)。這個例子暴露出當前大模型的訓練方法更多是在最佳化評測指標,而不是生成真正類似人類的理解與泛化能力。即使最先進的AI模型,在實際應用場景中人機互動仍然是不可或缺的,這也使得人類能力,在某種程度上成了AI的生產力瓶頸。就像網友Jeff Lurie所言,Embiricos提出了「人類打字速度瓶頸問題」,重新定了的生產力的限制。這迫使我們在通過AGI的道路上,除了考慮打造更強的模型之外,還要考慮人類能力瓶頸(輸入速度)這一隱形障礙,也推動我們重新審視人機關係。比如,有網友提出,在AI編碼場景中,如果把審查、判斷、設計(通常需要人類完成)前置,然後再讓AI編碼,就可以成倍提高開發速度。AGI的實現,需要進一步解放人類AGI的實現,是為瞭解放人類,但這裡的一個悖論是:在AGI到來之前,需要先把人類從審查AI的工作中解放出來。Embiricos表示,想要突破「人類打字速度瓶頸問題」,必須讓AI智能體能夠自己審查工作、而不再依賴人類:「你可以讓一個智能體盯著你正在做的所有事情,但如果這個智能體不能同時驗證它自己的工作,那你依然會被卡住。」所以,問題最終又回到了人類自身:你是否真的有精力去審查那麼多程式碼?在Embiricos看來,解決之道就在於讓AI能夠自動審查自己的工作,將人類從編寫提示詞和驗證AI輸出的工作中解放出來,這樣就不會受制於人類的速度。「如果我們能夠重新建構系統,讓智能體在默認狀態下就足夠有用,我們就會開始解鎖那種『曲棍球杆式』的增長」。當AI的自動化能力足夠強大,就可能實現Embiricos所說的那種「曲棍球杆式增長」:前期幾乎平坦,隨後突然陡然上升,形狀看起來就像一根曲棍球杆。Embiricos認為,要實現完全自動化的工作流程並不存在一條放之四海而皆準的簡單路徑,每一種使用場景都需要單獨設計。但他預計,朝著這種爆發式增長邁進的進展很快就會出現。「從明年開始,我們會看到一批早期採用者的生產力率先出現曲棍球杆式提升;而在接下來的幾年裡,會有越來越多的大公司也實現類似的生產力飛躍」。Embiricos表示,到了2026年,隨著最早一批採用者率先實現曲棍球杆式的效率提升,以及未來幾年越來越多的大公司也實現類似的生產力飛躍,我們也將迎來AGI。「這種曲棍球杆式的增長最終會反哺到AI實驗室,而到時我們基本上就已經站在 AGI的門檻上了」。沿著Embiricos的思路,可以得出這樣的結論:通往AGI的一個真正突破點,在於打破人機協作的制約,讓AI智能體能夠自主工作,而不再依賴人類的時候。就像GoogleDeepMind創始人哈薩比斯(Demis Hassabis)所言,在更具自主性和代理能力的系統到來之前,仍需要人機協作作為過渡形態。他認為AI需要磨練自身的推理能力、自主性與創造力,在這方面目前仍有一些缺失。「機器要掌握人類所能做的一切,可能還需要五到十年時間」,這也是他對AGI時間表的判斷。 (新智元)
倒計時3周離職!LeCun最後警告:矽谷已陷入集體幻覺
【新智元導讀】LeCun不忍了,三周後從Meta「提桶跑路」,臨走前狠扇了矽谷所有人一巴掌:你們信奉的大模型全是泡沫,根本通往不了AGI!大模型是一條死路,無法通往AGI!在今天的最新一期深度訪談中,LeCun直言不諱指出:所謂的ASI路線——不斷訓練LLM,用更多合成資料喂模型,雇上幾千人在後訓練階段「管教」系統,再折騰出一些RL的新技巧。在我看來,完全是胡說八道!這條路根本行不通,而且永遠都不可能成功。任職12年,即將暴走Meta的65歲圖靈獎得主,在公眾場合的觀點愈加偏激了。這場近2小時的對談中,LeCun的觀點一針見血——矽谷對不斷「堆大」LLM的痴迷是一條死路;搞AI最難的問題在於,它依舊是「阿貓阿狗」的智能,而非類人的水平。如今,他正把一生的學術聲譽押注在一條截然不同的AI路線之上,即「世界模型」。訪談中,LeCun還分享了創業公司AMI(Advanced Machine Intelligence)正在建構的「世界模型」——在抽象表徵空間中進行預測,而不是簡單地像素級輸出。幾天前,LeCun在與GoogleDeepMind大佬Adam Brown一場激辯中,同樣提出他的經典論點:LLM沒那麼聰明,畢竟一隻貓或一個孩子僅用少得多的資料就能理解世界。Token預測全是泡沫,物理世界才是真相。有網友辣評道,「Meta在AI領域失敗,LeCun是罪魁禍首」。還有人表示,「LeCun很聰明,在Meta保持沉默現在開始發聲了」。65歲創業,再造一個FAIR播客開場,主持人問道,「從Meta這樣大公司跳出來,從0起步,是什麼感覺」?LeCun坦言,雖然他此前也參與過創業,但這次的AMI意義非凡。這次的獨特之處在於一種新現象,即投資者也願意為其買單。這要是放在以往,是不可能的。歷史上,像貝爾、IBM、施樂PARC這樣的大實驗室,都一同壟斷了企業的財力。如今,行業風向正在轉變。FAIR通過開源推動了生態的發展,但近年來越來越多實驗室選擇閉源,OpenAI、Google,甚至Meta也不例外。在LeCun看來,這種閉源趨勢,不利於真正突破性的研究。因此,他決定在Meta外部創辦AMI,專注於「世界模型」,並計畫延續開放研究的傳統。除非你把論文發表出來,否則就不能稱之為真正的研究。要不然,你很容易陷入一種自欺欺人的狀態。看得出,LeCun這番言論一定程度上,暗示28歲上司Alexandr Wang的做法——此前曾爆出,FAIR實驗室想要發論文,必須經過MSL批准後才可以。LeCun再次強調,「如果真的想要突破,需要讓你的員工發表論文。沒有別的辦法。這是目前很多行業正在遺忘的事情」。下一步,AMI的目標不僅是研究,還會打造實際的產品,比如與世界模型、規劃有關的,並成為智能系統的核心供應商。接下來的話題,又回到了LeCun老生常談的事情。LeCun放話:LLM走不通他明確表示,當前的LLM或基於LLM的AI智能體,處理語言尚可,但在可靠性、資料效率、多模態處理上遠遠不足。我已經說了快十年了,世界模型才是解決這一問題的「正確方法」。「世界模型」能夠預測一個動作或一系列動作的後果,然後系統通過最佳化得出一系列動作,即找出那一系列動作能最好地完成設定的任務,這就是「規劃」。因此,LeCun認為,智能的一個重要部分是能夠預測行動的後果,然後將其用於規劃。「世界模型」是設計用來處理,高維、連續和嘈雜的模態資料,LLM完全不行。真正有效的方法是,學習一個抽象的表示空間,消除關於輸入的不可預測的細節,並在表示空間中進行預測。這就是, JEPA(聯合嵌入預測架構)的想法。論文地址:https://arxiv.org/pdf/2509.14252將近有20年的時間,LeCun一直確信,建構智能系統的正確途徑是通過某種形式的「無監督學習」。他回顧了自己的研究歷程——早在2000年代初中期,便開始探索無監督學習,並嘗試通過自編碼器(Autoencoders)來學習表示,但發現表示包含關於輸入的所有資訊是個錯誤。後來,他意識到需要「資訊瓶頸」(Information Bottleneck),限製表示的資訊量。2015年,ResNet(殘差網路)出世,徹底解決了深層網路架構訓練問題,也是從這時起,LeCun開始重新思考:如何推動實現人類水平的AI?他意識到,強化學習等方法,基本上無法scaling,且樣本效率極低,於是開始聚焦「世界模型」。最初嘗試,他在像素級預測視訊,但發現這行不通,真正的突破在於表示層(Representation Level)進行預測。JEPA的發展克服了早期孿生網路(Siamese Networks)的模型坍塌(Collapse)的問題,通過Barlow Twins、VICReg最佳化表示空間。最近的Latent Euclidean JEPA,進一步推進了這一思路。論文地址:https://arxiv.org/pdf/2511.08544對於LLM侷限背後的原因,LeCun分享了資料質量方面的「苦澀的教訓」(Bitter Lesson)。訓出一個性能還不錯的LLM,需要網際網路上大約30兆Token(約10^14字節)的文字資料。LLM需要巨大的記憶體,來儲存這些孤立的事實。相較之下,這僅相當於大約15,000小時的視訊——YouTube上30分鐘的上傳量。一個4歲孩子醒著時看到的視覺資訊,大約是16,000小時。去年發佈的V-JEPA 2模型,就是在相當於一個世紀時長視訊資料上訓練的,雖然字節數更多,但視訊資料的冗餘性正是自監督學習所需的。現實世界資料的結構比文字豐富得多,這也是為什麼LeCun堅稱,只靠文字訓練永遠無法達到人類水平的AI。關於理想化的「世界模型」,LeCun回應了主持人對《星際迷航》全息甲板(Holodeck)的比喻:人們誤以為,「世界模型」必須重現世界所有的細節,這不僅錯誤,還會有害。「世界模型」是在抽象表示空間中的模擬器,只模擬現實中相關的部分。不僅如此,LeCun相信合成資料很有用。但有些基本概念是我們通過經驗習得的,而不是天生的。然而,LLM並不真正理解這些,只是被微調出來給出正確答案,更像是「反芻」而非真懂。炮轟矽谷單一文化針對矽谷LLM狂熱的文化,LeCun的批評尤為尖銳。他指出,AI行業存在一種危險的「羊群效應」——競爭太過激烈,大家都害怕走偏路線而落後,於是OpenAI、Google、Meta、Anthropic等科技巨頭幾乎都在做同一件事。那便是,瘋狂堆疊LLM。這導致,矽谷形成了「單一的文化」,甚至這背後多少帶著點優越感。LeCun警告,一旦深陷「戰壕」,就只能拚命往前衝,因為誰也承擔不起被競爭對手甩開的風險。但更大的風險是,被完全不同方向、出乎意料的一套技術顛覆,它甚至可能解決完全不同的問題。JEPA的理念,即所謂的「世界模型」,恰恰與這條主流路線完全不同,能處理LLM很難應付的資料。LeCun甚至毫不客氣地說——如果你不想變成矽谷口中「被LLM洗腦了」(LLM-pilled)的人,便不會相信這樣一條路徑:只要不停地訓練LLM,用更多合成資料,去授權更多資料,再雇上成千上萬的人來做後訓練,在強化學習(RL)上不斷加點新花樣,你就能一路走到ASI。我認為這完全是扯淡,這條路根本不可能成功!「沒錯,你必須逃離那種文化」。他還透露,即使在矽谷的各家公司內部,也有不少人心裡很清楚:這條路走不通!因此,擺脫這種單一文化,正是LeCun創辦AMI的動因之一。他透露,AMI這家公司是全球性的,總部將設在巴黎,其全球其他幾個地方,包括紐約設立分辦公室。AGI是胡扯「類人AI」還需5-10年當被問及AGI時間線,LeCun先澄清:不存在「通用智能」這種東西!這個概唸完全沒有意義,因為它是被設計用來指代人類水平的智能,但人類智能是超級專業化的。所以AGI這個概唸完全是胡扯。話又說回來,他還是認為,我們會擁有在所有領域都和人類一樣好或更好的機器。「但這不會是一個單一事件,這將是非常漸進的」。他樂觀地預測道,如果未來兩年,能在JEPA、世界模型、規劃等方向取得重大進展。我們可能在5-10年內,看到接近人類智能,也許是狗的智能水平的AI。但這已是極度樂觀。更現實的是,AI歷史上多次出現未預見的障礙,需要我們發明新概念實現超越。那可能需要20年,甚至更久。有趣的是,LeCun認為最難的部分不是從狗到人類,而是達到狗的水平——一旦你達到了狗的水平AI,你基本上就擁有了大部分要素。從靈長類動物到人類,除了大腦的大小差異之外,還缺的是「語言」。語言基本上由韋尼克區(Wernicke area)以及布羅卡區(Broca area)處理。而LLM已經在語言編碼/解碼上表現不錯,或許能充當大腦的韋尼克區和布羅卡區。LeCun稱,我們現在正在研究的是前額葉皮層,那是「世界模型」所在的地方。離職Meta,三周倒計時訪談中,LeCun還談及了Meta AI的重組。他表示,Alexandr Wang並非接替他的位置,而是統管Meta所有AI相關研發和產品,包括四個主要部門:FAIR(長期研究)GenAI Lab(專注前沿LLM建構)AI基礎設施模型轉化為實際產品的部門重磅的是,LeCun透露,自己將在Meta再待三個星期。(估計1月初,正式告別Meta了)FAIR現在由紐約大學Rob Fergus領導,正被推向「更短期的項目」——較少強調發表論文,更多專注於協助GenAI Lab進行LLM和前沿模型的研究。GenAI Lab也有一個首席科學家,專注於LLM,其他組織更像是基礎設施和產品。看得出,Meta重組重心完全放在了LLM,這也是LeCun選擇出來創業的部分原因。此外,LeCun還點評了一些大模型公司,包括SSI、Physical Intelligence、Thinking Machines等。Ilya創立的SSI,甚至包括他們的投資人,都不知道這家公司要做什麼。給年輕人的建議:別學CS訪談的最後,主持人問道,「如果你今天重新開始AI職業生涯,會專注那些技能和方向」?LeCun的回答直擊要害,學習那些「保質期長」(long shelf life)的知識,以及能讓你「學會如何學習」的東西。因為技術演變得太快了,你需要具備快速學習的能力。他開玩笑地說,「保質期長的東西,往往不是電腦科學」。所以,作為一個電腦科學教授,我勸大家別學電腦科學。不過,LeCun還是給出了一些具體的建議,其中包括:深入學習數學(微積分、線性代數、機率論)、建模基礎,尤其是能與現實世界聯絡的數學(工程學科中常見);電氣工程、機械工程等傳統工程專業,能提供控制理論、訊號處理、最佳化等對AI極有用的工具;物理學也是絕佳選擇:物理學的核心就是「如何表徵現實以建立預測模型」——這正是智能的本質;電腦科學只需學到能熟練程式設計和使用電腦的程度(即使未來AI寫程式碼,你仍需懂底層);別忘了學點哲學。LeCun強調,這些基礎能讓你在AI快速變化中始終站穩腳跟,而不是被短期熱點牽著鼻子走。 (新智元)