#AGI技術
全球 AGI 的三大技術路線:競爭格局正在成型
過去一年,大模型競爭逐漸從“能力發佈”轉向“路線分化”。OpenAI、Google、Anthropic 與 Meta 的技術選擇並非同質,而是在朝三條清晰可辨的 AGI 技術路徑聚合。這些路徑不僅決定模型能力的邊界,也決定下一代基礎設施、算力結構與生態參與者的角色重排。以下為當前全球 AGI 的三大主路徑,以及它們所形塑的競爭格局。一|Scaling:以規模驅動智能的主流路徑(奧爾特曼路線)Scaling 路線的核心假設是:智能是統計規律在足夠大規模下自發形成的現象。技術特徵包括:超大規模 Transformer大規模視訊與圖文資料的被動學習能力隨規模呈現非線性躍遷以分佈擬合驅動推理與規劃代表人物明確:Sam Altman。其核心觀點是“苦澀教訓”:不需要預設智能結構,只需在更大參數與更巨量資料中尋找能力的自然湧現。代表公司包括:OpenAI(最純粹的 scaling 路線,GPT 系列、Sora)Anthropic(Claude 系列:大規模模型+憲法式對齊)Google(Gemini 系列仍以 scaling 派為基礎,輔以結構化推理能力)Scaling 依舊是當前 AGI 的主戰場,也是計算資源需求最大的路徑。其優勢是工程體系成熟、迭代速度快,但在可控性、一致性與因果性方面仍有邊界。二|Embodied Intelligence:以行動和空間建構理解(李飛飛路線)具身路線立場明確:智能並非從資料中“觀看世界”,而是通過行動、感知與反饋建構理解。技術特徵包括:機器人行動資料(action-driven learning)空間智能(spatial intelligence)感知—行動—反饋的閉環學習高保真模擬器的 Sim-to-Real 轉換學術旗手為 Fei-Fei Li(李飛飛)。她的體系直接影響 Google Robotics、Stanford HAI、Toyota Research Institute 以及部分 Meta 的具身研究團隊。具身路線的優勢在於其對真實世界一致性的高要求。智能體可通過行動資料捕獲因果結構,從而彌補純 scaling 路線的物理性缺失。其限制則在於資料採集成本高、工程周期長,短期難以與大模型能力直接對標。三|World-Model:以因果與結構為核心的預測路徑(Meta/LeCun 路線)世界模型路線建立在一個更結構化的假設上:智能依賴內部的世界表示系統,模型需要具備因果推理與結構化預測能力。核心技術包括:結構化世界表徵(structured representations)因果推理圖(causal graphs)能量基模型(EBM)JEPA(Joint Embedding Predictive Architecture)分層預測機制(hierarchical predictive modeling)這一路線由 Yann LeCun(Meta 首席科學家) 主導,也是目前唯一由大型科技公司明確推進的結構化 AGI 路線。LeCun 認為傳統生成式大模型在效率與可控性上存在根本性限制,需要以“世界模型+預測編碼”重建下一代智能架構。該路線的優勢是可控性強、結構透明、推理更接近人類認知框架;限制在於工具鏈仍早期,短期能力不及 scaling 路徑。四|路線背後的產業角色:模型公司、算力供應商與雲廠商的“三極結構”無論路線如何分化,全球 AI 產業鏈正在形成新的功能分層。1|模型公司:路線選擇決定成本結構與競爭邊界Scaling → 極度依賴算力、迭代速度快Embodied → 資料成本高、真實世界一致性強World-Model → 研發周期長、結構依賴重模型公司必須在能力躍遷、可控性與算力成本之間反覆取捨。2|輝達:三種路線的通用底座無論是那條路線,智能體都依賴統一的算力結構來訓練模型、運行推理和管理資料流。輝達正從 GPU 供應商轉向:“訓練底座+推理平台+加速軟體棧”的系統提供者。其在三條路線中的作用:Scaling:GPU 需求最大、增長最快Embodied:需要多模態感測與模擬計算World-Model:需要長序列、高維預測的推理密集環境路線分化不會削弱輝達的支配力,反而強化其在基礎設施層的中心地位。3|雲廠商與資料中心:路線差異推動基礎設施分層Scaling 需要密集 H100/H200 叢集;Embodied 需要模擬平台、邊緣計算與機器人基礎設施;World-Model 需要長序列表徵與預測流水線。未來的資料中心體系將進一步分化,訓練叢集、推理叢集與模擬叢集將不再是同構結構。五|未來:三條路線將長期並存,競爭由“能力比拚”轉向“架構之爭”全球 AGI 的格局正在朝多路線演化:OpenAI 與 Anthropic 將繼續推動 scaling 的極限;Google 嘗試在 scaling 框架中加入更多結構;Meta 則押注世界模型體系,以架構革新重塑未來智能。智能的發展不再是單一路徑,而是“規模—行動—結構”的三維博弈。它們共同構成了未來十年 AGI 的主要競爭框架。 (方到)
OpenAI底層AGI技術被曝光!前研究主管豪言:從此再無新範式
【新智元導讀】不是更大模型,而是更強推理、更像人!AGI離落地,還有多遠?OpenAI前研究主管表示,AGI所需突破已經實現!AGI所需突破已經實現!OpenAI前研究主管Bob McGrew公開表示:AGI的「技術拼圖」已經齊全,關鍵在於如何將推理能力落地,並重塑價值創造路徑作為研究主管,他見證了OpenAI從GPT-3的突破到如今推理模型的演變。他認為,實現通用人工智慧 (AGI) 的三大支柱是:Transformer、規模化預訓練和推理。AI能力持續增強。在過去五年中,技術發展迅猛、令人興奮。而且這一趨勢仍在延續,他認為並不存在所謂的「技術牆」。在紅杉的「訓練資料」(Training Data)系列播客中,他分享了關於AI的洞見。AGI拼圖已現「除了預訓練、後訓練、推理這三部分外,未來可能不會再出現根本性突破。」Bob McGrew的這個觀點可能有爭議。但如果穿越到2030年, 總結實現更高智能(也許是AGI,也許是其他形式)所需的根本概念。他認為,最終會得出全部關鍵點:1. 基於transformer的語言模型;2. 大規模預訓練(比如GPT-1和GPT-2);3. 推理能力的引入與不斷提升;4. 越來越多的多模態能力。他甚至認為,到了2035年,我們仍然不會看到這些之外的新趨勢。為什麼這麼認為?回到2020年,那時GPT-3剛訓練完成。可以想像一下當時OpenAI的情景:模型還未發佈,但已經知道它帶來了「劃時代的變革」。Dario Amodei、Ilya Sutskever、Alec Radford等一群人圍坐在辦公室,盯著這個模型。他們很清楚接下來的路線圖是什麼:從GPT-3到GPT-4,預訓練規模必須擴大;必須增強多模態能力,最終發展出能使用電腦的模型;開始探索「測試時計算」(test time compute)。所以Bob認為,從現在起大家會繼續擴大、改進和打磨這三個概念。這非常難,需要大量智慧和努力。但若干年後再回頭看,我們不會看到有其他新出現的根本性技術趨勢。他認為如果錯了,那未來將更加精彩。但現在,他覺得他是對的。為什麼說今年是推理之年我們正處在AI發展的關鍵節點,見證了預訓練、後訓練與推理三者的融合。而2025年是「推理之年」。推理是種新技術。從2023年9月的o1-preview,到六個月後的2024年4月發佈o3,僅用了六個月,期間進展迅猛。同時,OpenAI多年開發的推理能力,正在向Google、DeepSeek、Anthropic等公司擴散——只在短短幾個月內就實現了。這說明,推理是各大實驗室今年的重點方向。而且推理模型領域目前還有很多成果,唾手可得。例如,o1-preview與o3之間最大的區別在於:前者無法使用工具,而後者則能在「思維鏈」(Chain of Thought)中呼叫工具。在訓練o1時,OpenAI就知道推理很值得做,但實現起來很難,最終他們用了六個月將其開發並行布。但推理的下一步並不直觀。隨著推理能力趨於成熟,技術潛力也將逐漸被「消耗殆盡」。因此,進展的速度可能會放緩,不再像前期那樣迅猛。預訓練地位仍在,但角色轉型許多人說:「預訓練正面臨瓶頸」「Scaling Law即將終結」……但Bob認為:「預訓練仍然重要,但收益遞減。」之所以會出現收益遞減,是因為模型的智能增長與所投入的算力呈對數線性關係——也就是說,要提升一定幅度的智能,就必須成倍增加算力。本質上,預訓練是規模巨大、耗時持久的訓練過程,要用整個資料中心持續運行好幾個月。而當要訓練下一個新模型時,通常要在多個資料中心上完成。這可以依賴一些演算法效率的提升,但從根本上說,必須等新的資料中心建成。這無法像推理那樣在六個月內完成改進,而是需要數年的時間。不過,這並不意味著預訓練無用。2025年,預訓練的真正槓桿在於架構的改進。即使正在重點開發推理能力,仍然希望改進預訓練,提高推理時的效率、支援更長的上下文或更好地利用上下文。而要做到這些時,就必須從頭開始,在新架構上重新進行預訓練,然後再進入整個推理最佳化流程。所以,預訓練仍然重要,但它在整個流程中扮演的角色已經發生了變化。後訓練模型的人格預訓練和推理的目標是提升智能。在這兩個環節中,有明確的「Scaling Law」:投入更多算力,就能獲得更高的智能。後訓練不提升智能,而是塑造模型的「人格」,與「智能」完全不同。本質上,智能是「薄問題」(thin problem),只要做得更好,它的適應能力和泛化能力就會提升,幾乎可以遷移到任何任務上——比如你在數學上做得更好,就能更好地應對法律推理問題。但「模型人格」是「厚問題」(thick problem)。這需要去思考:「我希望這個智能體表現出什麼樣的個性?我希望它如何行動?」更像是人類多年與他人互動的成長過程。而如何將人類對「好人格」的定義,轉化為真實、吸引人的AI人格,這本身就非常難,值得深入研究。這需要像OpenAI的Joanne Jang(下圖左)或Anthropic的Amanda Askell(下圖右)之類的「產品經理」,專門去設計模型人格。她們對人性有非常深刻的理解。推理演進路徑與挑戰推理為何關鍵?主持人Sonya Huang對推理很感興趣。而OpenAI似乎很早就堅定地押注在這個推理範式上,可能比其他實驗室都要早。所以她問了Bob一個問題:「最初OpenAI為什麼會對推理下注這麼重?」Bob McGrew認為推理是AGI缺失的關鍵拼圖。預訓練可以讓模型對問題有一種「直覺式的理解」。但如果讓人馬上去計算2個五位數的乘法,對一般人來說完全做得到,但不能立刻得到精準結果。因為人類天生就需要「在回答前思考」——人類需要「草稿紙」,慢慢推導。這就是早期模型(甚至包括GPT-3)所不具備的能力。後來OpenAI開始關注到一些公開實驗的啟示——比如「逐步思考」(step by step thinking)、「思維鏈」(chain of thought)等概念。OpenAI意識到模型可以自己引導推理過程,而不是僅僅模仿人類如何思考的樣本。這種能力非常強大,而且可以被訓練出來。他們知道這會比單純的預訓練更具潛力,因為:人類的思維是在腦子裡的,不是模型能直接獲取的資料;公開的資料幾乎都是「最終答案」,模型看不到中間推理過程;所以模型必須自己推匯出「思考的方式」。這就是為什麼OpenAI如此看重推理。之前,Bob提到:「我們尚未揭示完全推理。」主持人Stephanie Zhan繼續追問道:「我們現在對推理理解得足夠了嗎?還是說還處在早期研發階段?」Bob McGrew認為行業一線依舊能看到大量新想法和細節上的改進,但局外人已經看不懂了。現在,很多進展已經不會公開出現在論文中了。就像以前,學術界還能做出很大的突破。但後來,當Bob再看到學術論文時,他會想:「哦,這個我們早就做過了,他們剛剛又重新發現了一次。」如今,投入到這個方向的精力已經非常巨大。因此,確實還有很多東西可以探索,但它們已經不是三言兩語可以講清楚的點子了。 (新智元)
AGI的秘密已被破解?OpenAI前研究主管的驚人預言
6月17日紅杉資本Training Data的播客邀請到Bob McGrew深談。作為OpenAI前研究主管,McGrew曾與Ilya Sutskever、Anthropic創始人Dario Amodei等一起制定roadmap,見證了GPT-3的歷史性突破,深度參與了從GPT-3到GPT-4的技術演進,他是推動OpenAI從研究實驗室向商業巨頭轉型的關鍵人物,更是少數幾個真正理解當前AI技術全貌的內部人士。在訪談中,這位見證了AI發展史上最重要時刻的技術領袖,拋出了一個觀點:"如果你在2035年回頭看,會發現我們今天已經掌握了創造通用人工智慧(AGI)的所有基礎概念,我認為即使在2035年,我們也不會看到任何新的趨勢。"“AGI所需的核心技術堆疊(預訓練、後訓練、推理)已經成熟,2035年前不會出現新的基礎範式”“2025是推理之年”“AIAgents將因算力成本趨零而實現低價化”“機器人技術迎來拐點”一、AGI技術堆疊的三駕馬車McGrew描繪了一個完整的AGI技術堆疊,他稱之為"三駕馬車":預訓練、後訓練、推理。這三個環節構成了現代AI系統的完整開發流程,構成了通向AGI的完整路徑。預訓練(pre-training):規模化的基礎"預訓練仍然重要,但已經進入收益遞減期。"McGrew指出,模型的智能水平與投入的算力呈對數線性關係——每次智能的顯著提升都需要指數級的算力投入。一個巨大的訓練過程,需要消耗所有的資料中心,預訓練下一個模型時,需要新的資料中心,則需要更漫長的時間。這解釋了為什麼各大AI公司都在瘋狂擴大訓練規模,但同時也預示著純粹的算力軍備競賽將逐漸失去意義。後訓練(post-training):性格塑造的藝術預訓練和推理都有一個非常清晰的縮放定律(Scaling Law),你投入更多的計算,就能獲得更高的智能,而後訓練則不同,後訓練是關於模型個性的。"後訓練關於模型性格。"這個階段的重要性正在日益凸顯。有趣的是,McGrew透露這項工作往往由產品經理等級的人員而非研究科學家來完成,說明AI開發正在從純技術驅動轉向產品和使用者體驗驅動。這是一個需要大量人類審美判斷和行為設計的過程。推理(reasoning):2025年的關鍵戰場“思維鏈Chain-of-Thought(CoT)”是最近兩年最重要的突破。McGrew特別提到了GPT-4(o3)相比GPT-3.5(o1-preview)的關鍵差異:"o1-preview無法使用工具,而o3可以將外部工具納入思考鏈。"這種將推理與工具呼叫結合的能力,讓AI從"回答問題"進化為"解決問題"。McGrew對2025年有一個明確的預測:2025將是"推理之年"。他觀察到一個有趣的發展軌跡:從去年9月的o1-preview到今年的o3,推理能力的進步速度正在從"隔月升級"轉向"半年升級"。這种放緩並非技術停滯,而是說明推理技術正在走向成熟。更重要的是,推理技術正在從OpenAI擴散到整個行業。Google DeepMind、Anthropic等公司都在快速跟進,這將推動整個AI生態系統向更高層次的問題解決能力演進。二、智能體(AI Agents)與經濟模式重構McGrew預測了一個顛覆性的經濟趨勢:智能體的定價將趨向於算力成本的機會成本。這個看似技術性的判斷,實際上預示著整個服務經濟的重構。傳統服務業的顛覆想像一下,當AI律師的成本接近算力成本時,傳統律師服務會發生什麼?McGrew認為,那些主要依賴知識處理和標準化流程的職業將面臨根本性的價格重構。這不僅是效率的提升,更是商業模式的革命。創業機會的新地圖但McGrew也指出了希望所在:真正的創業機會集中在具有網路效應、需要人類深度互動的領域。企業級服務、個性化諮詢、複雜的多方協調——這些需要深度理解人類情感和社會關係的領域,仍然是人類的主場。"應用公司需要網路效應、品牌價值、規模經濟來建構護城河。"McGrew強調,單純的技術能力不再是競爭壁壘,真正的價值在於如何將AI能力嵌入到具體的業務場景中。三、資料價值的範式轉移McGrew揭示了一個令人震驚的趨勢:專有資料的優勢正在被AI的"無限耐心"所削弱。專有資料優勢的消解他舉了一個生動的例子:特斯拉花費巨資收集的Autopilot駕駛資料,現在可以通過AI模擬大部分場景來復現。"AI可以通過公共資料加上無限的耐心和嘗試,復現很多我們認為需要專有資料才能獲得的價值。"這個觀點顛覆了許多人對資料護城河的認知。那些花費巨資收集資料的公司可能會發現,他們的資料優勢正在被AI的生成和推理能力所消解。新的稀缺資源那麼什麼資料還有價值?McGrew指出了兩類真正稀缺的資料:1. 個性化資料:如財務顧問對特定客戶的深度理解、醫生對患者的長期觀察記錄2. 場景化流程知識:特定行業、特定企業的業務流程細節和最佳化經驗這些資料的價值在於其不可複製性和高度個性化特徵。四、機器人技術的破局時刻McGrew對機器人技術的突破有著獨特的洞察。他認為,大語言模型為機器人提供了自然語言任務介面,降低了任務定義成本,以及視覺編碼的技術突破,共同構成了機器人技術的關鍵驅動,推動機器人從單一任務向通用任務擴展。從單一任務到通用任務McGrew舉了一個對比鮮明的例子:過去OpenAI花費數年時間教機器人解決魔方這一個任務,而現在像Physical Intelligence這樣的公司只需要幾個月就能讓機器人學會洗衣服、摺疊紙箱、整理蛋托等多種任務。這種飛躍的背後是技術堆疊的根本性變化:機器人不再需要為每個任務重新訓練,而是可以基於預訓練的大模型進行快速適應。商業化的時間窗口"因為他們站在了現有前沿模型的肩膀上。"McGrew指出,這種技術復用大幅縮短了機器人應用的開發周期,從傳統的十年周期壓縮到數月。這意味著機器人技術正在從實驗室走向商業應用的臨界點。那些能夠快速將通用AI能力轉化為特定場景解決方案的公司,將在這一輪變革中佔得先機。五、未來挑戰與應對教育革命:孩子需要理解的三件事作為三個孩子的父親,McGrew對AI時代的教育有著深刻的思考。他認為孩子們需要理解幾件核心的事情:1. AI是工具,不是朋友:"他花很多時間與ChatGPT交流,但他知道這不是他的朋友,而是一個他可以交談的專家。"這種認知邊界對於健康的AI使用至關重要。2. 學習的最佳時機:McGrew引用了教育學的一個重要原理:"當有人提出問題時,正是他們準備學習的時候。"AI的價值在於能夠在孩子產生好奇心的那一刻,提供即時、詳盡、個性化的解答。3. 掌握的核心能力:“第一,學習和解決問題的過程,這就是數學、論文寫作和程式設計的價值所在。這有點像學習的過程。第二,對項目有想法,並且相信自己可以做到,並且有能力使用任何可用的工具來解決問題,所以,這就是自主權。”只有具備了這些基礎能力,AI才能真正成為增強學習的工具。管理哲學:以員工利益為導向在談到如何管理這麼一群“天才型”團隊成員時,McGrew的核心原則是:"始終以員工的最佳利益為重"。OpenAI的人才留存策略無論是項目分配、團隊首發,還是艱難的解僱決定,McGrew都主張從"對方的最優利益"出發。這種理念在OpenAI的人才留存上體現得尤為明顯——即使在激烈的人才爭奪戰中,這種以人為本的管理方式也能建立真正的忠誠度。協作的藝術與挑戰但McGrew也坦誠地承認,管理天才型員工是一個巨大的挑戰。"如何平衡天才型員工的自我意志與團隊目標",這個問題在AI公司中尤為突出。他的解決方案是消除人為的職能隔閡。在組織架構上,他推崇將"研究者vs工程師"統一為"技術團隊成員"(Member of Technical Staff),促進跨職能協作。這種做法已經在OpenAI、Anthropic等領先的AI公司中成為標準。McGrew的觀點無疑是大膽且具有爭議性的。如果他的判斷可靠,那我們可能比想像中更接近這個歷史性的時刻。McGrew自己也承認:"我有點希望我是錯的。"如果基礎性突破已經完成,那麼競爭的焦點將轉向工程實現、產品創新和商業應用。AGI技術堆疊已進入精細化打磨階段,核心突破轉向推理能力最佳化與多模態融合。經濟價值將嚮應用層遷移,具備網路效應、個性化服務的企業更具生命力。機器人技術因語言介面革新迎來商業化拐點,而資料與算力的壟斷壁壘正在瓦解。未來十年,AGI發展將圍繞現有範式的效率提升展開,而非基礎理論突破。如McGrew所言:"如果有什麼事情人類能做到,而你無法讓模型做到,那是你的問題。" (JER學家)