Meta華人實習生搞出超級智能體!自己寫程式碼實現自我進化
能無限進步的「超級智能體」來了!
最近,Meta研究團隊的一篇題為HYPERAGENTS(超級智能體)的論文迅速刷屏。
這篇論文將LSTM之父Jürgen Schmidhuber二十年前提出的哥德爾機(Gödel Machine)思想,與達爾文開放演算法相結合,提出了能持續自我迭代的達爾文哥德爾機。
基於此這一思想,Agent不僅能更好地完成具體任務、持續提高自身表現。
更關鍵的是,它可以不斷最佳化“改進自身”的底層邏輯,實現“元學習(Meta-learning)”
這,便是論文定義的新一代超級智能體——Hyperagents。
論文更進一步提出:未來AI有望通過持續自我迭代,最終突破人類預設的初始演算法邊界,也正因如此,AI安全必須被擺在核心位置。
不少網友也感慨道:
元學習真正讓人既害怕又興奮的,是元層面的改進能夠跨領域遷移。這不是在某一件事上變得更厲害,而是學會了在一切事情上變得更厲害。
目前,這篇論文已被ICLR 2026接收。
從哥德爾機到達爾文哥德爾機
要理解超級智能體Hyperagents,必須先瞭解它的基石——
哥德爾機(Gödel Machine)。
哥德爾機是一種假設性的自我完善型AI。它在數學上尋求證明:
如果存在某種更好的策略,它會通過遞迴重寫自身程式碼來解決問題。
而這一假設,最早由尤爾根·施密德胡伯(Jürgen Schmidhuber)在二十多年前提出。
在傳統機器學習中,AI的“學習方法”是人類預設的硬編碼,它只能通過調整內部參數來逼近目標;
而哥德爾機則打破了這一限制,它能夠將演算法框架本身視為可編輯的程式碼,通過自主重寫程序來實現學習能力的自我演進。
但問題也隨之而來:哥德爾機往往要求AI在自我演進之前,證明該改動具備淨收益。
也就是說,改程式碼花掉的算力成本,未來能不能通過更強的性能賺回來?
不幸的是,這種計算在現實中的複雜任務中幾乎是無法實現的。
針對這一問題,Meta團隊提出達爾文哥德爾機(DGM),它利用開放式演算法(Open-ended algorithms),通過在大模型提議的程式碼改進方案中進行搜尋,獲取能從經驗上提升性能的方案。
換句話說,DGM利用基礎模型來提議程式碼改進方案,並利用開放式演算法的最新創新成果,來搜尋並建構一個不斷增長的、多樣化且高品質的AI智能體庫。
基於此,DGM能創造出各種自我改進方案,例如:增加補丁驗證(Patch Validation)步驟、最佳化檔案查看功能、增強編輯工具、生成並篩選多個解決方案以選出最優解,以及在進行新更改時,會自動加入歷史嘗試記錄(並分析失敗原因)以供參考。
論文的實驗還表明,DGM獲得的算力越多,自我提升效果越好。
超級智能體
雖然DGM很強,但它存在一個致命限制:它主要在程式設計任務中有效。
這是因為DGM依賴一個關鍵假設——評估任務與自我修改任務必須“對齊”。
在程式設計領域,這種對齊是天然的:提升了程式設計能力,自然也就提升了修改自身程式碼的能力。
也就是說,解決外部程式設計問題的邏輯工具,可以直接轉化為修改其自身底層程式碼的能力。
相反,如果是在非程式設計領域(如寫詩),即便提升了寫詩能力,也無法直接轉化為修改程式碼的邏輯水平。
在這種缺乏“自指性(Self-referentiality)”的任務中,DGM的遞迴進化鏈條就會斷裂,陷入停滯。
基於此,文章提出超級智能體——
它們既能修改自己的任務執行行為,也能修改生成未來改進建議的過程。
這實現了所謂的元認知自我修改(metacognitive self-modification):不僅學習如何做得更好,還學習如何更有效地進行改進。
進一步,論文將超級智能體實例化為DGM-Hyperagents (DGM-H)。
DGM-H是對DGM的擴展,其中任務解決行為和自我改處理程序序都是可編輯且可進化的,其框架如下:
- 自指性架構:它將“任務智能體(Task Agent)”與“元智能體(Meta Agent)”整合為一個單一的、可編輯的程序。
- 元級進化:在Hyperagents中,“改進的方法”本身也是可以被改進的。這使得系統不再要求任務與修改必須對齊,從而實現了跨領域的“元認知自我修改”。
打個比方,在Hyperagents中,運動員不僅在訓練,教練也在學習如何更好地執教。由此,運動員的表現和教練的執教水平不斷螺旋上升。
此外,DGM-H還改進了生成新智能體的過程(例如引入持久化記憶、性能追蹤等),且這些元級改進具有跨領域遷移和跨運行累積的特性。
實驗驗證:從20%到50%的跨越
實驗證明,達爾文哥德爾機(Darwin Gödel Machine)能夠通過修改自身程式碼庫實現持續的自我提升。
在SWE-bench上,DGM自動將其性能從20.0%提升至50.0%。
在Polyglot上,DGM的性能從初始的14.2%躍升至30.7%,遠超由Aider開發的具有代表性的人工設計智能體。
這些結果證明了DGM能發現並實施有效的自我改進。
而實現這一點的關鍵在於其開放式進化搜尋策略:
通過從現有智能體庫中採樣生成新智能體,DGM能夠平行探索多條進化路徑。
性能稍遜的“祖先”智能體在發現新方法和功能方面起關鍵作用,避免了早熟收斂。
此外,DGM的改進具有廣泛的遷移性:
- 針對Claude 3.5 Sonnet最佳化的智能體,在切換到o3-mini或Claude 3.7 Sonnet時仍能提升性能。
- 在Polyglot基準中,Python任務上的自我改進同樣提升了Rust、C++、Go等不同語言任務的表現。 (量子位)