吳恩達老師最新觀點:平行Agent是擴展AI 的新方向
平行Agent 正在成為擴展AI 的一個重要新方向。 AI 的能力在過去依靠更多的訓練資料、訓練階段的計算量,以及推理階段的計算量不斷提升。如今,讓多個Agent 平行運行正在成長為進一步擴展和提升效能的一種方法
早期在百度的研究,以及後續OpenAI 的工作,都證明了AI 模型的效能會隨著資料量和訓練計算量的增加而穩定提升。而在推理階段,如果透過Agent 工作流程,或是在推理模型中引入「思考、反思、迭代」的過程,表現還會進一步提升。但這類方法通常需要更長的時間來產生結果。平行Agent 則提供了一條新的路徑:在不讓使用者等待過久的情況下提升效果。
推理模型在生成時是順序進行的,因此往往執行階段間較長。同樣,大多數Agent 工作流程在最初的實現中也是序列的。但隨著LLM 單token 價格的不斷下降——這些技術逐漸變得更可行——而產品團隊也希望能更快地為使用者提供結果,越來越多的Agent 工作流程開始實現平行化。
一些例子:
許多研究型Agent 現在能夠同時抓取多篇網頁,並平行分析其內容,從而更快地產生深度研究報告
部分代碼類的Agent 框架允許使用者調度多個Agent,同時在代碼庫的不同部分開展工作。例如,在Claude Code 的課程中就展示瞭如何使用git worktrees 來實現這一點
一種正在快速流行的Agent 工作流程設計模式是:讓一個計算量龐大的Agent 花費數分鐘甚至更長時間來完成任務,同時由另一個Agent 負責向使用者提供簡短的進度更新。進一步演化後,這類前端Agent 還能在保持使用者知情的同時,將使用者的非同步回饋傳遞給後台的其他Agent,從而形成更有效率的協作
將複雜任務(如建構一個複雜的軟件應用)拆解成更小的子任務,再分配給不同的工程師平行完成,本身對人類管理者來說就極具挑戰,尤其在需要擴展到數以百計甚至更多工程師時更為困難。同樣地,如何有效地為平行Agent 進行任務分解,也是一個難點。
不過,隨著LLM 推理成本的不斷下降,使用更多的token 成為一種可行的選擇,而平行化的方式則使得這種使用不會顯著增加使用者的等待時間。
越來越多關於平行Agent 的研究也在湧現。例如:
《CodeMonkeys: Scaling Test-Time Compute for Software Engineering》展示了平行程式碼產生如何幫助探索更大的解法空間
Junlin Wang提出的Mixture-of-Agents 架構,則是一種出乎意料的簡潔方式來組織平行Agent:讓多個LLM 獨立產生答案,再由一個彙總LLM 將它們整合為最終結果。
關於如何最好地利用平行Agent,仍有大量研究與工程探索空間。但可以預見的是,能夠高效平行工作的Agent 數量會非常龐大,就像人類社會中能夠高效協同的群體人數也可以非常之多一樣 (AI寒武紀)