AI Agent:我們的未來將被分解成多少「智能積木」?


近期,通用型AI產品Manus引發討論熱潮,上課時有學生問它和Deep Seek誰厲害。介於它倆並非同類(Manus是AI Agent, Deep Seek是LLM),就以這篇學習筆記來系統梳理一遍,包括:什麼是AI Agent,AI Agent工作流的類型,AI Agent的應用、挑戰與對個人的啟示

目標讀者:對AI有初步認識,對AI Agent不是很瞭解,會混淆它與大模型。

全文字數:3251字

建議閱讀策略:速讀看粗體字


⚙️ 何為AI Agent?

根據Google發佈的白皮書《Agents》所言,AI Agent是一種能夠自主觀察環境、規劃行動並執行任務的智能系統。它具備在不同任務和狀態間保持記憶的能力,通過利用一個或多個大型語言模型(LLM)進行推理決策,並能自主決定何時呼叫內部或外部系統。由於AI Agent可以以最小的人類干預自主運作,如理解目標、制定計畫,採取行動,因此被視為“高效能的團隊隊友”或“24小時不停歇的數字員工”。為什麼有人說Manus是“究極縫合怪”,是因為一個典型的AI Agent系統就是由多個層次組成,包括大語言模型(LLM)、工具介面和編排(Orchestration)層等,讓我們看看縫合了幾層:

1️⃣ LLM決策層

LLM扮演AI Agent的大腦,負責理解任務、推理規劃。例如DeepSeek、Open AI 的GPT系列、Google的Gemini,Meta的LLaMA等。有些模型通過引入函數呼叫能力,可以根據需要呼叫外部函數或服務,使LLM輸出文字之餘觸發實際操作。Google提出的“鏈式智能體(Chain-of-Agents)”框架則是一種多個LLM協作的架構,讓多個語言模型合作解決複雜任務。

2️⃣ 工具呼叫層

預先定義的介面讓AI Agent生出雙手,獲得觸覺。AI Agent可以使用各種外部工具或服務,如訪問資料庫、呼叫API、運行程式碼、網路搜尋等。例如,Manus在官網展示的案例可以自動編寫並執行程式碼,自主執行網路瀏覽以蒐集最新市場資訊,並根據指令靈活呼叫各類工具,就像我們現在打開電腦工作的行動軌跡那樣。

3️⃣ 編排層

也稱調度或控制層,類似於大腦中的前額葉皮質(負責高級認知的關鍵區域),是AI Agent的指揮官。它負責協調LLM的推理能力與具體工具的執行能力。編排層會分析使用者意圖,根據任務需求將複雜目標分解成可執行的步驟,安排呼叫何種模型和工具,並維護對話的上下文和記憶。對應到傳統企業中,集合了流程管理員、IT系統管理員、項目經理、資料工程師的協作。

4️⃣記憶與狀態

高級AI Agent擁有人類大腦“海馬體”的區域,包含短期記憶(當前對話和近期資訊)和長期記憶(知識庫、過去經驗)模組。例如,Agent可以記住先前已完成的子任務結果,並將其應用到後續步驟中,提高連續決策的精準性。


圖源:https://vectorize.io/

下圖展示了AI Agent的工作機制:

圖源:BCG Analysis


圖中所示,每個Agent通過介面感知環境資訊(Observe),由LLM等進行自主規劃決策(Plan),再呼叫工具付諸行動(Act),不斷循環從而自主完成複雜任務。這種持續的觀察-計畫-行動循環使Agent能夠根據環境反饋自我調整,變得越來越高效智能。


⚙️ AI Agent的工作流類型

和人一樣,AI Agent也有自己的行事風格和做事方法。AI Agent的工作流(Workflow)類似於我們完成一項複雜任務時的步驟規劃和執行策略。以下為主要幾種工作流:

📌 規劃型工作流


圖源:https://blog.langchain.dev/


這類Agent善於自主規劃多步驟任務,將複雜問題分解為一系列子任務,並逐步完成。規劃型Agent相當於一個自驅力極強的項目經理:給定目標後,它會列出行動方案,呼叫工具按部就班地執行每一步,比如先調研市場資料,然後分析結果,接著撰寫報告。

📌 反應型工作流


圖源:https://www.simform.com/


這類Agent更像一個聊天機器人,根據當前輸入迅速作出單步反應,往往是“條件-行動”規則的加強版。例如一個商務助理Agent,遇到詢問公司業績的問題,會即時呼叫財報資料庫查詢再作答。這類Agent擅長即時響應但缺乏長遠規劃。

📌 多代理協作工作流


圖源:https://aws.amazon.com/cn/?nc2=h_lg


這種工作流不是單個數字員工,而是一群數字員工為你工作。不同Agent可以各自扮演特定角色,相互通訊共同解決問題。例如,Manus智能體據稱採用了多智能體架構,由多個獨立AI元件協同工作:一個Agent負責決策規劃,另一個Agent負責執行具體操作,還有的Agent進行結果校驗等。多Agent協作在商業中有許多創意用法,比如讓幾個AI分別扮演市場分析師、技術顧問、財務專家,頭腦風暴給出見解,綜合形成方案。

📌 自我反思型工作流


圖源:https://www.promptingguide.ai/techniques/reflexion


這是近年來研究的前沿方向,Agent在執行過程中會自我評估和調整。例如DeepMind的研究讓AI Agent在每步動作後檢查是否符合預期,否則回滾調整(元認知能力)。這樣的Agent在真實的應用中意味著更高的可靠性——它可以在發現錯誤時自行糾正,減少人為干預。


⚙️ AI Agent的應用、挑戰與啟示


圖源:https://markovate.com/


📝AI Agent在商業世界的應用

AI Agent在商業世界各領域展現出巨大的應用潛力,可對照看看那些工作會被替代:

✏️金融行業:即時整合海量市場資料和新聞資訊,自動抓取上市公司多年的財務和股票資料並進行交叉分析,幫助金融機構快速洞察市場變化,從而為投資組合提出建議。

✏️諮詢行業:過去需要諮詢公司6名專業分析師花費一周時間完成的行銷資料分析項目,只需要1名員工配合AI Agent在1小時內完成。AI Agent能夠自動收集並整合行銷資料,分析各地區廣告活動的表現,與預期指標比較,生成標準化報告並提出最佳化建議。經人稽核調整後,Agent還能夠直接根據批准的方案更新投放策略。

✏️客戶關係管理(CRM)與服務:突破人工服務的時間和精力限制,同時處理海量客戶諮詢,提供個性化回答,減少客戶等待時間,並在需要時無縫交由人工接管。

✏️綜合業務場景:持續演進的通用AI Agent能夠橫跨多個業務職能執行複雜任務,被視為未來“數位化商業助理”。前文提到的Manus智能體官方公佈的40個應用案例,涵蓋人力資源、行銷策劃、戰略諮詢等企業職能領域。Manus在一個權威的通用AI助手評測基準——GAIA Benchmark上創下紀錄,雖然有待更多專業認可,但它展示了AI Agent在處理跨領域商業任務上的巨大潛能

📝 AI Agent的挑戰

很多報導說Manus徹底拆了人類的職能部門和崗位。仔細看Manus展示的案例,那些簡歷篩選、財務報表分析、自動化辦公等功能更多的是概念化和原型化示例,要真正落地,還得在資料整合、業務邏輯對接、安全審計和持續維護等方面投入大量資源與精力。因此,AI Agent對於就業的影響更多體現為“轉型”而非“替代”,它更像是輔助各行各業從業者的“共駕(co-pilot)”,通過提升效率讓人們能夠發揮經驗,將精力集中於複雜創造的工作。

值得注意的是,深度學習驅動的 Agent 內部機制存在決策“黑箱”,儘管自我反思型工作流的發展能夠緩解模型幻覺(hallucination),或可突破“黑箱”侷限。但是AI Agent深入參與商業決策後所帶來的決策透明度、演算法偏見和責任歸屬等問題有待全人類的持續研究。

📝 AI Agent發展對個人的啟示

經常有學生給我看一個短影片或者社交媒體帖,指著扎眼扎心的“AI取代人類”標題問:“老師,這說的是真的嗎?”

是不是真的很難說,但我們可以從認識AI Agent的工作流做起,結合自己的真實學習或工作場景,找到自己不被取代的地方。因為長年駐紮商科課程教學前線,僅以教學實踐來舉例:

📎 在課程中要求學生嘗試將大型任務交給AI分解,再自主思考細節,培養宏觀規劃與監督AI執行的能力。

📎 對於一些熱點訊息,鼓勵學生用AI尋找資料,討論如何驗證AI給出的資訊是否精準,提高資訊獲取和鑑別能力。

📎要求學生扮演不同角色進行模擬談判,或引入自主搭建的專業智能體助手合作完成項目實踐。

以上這三種教學設計,分別對應了規劃型、反應型、多代理協作工作流,希望學生在體驗工作流的過程中主動探索與AI協作的最佳方式,提升效率、創造力和思辨力。


⚙️ 總結:

1. AI Agent是一個智能系統,LLM只是系統的認知部分;

2. AI Agent 的應用場景很多,但是有決策透明度、演算法偏見和責任歸屬等問題;

3. 深入理解AI Agent原理,學會融入日常實踐;

4. 拒絕被演算法裹挾,把有限的時間和精力花在提升創造力、洞察力、判斷力、決策力上。 (醒來狸行)