#LangChain
龍蝦(OpenClaw)裝上了,怎麼讓它真幹活
中文網際網路上最火的 AI 新物種,叫 OpenClaw,也叫“小龍蝦”。熱度有多真實?小紅書、知乎、B 站滿是安裝教學,從 Mac 到舊手機都能部署。有人做付費課程,有人提供上門安裝服務,甚至出現了專門的知識星球。這說明中國使用者不只是圍觀,已經在真實使用。但裝上容易,用好難。3 月 5 日,LangChain 創始人 Harrison Chase(LangChain 是目前最主流的 AI Agent 開發框架)在訪談裡提到:做一個能在推特上演示的 Agent 很容易,但要讓它每天穩定幹活,非常難。其實 AI Agent (智能體)的想法不新鮮。AutoGPT 兩年前就在做:讓模型循環運行,自己呼叫工具,自己完成任務。但 AutoGPT 沉寂了,OpenClaw 卻火了。為什麼 AutoGPT 沉寂了,OpenClaw 卻火了?為什麼演示容易,運行難?一個真正能幹活的 Agent 需要什麼?企業怎麼才能看清 Agent 在做什麼?這些問題的答案,Harrison Chase 在這次訪談裡講得很清楚。第一節 |為什麼突然所有公司都在裝龍蝦OpenClaw 的爆火看起來很突然。但在 Harrison Chase 看來,這件事其實準備了很久。時間往前倒兩年,開發者圈出現過一個類似項目叫 AutoGPT。它一度成為GitHub 增長最快的開源倉庫,很多人第一次看到:原來 AI 可以不斷循環運行,自己呼叫工具,自己繼續完成任務。它的做法就是:模型思考,呼叫工具,根據結果繼續行動。但 AutoGPT 很快就不火了。為什麼?那時候的模型還不夠穩定。任務一長,模型做著做著就亂了,或者在同一個步驟裡反覆打轉。演示很驚豔,實際用起來經常出問題。Harrison Chase 後來總結過:想法很美好,但要讓它可靠地運行,其實很難。過去一年,這個難題開始有解了。模型能力明顯提升。Claude、GPT 以及新一代大模型,處理長任務時更穩定,呼叫工具也更準確。但更關鍵的變化是:Agent 開始有了管理自己工作環境的能力。最明顯的是檔案系統。它們可以把資訊存到檔案裡,需要的時候再讀取。它可以像人在電腦上工作一樣,有地方放資料,有地方寫草稿,任務做到一半可以保存,然後繼續往下走。模型變聰明,加上有了檔案系統,就讓 OpenClaw 這樣的 Agent 真正能用起來了。技術不是突然誕生的,只是慢慢跨過了某個臨界點。所以你會看到,越來越多公司開始把龍蝦裝進自己的系統。第二節 |演示容易,幹活難在那裝上龍蝦之後,很多公司很快會發現:Agent 看到的資訊和人類不一樣。人在工作時,可以自己決定要看那些資料,要跳過那些細節。但 Agent不行。它只能看到你給它的資訊。給多了處理不過來;給少了又會亂套。Harrison Chase 提到 AutoGPT 當年的做法:如果呼叫一個 API,返回了 40000 個 token 的資料,它就直接把這 40000 個 token 全部塞給模型,作為下一步的輸入。結果就是:資訊量太大,模型根本處理不過來。到了OpenClaw 這一代,思路變了:把這 40000 個 token 存到檔案裡,只告訴模型前面 1000 個 token 的內容。如果 Agent 判斷需要更多資訊,可以自己用工具去讀完整版。這個改變看起來很小,但本質上是把控制權交給了 Agent 本身。它可以決定自己要看什麼、什麼時候看。Harrison Chase 管這個叫上下文工程:在正確的時間、以正確的格式、把正確的資訊給到模型。任務一長,Agent 需要的資訊就會越來越多。你要決定那些資訊應該一直保留,那些可以暫時放一邊,那些應該壓縮,那些需要詳細展開。這就是讓 Agent 真正幹活的關鍵所在。第三節 | 能幹活的 Agent 需要什麼第二節說的上下文管理問題,怎麼解決?Harrison Chase 在訪談裡提到,需要一整套結構。這套結構現在已經相對清晰了。1. 首先是規劃讓 Agent 在動手之前先想清楚:這件事需要那些步驟,每一步應該做什麼。具體做法是給它一個待辦事項列表工具,讓它自己記錄任務進度。這樣 Agent 就不會做著做著忘了目標。2. 然後是子 Agent當任務太複雜時,可以把它拆成幾個小任務,每個小任務交給一個專門的子 Agent 去做。比如一個負責查資料,一個負責寫程式碼,一個負責整理結果。為什麼要這樣做?因為每個子 Agent 有一個清晰的上下文窗口,只關注自己的小任務,不會被其他資訊干擾,可以真正深入把事情做好。做完之後,把結果交回給主 Agent。3. 接下來是檔案系統它的作用遠不止“有地方存檔案”。真正重要的是:檔案系統讓 Agent 可以管理自己的上下文。Agent 可以把暫時用不到的資訊存到檔案裡,需要的時候再讀取。它可以把大塊的工具返回結果先存起來,只看摘要,要深入瞭解時再打開完整版。這就解決了第二節說的資訊過載問題。4. 最後是提示很多人以為模型變聰明了,提示就不重要了。事實正好相反。Claude Code 的系統提示詞,如果把工具定義也算進去,大約有 2000 行長。提示仍然極其重要,因為它決定了模型會怎麼推理、Agent 會怎麼行動。有了這套結構,Agent 就有了幹活的基礎。第四節 |企業的難題:你根本不知道 Agent 在做什麼規劃、子 Agent、檔案系統,這些都有了。但 Agent 還是會出問題。這時候,一個新的難題又來了:它們到底在系統內部做什麼?傳統軟體出了問題,開發者可以很快定位。因為程序是按固定流程走的,每一步都有記錄。但 Agent 不一樣。它根據任務內容不斷生成新的行動:呼叫工具、修改檔案、重新規劃。從外面看,任務在繼續,但如果中途出錯,很多團隊根本不知道它之前做過什麼,也不知道在那一步開始出問題。不知道 Agent 在做什麼,帶來兩個麻煩:一個是偵錯困難。任務失敗了,不知道那裡出錯。另一個是安全風險。Agent 有權限呼叫工具、修改檔案、訪問資料。以OpenClaw 為例,它權限很高,能做很多事,但缺乏護欄。LangChain 現在直接禁止員工在工作電腦上裝,就是擔心不可控的風險。OpenClaw 的高權限正是它威力所在,問題是現階段的版本缺乏企業級的安全控制。企業需要的是一個既強大又可控的版本。怎麼做到可控?要知道 Agent 在做什麼,就得先把每一步行動都記錄下來。這叫執行軌跡。但記錄只是開始,真正的挑戰是:當 Agent 大規模執行階段,這些軌跡會變成海量資料。Harrison Chase 在訪談裡講到兩個真實案例:一家叫 Clay 的公司在用 Agent 做客戶資料自動化,每月運行數百萬甚至數十億次,他們不可能用肉眼去看這些軌跡。還有程式碼開發平台 Replit,他們的軌跡可以長達數千步,你需要在單一軌跡內部搜尋,找到某個具體時間點發生了什麼。面對這種規模,只能用 LLM 去分析這些執行記錄,自動尋找問題。比如找出使用者可能困惑的地方,或者連續呼叫同一個工具三次但得到不同錯誤的地方。LLM 可以對軌跡進行分類、聚類,告訴你使用者在怎麼使用這個系統。Harrison Chase 的判斷是:這件事可能比模型能力更重要。執行軌跡和可觀測性,是讓 Agent 真正發揮作用的核心要素,也是 LangChain 真正的護城河所在。因為當 Agent 開始承擔越來越多工作時,企業需要的不只是一個聰明的模型,更需要一套能看清它在做什麼的工具。有了結構,再加上可觀測性,Agent 才能從偶爾成功的演示,真正變成每天穩定幹活的工具。結語|裝上只是第一步OpenClaw 的流行,讓很多公司開始把 Agent 接入實際工作。但裝上只是第一步。讓它穩定運行,需要解決上下文管理問題。讓它從演示走向生產,需要規劃、子Agent、檔案系統這套結構。讓它真正安全可靠,還需要可觀測性。這些,就是 Harrison Chase 說的答案。裝龍蝦不難,難的是這些。 (AI 深度研究員)