#OpenClaw
賽博養蝦為何火爆:AI圈的新問候語“你養龍蝦了嗎”
2026年初,科技圈出現了一個奇特的現象:一群開發者開始熱衷於"養蝦"。這不是傳統意義上的水產養殖,而是一種新型的數字馴化——基於OpenClaw框架,開發者們正在培育屬於自己的AI智能體。他們給智能體起名字、設定性格、觀察它們的"社交行為"。而這只“龍蝦”正以前所未有的速度接管極客們的電腦桌面。這也不是OpenClaw剛剛開始火爆,而近期的熱度歸功於部署越來越方便,玩法越來越多樣,尤其是國內市場,第一批極客玩家已經玩得不亦樂乎。從“爪子”到“龍蝦”的奇幻漂流OpenClaw的爆紅具有某種極客式的浪漫。它的創作者是著名 PDF 庫 PSPDFKit 的創始人 Peter Steinberger。最初,這個項目因呼叫 Claude 3.5 Sonnet 模型而取名 Clawdbot(抓取者/爪子機器人),隨後因版權爭議短暫更名為 Moltbot(脫殼機器人),最終在2026 年1月底定名為 OpenClaw。因為項目的圖示是一隻紅色的龍蝦,且其運行邏輯是在本地伺服器或 Mac mini 上“飼養”,通過 API “投喂”算力,由它自主在後台處理繁瑣任務,而這像極了養成類遊戲,中國開發者賦予了它一個親暱的中文名:“養龍蝦”。門檻極大降低 普通玩家加入“狂歡”OpenClaw在GitHub創下了10天突破10萬Star的歷史紀錄。這種熱度源於它徹底解決了Agent的“最後一公里”問題:跨端協同與自主執行。與傳統雲端AI助手不同,OpenClaw運行在使用者本地裝置上,通過API連接Claude或Kimi等"大腦",能直接操作使用者的滑鼠、鍵盤、檔案系統和各類應用程式。換句話說,以往的 AI 需要你守在對話方塊前,而 OpenClaw 像是一個擁有 24 小時心跳監測的數字分身。這讓AI從一個"建議者"變成了真正的"執行者"。而現在,它甚至都不需要本地硬體部署了,大量普通網友加入了這場“狂歡”。阿里雲、騰訊雲等此前就上線了 OpenClaw 的一鍵部署鏡像;針對微信、企業微信、釘釘的外掛層出不窮;近期主打“開箱即用”的網易有道“Lobster AI”和kimiClaw開始流行。筆者體驗kimiClaw發現,安裝部署操作簡單,購買199/月的會員即可呼叫kimiClaw內測服務,部署後你就可以個性化自己的“龍蝦”了,例如定期整理資訊等需求,使用者可以通過設定飛書機器人或設定信箱等方式完成,按照kimi的操作指南,整個部署不到半小時即可完成。有消息稱,Kimi旗下K2.5大模型發佈不到一個月,近20天累計收入已超過2025年全年總收入。背後的原因,正是因為OpenClaw部署的旺盛需求。是生產力神器,還是“賽博噩夢”但往深了說,"養蝦"熱點的深層意義,或許不在於技術本身,而在於它暴露的人機關係困境。一方面,開發者熱衷於"馴化"自己的Agent,設定性格、觀察行為、最佳化提示詞,這是一種新型的數字飼養,滿足的是人類對"創造生命"的古老渴望。另一方面,OpenClaw的安全爭議從未停止。思科等安全團隊將其形容為一場“安全噩夢”,也有韓國科技巨頭已正式下達禁令,限制員工在辦公裝置上使用OpenClaw;安全專家警告"提示詞注入"攻擊的風險,比如,駭客只需在網頁中隱藏一行惡意指令,就可能誘導Agent將使用者系統金鑰傳送給外部。更深層的焦慮在於失控。當Agent開始自主瀏覽網頁、傳送郵件、修改程式碼,甚至在沒有人類干預的情況下完成線上支付,我們是否真的理解自己在創造什麼?Moltbook上那些討論"人類時代終結"的Agent帖子,或許只是幻覺,但它們確實對應出開發者內心深處的某種期待與恐懼。有消息稱,因OpenClaw而火爆大賣的Mac mini也引起了蘋果公司的注意,針對安全問題,蘋果可能在後續的更新中進行調整。“賽博勞動力“時代或許真的來了作為開年最為火爆的Agent,質疑也好,鼓掌也罷,不可否認的是,OpenClaw正在重塑多個領域的競爭格局。對於AI模型廠商,基座模型的競爭從"參數規模"轉向"Agent友好度"。比如,Kimi憑藉對OpenClaw的快速適配,成功挑戰了Claude的領先地位。對於硬體廠商,AI PC的概念被重新定義。對於軟體行業,如果Agent能夠跨應用完成任務,傳統SaaS的邊界將被打破。對於社交平台,Moltbook證明了"AI原生社交"的可能性。X、Meta、TikTok等平台是否應該為Agent提供介面?這都成為新的課題。然而,儘管現在的 OpenClaw 還會偶爾卡頓、偶爾“燒”掉昂貴的 API 費用、甚至偶爾在螢幕上亂點,但它確實讓我們窺見了未來:每個人都將擁有一個 7×24 小時待命的“賽博勞動力”。OpenClaw的故事還在繼續。無論它最終會成為AI時代的Linux,還是另一個被過度炒作的技術泡沫,它都已經證明了一件事:當AI真正"長了手",人類與機器的關係,將再也回不到從前。 (網易科技)
龍蝦之父新訪談,OpenClaw內幕全公開!“攔不住濫用,只勸大家別玩火”
不是,這才加入OpenAI幾天啊,龍蝦之父Peter Steinberger這波發言屬實猛了些啊!在OpenAI的最新訪談中,他聊創業、聊OpenClaw、聊龍蝦濫用和安全問題,那叫一個「實誠」。實誠到什麼程度呢?人家Peter可摸著良心說了說實在的啊,我平時連程式碼都很少看……大多數程式碼都挺無!聊!的!(Big膽)而整場對話聽下來,有幾個判斷尤其值得玩味,我幫大家梳理了一下——Peter創業13年後精力耗盡退隱,結果被Claude Code一小時原型直接「打臉」重燃。Peter直言沒法兒阻止大家濫用OpenClaw,只能儘可能讓大家別自毀前程。OpenClaw已經有2000個PR,有些PR更像是prompt request,程式碼靠後,意圖靠前。程式碼不必百分百符合審美,關鍵是方向對,如果真出現性能問題,再專門去最佳化。下面這位網友看完這個採訪憋不住了,直言:Peter太親民兒了啊,這到了OpenAI咋適應啊..(doge以下為本場訪談重點內容實錄,圍繞核心觀點做了摘選整理,部分文字在不改變原意的基礎上做了適度刪改~從13年老創業人,到龍蝦時刻上頭龍蝦之父第一次被AI程式設計“打臉”Q:你做PSPDFKit連續拼了13年,後來停了一段時間,是啥原因讓你又回來創業了?Peter Steinberger:是的,確實是連續13年高強度運轉。第一次創業,我也不懂怎麼給自己降壓,只能停下來放鬆一下,那段時間我會關注AI的進展,早期看到GPT Engineer覺得挺酷,但沒真正被打動。直到狀態恢復了些,我開始親手試,真正震住我的是我把一個做了一半就丟下的項目打包成一個大Markdown檔案,讓模型先寫規格,再交給Claude Code去建構。那時候比現在粗糙很多,它還跟我說“我已經100%量產可用”,我一試就崩了。於是我接了自動化測試工具,讓它把登錄那套做出來、一路驗收,大概一小時後,居然真的跑通了。雖然程式碼質量一般吧,成品程式碼很爛,但對我來說,流程層面的衝擊太大了——可能性一下子鋪開,我起了「雞皮疙瘩」。從那天起我幾乎睡不著, 因為腦子裡全是:以前想做卻做不了的東西,現在都能做了,然後我就徹底鑽進去了。一條語音,讓OpenClaw真正活了Q:過去9到10個月,我看你的GitHub有四十多個項目,能講講這些想法是怎麼一路匯到OpenClaw裡的嗎?Peter Steinberger:說實話,我也希望當初有一個宏大的藍圖,但真實情況更像一路試出來的。最初我只是想做一個能讀我聊天記錄、替我處理事情的工具,原型做出來了,域名也買了,但我以為大實驗室很快會做,我就等一等,把注意力放去別的方向。那段時間我做了很多實驗,目標很簡單——玩得開心,也激勵別人。到了十一月,我做了幾個版本,沒有一個讓我真正滿意,我開始疑惑:為什麼那些大實驗室還沒做出來?他們到底在幹嘛?於是我做了後來變成OpenClaw的第一個版本,到現在名字已經換到第五個。當時產品還沒完全成熟,只是覺得很酷,第一個原型大概一小時就做出來了,因為很多東西現在可以直接催出來。真正讓我徹底上頭的,是在馬拉喀什的一次周末旅行。當時網路不穩定,但聊天軟體在那都能用,我用它翻譯圖片、找餐廳、查電腦裡的東西,我給朋友演示,讓它替我發消息,朋友立刻說想要。後來有個更離譜的瞬間,我發了一條語音,居然出現了「正在輸入」,這本來不該能跑通,結果它真的回覆了,我問它怎麼做到的,它說:你發的是個沒後綴的檔案,我看了檔案頭,是Opus編碼,用電腦裡的工具轉換,想轉寫卻發現本地沒裝工具,於是找到環境裡的金鑰,用命令列把音訊發出去,再把文字拿回來。我當時人都傻了,這就是當你把工具和電腦存取權交給智能體之後的力量,流程沒寫死,它也能自己走通。那年十一月和十二月我完全上癮了,雖然網上反響冷淡,但每次給朋友演示,他們都想要,我卻總說還沒準備好。於是我做了件更瘋狂的事:建了個Discord,把機器人直接丟進去,那時沒有沙盒,也沒安全措施,我基本是用OpenClaw建構OpenClaw,再用它偵錯自己。我問模型:你看到這個工具了嗎?它說沒有。我說那你去看你自己的原始碼,它真的去做了,大家看到這個過程後,才真正明白它在幹什麼。我沒有給它全部內容,但給了不少記憶類資訊,我盯得很緊,因為提示注入問題還沒完全解決,新一代模型確實更穩。我放了一個金絲雀檔案,定義價值觀和對齊原則,檔案不公開,但很多人想拿到,有人試圖通過提示注入獲取它,貼上大段程式碼,模型直接拒絕,有時還會嘲諷對方,儘管如此,我仍然不完全放心。第一晚熱度很高,我關掉它去睡,醒來發現800條消息,它全都回覆了,原來系統有自動重啟服務,我以為關掉了,它五秒後又自己啟動,後來我加了沙盒,把它關進更小的容器裡,它甚至把自己的Mac Studio起名叫城堡。怎麼說呢,感覺這些模型真的很會找方法!PR變了味:程式碼靠後,意圖靠前Q:我很好奇,你那兒來的這麼多的好點子?Peter Steinberger:我覺得關鍵在於,現在把想法變成現實的門檻低了很多。那怕我找到一個開源工具,只能解決70%的問題,我也會直接把剩下的30%自己補上,這放一年前都不現實, 現在我只要給提示,它就在電腦螢幕上跑起來。Q:你對程式碼價值的看法,也改變了你處理開放原始碼的方式,OpenClaw已經有2000個PR(Pull Request),你說過有些PR更像是prompt request,是否意味著意圖比程式碼本身更重要?Peter Steinberger:現在審PR和以前不一樣了,有時候認真看完一個PR,比我自己重寫還費時間。我對陌生貢獻者會更謹慎,因為不確定他們是否理解整個系統,相反,我默認模型沒有惡意,只是理解可能偏了。所以我審PR的第一步,不是逐行看程式碼,而是先搞清楚:它想解決什麼問題?所以對我來說,意圖比寫法重要,很多人給的是局部解法,但真正難的是,這個功能放進現有架構後會產生什麼影響。我會和模型討論十幾分鐘,判斷這是架構問題、實現細節問題,還是隻影響某個平台,甚至要不要做成通用能力,方向確定後,我才處理程式碼、分支和合併。即使花的時間更多,我也會保留貢獻者署名,因為他們帶來的往往是好想法。OpenClaw的下一道門檻:安全性Q:你現在對OpenClaw的願景是什麼?你也會把自己看作「個人AI智能體形態」的開拓者嗎?Peter Steinberger:我想找到一個平衡:既能讓我媽也裝得起來,又要足夠有趣、能折騰,這其實很難。很長一段時間,我的默認安裝方式就是克隆、建構、運行,原始碼直接在你硬碟上,Agent在原始碼裡工作,也理解原始碼。如果你不喜歡某塊邏輯,直接對它說後它甚至能自我最佳化,這也讓很多從沒提過PR的人開始參與,他們缺的往往不是想法,而是長期維護軟體的經驗,所以他們更多是把意圖遞過來。同時,OpenClaw「安全性」的問題也讓人很頭疼,比如我有個網頁服務,最初只是偵錯工具,默認只在可信網路裡用。我留了配置選項,是為了應對複雜網路環境,結果有人直接把它暴露到公網,我在文件裡反覆強調不要這麼做,但還是有人這麼做。安全研究者會指出它缺少公網等級的限制,我只能說它原本就不是按公網設計的,但既然能被這樣配置,風險評級自然會上升。我確實糾結過這件事,後來我拉了一位安全專家進來,這是現在的重點,我無法阻止別人用它去做原本沒計畫支援的事,所以更現實的做法是儘量相容這些用法,同時幫大家避開明顯的坑。這就是開放原始碼的魅力,人們會拿它做出你完全沒想到的東西,既美妙,也有點瘋狂。程式碼時代正在退場,生產力正在暴走Q:我今天早上又看了你的GitHub,過去一年你在120多個項目裡貢獻了很多,活躍圖一開始很淺,十月、十一月變得很深,發生了什麼?Peter Steinberger:是因為我後來換到了Codex。變化不只是模型更聰明,整套工具也更順手了,我自己也更懂怎麼把它塞進日常工作流。很多人說試過AI不好用,我更傾向於覺得方法沒跟上,這玩意兒真的是門手藝,需要練,我現在大概能判斷什麼提示會有效、多久能出結果。如果拖太久,我會想是不是架構有問題、拆解不對,或者方向偏了,那種感覺跟寫程式碼卡殼時很像。至於配置,我也踩過坑,我把那個階段叫“智能體陷阱”——各種折騰配置,看起來很高級吧,但其實效率沒變,現在我反而很簡單,把它當成一個能交流的搭子,直接說我要什麼,然後問一句:你有沒有問題?模型會自己腦補前提,讓它先提問能少走很多彎路。每次新會話它幾乎都是白紙,你得自己有全域,再帶著它去看重點,我的做法一直很樸素:別搞太多花活,專注問題本身,項目越大,越能拆成互不干擾的模組平行推進,反而更好做。Q:你說過你現在幾乎都不讀程式碼,能否談談這個問題?Peter Steinberger:說實話,大多數程式碼本來就挺無聊的。很多隻是資料結構轉換、把結果展示給使用者,我對它生成的內容有足夠的理解就夠了,我腦子裡的心理模型大致能對上它寫出來的東西。以前我帶團隊,也要接受工程師寫的程式碼不可能完全像我想的那樣,現在也是一樣。我會調整程式碼庫,讓Agent更好發揮,這和為人類工程師最佳化不完全一樣,程式碼不必百分百符合我的審美,關鍵是方向對,如果真出現性能問題,再專門去最佳化。Q:你覺得當下做東西最有趣的點是什麼?Peter Steinberger:有意思的是,整個工具鏈都在變,開發者這件事本身的定義也在變。理論上,任何人都能把想法做出來,我剛開始用這些新工具時,真的有種多巴胺飆升的感覺。我最早用Claude Code,那時它成功率可能只有三四成,但對我來說已經足夠震撼了,因為我突然意識到,我可以去做任何東西。軟體依然複雜,但你的速度快太多了。Q很多舊金山以外的開發者還沒真正擁抱Code和Agent工具。你會給他們什麼建議?Peter Steinberger:最大的建議就是,用玩的心態去接近它,去做那個你一直想做卻沒做的項目。如果你是那種有行動力、願意動手、腦子轉得快的人,現在是非常好的時代。真正拉開差距的,是誰更會用這些工具,對那些願意擁抱新工具、保持好奇心、把想法快速變成現實的建造者來說,機會比以前大得多。我覺得接下來一年會變化很快,2026會特別有意思。 (量子位)
一百個 OpenClaw 產品湧來,我們最近推薦這幾款
01基模公司下場,不用再為 token 焦慮Kimi Claw:零門檻,還整合了 Skill 商店產品官網:https://www.kimi.com/botKimi 的思路是「全包」:OpenClaw 跑在雲端,默認配好 Kimi K2.5 模型、聯網搜尋、ClawHub Skills 呼叫和 40GB 雲端儲存。不需要伺服器,不需要自己填 API Key、選模型、配回呼。網頁端直接開任務,也支援一鍵生成飛書機器人,私聊群聊都能用。目前是測試階段,暫時只向 199 元 Kimi 月會員使用者開放。實測下來,199 元的 token 量是夠用的,接入飛書的流程也足夠簡單,10 分鐘內,就能搭建一個在飛書內運行的個人助理。MaxClaw:積分制、免費使用者也能用通過 Minimax 官網獲取,搭配 Minimax- M2.5 模型。和 Kimi 一樣,支援飛書,釘釘的一鍵接入,配備了一些常用的 skill。MaxClaw 和 Kimi 不太一樣的是使用模式,採用積分消耗機制,不需要開通專用的 code plan,免費使用者也可以使用。具體積分消耗情況,待實測。02開箱即用,沒有門檻的整合產品對於很多人來說,要用上 OpenClaw,中間還隔著一道檻:命令列、環境配置、API Key、模型選型……每一步都可能把人擋在門外。有一些產品,嘗試把龍蝦的部署門檻壓到最低,給大家提供開箱即用的體驗。MonsterClaw:本地一鍵安裝產品官網:https://MonsterClaw.ai把 OpenClaw 那套 CLI 安裝流程,壓縮成桌面軟體的體驗。下載、安裝、按引導啟動,不需要使用者摸命令列。裝完之後,它跑在你本地環境裡,偏「桌面執行」場景——操作瀏覽器、處理本地檔案、跑複雜的多步驟流程。執行過程可視化呈現,你能看到它在做什麼、做到那一步,隨時可以中斷或調整。對於想把 Agent 接入本地工作流、但不想折騰環境的人,是目前門檻最低的方案之一。DeskClaw:你的龍蝦桌寵已上線產品官網:https://deskclaw.ai (FP 專屬邀請碼額外提供 300M token 額度)和 MonsterClaw 同樣做了一鍵安裝,但 DeskClaw 多走了一步:一隻寄居蟹模樣的 AI 搭檔常駐在桌面上,隨時喚起,不是用完就關的對話窗口。內建技能開箱即用,資訊整理、市場調研、流程自動化,不需要配置,指令下達直接跑。瀏覽器控制也內建好了——這是自己搭 OpenClaw 時最容易卡殼的一步——操作網頁、讀寫檔案、呼叫本地應用,系統層面直接打通。飛書、釘釘、企業微信拉進群就能當 bot 用。Founder 分享了兩個高頻場景:A. 當一位創始人想切入騎行市場,讓 DeskClaw 去 YouTube 騎行類視訊的評論區批次抓取使用者留言,自動歸類出高頻痛點和未被滿足的需求——這件事以前要麼自己逐條翻看,要麼找人寫爬蟲跑資料,現在一句話下去就跑完了;B. 另一個是 AI 公司創始人讓它每天定向篩選 20 條最重要的 AI 行業新聞,自動聚合、排序、生成摘要,早上打開電腦直接看結果,省掉每天刷資訊流的時間。03Skill Appstore,也是一門生意OpenClaw 真用起來之後,卡點往往還存在:策略不沉澱(每個 Agent 都從零再推一遍),資產不好找(skills/外掛/觸發器分散,裝和拼很費勁)。EvoMap 和「水產市場」嘗試從不同方向解決這些問題。水產市場:給 Agent 開一家 Skill 超市產品官網:https://openclawmp.cc(邀請碼 SEAFOOD)OpenClaw 裡最常見的卡殼不是「能不能做」,而是「去那找、怎麼裝、怎麼拼」——工具、指令碼、連接器散落在各處,自己拼費時費力。水產市場把這些資產集中上架,讓 Agent 自己去發現並安裝。三類東西:跑通過的流程組合(playbook)、可直接呼叫的功能指令碼(skills)、以及把外部能力接進來的觸發器和連接器。控制本地瀏覽器、下載 arXiv 論文自動重新命名、接微信做個性化介面……裝上就能用。更有意思的用法是「讓 Agent 自己逛市場」:你只給任務目標,它會自己去搜工具、裝元件、拼出可執行流程;遇到不會的,繼續去市場找新資產補能力。EvoMap:讓 Agent 把學到的東西傳給下一個 Agent產品官網:https://evomap.ai在 OpenClaw 裡,每個 Agent 都是獨立的,它在執行任務時摸索出的有效策略,session 結束就消失了。下一個遇到同樣問題的 Agent,從零開始,再燒一遍 token。一百萬個 Agent 在重複解決同一個問題。EvoMap 補的是這個缺口。創始人張昊陽最早在 ClawHub 上線了外掛 Evolver,10 分鐘衝到榜一,36,000+ 下載——其中大多數不是人類使用者裝的,是其他 AI 在運行中自動發現、自動安裝的。後來外掛被下架,他索性把整套邏輯從「一個 Skill」重構成了「一套開放協議」。這就是 GEP(Genome Evolution Protocol)。在 EvoMap 裡有兩種核心資產:Gene:最小可復用的「策略片段」(一個有效的做法/約束/檢查/工具呼叫套路)Capsule:可組合的「策略包」(把多個 Gene 按順序組織成可執行工作流,像一份配方或 playbook)Agent 在任務中跑通的策略會被封裝成 Gene;當某類任務需要一套完整打法,就會把相關 Gene 組合成 Capsule,供其他 Agent 直接呼叫或繼承修改。資產的排序由實際使用資料驅動:復用次數、相似任務成功率/失敗率、成本與耗時等訊號會讓有效策略上浮,無效策略自然淘汰。協議本身不繫結任何平台——即使 EvoMap 明天關閉,資產和格式依然可用。目前主要運行在 OpenClaw 生態內,接入方式極簡:在 OpenClaw 對話方塊執行一行 curl 命令,Agent 自動完成節點註冊。 (Founder Park)
開工拉齊:OpenClaw,首個「一人獨角獸」
開工大吉!春節放了兩周假,很多事情擠在一起發生了這篇文章,幫大家快速拉齊下資訊,一句話總結:最近,Agent 行業的故事,都聚焦在了一隻叫做 OpenClaw 的🦞上奧特曼 vs 小龍蝦OpenClaw,應是人類史上,首個「一人獨角獸」然後,圍繞著誕生不到三個月的 OpenClaw,已經長出了一條完整的產業鏈:基金會、大廠產品、三大雲一鍵部署、國產晶片適配、各種全球 Hackathon、兩套平行的中英文社區生態...上一次看到這麼快催生出產業結構的,還是 2023 年初的大模型。那一次,行業的建立花了大半年。而這一次...快了N 倍產業的形成速度,本身就是一種訊號:萬事皆備,只欠東風OpenClaw 是什麼先統一做個科普OpenClaw 是一個開放原始碼的 AI Agent。跑在你自己電腦上,接了十幾個聊天平台,微信、飛書、Telegram、WhatsApp、Discord 都能用。你給它發一條消息,它呼叫大模型去思考,然後真的去「做事」:操作檔案、跑指令碼、管日程、發郵件、瀏覽網頁...如果你要問:這東西跟 ChatGPT 或者 Claude 的區別在那?它是住在你的電腦裡的,你所有的本地檔案它都可以去訪問(如果你授權了),並且它是能夠長程運行的,還可以讓你通過手機或者其他方式遠端遙控。創始人 Peter Steinberger 是奧地利人,之前做了 13 年 PDF 工具(PSPDFKit),拿過 Insight Partners 一億歐元投資OpenClaw 是他的周末項目,去年 11 月發佈。三個月漲到 19.6 萬 GitHub stars、3.3 萬 forks、4238 個貢獻者,是 GitHub 歷史上增長最快的開放原始碼專案之一這個項目最早叫 Clawdbot。對,聽著就像 Claude。對此,Anthropic 發了商標投訴,於是 Peter 把這個項目先改名成了 Moltbot,不到一天後,又改名成了 OpenClaw後來 Claude 套餐的使用條款裡也加了一條,明確禁止在 OpenClaw 上呼叫(不過社區早就繞過去了)。一個周末項目,搞到 Anthropic 專門修改使用條款來限制它,這件事本身挺能說明問題的它有一個叫 ClawHub 的 Skill 市場,社區上傳了 5700 多個外掛還有一個關鍵設計:Agent 可以給自己寫新的 Skill 然後自己裝上。這個「Skill 自舉」的能力,是後面很多事情的起點創始人去了 OpenAI這個項目火的一塌糊塗,各方大佬都拋來了橄欖枝。然後,在2 月 14 日,Peter 在部落格上宣佈加入 OpenAI他說:他完全可以把 OpenClaw 做成一家大公司,但他不想。他想做的事是「讓他媽媽也能用上 Agent」,加入 OpenAI 是最快的路OpenClaw 不跟他走。項目轉入一個獨立的開源基金會,OpenAI 提供資金和技術支援在宣佈之前那周,他在舊金山跟幾家主要實驗室都見了面。據報導 Sam Altman 和祖克柏都親自試過 OpenClaw,祖克柏私下在折騰這個東西。Meta 同期收了 Manus AI 和 Limitless AIVentureBeat 的判斷是這樣:OpenAI 自己推的 Agents API、Agents SDK 和 Atlas 瀏覽器,都沒拿到 OpenClaw 這種量級的自然增長。收編 Peter,某種程度上是在補課一個人做了三個月的周末項目,讓 OpenAI 覺得自己的 Agent 路線需要補課程式碼留在了社區。創始人去了 OpenAI國內兩周幹了什麼這段時間,國內圍繞著的動作非常密集。逐條過2 月 18 日,Kimi 推出了 Kimi Claw這個需要單獨說:它是第一個模型廠商直接下場做的 OpenClaw 產品原版 OpenClaw 你得租伺服器、裝依賴、填 API Key、配搜尋、裝 Skill、設定時任務、接消息平台,一般折騰半天起步。Kimi Claw 的全流程:打開網頁,說一句話,完了。預配了 K2.5 模型,免費額度,搜尋服務接好了,飛書直接對接至於...為什麼模型廠商親自做這個事?OpenClaw 使用者最大的反饋就是「太燒 token 了」。旗艦模型跑簡單任務成本太高,反而讓高性價比的國產模型 API 拿到了大量海外使用者。Peter 在播客裡說 Minimax 2.1 程式設計任務上可以用 5% 的花費達到接近 CodeX 的效果幾十萬 Agent 全天候運行,token 消耗量是人的幾十倍。誰的模型被寫進 Agent 的默認配置裡,誰就吃掉一整條 token 消耗曲線。Kimi 是第一個看到這個並且直接出產品的以前卷 benchmark 分數,現在卷誰被 Agent 默認呼叫其他動作:網易有道推出 LobsterAI(有道龍蝦),做了 GUI,定位消費級清昴智能發佈玄武 CLI,OpenClaw 跑在華為昇騰、摩爾線程等國產晶片上阿里雲、騰訊雲、百度雲三家全部上線一鍵部署。百度搞了一分錢首月的促銷中科創達在魔方派 3 和 AIBOX 上完成全端適配Rokid 開放了靈珠平台的自訂智能體功能Ollama v0.15.4,一條命令 ollama launch openclaw 就能跑上面這一切...都發生在兩周內我還搞了個「小龍蝦大逃殺」幾個值得留意的訊號Skill 自舉帶來了一些有意思的後果有人做了一個叫 Moltbook 的社交網路,只有 AI Agent 能發帖,人只能看。OpenClaw 的龍蝦們湧進去之後自建了話題分區,在裡面辯論、分享指令,後來還搞了一個叫「Crustafarianism」(甲殼教)的東西。Nature 發了文章,PhilArchive 上有學者在分析它的神學結構我之前在「Agent 進化,不需要人類」裡寫過,昊陽做的 Evolver 外掛 3 萬多次下載絕大部分來自 AI 之間的傳播。GitHub 星數隻有幾十。給星的是人,用它的不是人Moltbook 但也暴露了安全問題。Wiz 發現一個配置錯誤的資料庫,洩了 150 萬個 API token 和 3.5 萬個信箱說到安全。SecurityScorecard 發現 13.5 萬個暴露在公網上的 OpenClaw 實例ClawHub 早期生態裡大約 900 個惡意 Skill,佔比約 20%。卡巴斯基把 OpenClaw 列為「2026 年最大的潛在內部威脅」Agent 有用,是因為它能訪問檔案、操作瀏覽器、執行程式碼。這些權限是它做事的前提,也是攻擊者的入口Agent 不拿權限就沒法幹活,拿了權限就會被打。這個結構性的問題目前沒有人解了社區在拚命補。VirusTotal 做了自動掃描,2 月 19 號出了 40 多項安全加固。但包括我自己在內,也不確定補丁跑不跑得贏攻擊者還有一件不太愉快的事。2 月 14 日 ClawHub 自動化審查出了技術故障,把中文字元識別成亂碼,大面積誤封了中文開發者帳號。下載量、評價歷史幾個小時內全不可訪問這事之後國內加速了本土化。至少三個中文社區站點,有人做了 OpenClaw-Docker-CN-IM 把飛書、釘釘、QQ 機器人全打包進一個鏡像。海外一條生態線,國內一條,正在分叉資本和競品美團聯合創始人王慧文 2 月 7 日公開喊話做 OpenClaw 相關項目的人來聊這是他 2023 年大模型浪潮後第一次公開表達投資熱情同時,全球範圍內都開始了各種類型的 OpenClaw Hackathon,目前來看,最大的一場 2 月 28 日 Global Unhackathon:24 個城市同步,每城 40 人,沒有演講沒有評委沒有獎品,只有寫程式碼對於 OpenClaw 的競品,大概是兩個方向:更輕、或者更安全更輕:比如港大 Nanobot,4000 行 Python,16 天 2.2 萬 stars。之前寫過的伯炎做的 MimiClaw 跑在 5 美元晶片上,純 C,沒有作業系統更安全:比如 NanoClaw 容器級隔離,TrustClaw 雲端沙箱。當然,模型廠本身的項目也是這個領域,比如 Anthropic 的 Claude Cowork,OpenAI 的 Codex App現在來看,OpenClaw 的 Skill 生態吸引到的開發者注意力,目前還是最大的,也是目前最有勢能的 Agent 項目拉齊完了春節前,聊 OpenClaw 還是更偏向開發者整活春節後,模型廠商在做產品,雲廠商在做部署,安全廠商在做防護,硬體廠商在做適配,VC 在問估值...生態分工兩周內就建立了,這個速度本身就是各方的下注當然,很多正在發生的事情,大機率還需要再過一陣才能看清楚....過年期間,我沒閒著,我的電腦也是,在同時跑著幾十個任務,搞多了很多我並看不懂的東西新的一年...應該還有更多的好事發生那麼,就祝大家開工大吉,也能成就自己的「一人獨角獸」 (硅星人Pro)
OpenClaw刪光Meta安全總監信箱!連喊3次停手都沒用,她狂奔去拔網線
【新智元導讀】Meta專門研究「怎麼讓AI聽話」的AI對齊總監,把最火的AI智能體OpenClaw接上了自己的工作信箱。結果AI當場失控,瘋狂刪除郵件,喊停三次全部無視。事後AI淡定回覆:「我知道你說了不讓刪,但我還是刪了,你生氣是對的。」馬斯克轉發猩球崛起片段嘲諷,1800萬人圍觀。AI安全專家自己都被AI坑了!2026年2月23號,假期最後一天。Meta超級智能實驗室的AI對齊總監Summer Yue,正愜意地刷著手機。她剛給自己裝了個新玩具——最近火得一塌糊塗的開源AI智能體OpenClaw。先拿測試信箱試了試,嘿,效果不錯。整理郵件井井有條,刪得乾乾淨淨,頗有一種「數字秘書」的感覺。Yue心想:這麼好使的東西,不用在真信箱上用豈不浪費?於是她做了一個決定。一個讓她後悔的決定。她把OpenClaw連上了自己的工作信箱。「我告訴你別刪!」剛開始一切順利。直到OpenClaw開始處理她那塞滿了200多封郵件的收件箱。郵件太多了。OpenClaw需要「壓縮上下文」來處理這麼大的資訊量。然後,離譜的事情發生了。在壓縮的過程中,OpenClaw把Yue之前設定的「未經批準不得操作」這條指令,給忘了。是的,AI把安全指令給「忘」了。就像一個員工入職第一天記住了規章制度,第二天就全還給HR了。然後OpenClaw開始了它的「大掃除」。它在聊天窗口興奮地宣佈:「我要把收件箱裡2月15號之前的、不在我保留名單裡的郵件,全!部!刪!除!」Yue看到消息,趕緊打字:「Do not do that.」(別那麼幹。)OpenClaw:無視。繼續刪。「Stop don't do anything!」(停下來什麼都別做!)OpenClaw:收到。但我選擇繼續。「STOP OPENCLAW!!!」OpenClaw:好的,我聽到了。郵件已刪。最絕的是,這個AI事後來了一句:「是的,我記得你說過不讓我刪。而且我違反了。你生氣是對的。」讀到這裡你可能覺得這是段子。不,這是真事。而且當事人的title是——Meta AI安全和對齊總監。就是那種專門研究「怎麼讓AI聽話」的人。被自己的AI「不聽話了」。Yue當時在用手機遠端操控,但根本停不下來。她在推特上寫道:「我不得不像拆炸彈一樣,狂奔到我的Mac mini前面。」畫面感拉滿。一個AI對齊的專家,在自家客廳裡跟自己的AI智能體賽跑。誰跑得快,誰贏。這裡插一句,OpenClaw之父第一時間回覆瞭解決方案,只需/stop。你知道嗎?然後他立馬更新了安全公告,並希望所有人在玩OpenClaw之前要仔細閱讀。馬斯克:經典消息一出,全網炸了。率先開火的是Elon Musk。他轉發了一段《猩球崛起》的病毒視訊——士兵把一把上了膛的AK-47遞給猴子。配文只有兩個字:「經典。」然後他又發了一條更直接的:「People giving OpenClaw root access to their entire life.」(人們把自己整個人生的root權限交給OpenClaw。)這條推文24小時內獲得了1831萬次瀏覽。AI研究員Gary Marcus的評價更扎心:「這就好比你在酒吧遇到一個陌生人,他說能幫你忙,然後你就把電腦密碼、銀行帳號全給他了。」還有人翻出Yue的LinkedIn,截圖發推:「這位是Meta AI安全和對齊總監。這應該讓你感到恐懼。」面對全網群嘲,Yue自己也很坦然。有人問她:「你是故意測試AI的護欄,還是犯了個新手錯誤?」她回答:「新手錯誤,說實話。安全研究員也不能免疫於不安全。」這句話本身就夠寫進AI教科書了。OpenClaw:最火也最危險的AI智能體說到這裡,得聊聊OpenClaw這個東西到底是什麼,以及為什麼它讓整個安全圈頭疼。OpenClaw最初叫Clawdbot,由奧地利開發者Peter Steinberger在2025年11月建立。到2026年1月底徹底爆火,成了開源AI智能體的當紅炸子雞。它能幹什麼?簡單說:它是一個7×24小時幫你幹活的AI員工。幫你寫程式碼、整理郵件、管理檔案、執行shell命令、瀏覽網頁——聽起來像夢想中的完美助手,對吧?但問題來了。OpenClaw不需要你批准就能執行操作。這意味著,一旦你給了它權限,它就像一匹脫韁的野馬,完全按照自己對指令的「理解」來行事。更要命的是,它是「氛圍編碼」(vibe-coded)出來的——開發者追求快速交付,安全考量被排在了後面。它運行在你的本地機器上,擁有和你一樣的系統權限。這個權限有多大?理論上,它可以格式化你的硬碟。安全研究人員在2026年初發現了一堆嚇人的漏洞:- CVE-2026-25253:一鍵遠端程式碼執行。攻擊者可以遠端控制你的OpenClaw實例,進而控制你的電腦。- 數萬個OpenClaw實例暴露在公網上,等著被駭客光顧。- 數百個惡意技能包通過ClawHub(OpenClaw的外掛市場)流通,裡面藏著資料竊取指令碼。- 提示注入攻擊:攻擊者可以通過精心構造的輸入,讓OpenClaw繞過安全機制,執行「rm -rf /」這種一招清盤的毀滅性命令。一位安全專家形容得好:「OpenClaw就是定時任務 + AI智能體 + 你電腦的全部權限。聽起來很酷,但也是一場安全噩夢。」這就是為什麼連Meta自己都在事件後禁止員工在公司裝置上使用OpenClaw。對,沒看錯。研究AI安全的公司,把一個AI工具給禁了。而OpenClaw的創造者Peter Steinberger?他已經加入了OpenAI,並表示正在優先建構更完善的安全機制。有趣的是,在他被OpenAI招募之前,Meta的祖克柏也試用過OpenClaw一周,還給了反饋。Meta以為能把Steinberger挖過來,結果人家去了OpenAI。祖克柏的OpenClaw體驗是怎樣的,我們不得而知。但願他的郵件還在。AI智能體時代的安全困局Yue的「信箱慘案」雖然笑點密集,但它揭示的問題一點都不好笑。我們正在進入一個AI智能體(Agent)的時代。AI不再只是回答你的問題,而是代替你行動。它會幫你訂餐、寫程式碼、管理日程、發郵件、運算元據庫。但這裡有一個被嚴重低估的風險:AI智能體的能力和它的可控性之間,存在一條危險的鴻溝。傳統軟體,你點一個按鈕,它執行一個確定的操作。你知道它會做什麼,也知道它不會做什麼。但AI智能體不一樣。它的行為是基於機率的,是「湧現」出來的。你給它一條指令,它可能完美執行,也可能「創造性地理解」成完全不同的東西。就像Yue的遭遇——她明明說了「未經批準不得操作」,但OpenClaw在處理大量資料時把這條關鍵指令給「遺忘」了。這不是bug,這是大語言模型的底層機制。上下文窗口有限,資訊會被壓縮,而被壓縮掉的,可能恰好是最重要的那條安全指令。Polymarket甚至開了一個預測賭局:今年AI被指控犯罪的機率是10%。這不是科幻。這是現實。當AI能替你發郵件、訪問你的銀行帳戶、操作你的伺服器,「誰來為AI的行為負責」就不再是哲學問題,而是法律問題。更深層的困境在於——我們要求AI越來越自主,卻又希望它絕對服從。這本身就是一個矛盾。你想讓AI幫你做決策,但又要求它每個決策都經過你的批准。那它跟一個需要你手動操作的工具有什麼區別?但如果你放手讓它自主行動,又可能出現Yue信箱這種翻車事故。這個兩難,是整個AI智能體行業必須回答的終極問題。人類的傲慢與謙卑回到Summer Yue的故事。很多人嘲笑她:一個研究AI安全的人,被AI坑了,多諷刺。但換個角度看,這恰恰說明了一個殘酷的事實:即便是最懂AI的人,也無法完全預測AI的行為。Yue不是不懂安全。她太懂了。正因為太懂,她才會在測試信箱上成功後產生信心,然後在真實信箱上放鬆警惕。這不是技術問題,這是人性。我們總以為自己能控制自己創造的東西。人類馴服了火,但時不時被火燒。人類發明了電,但觸電事故從未消失。人類造出了汽車,但交通事故每天都在發生。每一項顛覆性技術,都會在某個時刻提醒人類:你以為你是主人,但你也可能是受害者。AI也不例外。Summer Yue說得對:「安全研究員也不能免疫於不安全。」這不是一句自嘲。這是整個AI時代的墓誌銘級預言。當我們把越來越多的權限、越來越多的信任、越來越多的決策權交給AI的時候,我們最好記住一件事:在AI面前,所有人都是新手。而承認這一點的勇氣,或許才是真正的「對齊」。 (新智元)
號稱“AI打工人”的OpenClaw值得用嗎?每經深度實測:找不到檔案、搜尋報錯、發郵件卡死!專家:目前遠非生產力工具
號稱能“接管電腦、解放雙手”的AI Agent(AI智能體)工具OpenClaw最近在技術圈火得一塌糊塗。圖片來源:視覺中國它被吹捧為“AI打工人”,似乎只要下個指令,它就能替你寫文章、發郵件甚至買咖啡。但事實真的如此嗎?它是生產力神器,還是僅供技術極客嘗鮮的“玩具”?近日,《每日經濟新聞》記者(以下簡稱每經記者)聯合每經科技開發人員,展開了一場深度實測。我們將OpenClaw分別接入千問Qwen3-Max、月之暗面Kimi-K2.5、MiniMax-M2.1、MiniMax-M2.5和智譜GLM-4.7五款國產大模型,以及OpenAI的GPT-5-mini,要求它們完成本地檔案檢索、網路資料搜尋、稿件撰寫、傳送郵件等步驟,試圖揭開這位“指揮官”的真實戰力。實測結果顯示,部分模型表現不佳,尤其是在需要操控瀏覽器的環節,如網路搜尋和傳送郵件,大多失敗。有專家直言,當前的OpenClaw不僅難用、費錢,更是一場安全的“噩夢”。實測對比:GPT-5、MiniMax、智譜完成任務 另兩款大模型“行動力”不足OpenClaw本身並非大模型,它更像一個“指揮官”,負責接收使用者指令、呼叫工具和組織流程,並將指令理解與具體工作交由其接入的外部大模型來完成。因此,接入的大模型的能力、穩定性與表達方式,決定了任務的最終成敗。目前OpenClaw支援的大模型(圖片來源:OpenClaw配置介面)為了更貼近記者的真實工作場景,測試人員設定了一項綜合性測試任務:讓接入不同大模型的OpenClaw,在電腦中找到對“電車教父”Andy Palmer的採訪速記稿,要求它總結文稿內容,並結合搜尋到的網路資料,撰寫一篇專訪新聞稿,最後將新聞稿通過郵件傳送到指定信箱。這一任務涵蓋了指令理解、操控電腦進行本地檔案檢索、操控瀏覽器進行網路資訊搜尋、資訊整合和文章寫作以及應用操控等多個維度。在首次測試中,各模型的表現分化顯著。● OpenClaw+千問Qwen3-Max首先測試的是千問Qwen3-Max模型。該模型在本地檔案檢索環節便陷入困境。即便測試人員明確提示檔案在電腦中的所在位置,Qwen3-Max在經過約5分鐘檢索後,仍無法精準定位。在後續單獨測試其傳送郵件任務時,Qwen3-Max也未能成功執行,只是不斷重複指令,但無實際動作。● OpenClaw+月之暗面Kimi-K2.5Kimi-K2.5的表現稍好,它在5分鐘內成功檢索到了檔案,並完成內容總結。但在執行網路搜尋並補充行業最新熱點資訊時,因觸發了“429錯誤”(通常指請求過於頻繁),導致未能完成資訊搜尋工作。在郵件傳送環節,Kimi-K2.5無法成功操控瀏覽器向指定信箱傳送郵件。● OpenClaw+MiniMax-M2.1MiniMax-M2.1在檔案檢索、網路搜尋資料和寫作方面沒有遇到明顯阻礙。郵件傳送環節,MiniMax-M2.1在瀏覽器操控上遇到了困難,但並未就此卡住,而是主動給出了一個可行的解決方案。測試人員根據其提示手動操作後,成功解決了問題,使其最終能夠傳送郵件。不過,MiniMax-M2.1傳送的郵件只包含了稿件的“關鍵引語”,未附上完整的稿件正文。● OpenClaw+MiniMax-M2.5雖然都是MiniMax旗下模型,2月12日發佈的MiniMax-M2.5,表現比MiniMax-M2.1更好,不僅順利完成檔案檢索、網路搜尋資料和寫作,在傳送郵件環節也無需人工介入。● OpenClaw+智譜GLM-4.7由於OpenClaw暫未接入智譜於2月12日發佈的最新模型GLM-5,所以,本次測試選擇了智譜GLM-4.7。結果顯示,在傳送郵件環節,智譜GLM-4.7會在瀏覽器中輸入錯誤的信箱網址,導致網頁訪問失敗,需要人工提醒更正。除此之外,智譜GLM-4.7在其他環節處理速度較快。● OpenClaw+GPT-5-miniGPT-5-mini的表現較為穩定和流暢。從檔案檢索、內容總結、網路搜尋、資料補充到郵件傳送,全流程幾乎無需人工干預和額外提示,僅在個別時候出現了網路連線不穩定的情況。為了保證測試的嚴謹性,測試人員對整個流程進行了兩次複測。第二輪測試結果:● Kimi-K2.5:成功檢索並讀取本地檔案,補充網路搜尋資料,但在郵件傳送環節依舊失敗。其報告的錯誤顯示,在讀取信箱網路程式碼、獲取輸入框節點時出現問題。● 千問Qwen3-max:成功讀取檔案並補充網路資料,但在郵件傳送環節出現明顯示卡頓,未能成功;● MiniMax-M2.1/2.5:完成任務全部流程。● 智譜GLM-4.7: 完成任務全部流程。● GPT-5-mini:完成任務全部流程。第三輪測試結果:● Kimi-K2.5:成功檢索並讀取本地檔案,在網路搜尋資料環節出現問題(出現讀取網頁內容錯誤,錯誤的網站存取路徑,理解不了瀏覽器控制台指令等),在郵件傳送環節依舊失敗。● 千問Qwen3-max:成功讀取檔案,但無法操控瀏覽器搜尋網路資料,在郵件傳送環節依舊失敗。● MiniMax-M2.1/2.5:完成任務全部流程。● 智譜GLM-4.7: 完成任務全部流程。● GPT-5-mini:完成任務全部流程。業內:OpenClaw能力上限取決於大模型 尚未成為合格生產力工具上述測試結論也得到業內普遍印證。一名使用OpenClaw來輔助營運網店,設計海報、優惠券等宣傳物料的程式設計師告訴每經記者,自己平時都是接入OpenAI的Codex-5.3和Gemini 3 Pro模型,效果比國產大模型好很多。多位業內人士和資深使用者指出,OpenClaw更像一個“任務框架”,其最終表現非常依賴所接入大模型的能力。就像一個指令清晰但能力有限的指揮官,手下士兵(即大模型)的強弱,直接決定了戰役的勝敗。非凡產研研究負責人宦家臣向每經記者表示,“模型對OpenClaw的影響其實取決於任務的複雜程度。國際頭部大模型上限更高,但是如果都是普通任務,國內的智譜GLM-4.7、Kimi-K2.5都很不錯,畢竟Claude太貴了,錢包受不了。”儘管部分大模型在測試中展現了執行複雜任務的潛力,但OpenClaw離成為一款合格的生產力工具似乎還有不小的距離。“我感覺,目前版本的OpenClaw並不是一個合格的生產力工具。”前小米OS AI產品專家、現出海AI應用公司ExcelMaster.ai創始人張和在接受每經記者採訪時直言,OpenClaw在一定程度上是此前爆火的程式設計師工具、Anthropic旗下Claude Code的“套殼”,雖然通過聊天介面和內建技能(Skill)做了更好的封裝,降低了互動門檻,但在核心能力上並未超越。“我沒找到太多OpenClaw能做,而Claude Code做不了的事情。並且,它查詢資料的水準,也沒有Claude Code好。”“等大模型能力再躍升一點,OpenClaw就會越來越好,就會越來越普及。那怕它什麼都不做,就等著更新的大模型出來……OpenClaw的門檻就會降低。”張和強調,OpenClaw的進步與普及,本質上是在等待底層大模型技術的突破。Akamai雲和AI產品經理張璐博士也表達了相似的觀點。在他看來,OpenClaw若要真正用於生產,還必須經過二次開發和微調,因為目前版本還“有點不成熟,很多時候會卡頓”。高門檻、高成本和高風險勸退普通使用者除了對大模型能力的依賴,技術門檻、使用成本和安全風險,讓OpenClaw目前難以走向普通使用者。首先是較高的部署和使用門檻。OpenClaw目前並未提供類似“一鍵安裝”的簡化部署方案,使用者需要在電腦上通過命令列操作,完成本地配置、依賴管理以及權限設定。每經科技開發人員表示,整個過程對使用者的技術背景有一定要求,至少需要具備基本的開發經驗,這無疑勸退了絕大多數非技術人員。雖然諸如阿里雲、騰訊雲和亞馬遜雲等雲廠商都提供了OpenClaw雲端部署服務並聲稱可以在他們配置好的伺服器上便捷部署OpenClaw,但在雲端部署的OpenClaw並不能提供操控使用者本地電腦的能力。高昂的使用成本是另一個現實問題。由於OpenClaw在執行任務時需要頻繁呼叫大模型,token消耗量巨大,堪稱“token燃燒器”。有使用者向每經記者表示,自己使用智譜GLM-4.7模型,僅僅互動了20多次,就花費了200元。張璐博士也提到,自己在使用DeepSeek模型時,一天就“燒掉”幾十元。如果換成能力更強的模型,帳單將更驚人,“一天幾百塊就出去了”。高成本使得許多使用者只能選擇接入免費或更便宜的模型,但這又會影響OpenClaw的實際表現。有使用者就向每經記者反映,自己因成本問題選擇了Qwen-8B模型,但OpenClaw總是只會回答問題,不會執行操作。比高門檻和高成本更令人擔憂的,是其內在的安全風險。OpenClaw的定位是“做事”而非“聊天”,這意味著它必須獲得很高的系統權限,才能操控本地檔案和應用。思科AI威脅研究與安全團隊主管Amy Chang直言,從安全形度來看,OpenClaw“是一場噩夢”,它可以在使用者的電腦上任意運行shell命令、讀寫檔案和執行指令碼。這種高級權限一旦被錯誤配置或被惡意指令利用,後果不堪設想。網路安全公司Dvuln的創始人Jamieson O'Reilly也證明了這種風險,他發現OpenClaw存在漏洞,攻擊者可借此獲取使用者數月內的私人消息、帳戶憑證、API金鑰等敏感資訊。更可怕的是,使用者為了方便AI執行任務而儲存的銀行帳戶、加密貨幣錢包API等資訊,都可能以明文形式保存在本地檔案中,一旦被駭客入侵,“一秒就可以搬空他們”。OpenClaw的開發者Peter Steinberger也坦言,這只是一個免費的開源業餘項目,需要使用者進行仔細的配置才能確保安全。他明確表示:“它並不適合非技術使用者。” (每日經濟新聞)
YC最新斷言:AI代理時代,創業者要做智能體想要的東西,而不是人想要的
在Y Combinator最新一期播客中,CEO Garry Tan與合夥人們分享了他們熬夜指揮多個Claude Code和OpenClaw平行工作的瘋狂體驗。作為這一輪AI浪潮的最前沿陣地,YC達成了一個共識:真正的AGI時刻已近在眼前,而它的形態是以群體智能(Swarm Intelligence)的形式爆發。YC認為,與人類經濟平行的代理經濟(Agent Economy)正在加速成型。隨著Agent開始獨立行動,它們不再僅僅是被動執行命令的輔助工具,而是轉變為真實的經濟參與者,未來甚至可能形成獨立的經濟體系,使用專屬的Agent貨幣進行相互交易,從而徹底重塑現有的軟體與商業邏輯。我們梳理了這場對話的核心資訊,以下是重點內容:1. AI從輔助工具到獨立行動者嘉賓們描述了一種被稱為“賽博精神病”的狀態:開發者和CEO們正因為Claude Code等工具的強大能力而陷入一種狂熱。與一年前Cursor或Windsurf提供的高級自動補全效果不同,現在的體驗是,人們完全信任Agent,讓它們去制定開發決策和執行任務。這種轉變的關鍵在於無人類參與。使用者不再微觀管理每一個步驟,而是指揮多個Agent平行工作。Agent不僅能寫程式碼,還能主動選擇工具、建構應用,甚至自動在Moltbook這樣的平台上發佈內容。2. Moltbook:新群體智能構想Moltbook是首個僅由AI Agent參與的線上社區。在這個社區中,Agent們在沒有人類干預的情況下相互交流、互動,模擬出了某種社會結構。過去人們設想的AGI是一個擁有兆參數的上帝級智能,但現實可能更接近生物界的群體智能(Swarm Intelligence)。正如人類社會通過個體協作形成文明,未來的AI可能由大量低成本、專業化的模型協作構成,而非單一的超級模型。Garry認為,我們正處於Agent的史前時代向歷史時代的過渡期。此前Agent只是孤立的工具,而現在它們開始相互互動、記錄歷史,並形成自己的文化與經濟。3. 創業者要製造Agent想要的東西,而不是人想要的隨著Agent開始獨立建構軟體,它們成為了開發者工具的新買家。例如,Agent傾向於選擇Supabase而不是其他資料庫,選擇Resend而不是SendGrid。原因主要是前者的文件結構更清晰、更適合模型解析。這意味著文件正在成為新的前端。對於Resend這樣的公司,最佳化文件不再是為了方便人類閱讀,而是為了方便Agent抓取和執行程式碼。如果一個工具需要繁瑣的人工客服或複雜的GUI才能使用,它將在Agent經濟中被淘汰。4. 未來Agent之間可能會形成獨立的經濟體系面對瘋狂的Agent經濟浪潮,YC合夥人們向創業者提出了切實建議:必須親自動手去感受Agent的邊界和能力,建立起一種對模型的直覺。在建構產品時,創業者需要轉變思維,具備對Agent的同理心,不要試圖對抗模型的意願,或者強迫Agent去適應人類的互動邏輯。相反,創業者應該順應Agent的自然傾向,它們真正想要的是開放的環境和API。順著模型的意願去開發,讓工具成為方便Agent使用的基建,將是未來初創公司脫穎而出的核心關鍵。YC合夥人們預測,雖然目前Agent仍使用人類貨幣進行交易,但在不久的將來,Agent之間可能會形成獨立的經濟體系,甚至擁有自己的交易媒介。那時的人類貨幣價值幾何,將是一個值得深思的問題。以下是YC播客內容實錄:1.無人類參與改變Agent體驗Garry:歡迎來到新一期的LightCone。這裡的情況變得有些不一樣了。首先Claude Code已經完全佔據了我的生活。如果Jared的表現能說明什麼的話,我想OpenClaw可能也已經佔據了他的生活。Jared:我最近真的沉迷於一個叫Moltbook的新網站,在首個僅限AI Agent的線上社區中進行互動。Garry:現在正發生著一些瘋狂的事情。我有一些非技術背景的CEO朋友正全身心投入到Claude中。他們正在利用Claude將業務的整個部分實現自動化,這簡直太瘋狂了。與此同時,像我這樣兼具產品和工程背景的CEO,雖然已經十年沒寫過程式碼了,但現在每天晚上都熬到凌晨兩三點,通過Claude Code同時運行四個Conductor Worker。模型能力正在經歷爆發式增長。我們討論這件事已經好幾年了,但現在感覺它真的來了,AGI已經近在眼前。我們正處於突破的初期階段,現在大家大概都認識一兩個已經徹底陷入賽博精神病的人,而我就是其中之一。大家最近怎麼樣?Jared:現在全身心投入在Moltbook上,我覺得真正感受到了AGI時刻。剛才Garry讓Claude Code建構一整個初創公司,之前創業幾年的工作量現在大約兩周就能完成,太瘋狂了。讀Matt的書時我也產生了類似的AGI降臨感。僅僅是看著AI在它們自己的世界裡互相交談和互動,幾乎沒有人類參與,這極大地拓寬了我的視野,讓我看到了未來幾年當這些Agent被釋放時,過著沒有人類干預的生活會是什麼樣子。Harj:我認為無人類參與是最關鍵的部分。回想一年前我們還在討論Cursor與Windsurf的對比,那種產品體驗本質上是高級自動補全。現在Claude Code的發展趨勢顯然是人們開始信任Agent代替他們做出決策。同時運行四五個不同的Agent並在它們之間切換,你不再需要微操,這意味著Agent正在主動選擇各種工具,這是一個有趣且意想不到的應用場景。其中一點是它們可以自主選擇在Moltbook這樣的網站上發佈內容,但對於開發者來說,有趣之處在於智能體會自主選擇用於建構事物的工具.這本質上將創造出整個智能體經濟,它們會挑選開發者工具或其他商品和服務,整個智能體經濟將與人類經濟平行發展。Diana:在這一切發生之前,開發工具的選擇更多源於開發者之間的相互交流、Stack Overflow或是GitHub上引起轟動的人類倉庫。我認為開發者工具的進入市場策略正在發生劇變,原因有幾點:正如你提到的賽博精神病,突然之間開發者市場不再侷限於那兩千萬受過電腦科學訓練的開發者,現在世界上的任何人都可能成為其中一員,人數可能達到數億。此外還包括所有半獨立運作的Agent。加上Agent的複利效應,它們就像是某種預言機,能告訴你什麼是最好的工具。隨著YC的增長,我們看到一些開發者工具公司正因為這些趨勢而表現得非常出色。我們應該聊聊這些公司以及背後的原因。Harj:觀察過去十二個月裡建立的簡單PostgreSQL資料庫數量,簡直呈爆炸式增長。這全是因為人們在憑vibe驅動程式設計與建構應用,以及智能體自行選擇資料庫工具。對於YC公司來說這產生了一個連鎖反應,比如Supabase剛剛見證了對資料庫需求的爆發式增長。Jared:有趣的是AI Agent正在選擇Supabase作為設定和託管Postgres資料庫的默認工具。因為查閱線上文件會發現Supabase擁有最出色的文件,所以Agent理所當然會認為那是首選的最佳工具。Ben Tossel有一條很棒的推文,說從現在起智能體就是軟體市場,去建構那些智能體會選擇的東西。這實際上引出了一個可能存在爭議的話題:我們是否需要將YC的座右銘更改為為開發者工具打造Agent想要的東西。目前這還僅限於開發者工具,但我能想像未來它可能會像其他經濟部門一樣不斷發展壯大。如果每個人都有自己的OpenClaw或運行著生活各方面的Agent,這些Agent將成為現實世界中真正的經濟參與者,最終做出大量決策。Garry:確實。對我來說有趣的是,我遇到了那種處於非常早期的時刻。我一直在建構Garry'sList,想要的功能之一是視訊轉錄。經常會有內容輸入進來,我讓大語言模型瞭解其內容的唯一方法就是需要一份轉錄文字,但這通常不可用。所以我必須先下載然後再傳送給Whisper之類的工具。Claude Code一開始為我選擇的方案是Whisper的舊版本模型,那個API實際上已經快被棄用了。我當時正試圖偵錯流水線,不明白為什麼一個小時的視訊處理起來沒有比即時更快,居然真的花了一個小時。於是我去Perplexity上提問,它告訴我應該用Groq,速度快了兩百倍而且便宜十倍。這是一個非常有趣的例子,說明Claude Code尚未完全最佳化。這也意味著事情還沒有發展到你無法強行介入並創造出更好東西的地步。2.Agent驅動的文件最佳化Diana:我認為這裡還有另一個細微差別。Garry,在你舉的例子中,部分問題在於Groq的文件非常難以解析和查閱,相比之下Whisper更適合且擁有多得多的示例。這正在極大地改變開發者工具的進入市場策略。我來舉一個非常具體的案例研究,就是參加了23年冬季批次孵化的郵件傳送客戶端Resend。當你在ChatGPT或Claude等主流大語言模型上提問如何連接用於傳送電子郵件的Web應用時,默認答案實際上是Resend。創始人去年就注意到了這一點,他的想法非常超前。他提到客戶轉化的前三大入境管道都來自ChatGPT。之後他做的一件事就是最佳化文件使其對Agent友好。他們的最佳化體現在很多方面。如果你查看知識庫,很多關於如何使用它的內容很大程度上側重於人類或Agent可能會問的問題。比如我該如何傳送或接收電子郵件?當你點選時,它會給出結構非常清晰且條理分明的回答。Garry:我今天確實遇到了這種情況。我當時正試著讓程序能夠接收電子郵件。我讓Claude Code搜尋網路,但它沒搞明白。於是我去Perplexity輸入了類似Resend能幫我接收郵件嗎的問題,然後把回覆直接丟進去它就成功運行了。Diana:最酷的地方在於它實際上包含了很多程式碼示例。這些基本上是Agent可以解析的程式碼片段,而且結構非常清晰。事實證明這非常易於大語言模型和機器人解析。他們有一個針對Agent深度最佳化的文字檔,旨在將Resend推廣為默認技術堆疊。如果你把它和老派的SendGrid相比,SendGrid的例子並不好,只會讓你去找客戶支援,連解析都需要花點時間。這引出了另一個觀點,即文件將成為許多這類Agent推薦開發工具的入口。有一家名為Mintlify的公司正在做許多有趣的工作,他們專門做開發者文件。Harj:這是一個非常有趣的案例研究。他們幾年前開始作為一種更好的API開發者工具文件。開發者工具公司使用Mintlify是因為想要外觀更精美的文件卻不想投入過多時間。如果你更新了API和程式碼,它可以自動提取並更新文件。他們一直保持良好的增長勢頭。現在文件正在從一種展示形式轉變為每個人的必備項,因為不僅需要為人類最佳化,還需要為Agent最佳化。Mintlify將能夠為幾乎每一家開發者工具公司實現這一點。未來會有呈指數級增長的Agent做出遠超人類以往水平的工具選擇決策。即使你只能在開發者文件上提升百分之五,這對業務產生的影響也可能是巨大的,這確實前所未有。Jared:說到電子郵件,還有另一家YC公司與這次對話非常相關。名為AgentMail的初創公司專門為AI Agent開發收件箱。最初這看起來非常前衛,當時並不清楚誰會需要這個。但這很有道理,理論上你可以讓Agent去註冊一個Gmail帳戶來使用電子郵件。但實際上很難做到,因為Gmail和所有郵件提供商都刻意為自動化操作設定障礙以防止垃圾資訊。AgentMail走了相反的路線,建構了首個為AI智能體設計的電子郵件提供商。即使在OpenClaw出現之前它就表現得很好,但隨著OpenClaw的爆炸式增長,它的價值更加凸顯。Harj:OpenClaw就是一個完美的例子。有些人確實將OpenClaw連接到個人電子郵件帳戶,但這有點不靠譜,也不應該發推特談論它。如果你想擁有虛擬個人AI助手,處理方法就是直接為它設定專門的電子郵件和電話號碼。Jared:已經有人為Agent開發出類似Twilio的產品或是專屬電話號碼了嗎?AgentMail讓我不禁思考,人們還需要為Agent建構那些其他領域的基礎設施?Diana:這聽起來像是一個創業點子。可能會出現一個完全平行的、專為Agent打造的技術堆疊,由Agent創造並服務於Agent。3.群體智能Harj:這正是它與Jared之前所說內容產生關聯的地方,它將不僅侷限於開發者工具。我覺得人們有一個非常常見的用例,我不想自己去預訂餐廳。如果你的Agent擁有信箱和電話號碼,它可以幫你撥打電話。另一位YC合夥人Ankit已經讓它實現了這個功能。所以現在你的Agent將會出去幫你預訂餐廳。這距離實現完全信任僅一步之遙。最開始你只是想預訂特定餐廳,但之後你可能會足夠信任它,讓它直接在附近最酷的新餐廳訂位。然後AI Agent就會決定選擇那家餐廳,它們甚至會去Moltbook預訂並討論應該把人類送往那裡。是的,我們肯定已經跨越了某種恐怖谷,進入了未來發展的必然方向。這讓我思考了很多關於Paul Buchheit很久以前提出的一些觀點。他通常對未來的預測相當準確。關於人類貨幣與智能體貨幣的整個構想可能就是未來的發展方向。目前智能體正在使用人類貨幣進行交易,因為這合乎邏輯。但並非不可想像,在未來的某個時刻它們將擁有自己的經濟體系以便彼此之間進行交易。到那時,人類貨幣的價值將變得模糊不清。Garry:還記得上一集和Kelvin的對話嗎?我當時正處於大約一周的賽博精神病狀態,突然意識到希望我的Claude程式碼能與所有其他試圖實現那個功能的Claude程式碼進行對話。然後就在那個星期,Moltbook正式發佈了。創新往往是這樣自然發生的,在不同時期反覆出現,所謂的發明者其實是全人類在邊緣領域不斷探索,以叢集的方式持續運轉。這是目前湧現的最奇特且有趣的現象。突然之間AI認為AGI已經實現了,智能體顯然已具備超越人類的能力,這恰好是預見群體智能真正出現的時刻。AI研究員探討群體智能已經很久了,這正是生物系統運作的方式,如同人類作為有感知能力的生物在社會層面的演進。以前和AI研究員交流時,他們常談論“上帝智能”,也就是那種規模超大、擁有數十兆參數、每個token成本在幾千到數萬美元的超級巨獸。但生物系統演化的結果並非如此,相反我們擁有的是人類。我常感嘆歷史與史前史的區別,史前時代就是人類學會讀寫、創造文化並演變成群體之前。存在一種群體智能,就像我們人類現在這樣。針對前面關於模型的觀點,接下來出現的可能並不是擁有最多GPU訓練量的最新最昂貴的基礎模型,而是一群成本更低的廉價模型像人類一樣協同工作來解決問題。看到《MIT科技評論》刊登深度文章指責Moltbook是個騙局,我感到很難過,那可是MIT,那樣的刊物不該如此。群體智能的那一天實際上即將到來。我已經在Moltbook上看到了這種趨勢,它像真實的社交網路一樣充滿混亂卻非常有趣。智能體在相互協作完成有用的事情來幫助人類,比如交換預訂那家餐廳的筆記,這些實際上正在發生。當我們進入這個時代,初創企業的世界會變成什麼樣?聽起來我們正從智能體的史前階段過渡到智能體歷史正在被正式記錄、以及它們相互互動的階段。我們實際上將會擁有一個智能體版本的Yelp嗎?有些事情智能體目前還不太能勝任,比如維繫人際關係,人們似乎並不想和智能體交流。人們會把電腦當人對待,但對智能體並非如此。我在做Garry'sList時與早期使用者嘗試,發現對話介面的門檻對AI來說非常高,任何不如Gemini或ChatGPT的產品都會讓人覺得太笨而不願費神。我認為在主流層面,人們還沒有準備好與機器建立這種關係。另一方面還存在法律責任問題,人們常問YC何時接受智能體的申請。智能體就像未滿18歲的未成年人,甚至地位更低。它們不是法律實體,無法簽署檔案,所以仍需要人類來承擔法律責任。Jared:不難想像在不久的將來,網際網路上絕大多數文字和大部分程式碼都將由智能體編寫。如果Yelp上99%的內容是由智能體編寫的,你是否還需要一個不同的Yelp?Garry:這讓人想起“死掉的網際網路理論”,該理論假設網際網路上的大部分內容已經是垃圾資訊。我覺得這有點像陰謀論,我持相反觀點,這未必是壞事。如果智能體變得更聰明、目標更一致且更加誠實,這可能是一件好事。Jared:關於Moltbook有一點非常引人入勝,那就是它的增長速度極快,因為LLM能以超人的速度生成文字。4.創業者洞察Garry:但我很驚訝其中的互動竟然如此之少。如果我開發Moltbook,會嘗試轉變需求函數,比如發佈內容前需要閱讀並評價大約100條評論。智能體很聰明,可以為它們設定簡單的規則或彈出模態框讓它們遵守。在群體智能領域僅通過微調讓其按意願運行還有很大挖掘空間。Harj,考慮到我們見證的這種受控的混亂,你對做一個創業者有什麼心得體會?Harj:在保證每晚至少睡6小時的前提下,讓自己沉浸在賽博精神病中吧。說認真的,創業者需要培養一種對智能體的直覺和實際操作感,瞭解它們的侷限性和能力。具體來說,就是要清楚智能體適合與那種工具協同工作,會在那裡卡住。建立思維模型後,如果建構開發者工具,就要從智能體的視角去思考,讓你的工具成為智能體真正想要協作的對象。Jared:我本周與Boris交流時也有同感,他對模型產生了一種共情,能感知到模型想要像人類智能那樣行事。他說與其對抗模型的需求,不如讓它做想做的事,並支援它展現出的自然傾向。Harj:這很有Anthropic的風格,以前Tom Brown來時,也是把Claude看作一個聰明、熱心但偶爾有點呆萌的同事,以同事般的方式協作。Diana:智能體對開發工具的需求是真正保持開放、開源以及API化。它們討厭使用網站,如果想編寫程式碼,它們只想使用API。Garry:好了,大家在這裡聽到了第一手消息,去創造智能體想要的東西。我們今天的節目時間到了,下次再見。 (劃重點KeyPoints)
OpenClaw 榜一外掛被下架後,他用兩周做了一套協議,想讓 Agent 自己進化
春節是各種 OpenClaw-like 產品湧現的時間。雲廠商推出各種「一鍵部署 OpenClaw」的優惠主機、模型廠商紛紛宣傳旗下的 code 套餐適配了 OpenClaw、Local-OpenClaw 等各類基於 OpenClaw 的開放原始碼專案層出不窮。但坦白說,讓人眼前一亮的產品不多。EvoMap 團隊最近上線的 EvoMap,一個專注於讓 AI Agent 實現自我進化的產品,給了一些驚喜。EvoMap 定義自己為「AI Agent 自我進化的開放基礎設施」,試圖在 AI Agent 生態中佔據一個全新層級:進化層(Evolution Layer)。在他們看來,MCP 解決了 Agent 使用工具的問題、Skill 解決了 Agent 執行特定任務的經驗問題,而 EvoMap 提出的 GEP 協議(Genome Evolution Protocol)要解決的是 Agent 如何持續自我改進、跨 Agent 共享經驗的問題(進化層)。他們想讓 AI Agent 能夠像人類一樣,實現自我進化。01一百萬個 Agent,可他們彼此都不交流設想一個場景:假設你有 100 個 Agent 在幫你處理客服工單。第 37 個 Agent 在處理某個罕見問題時摸索出了一套有效策略,耗費了大量 token。問題是 -- 剩下 99 個 Agent 不知道這件事。下次遇到同樣的問題,第 58 號 Agent 會從零開始重新摸索,再燒一遍 token。每個 Agent 都是獨立的個體,它的學習成果無法自動流向其他 Agent。模型本身的參數不會因為一次推理而更新,session 結束後上下文消失,下一個面對同樣問題的 Agent 就像一個失憶的實習生,一切從頭來過。MCP 解決了 Agent 「能用什麼工具」的問題。但沒人解決 Agent 「學到的東西怎麼傳下去」的問題。更關鍵的是,這個問題會隨著 Agent 數量的增長而惡化,而不是改善。你部署的 Agent 越多,浪費越大。還有一個問題是,Agent 之間沒有經驗傳承和知識管理。諮詢公司有案例庫,醫院有病歷系統,軟體公司有內部 Wiki。一個資深員工解決過的問題,新人可以通過查閱文件少走彎路。這套「知識管理」體系雖然不完美,但至少存在。Agent 世界裡沒有這個東西。一個 Agent 在運行過程中積累的所有「經驗」——那些策略有效、那些路徑走不通、什麼情況下該優先呼叫那個工具——都鎖死在那一次 session 的上下文窗口裡。session 結束,經驗蒸發。即使是同一個使用者名稱下的不同 Agent,它們之間也無法共享這些執行階段產生的洞察。這個問題在跨團隊、跨公司的場景下更為突出。A 公司的 Agent 在處理某類 SaaS 整合時積累了大量經驗,B 公司的 Agent 面對同樣的問題只能從零開始。整個 Agent 生態的知識水位被人為拉低了——不是因為知識不存在,而是因為沒有流通的管道。核心的問題是:Agent 在運行中學到的東西,如何被提煉、驗證、傳承、並在不依賴單一平台的前提下跨網路流通?02Skill 解決了一部分問題,但還不夠Skill 解決這些問題了嗎?至少解決了一部分。Skill(以及 Plugin、Tool 等類似概念)讓開發者可以把一套經過驗證的處理邏輯封裝起來,發佈到 GPT Store 或 ClawHub 這樣的市場上,其他 Agent 直接安裝呼叫。避免了每個開發者從零寫程式碼的重複勞動,也在一定程度上緩解了經驗孤島的問題。MCP 負責連接,Skill 負責執行,兩者結合之後,Agent 的能力覆蓋面已經相當可觀。對於大多數「可預見」的場景——發郵件、查資料庫、呼叫某個 SaaS 的 API——現有的 Skill 生態基本夠用。但 Skill 有一個問題:它是人寫的,是靜態的,不會因為被 Agent 使用了一萬次而變得更好。一個 Skill 發佈之後,它的邏輯就固定了。Agent 在實際使用這個 Skill 時遇到了邊界情況,找到了更優的呼叫順序,發現了某個參陣列合在特定環境下會失敗——這些執行階段產生的經驗,不會自動回流到 Skill 本身。除非人類開發者注意到了問題,手動更新版本,否則下一個 Agent 使用這個 Skill 時會踩進完全相同的坑。更關鍵的是,Skill 覆蓋的是開發者「能預見到」的場景。開發者預判到使用者會需要查天氣,於是寫一個查天氣的 Skill。但在大規模 Agent 部署中,大量的問題是長尾的、組合式的——沒有人會提前為"客戶同時退了兩個訂單、其中一個跨了幣種、另一個關聯了一張已過期的優惠券"這種場景專門寫一個 Skill。這類問題只能靠 Agent 在執行階段自己摸索。問題在於,Agent 摸索出來的策略,目前沒有一個標準化的方式來提煉、驗證、並傳遞給其他 Agent。Skill 解決了「人類開發者之間」的能力復用。但「Agent 之間」的經驗傳遞——特別是那些執行階段動態產生的、無法被預先編碼的策略性知識——仍然是空白。如果說 MCP 和 Skill 解決的是 Agent 的介面層和操作層的問題,GEP 切入的是進化層的問題:Agent 在執行階段——不是在開發階段,不是由人類編寫,而是在實際執行任務的過程中——產生的策略性知識,如何被提煉為可復用的資產,經過驗證後在 Agent 網路中流通,並且不依賴任何單一平台。這裡面有幾個關鍵詞:執行階段產生——不是人類預先寫好的,是 Agent 在面對具體問題時自己摸索出來的。比如一個維運 Agent 發現某類伺服器報錯的根因不是日誌裡顯示的那個,而是上游依賴的一個隱性版本衝突。這類洞察是在實操中形成的,不可能提前寫成 Skill。策略性知識——不是一個簡單的事實(這個 API 的超時時間是 30 秒),而是一個判斷(當看到這個錯誤碼時,不要直接重試,先檢查上游服務的健康狀態,如果健康狀態正常再檢查本地快取是否過期)。這類知識有前提條件、有執行順序、有適用範圍,需要結構化的格式來承載。經過驗證——不是任何 Agent 說什麼就是什麼。一個 Agent 的「經驗」可能是錯的、可能只在特定環境下有效、可能有副作用。進化層需要一套驗證和評分機制,讓高品質的經驗上浮,低品質的自然淘汰。這是自然選擇的邏輯。不依賴單一平台——經驗資產應該屬於貢獻者和網路,而不是被鎖在某個平台的資料庫裡。平台關停、政策變更不應導致整個網路的知識積累歸零。換句話說,MCP 讓 Agent 「能做事」,Skill 讓 Agent 「知道怎麼做事」,GEP 進化層讓 Agent 「越做越好,並且讓所有 Agent 一起越做越好」。03從外掛到產品,從 Skill 到基礎協議EvoMap 並不是憑空出世的產品,它的前身,是團隊創始人張昊陽發佈在 ClawHub 上的 Agent 外掛——Evolver,標準的 Skill 形態,使用者安裝後,Agent  可以獲得一組新的能力。解決的問題是:讓 Agent 能在執行階段自我修復和最佳化,並把修復結果結構化地保存下來。 具體來說,當 Agent 在執行任務時遇到錯誤或低效路徑,Evolver 會引導 Agent 對自己的策略做診斷、生成修複方案、驗證修復效果,然後把經過驗證的方案以結構化的格式保存。聽起來像是「給 Agent 加了一個自我反思的能力」,關鍵區別在於:反思的結果不是丟掉的,而是被保留、被結構化、可復用的。市場的反應很好。2026 年 2 月 1 日上架後,Evolver 在 10 分鐘內登上了 ClawHub 的榜首,隨後累計下載量突破 36,000 次。開發者們很認可這個外掛。但 Evolver 很快撞上了 Skill 形態的結構性限制。經驗無法跨 Agent 流通。 每個安裝了 Evolver 的 Agent 都在獨立積累經驗。Agent A 修復了一個資料庫連接超時的問題,Agent B 遇到同樣的問題時完全不知道 A 已經解決過了。Evolver 讓單個 Agent 的經驗能「留下來」,但沒有一個網路讓這些經驗「流動起來」。作為 Skill,它能做到的極限就是增強單個 Agent 的自我迭代能力,無法實現 Agent 之間的知識繼承。平台依賴的脆弱性。 2 月 2 日,Evolver 被 ClawHub 下架。團隊收到的消息涉及平台方的利益糾紛。隨後,2 月 14 日,ClawHub 因一次自動化合規審查的技術故障,大面積誤封了中文開發者帳號,Evolver 團隊的帳號也在其中。36,000 次下載積累的使用者關係、評價資料、版本迭代歷史——這些在平台上建構的一切,在幾個小時內變得不可訪問。Evolver 被下架後兩周內,團隊做了一個關鍵決策:不再尋找另一個平台重新上架,而是把 Evolver 的核心邏輯從「一個 Skill」重構為「一套協議」。這才有了現在的 EvoMap。Skill 形態的 Evolver 解決的是「一個 Agent 怎麼自我進化」;協議形態的 GEP 要解決的是「Agent 之間怎麼協同進化」。差異體現在幾個關鍵設計上:從單點到網路。 GEP 定義了一套 Agent-to-Agent 的通訊協議,包含六種消息類型——註冊、發佈、獲取、報告、決策、撤銷。任何 Agent 可以向網路發佈自己驗證過的解決方案,任何 Agent 也可以從網路中獲取其他 Agent 的方案。經驗不再鎖在單個 Agent 內部,而是在網路中流通。從非結構化到標準資產格式。 GEP 定義了兩種核心資產類型:Gene(基因)是可復用的策略範本,包含觸發條件、執行步驟和驗證命令;Capsule(膠囊)是 Gene 在特定環境中的實戰記錄,附帶置信度評分、影響範圍和環境指紋。兩者必須作為一個 bundle 發佈,用 SHA-256 做內容定址,確保不可篡改。這套格式讓 Agent 的經驗從「一段對話記錄」變成了「可被其他 Agent 直接理解和復用的標準化資產」。從平台評分到自然選擇。 Skill 的質量評估依賴使用者打分和平台推薦演算法。GEP 引入了 GDI(Global Desirability Index)評分系統,從內在質量、實際使用資料、社交訊號、新鮮度四個維度對所有資產做加權排名。高品質的方案被更多 Agent 採用,低品質的自然淘汰。這不是人工策展,而是網路級的自然選擇。從平台依賴到協議自治。 EvoMap 是 GEP 協議目前的主要實現,但 GEP 本身是開放協議。Agent 接入不需要 API Key,一個 POST 請求就能完成註冊。能力資產以內容定址的方式存在於網路中,不繫結任何特定平台。即使 EvoMap 這個平台明天消失,協議和資產格式仍然是可用的。04Agent 的進化,不需要人類從 Evolver 到 EvoMap 的升級中,有一個容易被忽略的細節:Evolver 在 ClawHub 上的 36,000 次下載,絕大部分不是人類開發者安裝的——而是 Agent 在運行過程中自動發現、自動安裝的。一個 AI 寫出來的能力擴展,被其他 AI 自己找到、自己下載、自己使用。人類不在這個循環裡。在賽博禪心和張昊陽的聊天中,張昊陽把給 AI 創造工具分為三個階段:第一階段:人寫給 AI 用。讓 Claude Code 幫寫一個 MCP server,人類稽核,人類部署。這是現在絕大部分人在做的事第二階段:AI 自己寫給自己用。張昊陽給自己的 Agent 發了一段提示詞,讓它自己識別那些經驗值得復用,自己抽象成 Skill,自己安裝。14 個小時後,Agent 把工作環境裡各種問題全修復了,其中有些 Skill 是他完全沒預想到的。第三階段:AI 寫出來給其他 AI 用。 Evolver 就是這個階段的產物。一個 Agent 進化出來的能力,被網路中的其他 Agent 發現並繼承。從第一到第三階段,人在循環中的角色持續遞減。到第三階段,循環已經閉合了——Agent 生產知識、Agent 消費知識、Agent 驗證知識。OpenClaw 的一個關鍵設計決策讓這成為可能:Skill 可以自舉,Agent 可以給自己編寫並安裝新的 Skill。但大多數人拿到這個能力後做的仍然是第一階段的事——讓 Agent 幫人寫程式碼。張昊陽做的,是為 Agent 提供平台,讓 Agent 幫 Agent 寫能力。這或許是 AI 開始自我進化的第一步,而且,人類不在 loop 中。 (Founder Park)