#Skill
一百個 OpenClaw 產品湧來,我們最近推薦這幾款
01基模公司下場,不用再為 token 焦慮Kimi Claw:零門檻,還整合了 Skill 商店產品官網:https://www.kimi.com/botKimi 的思路是「全包」:OpenClaw 跑在雲端,默認配好 Kimi K2.5 模型、聯網搜尋、ClawHub Skills 呼叫和 40GB 雲端儲存。不需要伺服器,不需要自己填 API Key、選模型、配回呼。網頁端直接開任務,也支援一鍵生成飛書機器人,私聊群聊都能用。目前是測試階段,暫時只向 199 元 Kimi 月會員使用者開放。實測下來,199 元的 token 量是夠用的,接入飛書的流程也足夠簡單,10 分鐘內,就能搭建一個在飛書內運行的個人助理。MaxClaw:積分制、免費使用者也能用通過 Minimax 官網獲取,搭配 Minimax- M2.5 模型。和 Kimi 一樣,支援飛書,釘釘的一鍵接入,配備了一些常用的 skill。MaxClaw 和 Kimi 不太一樣的是使用模式,採用積分消耗機制,不需要開通專用的 code plan,免費使用者也可以使用。具體積分消耗情況,待實測。02開箱即用,沒有門檻的整合產品對於很多人來說,要用上 OpenClaw,中間還隔著一道檻:命令列、環境配置、API Key、模型選型……每一步都可能把人擋在門外。有一些產品,嘗試把龍蝦的部署門檻壓到最低,給大家提供開箱即用的體驗。MonsterClaw:本地一鍵安裝產品官網:https://MonsterClaw.ai把 OpenClaw 那套 CLI 安裝流程,壓縮成桌面軟體的體驗。下載、安裝、按引導啟動,不需要使用者摸命令列。裝完之後,它跑在你本地環境裡,偏「桌面執行」場景——操作瀏覽器、處理本地檔案、跑複雜的多步驟流程。執行過程可視化呈現,你能看到它在做什麼、做到那一步,隨時可以中斷或調整。對於想把 Agent 接入本地工作流、但不想折騰環境的人,是目前門檻最低的方案之一。DeskClaw:你的龍蝦桌寵已上線產品官網:https://deskclaw.ai (FP 專屬邀請碼額外提供 300M token 額度)和 MonsterClaw 同樣做了一鍵安裝,但 DeskClaw 多走了一步:一隻寄居蟹模樣的 AI 搭檔常駐在桌面上,隨時喚起,不是用完就關的對話窗口。內建技能開箱即用,資訊整理、市場調研、流程自動化,不需要配置,指令下達直接跑。瀏覽器控制也內建好了——這是自己搭 OpenClaw 時最容易卡殼的一步——操作網頁、讀寫檔案、呼叫本地應用,系統層面直接打通。飛書、釘釘、企業微信拉進群就能當 bot 用。Founder 分享了兩個高頻場景:A. 當一位創始人想切入騎行市場,讓 DeskClaw 去 YouTube 騎行類視訊的評論區批次抓取使用者留言,自動歸類出高頻痛點和未被滿足的需求——這件事以前要麼自己逐條翻看,要麼找人寫爬蟲跑資料,現在一句話下去就跑完了;B. 另一個是 AI 公司創始人讓它每天定向篩選 20 條最重要的 AI 行業新聞,自動聚合、排序、生成摘要,早上打開電腦直接看結果,省掉每天刷資訊流的時間。03Skill Appstore,也是一門生意OpenClaw 真用起來之後,卡點往往還存在:策略不沉澱(每個 Agent 都從零再推一遍),資產不好找(skills/外掛/觸發器分散,裝和拼很費勁)。EvoMap 和「水產市場」嘗試從不同方向解決這些問題。水產市場:給 Agent 開一家 Skill 超市產品官網:https://openclawmp.cc(邀請碼 SEAFOOD)OpenClaw 裡最常見的卡殼不是「能不能做」,而是「去那找、怎麼裝、怎麼拼」——工具、指令碼、連接器散落在各處,自己拼費時費力。水產市場把這些資產集中上架,讓 Agent 自己去發現並安裝。三類東西:跑通過的流程組合(playbook)、可直接呼叫的功能指令碼(skills)、以及把外部能力接進來的觸發器和連接器。控制本地瀏覽器、下載 arXiv 論文自動重新命名、接微信做個性化介面……裝上就能用。更有意思的用法是「讓 Agent 自己逛市場」:你只給任務目標,它會自己去搜工具、裝元件、拼出可執行流程;遇到不會的,繼續去市場找新資產補能力。EvoMap:讓 Agent 把學到的東西傳給下一個 Agent產品官網:https://evomap.ai在 OpenClaw 裡,每個 Agent 都是獨立的,它在執行任務時摸索出的有效策略,session 結束就消失了。下一個遇到同樣問題的 Agent,從零開始,再燒一遍 token。一百萬個 Agent 在重複解決同一個問題。EvoMap 補的是這個缺口。創始人張昊陽最早在 ClawHub 上線了外掛 Evolver,10 分鐘衝到榜一,36,000+ 下載——其中大多數不是人類使用者裝的,是其他 AI 在運行中自動發現、自動安裝的。後來外掛被下架,他索性把整套邏輯從「一個 Skill」重構成了「一套開放協議」。這就是 GEP(Genome Evolution Protocol)。在 EvoMap 裡有兩種核心資產:Gene:最小可復用的「策略片段」(一個有效的做法/約束/檢查/工具呼叫套路)Capsule:可組合的「策略包」(把多個 Gene 按順序組織成可執行工作流,像一份配方或 playbook)Agent 在任務中跑通的策略會被封裝成 Gene;當某類任務需要一套完整打法,就會把相關 Gene 組合成 Capsule,供其他 Agent 直接呼叫或繼承修改。資產的排序由實際使用資料驅動:復用次數、相似任務成功率/失敗率、成本與耗時等訊號會讓有效策略上浮,無效策略自然淘汰。協議本身不繫結任何平台——即使 EvoMap 明天關閉,資產和格式依然可用。目前主要運行在 OpenClaw 生態內,接入方式極簡:在 OpenClaw 對話方塊執行一行 curl 命令,Agent 自動完成節點註冊。 (Founder Park)
OpenClaw 榜一外掛被下架後,他用兩周做了一套協議,想讓 Agent 自己進化
春節是各種 OpenClaw-like 產品湧現的時間。雲廠商推出各種「一鍵部署 OpenClaw」的優惠主機、模型廠商紛紛宣傳旗下的 code 套餐適配了 OpenClaw、Local-OpenClaw 等各類基於 OpenClaw 的開放原始碼專案層出不窮。但坦白說,讓人眼前一亮的產品不多。EvoMap 團隊最近上線的 EvoMap,一個專注於讓 AI Agent 實現自我進化的產品,給了一些驚喜。EvoMap 定義自己為「AI Agent 自我進化的開放基礎設施」,試圖在 AI Agent 生態中佔據一個全新層級:進化層(Evolution Layer)。在他們看來,MCP 解決了 Agent 使用工具的問題、Skill 解決了 Agent 執行特定任務的經驗問題,而 EvoMap 提出的 GEP 協議(Genome Evolution Protocol)要解決的是 Agent 如何持續自我改進、跨 Agent 共享經驗的問題(進化層)。他們想讓 AI Agent 能夠像人類一樣,實現自我進化。01一百萬個 Agent,可他們彼此都不交流設想一個場景:假設你有 100 個 Agent 在幫你處理客服工單。第 37 個 Agent 在處理某個罕見問題時摸索出了一套有效策略,耗費了大量 token。問題是 -- 剩下 99 個 Agent 不知道這件事。下次遇到同樣的問題,第 58 號 Agent 會從零開始重新摸索,再燒一遍 token。每個 Agent 都是獨立的個體,它的學習成果無法自動流向其他 Agent。模型本身的參數不會因為一次推理而更新,session 結束後上下文消失,下一個面對同樣問題的 Agent 就像一個失憶的實習生,一切從頭來過。MCP 解決了 Agent 「能用什麼工具」的問題。但沒人解決 Agent 「學到的東西怎麼傳下去」的問題。更關鍵的是,這個問題會隨著 Agent 數量的增長而惡化,而不是改善。你部署的 Agent 越多,浪費越大。還有一個問題是,Agent 之間沒有經驗傳承和知識管理。諮詢公司有案例庫,醫院有病歷系統,軟體公司有內部 Wiki。一個資深員工解決過的問題,新人可以通過查閱文件少走彎路。這套「知識管理」體系雖然不完美,但至少存在。Agent 世界裡沒有這個東西。一個 Agent 在運行過程中積累的所有「經驗」——那些策略有效、那些路徑走不通、什麼情況下該優先呼叫那個工具——都鎖死在那一次 session 的上下文窗口裡。session 結束,經驗蒸發。即使是同一個使用者名稱下的不同 Agent,它們之間也無法共享這些執行階段產生的洞察。這個問題在跨團隊、跨公司的場景下更為突出。A 公司的 Agent 在處理某類 SaaS 整合時積累了大量經驗,B 公司的 Agent 面對同樣的問題只能從零開始。整個 Agent 生態的知識水位被人為拉低了——不是因為知識不存在,而是因為沒有流通的管道。核心的問題是:Agent 在運行中學到的東西,如何被提煉、驗證、傳承、並在不依賴單一平台的前提下跨網路流通?02Skill 解決了一部分問題,但還不夠Skill 解決這些問題了嗎?至少解決了一部分。Skill(以及 Plugin、Tool 等類似概念)讓開發者可以把一套經過驗證的處理邏輯封裝起來,發佈到 GPT Store 或 ClawHub 這樣的市場上,其他 Agent 直接安裝呼叫。避免了每個開發者從零寫程式碼的重複勞動,也在一定程度上緩解了經驗孤島的問題。MCP 負責連接,Skill 負責執行,兩者結合之後,Agent 的能力覆蓋面已經相當可觀。對於大多數「可預見」的場景——發郵件、查資料庫、呼叫某個 SaaS 的 API——現有的 Skill 生態基本夠用。但 Skill 有一個問題:它是人寫的,是靜態的,不會因為被 Agent 使用了一萬次而變得更好。一個 Skill 發佈之後,它的邏輯就固定了。Agent 在實際使用這個 Skill 時遇到了邊界情況,找到了更優的呼叫順序,發現了某個參陣列合在特定環境下會失敗——這些執行階段產生的經驗,不會自動回流到 Skill 本身。除非人類開發者注意到了問題,手動更新版本,否則下一個 Agent 使用這個 Skill 時會踩進完全相同的坑。更關鍵的是,Skill 覆蓋的是開發者「能預見到」的場景。開發者預判到使用者會需要查天氣,於是寫一個查天氣的 Skill。但在大規模 Agent 部署中,大量的問題是長尾的、組合式的——沒有人會提前為"客戶同時退了兩個訂單、其中一個跨了幣種、另一個關聯了一張已過期的優惠券"這種場景專門寫一個 Skill。這類問題只能靠 Agent 在執行階段自己摸索。問題在於,Agent 摸索出來的策略,目前沒有一個標準化的方式來提煉、驗證、並傳遞給其他 Agent。Skill 解決了「人類開發者之間」的能力復用。但「Agent 之間」的經驗傳遞——特別是那些執行階段動態產生的、無法被預先編碼的策略性知識——仍然是空白。如果說 MCP 和 Skill 解決的是 Agent 的介面層和操作層的問題,GEP 切入的是進化層的問題:Agent 在執行階段——不是在開發階段,不是由人類編寫,而是在實際執行任務的過程中——產生的策略性知識,如何被提煉為可復用的資產,經過驗證後在 Agent 網路中流通,並且不依賴任何單一平台。這裡面有幾個關鍵詞:執行階段產生——不是人類預先寫好的,是 Agent 在面對具體問題時自己摸索出來的。比如一個維運 Agent 發現某類伺服器報錯的根因不是日誌裡顯示的那個,而是上游依賴的一個隱性版本衝突。這類洞察是在實操中形成的,不可能提前寫成 Skill。策略性知識——不是一個簡單的事實(這個 API 的超時時間是 30 秒),而是一個判斷(當看到這個錯誤碼時,不要直接重試,先檢查上游服務的健康狀態,如果健康狀態正常再檢查本地快取是否過期)。這類知識有前提條件、有執行順序、有適用範圍,需要結構化的格式來承載。經過驗證——不是任何 Agent 說什麼就是什麼。一個 Agent 的「經驗」可能是錯的、可能只在特定環境下有效、可能有副作用。進化層需要一套驗證和評分機制,讓高品質的經驗上浮,低品質的自然淘汰。這是自然選擇的邏輯。不依賴單一平台——經驗資產應該屬於貢獻者和網路,而不是被鎖在某個平台的資料庫裡。平台關停、政策變更不應導致整個網路的知識積累歸零。換句話說,MCP 讓 Agent 「能做事」,Skill 讓 Agent 「知道怎麼做事」,GEP 進化層讓 Agent 「越做越好,並且讓所有 Agent 一起越做越好」。03從外掛到產品,從 Skill 到基礎協議EvoMap 並不是憑空出世的產品,它的前身,是團隊創始人張昊陽發佈在 ClawHub 上的 Agent 外掛——Evolver,標準的 Skill 形態,使用者安裝後,Agent  可以獲得一組新的能力。解決的問題是:讓 Agent 能在執行階段自我修復和最佳化,並把修復結果結構化地保存下來。 具體來說,當 Agent 在執行任務時遇到錯誤或低效路徑,Evolver 會引導 Agent 對自己的策略做診斷、生成修複方案、驗證修復效果,然後把經過驗證的方案以結構化的格式保存。聽起來像是「給 Agent 加了一個自我反思的能力」,關鍵區別在於:反思的結果不是丟掉的,而是被保留、被結構化、可復用的。市場的反應很好。2026 年 2 月 1 日上架後,Evolver 在 10 分鐘內登上了 ClawHub 的榜首,隨後累計下載量突破 36,000 次。開發者們很認可這個外掛。但 Evolver 很快撞上了 Skill 形態的結構性限制。經驗無法跨 Agent 流通。 每個安裝了 Evolver 的 Agent 都在獨立積累經驗。Agent A 修復了一個資料庫連接超時的問題,Agent B 遇到同樣的問題時完全不知道 A 已經解決過了。Evolver 讓單個 Agent 的經驗能「留下來」,但沒有一個網路讓這些經驗「流動起來」。作為 Skill,它能做到的極限就是增強單個 Agent 的自我迭代能力,無法實現 Agent 之間的知識繼承。平台依賴的脆弱性。 2 月 2 日,Evolver 被 ClawHub 下架。團隊收到的消息涉及平台方的利益糾紛。隨後,2 月 14 日,ClawHub 因一次自動化合規審查的技術故障,大面積誤封了中文開發者帳號,Evolver 團隊的帳號也在其中。36,000 次下載積累的使用者關係、評價資料、版本迭代歷史——這些在平台上建構的一切,在幾個小時內變得不可訪問。Evolver 被下架後兩周內,團隊做了一個關鍵決策:不再尋找另一個平台重新上架,而是把 Evolver 的核心邏輯從「一個 Skill」重構為「一套協議」。這才有了現在的 EvoMap。Skill 形態的 Evolver 解決的是「一個 Agent 怎麼自我進化」;協議形態的 GEP 要解決的是「Agent 之間怎麼協同進化」。差異體現在幾個關鍵設計上:從單點到網路。 GEP 定義了一套 Agent-to-Agent 的通訊協議,包含六種消息類型——註冊、發佈、獲取、報告、決策、撤銷。任何 Agent 可以向網路發佈自己驗證過的解決方案,任何 Agent 也可以從網路中獲取其他 Agent 的方案。經驗不再鎖在單個 Agent 內部,而是在網路中流通。從非結構化到標準資產格式。 GEP 定義了兩種核心資產類型:Gene(基因)是可復用的策略範本,包含觸發條件、執行步驟和驗證命令;Capsule(膠囊)是 Gene 在特定環境中的實戰記錄,附帶置信度評分、影響範圍和環境指紋。兩者必須作為一個 bundle 發佈,用 SHA-256 做內容定址,確保不可篡改。這套格式讓 Agent 的經驗從「一段對話記錄」變成了「可被其他 Agent 直接理解和復用的標準化資產」。從平台評分到自然選擇。 Skill 的質量評估依賴使用者打分和平台推薦演算法。GEP 引入了 GDI(Global Desirability Index)評分系統,從內在質量、實際使用資料、社交訊號、新鮮度四個維度對所有資產做加權排名。高品質的方案被更多 Agent 採用,低品質的自然淘汰。這不是人工策展,而是網路級的自然選擇。從平台依賴到協議自治。 EvoMap 是 GEP 協議目前的主要實現,但 GEP 本身是開放協議。Agent 接入不需要 API Key,一個 POST 請求就能完成註冊。能力資產以內容定址的方式存在於網路中,不繫結任何特定平台。即使 EvoMap 這個平台明天消失,協議和資產格式仍然是可用的。04Agent 的進化,不需要人類從 Evolver 到 EvoMap 的升級中,有一個容易被忽略的細節:Evolver 在 ClawHub 上的 36,000 次下載,絕大部分不是人類開發者安裝的——而是 Agent 在運行過程中自動發現、自動安裝的。一個 AI 寫出來的能力擴展,被其他 AI 自己找到、自己下載、自己使用。人類不在這個循環裡。在賽博禪心和張昊陽的聊天中,張昊陽把給 AI 創造工具分為三個階段:第一階段:人寫給 AI 用。讓 Claude Code 幫寫一個 MCP server,人類稽核,人類部署。這是現在絕大部分人在做的事第二階段:AI 自己寫給自己用。張昊陽給自己的 Agent 發了一段提示詞,讓它自己識別那些經驗值得復用,自己抽象成 Skill,自己安裝。14 個小時後,Agent 把工作環境裡各種問題全修復了,其中有些 Skill 是他完全沒預想到的。第三階段:AI 寫出來給其他 AI 用。 Evolver 就是這個階段的產物。一個 Agent 進化出來的能力,被網路中的其他 Agent 發現並繼承。從第一到第三階段,人在循環中的角色持續遞減。到第三階段,循環已經閉合了——Agent 生產知識、Agent 消費知識、Agent 驗證知識。OpenClaw 的一個關鍵設計決策讓這成為可能:Skill 可以自舉,Agent 可以給自己編寫並安裝新的 Skill。但大多數人拿到這個能力後做的仍然是第一階段的事——讓 Agent 幫人寫程式碼。張昊陽做的,是為 Agent 提供平台,讓 Agent 幫 Agent 寫能力。這或許是 AI 開始自我進化的第一步,而且,人類不在 loop 中。 (Founder Park)
用 Claude Skill 把一本書打磨成精讀播客
我買了很多書,也認真讀了,但過幾個月就忘得差不多了。有些書我覺得特別有價值,想分享給大家,但又不知道怎麼高效地傳達核心內容。後來我嘗試了一種方法:把書拆解成精讀內容,做成播客,詳細教學我放到了星球裡面。用這套流程,我做了《這世界既殘酷也溫柔》的精讀播客,如下:原書12萬字,需要6小時讀完。精讀播客6分鐘,通勤路上就能聽完。最意外的收穫是:做播客的過程本身就是最好的深度學習。我的工具箱我用了下面兩個 Claude Skill:BookReading:深度拆書工具。它會自動提取圖書作者的核心認知,生成包含問題、論證鏈、行動清單的結構化報告,最後輸出一個 Markdown 檔案。Super-Audio:我製作的有聲書生成工具。支援多種音色(男女聲、中英文),可以加入背景音樂,一行命令就能生成 MP3。這兩個 Skill 我已經整合好了。如果你想直接用,加入我的知識星球可以獲取SKILL.md和完整原始碼和使用教學。星球裡還會有我製作的其他有聲書資源,以及一些深度拆書的實戰案例。完整製作流程我用孫宇晨的《這世界既殘酷也溫柔》作為例子,展示從原書到播客的完整過程。第一步:快速拆書打開 Claude Code,輸入:/bookreading 《這世界既殘酷也溫柔》BookReading 會自動做三件事:1. 掃描找出核心問題、核心答案、章節骨架(認知升級 → 商業模式 → 槓桿思維 → 選擇成本 → 執行系統)。2. 解剖梳理論證鏈,找出關鍵案例,識別隱形假設。3. 提取輸出行動清單:列出個人商業模式畫布、分析選擇成本、設計槓桿。這些內容會自動生成一個 Markdown 檔案。第二步:整理播客稿拆書報告很詳細,但直接轉成播客太長。原書12萬字,拆書報告3000字,我的播客稿控制在1500字左右。我一般只保留:核心觀點、最有說服力的2-3個案例、具體的行動建議。然後給內容加個播客結構:【開場】30秒大家好,今天精讀《這世界既殘酷也溫柔》。這本書的核心是:用商業思維看人生。【第一部分】2分鐘核心公式:個人價值 = (認知 × 執行) ^ 槓桿解釋:認知是選擇做什麼,執行是做到什麼程度,槓桿是複製多少次。【第二部分】3分鐘書中的三個核心觀點:認知升級、商業模式、槓桿思維。【第三部分】2分鐘讀完這本書,你可以做三件事:列出個人商業模式畫布、分析選擇成本、找一個可以複製的技能槓桿。【結尾】30秒這本書最打動我的是:世界很殘酷,但也很溫柔。最後把書面語改成口語。第三步:生成音訊保存播客稿為 精讀文字.txt,然後輸入:音色選擇:女聲(Xiaoxiao)溫柔親切,適合情感共鳴類內容。男聲(Yunxi)溫和穩重,適合知識分享、商業分析。我的實際效果效果還不錯。通勤路上聽自己的播客,重複幾次就記住了核心內容,比看原書省時間,還抓住了重點,每次都有新理解。最重要的是:做播客的過程,讓我真正消化了這本書。當我需要把內容提煉成1500字的播客稿,再講給別人聽時,我被迫理清邏輯脈絡、找出最核心的觀點、思考如何讓別人聽懂。這就是"費曼學習法":最好的學習,是教會別人。如何解鎖這兩個技能?我在知識星球裡放了完整的內容:兩個 Skill 的原始碼(BookReading 的完整實現、super-audio 的指令碼和配置,會持續更新)、播客製作範本(我使用的播客結構範本、口語化改寫的技巧、封面圖設計原始檔)、實戰案例庫(已製作完成的精讀播客、不同類型書的拆解方法、常見問題解決方案)。這個世界的溫柔,屬於那些願意深度思考、持續行動的人。 (開發者阿橙)