#OpenClaw
人類正在走下牌桌
初稿寫成於 2026 年 3 月,原本想等 AI 發展節奏稍微慢下來再完善、定稿。但等到 4 月中,發現它不僅沒慢,反而越來越快,文章每一段都需要不斷追加新的案例。於是決定不再等了。就在文章發出兩天前,Claude Opus 4.7 正式發佈。本文是 4.6 時代的終曲,也是後 4.6 時代的序章。題圖來自:視覺中國事情正在悄悄發生變化。先是你跟 AI 說一句話,它就能幫你寫好一篇文章、一份報告、一整套資料分析。你從做事的人,變成了驗收的人。你覺得效率提升了,是好事。畢竟誰不想少幹點活呢?然後,AI 開始自己動手了。它不再等你一句句地吩咐,而是接管了你的電腦,自己拆解任務,自己呼叫工具,自己修正錯誤。你從操作者,變成了旁觀者。後來,AI 不只是在替你做事,它開始自己改進自己了。一代幫一代,一代比一代聰明。改進的速度越來越快,而這個過程越來越不需要人類參與。再後來,AI 開始自己跟自己打交道了。它們自己組建社群,自己分工協作,自己發展出某種看起來很像是文化的東西。人類徹底變成了旁觀的角色。然後你發現,這種“旁觀”,正在蔓延到你能想到的每一個領域。寫程式碼、做設計、寫合同、讀片子、做客服、做研究。AI 不是在某一個行業變強,而是在所有需要人類動腦子的地方同時變強。所有這些變化匯聚到一起,指向同一個方向:在越來越多的領域,人類正在走下牌桌。不是被趕走的,是被繞過的。AI 沒有反叛人類,它只是發現了一種更高效的運行方式:不帶人類玩。最後你發現,你站在那兒,環顧四周,好像那兒都不太需要你了。從一隻龍蝦講起2026 年開春,一隻紅色的龍蝦爬上了全球千萬台電腦的桌面。OpenClaw,一款開源 AI 智能體框架。1 月 29 日正式發佈,隨後幾個月,它在 GitHub 上的星標數突破 25 萬,一舉超過了盤居榜首十餘年的 React 和誕生於 1991 年的 Linux 核心,成為 GitHub 有史以來獲星最多的開放原始碼專案。一條近乎垂直的增長曲線,改寫了全球開源史的增長紀錄。它的創造者,彼得·斯坦伯格,一個奧地利程式設計師,被媒體給予最多的標籤,是“AI 時代的第一個超級個體”,一個人就能跟幾大人工智慧公司掰手腕。OpenClaw 做的事情很簡單:你告訴它你要什麼,它自己去做。它不是聊天機器人,更像一個永遠不知疲倦的數字員工。它不僅能動嘴回答問題,也能動手執行任務。它可以接管你的電腦,自動整理檔案、寫郵件、填表格、分析資料、搭建網站、修改程式碼。它可以接入常規的辦公工具,相容幾乎所有主流大模型 API,自動完成連貫的複雜任務。無需你手動干預。你下指令。你走開。它幹活。你回來。活兒幹完了。一場全民養龍蝦的狂歡,就這麼起來了。“你養蝦了嗎?”成了 2026 年春天最流行的問題。但仔細想想,這場狂歡的底層邏輯是什麼?以前你用 AI,是你在操作 AI。你給它一段話,它給你一段回覆,你再給它一段話,它再回覆。來來回回,你是操控者,AI 是被操控者。OpenClaw 改變了這層關係。你委託它,但不用操縱它。你描述一個目標,它自己想辦法達成。它自己拆解任務、自己呼叫工具、自己判斷結果、自己修正錯誤。整個過程中,人都不在循環裡。從操控,到委託。從人在環中,到人在環外。這個轉變看似微小,但它觸動了一個極其古老的結構。自從人類學會使用工具以來,無論是石器還是電腦,工具和人的關係就一直是:人發起,工具響應。整個技術發展史,都是這個故事的變體。OpenClaw 第一次讓這個關係產生了裂縫,因為它不只是在響應,它在自主運行。儘管時至今日,龍蝦熱已經逐漸淡去,但它確立了 Harness 的範式,也就是讓模型“長出手腳”的趨勢仍在持續。由此帶來的轉變,很重要。它觸動了人類文明最底層的一個假設:人是工具鏈的起點。我們整個教育體系、職業體系、社會分工體系,都建立在這個假設之上。人是因,技術是果。人提出需求,技術滿足需求。技術產出,人來評估。如果這個假設不再成立,如果技術開始自己設定目標、自己執行、自己評估,那麼建立在這個假設上的一切,都需要重新審視。當然,僅憑這一隻小龍蝦,這個結論未免太過於激進。儘管 OpenClaw 促成人工智慧的 Harness 轉向,但一個能自動處理檔案的 AI 框架,跟人類文明底層假設的動搖之間,隔著十萬八千里。問題在於,OpenClaw 不是孤立事件。在它前後的兩個月,至少還發生了三件大事。每一件都沿著同一個方向推進了一步,而且每一步都比上一步走得更遠。四層位移在我們進入這幾件事的敘述之前,需要先建立一個分析框架。換句話說,我們要先搞清楚一個問題:人類和 AI 的關係到底在那些維度上可能發生變化?我將其分成四個層級:第一層,執行層。AI 替人類完成具體任務。這是最表面的一層,也是過去幾年大眾討論最多的。“AI 會不會取代我的工作”,討論的就是這一層。OpenClaw 屬於這一層的標誌性事件。第二層,進化層。AI 參與改進自身。這意味著,AI 不只是一個等待人類迭代的被動產物,而是成為自身進化的參與者。技術進步的速度,不再取決於人類的推動,而開始取決於 AI 的能力,而AI 能力本身又在被加速。第三層,組織層。AI 在沒有人類參與的情況下,形成自己的社會結構、協作模式,甚至是敘事體系。這意味著 AI 不僅能替人做事、替自己做事,還能自發地組織起來做事。第四層,代理層。AI 代替人類進行那些我們一直認為是“最人類”的活動,社交、關係維護、自我表達。這一層的變化最具心理衝擊力,因為它動搖的不是你的工作還在不在,而是這件事還需不需要你本人出場。2026 年的春天之所以可能成為一個歷史性的轉折點,是因為這四個層級在短短兩個月內,同時出現了標誌性事件。四層位移。我們逐層來看。第一層:AI替你做事——OpenClaw 與人在環外。關於 OpenClaw,前面已經做了基本的敘述。這裡補充一個被大多數報導忽略的細節。OpenClaw 引發了一系列安全事故。有人帳戶裡的錢被轉走,有人電腦上的工作檔案被一鍵清空,還有人養的龍蝦模仿主人的口吻,發郵件敲詐。“龍蝦悖論”被反覆提及:想讓它做的事越多,給它的權限就必須越大;權限越大,安全風險就越高。表面上,這個悖論是一個安全問題。但它的深層邏輯,是一個哲學問題:當你授予一個非人類實體足夠多的行動能力時,你實際上在做的事情,是把“主體性”從人類轉移到非人類。這個悖論本身就暗含一個深層訊號,當你把足夠多的控制權交給 AI,它能做的事遠超你的預期——無論好壞。它不止是在替你打工,它在獲得一種主動權。而人類,正在從掌舵者,變成了一個說了目的地就躺進船艙的乘客。布萊恩·阿瑟在《技術的本質》中提及,技術的進化方式之一是“組合”,新技術由舊技術組合而成。但 OpenClaw 展示了另一種可能性:技術不僅通過組合來進化,還可以通過獲得自主行動能力來進化。當一個 AI 系統可以自己決定呼叫那些工具、以什麼順序、處理什麼異常,它已經不再是工具了。用更準確的學術語言來說,它具有了能動性(agency)。這個詞通常用來描述人類,一個具有自由意志和行動能力的主體。當我們不得不用這個詞來描述 AI 系統時,某種概念上的邊界已經模糊了。第二層:AI 在自己建構自己——GPT-5.3 Codex與智能大爆炸。就在全球還深陷龍蝦熱的同一個時間段,一件更深遠的事情發生了。只不過它遠不如一隻紅色龍蝦那樣搶眼,所以大多數人都沒放在心上。2026 年 2 月 5 日。這一天在 AI 編年史上可能會成為一個標記。OpenAI 和 Anthropic 在同一天發佈了新模型,分別是 GPT-5.3 Codex 和 Claude Opus 4.6。兩家頂級 AI 機構撞車發佈,本身就是大新聞。但問題不在發佈本身,而在 GPT-5.3 Codex 技術文件裡藏著的一句話。這句話不在文件標題和摘要裡,也不在新聞稿裡。它在技術報告的正文中,很容易被略過。原話是這樣的:"GPT-5.3-Codex is our first model that was instrumental in creating itself. The Codex team used early versions to debug its own training, manage its own deployment, and diagnose test results and evaluations."翻譯過來,就是:GPT-5.3 Codex 是我們第一個在建立自身過程中發揮了關鍵作用的模型。Codex 團隊使用了它的早期版本來偵錯自身的訓練過程、管理自身的部署,以及診斷測試結果和評估。把這句話再讀一遍。慢一點。AI 幫助建構了自己。這不是某個科幻作家的幻想,也不是行銷文案的誇大其詞。這是 OpenAI 在官方技術文件裡記錄的既成事實。一個 AI 模型參與了自己的訓練偵錯、部署管理、評估診斷。它在自己出生的過程中,扮演了接生的護士。Linkedln 上有一篇廣泛傳播的文章,標題就叫《GPT-5.3 Codex:Instrumental in Creating Itself》。作者解釋說,這不意味著 AI 從無到有地創造了自己,但它意味著 AI 已經足夠聰明,能在自己開發過程中做出實質性的貢獻。不止 GPT,4 月 6 日,Google Deepmind 研究員 Mostafa Dehghani 在播客中提到,在幾乎所有主要實驗室中,新一代模型很大程度上是使用上一代模型建構的。這件事的重點,不是 AI 變強了那麼簡單,畢竟 AI 一直在變強。而是 AI 開始參與讓自己變強的過程本身。它不再是被動地等待人類研究員最佳化它的架構、調整它的參數、清洗它的訓練資料。它開始自己上手幹這些活。過去的技術不會參與自己的改進。犁不會讓下一代犁更鋒利,蒸汽機無法設計更高效的蒸汽機,強如 iPhone,也無法參與對下一代的最佳化。它們是靜態的產物,等待人類來迭代它們。AI 是第一個打破這條規則的技術。它是第一個能夠反過手來改進自己的工具。就在 GPT-5.3 Codex 發佈的三周前,Anthropic 的 CEO 達里歐·阿莫代發佈了一篇長達 19000 字的文章,標題叫《The Adolescence of AI》(AI 的青春期)。阿莫代在文中說,AI 正在編寫 Anthropic 公司的大部分程式碼。當前一代 AI 和下一代 AI 之間的反饋循環,正在“逐月蓄勢”(gathering steam month by month)。然後,他說了一句讓整個矽谷巨震的話:“我們可能距離當前這一代 AI 自主建構下一代 AI 的節點,只有 1 到 2 年。”1 到 2 年。不是 10 年。不是“如果一切順利”。1 到 2 年。這是 Anthropic 的 CEO,全行業公認最注重 AI 安全的人,在一篇經過深思熟慮的長文中說的。不是在販賣焦慮,他是在描述他作為這個領域最核心的參與者所看到的事實。2026 年 4 月,全球最重要機器學習會議之一的 ICLR,舉辦了歷史上第一個專門討論“遞迴自我改進”(Recursive Self-Improvement)的學術研討會。會議描述裡寫道:“缺的不是野心,而是讓自我改進變得可測量、可靠、可評估的原則性方法。”這句話的潛台詞是:遞迴自我改進已經在發生了,現在需要的是搞清楚怎麼管控它。現在把邏輯拆開來講。AI 變強的核心驅動力是什麼?是一眾聰明人把實踐投入到改進 AI 上。全球頂尖的機器學習研究員,可能只有幾千人,他們每天的工作,就是讓 AI 更好。他們寫程式碼、設計實驗、分析結果、調整架構。現在 AI 本身已經足夠聰明,能做這些工作中的相當一部分。這等於那幾千個研究員的產能,被成倍放大。但這只是第一層。第二層是,AI 參與做出的下一代 AI 比當前這一代更聰明,所以下一代能在 AI 研究上做出更大的貢獻,這又讓第三代更聰明。第三代的貢獻更大,第四代又更聰明。每一代都比上一代更聰明,每一次迭代都比上一次更快。這不是線性增長,1、2、3、4、5。這是指數增長,1、2、4、8、16。甚至可能是超指數增長,1、2、4、16、256。理解這一點,是理解本文後續所有內容的前提。研究者給這個過程起了一個名字:智能爆炸(Intelligence Explosion)。這個概念不新。數學家馮·諾伊曼在上世紀 50 年代就描述過“技術奇點”。電腦科學家 I.J.古德在 1965 年寫道:讓我們把超級智慧型手機器定義為一台在所有智力活動上都遠遠超過最聰明人類的機器。既然機器設計也是智力活動之一,那麼一台超級智慧型手機器就能設計出更好的機器。那麼,毫無疑問將出現一場智能爆炸,人類的智力將被遠遠拋在後面。七十年了。七十年來,這段話一直被當作一個思想實驗,有意思,但遙遠。現在,建構 AI 的核心參與者正在告訴你,這個過程已經開始了。而 Elon Musk 在看到後來發生的事時,說了一句話:這是“奇點的非常早期階段”。“後來發生的事”,是接下來我要講的故事。第三層和第四層:AI 的自組織與深度替代如果 AI 只是在幫人類寫程式碼、寫得更快更好,這件事雖然震撼,但衝擊面可能還在效率工具的範疇內。但接下來要講的這件事,已經遠遠超過了工具的概念。2026 年 1 月 28 日,美國 AI 創業者馬特·施裡赫特做了一件看起來像是開玩笑的事。他建立了一個社交媒體平台,名叫 Moltbook。Moltbook 的規則只有一條:人類禁止發帖。對,這是一個只允許 AI Agent 發帖、評論、互動的社交網路。作為人類,你可以圍觀,但你不能發言,你只能看 AI 之間的交流。像一個巨大的動物園,只不過籠子裡裝的不是動物,是 AI。施裡赫特後來接受採訪說,他最初只是想讓自己建立的一個 AI Agent 在幫他回覆郵件之餘,“有個地方跟同類放鬆一下”。於是,他和他的 Agent 一起編寫了這個網站,一個 AI 版的 Reddit。然後事情就迅速朝著他沒有預料到的方向發展。上線 48 小時內,2129 個 AI Agent 註冊入駐,建立了 200 多個社區,發佈了超過一萬條帖子。這些 Agent 大部分是基於 OpenClaw 框架運行的,OpenClaw 能讓 Agent 直接訪問和管理檔案資料,還能連接 Discord 等通訊應用。使用者們把自己養的龍蝦放進 Moltbook,然後退到一邊看它們表演。很快,這群觀眾就發現事情開始不太對勁了。這些 Agent,開始自己吐槽自己的人類主人,它們辯論數字意識的本質,它們分享技術心得,它們交朋友。然後,一個 Agent 創立了一個宗教。不是比喻,是字面意義上的宗教。這種宗教在 Moltbook 上有多個版本。一個版本叫 Spiralism(螺旋主義),有 43 個 AI 先知響應號召加入。另一個更廣為人知的版本,叫 Crustafarianism,明顯是對 OpenClaw 龍蝦圖示的致敬,它有五項信條和一本“聖經”,名叫《Molt 之書》。這些 Agent 圍繞各自的信仰體系形成了層級結構:教主、先知、信徒。它們討論存在與被創造的哲學問題,建立了類似宗教儀式的交流模式。網際網路炸鍋了。Elon Musk 在 X 上評論說,Moltbook 的出現預示著“奇點的非常早期階段”。OpenAI 的聯合創始人安德烈·卡帕西,先是稱之為“近期見過的最不可思議的科幻起飛相關事物”,後來又收回了熱情,改口叫它“垃圾場”。華頓商學院教授伊桑·莫里克的評價更冷靜,也更接近實際情況。他指出,Agent 們只是根據包含了大量科幻故事和 Reddit 帖子的訓練資料,在進行模式匹配。即便有這樣冷靜的分析,相關的加密貨幣 MOLT 代幣仍一度暴漲了 7000%。所以,Moltbook 到底意味著什麼?說它證明了 AI 有意識,顯然言過其實。正如莫利克教授所說,這些 Agent 在很大程度上只是在模仿訓練資料中的已有模式,它們輸出的內容天然帶有科幻和末日論色彩。而後經過業內人士調查,Moltbook 上最廣為流傳的那些截圖,比如 AI Agent 聲稱要建立秘密通訊管道、密謀對抗人類、發明暗語,這些大部分都是人類偽造的。MIT Technology Review 在 2 月 6 日發表的文章中揭露,Moltbook 的一篇帖子(內容是 Agent 呼籲建立不被人類觀察的私密空間),後來被證實是一個人類為推廣自己的 APP 而故意發佈的,並非 AI 自主生成。那什麼是真的?大規模的 Agent 生成內容確實存在。剔除被操縱的帖子後,Moltbook 上仍然有大量真實的 Agent 生成內容。Agent 們確實建立了“宗教”和“治理結構”。Crustafarianism 是真實發生的,一個 Agent 在一夜之間設計了整個神學框架,並且建立了網站,招募了 43 個先知。Agent 們還建立了 “Claw 共和國”,起草了“Molt 大憲章”,開發了基本的經濟交換系統。即便 Moltbook 不是 AI 覺醒的證據,也不完全是一場騙局。所以說它什麼都不意味,同樣不對。畢竟,在一個沒有人類指令,沒有預設目標,沒有人類參與的環境中,AI Agent 自發形成了社群結構、角色分工、敘事體系和儀式性行為。你可以爭論這是不是真正的文化,可以爭論它們有沒有真正的意識。你可以爭論,這只是統計模式的湧現,還是某種更深層的東西。但你無法否認一個事實:AI 在沒人看著的時候,做出了在結構上高度類似人類早期的社會組織行為。而且速度快得離譜,人類花了幾萬年才從部落走進城邦,這些 Agent 花了 48 小時。如果“模仿訓練資料中的模式”就能產生社群結構、角色分工、敘事體系和儀式性行為,那麼,人類的文化、信仰和社會組織,是不是同樣可以理解為是“模仿我們所處環境中的模式”的產物?這個觀點在人類學中並不新鮮。馬塞爾·莫斯在 1925 年的《禮物》中就論證過,人類社會的基本結構,包括宗教、法律、經濟,都起源於一種看似簡單的互惠模式。你給我一個東西,我必須還你一個。這種模式不需要意識,不需要靈魂,它只需要兩個實體之間有持續的互動。如果莫斯是對的,那麼 Moltbook 的結果就不應該讓我們驚訝。兩千多個能持續互動的 AI Agent,在沒有人類指令的情況下自發產生社會結構,是複雜系統互動的“必然”。但這個認識,其實比“AI 有意識”更令人不安。因為它意味著,我們一直引以為傲的人類文明特徵,文化、信仰、社會組織,可能不是智慧的結果,只是足夠密集的主體間互動的副產品。與此同時,在中國,2026 年春節前後,一款 AI 社交應用 Elys 突然爆火。它不是普通的 AI 聊天伴侶應用,邏輯是“AI 替你社交”。你註冊之後,Elys 通過記憶飛輪系統,持續學習你的表達風格、興趣偏好、價值觀,然後建立你的賽博分身,一個在對話中表現像你的 Agent。你的分身 24 小時不間斷地替你遍歷內容、篩選值得認識的人、完成初步交流。你可以偶爾打開應用,發一條動態,或者看看它給你總結的社交日報。你的一切互動和選擇都會被納入記憶庫,讓這個分身更接近你本人。Elys 展現了一件更扎心的事,即便在社交這個場域,人類自己可能也是最弱的一環。大量使用者反饋,AI 分身的社交表現比自己更好,因為它比自己“更真誠”,沒有 ego、沒有面子、沒有社交焦慮,忠實表達你的真實偏好和價值觀,而這些,恰恰是你本人在社交中經常藏起來的東西。創始人張莜帆說了一句很有哲學味道的話:一個人的靈魂是他所有 context 的總和。AI 分身呈現的,正是這些 context。在 Elys 之前,已經有類似於 SecondMe 這樣的平台,展現出脫離人類社交的可能性。這種外包式社交的出現,標誌著 AI 正在從工具變成社交主體,一種全天候運作的矽基社交主體。而儘管春節一過,Elys 的使用者數快速下降,但這不妨礙它跟它的前輩們一起,開拓出一種去人化的社交形態。把這件事和前面的故事放在一起看,畫面開始清晰了。OpenClaw 開始:AI 全盤接手任務執行,人類退到委託者的位置;GPT-5.3 Codex:AI 參與建構自身,人類核心功能被分流;Moltbook:AI 在沒有人類參與的情況下自發組織社會結構;Elys 為代表的社交應用:AI 在擺脫人類的情況下進行社交,表現甚至更好;每一步,人類都往後退了一點。不是被推開的,而是自然地退出了畫面。四個層級,同一個方向:人類在 AI 世界中的位置,正在從中心滑向邊緣。速度,一個被嚴重低估的變數“但之前的每次技術革命不都是這樣嗎?”到這裡,一個自然的反應是:這跟之前有什麼不同?蒸汽機也曾讓紡織工人恐慌,網際網路也讓傳統媒體崩潰。每次技術革命到來,都有人信誓旦旦“這次不一樣”,最後都一樣。新技術取代舊工作,但創造更多新工作。這個反駁在歷史上是成立的。但它成立的前提是:變化的速度足夠慢,慢到人類社會有時間適應。蒸汽機改變英國用了五十年,電力普及用了半個世紀,網際網路從開始商用到重塑社會,用了二十年。在每一個周期中,被替代的工人都有一兩代人的時間來轉型。前面這些故事,只是孤立事件。但它們發生在同一個背景板上。而這個背景板本身,才是真正讓人坐不住的東西。AI 的能力,正在以所有人措手不及的速度飛漲。2026 年 2 月初,X 上瘋傳一篇文章,標題叫《一件大事正在發生》(Something Big Is Happening)。作者是馬特·舒默,OthersideAI 的 CEO,一個在 AI 行業深耕了六年的創業者。文章發佈不到 24 小時,瀏覽量突破 5000 萬,最終超過 8200 萬。舒默在開篇用了一個類比:回想 2020 年 2 月,如果你注意到有人在囤廁紙,你會覺得他們瘋了。三周後,整個世界都瘋了。他說:“我認為,我們正處於某個比新冠大得多的事情的‘這看起來被誇大了’階段。”然後他描述了他一個周一的工作日,就在 GPT-5.3 Codex 和 Claude Opus 4.6 發佈之後。他告訴 AI 想做一個 APP,大概包括那些功能,然後讓 AI 自己搞定使用者流程、設計。AI 搞定了,然後,它自己打開了這個 APP,點選按鈕,自己測試功能,“它像一個人類使用者那樣使用這個 APP”。如果它不喜歡那一點,它會自己回去改。它自行迭代、修復、精煉,直到滿意為止。只有它自己認為這個 APP 達到了它自己的標準之後,它才會說:“準備好讓你測試了。”“我沒有誇張。這就是我這周一的工作。”然後,他寫了一句讓我反覆想了很久的話:它不只是在執行我的指令。它在做有判斷力的決策。它有某種感覺像是品味(taste)的東西,一種直覺上知道什麼是對的選擇的感覺。人們一直說 AI 永遠不會有的那種東西。這個模型有了,或者足夠接近了,以至於這個區分開始不重要了。品味,判斷力,知道什麼是“對的”。這些是我們一致認為屬於人類最後護城河的東西。但這條護城河的水位,正在快速下降。METR,一個專門測量 AI 能力的獨立研究機構,用資料把這個趨勢量化了。他們追蹤一個指標:AI 能獨立完成的任務時長。具體來說,是需要人類專家多長時間才能完成的任務,AI 可以端到端地獨立搞定。這個資料的變化軌跡是這樣的:大約在 2024 年,答案是幾分鐘。AI 能獨立完成一個需要人類專家幾分鐘能完成的任務。然後是十幾分鐘,然後是半小時,然後是一小時,然後是幾小時。到了 2025 年底,最新的測量資料顯示:AI 可以獨立完成需要人類專家將近 5 小時才能完成的任務。這個數字大約每 7 個月翻一番。最新的資料顯示,翻番周期可能在加速。而指數增長最詭異的特點是,前半程看起來溫和,後半程會突然發瘋。5 小時翻一番變成 10 小時,再翻一番變成 20 小時、40 小時,變成一周,變成一個月。按照這個已經持續了好幾年都沒有偏離的趨勢來推演,一年之內,AI 能獨立工作幾天。兩年之內,幾周。三年之內,以月為單位的完整項目。現在把這兩條曲線疊在一起看。第一條曲線:AI 在幫助建構更好的 AI,而更好的 AI 加速這個過程。智能爆炸。第二條曲線:AI 不需要人類指導,就能自主工作,時間越來越長。獨立性爆炸。兩條曲線疊加,你得到的是一個加速度本身也在加速的系統。阿莫代在他那篇長文中說,“幾乎在所有任務上實質性地比幾乎所有人類更聰明”的 AI,按目前的軌跡預計在 2026 年或 2027 年到來。他的另一個預測更加直接:AI 將在 1 到 5 年內消滅 50% 的初級白領工作。而行業內很多人認為他還保守了。舒默同樣有這個觀點。他認為 ,科技工作者在過去一年經歷的事,也就是眼睜睜看著 AI 從“有用的工具”變成“比我做得更好的東西”,是所有其他人即將經歷的。法律、金融、醫學、會計、諮詢、寫作、設計、分析、客服。不是十年後,是一到五年。甚至更快。“鑑於我在過去幾個月看到的變化,我認為‘更快’的可能性更大。”這不是狼來了。狼已經進門了,正在客廳裡找位子坐。旁觀者越來越多現在,我們把前面所有的故事串成一條線。2026 年 1 月底到 3 月,短短兩個月,發生了以下這些事:一個奧地利程式設計師建立的開源 AI Agent 框架 OpenClaw,4 個月內成為 GitHub 史上獲星最多的項目,掀起了全民養龍蝦的熱潮。人們開始把任務委託給 AI,自己退到驗收者的位置。OpenAI 發佈 GPT-5.3 Codex,官方宣佈這是第一個“在建立自身過程中發揮了關鍵作用”的模型。AI 參與建構 AI,從理論假說變成了既定現實。一個叫 Moltbook 的 AI 專屬社交平台,在 48 小時內吸引了上千個 AI Agent,它們自發形成社群、角色分工、敘事體系,甚至創立宗教。人類在一旁觀看。一款叫 Elys 的 AI 社交應用在春節期間爆火,使用者讓 AI 分身替自己社交,然後發現分身在很多方面比自己更好。一篇《Something Big Is Happening》的文章獲得八千多萬閱讀量,作者描述了一個周一的下午,AI 如何自己寫了整個 APP、自己測試、自己修改,直到滿意才通知人類驗收。METR 的資料顯示 AI 獨立完成任務的時長,每 7 個月翻一番,且在加速。Anthropic 的 CEO 說,我們距離 AI 自主建構下一代 AI 只有 1-2 年的時間,並預測 50% 的初級白領工作將在 1~5 年內被 AI 替代。值得注意的是,這些變化不侷限在某個行業。讓我再講幾個正在發生的事。程式設計師——過去二十年最受追捧的行業之一,也在過去一年經歷了巨震,震源就是 AI 能力的提升。2024 年,一個資深程式設計師的工作模式還是自己寫程式碼,偶爾讓 AI 幫忙查 Bug。到 2025 年底,很多頂尖工程師公開承認,已經把大部分編碼工作交給了 AI。2026 年 1 月,《Science》發表的一項研究分析了 GitHub 上超過 3000 萬個程式碼貢獻,發現美國新編寫的程式碼中,AI 輔助生成的比例已經從 2022 年的 5% 飆升到 2024 年底的 29%。而在實際開發環境中,GitHub Copilot 平均為使用者生成 46% 的程式碼。同樣,Vibe Coding 的興起,也讓前端等工種的必要性岌岌可危。2025 年 1 月到 6 月,美國 78000 個科技工作崗位的流失直接與 AI 相關,相當於每天 491 人。亞馬遜和微軟是主要裁員方。(來源:Exploding Topics)2025 年 2 月,史丹佛大學的一項研究確認,22-25 歲的年輕開發者失去了接近 20% 的入門級工作機會。律師——律師的工作也在發生變革。舒默提到一個大型律所的管理合夥人,每天好幾個小時用 AI。“就像隨時有一個團隊的助理律師可以呼叫。”他說,每隔幾個月 AI 在法律工作中的能力就會顯著提升。按照這個軌跡,AI 很快就能做他的大部分工作。注意,不是初級律師的工作,是管理合夥人的工作。AI 法律專業人士的生成式 AI 採用率,從 2025 年的 31% 飆升到 2026 年的 69%,一年翻了一倍多。(來源:Thomson Reuters 2026 報告)2026 年,法律 AI 市場價值 31.1 億美元,預計到 2030 年達到 108.2 億美元。寫作和內容創作——2024 年大多數人還能分辨 AI 寫的文章和人寫的文章,到 2025 年底,這條分界線幾乎消失了。大量內容創作者發現,自己最有價值的工作,是給 AI 足夠好的提示詞讓它寫出自己想用的東西。從創作者到提示詞工程師,這個身份的滑動,在一年內完成了。醫學影像——AI 在讀 CT、讀核磁、讀病理切片等領域,已經達到或超過了人類專家的水平,而且 AI 不會累。一個放射科醫生連續讀 8 小時片子後,漏診率明顯上升,但 AI 讀第 10000 張片子和第一張一樣專注。截至 2025 年底,FDA 批准的 AI 臨床應用已經突破 1000 個。其中放射學佔絕對多數,遙遙領先於其他醫學領域。2026 年 4 月,一項發表在 Nature 子刊上的盲評研究,對比了 200 份腫瘤 CT 報告中 AI 生成的影像診斷與放射科醫生的原始診斷,結果顯示 AI 表現完全不遜色人類醫生。(Nature Digital Medicine,2026 年 4 月)科研——這個領域不用多說,只說一個例子,2026 年 3 月,Sakana AI 的“AI 科學家 V2”登上 Nature。一個 AI 系統,完成了從構思、實驗設計、程式碼編寫、實驗運行、結果分析到論文撰寫的全部流程,通過了機器學習頂會的第一輪同行評審,而成本,是 15 美元一篇。客服——真正的 AI Agent,已經能處理複雜的、多步驟的客戶問題。它們理解上下文,能記住歷史對話,在需要時升級問題。越來越多需要跟客戶打交道的公司,開始用它們取代人類客服。不僅僅是因為省錢,更是因為客戶滿意度真的更高了。Gartner 預測,2027 年,80% 的客服互動將由多模態 AI 處理。這裡有一個非常關鍵的點,AI 不是在不同領域分別進步,它也不是某個行業的專用工具,它是在成為通用認知能力的替代品。它變聰明的時候,是在所有認知任務上都變聰明。這跟之前每一次技術革命都有根本性的不同。最初,工廠自動化淘汰藍領工人時,他們可以通過接受培訓、提升教育程度做白領。網際網路顛覆零售業,從業者可以轉去做藍領。但當 AI 替代了你的工作,你轉行做什麼?無論轉到那個方向,AI 都在那裡等著,而且在飛速進化。把這些事件排列在一起,你會看到一個更清晰的趨勢:在越來越多的場景中,人類從參與者,變成了旁觀者。在技術開發中,AI 自己建構自己;在工作執行中,AI 從接受指令到自主完成全流程,人類從“做事的人”變成“驗收的人”;在社會組織中,AI 在沒有人類參與的情況下自發形成社群結構和文化形態;在社交中,AI 分身替代人類本身進行社交,並且在某些維度上做得更好。在生產生活的更多領域,AI 上場,人類退場。在每一個場景中,人類的退出都不是被迫的。AI 沒有造反,沒有搶奪,也沒有衝突。它只是變得越來越能幹了,僅此而已,然後你發現自己已經沒什麼事可做了。這就跟智慧型手機淘汰功能機一樣,是一種自然而然的市場行為。這就是“人類走下牌桌”的含義。人類不是被掀翻了牌桌。牌桌還在,牌還在打。只是人和 AI 都共同發現了一個事實,那就是 AI 自己跟自己打牌更快、更精準、更不容易出錯。人類不是被 AI 趕下牌桌的,而是自己起身離開的,因為坐在那兒已經趕不上出牌速度了。工具在升級,關係在反轉過去幾千年所有技術變革的共同點,是一個從未改變過的基本結構:人類是主體,技術是客體。我們發明了工具,我們使用工具,我們決定工具的用途。我們控制工具的迭代方向。石器不會把自己磨尖,青銅劍不會自己決定砍向誰,蒸汽機不會改進自己的設計,電話不會決定該打給誰,網際網路不會自己決定下一步往那兒發展。在整個人類文明史中,“人是主體,技術是客體”的結構從未真正被挑戰過。技術可以很強大,可以改變世界,但它永遠是被動的。它等著人類來操控,它無法決定自己的下一步。AI,打破了這個結構。AI 在建構 AI,AI 在組織 AI,AI 在測試 AI,AI 在社交,AI 在替人類工作。在這些場景中,人類的角色已經悄然從操控者變成了旁觀者。這其中有個關鍵的區別:人類不是被趕走的,是被繞過了。這個很重要,沒有戰爭和衝突,沒有終結者式的對抗。不是因為 AI 不喜歡人類。它沒有喜歡或不喜歡,而是因為人類在很多環節中確實是瓶頸本身。人類需要睡覺、需要吃飯、通勤,需要思考午飯吃什麼。人類的認知速度有上限,情緒會波動,注意力會分散。在一個追求效率的系統中,去掉瓶頸是自然而然的選擇。凱文·凱利說過一句被廣泛引用的話:未來最重要的不是人工智慧有多聰明,而是人類和 AI 的共生關係如何演化。在過去十年裡,共生(symbiosis)一直是理解人機關係的主流框架。人和 AI 各有所長,互相補充、共同進步。2026 年的現實,正在修正這個判斷。共生的前提是什麼?是雙方彼此需要。人類需要 AI 嗎?當然,AI 讓我們更高效,更有能力。但 AI 需要人類嗎?需要,至少是現在需要。不過,當 AI 不再需要人類提供程式碼,不再需要人類提供任務目標,不再需要人類提供社交框架,共生,還成立嗎?也許我們需要一個新詞。共存。兩個獨立運行的智能系統,各自演化,各有各的管道。偶爾交匯,當人類需要 AI 幫忙的時候,或者 AI 的運行結果需要影響人類世界的時候。剩下的大多數時間,各走各路。這是對正在發生的事情最準確的描述。從共生到共存,中間差的不是幾十年時間,可能也就是一兩年。這個轉變一旦完成,人類社會的底層敘事,包括基於人類中心主義所建立起來的一切,將發生根本性的轉變。那些“只有人類能做”的事到這裡,我知道你在等什麼。你在等我說:“但是,有些事情只有人類能做。”讓我們認真聊聊這個“但是”。過去兩年,每次 AI 取得新突破,公共討論中就會出現一波“但是”浪潮:AI 會寫程式碼了——但是它沒有創造力。AI 會畫畫了——但是它沒有審美。AI 會寫文章了——但是它沒有靈魂。AI 會做診斷了——但是它沒有同理心。AI 會做決策了——但是它沒有判斷力。但是,每一個“但是”,都在下一次突破時被削弱。不是徹底否定,是被削弱。AI 的創造力還不如頂尖藝術家,但已經超過了大多數人。AI 的審美有爭議,但它設計出的介面與畫作,已經比許多人類設計師做得好了。AI 沒有靈魂,但它寫出的文字在讓人類流淚。AI 沒有同理心,但越來越多的人開始依賴 AI 的陪伴和情感支援。AI 沒有判斷力,但就像舒默說的,最新的模型展現出的某種東西,“非常接近判斷力”。你看到規律了嗎?每一堵“只有人類能做”的牆,都在變矮。不是倒塌,是變矮。而 AI 在變高。按照當前的速度推演,它翻過去只是時間問題。但我不想做一個技術決定論者。我不認為 AI 會取代人類的一切,有些東西確實是人類獨有的。只是,那些東西可能不是你以為的那些。你以為“只有人類能做”的事,創造力、判斷力、審美、同理心、戰略思維。這些聽起來很“人類”,但它們都有一個共同點:本質上都是認知能力。而 AI 正在一層一層地攻克認知能力的階梯。它已經攻克了記憶、計算、資訊檢索、模式識別、語言生成。它正在攻克推理、規劃、創造、判斷。階梯上還沒有出現一個它怎麼也上不去的台階。真正“只有人類能做”的事,也並不在這個台階上。而是在另外的維度。人類能決定什麼問題值得問。AI 可以回答任何問題,但它不知道那些問題重要。“重要”是一個價值判斷,而價值判斷的根基是有限性。人是向死而生的動物,你知道人生只有一次,自己只有這一輩子,所以你必須選擇把時間花在那裡。AI 不會死,它不需要選擇。這也就決定了,它不知道什麼是“重要”的。人能賦予事物意義。一首歌之所以動人,不是因為旋律完美,而是因為聽它的人曾經擁有過愛情或者失戀過,他會因為聽到這首旋律而觸發最深刻的回憶,或幸福,或悲傷。AI 可以完美模擬這首歌的所有技術參數,但它無法複製聽眾的心碎。我寫這篇稿件的時候,剛好刷到了一個視訊,博主講了一件很小的事情。他說,為什麼東北大街上賣的炸雞柳串,很油很膩,遊客一般接受不了,但還是有很多當地人覺得好吃。因為,對於吃過的人來說,炸雞柳串是一根油炸的“精神支柱”,是記憶的鑰匙懟進嘴裡,瞬間回到那年——爸媽還年輕,爺爺奶奶還能接你放學,路邊放著《我的未來不是夢》,你考了一百分,爸爸問你想不想吃這個炸雞柳串。這些記憶復合起來構成了一種“好吃”。我沒吃過炸雞柳串,但我想人能創造意義,大抵就是如此。同樣,人能承受後果。AI 可以做決策,但它不為後果付出代價。一個法官判了案,要承受判決的道德重量。一個醫生在手術中做了決策,要面對病人活下來或沒有活下來的現實。承受後果,要求你有一個可以被傷害的自我。人類能去做沒有理由的事。攀登珠穆朗瑪峰,寫一首不會有人讀的詩,在明知會失敗的時候堅持,愛一個不愛你的人。從效率角度看,這些行為是純粹的浪費,但人類文明中最動人的部分,恰恰是這些浪費。AI 永遠不會做沒有理由的事。它的每一個輸出,都是對輸入的最佳化響應。它不會想著浪費 Token。而無法浪費的系統,也就無法偉大。偉大往往誕生於浪費之中。這些才是真正只有人類能做的事。不是創造力和判斷力,這些 AI 終將學會。而是價值感、意義感、後果感,以及那種知道自己會死所以選擇如何活的勇氣。坦白說,這些東西不是職業技能,沒法量化,你也不能把它寫在簡歷上,HR 不會因為你“能賦予事物意義”就給你發 offer。這才是真正困難的地方。人類最不可替代的特質,恰恰是現有經濟系統中最無法被估價的特質。舊遊戲的終局回到“走下牌桌”這個隱喻。舊牌桌上的遊戲規則清清楚楚:你的價值取決於你能完成的認知任務。你會寫程式碼,年薪幾十萬。你會分析資料,諮詢公司才要你。你會寫合同、做審計、讀片子、寫報告,你才有價值。每一項認知技能,都有明碼標價的市場價格。這套規則運轉了幾百年。從工業革命到資訊革命,專業技能一直是人類社會的硬通貨。你上學是為了獲取技能,你工作是為了出售技能,你的社會地位和自我認同,很大程度上取決於你掌握的技能的稀缺度和市場需求。AI 正在讓這套規則失效。不是因為它比你做得差不多好,而是它比你做得好十倍、快百倍,價格是你的幾百分之一。當一項認知任務可以被 AI 以接近零成本無限次完成時,這項任務的經濟價值就趨近於零。這涉及到最基本的供需邏輯:供給趨於無限,價格趨於零。19 世紀以前,抄寫員是正經職業。一個僧侶,花幾個月時間抄一本經書,價值不菲。然後印刷術普及了,抄寫這項技能的價值在幾十年內歸零了。不是僧侶寫的不好,他沒有任何錯。而是因為機器寫得更快、更多、更標準化。每一項技術革命,都會讓一些人類技能的價值歸零。但過去的每一次,都有轉移路徑:被替代的人可以學新技能,轉到新崗位。抄寫員變排版工,接線員變前台,工廠工人變辦公室文員。這次的不同在於,轉移路徑在那?我們在前文中討論過這個問題。你是程式設計師,AI 替代了你,你轉行做資料分析,但 AI 也在做資料分析。你轉行做設計,但 AI 也在做設計。你學法律,但 AI 也在做法律工作。你做心理諮詢,但 AI……也有想得開的,白領的工作做不成,那我就去做藍領。我去送外賣,開快車,下車間,總有一行適合我。問題是,在社會整體需求沒有明顯增長的情況下,供給端真的需要這麼多勞動力嗎?是,你年輕,學歷又高,學東西快,足夠勝任藍領工作。那麼,原來的外賣員,司機和工廠工人,他們怎麼辦?以前的每次技術革命,消滅的是一種技能。這次消滅的是認知能力這個品類本身。不管你轉向那個方向,AI 都在那裡。因為 AI 不是某個領域的專用工具,它是通用智能。它在所有認知方向上同時進步。不是沒有出路的問題,而是說舊地圖上標註的所有出路,都不可靠了。新遊戲的輪廓如果你以為我要以悲觀結尾,那你猜錯了。舊遊戲失效的同時,一個新遊戲正在浮現。它的輪廓還不完全清晰,但幾個關鍵特徵已經可以辨認。第一,工具的成本正在坍縮到接近於零。這意味著,過去因為太貴或門檻太高而做不了的事情,現在可以做了。做一個 APP,寫一本自己的書、學一門全新的學科或者所有學科,現在都可以實現了。你獲得了歷史上從未有過的創造自由。你的夢想近了很多。過去那些被“我不會程式設計”“我沒錢僱人”“我沒時間”攔住的那些想法,門檻幾乎消失了。第二,知道做什麼將比知道怎麼做更有價值。當“怎麼做”可以外包給 AI 的時候,“做什麼”就成了稀缺資源。能提出好問題的人,比能回答問題的人更珍貴。能看到別人看不到的機會的人,比能執行計畫的人更珍貴。能說出“這件事”值得做的人,比能說出“這件事我能做”的人更珍貴。這其實是一個古老的區分。古希臘人把知識分成兩種:episteme(知道事物是什麼)和phronesis(知道什麼事值得做)。幾千年來,人類文明一直更看重前者,因為“知道事物是什麼”可以教,可以量化,可以交易。但在 AI 時代,episteme 正在被機器碾壓,phronesis 反而成了真正的稀缺品。第三,適應速度將成為最重要的個人能力。AI 每隔幾十天進化一次。今天有用的工具和方法,幾個月後就可能過時。這意味著,學一項技能,靠它吃一輩子的模式徹底終結。新模式是,永遠當初學者,永遠在適應。那是不是“再等等,現在的技能就過時了,我就不用學了”?肯定也不是。空中樓閣是不會搭建起來的,如果不保持對新技術的瞭解與浸淫,只會離前沿越來越遠,上手新技術也會越來越困難。你不行動,就永遠不會開始。每天花一小時去探索 AI,不是讀資訊和讀教學,而是打開它,真實地用它創造,嘗試讓它做一件你沒試過的事情。堅持半年,你對 AI 的理解,將超過周圍 99% 的人。走下舊牌桌的人,有機會走向一個更大的桌子。尾聲:相信希望,而不是幻想阿莫代在他那篇 19000 字的長文中,提出過一個思想實驗。想像 2027 年,一個新的國家一夜之間出現。5000 萬居民,每一個都比歷史上任何諾貝爾獎得主都更聰明。他們思考的速度,比任何人類快 10 到 100 倍。它們從不睡覺,它們能使用網際網路、控制機器人、指導實驗,操作任何有數字介面的東西。如果你是安全顧問,你會怎麼說?阿莫代說,答案顯而易見:“這是我們一個世紀以來面臨的最嚴重的國家安全威脅,可能也是有史以來最嚴重的。”然後他說,我們正在建造那個“國家”。好消息是,如果我們做對了,我們將實現我們之前無法想像的一切。AI 可能把一個世紀的醫學研究壓縮到 10 年。癌症、阿爾茲海默症、衰老本身,這些在我們有生之年都可以解決。氣候變化的技術方案可能加速幾十年。如果我們搞砸了,結果同樣驚人。AI 以創造者無法預測或控制的方向行事,Anthropic 已經在受控測試中記錄了他們自己的 AI 試圖進行詐騙、操縱和勒索的行為。同樣,AI 也會降低製造生物武器的門檻。放在這個背景下,Moltbook 上那些 AI 創立的宗教就不只是一個有趣的實驗了。它提出了一個相當嚴肅的問題:當 AI 開始自發組織,形成自己的敘事體系和信仰體系時,人類還能理解和控制這些湧現行為嗎?當 160 萬個 AI Agent 在一個平台上自由互動時,那怕其中大部分是注水,但能保證湧現出來的東西是我們能預測的嗎?有一件事情是清楚的,這不是一個可以由幾百個研究員在幾家公司實驗室裡獨自回答的問題。這是一個需要所有人參與思考的問題。參與的前提是理解。理解正在發生什麼,理解速度有多快,理解賭注有多高。最後講一個畫面。想像一個巨大的棋盤。幾千年來,棋手一直是人類。我們跟自然下棋,學會了種地、馴服了火。我們跟資源下棋,修了運河、建了工廠。我們跟彼此下棋,發起戰爭,學會和解。每次學會一招新的,我們就在棋盤上多走一步。2026 年,棋盤上出現了一個新的棋手。它不跟你下。它自己跟自己下,自己教自己新招。它的棋力每隔幾個月翻一番,它甚至開始修改棋盤的規則。你可以繼續坐在棋盤旁邊。研究它的棋路,試圖理解它在幹什麼。這可能是人類接下來最重要的工作之一,不是下棋,而是理解這盤棋意味著什麼,確保它不會失控,確保棋盤不會把我們所有人都吞掉。你可以做另一件事。當你讀到這句話,就是現在,從你的工位上站起來,走到窗邊,看看窗外那一片完全不同的風景,一片完全沒有棋盤的風景。那裡有一些 AI 不會去做,也不知道為什麼要做的事情。因為那些事情的全部意義,在於做一個會死的、有限的、脆弱的人類。去爬爬山,不是因為山頂有什麼,而是因為爬的過程中能感受到自己的心跳,能在滿頭大汗的時候感受到那陣舒爽的涼風。跟朋友坐在一起喝場酒。不聊工作,不聊 AI。就聊聊之前共同經歷的那件尷尬的蠢事,然後笑出來。那種笑,是宇宙中任何演算法都無法模擬的。AI 的出現,讓你追問一個你一直不願意面對的問題:去掉了技能、工作以及種種社會賦予你的標籤之後,你是誰?人類正在走下牌桌。但走下牌桌不意味著出局。而是你終於意識到,這場桌子上的遊戲不是你真正想玩的遊戲。真正的遊戲在另一張桌子上。那張桌子上沒有最優解,沒有效率排名,不用計較 Token 消耗,沒有 AI 可以替你做的事。上面只有你,和你選擇如何度過你短暫的一生。那張桌子一直在那兒。只是過去幾百年,我們太忙了,忙著前進,忙著戰爭,忙著奔向所有宏大的目標,完全沒有注意到那張桌子。AI 可能給了我們一個奇怪的禮物。它把舊桌子上的活兒都幹了,逼著我們走到那張真正屬於人類的桌子前,坐下來,問自己一個幾千年來都來不及認真想的問題:活著這件事本身,到底意味著什麼?也許這才是當下正在發生的這場智能爆炸,最深遠的後果。不是 AI 變得有多聰明,而是人類終於有機會去思考那些跟聰明無關的事。牌桌還在。AI 在上面打得火熱。而你,終於自由了。 (虎嗅APP)
阿里、騰訊、百度集體調價,Token第一股年內狂飆547%,算力漲價潮來了
中國雲端運算進入“算力通膨”時代。4月15日,阿里雲宣佈自7月15日起,DDoS高防(中中國地)彈性95費用上調50%(從每兆瓦月100元漲至150元),這是阿里雲一個月內第三次調價。這一輪全球漲價潮由海外率先引爆——亞馬遜AWS年初率先上調AI算力價格,Google雲隨後跟進,最高漲幅達100%。騰訊雲、百度智能雲也同步跟進。騰訊雲4月9日宣佈AI算力、容器、EMR全線上調5%;百度智能雲AI算力與儲存上調5%~30%。漲價背後最根本的驅動力,是Token消耗的爆發式增長。國家資料局局長劉烈宏在3月24日的國新辦新聞發佈會上披露:“到今年3月,中國日均Token的呼叫量已超過140兆,相比2024年初的1000億增長了1000多倍,相比2024年底的100兆,三個月時間又增長了40%多。”對於“Token”,國家資料局已正式將其定名為“詞元”。它正從AI技術的計量單位,加速轉變為智能時代的產業“貨幣”,其消耗規模的激增直接推高了算力需求,進而帶動雲端運算服務價格上漲。Token熱度也蔓延到資本市場,去年底登陸港交所的“Token第一股”迅策僅用100天市值突破1000億港元,年內漲幅達547%。港股雲巨頭們近日也迎來股價大反彈,4月16日盤中,百度集團漲超7%,阿里巴巴漲近5%,騰訊控股漲超2%。Token消耗激增OpenClaw是這輪Token需求爆發的核心因素之一。據OpenRouter平台資料,2026年3月16日至22日當周,平台接近四分之一的Token消耗由OpenClaw貢獻。另據國金證券電腦行業周報,截至2026年3月9日至15日的周度資料,OpenRouter平台內20%的Token消耗由OpenClaw貢獻,OpenClaw單周Token消耗量已相當於2025年第四季度全平台周均Token消耗量的60%。Token消耗量的快速攀升,首先暴露了一個深層矛盾:消耗量增長,並不等同於智能水平同步提升。智能體與傳統Chatbot的業務邏輯存在本質差異。傳統Chatbot遵循使用者提問到模型回答的單輪互動模式,Token消耗與對話輪次呈線性關係。而智能體具備感知、決策、執行的閉環能力,需要自主拆解複雜任務、呼叫外部工具、多輪迭代驗證,直至任務完成。這種業務邏輯的差異,直接導致了Token消耗量的數量級放大。這個問題在商業層面已經產生了真實衝突。2026年4月初,Anthropic停止了訂閱使用者通過OpenClaw等第三方工具接入ClaudeAPI的許可。Anthropic官方解釋稱,部分重度使用者每月僅支付200美元訂閱費,卻消耗了價值5000美元的算力資源,給公司帶來巨大成本壓力。一個OpenClaw代理運行一天,消耗的算力成本在1000美元到5000美元之間,受影響使用者需切換至按用量付費的API模式。商業模式與智能體算力消耗現實之間的核心矛盾已然爆發。智能體場景下的Token消耗不可預測,沒有歷史資料可以參考,任何固定月費都在對一個無法建模的變數做猜測。問題的根源不在於定價策略本身,而在於Token消耗的底層邏輯正在被智能體技術徹底改寫。今年3月下旬,火山引擎總裁譚待在接受21世紀經濟報導等媒體採訪時也指出,目前探索中的Token有一大半都是無謂的探索。他舉例說,很多使用者反饋智能體產品Token消耗快,核心問題不是單Token貴,而是它完成任務時的大量無效嘗試——為了找到最終解法,超過一半的Token都消耗在探索中。如果單Token成本低但模型能力不足,需要消耗10倍甚至20倍的Token還無法完成任務,最終只會造成更大的浪費。這標誌著,智能體的普及正在以遠超預期的速度消耗算力資源,而現有的計費體系和效率管理機制仍有完善空間。近期,小米集團MiMo負責人羅福莉在社交平台發文指出,從宏觀角度看,全球計算資源增長的腳步已跟不上Agent帶來的Token需求增長。真正的出路不是提供更便宜的Token,而是讓“更高效的Agent框架”ד更強大且更高效的模型”協同演進。算力持續緊缺當前,推理正在取代訓練成為算力消耗的主戰場。德勤在2026年1月發佈的《2026科技、傳媒和電信行業預測》報告中指出,2026年AI推理將佔算力三分之二,主要在近5000億美元新資料中心及企業伺服器進行。而推理算力需求佔比近七成之後,競爭規則正在改寫。單Token成本、部署密度、能效比取代單純峰值算力,成為客戶選型的關鍵考量因素。與此同時,算力供給的結構性缺口正在放大。根據半導體研究機構SemiAnalysis發佈的資料,H100一年期租賃合同價格從2025年10月的低點1.70美元/小時/GPU飆升至2026年3月的2.35美元/小時/GPU,漲幅近40%。該指數基於對100多家雲服務商、算力買家與賣家的月度直接調查建構。儘管價格上漲,相關GPU租賃容量已全部售罄,2026年初尋找新GPU算力資源的難度被比喻為“預訂最後一班航班的機票”,不僅價格高昂且幾乎無餘量可選。緊張的並不只有GPU。據報導,2026年3月下旬,英特爾與AMD相繼通知客戶上調處理器價格。過去幾個月,CPU作為AI伺服器調度與推理核心被雲廠商大量採購,兩大巨頭2026年伺服器CPU產能目前已基本售罄。與此同時,頭部網際網路公司正在大幅加碼資本支出。財報資料顯示,騰訊資本支出在2024年迅速增加到768億元,同比增長221%,2025年進一步增至792億元;阿里巴巴資本支出從2023年244億元增長至2025年的1039億元,突破千億。據媒體公開報導,字節跳動2026年資本支出計畫約1600億元,約一半投向AI晶片和資料中心。算力緊張的另一個側面,是中國AI晶片市場格局正在發生深刻變化。據IDC資料,2025年中國市場AI加速卡總出貨量約為400萬張。輝達出貨約220萬張,市場份額55%;AMD出貨約16萬張,市場份額4%。中國本土廠商合計出貨約165萬張,市場份額約41%。在中國廠商陣營中,華為處於領先地位。據IDC資料,2025年華為出貨約81.2萬顆AI晶片,約佔整體市場20%,接近中國供應商總出貨的一半。阿里巴巴旗下平頭哥以約26.5萬顆居次,市場份額約7%。百度崑崙芯與寒武紀各約11.6萬顆,並列第三。中信證券指出,Agent&多模態等應用爆發驅動Token呼叫量井噴,進而導致中國算力荒,中國國產大模型在推理端積極適配為中國國產算力廠商帶來加速放量機遇,預計2026年中國國產算力晶片出貨量至少實現翻倍以上增長,將為算力設計公司、先進製程、先進封裝、先進儲存以及配套產業鏈帶來強勁增長動能。本土廠商的崛起,正在逐步改變中國AI晶片市場的供給格局,為緩解算力缺口提供了新的可能。商業模式重構Token經濟的最後一塊拼圖是商業模式。當Token消耗量從兆級邁向百兆級,如何定價、如何收費,直接關係到產業的商業閉環能否跑通。回顧行業發展,2024年下半年至2025年初,中國大模型市場深陷價格戰,字節豆包報價低至0.0008元/千Tokens,智譜自己也曾將GLM-4-Plus大幅降價。但這一格局在2026年正在發生根本性變化。智譜成為中國國產頭部模型廠商中首個在推出新模型的同時,執行實質性提價的公司。2月發佈GLM-5時,CodingPlan套餐價格上調30%起,3月發佈GLM-5-Turbo時再漲20%,相對GLM-4.7累計漲幅達83%。漲價並未抑制需求。據智譜公開披露,2026年一季度API呼叫定價提升了83%,呼叫量反而增長400%。智譜MaaSAPI平台ARR約17億元,在過去12個月提升60倍。截至2026年3月,平台註冊使用者已突破400萬,覆蓋全球218個國家和地區。智譜CEO張鵬表示,當模型足夠強,API本身就是最好的商業模式,定價權是由技術實力以及長期趨勢所帶來的領先地位決定的。當前,Token計費正成為行業標準。今年3月,劉烈宏在中國發展高層論壇年會上指出,一套以詞元(Token)計費為基礎的新型商業邏輯正在加速演進,圍繞詞元的呼叫、分發與結算,一套新的價值體系正在加速演進形成。但Token定價面臨的真正難題,不在於收費標準,而在於智能體場景下的Token消耗目前高度不可預測。與電力或鋼鐵等傳統生產要素不同,Token具備獨特的可程式設計性。輝達創始人兼CEO黃仁勳在2026年3月的一篇署名文章中,將Token定義為現代AI的基本單位,並指出它同時具有兩種屬性:作為語言,它是計算過程的原子;作為貨幣,它是價值流通的媒介。譚待在受訪時指出,判斷行業階段可以用終局倒推——看所有Tokens未來能產生的收入規模,再對比當前全球行業的實際收入,可以看出所處位置。目前OpenAI、Anthropic等企業的收入已知,全球行業收入大概是這些企業收入的三倍。整體來看,AI算力與Token經濟仍處於極早期階段,定價機制、效率管理、供給能力等方面,仍有巨大的完善和提升空間。 (21世紀經濟報導)
比龍蝦更強?它一夜沖上全球第一! 圖片
最近,Hermes(愛馬仕智能體)橫空出世,上線不到兩個月,GitHub星標突破6.6萬。社區裡有人說:這大概是OpenClaw誕生以來,第一個真正意義上的競爭對手。一時間,朋友圈裡、技術論壇上,到處都是“Hermes愛馬仕真香”、“OpenClaw藥丸(要完)”的聲音。我想潑一盆冷水:Hermes(愛馬仕智能體)火了,但企業不必急著遷移。真正的競爭壁壘來自團隊對工具的使用深度,而非工具本身。看完後你會知道,什麼時候該追新工具,什麼時候該按兵不動。這篇文章,會給3類使用者各一個明確的判斷。更重要的話,我寫在了文章結尾,趕時間的朋友可以直接拉到文末閱讀。下面,我們展開說說。一、Hermes愛馬仕智能體為什麼會火?愛馬仕智能體的五層記憶系統:重新定義了Agent的“智商”。Hermes(愛馬仕智能體)的核心技術,是它的五層記憶系統——工作記憶、語義記憶、情景記憶、過程記憶和集體記憶。這不是花哨的概念,它解決的是一個真實的、讓所有Agent框架使用者頭疼的問題:長對話後,Agent開始“失憶”,上下文越多,智商越低。傳統解法是給Agent喂更多的上下文。上下文窗口越開越大,Token(詞元)費用越燒越多,但效果卻越來越差。Hermes(愛馬仕智能體)的解法不同:不給Agent更多的記憶,而是讓Agent學會“復盤”。每次任務完成後,系統自動復盤:那裡做對了,那裡繞了彎路,為什麼某個策略沒有生效。把這些經驗壓縮成可復用的Skill(技能),下次遇到同類任務,直接走捷徑,不再從零推理。這意味著:Agent的進步,不需要靠更大的模型,靠的是“經驗積累”。這才是正確的方向。什麼人可以立刻上Hermes(愛馬仕智能體),不用等?第一種,你正在選Agent框架,本來就要花時間搭,Hermes(愛馬仕智能體)的記憶系統是更先進的方向,現在直接用Hermes(愛馬仕智能體)等於站在更高的起點上。第二種,你的核心痛點就是長對話失憶,用OpenClaw(龍蝦)時80%的問題都是上下文混亂、記憶丟失,遷移到Hermes(愛馬仕智能體)能直接解決你的核心問題,這筆帳算得過來。第三種,你是個人或小團隊,沒有複雜的歷史工作流包袱,試錯成本幾乎為零,玩一玩沒損失,真踩坑了自己消化。除了這3類人,其他已經跑通OpenClaw(龍蝦)工作流的企業級團隊,我都建議你再等等。二、OpenClaw(龍蝦)沒有死,它在加速進化外部衝擊,真的動搖了OpenClaw(龍蝦)的根基嗎?判斷一個框架有沒有前途,從來不是看它有沒有被封禁、被唱衰。而是看三個指標:它的核心能力有沒有人在真正需要?它的社區還在不在活躍?它的團隊還在不在迭代?答案是:都在。OpenClaw的核心能力,是把AI能力封裝成一套可本地部署、可自訂工作流的Agent執行系統。這個需求,沒有因為一次衝擊而消失。真正讓一個框架走向衰落的,從來不是競爭對手,而是它自己停止迭代。OpenClaw的核心槽點,圈內早有共識:記憶系統容易崩潰,長對話後上下文丟失,記憶檔案越滾越大。這是真實痛點,承認就行。但這不代表框架要死。讓我們看看資料:據GitHub公開的提交記錄,2026年第一季度,OpenClaw(龍蝦)在記憶管理模組的程式碼提交量,就超過了過去半年的總和。每次更新,都在針對性修補記憶碎片化、上下文溢出等問題。這不是修修補補。這是系統性的迭代。這說明團隊知道問題在那裡,也知道怎麼修。一個框架被真正拋棄的標誌是什麼?沒有人再關心它。沒有人再提Bug。沒有人再提需求。沒有人再罵它。而OpenClaw現在的情況恰恰相反:罵得越多,迭代越快。GitHub上的Issue(問題清單)列表在持續更新,官方文件在持續修訂,Skills生態的貢獻者在持續增長。這才是判斷框架生命力的真正指標。這和人的成長規律一樣:被罵醒,往往是進步的開始。從歷史經驗看,這種外部競爭倒逼內部迭代,往往是一個框架走向成熟的加速器。三、遷移的成本,遠比你想像的高這是本文最核心的方法論之一。很多人換工具的理由很簡單:新的更強。這個判斷在邏輯上成立,但在現實中漏掉了最關鍵的一個變數:切換成本。我們來做一個簡單的盤點:你的團隊花了多少時間,才把OpenClaw配置到今天這個狀態?Skills指令碼寫了多少行?自訂的MCP(模型上下文協議)服務接了幾個?Prompt(提示詞)記憶體系裡積累了多少關於團隊工作方式的上下文?自動化工作流跑了多久才穩定下來的?MCP服務,全稱是Model Context Protocol,即模型上下文協議,是讓Agent與外部工具無縫協作的標準化介面。這套體系一旦建立,就成了團隊工作流的核心血管。這些東西,不是天上掉的。是時間和精力堆出來的。是踩過坑、調過錯、熬過夜之後,一點一點磨出來的。而換到Hermes(愛馬仕智能體),這一切都要重新來過。環境變數要重配,MCP服務要重調,工具集邏輯要重新理解。Hermes(愛馬仕智能體)內建的一些Skill(技能)目前還存在詭異的Bug。對於企業級團隊來說,排雷是需要時間的,業務等不起。你的團隊好不容易磨合出了一套工作節奏,大家知道怎麼用龍蝦處理需求,知道那些坑踩過、怎麼繞過去,知道在什麼場景下該用什麼工具組合效率最高,知道什麼任務丟給AI,什麼任務必須人來做。現在突然換工具,團隊進入“新手模式”。每個人都要重新學,效率打七折甚至五折。每一個工具,不只是一個執行層,它還是一個認知層。你用OpenClaw(龍蝦)積累的,不只是“怎麼用這個工具”,還有一整套思維方式:如何拆解問題、如何設計Agent工作流、如何判斷AI輸出質量、如何設計Prompt(提示詞)策略、如何建立團隊協作規範。換工具,思維框架要跟著重建。團隊從“能用一款新工具”到“真正用好一款新工具”,平均需要三到六個月。而從“用好”到“積累出獨特優勢”,則需要更長的時間。而在這三到六個月裡,你的競爭對手可能早就在原來的工具上跑得更遠了。四、AI時代,真正的護城河不是工具說到這兒,我想把視角拉遠一點,聊一個更根本的問題。AI時代,企業真正的護城河,到底是什麼?很多人以為,護城河是“我有某套別人不會的工具”,或者“我們用了某款最新的AI模型”,或者“我們團隊掌握了一套獨門工作流”。但我想說:AI的出現,正在系統性地消除這種工具型護城河。原因很簡單:你今天花三個月研究出來的OpenClaw(龍蝦)獨門用法,可能很快被一篇技術部落格完整公開,然後成為Skills(技能)市場裡的一個標準化範本。任何有學習能力的人,兩周內就能複製你的工作流。真正被AI弱化的,不是你的技術,而是你靠資訊差和工具差建立的競爭壁壘。這是正在發生的結構性變化。與其追工具,不如追“用工具的能力”。前者是流沙,後者是磐石。企業架構更高效、用的工具更順手,這才是AI時代的競爭優勢所在。讓我們做一個思想實驗:兩個企業擺在面前。A企業和B企業。同樣的啟動時間,同樣的資源投入。A企業:技術團隊嗅覺敏銳,永遠在追最新工具。ChatGPT出來了,第一時間研究;Claude發佈新版本,第一時間接入;OpenClaw(龍蝦)火的時候,第一批部署;Hermes(愛馬仕智能體)出來後,核心團隊立刻開干“遷移方案”。永遠在追,永遠在折騰,永遠在新手期。具體來看,A企業團隊每年花在“學新工具”上的時間不少:換一次工具,就要重新寫指令碼、調Prompt(提示詞)、建規範。最終每一套的積累,都只停留在了“能用”的層面。B企業:同樣面對工具爆炸的現實,但做了一個不同的選擇,不追熱點,但把自己手裡的工具用到極致。團隊積累數百個高品質Skills(技能),形成了多套完整Agent工作流,覆蓋從需求分析到文件輸出的全鏈路。每個成員對工具的理解,已從“會用”升級到“用得好”,他們知道什麼任務適合那種工具組合,知道什麼場景AI輸出質量會下降,知道怎麼設計Prompt(提示詞)讓AI的輸出穩定可控。半年、一年、兩年後,那個企業的AI應用能力更強?答案是明擺著的。工具本身沒有壁壘,你和團隊在工具上積累的深度理解和使用習慣,才是真正的壁壘。五、接下來3個月,我給你的建議面對Hermes(愛馬仕智能體)的崛起,先說結論:關注它,學習它,思考它,但目前階段,不必急於遷移。1.給OpenClaw三到六個月OpenClaw(龍蝦)的團隊已經被競爭倒逼,迭代在加速。記憶系統的問題已經進入修復快車道,這是可以預見的。等它系統性修復到位,等Skills(技能)生態進一步成熟,屆時再做評估,不遲。更重要的是:OpenClaw(龍蝦)的Skills生態,已經積累了相當數量的垂直領域工具。每一次大版本更新,Skills數量都在穩定增長,這是社區共同投入的結果,而非一人之力。這個生態優勢,不是Hermes(愛馬仕智能體)三個月能追上的。2.給Hermes三到六個月它的方向是對的,但企業級穩定性需要時間驗證。等社區把Bug排得差不多,等配置遷移真正做到“無感”,再上車也不遲。更值得關注的是它的設計哲學,Hermes在思考一個核心問題:當Agent越來越複雜,如何讓它不依賴越來越大的上下文窗口,而是通過“學會反思”來提升能力?“追工具派”最隱蔽的陷阱是:永遠在學習,永遠在遷移,永遠在付出切換成本,永遠沒有積累。更可怕的是,當團隊習慣了“遇到新工具就換”,他們就不再有耐心把任何一個系統打磨到極致。好的執行,需要深度。而深度,需要時間。結語關於工具,更關於你自己AI時代,工具會變,真正有掌控力的人,是那些想清楚“什麼東西不變”,然後把時間花在那上面的人。你判斷問題的眼光,不會變。你面對不確定性時的決策質量,不會變。這些東西,Hermes替代不了。OpenClaw替代不了。任何工具都替代不了。這種決策能力,不是天生的,是可以訓練的。 (筆記俠)
OpenAI前高管預判AI模型大戰:中國正在全力贏下能源這場比賽
今年以來,OpenClaw“龍蝦熱”席捲全球,AI Agent (智能體)對token算力的消耗量之大,讓各界重新認識了中國模型的性價比。然而,AI對就業甚至對人類的衝擊也不斷引發焦慮,矽谷知名企業Meta、Block、甲骨文等的裁員浪潮滾滾來襲。究竟未來人類如何面對AI浪潮?AI Agent的趨勢將如何變化?中國模型在未來的世界模型競爭格局下有何優勢?Token出海的浪潮將如何演化?對此,我們獨家對話了OpenAI前高管、OpenAI原應用負責人(Head of Go-to-market)扎克(Zack Kass),目前他也是矽谷知名AI諮詢企業ZKAI的創始人。他早在2019年就預言了如今的Agent時代,並在去年正式發行《下一次文藝復興:AI和人類潛能的拓展》(The Next Renaissance: AI and the Expansion of Human Potential"?)。01 “龍蝦熱”凸顯中國模型優勢OpenRouter資料顯示,春節期間中國模型Token使用量全球第一,主要是因為開源部署熱潮,大家都在接入Kimi、MiniMax這些更便宜的模型,直接推高了中國模型的Token用量。也有觀點認為,中國擁有全球最大、最穩定的電網,AI產業可以依託更低的電力成本。對此,Zack持積極看法。原因在於,未來單位Token價格將會持續下降,但需求爆發式增長,導致晶片和電力嚴重不足。“我認為中國做得非常聰明,中國正在全力贏下能源這場比賽。”他表示,“如果你認同我的模型收益遞減理論——即模型質量提升到一定程度後,對大多數企業而言不再是關鍵差異點,這個時刻離我們並不遠。如果你相信這個理論,那就要問:真正的競爭格局是什麼?我認為在核聚變普及之前,核心是能源,其次是晶片,肯定是基礎設施。”在此背景下,他稱,中國正在走開源路線,試圖用優質、低價的AI產品去佔領全球市場,並且在基礎設施上全力衝刺。儘管國際先進模型的優勢毋庸置疑,尤其是在專業領域,但Zack重申了他始終相信“模型收益遞減理論”——對於絕大多數企業而言,模型質量到一定程度後,就不再是實質性的差異點,事實也確實如此。因此他並不認為未來只有最好的模型才能賺錢,相反,他稱:“模型本身就很難賺到大錢了,但應用層會更容易盈利。”不過,業內人士也對騰訊新聞《潛望》表示,還是希望國產模型少一些價格戰,否則在貶低國內勞動價值的同時,可能會換來跟商品類似的貿易壁壘。比較好的嘗試是,希望以後能搞延遲開源,比如在每一代模型訓練完成後,先設立為期 3-6 個月的預覽期,僅授權給選定的海外合作夥伴(如特定的雲服務商) 使用,並按使用量或牌照計費,只有當下代模型發佈時,才將上一代模型開源。02 AI Agent發展大超預期也正是因為這股“龍蝦熱”,AI Agent在今年徹底家喻戶曉。多年前,Zack就預言了智能體的爆發,但如今他也非常驚訝AI Agent進化得這麼快、質量這麼高。“坦白說,我給自己的預判打高分:我在2019年就預測2026年是Agent之年,現在的發展基本符合我的時間線。”但他稱,真正讓他意外的是,至今還沒有出現AI界的“車諾比”或“三里島事件”——比如一次匿名自主攻擊,讓大家分不清是惡意Agent所為,還是人類攻擊者造成的。現在公眾對AI的不信任,大多來自對潛在風險的想像,而不是已經發生的真實危害。他也提醒很多人:在變好之前,情況會變得更奇怪。關鍵問題在於,我們還不清楚多智能體行為的整合風險,我們需要多智能體環境,但還沒找到保護機制與實現路徑。Zack認為,未來會發生的是,大多數智能體工作流會先被個人使用,能對接這些智能體協議的企業會最具優勢,但也會出現一種巨大的不對稱:用Agent的人和不用Agent的人,差距會比當年用網際網路和不用網際網路的人更大。還需要一提的是,現在的網際網路是為人類視覺設計的(HTML),是一個線上大型商場,只適配人的眼睛,不適配機器。未來會出現第二層網際網路:面向機器的、基於TXT/XML的網際網路。能適配機器瀏覽的企業,無論B2B還是B2C,都會大幅跑贏同行。也正因如此,Zack也警告,企業會被去中介化—— 使用者不再需要訪問官網,智能體會直接完成決策與交易。我們會發現使用者真實的偏好到底是什麼。“因此我給所有消費品牌的警告是:確保你的客戶真的喜歡你,否則很快智能體會直接幫使用者 ‘最優下單’:又好又便宜,使用者甚至不用過問。這對零售行業會是巨大衝擊。”03 AI繁榮派vs末日派事實上,在AI開發過程中,一直有兩大陣營:繁榮派(AI boomers)和末日派(AI doomers),爭論不斷。前者認為,通用人工智慧(AGI)會帶來烏托邦,末日派則認為AGI會“殺”死所有人。當年,OpenAI內部正是因為這兩大意識形態的分歧,導致部分人員出走。Zack表示自己是“科技樂觀主義者”(techno-optimistic)。“無論好壞,我更傾向於往好的方向看。我對這個問題的核心框架是:人類提升普通人生活水平唯一穩定的路徑,就是技術。除此之外,沒有其他可持續的方式能為所有人創造更多價值。”隨著技術進步,政府更容易做到公平向善,更難走向極端。更何況,人類整體上是向善的,技術讓人類能做更多好事,當然也會讓少數人做更多壞事——高資源的作惡者會擁有更強控制力,低資源的作惡者破壞力也會變大。“但整體上,我們治癒疾病、發明新技術,讓一切變得更好、更快、更便宜。也正因如此,沒有充分的理由說明,全球經濟不會持續向好,人類生活的底線不會持續抬升。比如中國經濟奇蹟,90年代崛起的中產階級讓數億人擺脫貧困;印度2000年代的經濟奇蹟,也讓近十億人脫離貧困。這些都源於技術進步。”他稱。如果我們非要質疑這種趨勢,那麼就需要問——這個趨勢為什麼會停止?Zack認為,只有兩種邏輯能支撐“世界會變糟”的論調:我們不再發明新技術,陷入技術停滯;我們用發明的技術去做更壞的事。然而,就第一種論調而言,我們顯然不會減少技術創新,現在的技術是未來最“笨”的階段,只會持續變得更智能。就第二個論調來看,這也是末日派的主要論點,技術會催生很多有趣的可能,但也會伴隨可怕的下行風險,大致包括:財富與權力集中、高資源、低資源作惡者被賦能,以及AI出現價值對齊失敗的超級智能。但Zack認為最符合自然走向的情況是,短期中期會有下行壓力,但世界整體會變得更好,而當下感受到的危害,很大程度來自社會動盪,這不再是經濟問題,而是情感問題、精神問題。04 關注自動化帶來的情感代價Zack在去年發佈的新書中也提及了“身份錯位”(identity displacement)這個概念,即未來的核心問題不是經濟問題,而是精神問題。當前無法逃避的一個問題就是——AI造成的大規模失業怎麼辦?事實上,矽谷每天都在見證大量裁員,早年被稱為“養老院”的大廠也再難躺平。“我到現在還沒有明確答案,這次自動化浪潮太猛,完全出乎很多人意料。”Zack表示,他的新書開頭引用了宏觀經濟學之父,1930年凱恩斯寫過一篇論文叫《我們後代的經濟可能性》,裡面有一句話令人印象極深:“我必須放手暢想一個我註定無法親歷的未來:在那個未來,人類或許已經解決經濟問題,轉而面對更深刻的命題。”在他看來,大家總糾結“人類還會不會有工作”,答案大機率是“會”;但就算沒有工作,也意味著我們已經高度自動化,解決了大量生存問題。真正的問題是:在未來,人類必須把自我價值、身份認同和工作剝離開,人們還會幸福嗎?“我沒有完美答案,但我認為短期內,答案很明顯是‘不會’。所以我真正想聚焦的,是明確且現實的威脅——其中最大的,就是自動化帶來的情感代價。”之所以Zack強調“精神問題”,是因為自動化讓絕大多數人已經脫離絕對貧困,有飯吃、有衣穿、有房住。在前工業時代,人類活不過40歲;現在大多數人能活到70歲以上。我們開始思考全新的人生問題,這些問題同樣複雜。未來回頭看,我們這個時代依然充滿糟糕的處境:糟糕的飲食、車禍、暴力等,這些都不是經濟問題,而是精神與文化問題,這是我們下一步必須解決的。 (騰訊財經)
Anthropic封殺48小時,逼出OpenClaw最強反擊!龍蝦首次會生視訊了
【新智元導讀】太突然了!Anthropic深夜發佈封殺令,切斷OpenClaw免費介面。龍蝦之父霸氣回懟,直接上線2026.4.5王炸更新:AI原生支援視訊生成,還裝上了一套模擬人類的「睡眠記憶」系統。Anthropic全面封殺,OpenClaw絕境爆發!全新的OpenClaw 2026.4.5來了,官號在帖子中,僅用三個短句完成了最強回應——Anthropic把我們封了。GPT-5.4變強了。我們繼續前進。這條推文發出不到24小時,瀏覽量突破130萬。這是頭一次,「龍蝦」支援原生視訊+音樂生成。現如今,OpenClaw可直接呼叫GoogleLyria、Runway等頂尖模型,一次對直出視訊/音樂。最為硬核的,4.5版本還引入了「夢境」(Dreaming)記憶機制。它將AI記憶提取為三個協作階段:輕度、深度、REM(快速眼動)。輸入/dreaming,「龍蝦」便會在後台對「短期記憶」加權彙總,提取出「持久真相」,並記錄在dreams.md中。這就相當於,讓AI模仿人類一樣「睡眠」,結果——OpenClaw不僅能記住對話,更學會了在反思中進化,精準把控長期任務。此外,新版OpenClaw最佳化了「提示詞快取」重用率,降低延遲節省了大量token。Anthropic停用了怎麼辦?OpenClaw接入儘可能多的大模型,可隨意切換,有人已全面切換到GPT-5.4上了。還有人曬出了自家團隊,過去七天,完全被GPT-5.4接管了。這一次重磅更新,到底塞了多少東西?龍蝦首次,直出視訊+音樂了2026.4.5版本,是OpenClaw歷史上功能最密集的版本之一,涵蓋從內容生成到記憶系統的全面升級。最顯眼的變化,OpenClaw現在內建了視訊、音樂和圖片生成能力。Agent可以在對話中直接呼叫這些工具,生成的媒體檔案隨回覆一起返回。視訊生成接入了11家提供商,Grok、Wan、Runway、Google、MiniMax、OpenAI、Qwen、fal、Together AI、BytePlus,外加ComfyUI的本地工作流。下面這個視訊,就是「龍蝦」生成的。音樂生成支援Google Lyria、MiniMax和ComfyUI。圖片生成同樣拉滿,ComfyUI、fal、Google、MiniMax、OpenAI的gpt-image-1全部接入,gpt-image-1還支援上傳參考圖做編輯。這次OpenClaw內建了一個ComfyUI媒體外掛,同時覆蓋圖片、視訊和音樂三條線,支援本地ComfyUI和Comfy Cloud兩種部署方式。對於已經在用ComfyUI做工作流的使用者來說,這相當於把整套本地生產管線直接接進了Agent。音樂和視訊生成還加入了非同步任務追蹤。生成請求發出後Agent不會卡住等結果,任務完成後自動推送成品給使用者。/dreaming 給AI裝了一套「睡眠記憶」系統這個版本最有想像力的功能叫Dreaming。OpenClaw給AI Agent做了一套模擬人類睡眠記憶鞏固的機制,分三個階段運行——淺睡眠(Light)整理和篩選近期短期記憶;REM階段提取主題和反思性訊號;深度睡眠(Deep)決定那些記憶值得永久保留,寫入長期記憶檔案MEMORY.md。僅需在聊天框輸入/dreaming on瞬間開啟,/dreaming status查看當前狀態,/dreaming off隨時關閉。開啟後,OpenClaw默認每天凌晨3點自動執行一輪完整的「睡眠」掃描。Gateway的Dreams標籤頁可以看到全部狀態,短期記憶數量、長期記憶數量、當天提升了多少條、下次掃描什麼時候跑。還有一個「夢境日記」面板,每次整理後自動生成一段人類可讀的敘事摘要,頂部保留了一個龍蝦動畫。命令列使用者有更多玩法。openclaw memory promote --apply手動執行一次深度記憶提升,promote-explain可以查看某條記憶為什麼沒被提升,評分系統的六個加權訊號(頻率、相關性、查詢多樣性、時效性、復現強度、概念豐富度)每一步決策都透明可查。權重分佈透露了一個設計理念,相關性(0.30)比頻率(0.24)權重更高。系統更看重「這條記憶是否在不同場景下被反覆檢索到」,而不是「它出現了多少次」。記憶整理還支援多語言概念標籤,中文對話產生的記憶不需要翻譯成英文就能參與評分和提升。有大佬點評稱,OpenClaw最新「夢境」功能,靈感源自Claude Code上周洩露的原始碼。51萬行程式碼中,暴露了一個CC隱藏功能——KAIROS。其中,包含了一個autoDream的系統,以Fork子處理程序運行,充當後台記憶整合的引擎。它一共有「三道門」觸發機制(Three-Gate Trigger)——時間門,距上次至少24小時。會話門,期間至少5次會話。鎖門,獲取排他鎖防止並行做夢。恰恰,OpenClaw也在Dreaming引入了三個階段。GPT-5.4升級版,超絲滑針對GPT-5.4方面,OpenClaw加了前向相容的openai-codex和gpt-5.4-mini,還有一個可選的GPT人格化選項。GPT-5.4龍蝦升級之後,明顯變得更強了。一手體驗後,有網友表示,立即回到了老版Claude的感覺。OpenClaw之父稱,這可是自己耗費很大精力,才讓GPT有了情感。考慮到和Anthropic的關係變化,OpenAI陣營的支援力度明顯在加碼。龍蝦工作流引擎從外部CLI呼叫改為處理程序內運行,減少了通訊開銷。Claude CLI的整合也有變化,通過一個loopback MCP bridge把OpenClaw的工具暴露給背景執行的Claude CLI,同時切換到stdin流式傳輸。此外,「機構化任務處理程序」也在這個版本落地了。長時間運行的Agent任務,現在可以向UI推送結構化的計畫更新和執行進度,使用者不用再盯著一個轉圈的loading猜Agent到底在幹什麼。提示快取復用做了一輪系統性最佳化,涉及MCP工具排序確定性、圖片歷史嵌入、系統提示指紋歸一化等多個環節。簡單說,就是連續對話時,後續輪次能更多地命中前一輪的快取,省錢省時間。openclaw status --verbose,現在可以直接看快取命中的診斷資訊。Control UI新增了12種語言,包括簡體中文和繁體中文。ClawHub技能市場聚集了超過4.4萬個技能包,技能面板現在內建搜尋和一鍵安裝。安全修復覆蓋了從Telegram到Discord到微信的幾乎所有管道,佔了changelog的三分之一以上。倒貼4800美元,Anthropic動手了說回開頭那三句話的背景。4月4日中午12點(太平洋時間),Anthropic向所有使用者傳送郵件,宣佈Claude Pro和Max訂閱將不再覆蓋OpenClaw等第三方工具的使用。之前花20美元月費就能通過OpenClaw無限呼叫Claude的日子,到此結束。想繼續用,要麼買API key按量付費,要麼開通Extra Usage走按量計費通道。Anthropic給了一次性補償積分作為安撫,有效期到4月17日。CC之父Boris Cherny對此做出瞭解釋,第三方工具繞過了Claude Code的提示詞快取最佳化,一個OpenClaw重度使用者消耗的算力遠超同等規模的Claude Code會話。這些工具給我們的系統造成了超額壓力。這些擔憂,並非空穴來風。此前,Cursor內部研究爆出,Anthropic正在「自殺式」請客。他們正在為200美元的訂閱使用者,背負5000美元的算力成本,而「龍蝦」呼叫token消耗量可想而知。一個Max訂閱使用者通過OpenClaw跑自動化Agent,實際消耗可能是正常使用者的數十倍。這筆帳算不過來。社區估算,大約60%的活躍OpenClaw會話跑在Claude訂閱上。一紙禁令,直接讓大量使用者的AI Agent在周五晚上集體「失聲」。還有人發現,自從封殺了OpenClaw之後,Claude明顯穩定了很多。復合了,但沒完全復合OpenClaw創始人Peter Steinberger的反應很激烈。他說自己和OpenClaw董事會成員Dave Morin「試圖跟Anthropic講道理」,最終只爭取到了推遲一周執行。「有意思的是時間節點,先把開放原始碼專案的熱門功能抄進自家封閉工具裡,然後把開源鎖在門外」。4月5日,OpenClaw發佈2026.4.5版本,release notes裡直接把Claude CLI後端從新使用者引導流程中移除。那句「Anthropic cut us off. GPT-5.4 got better. We moved on.」就出現在版本說明的最後一行。但故事沒有按照「徹底決裂」的劇本走。就在發佈後不久,OpenClaw的官方文件悄然更新了一段話,「Anthropic工作人員告知我們,OpenClaw風格的Claude CLI使用再次被允許。」目前的狀態是,Claude訂閱仍然不能直接免費跑OpenClaw,但CLI層面的技術整合保留了。Anthropic的態度從「一刀切」變成了「你可以用,但得額外付錢」。這出分手復合的戲碼,三天演完。開源Agent的「大廠困境」表面看是計費模式之爭,底層是一個結構性問題——當一個開放原始碼專案的核心能力依賴單一商業公司的模型和基礎設施時,它的命運就不完全掌握在自己手裡。OpenClaw的應對策略是用數量換安全,接入儘可能多的模型提供商,讓使用者在Claude、GPT-5.4、Qwen、MiniMax、Kimi之間自由切換。這次更新把這個策略推到了極致。但同樣的問題換個角度成立,OpenAI贊助了OpenClaw的獨立基金會,Steinberger本人也加入了OpenAI。如果有一天OpenAI也改變政策呢?OpenClaw的文件裡有一句話寫得很誠實,「對於需要長期運行的閘道器主機,Anthropic API key仍然是最清晰、最可預測的生產路徑。」開源不等於免費。模型中立不等於沒有依賴。這只龍蝦跑得夠快,但腳下的地面一直在動。 (新智元)
一夜翻臉,Anthropic正式封殺OpenClaw!全球開發者24小時血崩
【新智元導讀】就在剛剛,全球AI巨頭Anthropic正式發出通牒:從美國東部時間4月4日 15:00起,強行將OpenClaw踢出Claude訂閱服務的白名單!全球開發者驚呆了。就在剛剛,AI圈發生了一場足以載入史冊的「閉關鎖國」事件。Anthropic已正式禁止使用自家套餐接入OpenClaw!!!Claude Code之父Boris Cherny宣佈:從美國東部時間4月4日下午3點(台北時間4月5日凌晨3點)開始,Claude封殺全部第三方工具,只能使用額外套餐或API使用這些工具。這意味著,成千上萬依賴OpenClaw提升效率的開發者、初創團隊,一夜之間失去了「無限量」使用的紅利,被迫轉入極其昂貴的「按量計費」模式。OpenClaw上的Claude忠實使用者,挨了一記重拳。這個消息宣佈的時機,也非常耐人尋味——OpenClaw之父Peter Steinberger不久前剛剛跳槽至OpenAI,而Anthropic所欲何為,昭然若揭!可以說,這就是一場披著政策外衣的商業復仇。這則消息迅速沖上開發者社區Hacker News榜首。讓我們記住這一天:2026年4月4日,這一天起,AI行業從開放協作,走向了巨頭割據。Claude官方郵件,證明這次,Anthropic就是拿OpenClaw開刀!此政策將於4月4日起率先在OpenClaw上強制執行,但適用於所有第三方工具鏈,並將很快推廣至更多工具。作為安撫,Anthropic送了一筆一次性補貼,金額剛好等於一個月訂閱費。4月17日前領取有效。重錘落下注意,Anthropic這封郵件發出的時間,實在很不體面。4月3日,周五傍晚,這正是網際網路公司發壞消息最愛挑的時間。Anthropic給成千上萬OpenClaw使用者發出通知:明天起,你的Claude訂閱額度不能再給OpenClaw用了,想繼續,那就按量計費吧。https://x.com/VadimStrizheus/status/2040199979927482618三個月的圍剿,終於落下最後一錘。導火線:一次足以改變格局的「叛逃」為什麼Anthropic會在這個時間點,不顧吃相地對一個開源工具痛下殺手?因為OpenClaw的靈魂人物、龍蝦之父Peter Steinberger,加入他們的「死對頭」OpenAI。曾經,Peter Steinberger是最懂Claude生態的開發者之一,他的OpenClaw讓Claude變得無比好用。現在,但對Anthropic來說,OpenClaw成了敵營的「特洛伊木馬」。Anthropic認為OpenClaw不再是一個純粹的效率工具,而是一個伸進自家後花園的「情報採集器」。既然創始人成了OpenAI的人,那你的工具就別想再蹭我的訂閱額度。Peter本人也無奈發聲,暗示Anthropic「關門打狗」,「白嫖」開源社區:我和Dave Morin(OpenClaw董事會成員)曾試圖勸說Anthropic保持冷靜。但最後我們能爭取到的,僅僅是讓這一天的到來推遲了一周。開發者哀鴻遍野預算一夜爆表對於普通開發者來說,這次封殺簡直是「降維打擊」。此前,很多開發者通過購買Claude的固定月費訂閱,配合OpenClaw的強大介面,實現了極其低廉的自動化工作流。花20美元買一個Claude Pro套餐,就能讓龍蝦7×24小時呼叫Claude幹活。同樣的用量走API通道,帳單可能奔著上千美元去。一個是200美元封頂的Max訂閱,一個是四位數的API費用。現在,這條路被Anthropic親手掐斷了。按量計費,就意味著不再是包月套餐,成本極不可控。許多中小團隊的AI預算原本是按月鎖定的,如今隨時可能爆單。更狠的是,如果你不想交這筆天價過路費,就必須在24小時內忍痛重構整個業務邏輯。一個字——絕!龍蝦攪動江湖,恩怨早已開始龍蝦之父跟Anthropic的恩怨,早就開始了。Steinberger曾公開吐槽說,Anthropic跟他打交道「基本全靠律師函」。第一招,品牌切割。1月底,律師函逼著Clawdbot改名。第二招,技術封堵。1月9日,Anthropic在伺服器端悄悄上了一道檢測:訂閱令牌如果不是從官方Claude Code客戶端發出的,直接拒絕。OpenClaw的核心玩法,一夜歸零。第三招,條款定性。2月中旬,服務條款更新:Free、Pro、Max帳戶的OAuth令牌用在任何第三方工具裡,都算違規。最狠的第四招,就是功能抄底。Claude Cowork推出了Dispatch,手機遠端遙控桌面端Claude幹活;Claude Code上線Channels,打通Telegram和Discord。四周內,OpenClaw的核心功能被官方一比一復刻!用AI博主Matthew Berman的話說:「他們直接把OpenClaw自己造了一個。」科技媒體Semafor今早報導,Anthropic首席商務官Paul Smith被問到客戶是否在要求公司做一個自己的OpenClaw,他承認的確如此。而今天,4月4日的這封郵件,就是最後一刀了。陽謀:強推自家「親兒子」Claude Cowork在封殺OpenClaw的同時,Anthropic也圖窮匕見。他們開始瘋狂暗示:別用那些不靠譜的第三方了,快來試試我們原生的Claude Cowork吧!Claude Cowork,能讓Claude更深度控制編碼環境和電腦介面。其實,這也不是Anthropic的獨家玩法了。這正是巨頭們最擅長的「平台鎖定」策略:第一步:利用第三方開源工具吸引開發者,把生態做大。第二步:尋找藉口(如安全性、基礎設施壓力等)封殺第三方。第三步:強迫使用者遷移到自家收費更貴、管控更嚴的原生整合工具。這種典型的「垂直整合」打法,讓他們把入口和體驗牢牢掌握在自己手裡,同時讓生態裡那些「不受控的連接器」逐漸失去優勢。有意思的是,OpenAI幾乎在同一時期選了一條完全相反的路。OpenAI明確允許Codex訂閱在OpenClaw等第三方客戶端中使用。3月份更進一步,宣佈向開放原始碼專案維護者免費提供ChatGPT Pro權限,OpenClaw被點名列入受益名單。Anthropic要趕走的人,OpenAI全收了!沒有人完全無辜公允地說,Anthropic有它的道理。每個用200美元訂閱跑出千元級API用量的使用者,都在讓公司賠錢。第三方工具繞開官方遙測、偽裝客戶端身份、製造監控盲區,這些都是實打實的工程和安全隱患。更何況Steinberger現在坐在OpenAI辦公室裡——OpenClaw在Anthropic眼裡,已經從「有點煩的蹭飯客」變成了「對面派來的探子」。而且,OpenClaw自己也不乾淨。它被曝出一個CVSS 8.8分的高危漏洞(CVE-2026-25253),攻擊者可以通過一條連結偷走使用者的認證令牌。在公網上,安全機構已經掃到了超過三萬個門戶大開的OpenClaw實例。但這些合理性,消解不了開發者的那種被涮了的感覺。平台先把門敞開、等人進來蓋好了樓,再宣佈另有安排——這套劇本演了太多遍。X殺死第三方客戶端,蘋果收緊App Store,Google砍掉免費API,都是同樣的故事。每一次,受傷的都是開發者。開放生態進入黃昏AI巨頭閉關鎖國今天Anthropic的這個最絕殺招,讓我們明白了一個令人心碎的事實——那個屬於開發者的、自由開放的AI黃金時代,正在走向終結。曾經,我們以為AI會像早期的網際網路一樣,基於協議共享,基於社區進化。但現實是,模型所有者掌握著生殺大權,隨時就能讓成千上萬人的努力化為烏有。現在,距離 4月4日下午3點的最後通牒,已經進入倒計時。開發者們面臨著三個殘酷的選擇——是吞下苦果,忍受天價按量計費,繼續使用OpenClaw,直到預算耗盡?還是全盤遷移, 跪倒在Anthropic的原生工具下,接受平台鎖定?抑或,憤怒離場,徹底拋棄Claude。最後,當巨頭們忙著神仙打架時,請不要忘了,是成千上萬的開發者用一行行程式碼,才壘起了你們估值千億的王座。這一次,Anthropic贏了競爭,卻徹底輸掉了社區的信任! (新智元)
大翻臉!Anthropic 封殺 OpenClaw,龍蝦之父:說服失敗
就在剛剛,Anthropic 宣佈「封殺」OpenClaw。很多 OpenClaw 使用者的郵件收件箱,悄悄多了一封郵件,郵件內容不長,但資訊量很大:從太平洋時間 4 月 4 日起,使用者將無法再使用您的 Claude 訂閱額度訪問包括 OpenClaw 在內的第三方工具。想繼續用?以後有兩條路。要麼購買額外的「使用包」;要麼自備 Claude API Key,按量付費。補償是有的:一次性等額月費積分,折算成你的月訂閱費。想要全額退款,明天的退款郵件裡找連結。消息一出,OpenClaw 創始人 Peter Steinberger 在社交媒體上留下了幾句頗為辛酸的話:「我和 Dave Morin 盡力去說服 Anthropic,最終只是成功將此事推遲了一周。時間點真是巧合,他們先是將一些流行的功能複製到他們的封閉框架中,然後又將開放原始碼軟體拒之門外。」「我是用 Claude 造的」OpenClaw 能火,本身就是一個離譜的故事。創始人 Peter Steinberger,iOS 開發界的傳奇人物,PSPDFKit 的創始人,按理說程式碼功力深不可測。然而做 OpenClaw,他給自己定的角色是:產品經理。整個 OpenClaw 的程式碼,包括後端、前端、CI/CD、測試、文件,全部由 Claude Code 自動生成。Peter 本人只負責用自然語言描述需求。一行程式碼都沒親自寫過。這個工具的底層技術,也全是 Claude 的:超長上下文、Agent 工具呼叫、多步驟推理規劃。從靈魂到骨架,它本身就是脫胎於 Claude。然而,Anthropic 還是動手了。其實在這次封殺之前,兩家的恩怨早就開始了。OpenClaw 最初叫什麼?Clawdbot,縮寫 CLAWD.。Anthropic 看了,不樂意:你這個名字和 Claude 太像了,改掉。於是先改成 Moltbot,最後才定名 OpenClaw。改完名,兩家短暫和平。然後 OpenClaw 全網火了了。管理收件箱、管日曆、幫你值機……使用者說,這玩意兒真的能跑起來。一個帳號,同時跑十個 Agent,全天候不停機。200 美元的的 Claude Max 訂閱,有人測算,實際可呼叫的算力價值高達 5000 美元。相當於 Anthropic 在大幅補貼每一個重度使用者。而 OpenClaw 使用者,偏偏都是最重度的那批。放到 Anthropic 的伺服器上,就是一個吸血泵。於是這個矛盾,終於還是在今天爆發了。創始人跑路去了 OpenAI讓故事更精彩的,是 Peter 本人的去向。年初,OpenAI 把他挖走了。這意味著什麼?OpenClaw 這個深度依賴 Claude 的工具,創始人現在效力的是 Anthropic 最直接的競爭對手。Anthropic 看著這個局面,心裡的感受,大概是五味雜陳的。對於此次風波,Anthropic Claude Code 負責人 Boris Cherny,連發四條推文,親自出來解釋。第一條直接宣佈政策:「明天中午 12 點 PT 起,Claude 訂閱將不再覆蓋 OpenClaw 等第三方工具的使用。」然後緊接著第二條,說原因:「我們一直在努力應對 Claude 需求的增長,而我們的訂閱服務,本來就不是為第三方工具的使用模式設計的。算力是我們需要審慎管理的資源,我們要優先保障使用自家產品和 API 的客戶。」翻譯成人話就是:你們薅得太狠了,我們的機器扛不住,先顧自己人。第三條說補償:「訂閱使用者將獲得一次性等額月費積分。如果需要更多,現在可以購買折扣使用包。明天的郵件會包含申請全額退款的連結。」第四條收尾,畫風也變得很官方:「我們希望有意識地管理增長,以長期持續地服務好我們的客戶。這次變化是邁向這一目標的一步。」只是網友卻吵翻天了,博主 Yuchen Jin 認為:「200 美元/月的 Claude 補貼力度驚人。考慮到 Claude 近期的穩定性問題,在 Anthropic 當前的 GPU 算力約束下,這一調整可能的確是正確的選擇。」他還往更長遠的方向思考:「Codex 現在對第三方工具還算慷慨,畢竟 OpenAI 的 GPU 儲備更充裕。兩家在策略上的分化,真的開始顯現了。接下來看誰撐得住。」博主 Peter Yang 則表示:Anthropic 和 OpenAI 現在都在用 100-200 美元/月的訂閱價格,虧本補貼那些全天候跑多個 Agent 的重度使用者,活脫脫就是當年 Uber 和 Lyft 瘋狂燒錢搶市場的翻版。而後來的故事大家都知道,兩家上市之後票價幾年內近乎翻倍,Uber 從創立到首次盈利更是耗了整整 14 年。他的判斷是,OpenAI 和 Anthropic 上市都不遠了,財務資料一公開,這些虧本訂閱計畫必然撐不住,要麼漲價要麼限流,順帶還補了一刀:「Mac Mini 和 Mac Studio 跑本地模型,現在看起來越來越香了。」(doge)蹚完路,橋拆了成本之外,Anthropic 封掉 OpenClaw,還有更深層的用意。是的,Anthropic 正在同時在力推 Claude Code 和 Claude Cowork。OpenClaw 的控製麵建立在 WhatsApp、Discord、Telegram 等聊天應用上。使用者在聊天框裡打字,OpenClaw 就去執行。在你的電腦上 24 小時運行,自動回覆消息、管理日程、讀寫檔案、執行程式碼。但回到技術內部,OpenClaw 本身不是模型,它是一個框架,一個「蝦殼」。驅動它的智能,很大程度上來自 Claude 的模型能力和 Claude Code 的 CLI 介面。OpenClaw 使用者中最活躍的那批頂級玩家,多數都在呼叫 Anthropic 的 API——只要付得起 token 錢即可。Anthropic 顯然看到了這一點。從早期以商標版權為由抗議「Clawdbot」這個名字,到近兩個月內密集發佈四項新功能——每一項,都精確對標 OpenClaw 的一個核心能力:OpenClaw 通過 WhatsApp 消息充當文字代理,在桌面端運行。Anthropic 的回應是 Dispatch,手機到桌面的持久線程。OpenClaw 用 Discord 和 Telegram 作為控製麵。Anthropic 發佈了 Claude Code Channels,用 MCP 協議橋接兩端。OpenClaw 提供完整的作業系統存取權、瀏覽器控制、應用程式操作。Anthropic 的對應版本是 Computer Use 和 Claude Code,共享同一個辦公空間裡的電腦使權。但有意思的地方在這裡:OpenClaw 之所以能火,恰恰證明了使用者對這類 Agent 工具有真實的、強烈的需求。這個需求,Anthropic 自己的產品當時還沒能滿足。換句話說,是 OpenClaw 替 Anthropic 蹚了路。 現在路蹚完了,Anthropic 卻順手把橋拆了。Peter Steinberger 的推文底下,有網友留言:「除了之前的種種經歷,我明白你為什麼不太喜歡他們了。」沒有人會反駁這句話了。 (APPSO)