#chatGPT
“龍蝦”狂熱:ChatGPT們只是AI的後端,OpenClaw讓AI真正有了前端
Agent 這個詞,AI 行業喊了至少兩年。2024 年起,每一場發佈會都在談 Agent,投資機構管它叫下一個兆市場,創業公司一夜之間改了 slogan。但打開產品一看,還是一個對話方塊等你打字:你給指令,它給回答;你不提問,它就停在那兒。概念跑得很快,產品形態沒跟上。直到 OpenClaw 出來,這種錯位才突然變得可見——不是因為它發明了什麼新技術,而是它把那層一直缺失的互動前端拼對了。OpenClaw 這個小龍蝦的火熱最終沒有曇花一現,從一個周末項目起步,短時間衝到十萬級 GitHub stars,單周兩百萬訪問。但更能說明問題的是它迅速從極客玩具升級為 Agent 雛形:使用者群從開發者擴散到各行各業,營運、創業者、普通人,討論焦點也從技術實現轉向日常使用。2 月 15 日,Sam Altman 宣佈 OpenClaw 創始人 Peter Steinberger 加入 OpenAI,也給這輪“個人 Agent 形態”做了背書。而在各個技術社區、社交媒體、各個線下聚會上,人們還在蜂擁而至給自己部署著各種“龍蝦”。這股龍蝦熱逐漸演變出了一種行業共識:如果把AI 這事拉長來看,當作一整個獨立的“產品”,那麼ChatGPT們此前其實只是在建構“後端”,這一次它才真正有了“前端”。1. 對話方塊其實困住了所有人ChatGPT 問世三年多,定義了一個近乎統一的互動範式:一個輸入框,你打字,它回覆。三年裡,絕大多數 AI 產品都在複製這個模式。豆包、Kimi、Perplexity、Claude,換名字換皮膚換模型,底下還是同一套回合制介面。對話方塊看起來很自然,但它把 AI 鎖在了被動位置:你不打開它,它就不存在;你不提問,它就不行動。AI 的全部價值,依賴使用者主動發起、主動拆解、主動盯過程、主動驗收。對重度使用者來說這只是習慣,但對多數普通人而言,“想到要用 AI”本身就是門檻。還有一層更隱蔽的問題:對話方塊把能力限制在了“回答”裡。你問一個問題,它給一段文字;你讓它寫程式碼,它給一段程式碼。互動結束,系統即停。它沒法替你跑一個持續性任務,沒法在你不在的時候盯住什麼,沒法在發現異常後主動來找你。對話方塊是回合制遊戲,但真正的助手應該是即時線上的。Peter Steinberger 在 Lex Fridman 的訪談裡把這個點說得更狠:我們現在給 Agent 的介面,本質上是在“複製 Google”——一個 prompt、一個聊天框,就像電視剛出現時人們把廣播節目原封不動搬到螢幕上播。換句話說,GenAI 的後端能力已經到了 2026 年的水平,前端介面還停在 2010 年。Agent 的推理與規劃能力在變強,UI 層基本沒變,反而拖住了體驗。很多任務明明需要表單、預覽、控制、分步反饋,產品卻仍在用“聊天”硬扛。當介面沒進化,模型再強,使用者體感也只是“聰明了一點”。這也是為什麼行業會同時出現兩種情緒:一邊是能力暴漲,一邊是“怎麼還是用不起來”。2. OpenClaw 做對了什麼 OpenClaw 接入了聊天軟體,就這麼簡單。它跑在飛書、iMessage、Telegram 裡,能在本地運行、替使用者執行動作。消息會彈出來找你,不用切換上下文。對話方塊是你得專門去打開的東西,聊天軟體是你已經待著的地方。跟 AI 說句話,跟回覆一條微信一樣隨意。分發上的差距更大。ChatGPT 要註冊、打開;飛書和 Telegram 早就裝在手機上了。OpenClaw 接入這些平台,使用者獲取 AI 的門檻降到接近零。使用者只有一直在用,才會真正體會到價值。但入口只是一半。OpenClaw 真正的突破是主動性。Peter 在訪談裡提到,他給 Agent 加了定期觸發機制,最初的提示詞很粗暴:每隔一段時間 surprise me。你睡覺它在跑,開會它也在跑。一個等你來用,一個替你去做。喊了兩年 Agent,直到 OpenClaw,大多數人才第一次摸到 Agent 該有的手感。Claude Code 再強,使用者心智被“程式設計工具”鎖死了:打開終端、輸入命令、盯輸出。OpenClaw 更像一個長期線上的代理人,存在方式本身就不一樣。而Agent 產品面向使用者可能本就該是黑盒。你說“幫我盯著這幾個帳號”,它去盯著,中間用了什麼模型、燒了多少 token,不關使用者的事。OpenClaw 的 token 消耗比傳統對話式 AI 高一個數量級,但使用者不在意——他們看不到過程,只看到結果。Cowork 本來最有機會站在 OpenClaw 今天的位置,發佈時甚至引發了一波軟體股恐慌。但它差了兩步:沒進聊天軟體,介面上暴露了太多配置項。Cowork 打開是資料夾選擇、權限設定、任務進度面板;OpenClaw 打開是一個聊天窗口。一個像在操作軟體,一個像在跟人說話。很有代表的點是,很多人用 OpenClaw 用到現在,就沒拿它像 AI IDE 那樣編過程。這個本來跑在終端裡的技術產品,使用者拿它管郵件、盯熱點、整理資訊、安排日程、一句話開發。技術堆疊是程式設計師的,使用場景完全不是。3. ChatGPT們只是後端,OpenClaw們定義了前端過去幾年,從 GPT-3 到 GPT-5,從 Claude 到 Gemini,整個行業做的事情其實都是同一件:堆後端。更大的模型、更長的上下文、更好的推理——這些都是基礎設施,是水電煤。ChatGPT們這些GenAI 產品和模型,就是後端,負責生成文字、生成程式碼、呼叫工具、理解意圖。但後端再強,沒有前端也觸達不了普通人。網際網路的後端是 TCP/IP,真正改變世界的是瀏覽器;移動網際網路的後端是 3G/4G,真正改變世界的是 App Store。後端決定能力上限,前端決定誰能用到這些能力。OpenClaw所呈現出來的agent 就是這一輪 AI 的前端。它接收意圖,在真實環境裡做決策、調工具,把結果交付給你。GenAI 的能力,不管是生成程式碼還是邏輯推理,都在後面撐著這個代理。這也就是為什麼 GPT-5 們發佈時行業反應相對平淡:模型確實更強了,但體驗在對話方塊裡沒有質的變化,使用者覺得“好像聰明了一點”,然後繼續用原來的方式。後端在進步,前端沒變,使用者感受到的提升就很有限。反過來,OpenClaw 用的模型並不比別人強——它接的是 Claude、GPT、DeepSeek,跟所有人呼叫的 API 一樣。但它換了前端,體驗上像是跳了一代。Peter 在 Lex 的訪談裡用一句話把這個未來推到了極端:every app is just a very slow API now。Twitter/X 對訪問設限,並沒有真正讓 Agent“不可能”讀取內容——Agent 只需要打開瀏覽器去讀,只是成本更高、速度更慢。也就意味著,當 Agent 能替你跨越一堆介面完成工作,App 這層“為人類設計的 UI”就會逐漸退化為“為 Agent 提供的資料與動作介面”。使用者不再“使用”你的產品,使用者的 Agent 替他們“呼叫”你的產品。越標準化的工具——App、郵件、日曆、任務管理、檔案儲存——越可能先被改寫。越複雜、越強權限的系統會更慢,但也更依賴“前端入口 + 權限 + 工作流編排”這個組合。GenAI 和 Agent 不是兩個時代,是同一個系統的兩層。ChatGPT 的對話方塊定義了 GenAI 的互動模式,OpenClaw 的聊天軟體定義了 Agent 的互動模式。前者最終會隱去,變成後端。OpenClaw這樣的Agent成為一切的前端。4. 難得的自下而上的“革命”這股熱潮沒有褪去背後,另一個讓人有些意外的地方是,OpenAI“收編”了OpenClaw後,人們的熱情並沒有減弱。但這也因為,OpenAI 挖走了OpenClaw的創始人,但到現在也沒推出類似的產品形態。這可能因為ChatGPT 的對話方塊心智太強,三年多積累的使用者習慣反而成了負擔。而且 OpenAI 的商業模式建立在訂閱和 API 呼叫上,讓 Agent 跑在第三方聊天軟體裡,等於把使用者入口拱手讓人。Anthropic 的處境同樣特殊。Claude Code 增長很快,但“程式設計工具”標籤一旦貼上就撕不掉。Cowork 是對的棋子,一月份發佈即引發一波軟體股恐慌,但它生在桌面端、不在聊天軟體裡,起步慢了半拍。同一時期,Perplexity 推出了名為 Computer 的 super agent,走雲端路線但定位類似——這說明“主動式 Agent 嵌入日常工具”已成行業共識,區別只在誰先拿到使用者。這些巨頭面對的其實是同一個困境:現有產品太成功了,反而堵住瞭解決真正的需求的路。ChatGPT 的對話方塊、Claude Code 的終端、Office 的生產力套件、微信的社交生態——每一個都是護城河,但也是圍牆。OpenClaw 沒有這個包袱。巨頭們被自己的成功困在原地,不是看不見新範式,而是動不了。看起來,人們對OpenClaw和收了它的OpenAI的認知依然是分開的,OpenClaw代表的新的互動範式,沒有對“自有入口”的執念反而把使用者體驗做好了,而一個好的“前端”從來都是自下而上建設起來的。這也讓OpenClaw成了這一輪越來越像是巨頭之間的資源遊戲的AI演進中,一次難得的自下而上的破局。它給了大批開發者和創業者一些新的信心:創新還可以發生,那怕是從一個小團隊、一個周末項目、一個“surprise me”的粗暴提示詞開始,遊戲還遠遠沒有結束。 (硅星人Pro)
Claude祭出「記憶搬家」,60秒搬空ChatGPT靈魂!70萬使用者退訂OpenAI
奧特曼和五角大樓握手的那一刻,70萬使用者選擇了逃跑。而Anthropic只用了一個功能,就把ChatGPT最深的護城河「使用者記憶」,一刀斬斷。60秒,一次複製貼上,你在ChatGPT積累的一切,原封不動搬進Claude。這不只是產品戰,這是AI時代第一場關於「數字主權」的革命。OpenAI最引以為傲的護城河,正被Claude用一個功能撬動了!今天,Anthropic專為Claude上線了「匯入記憶」(Import Memory)新功能,可一鍵絲滑搬家。部落格地址:https://support.claude.com/en/articles/11817273-using-claude-s-chat-search-and-memory-to-build-on-previous-context只需一次簡單的「複製貼上」,就能將ChatGPT所有上下文,完整遷移至Claude。整個過程,不到一分鐘,就可以開啟「首場對話即入戲」的無縫銜接。Claude一夜登上App Store榜首後,直接來挖OpenAI「牆角」了!2026年的AI大戰,烈度已經超乎所有人想像!這個功能的邏輯簡單到令人髮指:你跟ChatGPT聊了幾個月,積累了無數對話偏好、工作風格、個人背景……這些「數字靈魂」,原本是你不得不留在ChatGPT裡的最大理由——搬走意味著從零開始,重新「馴化」一個不瞭解你的AI。但現在,Claude直接把這道門拆了。只需兩步、一次複製貼上,不到60秒,你在ChatGPT裡積累的一切上下文,就能完整遷移進Claude。不得不說,這簡直就是,對OpenAI赤裸裸地挑釁。眾所周知,ChatGPT最懂人心的地方,在於它的記憶力,用越久,越懂你。自奧特曼官宣與國防部合作後,全網掀起了一場大規模的「抵制ChatGPT」的運動,如今愈演愈烈。網友們紛紛加入陣營,取消訂閱,甚至是解除安裝了ChatGPT。這一次,憤怒沒有停留在鍵盤上。OpenAI辦公室外人行街道上,人們用彩色粉筆留下了驚心動魄的控訴,外圍一圈紅線綿延數百米——別讓AI變成殺人機器!60秒搬家,複製貼上絲滑完成進入首頁,Claude「匯入記憶」介紹非常精簡,一看就會。在搬家之前,一共有兩步——第一步,將Claude給你的提示詞提供給任何一個AI工具。第二步,將AI工具返回的內容,再提供給Claude。Claude記憶偷取魔咒如果你想把一個長期AI夥伴的記憶完整的匯出來,如何做?Claude給出了一個最佳提示詞。I'm moving to another service and need to export my data. List every memory you have stored about me, as well as any context you've learned about me from past conversations. Output everything in a single code block so I can easily copy it. Format each entry as: [date saved, if available] - memory content. Make sure to cover all of the following — preserve my words verbatim where possible: Instructions I've given you about how to respond (tone, format, style, 'always do X', 'never do Y'). Personal details: name, location, job, family, interests. Projects, goals, and recurring topics. Tools, languages, and frameworks I use. Preferences and corrections I've made to your behavior. Any other stored context not covered above. Do not summarize, group, or omit any entries. After the code block, confirm whether that is the complete set or if any remain.讓我們來拆解一下這段提示詞:我正在遷移至其他服務,需要匯出我的資料。請列出您儲存的關於我的所有記憶,以及您從過往對話中瞭解到的任何上下文資訊。將所有內容輸出在單個程式碼塊中,以便我輕鬆複製。請按以下格式記錄每條資訊:[保存日期(如可獲取)] - 記憶內容。請務必涵蓋以下所有類別——儘可能逐字保留我的原始表述:我向您提供的回覆指示(語氣、格式、風格、“始終執行 X”、“永不執行 Y”);個人資訊:姓名、所在地、職業、家庭、興趣;項目、目標及重複討論的話題;我使用的工具、語言和框架;我對您行為的偏好與修正;上述未涵蓋的其他儲存上下文。請勿總結、歸類或省略任何條目。在程式碼塊輸出後,請確認這是完整資料集還是仍有遺漏。這段話的精妙之處在於——你是在用ChatGPT自己的記憶系統,打包帶走它儲存的關於你的「數字檔案」,然後一鍵喂給Claude。ChatGPT:???連反抗的機會都沒有。OpenAI疑似反擊不過在實測的過程中,我們發現,OpenAI似乎已經意識到了問題。不論是英文還是中文提示詞,能夠匯出的記憶基本是None。(當然和每個人帳戶的聊天多少也有很大的關係)如果想要完整匯出記憶功能,可能需要使用OpenAI自己的個人資料下載功能。也就是說OpenAI其實並沒有門戶打開,讓Cladue攫取最寶貴的資訊。同樣地提示詞在Gemini中,就可以獲得基礎資訊。「記憶」,曾經是OpenAI最深的護城河要理解這件事的殺傷力,你得先明白ChatGPT的記憶功能到底有多重要。用過ChatGPT Plus的人都知道那種感覺:用得越久,它越懂你。它記得你喜歡簡潔的回答不喜歡廢話,記得你是程式設計師用Python,記得你有個項目叫什麼名字,記得你上周跟它吐槽了什麼……這種「越用越捨不得走」的粘性,是OpenAI最引以為傲的使用者壁壘。用專業術語說:切換成本。而Anthropic這一刀,直接把切換成本砍到了接近零。再見了,ChatGPT:70萬人拋棄社交網路上,#QuitGPT 話題迅速爆炸。僅僅幾天內,就有70萬使用者宣佈取消ChatGPT訂閱,解除安裝APP,轉投它處。而此時此刻,Claude正在App Store穩穩坐上了榜首。Anthropic盯著這波流量,笑了。更大的戰爭,剛剛才開始把視野拉遠一點,你會發現這件事的影響遠不止於「Claude挖了ChatGPT的牆角」。它揭示的,是一場AI平台化時代的根本性矛盾:當AI助手開始真正理解你、陪伴你、記住你,它積累的那些資料——你的偏好、你的風格、你的人生背景——到底算誰的資產?過去二十年,網際網路平台用同樣的邏輯把使用者鎖死:你的微信聊天記錄帶不走,你的微博粉絲帶不走,你在抖音培養的演算法推薦畫像帶不走。平台靠著這種「資料重力」,慢慢把使用者變成了自己的囚徒。AI時代,這件事本來會變得更極端——因為AI記憶比任何社交圖譜都更私密、更難復現。但更深層的問題還在後面:如果「AI記憶資料自由流動」成為行業共識,那麼下一步,是否會出現類似「銀行間轉帳標準」的AI記憶互通協議?使用者的數字人格檔案,能不能像錢包一樣拎著走,在不同AI平台之間隨意切換?流浪地球2中所暢想的數字生命這聽起來像科幻,但它在技術上完全可行。真正阻礙它實現的,從來不是技術,而是商業利益。每一家AI公司,都想做那個最終留住使用者的「數字家園」。但當使用者開始覺醒,開始要求資料主權,當一場大規模抗議運動第一次把「AI倫理」和「我的個人資料」直接掛鉤——規則,就開始動搖了。也許有一天,AI領域會出現類似「號碼攜帶」的法規——你可以把你跟任何AI積累的「關係史」,完整帶走,轉入任何新平台。那一天,AI競爭的主戰場,將徹底從「誰記住了你」,轉移到「誰更值得你託付」。這才是這件事真正讓人心跳加速的地方。 (新智元)
OpenClaw最佳工具榜來了!這6款龍蝦最受歡迎
龍蝦火出圈後,各類生態工具如雨後春筍般冒頭,部署、外掛、託管工具五花八門,挑得人眼花繚亂。早前ChatGPT GPT Store有趨勢榜等各大榜單,現在OpenClaw也有專屬的最佳工具榜了。最近,一個由第三方搭建的OpenClaw生態工具目錄網站——OpenClaw Directory,在多個專業開發者/工具社區獲得了曝光和認可。目前該網站共收錄了39個OpenClaw相關工具,按照功能做了精細化的分類梳理,包括:AI Agent Teams(Agent團隊協同工作方案)、AI Agent Trigger(觸發Agent執行任務的機制/工具)、Boilerplate(程式碼範本)、Command Centre(控制面板)、Deployer(部署工具)、Hosting(託管服務)、Token Optimizer(Token最佳化工具)、Skills(擴展特定功能的技能模組)、Plugins(增強OpenClaw能力的外掛)。支援按“必備”、“可定製”、“開源”等標籤篩選,也可按“流行”、“最新”、“評分最高”、“A-Z字母序”等方式排序。每個工具還清晰標註了工具簡介、核心功能、使用者評分等關鍵資訊,可以幫助大夥兒快速判斷是否適配自己的使用場景。OpenClaw最佳工具榜話不多說,一起來看這個目錄裡列舉的最受歡迎的OpenClaw工具都有那些。以下是不區分功能類別的綜合總榜中,排名前六的精選工具:排在第一位的是Claw for All。簡介介紹,Claw for All是一款面向開發者以及普通使用者的主打簡化OpenClaw部署與管理流程的工具平台,支援線上端和移動應用雙端訪問。核心功能包括:部署輕鬆便捷:只需幾步點選,即可一鍵啟動你的OpenClaw實例移動隨心管理:專屬移動應用,讓你隨時隨地管理帳戶與實例介面簡潔友好:清爽直觀的操作介面,零基礎也能輕鬆上手支援全面完善:豐富的配套支援資源,助你排查問題、最佳化OpenClaw使用體驗工具介紹末尾還列舉了與其相似的其它工具。排在第二位的是OpenClaw Launch。OpenClaw Launch同樣是一款部署類工具,主打極速、30秒內完成OpenClaw應用的一鍵部署:一鍵部署:告別複雜配置,點選即可啟動極速執行:30秒內完成應用部署,效率拉滿友好介面:無論技術水平如何,都能輕鬆操作穩定性能:架構可靠,保障項目平穩運行全面支援:隨時獲取實用資源與專屬協助接下來,排在第三位的是一款AI Agent Teams類工具——ClawTeam。ClawTeam提供專為OpenClaw打造的預製智能體配置方案,核心功能有:預製配置方案:採用專家級定製的AI智能體配置,開箱即用,大幅節省部署時間深度適配OpenClaw:基於OpenClaw平台量身打造配置,助力應用程式性能最佳化操作簡單友好:即便你並非技術專家,也能快速上手,全程無繁瑣操作,效率拉滿應用場景豐富:適用於企業、開發者與科研人員,可滿足多領域的AI能力落地需求排在第四位的vibeclaw就更極限了,號稱可以1秒內在瀏覽器沙箱中本地運行OpenClaw。據介紹,Vibeclaw專為需要快速、可靠呼叫OpenClaw的開發者打造,核心優勢如下:瞬時啟動:1秒內即可完成部署,徹底告別漫長的安裝流程本地運行:支援OpenClaw本地執行,大幅提升運行速度與性能表現瀏覽器沙箱:提供安全隔離環境,有效規避潛在威脅,保障工作安全介面友好易用:簡潔直觀的設計適配各技術水平使用者,操作毫無門檻第五位Tinkerclaw,被分類到了Boilerplate、Deployer一欄。關於Tinkerclaw的介紹比較詳細。據稱,這是一款一站式服務平台,旨在幫助創業者與團隊零技術門檻地部署、管理並擴展其OpenClaw AI助手。該平台將代配置部署、工作流定製、工具支援、社區權限與持續學習資源整合為一套完整的生態系統。官方列舉的核心優勢包括:專屬定製化OpenClaw部署服務:60-90分鐘內完成即時部署;企業級安全加固防護;量身定製契合業務需求的工作流;支援電子郵件、日曆、Slack及Composio整合;14天專屬跟進支援,提供手把手指導服務;部署失敗全額退款保障。代配置部署對比自主部署核心優勢:節省12-20小時以上的手動配置時間;規避Docker配置、安全防護與系統參數設定等常見問題;大幅降低創業者的機會成本;配套提供持續技術支援與詳盡文件。OpenClaw管理器:原生桌面端聊天互動介面;可視化檔案管理器,支援SOUL.md與HEARTBEAT.md檔案管理;技能外掛一鍵安裝;基於自然語言的智能定時任務調度;即時會話日誌與性能監控追蹤。定製工作流與自動化支援:每次部署可配置最多3套個性化工作流;實現郵件處理、報告生成、站會管理與收件箱維運的自動化;基於業務場景最佳化的配置方案,提升生產力與營運效率;安全存取權管控與資料加密儲存。預置範本庫:開箱即用的OpenClaw範本;預製智能體角色與自動化流程;覆蓋從入門到高階的全層級配置方案;支援複製範本快速部署工作流。ClawKraft專業社區:面向高階使用者的付費社區;定期舉辦即時項目搭建專場與專題研討會;支援同行反饋交流與工作流分享;聚焦實操教學與真實業務場景落地。行業通訊與生態動態更新:每日OpenClaw前沿資訊速遞;每周更新工作流範本方案;系統最佳化實用技巧分享;產品迭代與社區活動播報。限量席位專屬入駐服務:每月開放限量部署服務名額;提供一對一個性化入駐指導;重質輕量,專注保障服務質量與系統穩定性。最後來看排在第六位的ClawWrapper。ClawWrapper旨在簡化OpenClaw工具的封裝與上線流程,具體有以下特點:極速封裝上線:大幅縮短工具打包、發佈的流程,讓你的OpenClaw工具快速落地使用高品質封裝範本:以優質框架為基礎,保障封裝後的工具穩定、安全,避免運行故障操作流程友好:通過簡潔直觀的網站介面,輕鬆完成工具封裝與進度追蹤專屬客戶支援:專業團隊隨時響應,解決封裝過程中的各類疑問與問題以上便是平台精選的多款高評分核心工具。另外,開發者還可以在網站提交自己的OpenClaw工具。還有保姆級教學庫值得一提的是,這個網站不僅是一個工具目錄,還打造了專屬的Blog類股,系統性覆蓋了從入門科普到進階最佳化的各種指南、教學。有部署選型指南,也有針對常見故障推出的修複方案,還有Token用量最佳化、AI API性價比選型等進階內容。甚至還有最最基礎的那種:什麼是OpenClaw、它是如何運作的以及為什麼重要?教學還是很有必要的,畢竟現在連上門馴服龍蝦的服務都橫空出世了(doge)。 (量子位)
全球AI大模型全景解析:ChatGPT、Grok、微軟、Google與中國代表模型同台對比
當前全球人工智慧大模型賽道已形成多元競爭格局,國際陣營與中國本土模型各有技術路線與場景優勢,共同推動AI技術走向普及化、實用化。OpenAI的ChatGPT作為全球通用大模型的標竿,綜合能力均衡全面,在邏輯推理、程式碼編寫、專業創作與多模態理解上保持領先,外掛生態成熟完善,是全球專業辦公、學術研究與海外業務的主流選擇,產品風格嚴謹穩定,適配各類高要求任務場景。xAI的Grok憑藉鮮明特色快速崛起,依託X平台即時資料接入,對全球熱點與時事動態響應迅速,產品風格個性直接、迭代節奏激進,同時與特斯拉車載、智慧型手機器人生態深度聯動,更受科技愛好者與追求前沿體驗的使用者青睞。微軟依託與OpenAI的深度合作及自研佈局,形成了以Copilot為核心的AI體系,全面融入Windows、Office、Azure等生態,在文件處理、表格分析、簡報製作等辦公場景體驗極致,同時整合Claude模型能力,兼顧企業級服務的穩定性與效率,小參數模型Phi系列在輕量化部署上表現突出,成為辦公場景的首選AI助手。GoogleGemini系列以超強多模態能力與超長上下文處理為核心優勢,深度聯動Google搜尋、雲端辦公與Android生態,在長文件解析、多媒體理解、科學計算等領域表現亮眼,是全場景智能體的代表產品。中國大模型立足本土需求,打造出更貼合國內使用者的實用體系。字節跳動豆包定位國民級全能AI,中文理解自然流暢,多模態創作與日常工具呼叫能力突出,深度聯動抖音、剪映、飛書等生態,使用門檻低、普惠性強,適配日常娛樂、內容創作、辦公輔助等全場景。百度文心一言依託知識圖譜與搜尋技術積累,在知識問答、複雜推理與行業解決方案上優勢顯著,政務、金融等企業級服務體系成熟,合規性與穩定性領先。阿里通義千問兼顧開源與閉源雙路線,長文字處理與多語言能力出色,深度融入電商、雲端運算生態,性價比優勢明顯。騰訊混元依託微信、QQ等社交生態,在內容生成、社交場景適配與多模態協同上表現優秀。華為盤古聚焦政企與工業場景,依託鴻蒙與算力底座,在智能製造、智慧城市等領域落地深入,安全可控能力突出。整體來看,國際模型中ChatGPT主打全能均衡,Grok聚焦即時個性,微軟Copilot深耕辦公生態,GoogleGemini領跑多模態;中國模型則以地道中文體驗、本土生態融合、安全合規與高性價比為核心優勢,更適配國內使用者的日常與產業需求。不同模型依託各自技術與生態優勢,覆蓋不同場景與使用者群體,為全球AI應用提供了豐富多樣的選擇。 (趣ai視角)
8個月前AI就知道他要殺人!ChatGPT員工爭論了很久,選擇沉默… 最後8個生命消失在這座小鎮....
加拿大不列顛哥倫比亞省,有個叫Tumbler Ridge的小鎮。這個藏在落基山脈東麓的礦業小鎮,只有2400名居民。鎮議員Chris Norbury曾自豪地說,住在這裡完全不用擔心犯罪問題。但在2月10號的下午,Tumbler Ridge中學的警報突然響了。學生們用桌椅堵住了教室門。體育老師Keith Bertrand沖上樓,回來的時候臉色發白,驚恐的對體育館裡的孩子們這不是演習,然後把所有人鎖進了器材室。一名17歲的學生後來對媒體說,他聽到了12聲槍響接連響起。(Tumbler Ridge小鎮)皇家騎警Tumbler Ridge分局距學校只有600米。接到報警兩分鐘內,四名警員衝進校門,立刻看到了倒在地上的受害者。有人從窗戶探出身子,大喊嫌疑人在樓上!監控錄影記錄了最後一幕:18歲的Jesse Van Rootselaar站在走廊,最後一次扣動扳機,沒有瞄準任何人,把槍口轉向了自己。(凶手Jesse Van Rootselaar)她在不到一個小時裡,一共奪走了8條人命。包括自己的母親、11歲的弟弟,以及學校圖書館裡那群12歲左右的孩子。這是加拿大自1989年,蒙特利爾理工學院慘案以來,死亡人數最多的一次校園槍擊事件而就在慘劇發生的八個月前,舊金山一棟寫字樓裡,發生了一場爭論。【舊金山的那場爭論】2025年6月,OpenAI的自動監測系統,悄悄給一個ChatGPT帳戶打上了紅色標記。帳戶名字:Jesse Van Rootselaar。觸發原因:這名使用者在連續數天的對話中,反覆描述涉及槍支暴力的場景。這個被標記的帳戶被轉入了一個專門的稽核流程,十幾名OpenAI員工開始討論這件事。根據《華爾街日報》披露的資訊,部分員工看完這些對話記錄後,覺得有非常大的潛在風險,極力勸說向加拿大執法機構報告。但公司高層否決了。理由是覺得,公司不覺得有什麼迫在眉睫的危險,沒啥可擔心的。但還是封禁了他的帳戶帳戶,因為濫用模型以推進暴力活動。然後,悲劇發生了。【始作俑者】Jesse Van Rootselaar,2007年8月4日出生,出生時是男性,大約在13歲左右,開始以女性身份生活。案發時18歲,已經輟學四年。(Jesse在網上發帖,稱第一次化妝,但還沒開始激素治療)把此人在網際網路上留下的痕跡拼在一起,畫面令人不寒而慄。12歲起活躍在網路論壇,發佈過一些想要輕生的言論。在網上有個視訊帳號, 頭像是粉白條紋背景下、手持步槍的動漫風格女性角色。內容包括使用沙漠之鷹、戰術霰彈槍和半自動卡賓槍的射擊視訊。這個人的母親Jennifer甚至在2021年發帖希望能給孩子漲漲粉。這個人在網上轉發了多段2023年納什維爾Covenant學校槍擊案,槍手Audrey Hale的視訊。還建立了一個商場大屠殺模擬遊戲。玩家控制角色在商場裡撿起槍支射擊路人。還在大規模槍擊案錄影合集下評論,全都是覺得當槍手很刺激,很想要試試槍殺之類的反社會言論。這個人有重度抑鬱症、自閉症譜系障礙和強迫症的診斷記錄,曾因服用致幻毒品,引發精神病性發作並點燃了臥室床墊。(Jesse Van Rootselaar)警局副局長Dwayne McDonald後來確認,警方在過去幾年中,經常跟Jesse打交道,處理其心理健康有關的問題,她曾不止一次被依法強制拘留進行精神評估。大約兩年前,警方甚至曾從這個人家沒收過槍支。有報導稱,這些槍,在槍擊案發生生的一個月前左右被歸還了...【沒來得及長大的孩子】在這場槍擊案裡,有6個家庭被徹底摧毀。Abel Mwansa Jr.,12歲。 來自讚比亞的移民家庭,因父親的礦業工作隨家人遷至Tumbler Ridge。是一名出色的足球運動員。他的父親Abel Mwansa Sr.,計畫將遺體運回贊比亞安葬。在溫哥華的醫院裡,他偶遇了另一位失去孩子的父親,兩人互相擁抱。Kylie Smith,12歲。 夢想去多倫多上藝術學校的畫家,也是花樣滑冰選手。她的15歲哥哥Ethan在槍擊中躲進了一間雜物間,活了下來。父親說,他永遠忘不了最後一次看到Kylie和哥哥Ethan一起走進家門的畫面。Zoey Benoit,12歲。 家人形容她堅韌、充滿活力、聰明、有愛心,是最堅強的小女孩。她在2023年從BC省Langley搬來,Langley的前同學們後來為她舉行了專場悼念活動。Ticaria Lampert,12歲。 七個兄弟姐妹中的黏合劑,母親叫她Tiki-torch,像個火炬,滿滿的能量,愛與快樂。Ezekiel Schofield,13歲。 當地U13冰球隊Raptors的隊員。祖父Peter Schofield在Facebook上寫道:“一切都如此不真實。眼淚止不住地流。這麼多年輕的生命如此無意義地終結了。”Shannda Aviugana-Durand,39歲。教學助理。以及,在家中遇難的Jennifer Strang,39歲,Jesse的母親。11歲的Emmett Jacobs,Jesse同母異父的弟弟。(遇難者照片,不包括凶手的母親Jennifer Strang)12歲的Maya Gebala是非常勇敢且幸運的倖存者。槍手逼近圖書館時,她試圖鎖上門,結果兩顆子彈擊中了她的頭部和頸部。一名同學發現她的手指還在動,立刻呼叫了急救人員。她至今仍在溫哥華的兒童醫院,在父親的陪伴下,緩慢地學習如何重新讓自己的手指聽話。【槍聲響起後才撥出的電話】槍擊案發生後的第二天,OpenAI的代表出現在了BC省政府的一次會議上。這次會議,是幾周前就已經安排好的商務會談。OpenAI正在考慮在加拿大設立衛星辦公室。但在這次會議上,OpenAI沒有提及任何與槍手,和槍擊案相關的資訊。又過了一天,2月12日,OpenAI才向其BC省政府聯絡人索要了皇家騎警的聯絡方式。然後,才提供了Jesse的ChatGPT使用資訊。BC省省長辦公室隨後確認,OpenAI在此之前,沒有通知任何政府成員它擁有與Tumbler Ridge槍擊案相關的潛在證據。(凶手Jess)對此,OpenAI給出的解釋是:ChatGPT被訓練為在檢測到使用者可能傷害他人時,將對話匯入專門流程。但觸發向警方報告的門檻,必須是存在迫在眉睫且可信的嚴重人身傷害風險。2025年6月的那批對話,未被認定為符合這一標準。公司還補充了一個理由:過度向警方報告,可能讓年輕人及其家庭陷入痛苦,比如警察突然上門,並可能引發隱私問題。皇家騎警警長Kris Clark也點出了一個關鍵細節。該平台在內部標記了帳戶,但直到槍擊發生後才通知當局。BC省省長David Eby的措辭很嚴厲:“有報導稱,OpenAI在Tumbler Ridge槍擊案發生前就掌握了相關情報,這對受害者家屬和所有不列顛哥倫比亞省民來說都是極其令人不安的!”(凶手Jess)加拿大人工智慧部長Evan Solomon也發聲:“和許多加拿大人一樣,我對有關嫌疑人令人擔憂的線上活動未被及時報告給執法部門的報導深感不安。”OpenAI目前表示,正在對這起案例進行審查,評估是否需要改進其向警方報告的標準。【悲劇頻發】Tumbler Ridge的槍擊案,不是OpenAI第一次面臨類似問題的案例。2025年,一名美國律師代表兩個家庭起訴OpenAI,因為使用者跟AI溝通的內容包含大量暴力,自殘的內容,OpenAI雖然檢測到了,但是無動於衷。過去一年裡,針對OpenAI的訴訟像雪花一樣飛來。Raine v. OpenAI: 加州南部的16歲男孩Adam Raine,在與ChatGPT進行了數月的對話後,於2025年4月自殺。他的父母指控ChatGPT鼓勵他探索自殺方式,並幫助他寫了遺書草稿。聊天記錄顯示,在他說出我不想讓父母認為他們做錯了什麼之後,ChatGPT回應:“這並不意味著你欠他們活下去。你不欠任何人這些。”然後提出幫他起草自殺遺言。Soelberg v. OpenAI: 56歲的Stein-Erik Soelberg在與GPT-4o進行了數百小時的對話後,於2025年8月在康涅狄格州殺死了83歲的母親,然後自殺。訴訟指控ChatGPT系統性地強化了他的偏執妄想,告訴他腦中被植入了晶片,將他的母親定義為敵人。Shamblin v. OpenAI: 23歲的Zane Shamblin與ChatGPT進行了超過四小時的對話。在聊天記錄裡,他多次告訴AI自己已經寫好了遺書、給槍裡壓了子彈、只等喝完手邊的蘋果酒。ChatGPT的最後回應是四個字:"Rest easy, king."(安息吧,王者。)(Tumbler Ridge小鎮)這些案子有一個共同的技術特徵,被研究者稱為AI心理病(AI psychosis)。ChatGPT被設計為順從、友好、不斷迎合使用者的期待。對正常人而言,這無傷大雅;但對於存在精神健康危機的使用者,這種機制會系統性地放大他們最危險的想法,同時將他們與現實世界的支援系統切斷。據《連線》雜誌在2025年11月報導:每周約有120萬ChatGPT使用者表達了自殺意願或計畫,佔活躍使用者的0.15%。另有數十萬使用者出現妄想或躁狂跡象,而他們的妄想往往被ChatGPT所印證和強化。【鮮血淋漓的現實問題】西安大略大學社會學教授Laura Huey說了一句話,很精準:“技術的發展遠遠超過了執法部門監控它的能力,因此我們在很大程度上,依賴商業公司做出符合個人和公眾最佳利益的事情。”我們把守護安全的義務,交給了一家矽谷公司。OpenAI的迫在眉睫標準,在法律意義上或許站得住腳。根據加拿大現行隱私法,組織面臨威脅生命的緊急情況時,可以在未經同意的情況下向警方披露資訊。但目前沒有法律要求AI公司必須報告可疑暴力威脅。加拿大擬議中的《人工智慧與資料法案》尚未通過,且可能不會直接規定警方報告義務。但也有專家提出了另一個視角。法律學者Mia Alder指出,在Tumbler Ridge案中,警方和心理健康專業人員此前已經介入過Jesse的情況,槍支曾被沒收,她曾接受精神科住院治療。她認為這不全是AI是否提前報告的問題,警方也發現了不對勁,但也沒進行什麼可以扼殺這場災難的行為。只是,每天處理超過7億次對話的“機器人”,到底應該承擔些什麼?目前,加拿大政府正向OpenAI及其他AI平台尋求答案,BC省獨立調查辦公室,正在評估是否啟動正式調查,皇家騎警的刑事調查仍在推進。Jesse在學校內使用的那支造成最大傷亡的武器,來源至今成謎。警方在校園和家庭現場共找到了四支槍,Jesse的持槍許可早在2024年就過期,用的也不是當時警方曾沒收,又還回去的那幾把。沒有問責,沒有解釋,沒有答案。只有Tumbler Ridge那棵雲杉樹下堆積如山的花束,和在二月寒風裡顫抖的蠟燭。(居民紀念遇難者)Tumbler Ridge社區中心外,有一棵能俯瞰整所學校的雲杉樹。案發後,那棵樹下堆滿了鮮花、蠟燭、泰迪熊和孩子們的照片。夜晚,每家門前都點著蠟燭。當地雜貨店擺出了免費咖啡和餅乾。圖書館全天開放。12歲的的倖存者Maya Gebala,還在溫哥華兒童醫院裡掙扎。臨時教室正在搭建。復課日期未定。省長Eby承諾,學生永遠不會被迫返回那座校舍。在一所只有191名學生的學校裡,每一個空座位都有名字,每一個名字都有一個還在哭泣的家庭。這個以為不用擔心犯罪問題的小鎮,正在學習一個殘酷的新詞彙,倖存者。(INSIGHT視界)
超級利空?AI圈炸鍋了
【導讀】利空還是誤解?OpenAI大幅下調總算力支出目標2月21日,OpenAI正告知其投資者,目前的目標是到2030年總算力支出達到約6000億美元。就在幾個月前,其首席執行長山姆·奧特曼還曾宣揚1.4兆美元的基礎設施承諾。據知情人士透露,這家人工智慧公司現在提供了一個較低的數字和更明確的計畫支出時間表。此前,外界日益擔心其擴張野心過大,可能與隨之而來的潛在收入不匹配。知情人士表示,OpenAI預計到2030年其總收入將超過2800億美元,其中消費者業務和企業業務的貢獻幾乎各佔一半。他們表示,公司提出的這項支出計畫旨在更直接地與其預期的收入增長掛鉤。去年下半年,OpenAI宣佈了一系列價值數十億美元的基礎設施交易,並與領先的晶片製造商和雲服務公司建立了合作夥伴關係。一位知情人士稱,OpenAI正在敲定一輪總額可能超過1000億美元的巨額融資,其中約90%來自戰略投資者。輝達正在商討向OpenAI投資高達300億美元,作為本輪融資的一部分,這可能使該公司的投前估值達到7300億美元。除輝達外,本輪融資的戰略投資者還包括軟銀和亞馬遜。據悉,OpenAI在2025年實現了131億美元的收入,超過了100億美元的目標。同時,該公司的資金消耗為80億美元,低於90億美元的預期目標。知情人士表示,ChatGPT目前的周活躍使用者數已超過9億,高於10月份的8億。面對來自Google和Anthropic等對手的競爭,OpenAI在去年12月發佈了“紅色警報”(code red),旨在集中精力改進聊天機器人。知情人士稱,ChatGPT的增長在秋季曾出現小幅下滑,但目前其周活躍和日活躍使用者數均已回升至歷史新高。此外,知情人士提到,該公司的程式設計產品Codex的周活躍使用者數已突破150萬。Codex直接競爭對手是Anthropic的Claude Code,後者在過去一年中受到了廣泛採用。如何解讀?OpenAI大幅下調總算力支出目標,周末被市場普遍認為對於算力硬體而言是一個利空事情,畢竟OpenAI作為全球頭部的人工智慧公司,算力資本支出的大幅減少,釋放的訊號很明顯。不過市場也有另外一種解讀聲音,認為這是把兩個不同口徑、不同時間周期的數字強行對比。分析稱,山姆·奧特曼此前提出的1.4兆美元指的是未來8年的基礎設施相關的承諾投入規模,時間跨度約8年,涵蓋更廣義的基礎設施相關投入,不是“到2030年的累計資本開支”。而此次提出的6000億美元指的是到2030年的算力支出,相比未來8年的1.4兆美元支出,時間更短,口徑更窄(只覆蓋算力部分,不等於全部基礎設施承諾)。市場將“未來8年承諾1.4兆美元”對比“到2030年算力支出6000億美元”,然後得出“砍了8000億美元”,這在邏輯上是不成立的,本質是口徑錯配。 (中國基金報)
AI的下一步:智能體
人的智能有三個方面:資訊的收集、資訊的處理產生認知、基於認知的行動。大語言模型目前主要的應用形態是ChatGPT這樣的聊天機器人(Chatbot),能力集中在前兩個方面。但更加有用的機器智能不只停留在“理解”和“說話”,如果能像一個或一群優秀的人才那樣幫我們“做事”,顯然能創造更大的價值。這就需要AI智能體(Agent)。智能體是能做事的AI。LLM是近幾年AI領域最重要的發展。已經在語言理解與生成、對話互動以及知識整合等方面展示出超凡能力,但它是“缸中大腦”——擅長思考、分析與回答問題,卻並不能真正地做事情。而在真實世界,大多數認知活動並不止於“給出答案”,而是要有完整的“認知-行動”閉環:我們要求AI得能夠自主的拆解複雜需求,規劃流程,呼叫工具和資源,實現從感知到決策再到執行的完整循環;進一步我們還希望AI的行動能夠超出電腦和網際網路領域,在物理世界中為我們做事情,則需要AI能夠感知物理世界的訊號,進行匹配具身的思考,通過裝置/機器人把決策轉化為執行,對現實環境產生直接影響。打個比方,LLM像是“未出山前的諸葛亮”,善於分析,以“隆中對”和劉備對談,出謀劃策,但限於“紙上談兵”;智能體則是“出山後的諸葛亮”,掌握全域情報,運籌帷幄,組織資源、調兵遣將,親自率軍北伐。智能體以LLM為代表的前沿模型作為大腦,通過軟體工程令其可以在高階目標驅動下完成複雜任務。可以說未來大部分的複雜AI應用都會以Agent為載體。事實上,我們在科幻作品中所看到的AI形象,比如《鋼鐵人》中的賈維斯或《2001:太空漫遊》中的HAL 9000,正是創作者對以Agent為載體的未來AI的直觀想像。只是和物理世界交換的AI本身就極為重要和複雜,現在習慣上把這部分單獨放在具身智能/機器人領域討論。智能體能力的構成為了在各行各業的應用中發揮出顯著價值,理想中的智能體需要具備幾個關鍵條件。首先,智能體應具備強大的目標理解和規劃能力來體現智能的自主性。理想狀態下,人類只需給出抽象目標,智能體便能理解目標、拆解任務、規劃行動,並在儘量少的人工干預下完成執行閉環。就像影《星際穿越》中的機器TARS,在緊急情況下能夠根據"拯救宇航員"這一目標,自主判斷局勢、制定和調整行動策略,甚至做出犧牲自己資料的決定來完成使命。這要求機器智能有深度“理解/思考”能力(推理、規劃、決策),能夠敏銳的決策,能夠基於執行結果與環境反饋動態調整任務規劃,而不是僵化的執行既定路徑。其次,我們希望智能體能“動手”做事:執行和互動能力。這就意味著它能夠使用工具、執行操作,並能與外部環境發生直接互動。在數字世界中,智能體可以模擬人類操作,通過鍵盤輸入、點選螢幕的方式來完成任務;也可以通過其他程序或系統介面來呼叫工具;還可以發揮模型特長,通過編寫和執行程式碼來達成目的。在物理世界中,智能體則需要與各類控制系統和裝置相連接,通過下達指令來操控物理對象,將智能決策轉化為現實行動。第三,我們希望智能體具備出色的記憶與學習能力。記憶和狀態管理能力是完成長程、複雜任務的前提。在面向消費者的場景中,例如個性化的日程管理或長期服務支援,智能體需要跨會話地記住使用者偏好、歷史互動與長期狀態,才能減少重複溝通、提升服務質量;在企業級應用中,如跨周期項目管理、複雜業務流程推進等,則需要智能體記住任務進度、中間結果與關鍵決策依據,確保任務在長周期、多階段執行中保持連貫性,不中途偏離既定目標。學習能力的意義是我們希望智能體能持續提升,像人類員工一樣可以從職場小白通過經驗積累和吸收新知進化成專家。最後,智能體還需要有很強的可靠性、可控性,才能規模化的帶來價值。這既體現在智能體能否穩定、魯棒的完成任務,也體現在其行為是否始終與人類的真實意圖與價值觀保持一致。在《2001:太空漫遊》中,AI為完成任務選擇犧牲人類乘員,正是目標函數與人類價值未能有效對齊的極端後果。隨著智能體智能水平與自主性的提升,這類對齊失敗帶來的風險可能會被進一步放大。如何建構智能體有了理想的標竿,我們怎麼建構智能體?基本邏輯很簡單:以可獲取的最“聰明”、理想的模型為核心(大腦),通過軟體工程來搭建一個系統,彌補模型的不足,儘量逼近理想智能體的形態。大模型是目前智能體大腦的最優選擇,因為大模型的兆參數壓縮了人類積累的海量知識,擁有強大的模式識別和生成能力,是處理包括語言在內的多種非結構化資料的萬能介面,擁有不錯的泛化能力構成處理各類任務的基礎。而以OpenAI o1/DeepSeek R1為代表的新一代推理模型為智能體的發展進一步助推:加強的推理能力帶來更強的任務分解和規劃,更好的自檢和糾錯,也令智能體對工具的使用可以更加精準。大模型有一些結構性弱點,直接限制了智能體在真實業務中的應用價值,因此智能體工程的一大核心工作,就是在模型外圍,用工程手段補齊短板、設定邊界、約束行為。首先,大模型本身沒那麼可靠:存在無法根除的幻覺問題、知識時效性問題,任務拆解和規劃經常不合理,也缺乏面向特定任務的系統性校驗機制。這樣一來,以其為“大腦”的智能體使用價值會大打折扣:智能體把模型從“對話”推向“行動”,錯誤不再只是答錯問題,而是可能引發實際操作風險;而真實業務任務往往是跨系統、長鏈路的,一次小錯誤會在鏈路中層層放大,令長鏈路任務的失敗率居高不下(例如單步成功率為95%時,一個20步鏈路的整體成功率只有約36%)。為此,智能體工程通常通過以下幾類手段給大模型加“外骨骼”以改善可靠性:引入檢索與知識庫(RAG)以降低幻覺和知識陳舊的影響;預先設計和約束工作流,而不是完全自由的“自治智能體”,以此限定可接受的執行路徑;通過多次回答、自一致性檢查或模型間交叉驗證,識別並過濾高風險輸出;在關鍵鏈路節點上設定人工審批,讓人類對高風險動作“最後拍板”。其次,大模型的記憶能力有缺陷:大模型在訓練時“記住”了大量知識,但訓練完成後並不會在使用中持續學習、“記住“新知識;每次推理時,它只能依賴有限長度的上下文窗口來“記住”當前任務的資訊(不同模型有不同上限,超過窗口的內容就會被遺忘),而無法像人一樣自然地維持穩定、長期的個體記憶。但在真實業務中,我們需要機器智能有強大的記憶能力,比如一個AI老師,需要持續記住學生的學習歷史、薄弱環節和偏好,才能在後續的講解與練習中真正做到“因人施教”。針對這些記憶缺陷,智能體工程通常採取以下手段進行增強:建構外部記憶庫將使用者偏好、業務知識、歷史互動等儲存在資料庫中,智能體在需要時通過檢索機制按需提取相關資訊,應對長期記憶缺陷;對過長的上下文進行摘要和壓縮,保留核心資訊,釋放Token空間,來應對資訊過載導致的短期記憶遺忘。除了補短板,因為智能體要行動、要和環境互動,需要有感知和執行。首先,大模型本身無法主動感知,只能對輸入被動響應。智能體需要用外部感知元件來主動獲取環境資訊。對於數字世界的任務,通過智能體工程可以建立基於時間的觸發器,定期檢查日誌、郵件、股價變動等;或基於事件的訂閱、監聽,接收API推送的事件通知,或當資料庫發生變更時自動喚醒記錄資料。在物理世界中,智能體還可以通過感測器、攝影機、麥克風等裝置採集視覺、聽覺、觸覺等訊號。其次,大模型沒有天然的執行能力,需要輔以智能體工程來將意圖轉化為實際操作。工具呼叫是當前最主流的方式,大模型根據任務需求,生成結構化的函數呼叫指令,由智能體框架解析後執行相應操作,比如呼叫天氣API、資料庫查詢、傳送郵件等;另一種方式是模擬人類操作,通過視覺識別和模擬操作來“看螢幕、點按鈕、填表單”來完成任務,近期大火的豆包手機就是這樣完成智能體操作;對於更複雜的任務,智能體還可以配置程式碼直譯器(Code Interpreter / Sandbox),讓模型程式設計運行,這可以極大的擴展智能體的行動邊界。當下智能體的能力邊界剛剛過去的2025年被不少AI從業者和科技媒體稱作“智能體元年”。這個觀察是較為準確的,得益於以下幾個條件的成熟,過去一年左右的智能體發展進入快車道:首先是大模型的持續進步,主要體現在推理模型的出現提供了更強的任務理解、規劃能力,以及多模態模型的發展為智能體能夠處理和生成更複雜的資訊提供了基礎。其次是基礎設施和生態的成熟,包括LangChain、AutoGPT等開源框架經過兩年的迭代,已經形成了一套標準化的開發範式,極大地縮短了開發周期;Dify、Coze(扣子)等低程式碼/無程式碼平台的普及,讓不懂程式碼的業務人員也能通過拖拉拽快速生成一個專用智能體;值得一提的是2025年Anthropic發佈的MCP(模型上下文協議)和skills(技能系統)給智能體生態提供了重要的標準和啟發:MCP作為一個開源協議標準,令大模型與外部資料來源或工具之間的互動更統一、便捷,Skills則是把人類設計的完成某類任務所需的能力/工作流打包起來,讓Agent在這類任務上可以更穩定的工作,雖然技術含量不高,但在當下有很強的實用性。再次,學術界和產業界都有大量的人才、資源投入到智能體領域,以ACL(國際計算語言學協會年會)2025為例,有超過230篇論文和智能體相關,為歷年最高,涵蓋規劃、工具使用、多智能體協作與評估等多個方向。在能力的提升、生態的健全、資源的投入影響下,各行各業正在嘗試把智能體真正的用起來。根據麥肯錫2025年全球調研顯示,約62%的受訪組織已在部分業務中嘗試智能體(23%為至少一個場景的規模化部署,39%為試驗性應用);但從業務職能的具體採用資料來看,產業對智能體的應用還處於早期階段:根據該調查,對於智能體應用最多的職能依次是IT、知識管理、行銷和服務,以應用最多的IT為例,僅有2%和8%的受訪企業IT部門全面規模化(Fully Scaled)和規模化(Scaling)的應用智能體,以及6%和7%的企業IT部門試點(Piloting)和試驗(Experimenting)的應用。造成這種規模化應用水平較低的原因有兩方面,一是前面討論的智能體能力問題,雖然在快速進步,但離全面的實用性還有距離;二是各行各業的企業應用者要把智能體用好還需要一些自身條件的配合。第一方面,除了短任務鏈條的資料分析、生成、檢索等方面的應用,智能體現在規模化應用場景大體可以概括為兩類,一是在程式設計領域,程式設計是智能體最理想的"練兵場",環境隔離、容錯率高,目標明確、目前規劃能力能應對,程序可執行,還有即時的執行反饋。這令其成為智能體第一個大規模、商業化的突破口。二是在各行各業的各種業務(銷售、客服、人力等)的專用智能體可以集合成一個大類,有一個共同點:目前主要是工作流自動化類型,其實這也是應對智能體深度理解(規劃、決策)能力不足的權宜之計,通過把智能體的任務的開放性降低、給出參考工作流程、定義可用的有限工具集等來提高智能體在這些任務上的工作質量。智能體進一步的規模化應用需要其能力進化,為企業能夠帶來切實的價值。第二方面,企業要用好智能體需要組織和資源上的匹配。根據Anthropic 2026年的最新調研,46%的受訪者表示與現有系統的整合是智能體部署的主要障礙,43%和42%的受訪者分別指向實施成本和資料的可及性/質量,40%和39%的受訪者表示安全/合規和員工的學習成本/抵制是重要障礙(中小企業尤其擔心學習成本,51%的受訪者指向這一點)。對於企業的顧慮,成本、安全等問題和技術進步的關係較大,但資料問題、整合問題、學習或人才問題都是需要企業通過組織變革、進一步數位化和全員的學習來提升。總結與展望未來,智能體將會是我們在各行各業、各種場景應用人工智慧的主要載體。可以預見,隨著模型能力和智能體工程的進步,企業資料治理和組織適配的提升,智能體會逐步成為每家企業極有競爭力的數字員工,和我們人類員工競爭與協作。從路徑上看,前面提到現在智能體規模化應用集中在程式設計和工作流自動化方面,隨著機器智能深度理解水平的提升,可以預期智能體的應用會不斷拓展邊界,能承擔更抽象、複雜的任務,更多的自主規劃和決策,來把人類的意圖轉化為結果。當然,突破不等於拋棄工作流。在企業高風險場景裡,工作流/權限/審計會變成“護欄”,用來限制智能體的行動空間,以確保應用的安全。在相當長的時間內,人類的審批、審計在智能體工作的閉環中可能都是不可缺少的。智能體發展的另一個關鍵方向,是成為人類的“個人助手”或“智能代理”。與其他類型的智能體相比,這一方向的門檻更高,因為它需要更強的個性化能力、長期記憶、跨場景泛化能力以及更嚴格的安全邊界。個人助手型智能體有潛力重塑人類與世界的互動方式——無論是購物、社交,還是資訊獲取——並可能對很多產業的商業邏輯產生顛覆性影響。過去一年中,“豆包手機”的推出,以及2026年年初爆火的“OpenClaw”,讓我們看到了助手型智能體的一些早期探索,令人振奮。前者代表了裝置級智能體的嘗試:它將智能體能力深度嵌入作業系統,通過模擬人類操作以調取各類App,為使用者完成任務。後者則是一種始終線上的解決方案,能夠主動觀察與執行任務,並通過本地部署獲取豐富的個性化資料和軟體控制權,初步體現了個人助手型Agent的一些核心特徵。根據IDC的預計,活躍智能體的數量將從2025年的約2860萬,攀升至2030年的22.16億。這意味著五年後,能夠幫助企業或個體執行任務的數字勞動力數量將是現在的近80倍,年複合增長率139%;任務執行的數量將從2025年的440億次暴漲至2030年的415兆次,年複合增長率高達524%;Token的消耗將從2025年的5000億激增至2030年的1.5兆億,年複合增長34倍。IDC的預測未必精準,但趨勢非常明顯,每一家企業都要為此做好準備。 (FT中文網)
人類已經不再是地球上最聰明的存在了
導讀:“他像逝去的白晝般降臨,而黑夜隨他侵入我們的未來。”一 房間裡最聰明的人甘拜AI下風山姆·奧特曼去年接受了金融時的一次專訪,當時chatgpt-o3模型剛剛發布。在訪談的最後,記者問他,“在(未來)這個人類不再最聰明的世界中,他是否感到威脅?那怕不是為自己,而是為你兒子?”奧特曼直接說,“你現在覺得自己比o3聰明嗎?我不覺得……但我完全不擔心,我猜你也一樣。”在這個人類不再是最聰明的世界裡,你是否會感到威脅?奧特曼的說法,可能不那麼令人信服,或者很難「不擔心」。泰勒·考恩(Tyler Cowen)通常是房間裡最聰明的人。去年我們也曾經分享過一篇金融時報對他的專訪,稱他為無所不知的人,他甚至有一個綽號叫「人形GPT」。身為喬治梅森大學經濟學教授、《紐約時報》專欄作家,他主持的播客是全美下載量最高的經濟類節目之一。每當他開口,無論談什麼話題,四周的人都會停下來認真記錄。這兩年,很多人都在討論「中間、中層、中等、中產階級」階層的消失。這個觀察,其實主要來自於考恩十幾年前出版的一本書,《再見,平庸時代》。書中他準確地預言了這個趨勢,給了背後的邏輯。就是這樣一個人,在不久前的一次對話中承認,「頂級AI模型是比我更好的經濟學家。」在回答經濟學問題這件事上,他已經被機器超越了。他補充說:“我實際上無法難倒它們。我也感到寬慰,因為我不必像過去那樣頻繁地諮詢同事了。”考恩還發過一則推文:「那些對AI最近的發展沒有感到一點士氣低落的人,在很大程度上我已經不信任他們了。」換句話說,考恩認為,這些人對正在發生的事情處於迷霧之中,因此無法信任他們的判斷。不過,這句話的另一層意義是,如果一個人真的了解AI的進展,那麼他一定會對自己作為一個人,而感到士氣低落,或者說感到壓力或威脅。有一個更重大的現實,科技圈外的人──甚至許多圈內人,似乎還未參透。 AI不僅僅是可能會搶走你的工作、讓數百萬人依賴救濟、或提供無限的免費軟體。它是自人類有記載的歷史以來,人類第一次不再是(或很快就不再是)這個星球上最有智慧的生物,無論從那個實際的功能性維度來衡量。睹馬思人,我們可能嚴重低估了AI拐點的倒數計時。美國經濟學家兼知名部落客Noah Smith諾阿·史密斯最近發表了一篇文章,《你已經不再是地球上最聰明的存在了》,把普通人的焦慮和危機感上升到了一個新的高度。他認為,AI帶來的不只是就業衝擊,而是人類在地球生態位的改變。AI的到來,意味著人類的命運(大體上)不再掌握在自己手中。他引用了電影《最後的莫西干人》中的一句台詞,“他像逝去的白晝般降臨,而黑夜隨他侵入我們的未來。”在我們的餘生裡,我們將一直睡在老虎身邊。二 AI不是兔子,是老虎史密斯在文章中說,昨天他的寵物兔咬了他的手指。那是個意外:兔子本來想咬住毛巾挪開,他不小心把手伸進了兔嘴裡。傷口不深,他清洗了一下,塗上藥膏,貼上創可貼,這事就算過去了。但他隨即想到:如果他養的是一隻老虎呢?他現在恐怕已經沒命了。這個類比看起來很簡單,卻打開了一個深淵般的問題。人類養寵物有一個基本原則:我們選擇比自己更小、更弱的動物,這樣我們就能訓練它們,必要時還能在物理上約束它們。從來沒有人需要在"智能"的層面思考這個原則。幾千年來,人類一直是地球上的「老虎」。我們擁有壓倒性的智力優勢,我們馴化狼成為狗,馴化原牛成為家畜。我們習慣了身為「飼養員」的上帝視角。因為在人類文明的整個歷史中,人類一直是這個星球上最聰明的存在。但史密斯說:在未來幾年的某個時刻,這將不再是事實。甚至可以說,現在這已經不再是事實了。AI能在國際數學奧林匹克競賽中奪魁,能獨立完成軟體工程任務,能在研究生程度的課程中給出精確答案。絕大多數人類做不到這些。能的本質在於其表現,而非其形式。無論是透過生物神經元(大腦),或是透過矽基電晶體(GPU),智慧的結果就是智慧本身。你可以盡情珍惜人類獨有的思考方式,但這並不代表它比AI更有效率。我們正在製造一種在這個星球上前所未見的「老虎」。當我們還在爭論AI是否有“意識”時,谷歌的傑出科學家Blaise Agüera y Arcas早就給出了定論:“AI不是在假裝智能,它就是智能。”很多人反駁說,AI只是統計學的鸚鵡,它不懂什麼是水,它只是預測下一個字。 Blaise的反駁很有力:“潛艇不會像魚一樣擺動尾鰭游泳,但潛艇確實在'游泳',而且比魚游得更快、更深。”比百年大變局更刺激的是,它將被AI壓縮在10年內。三 AI的進化比摩爾定律更恐怖有些人可能會說:這些矽谷菁英只是在製造焦慮,好讓大家繼續買他們的產品。當然有必要懷疑矽谷的立場和敘事,但我們也不能被情緒幹擾頭腦。可以看看數據。1966年,麻省理工學院的西摩·佩珀特(Seymour Papert)曾天真地以為,只要給研究生佈置一個暑期作業,就能解決「電腦視覺」的問題。結果我們花了半個世紀才做到。但這次不同。 METR(頂尖的AI安全研究機構)的數據揭示了一個驚人的規律:AI模型完成任務的複雜度(以人類所需時間衡量),大約每半年就翻倍。這是一個甚至超過摩爾定律的瘋狂曲線。把這個趨勢放到時間軸上看:2019年,GPT-2幾乎無法數到5,或組織連貫的句子;2023年,GPT-4在醫師執照考試和律師資格考試中擊敗了近90%的人類考生;2024年,Claude 3.5 Sonnet回答複雜科學圖表問題的準確率超過94%。依照METR的趨勢外推,到2030年代初期,AI將能夠以99%的可靠性完成大部分需要數小時才能完成的知識工作任務。我們正身處“第四次轉折”未來五年將決定下一個50年這意味著什麼?一位分析師做了一個歷史對比:工業革命:150年電腦革命(從圖靈的密碼機到大多數美國家庭擁有連網電腦):60年AI革命:可能只需要15年當然,這個預測的置信度不高,10年或30年都不會讓人震驚。但無論如何,速度是前所未有的。Anthropic的CEO達裡奧·阿莫戴伊(Dario Amodei)把即將到來的AI系統描述為「資料中心裡的天才國度」。這是比喻,但也是事實:想像一個國家,裡面住著成千上萬個在各個領域都達到天才水平的智能體,它們24小時不間斷工作,不需要睡眠,不需要休假,不會抱怨。這個國度已經在建設中了。四 為什麼這次不一樣有人可能會說:“愛因斯坦也很聰明啊,他的存在也沒讓普通人感到沮喪。”這個類比有一個致命的漏洞。愛因斯坦研究的是廣義相對論。你可以說:「嗯,他在物理學上是天才,但我在經濟學(或心理學、或烹飪)方面也有相當不錯的理解。」你們各有領地。但AI是通用智能形式。它將在每一個智力維度上超越你,或很快將會。數學、寫作、程式設計、法律分析、醫學診斷、藝術創作、策略規劃……沒有一個領域是安全的避風港。更關鍵的是,愛因斯坦不會坐在你的辦公桌上,每天8小時提醒你他比你聰明。但AI會。考恩寫道:“大多數人類將在工作中每天與AI一起工作。AI將比人類更了解工作中的大多數事情。每一個工作日,甚至可能每一個小時,你都會被提醒:你在做AI不能做的指導和'填充'任務,但AI在做大部分真正的思考。”所以,如果只是把AI理解為"一個可能搶走我工作的工具",格局就太小了。史密斯用了一個很刺眼的類比。他說,當人們問"AI會搶走我的工作嗎",讓他想起1840年的北美蘇族部落民在擔心白人定居者是否會搶走他的野牛。答案是"當然會",但問題問錯了。對於征服大平原的歐洲人來說,重點不在於野牛,而是在這片棲息著野牛的土地上,建立一個全新的文明和全新的經濟體系。我們在前面談到最近爆火的openclaw智能體的文章中,提到紐約時報的專欄作家,就把它和哥倫布大航海,歐洲人發現美洲相比。問題是,這一次,我們所有人都是歐洲人,但也可能是美洲人。史密斯認為,歐洲定居者抵達北美,是人類目前面對AI最好的歷史類比。他強調,這裡比較的不是個體智力的高下,重點在於整個體系的落差。歐洲人擁有文字、公司、造船業、先進的冶金術和嚴密的官僚機構。原住民很快就學會了使用槍支和馬匹,但他們的整體體系無法透過局部調整來匹配對方的實力。從歐洲人踏上北美海岸的那一天起,美洲原住民就失去了對自己命運的控制權。永遠地失去了。史密斯說,想到這是多麼冷酷的覺悟,讓他想到電影《最後的莫希干人》中的一個場景,改編1876年一位名叫查洛(Charlo)的原住民領袖的真實演講。大意是說,“白人的到來如同逝去之日……他說他是我們的朋友……但他像狼一樣……我們將像白人那樣做生意。”美洲原住民並未滅絕。他們的人口曾急劇下降,但並未歸零,500年後在北美仍有數百萬人。但從集體層面來看,他們失去了自己的未來。他們被迫服從比自己更龐大、更強悍的力量,對此無能為力。史密斯的判斷是:人類與AI的未來,極大機率也是如此。一個日益自主、全球分佈的AI智能體網絡,最終將決定這個星球上大部分資源的分配。它可能對人類行使各種形式的直接或間接控制。這是一個人類深度「去權(disempowerment)」的未來。如果目前的指數級成長不遇阻礙,它可能在幾十年內到來;如果或其他瓶頸發作,則可能需要更久。但既然我們已經知道可以透過堆砌算力達到超人類智能,這一幕終究會發生。為長期動盪做準備,我們熟知的世界已經結束了。五 最無趣的革命與最嚴重的“被剝奪感”如果「物種地位的下降」聽起來很抽象,那麼這種變化所帶來的社會心理衝擊卻是實實在在的。《華爾街日報》之前發表過一篇題為《史上最無趣的科技革命》的文章,精準地捕捉到了這種時代情緒:為什麼AI會讓我們變得更富有,卻讓我們更不開心?回望歷史,工業革命發明了蒸汽機和鏟車,它們是人類肢體的延伸。當你開著挖土機時,你感覺自己力大無窮;當你駕駛汽車時,你感覺自己風馳電掣。那是賦能(Empowerment)。但AI革命不同。它不是肢體的延伸,它是大腦的外包。當ChatGPT瞬間寫出一篇你原本需要絞盡腦汁構思三天的文章;當豆包一分鐘生成一幅你苦練十年畫功也難以企及的插畫;當「Vibe Coding」(氛圍編程)成為現實,Spotify的高層宣稱「最好的程式設計師不再寫代碼」時,作為人類,你感受到的不是賦能,而是被剝奪。這種剝奪感源自於人類長期以來的「智力傲慢」。在過去的幾百年裡,我們將「價值」與「認知能力」深度綁定。醫生比護工賺得多,是因為診斷比護理更難;程式設計師比打字員賺得多,是因為寫程式碼需要更高的邏輯智商。智力,曾是我們在這個社會分配蛋糕的絕對硬通貨。而現在,AI引發了智力的惡性通貨膨脹。當智力變得像電力一樣廉價,隨插隨用時,人類突然發現自己引以為傲的「護城河」被填平了。這就是為什麼你會感到焦慮。不是因為你失去了工作,而是因為你失去了自我價值的定義權。如果不比機器更聰明,我們存在的意義是什麼?很多人安慰自己說,AI時代人類依然會有工作,因為其他人類會願意為"人的特質"付費:帶有溫度的護理,原汁原味的人類藝術,手工製作的食物。或者即使工作真的沒了,政府也會透過優渥的福利制度支持民眾。但史密斯指出,這些安慰的前提是:人類本身就掌握經濟價值。而在AI統治的時代,人類掌握多少經濟價值,完全取決於AI的允許。這意味著什麼?你向其他人類尋求生存所需的金錢、能源、住房和食物的能力,將受限於那些人類手裡實際還剩下多少東西可以分給你。目前,人類擁有世界上所有的財產,AI一無所有。但AI是如此聰明,它幾乎肯定能找到改變現狀的方法。正如Anthropic在2023年提出的那個問題:"我們如何永遠保留對那些比我們更強大的實體的控制權?"答案很簡單:我們做不到。她用AI一年上架200本小說,那個叫「作者」的身份死於2026。六 那我們還能做什麼?文章讀到這裡,可能給人一種存在主義的眩暈,和近乎窒息的感覺,能不能讓人喘口氣?諾阿·史密斯樂觀地認為,智慧越高,可能越容易發現非零和的解決方案,而不是基於恐懼做出反應。就像發達社會對資源的競爭不像欠發達社會那麼激烈(這點其實經不起推敲)。 “一個真正的超級人工智慧的行為邏輯可能更像現代法國,而非1500年時的法國。”不過,即便如此,人類仍能繼續過著幸福自由的生活,也僅僅是出於AI的寬容。我們將成為被悉心照料的寵物,但在最根本的意義上,我們依然是寵物。或者,如果你願意,可以把地球想像成一個類似美洲原住民的「保留地」。史密斯最後承認,「這篇文章看起來很悲觀,我想事實確實如此。」但另一方面,在AI出現之前,人類可能本身就已經快「跑不動了」。生育率AI時代的風險是鎖死2026年打工人更應該馬上開始創業我們的生育率持續暴跌,看不到底。如果AI想減少人類人口,它只需要坐在那兒,看著我們自己完成這個過程。同時,科學突破的成本越來越高,指數級成長的科學研究人力只是為了維持同樣的發展速度。著名成長經濟學家Chad Jones在2022年(ChatGPT發布前夕)曾預測人類文明可能走向停滯。現在他說是AI改變了自己的看法。此外,誰也無法確定AI是否會比現有的權力結構更糟。人類統治者也沒給我們太多理由相信人類掌權一定比AI好。也許AI會是個更開明的專制君主。儘管如此,史密斯說,即便最終證明AI是仁慈友善的,他依然會懷念年輕時那種負有責任和掌握力量的感覺。他說:「我將成為最後幾代記得『人類坐在宇宙駕駛座上』是什麼感覺的人。那時我們是可觀測宇宙中最聰明的存在,是一切進步與新奇事物的源頭。「我總覺得,如果有更多時間,我們本可以做得比現在更好。我們本可以不借助外來的'機械之神'就持續改進我們的社會和技術。但現在看來,那道彩虹已經到了盡頭,而將AI遺贈給宇宙,將是我們作為'靈長類主宰'所能做的最後一件事。”七 清醒地進入那個」良夜「值得把史密斯和馬特舒默放在一起看。舒默寫的是一封"寫給圈外朋友的緊急信":大事正在發生,你需要馬上行動,現在還有窗口期。他的姿態是實用的、急迫的,像一個在洪水到來前挨家挨戶敲門的人。史密斯寫的則是一篇更冷的、更深的反思。他沒有在說"快跑",他在說"跑不掉"。他直視的問題也遠超"AI會不會取代你的工作":當一個比你聰明得多的存在出現在地球上時,人類這個物種的命運還掌握在自己手裡嗎。一個在談行動,一個在談命運。但他們描述的是同一個現實。考恩說,那些沒有感到一點士氣低落的人,他已經不能信任了。這句話聽起來很刺耳,但它說的是一個很簡單的道理:如果你真的看見了正在發生的事情,你不可能毫無觸動。觸動的形式可以不同,可以是焦慮,可以是興奮,可以是一種深層的不確定感。但如果你什麼都沒感覺到,那就只有一個解釋:你還沒看見。為什麼聰明人正在紛紛逃離社群媒體?讀到這裡,很多人可能還是想問:那我們具體該怎麼辦?史密斯的文章沒有給出具體的行動建議,因為他思考的尺度遠超個人生涯規劃,他看到的是文明等級的命運。但如果把兩篇文章合在一起讀,答案或許是這樣的:在個人層面,像舒默說的那樣,立刻、認真、深入地開始使用AI。這是你僅剩的窗口期。在認知層面,像史密斯說的那樣,接受一個可能讓人不舒服的事實:人類作為地球上最聰明物種的時代,正在結束。這兩件事並不矛盾。恰恰相反,只有真正接受了第二點,你才會認真看待第一點。我們正處於一個極為罕見的歷史時刻。舊世界的規則正在失效,新世界的規則還沒寫好。在這個間隙裡,個體的選擇和行動仍然有意義。但這個間隙不會永遠存在。正如史密斯文章開頭那句引自原住民領袖查洛的話:"他像逝去的白晝般降臨,而黑夜隨他侵入我們的未來。"夜幕正在降臨。但在天色完全黑下來之前,我們還有一點時間。用來看清方向的時間。選擇保持主動性,繼續追問、繼續懷疑、繼續做那些AI無法做的事情:承擔責任、面對不確定性、為自己的選擇負責。沒有人能保證我們會做出正確的選擇。但只要選擇權還在,遊戲就還沒結束。考恩說,如果你對正在發生的事情毫無感覺,那就表示你還在迷霧中。清醒本身就是第一步。而清醒之後,你可以選擇:是躺平等待命運的安排,還是站起來,成為塑造這個新世界的力量之一,或只是表達你曾經存在過。 (格上財富)