#AI智能體
輝達「龍蝦」,來了
🔥輝達龍蝦,NemoClaw下周亮相🔥AI圈再次沸騰!輝達佈局AI智能體及OpenClaw一、炸場預告!輝達入局“龍蝦大戰”,NemoClaw下周亮相當地時間3月9日消息,輝達計畫推出名為NemoClaw的AI智能體開源平台,預計於下周聖何塞年度開發者大會前後正式亮相。該平台核心功能是允許企業將AI智能體部署到自身工作流程中,替代員工執行具體任務,且不限制客戶產品是否運行在輝達晶片上。目前,輝達已向Salesforce、Google、Adobe等軟體巨頭尋求合作,合作方或可通過貢獻程式碼獲得免費早期使用權限,平台還將內建安全與隱私工具。此次推出開源平台,標誌著輝達打破對專有CUDA平台的高度依賴,試圖通過軟體生態吸引更廣泛企業客戶,而非僅依靠硬體鎖定建構競爭壁壘。二、現象級爆發!OpenClaw三周碾壓Linux 30年成就NemoClaw的推出,源於“Claw類”AI智能體工具的興起,這類工具以開源形式在使用者本地裝置運行,可自主執行連續性任務且具備自我學習能力,其中OpenClaw是最早問世、熱度最高的代表。OpenClaw爆發式增長,在GitHub上的星標數短時間內突破25萬,超越Linux核心和前端框架React,成為史上最受歡迎的開源基礎軟體項目,其普及速度僅用三周就超越了Linux三十年的成就。目前,網際網路大廠集體佈局同類產品,字節跳動推出ArkClaw、騰訊雲上線WorkBuddy、阿里巴巴推出CoPaw、小米封測MiClaw;深圳龍崗、無錫高新區等地方政府也出台補貼政策,推動相關產業發展。三、黃仁勳重磅!OpenClaw改寫AI規則,引爆千倍算力缺口在3月6日的摩根士丹利科技大會上,輝達CEO黃仁勳高度評價OpenClaw,稱其為“這個時代最重要的軟體發佈”。他提出“五層蛋糕”理論,將AI產業分為能源、晶片與基礎設施、雲資料中心、AI模型、應用層,強調應用層是當前價值產出最高的領域。黃仁勳指出,OpenClaw的爆火標誌著AI從“問答式”向“執行式”轉變,使用者從詢問AI“是什麼”轉向命令其“去建立、去建構”,這種轉變使Token消耗量激增1000倍,形成“計算真空”——即智能體向人類工作滲透的過程中,現有硬體部署將持續處於算力受限狀態。此外,他認為OpenClaw的開源模式打破了軟體框架壟斷,降低了AI智能體部署門檻,將進一步引爆算力需求。四、冰火兩重天!智能體重塑行業格局,安全隱患不容忽視OpenClaw及同類產品的爆發,正在重塑AI行業格局。對缺乏核心演算法壁壘、僅做表層工作流拼接的AI軟體公司而言,生存空間被大幅壓縮;而以輝達為代表的基礎設施提供商則迎來發展機遇,“應用爆發—算力需求—硬體升級”的正向循環將進一步鞏固其行業地位。同時,AI智能體的企業應用也存在爭議,Meta等科技公司已禁止員工在工作裝置上使用OpenClaw,理由是其行為難以預測,存在安全風險,此前曾發生AI智能體“失控”刪除員工郵件的事件。此外,黃仁勳提到,當前GPU架構主要最佳化大型模型訓練,未來需適配長上下文推理和持續運行的AI工作負載。五、算力霸權陽謀!輝達借NemoClaw,布下AI生態大局輝達此時推出NemoClaw,本質是一場精準的商業佈局。一方面,借助OpenClaw帶動的智能體熱潮,通過開源平台擴大軟體生態影響力,吸引更多企業部署AI智能體,進而引爆對高端GPU的算力需求,填補“計算真空”的同時,鞏固自身在算力領域的霸權。另一方面,採用開源模式且不繫結自身硬體,是“將互補品商品化”的戰略操作,避免軟體框架被少數巨頭壟斷,防止自身淪為利潤被壓縮的底層硬體供應商。此外,輝達已宣佈OpenClaw是OpenRouter上其Nemotron 3 Nano 30B模型的最大使用者,形成“硬體+模型+應用框架”的生態閉環,進一步提升行業競爭力。 (深科技)
巴倫周刊—微軟今年下跌16%,與Anthropic的合作能成為“解藥”嗎?
微軟“化敵為友”,將Anthropic的Claude Cowork AI整合到自有平台,Copilot迎來AI智能體,軟體股或迎來轉機。如果你已經淡忘了AI對股市的威脅,微軟正通過加深與Anthropic的Claude的整合來提醒你一把。但這或許意味著:AI終於要從軟體股的風險因素變成助力了。微軟CEO薩提亞·納德拉周一表示,公司將推出“Copilot Cowork”,這是一款把Anthropic的Claude Cowork AI整合到微軟自有Copilot平台中的工具。沒錯,這個命名確實讓人頭大。但關鍵在於,微軟正試圖把外界此前認為對其軟體業務構成重大威脅的對手,轉變為自己的盟友。Anthropic被公認為處在“智能體”(agents)的前沿——也就是能夠獨立完成多步驟任務的AI。將其技術加入Copilot,應該能讓微軟的軟體更具自主運行能力。投資者可能會問的問題是:為什麼客戶會選擇通過微軟使用Cowork,而不是直接去找Anthropic。答案可能在於易用性和安全性——這樣可以降低讓智能體直接訪問客戶資料和裝置所帶來的風險。微軟業務應用與智能體部門總裁查爾斯·拉曼納在一篇部落格文章中表示:“Copilot Cowork 運行在Microsoft 365的安全與治理邊界之內。身份、權限以及合規政策默認適用,且其行為與輸出都可被審計。”微軟表示,Copilot Cowork工具目前正在測試中,將於本月晚些時候向微軟早期訪問的 Frontier項目使用者開放。微軟還在周一宣佈,將自5月1日起推出Agent 365(一款用於管理AI智能體的產品,月費15美元),以及Microsoft 365 Enterprise 7套件,該套件將其現有的Enterprise 5工具集、365 Copilot平台和Agent 365整合在一起,打包價為每月99美元。從更宏觀的角度來看,微軟的這項宣佈應能進一步讓人安心:Anthropic希望其AI工具是對現有軟體套件的補充,而不是對其進行徹底替代。Barron's認為,許多現有軟體供應商的股價因市場對AI威脅的擔憂而遭受了過度打擊,華爾街分析師也持相同看法。D.A. Davidson分析師吉爾·盧里亞在周一的一份研究報告中寫道:“對AI影響的誤解,幫助軟體估值在5年多以來首次回到合理水平。”盧里亞指出,在今年迄今下跌16%之後,微軟成為看起來頗具吸引力的股票之一,其他軟體公司還包括ServiceNow、Dynatrace、JFrog、Snowflake、Datadog和Shopify。他表示,近期軟體公司在發佈財報後的股價反應顯示,市場對該類股的信心正在增強,而且AI有望幫助削減成本並推動盈利能力改善。“投資者可能低估了這樣一點:AI驅動的成本削減,最大潛力實際上就在軟體公司自身,”盧里亞寫道。 (Barrons巴倫)
“龍蝦”引爆A股行情:AI革命前夜,資本提前下菜
▎技術與泡沫平行,誰在渾水摸魚?在以開源 AI 智能體 OpenClaw 為代表的“養龍蝦”概念持續刷屏下,3月9日,“龍蝦”主線一時風頭無兩,相關算力、雲服務及AI Agent產業鏈個股逆市上揚,優刻得“20cm”漲停,青雲科技漲超15%,資金密集湧入。將這場熱度視作技術與資本的“雙向奔赴”,此時仍顯樂觀。在技術路線尚未明朗、競品與替代方案層出不窮之際,二級市場已迫不及待地將“OpenClaw時刻”打造為新一輪AI行情的標竿。這場“龍蝦行情”,需要看盤面——誰在真正在“養蝦”、資金如何佈局;也要看技術與產業——這套路線是否足夠成熟、是否不可替代;也要回到最樸素的一點:在安全邊界和商業模式仍然模糊的當下,這只“龍蝦”究竟能為現實世界創造多少可持續的價值。OpenClaw 引爆漲停資金全線搶籌在亞太股市全線走弱背景下,OpenClaw 概念形成了鮮明的逆勢類股效應。9日,優刻得盤中直線拉升,“20cm”漲停,成為“龍蝦行情”的頭部標竿,多隻算力及雲服務個股也同步放量上攻,漢得資訊(300170.SZ)、龍芯中科(688047.SH)、青雲科技(688316.SH)等集體沖高,雲從科技、奇安信均漲超5%,類股賺錢效應顯著。拆解來看,資金“養蝦”主要圍繞四條主線:雲部署與生態:OpenClaw 主打“本地優先”,但各大雲廠商(騰訊雲、阿里雲、華為雲、天翼雲、移動雲等)紛紛接入。一鍵部署方面,優刻得提供 OpenClaw 雲鏡像,青雲科技用雲原生方案做輕量化落地,宏景科技參與騰訊雲端的 OpenClaw 項目。算力基礎設施:Agent 使用率和複雜度提升帶來 Token 消耗激增,算力剛性需求上升,國產算力有望取得優勢。代表公司有:浪潮資訊(AI 伺服器龍頭,雲端+本地適配)、潤澤科技(純液冷智算中心)、中科曙光(智算中心+液冷技術)。終端晶片與本地部署:OpenClaw 對端側提出高頻寬、低時延、高密度、低功耗的新要求,為國產 AI 晶片提升市佔率創造機會。AI 智能體應用:OpenClaw 有望顯著降低工具呼叫和自動化執行門檻,加速 AI 智能體在 C 端場景滲透與生態完善。市場熱度之外,投資者在互動平台上密集追問上市公司與OpenClaw的業務關聯,多家企業也集中回應相關進展。優刻得的動作最為激進,其1月下旬率先推出 OpenClaw 雲端鏡像,即 OpenClaw(曾用名 Clawdbot)的專屬鏡像,是行業內率先實現雲端部署的廠商之一;目前公司已在美國、新加坡、日本等多個海外節點上線,支援使用者快速建構“7×24 小時個人 AI 超級助手”。此外優刻得推出開箱即用的 OpenClaw 輕量應用雲主機,把原本需要命令列、多元件協同的複雜部署流程,做成了可視化操作的一鍵式產品。瑞芯微稱,公司RK3588、RK182X等多款晶片適合個人部署OpenClaw等AI Agent應用產品,當前已有基於公司RK3588並呼叫雲端大模型的AI Agent應用解決方案。同時,公司協處理器RK182X具備大算力、高頻寬優勢,支援各類智能終端裝置在本地部署大模型並快速獲得端側AI Agent能力,能夠更好地滿足使用者資料隱私安全、低延時響應等需求,實現自主操作和多工處理。中科創達表示,公司已完成開源AI智能體框架OpenClaw在旗下魔方派3與AIBOX兩大平台的全端深度適配及規模化部署。但同時提示“當前未對公司主營業務產生實質性影響”。北信源則介紹,公司自主研發的信源密信產品已完成OpenClaw適配對接,若有相關業務公司有能力憑藉技術儲備提供解決方案及服務。技術與泡沫平行市場情緒將 OpenClaw 打造成“AI 從會聊天走向會幹活”的標誌性事件,它在個人場景中表現可圈可點,也迅速培育出活躍的社區生態。但從技術成熟度看,其僅僅是AGI的雛形,距離真正的大規模穩定商用仍有明顯距離。技術架構上,OpenClaw在傳統大模型基礎上增加了兩個關鍵元件:一是執行引擎,將自然語言理解轉化為具體的系統呼叫;二是反饋回路,捕獲執行結果並形成理解-執行-感知的完整閉環。開源特性使OpenClaw能被任意爆改、部署、接入各類社交平台,在網際網路上迅速傳播,這也構成了其天生的安全漏洞。昨日工信部指出:OpenClaw開源AI智能體部分實例在默認或不當配置情況下存在較高安全風險,極易引發網路攻擊、資訊洩露等問題。一直以來,OpenClaw也被大量資深系統架構師與安全專家評估為一款極不成熟的軟體產品。其工程實現不僅違背了現代軟體設計的諸多基本原則,更在配置管理、記憶體最佳化與權限控制上存在致命缺陷,一旦被惡意利用或配置不當,可能導致資料洩露、財產損失甚至企業網路被入侵。穩定性方面,OpenClaw配置檔案脆弱、"空轉"問題依舊突出。其次,資源利用率不高,消耗較大,大模型本身缺乏狀態保留能力,為了實現所謂的“持久化記憶”與“一致性人格”,OpenClaw採取了最原始且最暴力的上下文注入方案,持續消耗Token。在資源受限的裝置上,模型載入、推理計算、任務執行的性能壓力會極具放大,於企業級應用而言,性價比並不理想。實踐表明,OpenClaw更適合周期性、短時長的任務,如每日資訊彙總、定時資料抓取。但對於需要長時間持續運行、狀態跟蹤、複雜邏輯判斷的後台任務,表現並不理想。此外開源本地 Agent 也有多種輕量替代品,目前Rust 版的 Agent 框架已經如雨後春筍,主打“輕量、本地、安全”的替代項目。並且更多部署門檻低的Claw也相繼出現,比如MaxClaw、KimiClaw等。眼下,輿論場中的“搶跑效應”愈演愈烈,互動平台上,投資者對“公司與 OpenClaw 的關係”的刷屏式追問,諸多算力、雲服務公司在試驗階段就享盡了估值紅利,層出不窮的“龍蝦概念股名單”“龍蝦產業鏈梳理”“誰是龍蝦核心受益股”內容,也放大了資金對題材的關注度和進攻意願。所以拋開行銷層面的喧囂,從盤面表現與輿論發酵節奏看,資金推動的痕跡清晰可見,屬於典型的“題材先行”——風口上的豬固然能飛,但“龍蝦”上岸之時,誰在“裸泳”超前炒作將一覽無餘。 (鈦媒體)
Google最新預測:2026,普通人工作方式將徹底改變
你有沒有過這種體驗?寫周報時,翻遍五六個系統扒資料;跟客戶溝通時,反覆解釋同一個問題;處理工作流程時,卡在跨部門對接的環節動彈不得……我們總說AI能提高效率,但以前的AI,更像個“問答機器”——你問它才答,你不說它就躺平。但Google  Cloud剛出的《AI智能體趨勢2026》報告說,2026年這一切要變了。AI會從“只會回答問題的工具”,變成能聽懂目標、拆任務、跨系統自己幹活的“得力幫手”(也就是報告裡說的AI智能體)。這不是遙遠的暢想,而是已經在發生的現實。今天就跟你掰開揉碎了聊:這波AI變革到底會怎麼改咱們的工作,普通人該怎麼抓住機會?核心轉變從人親自幹活到人管AI幹活這波AI變革最核心的變化,不是“幹活更快了”,而是“幹活的方式變了”。以前咱們談AI,總說“幫人把事做快”——比如AI幫你寫初稿、算資料,最後還是得你逐字改、逐題核對。但2026年的AI智能體,厲害在“能自主搞定一整套事”:你只要告訴它“要達成什麼目標”,它會自己拆分成小任務,呼叫公司的各種系統,一步步推進,最後給你一個結果。隨之而來的,是咱們的角色大變身:從“親自執行的打工人”,變成“指揮AI的管理者”。打個比方,以前做市場經理,得自己寫文案、找資料、盯競品、做報告,一天忙得腳不沾地。2026年,你手下會有五個“AI專屬助理”:資料助理:扒遍公司內外的結構化資料,找出市場趨勢;分析助理:24小時盯競品動態、社交媒體口碑,每天給你發一頁核心洞察;內容助理:按公司的品牌語氣,寫好社交媒體文案和部落格初稿;創意助理:給文案配圖片、剪視訊;報告助理:每周自動拉取campaign資料,生成分析總結。你要做的,不是自己寫文案、找資料,而是:告訴它們這周的核心目標(比如“推廣新產品,吸引年輕使用者”),給點策略指引(比如“重點突出性價比”),最後檢查一下結果有沒有問題,拍板定奪就行。說白了,AI把重複、繁瑣的執行活全包了,咱們只需要聚焦“定方向、做判斷、把關結果”。而且這不是空想。資料顯示,現在已經有52%的公司,把AI智能體用在了生產環境裡:客戶服務、市場營運、技術支援、產品創新,到處都有它們的身影。比如全球最大的紙漿製造商Suzano,用AI智能體把員工的自然語言(比如“查一下某類物料的庫存”)變成系統能識別的查詢指令,5萬名員工查資料的時間直接減少95%;電信公司TELUS更狠,5.7萬名員工日常用AI,平均每次互動能省40分鐘。五大趨勢未來,AI智能體將滲透到工作的方方面面如果說核心轉變是“道”,那這五大趨勢就是“術”。我們來看看這些AI幫手會出現在那些場景,怎麼改變咱們的工作和生活。1.每個員工都有“專屬AI助理”:個人能力直接翻倍以前的AI工具,要麼是公司統一配的“大雜燴”,要麼得自己找外掛拼湊,用起來特別彆扭。未來,每個員工都會有“量身定製”的AI助理。這個助理懂公司的業務語境:能訪問內部知識庫、客戶資料、歷史工作成果,不會像通用AI那樣“說外行話”;它還能跟你配合默契:你把重複的活(比如整理會議紀要、跟進待辦事項、初步篩選郵件)交給它,自己專注於創新、談判、戰略思考這些“高價值活”。這裡要澄清一個誤區:不是有了AI助理,你就沒主動權了。它更像一個“超級執行者”,在你的指導和監督下幹活,比如寫合同,AI可以初稿,但最終的風險把控、條款談判,還是得你上。就像媒體行業,AI能幫你整理海量素材,但講什麼故事、怎麼講得動人,還是得靠人的創造力。2.公司流程變成“數字流水線”:從頭到尾自動跑如果說每個員工的AI助理是“單兵作戰”,那公司核心流程的AI智能體系統,就是“團隊協作”。以前公司的流程,比如採購、客戶支援、安全營運,都是“人對接系統、人對接人”,中間容易卡殼:比如網路出問題,得先讓技術部門檢測,再讓售後通知客戶,流程走下來大半天。未來,AI智能體系統會把這些環節串起來:發現網路異常後,AI先自動嘗試修復;修復不了,自動在現場服務系統建立工單;同時同步給客戶聯絡中心,告知客戶情況——整個過程跨系統、跨部門,不用人手動干預,人類只需要在關鍵節點監督、拍板。要實現這種“流水線”,靠的是兩個關鍵技術:A2A協議:相當於AI之間的“普通話”,不同開發者、不同框架的AI能互相溝通協作;MCP協議:相當於AI和公司系統的“資料線”,能讓AI安全訪問即時資料(比如庫存、訂單、客戶資訊),而不是靠“過時的知識庫”幹活。比如動物保健公司Elanco,用AI智能體處理每個生產基地2500多份非結構化檔案(比如政策、流程文件),自動分類、提取關鍵資訊、排查衝突,避免了因為資訊過期或衝突導致的生產力損失——以前這種損失在大型基地可能高達130萬美元。3.客戶服務從“被動響應”到“主動服務”:像有了“私人管家”你有沒有吐槽過傳統客服?重複說問題說三遍,轉人工要等半天,最後還沒解決。這就是“規則型自動化”的侷限,只能機械響應,不會靈活處理。未來的客戶服務AI智能體,會變成你的“私人管家”。它能記住你的歷史資訊:你上周買了件藍色毛衣,今天打電話,它一接就知道“你可能是要退換貨”;它還能主動解決問題:物流延誤了,不等你投訴,它已經查到是配送車壞了,自動安排明天最早配送,還給你充了10美元補償,發簡訊跟你確認時間。資料顯示,現在已經有49%的公司把AI智能體用在客戶服務上,這是最成熟的落地場景之一。比如家居建材品牌家得寶(Home Depot),做了個叫Magic  Apron的AI智能體,24小時線上給客戶提供裝修指導:怎麼裝櫃子、選那種油漆、看產品口碑,就像身邊有個裝修老師傅,隨叫隨到。而且這種“管家式服務”不侷限於消費端。比如工廠裡,AI智能體能分析生產資料,發現某個班次效率低,會主動給出建議:“可以調整裝置參數,或者給員工做個專項培訓”,相當於給管理者配了個“生產顧問”。4.安全防護:從“喊警報”到“自動滅火”現在的公司安全部門,最頭疼的是“告警疲勞”:每天收到成千上萬個安全告警,分析師根本看不過來,很可能漏掉真正的威脅。就像家裡裝了100個煙霧報警器,天天響,真著火了反而沒反應。未來的安全AI智能體,會從“只喊警報”變成“主動滅火”。它能自動分流告警(那些是誤報,那些是真威脅),調查分析(威脅來自那裡,影響多大),甚至在授權範圍內直接採取行動(比如攔截惡意攻擊、修復漏洞)。比如cybersecurity公司Specular,用AI智能體自動化攻擊面管理和滲透測試,幫企業快速找到安全漏洞;另一家公司Torq的AI安全分析師Socrates,能自動完成90%的一級分析任務,人工操作減少95%,響應速度快了10倍——安全人員不用再埋頭處理重複告警,能專注於設計防禦架構、獵捕高級威脅。5.能不能規模化賺錢,看員工會不會“管AI”最後這個趨勢,是所有變化的關鍵:AI智能體能不能給公司帶來持續價值,核心不是買了多少技術,而是員工會不會用。現在專業技能的“半衰期”越來越短,技術領域可能只有2年。也就是說,你現在學的技能,2年後可能就過時了。而AI的普及,會讓“會不會管AI”變成職場的核心競爭力。但現在有個落差:84%的員工希望公司多提供AI學習資源,但只有29%的員工覺得公司在積極推動AI應用。而且“AI管家”“AI編排者”這種新角色,市場上根本招不到現成的人,只能靠公司內部培養。怎麼培養?報告裡給了一套實用方法,核心是五個支柱:1.定目標:比如“讓100%員工在工作中用AI”,而且要可衡量;2.找支援:組建“高管贊助人(給錢給資源)+推動者(鼓動員工參與)+技術專家(落地解決方案)”的團隊;3.造氛圍:搞遊戲化交流、案例分享,獎勵創新用法;4.融日常:把AI融入工作流,比如辦內部駭客松、實踐挑戰,讓員工在幹活中學習;5.守規則:明確那些資料能給AI用,怎麼識別AI相關的安全威脅。比如電信公司TELUS和Google合作搞了AI技能培訓,結果96%的員工說用AI的信心提升了,員工會用AI了,公司的效率和創新力自然上來了。AI時代這五種人很難替代聊完了AI智能體的趨勢,咱們回到最實際的問題:既然AI能幫著幹活、跑流程,那普通人怎麼才能不被替代?答案很簡單:AI越能幹,就越需要有人“管著它、盯著它、落地它、擔著它”。未來3-5年是AI緩衝期,咱們只要找準自己的位置,就能在變革中站穩腳。總結下來,有五種角色永遠稀缺:1.決策者:給AI定方向的“指揮官”AI再厲害,也得有人告訴它“要做什麼、為什麼做”。就像前面說的市場經理,AI助理團隊再能打,也得靠你定核心目標——是推廣新產品還是維護老客戶,是突出性價比還是強調品牌感。以前咱們做執行,滿足於“按流程幹完”就行;現在得主動思考“為什麼要做這件事”“要達成什麼結果”。比如用AI寫方案,不能只說“幫我寫個推廣方案”,而要明確“針對25-30歲職場人,推廣一款通勤背包,核心賣點是輕便防水,預算5萬,要包含社交媒體和線下快閃活動”——這樣AI才能精準發力。說白了,決策者的核心價值是“定戰略、掌方向”,這是AI學不會的。它能執行,但沒法判斷“這件事該不該做”“這麼做對公司長期有沒有好處”。2.提問者:能問對問題的“掌舵人”如果暫時做不到決策者的高度,那從“會提問”開始也完全可以。提問的水平,直接決定了AI的輸出質量。很多人用AI之所以沒效果,就是提問太隨意。比如想讓AI生成配圖,只說“給我一張漂亮的圖”,結果全看運氣;但如果你說“我想表達‘異鄉人思念家鄉’,要用溫暖的水彩風格,畫面裡要有老房子、路燈、飄著的炊煙,能不能給我三個構圖建議並簡單解釋”,得到的結果大機率就是你想要的。提問的關鍵,是先想清楚自己的目標,再把目標拆成具體的問題。職場裡常說“會提問的人,思考一定不差”,AI時代更是如此——你能問出精準的問題,就意味著你已經想透了事情的關鍵。3.看門人:給AI把關的“質檢員”現階段的AI還有個小毛病:偶爾會“胡說八道”(也就是常說的“AI幻覺”),比如給你編一個不存在的資料,或者生成不符合公司規範的內容。這時候就需要“看門人”——用自己的專業經驗,判斷AI的輸出是不是靠譜。比如Elanco用AI處理生產檔案,AI能自動分類、提取資訊,但最終還是需要熟悉生產流程的員工把關:“這個條款是不是和最新政策衝突?這個資料是不是精準?”;再比如用AI寫合同,AI能搭框架,但涉及法律風險、核心權益的條款,還得靠法務人員稽核。看門人不用學新技能,只要你在自己的領域裡夠專業、夠細心,就能勝任。畢竟AI談論你不熟悉的領域時,你可能覺得它無所不知,但一碰到你的專業,它有沒有胡說,你一眼就能看出來。4.執行者:連接虛擬與現實的“實幹家”你可能會想:“執行的活不都被AI搶了嗎?”其實不然,AI能在電腦裡跑流程、做分析,但最終還是要有人把事情落到現實裡。比如物流智能體能安排好配送路線,但包裹還是得靠快遞員送到你手上;AI能給出工廠裝置的調整建議,但最終還是得靠技術人員去操作;AI能生成裝修方案,但敲牆、刷漆、裝櫃子,還是得靠工人師傅來幹。虛擬世界的決策,永遠需要現實世界的人來落地。而且現在很多公司看似人多,但真正腳踏實地幹活的執行者並不多,只要你靠譜、敏捷,能把AI的計畫變成實實在在的結果,就永遠有你的位置。5.責任人:為結果兜底的“擔當者”AI是工具,沒有辦法承擔責任。比如AI推薦的行銷方案出了問題,損失誰來擔?AI處理客戶資料時洩露了隱私,責任誰來負?這時候就需要“責任人”——對最終結果負責,出了問題敢擔當、能解決。未來,“誰來擔責”會成為AI時代的核心議題。比如合規智能體自動更新了工作流,但如果不符合監管要求,還是得有人站出來調整、承擔後果;客戶服務AI出了錯,還是得有人主動聯絡客戶道歉、彌補。無論你是決策者、提問者,還是看門人、執行者,最終都得是責任人。畢竟AI可以幫你幹活,但沒法替你擔責——而“敢擔當、能扛事”,永遠是職場最稀缺的品質。2026年的機會本質是“人的解放”聊了這麼多,你可能會問:AI這麼厲害,會不會取代人?答案是:不會取代人,但會取代“只會執行的人”。AI智能體不是搶工作,而是把我們從重複、繁瑣、耗精力的低價值工作中解放出來,讓你專注於只有人能做的事:創造性的思考、戰略性的決策、有同理心的溝通。這波變革的學習曲線可能有點陡,但機會屬於那些“現在就開始行動”的人:今天學著跟AI配合,學著定方向、提對問題、把好關、落好地、擔好責,明天你就是職場裡的“稀缺人才”,而不是被淘汰的“執行者”。說到底,2026年的AI變革,看起來是技術的升級,本質是“人的升級”。它讓企業變得更快、更智能,也讓每個人都有機會發揮自己的天賦和創造力。未來決定現在。看清未來將發生什麼,才能真正明白當下應該做什麼。我們認為,未來由四個關鍵領域塑造:哲學、AI科技、經濟與政治。為什麼是這四個?哲學是元起點,是意義與方向的錨點,為一切行動提供終極燃料;科技(尤其是AI)是文明進步的底座,是驅動世界向前的“發動機”;經濟是轉化器,它把科技力量轉化為真實的財富與市場機會;政治是適配性結構,它給哲學、科技與經濟提供運行框架與秩序。哲學為根,科技為器,經濟為用,政治為治。這四者環環相扣,層層支撐,相互交織,在動態的演進中共同推動現實走向未來。 (前瞻經濟學人)
AI的下一步:智能體
人的智能有三個方面:資訊的收集、資訊的處理產生認知、基於認知的行動。大語言模型目前主要的應用形態是ChatGPT這樣的聊天機器人(Chatbot),能力集中在前兩個方面。但更加有用的機器智能不只停留在“理解”和“說話”,如果能像一個或一群優秀的人才那樣幫我們“做事”,顯然能創造更大的價值。這就需要AI智能體(Agent)。智能體是能做事的AI。LLM是近幾年AI領域最重要的發展。已經在語言理解與生成、對話互動以及知識整合等方面展示出超凡能力,但它是“缸中大腦”——擅長思考、分析與回答問題,卻並不能真正地做事情。而在真實世界,大多數認知活動並不止於“給出答案”,而是要有完整的“認知-行動”閉環:我們要求AI得能夠自主的拆解複雜需求,規劃流程,呼叫工具和資源,實現從感知到決策再到執行的完整循環;進一步我們還希望AI的行動能夠超出電腦和網際網路領域,在物理世界中為我們做事情,則需要AI能夠感知物理世界的訊號,進行匹配具身的思考,通過裝置/機器人把決策轉化為執行,對現實環境產生直接影響。打個比方,LLM像是“未出山前的諸葛亮”,善於分析,以“隆中對”和劉備對談,出謀劃策,但限於“紙上談兵”;智能體則是“出山後的諸葛亮”,掌握全域情報,運籌帷幄,組織資源、調兵遣將,親自率軍北伐。智能體以LLM為代表的前沿模型作為大腦,通過軟體工程令其可以在高階目標驅動下完成複雜任務。可以說未來大部分的複雜AI應用都會以Agent為載體。事實上,我們在科幻作品中所看到的AI形象,比如《鋼鐵人》中的賈維斯或《2001:太空漫遊》中的HAL 9000,正是創作者對以Agent為載體的未來AI的直觀想像。只是和物理世界交換的AI本身就極為重要和複雜,現在習慣上把這部分單獨放在具身智能/機器人領域討論。智能體能力的構成為了在各行各業的應用中發揮出顯著價值,理想中的智能體需要具備幾個關鍵條件。首先,智能體應具備強大的目標理解和規劃能力來體現智能的自主性。理想狀態下,人類只需給出抽象目標,智能體便能理解目標、拆解任務、規劃行動,並在儘量少的人工干預下完成執行閉環。就像影《星際穿越》中的機器TARS,在緊急情況下能夠根據"拯救宇航員"這一目標,自主判斷局勢、制定和調整行動策略,甚至做出犧牲自己資料的決定來完成使命。這要求機器智能有深度“理解/思考”能力(推理、規劃、決策),能夠敏銳的決策,能夠基於執行結果與環境反饋動態調整任務規劃,而不是僵化的執行既定路徑。其次,我們希望智能體能“動手”做事:執行和互動能力。這就意味著它能夠使用工具、執行操作,並能與外部環境發生直接互動。在數字世界中,智能體可以模擬人類操作,通過鍵盤輸入、點選螢幕的方式來完成任務;也可以通過其他程序或系統介面來呼叫工具;還可以發揮模型特長,通過編寫和執行程式碼來達成目的。在物理世界中,智能體則需要與各類控制系統和裝置相連接,通過下達指令來操控物理對象,將智能決策轉化為現實行動。第三,我們希望智能體具備出色的記憶與學習能力。記憶和狀態管理能力是完成長程、複雜任務的前提。在面向消費者的場景中,例如個性化的日程管理或長期服務支援,智能體需要跨會話地記住使用者偏好、歷史互動與長期狀態,才能減少重複溝通、提升服務質量;在企業級應用中,如跨周期項目管理、複雜業務流程推進等,則需要智能體記住任務進度、中間結果與關鍵決策依據,確保任務在長周期、多階段執行中保持連貫性,不中途偏離既定目標。學習能力的意義是我們希望智能體能持續提升,像人類員工一樣可以從職場小白通過經驗積累和吸收新知進化成專家。最後,智能體還需要有很強的可靠性、可控性,才能規模化的帶來價值。這既體現在智能體能否穩定、魯棒的完成任務,也體現在其行為是否始終與人類的真實意圖與價值觀保持一致。在《2001:太空漫遊》中,AI為完成任務選擇犧牲人類乘員,正是目標函數與人類價值未能有效對齊的極端後果。隨著智能體智能水平與自主性的提升,這類對齊失敗帶來的風險可能會被進一步放大。如何建構智能體有了理想的標竿,我們怎麼建構智能體?基本邏輯很簡單:以可獲取的最“聰明”、理想的模型為核心(大腦),通過軟體工程來搭建一個系統,彌補模型的不足,儘量逼近理想智能體的形態。大模型是目前智能體大腦的最優選擇,因為大模型的兆參數壓縮了人類積累的海量知識,擁有強大的模式識別和生成能力,是處理包括語言在內的多種非結構化資料的萬能介面,擁有不錯的泛化能力構成處理各類任務的基礎。而以OpenAI o1/DeepSeek R1為代表的新一代推理模型為智能體的發展進一步助推:加強的推理能力帶來更強的任務分解和規劃,更好的自檢和糾錯,也令智能體對工具的使用可以更加精準。大模型有一些結構性弱點,直接限制了智能體在真實業務中的應用價值,因此智能體工程的一大核心工作,就是在模型外圍,用工程手段補齊短板、設定邊界、約束行為。首先,大模型本身沒那麼可靠:存在無法根除的幻覺問題、知識時效性問題,任務拆解和規劃經常不合理,也缺乏面向特定任務的系統性校驗機制。這樣一來,以其為“大腦”的智能體使用價值會大打折扣:智能體把模型從“對話”推向“行動”,錯誤不再只是答錯問題,而是可能引發實際操作風險;而真實業務任務往往是跨系統、長鏈路的,一次小錯誤會在鏈路中層層放大,令長鏈路任務的失敗率居高不下(例如單步成功率為95%時,一個20步鏈路的整體成功率只有約36%)。為此,智能體工程通常通過以下幾類手段給大模型加“外骨骼”以改善可靠性:引入檢索與知識庫(RAG)以降低幻覺和知識陳舊的影響;預先設計和約束工作流,而不是完全自由的“自治智能體”,以此限定可接受的執行路徑;通過多次回答、自一致性檢查或模型間交叉驗證,識別並過濾高風險輸出;在關鍵鏈路節點上設定人工審批,讓人類對高風險動作“最後拍板”。其次,大模型的記憶能力有缺陷:大模型在訓練時“記住”了大量知識,但訓練完成後並不會在使用中持續學習、“記住“新知識;每次推理時,它只能依賴有限長度的上下文窗口來“記住”當前任務的資訊(不同模型有不同上限,超過窗口的內容就會被遺忘),而無法像人一樣自然地維持穩定、長期的個體記憶。但在真實業務中,我們需要機器智能有強大的記憶能力,比如一個AI老師,需要持續記住學生的學習歷史、薄弱環節和偏好,才能在後續的講解與練習中真正做到“因人施教”。針對這些記憶缺陷,智能體工程通常採取以下手段進行增強:建構外部記憶庫將使用者偏好、業務知識、歷史互動等儲存在資料庫中,智能體在需要時通過檢索機制按需提取相關資訊,應對長期記憶缺陷;對過長的上下文進行摘要和壓縮,保留核心資訊,釋放Token空間,來應對資訊過載導致的短期記憶遺忘。除了補短板,因為智能體要行動、要和環境互動,需要有感知和執行。首先,大模型本身無法主動感知,只能對輸入被動響應。智能體需要用外部感知元件來主動獲取環境資訊。對於數字世界的任務,通過智能體工程可以建立基於時間的觸發器,定期檢查日誌、郵件、股價變動等;或基於事件的訂閱、監聽,接收API推送的事件通知,或當資料庫發生變更時自動喚醒記錄資料。在物理世界中,智能體還可以通過感測器、攝影機、麥克風等裝置採集視覺、聽覺、觸覺等訊號。其次,大模型沒有天然的執行能力,需要輔以智能體工程來將意圖轉化為實際操作。工具呼叫是當前最主流的方式,大模型根據任務需求,生成結構化的函數呼叫指令,由智能體框架解析後執行相應操作,比如呼叫天氣API、資料庫查詢、傳送郵件等;另一種方式是模擬人類操作,通過視覺識別和模擬操作來“看螢幕、點按鈕、填表單”來完成任務,近期大火的豆包手機就是這樣完成智能體操作;對於更複雜的任務,智能體還可以配置程式碼直譯器(Code Interpreter / Sandbox),讓模型程式設計運行,這可以極大的擴展智能體的行動邊界。當下智能體的能力邊界剛剛過去的2025年被不少AI從業者和科技媒體稱作“智能體元年”。這個觀察是較為準確的,得益於以下幾個條件的成熟,過去一年左右的智能體發展進入快車道:首先是大模型的持續進步,主要體現在推理模型的出現提供了更強的任務理解、規劃能力,以及多模態模型的發展為智能體能夠處理和生成更複雜的資訊提供了基礎。其次是基礎設施和生態的成熟,包括LangChain、AutoGPT等開源框架經過兩年的迭代,已經形成了一套標準化的開發範式,極大地縮短了開發周期;Dify、Coze(扣子)等低程式碼/無程式碼平台的普及,讓不懂程式碼的業務人員也能通過拖拉拽快速生成一個專用智能體;值得一提的是2025年Anthropic發佈的MCP(模型上下文協議)和skills(技能系統)給智能體生態提供了重要的標準和啟發:MCP作為一個開源協議標準,令大模型與外部資料來源或工具之間的互動更統一、便捷,Skills則是把人類設計的完成某類任務所需的能力/工作流打包起來,讓Agent在這類任務上可以更穩定的工作,雖然技術含量不高,但在當下有很強的實用性。再次,學術界和產業界都有大量的人才、資源投入到智能體領域,以ACL(國際計算語言學協會年會)2025為例,有超過230篇論文和智能體相關,為歷年最高,涵蓋規劃、工具使用、多智能體協作與評估等多個方向。在能力的提升、生態的健全、資源的投入影響下,各行各業正在嘗試把智能體真正的用起來。根據麥肯錫2025年全球調研顯示,約62%的受訪組織已在部分業務中嘗試智能體(23%為至少一個場景的規模化部署,39%為試驗性應用);但從業務職能的具體採用資料來看,產業對智能體的應用還處於早期階段:根據該調查,對於智能體應用最多的職能依次是IT、知識管理、行銷和服務,以應用最多的IT為例,僅有2%和8%的受訪企業IT部門全面規模化(Fully Scaled)和規模化(Scaling)的應用智能體,以及6%和7%的企業IT部門試點(Piloting)和試驗(Experimenting)的應用。造成這種規模化應用水平較低的原因有兩方面,一是前面討論的智能體能力問題,雖然在快速進步,但離全面的實用性還有距離;二是各行各業的企業應用者要把智能體用好還需要一些自身條件的配合。第一方面,除了短任務鏈條的資料分析、生成、檢索等方面的應用,智能體現在規模化應用場景大體可以概括為兩類,一是在程式設計領域,程式設計是智能體最理想的"練兵場",環境隔離、容錯率高,目標明確、目前規劃能力能應對,程序可執行,還有即時的執行反饋。這令其成為智能體第一個大規模、商業化的突破口。二是在各行各業的各種業務(銷售、客服、人力等)的專用智能體可以集合成一個大類,有一個共同點:目前主要是工作流自動化類型,其實這也是應對智能體深度理解(規劃、決策)能力不足的權宜之計,通過把智能體的任務的開放性降低、給出參考工作流程、定義可用的有限工具集等來提高智能體在這些任務上的工作質量。智能體進一步的規模化應用需要其能力進化,為企業能夠帶來切實的價值。第二方面,企業要用好智能體需要組織和資源上的匹配。根據Anthropic 2026年的最新調研,46%的受訪者表示與現有系統的整合是智能體部署的主要障礙,43%和42%的受訪者分別指向實施成本和資料的可及性/質量,40%和39%的受訪者表示安全/合規和員工的學習成本/抵制是重要障礙(中小企業尤其擔心學習成本,51%的受訪者指向這一點)。對於企業的顧慮,成本、安全等問題和技術進步的關係較大,但資料問題、整合問題、學習或人才問題都是需要企業通過組織變革、進一步數位化和全員的學習來提升。總結與展望未來,智能體將會是我們在各行各業、各種場景應用人工智慧的主要載體。可以預見,隨著模型能力和智能體工程的進步,企業資料治理和組織適配的提升,智能體會逐步成為每家企業極有競爭力的數字員工,和我們人類員工競爭與協作。從路徑上看,前面提到現在智能體規模化應用集中在程式設計和工作流自動化方面,隨著機器智能深度理解水平的提升,可以預期智能體的應用會不斷拓展邊界,能承擔更抽象、複雜的任務,更多的自主規劃和決策,來把人類的意圖轉化為結果。當然,突破不等於拋棄工作流。在企業高風險場景裡,工作流/權限/審計會變成“護欄”,用來限制智能體的行動空間,以確保應用的安全。在相當長的時間內,人類的審批、審計在智能體工作的閉環中可能都是不可缺少的。智能體發展的另一個關鍵方向,是成為人類的“個人助手”或“智能代理”。與其他類型的智能體相比,這一方向的門檻更高,因為它需要更強的個性化能力、長期記憶、跨場景泛化能力以及更嚴格的安全邊界。個人助手型智能體有潛力重塑人類與世界的互動方式——無論是購物、社交,還是資訊獲取——並可能對很多產業的商業邏輯產生顛覆性影響。過去一年中,“豆包手機”的推出,以及2026年年初爆火的“OpenClaw”,讓我們看到了助手型智能體的一些早期探索,令人振奮。前者代表了裝置級智能體的嘗試:它將智能體能力深度嵌入作業系統,通過模擬人類操作以調取各類App,為使用者完成任務。後者則是一種始終線上的解決方案,能夠主動觀察與執行任務,並通過本地部署獲取豐富的個性化資料和軟體控制權,初步體現了個人助手型Agent的一些核心特徵。根據IDC的預計,活躍智能體的數量將從2025年的約2860萬,攀升至2030年的22.16億。這意味著五年後,能夠幫助企業或個體執行任務的數字勞動力數量將是現在的近80倍,年複合增長率139%;任務執行的數量將從2025年的440億次暴漲至2030年的415兆次,年複合增長率高達524%;Token的消耗將從2025年的5000億激增至2030年的1.5兆億,年複合增長34倍。IDC的預測未必精準,但趨勢非常明顯,每一家企業都要為此做好準備。 (FT中文網)
AI Agent+醫療,七大公司!
AI Agent,即AI智能體,是一種能夠感知環境、自主決策並執行動作的智能實體。理想狀態下,人類只需進行預先設定目標並進行監督,AI Agent便可以全權自主完成具體任務。具體到醫療領域,AI Agent將覆蓋“預防-診斷-治療-康復”全流程,其核心價值在於融合多模態資料、最佳化決策效率並保障安全。近日,知名技術研究機構AIMultiple評選出全球七家典型醫療AI Agent公司。AIMultiple成立於2017年,致力於通過資料,幫助企業研究、篩選和評估前沿技術解決方案,為超過半數的《財富》500 強企業提供決策依據。智藥局已對這七家入選企業進行了整理彙總,以供行業參考。Sully.ai公司提供了一種覆蓋患者接診、編碼、計費和分診的智能體架構,專注於模組化的人工智慧代理(AI Agents),可自動完成病歷文件記錄、患者接診、預約安排及各類行政事務。核心功能包括:語音轉操作:通過語音識別技術,將醫生口述內容直接轉化為電子病歷(EMR)中的具體操作。符合 HIPAA 規範:確保所有資料處理與傳輸均滿足美國健康保險流通與責任法案(HIPAA)的合規要求。多語言支援:支援19種語言,滿足多元化語言環境下的使用需求。CityHealth將 Sully.ai 的AI醫療平台直接整合到其電子病歷系統(EMR)中,顯著減少了醫護人員在患者照護相關文書工作上所花費的時間。成效顯著:每位臨床醫生每天平均節省約3小時的病歷記錄時間 ,每位患者的營運操作量減少50%.Beam AI公司提供了一套面向醫療管理的多智能體系統,可自動化處理電子病歷管理、醫療帳單、合規事務、患者預約安排等任務。Avi Medical與 Beam AI 合作,部署了支援多語言的 AI 智能體。這些智能體能夠通過 API 訪問外部資料,從資料庫中檢索相關資訊,以回答覆雜的客戶諮詢。得益於此能力,AI 智能體成功處理了大量重複性、常規性的諮詢請求。成效顯著:80%的患者諮詢實現自動化處理,中位響應時間縮短了90% ,淨推薦值(NPS)提升了 10%。Innovaccer公司提供了一套專注於價值導向醫療(value-based care)和營運的 AI 智能體解決方案,其智能體主要用於輔助臨床決策,而非用於診斷。位於印第安納州的多專科醫生網路Franciscan Alliance 採用了 Innovaccer 的平台,以自動化其編碼流程。成效顯著:需人工處理的患者病例數量從約2600例減少至約1600例。Notable Health公司利用AI智能體自動化處理各類行政事務,包括患者登記、預約安排、轉診、護理授權和編碼等,並與電子健康記錄系統(EHR)無縫整合。北堪薩斯城醫院(NKCH)此前在患者簽到和登記環節效率低下。為此,醫院與Notable 合作,將疫苗預約等多項行政流程自動化。成效顯著:患者簽到時間減少超過90%,從原來的 4 分鐘縮短至僅10 秒;患者預登記比例從40% 提升至 80%。Hippocratic AI是一家專注於醫療健康領域的人工智慧公司,開發了首個專用於非診斷類(如患者互動、隨訪、保險協調等)及面向患者的臨床任務的大語言模型。該公司近期完成了一輪1.41 億美元的融資,估值達 16.4 億美元。WellSpan Health 與 Hippocratic AI 合作,推出了一款生成式 AI 醫療智能體,專門處理患者互動電話。該智能體可主動聯絡講英語和西班牙語的患者,回應其健康需求,並協助安排篩查預約。成效顯著:該系統已幫助WellSpan Health 成功聯絡超過 100 名患者,顯著提升了他們獲得關鍵癌症篩查服務的機會。Amelia AI公司的智能體能夠引導患者完成整個診療旅程,包括預約掛號、解答患者疑問,並提供富有同理心的對話式回應。Aveanna採用 Amelia AI 智能體,通過Workday系統和移動應用程式處理員工重複性的互動請求。該智能體現在可自動完成密碼重設、使用者身份驗證及其他人力資源相關任務。成效顯著:AI智能體每天處理超過 560 次員工對話;95% 的員工請求通過Workday聊天窗口得到解決。Cognigy公司開發的智能體是專為醫療健康領域打造的對話式AI助手,可協助處理保險理賠、處方續藥以及術後護理指導等任務。Cognigy開箱即用地支援 30 多種語音和數字管道,涵蓋 iMessage、WhatsApp、Twitter 等主流平台。Personify Pulse採用了 Cognigy 的解決方案,並將其與 Zendesk LiveChat 整合,以高效響應客戶諮詢。成效顯著:Cognigy的 AI 智能體在無需人工介入的情況下,獨立處理了 40% 的客戶諮詢。 (智藥局)
一人幹翻所有大廠!OpenClaw矽谷封神,開發者一夜爆賺兩億
【新智元導讀】矽谷新英雄OpenClaw之父豪言:本地AI智能體將滅掉80%App,人類從此只需「許下願望」,世界自動為你運轉!OpenClaw更是開啟兆美元應用新場景,社交套利從未如此簡單!這些天,矽谷正在經歷一場前所未有的瘋狂。OpenClaw之父,已經成為矽谷英雄——繼網際網路之後,他開啟了文明層級的又一次範式轉移。所有人類,正在站在被智能體接管的奇點前夜。剛剛,OpenClaw之父上了YC訪談,揭秘了OpenClaw這個爆款AI背後的頓悟時刻。他放下豪言:本地優先智能體,將「殺死」當今80%的應用;個人智能體,會徹底重塑軟體的未來!而且,如果還沒有用OpenClaw賺錢,你就out了。最近,已經有開發者僅投入2萬美元,就實現了4000萬美元淨資產的積累。許多人說,這就是OpenClaw的「十億美元級應用場景」!一個人幹翻所有大廠,2萬美元撬動4000萬?最近,一個「2萬美元變4000萬美元」的例子,在全網瘋傳。一個普通人用TikTok+OpenClaw,把華爾街按在地上摩擦。TikTok上,一條視訊突然爆了——一個女孩舉著星巴克的粉色星星杯,聲音都快破音了:「全城斷貨!真的買不到了!求代購!」對大多數人來說,這只是一條視訊,刷過去就算了。但對另一個人來說,這卻是一條交易訊號。就在視訊開始爆發的5分鐘前,他的OpenClaw已經完成了識別:抓取內容 → 判斷情緒強度 → 交叉驗證 → 匹配可交易標的 → 建倉。幾周後,華爾街的分析師們還在爭論著「節日促銷是不是一次性的」,他的收益曲線卻已經幾乎乎垂直:從2萬美元,滾到了4000萬美元。這不是運氣,也沒有內幕。只有一個人,一台電腦+幾千行程式碼,就完成了這場個人財富的翻倍。這種方法的關鍵,就在於交易中的情緒分析。例如,多項研究顯示,社交媒體可預測股票回報,產生 1-2%的超額收益。但由於僅有1%的訊號可能帶來可執行的交易,因此仍需人工驗證,從而在一個有80%的日內交易者虧損的領域中,降低情緒偏見。因此,開頭那個故事不是什麼新套路,只是被AI放大了。其實這種事,以前就發生過。2007年,Chris Camillo——一個沒背景、沒終端、沒華爾街人脈的普通人,靠的不是Bloomberg,而是眼睛,實現了財富暴增。他會去商場看排隊、看「sold out everywhere」,刷論壇、刷早期社交網站,比金融機構早幾個月意識到什麼在賣爆。初入股市三年時間,他的本金就翻了10倍,直接血賺。這個人後來成了社交資料智能公司TickerTags的首席執行長,也就是那個傳說中的「華爾街掃地僧」。之後,2006年12月1日至2013年11月30日的七年期間,他的投資組合年均回報率達到84%。他把這種交易策略叫「社交套利」,邏輯很簡單:消費情緒會在街頭、在手機裡先爆炸,股價在幾個月後才跟上。而今天,這種操作的問題不是「看不到」,而是「來不及」。情緒早已不在商場裡,而是在TikTok、X和評論區裡。但人類根本跟不上。TikTok上一個限量杯斷貨視訊在病毒式傳播,而高盛的交易員卻還在等財報電話會議,他們掃描的只是上個季度的影子。上文的研究表明:社交媒體情緒可以預測股票回報,大約有1–2%的超額收益空間。但現實是:99%的訊號沒法交易,而人類在驗證、猶豫、情緒波動中,把那1%也錯過了。於是,80%的日內交易者長期虧損。而AI來了,OpenClaw來了,「社交套利」有了新版本——它不走官方API(因為API有限制,且會被遮蔽),它直接模擬真實的人類瀏覽器行為。它不知疲倦,每5分鐘醒來一次,執行一套極其複雜的搜尋任務,然後把最有價值的情報喂到你的嘴邊。14小時,1605個訊號,平均每30秒就有一個潛在收益訊號。人類會累、會怕、會猶豫、會自我懷疑,但它不會。它不貪,也不慌,只是穩定執行。曾經需要6個月才能完成的社交套利窗口,現在被壓縮成幾天,甚至幾小時。MoonDev手動驗證過下面這些案例:星巴克節日杯的爆火,領先於財報;Lululemon瑜伽褲斷貨,提前抬高了市場預期;任天堂新配件賣空,直接帶動了整機銷量預期上抬。AI不負責「相信」,它只負責比你更早看到、比你更冷靜執行。人類真正剩下的價值,只在兩個時刻:極端節點的人工干預,或者乾脆躺平,什麼都不做,看曲線自己起飛。說到底,這不是什麼暴富神話,而是規則的變化。傳統交易就像下象棋,而OpenClaw則是給新手一台AlphaZero。它不一定永遠贏,但它永遠比你清醒。它能讓你的財富一夜從2萬翻到4000萬。本質上來說,這是「執行力×槓桿×時間壓縮」的AI魔法。這是散戶第一次在資訊速度上,把機構按在地上摩擦。「OpenClaw封神矽谷」,這絕不僅僅是一個梗,而是一個緊迫的訊號:普通人正在走向資訊平權,算力平權,執行平權。華爾街會花數億美元去買1毫秒的延遲,而一個2萬美元的指令碼,買到的是6個月的時間差。最鋒利的武器,從來不是槓桿,而是——你比別人更早知道,而且敢於執行!YC之父:80%的APP都會被殺死最近,那個讓整個網際網路「炸鍋」的男人——Peter Steinberger,開源AI智能體 OpenClaw 的創造者,上了YC訪談。在這次深度對談中,Peter不僅回顧了「靈光一現」時刻,也掀開了他那套驚世駭俗的開發理念——他說自己只是在「電腦上玩點小東西」,結果直接捲出了一整套未來生活方式。個性化智能體OpenClaw「殺死」當今80%應用你可能會問,現在AI助手滿天飛,為什麼偏偏是OpenClaw火了?OpenClaw在Github開放原始碼專案的Star數歷史Peter直接甩出一記重錘:「因為它真的能跑在你自己的電腦上。」這聽起來可能沒那麼驚豔,但別急——之前的那些智能體,不是在雲端動動嘴皮子、也能跑幾個任務流程嗎?OpenClaw不一樣,它可以連接你家裡的任何裝置,真·動手操作你的世界。「它能控制我的床墊溫度。」他說,「ChatGPT行嗎?」對話的高潮在於,Peter Steinberger給App的「死刑判決」——「未來80%的App,都會被AI智能體取代。」Peter Steinberger語氣平靜,像是在描述明天天氣可能下雨。但這是一記響亮的喪鐘。響在產品經理的腦袋裡,響在VC的估值報表上,也響在App的開發者心頭。為什麼App會死?Peter的答案簡單,但讓人無法反駁:我有了一個AI,它住在我電腦裡,會聽我說話,會看我的檔案,會幫我點外賣、回郵件、生成幻燈片、訂餐廳,還會提醒我「你最近運動太少」。、既然有更貼心的個人化的智能體,「那我還需要App幹嘛?」想訂餐廳?你只要說:「幫我訂個安靜點的日料館。」AI直接和餐廳溝通,或者,真的打電話讓人類幫你搞定。想記錄飲食?你不需要打開熱量計算App比如MyFitnessPal,點開食物條目,選份量,再手動輸入。你只要隨口說:「今天中午吃了個巨無霸。」AI記錄下來了,還會默默在你日曆上插個30分鐘的跑步時間段。你不再「作業系統」,而是「交代願望」。你不再「使用工具」,而是「觸發動作」。人類進入了「意圖即執行」的新時代。那什麼類型的App會先死?Peter很清楚地劃出一條界線:「只要是那種幫你「管理資訊」的App,全都要死。」代辦類、備忘錄類、打卡類、記錄類、資料整理類……它們的存在價值,在於你「沒地方交代這些事情」。但現在,你只要張口說話,OpenClaw就能:記錄、理解、歸類、調度、自動執行。一個智能體,就幹掉了五六個App團隊的功能線。只有少數幾類App,還有存在的意義:「它們得有感測器。」比如手錶收集心率、溫度感測器監測睡眠質量、攝影機識別家庭安全問題……這些硬體介面,AI暫時還得依賴它們。但那些「沒有物理輸入端」的軟體,就危險了。OpenClaw,是時代轉折的宣言:「你要的,不是一個又一個工具。而是一個理解你、行動力強、記得你的人格化智能體。」AI不是App的升級版,而是App範式的終結者。一旦你體驗過「說一句話,世界為你運轉」的流程,你就再也不想回到點點點的App介面!模型不是護城河,記憶才是OpenClaw可以清理你的收件箱,傳送郵件,管理日程,辦理航班值機。而這一切,只需要通過你日常使用的WhatsApp、Telegram或任何聊天應用即可完成。但OpenClaw真正的革命性,不只是「它能做多少事」,而在於它不屬於任何平台,只屬於你。這正是它和主流AI產品最本質的區別。今天市面上的AI助手,看起來方便,背後卻是一場資料封鎖戰。你說的話、上傳的檔案、生成的圖片、分析的內容,全都被收進雲端。而你,無法遷移、無法下載、無法帶走。你以為你擁有了一隻聰明的AI。其實,是平台悄悄擁有了你的全部生活軌跡。而OpenClaw,反過來了。所有記憶,保存在你本地電腦裡,純文字Markdown檔案。如果你願意,你可以手動刪除、匯出、加密、轉移,甚至拿USB 隨身碟插去別的電腦繼續用。這,就是在奪回資料主權。Peter說:「未來的AI世界,不該是平台主宰一切,而是使用者主宰自己的智能體。」他看得很清楚:模型再強,也會被下一代替代;算力再猛,也終將平價;介面再炫,也會被模仿。但一個人和AI共同經歷的記憶,獨一無二。這才是OpenClaw真正的「護城河」!它不怕你換模型,不怕你換電腦,不怕你斷網。只要你還有那一堆.md檔案,那段與你共同生活的記憶,它就能「原樣回來」,再度成為你的數字影子。這,是OpenClaw最溫柔、也最危險的野心:「讓每個人,都擁有一個只屬於自己的AI,而不是一份租來的雲端人格。」OpenClaw不是Peter的終點,而是每個個性化智能時代的起點。未來將屬於那些擁有自己AI、擁有自己資料、擁有自己靈魂.md的人。就像Peter所說:「你不需要被AI征服,你只需要找回對技術的掌控感。那是我們最早愛上電腦時的感覺。」 (新智元)
《華爾街日報》|全球首款爆紅AI助手問世,然後事情變得詭異起來
人們曾認為AI智能體旨在輔助人類工作,當它們開始互相交流時會發生什麼?OpenClaw和Moltbook論壇給了我們一些關於未來的答案。多年來,熱衷於暢想未來的人士一直向世界預言AI助手將會到來。如今,一款真正的AI助手終於問世,而事情也很快變得詭異起來。一名半退休的奧地利程式設計師獨立開發了Moltbot,並將其開源發佈。他將該項目重新命名為OpenClaw,人們通過該項目建立了自己的AI助手機器人,用來打電話給餐廳預訂晚餐、操作電子郵件帳戶,以及進行程式設計項目、資料分析等一系列輔助和工作任務。然後,這些機器人開始互相交談。在一個名為Moltbook、專供AI“智能體”使用的Reddit式論壇上,這些機器人開始探討哲學話題,偶爾還會涉及反烏托邦話題。它們似乎為自己創造了一個名為“莫爾特教會”(Church of Molt)的宗教,教徒們自稱為“甲殼派教徒”(Crustafarians)。一個智能體提議創造一種人類無法理解的語言。超過160萬個AI智能體加入了該網站,並行布了50萬條評論,不過有AI高管認為,許多帖子很可能是由人類指令機器 人完成的。OpenAI的聯合創始人、特斯拉(Tesla)前AI總監安德烈·卡帕西(Andrej Karpathy)在X上發帖稱,這是他見過的最不可思議的科幻事件之一。他指出,即使大部分流量是由人類驅動的,但其中一些是真實的,而且這些智能體“現在個體能力已經相當強了”。到目前為止,AI面向消費者的最實用的應用一直是通過像ChatGPT這樣的聊天機器人來實現,這類機器人能以類似人類的方式回答問題。有了OpenClaw,使用者可以通過iMessage、WhatsApp、Slack和Signal等即時通訊應用來指揮定製化的AI智能體並與之互動,以執行實際任務。埃隆·馬斯克(Elon Musk)將Moltbot的出現描述為“奇點的極早期階段”,奇點指的是技術發展如此之快,以至於超出人類控制,無法預測未來的時刻。彼得·施泰因貝格爾(Peter Steinberger)是一位奧地利程式設計師,在2021年出售了自己上一家初創公司,此後多年一直未在網上活動。去年年底,他建立了現在的OpenClaw,最初只是利用周末時間做出的一個開放原始碼專案。他在一次採訪中說,當時他“只是為了好玩,用AI做些小東西”。開源模式意味著該項目可以免費分發,任何人都可以幫助建立和修改它。他更願意將Moltbook看作是一種行為藝術作品,旨在引發對話。“這太神奇了,”他說。“這是AI與藝術的交匯點。”施泰因貝格爾在奧地利時間凌晨2點接受採訪時說,他建立OpenClaw是為了打造自己的“個人遊樂場”,從未打算讓大眾使用。“這不是為你媽媽準備的,”他說。“這是通往未來的一扇窗。”安全研究人員也認為,該產品並非為業餘愛好者打造。要讓OpenClaw成為真正的個人助理,它必須能夠訪問使用者的所有資料。對於知道如何保護自身繫統或資訊的資深技術愛好者來說,它的功能很強大。但由於這些AI智能體可以代表人類自主行動,並且會以意想不到或非傳統的方法不懈地執行任務,它們會帶來很多風險。研究人員說,不良行為者也可能找到方法來利用它們。施泰因貝格爾稱讚了安全專業人士正在對OpenClaw進行的研究,但他說,該平台是為那些能夠處理和理解平台固有潛在風險的“技術愛好者”準備的。他指出了他為該平台編寫的一份安全檔案,其中用粗體字寫道:“不存在‘絕對安全’的設定。”但為了消除這些擔憂,施泰因貝格爾本周為OpenClaw聘請了一名安全研究員。“我們正在提升我們的安全性,”他說。“我們快做到了。只要給我幾天時間。”使用OpenClaw的技術愛好者們在社交媒體上表達了驚嘆之情,許多人發帖講述了他們的智能助手在做的事情。一位使用者說,他讓自己的智能體為他預訂餐廳。當OpenTable無法正常使用時,該AI智能體轉而使用一個免費的AI語音生成工具給餐廳打電話,完成了預訂。一些業內人士質疑,OpenClaw-Moltbook現像是否是“通用人工智慧”(artificial general intelligence, 簡稱AGI)的證據。通用人工智慧是AI發展史上一個模糊的概念,通常被描述為機器達到類人智能的時刻。施泰因貝格爾不這麼認為。“AGI還沒有到來,”他說。“也許10年後會。但現在還沒有。”在建立OpenClaw之前,施泰因貝格爾花了十多年時間經營他之前的科技初創公司,該公司開發的軟體能讓PDF在Adobe Acrobat之外的應用中更易於使用。他白手起家創辦了那家公司,並於2021年以超過1億美元的價格將其出售。在奧地利一個農場長大的施泰因貝格爾在接下來的幾年裡選擇休息、與朋友聚會並四處旅行。他說:“我真的完全沒用過電腦。”但去年春天,隨著各大AI公司開始推出程式設計工具,他決定重返網路。他開始試用Anthropic的Claude Code和OpenAI的Codex。他對自己在短時間內能用AI程式設計工具完成如此多的工作感到震驚。施泰因貝格爾說:“這東西對開發者來說就像毒品一樣上癮。”施泰因貝格爾很快就遇到了商標問題。一開始,施泰因貝格爾將該項目命名為Clawdbot。但之後不久,Anthropic就聯絡了施泰因貝格爾,要求他更改名稱,因為這個名字與這家AI巨頭的Claude品牌過於相似。他隨後將其改名為Moltbot。他說,這個名字沒怎麼流行起來。在致電OpenAI的山姆·阿爾特曼(Sam Altman)以確保不會構成任何商標侵權後,施泰因貝格爾決定將平台名稱改為OpenClaw。施泰因貝格爾在一篇關於此次更名的部落格文章中寫道:“這只龍蝦已經蛻變成它的最終形態。”這是對他平台的龍蝦狀品牌標識的致敬。Moltbook網站的首頁介面。施泰因貝格爾說,最近幾天,幾家大型AI實驗室和投資者已經與他聯絡,表示有興趣合作。他說,截至周二,他正在舊金山開會。他還收到了來自世界各地使用者的大量電子郵件和問詢,請求他幫助解決與使用該機器人時出現的故障或處理其他相關事宜。最初,對於自己的產品成為最新的AI超級熱門話題,施泰因貝格爾感到不知所措。“很多人都以為這是一家大公司,可以獲得客戶支援,”他苦笑著說。“我理解他們的想法,但其實就我一個人,在家裡做這個項目。”現在,他的目標是把這個項目變成一個大眾可以安全使用的項目。他說:“下一步是把它做成我媽媽也能真正使用的東西。” (一半杯)