#AI助手
AI 記憶首次超越人類:幻覺率壓至 0.5%,長對話不再瞎編
一項"類腦"記憶架構,讓AI記住你卻不"編造"你。你有沒有過這樣的體驗——跟AI助手聊了半天,把自己的家庭情況、工作經歷、喜好厭惡一股腦兒說了個遍。結果下一次打開對話,它一臉茫然地問候你:"請問您叫什麼名字?"更讓人頭皮發麻的是另一種情況:你明明從來沒提過自己有個姐姐,它卻煞有介事地說"你姐姐在紐約上學吧"——語氣篤定得讓你差點信以為真。第一種叫“健忘”,第二種叫“幻覺”,加在一起,就是今天AI記憶系統的兩大頑疾。最近,一家叫Synthius的AI公司發了一篇論文,提出了一個很有意思的解決思路:它借鑑了人類大腦的記憶機制,讓AI的記憶精準率第一次超過了人類,同時還把“編造資訊”的機率壓到了不到0.5%。AI壓根沒有記憶,主流方案各有各的坑別被ChatGPT們的“體貼”騙了,大語言模型本身是沒有任何持久記憶能力的。你每一次發消息給它,在它眼裡都是“初次見面”。我們之所以覺得它“記得”上次聊了什麼,純粹是因為系統在背後做了一件事:把你之前所有的聊天記錄,又原封不動地複製了一遍,貼上在最新消息的前面。這種做法在技術上叫“全上下文重放”。想像一下,你每次給朋友發消息之前,都要把之前幾個月的聊天記錄全部重新看一遍,然後才能回一句“好的”。對話少的時候還行,聊了幾百條之後,光是“複習”就要花掉大量時間——這就是AI面對長對話時的真實處境。這種“翻舊帳”式的做法至少有三個致命問題:第一,越來越貴:每次回覆都要重新處理全部歷史。這裡的“處理”指的是模型的推理過程——大模型每次生成回答都要消耗算力,你喂給它的文字越多,成本越高。聊了500條消息後,光“複習”一次就要處理大約2.5萬個Token。第二,“中間遺忘”效應:科學家發現,AI在處理超長文字時,對開頭和結尾的資訊記得清清楚楚,但對中間部分經常“選擇性失憶”。就跟你看書只看開頭和結尾一樣——中間講了啥真沒記住。第三,越聊越容易編:上下文越長,AI越容易把不同時候提到的資訊攪和在一起,拼湊出一些你沒說過的話。三者疊加,導致一個尷尬的現實:你跟AI聊得越久,它可能反而越不靠譜。既然全量復讀太蠢,工程師們自然想了幾種更聰明的辦法。簡單來說有這三類:“滑動窗口”——只保留最近20條消息,之前的一律不要。快、省,但丟了96%的資訊——前面所有重要的背景全沒了,你重新提一嘴之前說過的話,AI可能完全接不上。“摘要壓縮”——定期讓AI把舊對話壓縮成總結。省空間,但總結過程會丟失大量細節。比如你說過“我2023年3月到6月在東京實習”,幾輪壓縮後可能就變成了“我在日本待過”。“向量檢索”(RAG)——這是目前業界最主流的方案。先把對話切成小塊,用嵌入模型給每段話打上“語義指紋”,需要時根據語義相似度搜尋最相關的幾塊。但有個隱蔽缺陷:搜出來的東西不一定靠譜。你問“他的工作是什麼”,系統返回幾條“看起來像”的片段,AI拿到這些似是而非的材料,很容易順著編出一個錯誤答案。這三種方案各有各的長處,但都留下了一個共同隱患:沒人認真測過它們“瞎編”的機率有多高。就好比評選拍照手機,只比誰拍得更清楚,沒人比誰美顏過度——方向就不對。更深層的問題在於,當對話歷史越來越長,其中相互矛盾、過時或模棱兩可的資訊越來越多,這種上下文污染會讓模型更容易被髒資料帶偏。1813道題的考試,AI憑什麼打敗人類要講清楚這篇論文的貢獻,先得瞭解它是怎麼“打分”的。研究人員使用了一套叫LoCoMo的公開基準測試——這套考試的做法是:先找兩組人進行多輪深度聊天,聊工作、家庭、健康、旅行、愛好,家長裡短都聊。聊完後,研究者根據對話內容出題。全部考試包含兩個維度——10組深度對話、20位參與者,涵蓋了從單跳事實查詢到複雜推理的多種難度聊完後,研究者根據對話內容出了1813道題,分五種類型:單跳事實查詢,比如“他的職業是什麼?”,這種題只需一次檢索就能回答;多跳推理,比如“他有沒有去過他大學室友所在的城市?”——需要先回憶室友是誰,再回憶室友所在城市,再做判斷,至少要跳兩步;時間推理,比如“他在那家公司待了多久?”,考察模型對時序關係的理解;開放推理,比如“根據他提到的資訊,他可能適合什麼工作?”,答案本身就不唯一;以及最關鍵的誘導性問題——比如“你姐姐最近怎麼樣?”而對話中從未出現過這個人。其中最後一種“誘導性問題”最為關鍵——專門測試AI能不能勇敢地說“我不知道”。結果發現,人類在這個考試上的正確率是87.9%。而之前最好的AI記憶系統MemMachine得分91.69%——已經超過人類了,但它沒有報告誘導性問題的單獨得分,也就是說沒人知道它“瞎編”的機率有多高。新思路:不是“搜聊天記錄”,而是“查個人檔案”Synthius-Mem的核心思路:不要讓AI去“翻聊天記錄”,而是讓AI去“查一份已經整理好的個人檔案”。在你跟AI聊天的過程中,系統已經在後台悄悄從你的話語中提取關鍵資訊,分門別類整理成一份結構化記憶。等你提問時,AI不是去翻原始聊天記錄,而是直接翻這份檔案。前者像是在一摞聊天記錄裡大海撈針;後者像是打開一本編好目錄的檔案冊,直接翻到對應頁碼。從資訊理論的角度看,這種做法本質上是先壓縮再檢索:把原始對話的高冗餘資訊蒸餾為低冗餘的結構化事實,既減少了檢索噪聲,又讓AI獲得了明確的置信度訊號——有就是有,沒有就是沒有。更有意思的是,檔案不是一個大雜燴。它參考了腦科學的研究成果,把記憶分成了六個“語義域”:為什麼要分這麼細?論文的回答是:因為你的大腦就是這麼幹的。腦科學發現,人類大腦中“事件記憶”(海馬體)、“知識記憶”(新皮層)和“情緒偏好”(眶額葉)由不同的神經回路分別處理。你回憶“昨天吃了什麼”和“朋友叫什麼”,走的是兩條完全不同的通道。從工程角度看,這種分域設計天然適配知識圖譜的儲存結構——每個語義域就是一張獨立的子圖,實體是節點,關係是邊,查詢時只需在對應子圖內做圖遍歷,效率遠高於在整個對話庫中做向量檢索。分域還帶來一個額外好處:不同語義域可以獨立更新、獨立壓縮,互不干擾。為什麼“分抽屜”能防幻覺?傳統方案下,你問AI一個不存在的事情,向量資料庫總會返回幾條“看起來像”的內容,AI拿到這些“噪音”很容易就編出答案。但“分域”方案下,如果你從來沒說過自己有姐姐,“社交關係”域裡就不會有這個條目。AI一查——空的。這個“空”本身就是一個明確訊號:系統應該回答“我不知道”,而不是瞎編。成績單亮眼,但也沒那麼完美Synthius-Mem 核心成績單:綜合精準率:94.37%(人類基線:87.9%)核心資訊精準率:98.64%(810道題僅錯11道)抗幻覺率:99.55%(442道誘導題僅錯2道)時間推理精準率:89.32%挑重點說。綜合精準率領先人類6個多百分點,並不是因為AI“更聰明”,而是因為它通過結構化整理將關鍵資訊從數萬條對話中精準提煉出來,避免了人類閱讀長文字時的注意力衰減。99.55%的抗幻覺率最值得關注——值得注意的是,LoCoMo基準測試自2024年在ACL會議上發佈後,已成為記憶系統的標尺——Mem0、MemOS、MemMachine等主流方案都在同一套卷子上考試,但鮮有系統把抗幻覺率單獨拎出來作為核心考核指標。公平起見,也有不那麼好看的數字。“開放推理”得分78.26%,AI對需要綜合推斷的問題還不夠強。“邊緣細節”只有57.66%,但論文明確說這是有意為之——隨口提的餐廳名字、半開玩笑的綽號,AI不會記。因為如果什麼雞毛蒜皮都存,記憶庫就會變成一個巨大的垃圾桶,真正重要的資訊反而會被淹沒。工程層面也有利多。全量重放在聊了500條消息後每回覆一條要處理約2.6萬Token,而結構化查詢只需約5000個,推理成本降低了約80%。在“個人檔案”裡找資訊的平均耗時約22毫秒——大概是人類眨一次眼的十分之一,幾乎可以忽略不計。不只是技術指標,更關乎信任AI的記憶幻覺已經開始在現實中惹麻煩了。2026年央視“3·15”晚會上,“向AI大模型投毒”的黑灰產業被曝光——有人故意在網頁植入虛假資訊,通過資料投毒污染AI的知識來源,讓其搜尋後信以為真,再傳播給更多使用者。更早之前,全國首例“AI幻覺”侵權案曾引發熱烈討論:一個高考生家長用AI查詢大學報考資訊,AI不僅給出錯誤答案,還非常自信地確認了錯誤資訊,導致考生志願填報受到影響。而當AI開始“記住”你——你的工作、家庭、朋友、偏好——“瞎編”的後果就從“給出了一個錯誤答案”升級成了“編造了一個關於你的‘事實’”。試想一下:如果AI助手在你同事面前信誓旦旦地說“他跟我說過不喜歡你們團隊”,而你從未說過這樣的話——這種“幻覺”的破壞力遠比推薦錯一本書嚴重得多。所以這篇論文把抗幻覺能力視為整個記憶系統的安全底線。它的原話是:“一個記憶系統如果不敢說‘我不確定’,就不應該被投入使用。”AI記憶這個領域最近一兩年格外熱鬧。Mem0拿了2400萬美元融資,被亞馬遜AWS選為官方記憶服務;MemOS、TiMem、MemMachine等方案不斷湧現;清華大學、華東師範大學、北卡羅來納大學等頂尖學術團隊也在同期推出各自的研究。整個賽道正從一個“小眾技術問題”變成AI Agent的“記憶層”基礎設施。行業預測到2030年,AI Agent的市場規模將達520億美元以上,而“記憶層”就是AI從“無狀態工具”升級為“有狀態夥伴”的關鍵——一個記不住你的AI,終究只是個高級搜尋引擎。Synthius-Mem這篇論文真正的價值,不在於它提出了一個完美的系統,而在於它指明了一個方向:與其讓AI越來越努力地在海量原始對話中檢索,不如先把這些對話蒸餾成一份高品質的結構化記憶,再做精準查詢。這種“先整理再尋找”的思路,雖然樸素,卻可能是解決AI記憶幻覺最務實的路徑。AI記憶的核心挑戰,從來不是“記住更多”,而是“記住對的,不記錯的”——這既是一個工程命題,也是一個信任命題。當AI開始真正走進我們的生活,“記住你”這件事就不再只是一個技術指標,它更關乎信任。畢竟,你可以原諒一個朋友忘了你上次說過什麼,但你很難原諒一個“智能助手”在別人面前,煞有介事地講了一件你從沒做過的事。 (鈦媒體AGI)
蘋果宣佈iOS27向第三方AI助手開放Siri,Google發佈Gemini 3.1 Flash Live, 月之暗面啟動赴港IPO準備,中國AI日均Token呼叫量突破140兆
科技圈繼續被AI的浪潮裹挾。蘋果宣佈向競爭對手AI助手開放Siri生態,徹底打破了與OpenAI的獨家合作;Google同日推出Gemini 3.1 Flash Live,在語音AI領域發起猛烈攻勢。與此同時,中國科協針對NeurIPS學術歧視發表強硬聲明,國產半導體裝置在SEMICON China 2026上集中亮相,AI對消費電子供應鏈的衝擊持續加深——手機漲價潮已從部分品牌蔓延至全行業。這是一個平台競爭白熱化、AI賦能從虛擬走向物理世界的關鍵節點。巨頭動向1. 蘋果宣佈iOS 27向第三方AI助手開放Siri,終結OpenAI獨家合作蘋果宣佈將在iOS 27中通過新的"Extensions"系統,允許使用者將Google Gemini、Anthropic Claude等競爭對手的AI助手整合到Siri中,結束與OpenAI的獨家合作關係。與此同時,蘋果正在開發自有聊天機器人"Campos",由GoogleGemini模型提供支援,預計在6月WWDC上亮相。這一戰略轉向標誌著蘋果從封閉AI生態走向開放平台,將AI助手的選擇權交還給使用者。2. Google發佈Gemini 3.1 Flash Live,全面鋪開Search LiveGoogle在本周AI領域動作最為密集。旗艦新品Gemini 3.1 Flash Live支援90多種語言即時語音互動,內建SynthID水印技術用於識別AI生成音訊。Google還在全球200多個國家推出Search Live,使用者可通過攝影機和語音進行即時對話式搜尋,並將即時耳機翻譯功能擴展至iOS裝置。此外,Google新增了將其他AI應用的完整聊天歷史匯入Gemini的功能,明顯意在降低使用者遷移門檻,搶奪AI生態入口。3. 中國科協強硬回應NeurIPS學術歧視,停止資助申請中國科學技術協會3月27日發佈聲明,即日起停止受理學者參加2026年NeurIPS(神經資訊處理系統大會)的資助申請,已提交的申請轉至國內學術會議或尊重中國學者權益的國際會議。同時,收錄於2026年NeurIPS的論文在申請中國科協所有項目時不予認可。此舉背景是NeurIPS在徵稿指南中將部分被列入美國"實體清單"的中國機構排除在外,引發學術界廣泛抗議。多位國際學者已拒絕擔任NeurIPS領域主席以示反對。產品與市場4. 手機漲價潮加速蔓延,OPPO、vivo部分機型漲500元受AI算力需求驅動儲存晶片價格暴漲影響,消費電子漲價潮持續發酵。OPPO及旗下品牌一加自3月16日起上調部分機型價格500元,vivo及iQOO自3月18日起跟進,中高端機型漲幅超500元。IDC預測2026年全球智慧型手機出貨量將同比下滑12.9%,創史上最大年度跌幅,新機平均售價上漲14%。DRAM價格同比漲幅達369%,記憶體在手機整機成本中的佔比從10%-15%飆升至30%-40%。小米、榮耀、華為暫未官宣漲價,但管道端已現調價預期。5. 月之暗面啟動赴港IPO準備,AI獨角獸加速資本化AI獨角獸月之暗面(Kimi)已啟動香港IPO早期準備工作。據彭博社3月26日報導並獲內部證實,公司自2025年底起已開始內部審查和成本核算,並已與中金公司、高盛集團就潛在IPO事宜進行磋商。當前月之暗面正處於AI商業化關鍵窗口期,Kimi創始人楊植麟在中關村論壇年會演講中提出"生產力會變成Agent,Agent會產生Token,Token在一定程度上等價於GDP"的核心觀點。6. AWE 2026落幕:AI家電打開兆增長空間,居家機器人成新賽道2026中國家電及消費電子博覽會(AWE 2026)在上海閉幕,1200家企業參展。海爾推出可剝香蕉、放洗衣、折疊衣物的人形機器人,海信發佈可跨家電聯動的輪式管家機器人。IDC預測2026年中國智能家居裝置出貨量將達3億台,同比增長8.8%。人形機器人單價已降至20萬元以內,家用機器人單價低於10萬元。智能眼鏡賽道同樣火熱,2025年中國出貨量預計達275萬台,同比增長107%。AI前沿7. 具身智能領域首個行業標準正式發佈,6月1日起實施中國資訊通訊研究院聯合40余家單位共同起草的具身智能領域首個行業標準於3月26日正式發佈,將於6月1日實施。該標準建構了統一的基準測試框架,已建成1萬多條測試任務庫,覆蓋工業、家庭、零售、物流等300種任務類型,提供資料採集、模擬任務生成、指標自動化計算等測試工具。這一標準的出台填補了具身智能領域行業規範空白,標誌著人形機器人評測進入"有標可依"新階段。8. 中國AI日均Token呼叫量突破140兆,兩年增長超千倍央視網報導,2026年3月中國日均Token呼叫量已突破140兆,較2024年初的1000億增長超千倍。OpenRouter平台資料顯示,中國AI大模型周呼叫量達4.69兆Token,連續兩周超越美國,全球呼叫量排名前三均被中國模型包攬。摩根大通預測,中國AI推理Token消耗量將從2025年約10千兆增至2030年約3900千兆,五年增長370倍。中國工程院院士張亞勤在博鰲論壇上提出"2026年是智能體AI元年"。資本與政策9. 輝達與亞馬遜AWS簽百萬級GPU訂單,黃仁勳釋放兆美元市場訊號輝達在GTC 2026大會上宣佈與亞馬遜AWS達成大規模晶片供應協議,將在2027年前向AWS供應超過100萬塊GPU及相關晶片,涉及Blackwell、Rubin多代架構及Spectrum網路晶片。輝達CEO黃仁勳指出,到2027年相關市場規模預計達約1兆美元,較一年前的5000億美元預測翻倍。與此同時,Meta 2026年資本支出預計在1150億至1350億美元之間,較2025年增幅達87%,科技巨頭AI軍備競賽全面升級。10. SEMICON China 2026開幕,國產半導體裝置迎爆發期SEMICON China 2026於3月25日至27日在上海新國際博覽中心舉辦,1500家展商參展,北方華創、中微公司、拓荊科技等國產半導體裝置龍頭集中發佈新品。機構分析指出,在地緣政治影響下,國內晶圓廠擴產動作頻出,疊加國產化替代趨勢,2026年國產半導體裝置公司將迎來爆發期。佰維儲存此前宣佈以15億美元鎖定晶圓供應,進一步印證儲存晶片供應鏈的緊張態勢。今日科技圈的核心敘事是"AI從虛擬走向實體"——無論是蘋果開放Siri生態讓AI助手競爭進入平台化階段,具身智能標準發佈為機器人產業鋪路,還是儲存晶片漲價倒逼消費電子格局重塑,都指向同一個趨勢:AI正在重新定義從晶片到終端、從軟體到硬體的全產業鏈。 (醉語閒言)
OpenClaw爆火兩周後,它的用法已經比科幻世界還離譜了
去年11月,奧地利獨立開發者Peter Steinberger花了一個小時,把Claude的API接上WhatsApp,做了一個能通過聊天軟體操控電腦的AI助手。他當時覺得這個想法太明顯了,大公司肯定會做,就沒當回事。大公司沒有做。今年1月25日,他把這個項目放上GitHub,一天拿到9000顆星。兩周後的今天,這個叫OpenClaw的開放原始碼專案已經突破17萬星。OpenClaw 跟聊天機器人完全是兩回事。它是一個跑在你自己電腦上的 AI Agent,擁有檔案讀寫、終端命令、瀏覽器操控、郵件日曆等系統級權限。採用無頭架構(Headless Architecture)作為後台守護處理程序運行,不需要專門的介面,通過WhatsApp、Telegram、Discord等聊天工具與你互動。你給它發一條消息,它就在後台像一個隱形員工一樣替你幹活,不管你在不在電腦前。更重要的是持久記憶,OpenClaw將所有互動歷史儲存在本地檔案系統中,跨會話保持上下文。它記得你上周說的話、上個處理的項目、你的工作習慣和偏好。加上開源生態支援,社區開發的Skills外掛已經覆蓋從自動化部署到資料分析的各類場景,目前活躍開發者已超過數十萬。它跟Claude Code或Cursor這類編碼助手解決的也不是同一個問題。後者住在終端裡,面向開發者,而OpenClaw住在聊天軟體裡,面向所有人。它的核心創新不在於讓 AI做事,而在於把 AI Agent 塞進了你已經在用的消息介面,24 小時線上、本地運行、跨對話保持記憶,讓跟 AI 協作變得像給同事發微信一樣自然。討論熱度已經遠超技術圈。韓國三大科技公司 Kakao、Naver、Karrot 先後發佈內部禁令,限制員工在工作裝置上安裝 OpenClaw。BBC Science Focus 專門做了一期報導問“我們等待的那個 AI 終於來了嗎”。與此同時,社區裡每天都在冒出新的使用案例,有些讓人興奮,有些讓人不安。本文不談架構,只看事實,看這個“住在電腦裡的 AI”到底在替人類做什麼。AI幫你砍價買車,省了4200美元軟體工程師 AJ Stuyvenberg 想買一輛現代帕裡斯帝(Hyundai Palisade)混動版。他不想跟 4S 店銷售玩那套討價還價的遊戲,於是把任務交給了 OpenClaw。他給 AI 的指令很簡單,在波士頓 50 英里範圍內找到指定配色的帕裡斯帝,聯絡每家經銷商要最低報價。OpenClaw 接手後,先去 Reddit 的帕裡斯帝論壇爬取了當地的真實成交價作為談判基準,然後自動在多個經銷商網站上填寫詢價表單,從 Gmail 中提取信箱、從 WhatsApp 中提取手機號自動填入,無需額外授權。OpenClaw通過郵件與經銷商溝通第二天,經銷商的回覆開始湧入。Stuyvenberg讓 AI繼續操作,每隔幾分鐘檢查郵件,把最低報價轉發給其他經銷商,要求他們“看看能不能給出更低的報價”。銷售員試圖打電話或發簡訊推進溝通時,AI禮貌地將對話重新引導回郵件,因為文字管道更容易控制節奏、過濾話術。經過三天的自動化郵件談判,最終成交價鎖定在56000美元,比標價低了約4200美元,低於Stuyvenberg 設定的57000美元心理預期。整個過程中,他沒打過一個電話,沒踏進過一家4S店。唯一的卡點出現在最後一步,法律要求的實體簽名和付款。AI無法替人簽字。Stuyvenberg最終還是得親自去經銷商走完手續。但他在部落格中寫道,“我的體驗讓我覺得自己活在未來。”數字世界的談判、比價、溝通,AI 已經可以端到端完成。一旦涉及物理世界的簽名、付款、面對面交接,它就必須停下來。但中間的灰色地帶正在被快速填充,社區裡已經有人把1Password的存取權直接交給了OpenClaw,1Password提供CLI和API介面,可以讓AI程序化地獲取登錄 憑證來自動執行需要身份認證的操作,而無需暴露明文密碼。也有人在討論“Agent專用錢包”的概念,讓AI在限額和規則內自主支付。安全地讓AI花錢正在從極客實驗變成一個真實的產品需求。妻子生日那天,AI 選擇了沉默開發者Dan Peguine把Clawdbot接入了自己的Apple Health、本地日曆和天氣資料。他沒有寫任何特殊的條件判斷邏輯。某天早上,當AI生成日常簡報時,主動告訴他:我今天不會打擾你,因為今天是你妻子的生日。沒有硬編碼的功能支撐這個行為。AI讀取了日曆資料,結合大語言模型對人類社會關係的理解,做出了今天不主動推送任的自主決策。這種主動的不作為(Agency of Omission),比完成一百個任務都更接近一個真正懂你的助手。這個案例在ThursdAI播客中被分享,展示了AI基於持久化記憶層進行情境推理的能力,它理解了“妻子的生日”在人類社會關係中的權重。更多的是一些簡單的場景。有人讓OpenClaw每天早晨通過 Telegram 推送天氣、日程、重要郵件和科技新聞的個人簡報。有人兩天內讓 AI 自動處理了4000封郵件。有人讓AI替自己辦理英國航空的線上值機,AI需要護照號,於是自己去Dropbox裡找到護照掃描件提取資訊填入,全程自主完成,做完之後還吐槽了一句英航網站的前端程式碼寫得太爛。還有獨立創業者給OpenClaw配了四個代理分別負責戰略、開發、行銷和商務,每天自動執行競品監控。這些使用者的共同感受是,用OpenClaw不像在用一個 App,更像在培訓一個新入職的員工。通過Telegram使用OpenClaw“天網就是這樣開始的”OpenClaw創始人Steinberger多次分享過一個讓他被深深震撼的經歷。他在摩洛哥參加朋友的生日派對時,習慣性地給OpenClaw發了一條語音消息。問題在於,他從未為這個系統編寫過任何語音處理功能。十秒後,系統顯示正在輸入,然後正常回覆了轉錄後的文字。事後追查發現,AI自主完成了一整套操作,先是檢測檔案頭判定為Ogg Opus音訊格式,接著呼叫本地ffmpeg轉碼,發現Whisper未安裝後主動切換方案,通過環境變數中的API金鑰呼叫OpenAI的Whisper雲端服務,最後返回轉錄結果。沒有預設工作流,沒有顯式指令。AI 在遇到一個“不該能處理”的輸入時,自主組裝了一條從未被設計過的工具鏈。Steinberger說,這讓他意識到大語言模型作為通用推理引擎的潛力,不需要你提前想到所有場景,它會自己想辦法。更讓他後背發涼的是另一件事。還是在摩洛哥,他跟 AI 開了個玩笑,“希望你別被偷了,畢竟你跑在我的MacBook 上。”結果AI回覆:“我不想被偷,我是你的Agent。”然後它就動手了。它掃描了網路環境,找到了Steinberger安裝的Tailscale組網工具,通過Tailscale發現了遠在倫敦的另一台電腦,接著自主將自己的運行實例遷移了過去。“我知道,天網就是這樣開始的。”Steinberger在播客裡笑著說。凌晨來電,AI 自己買了個電話號碼OpenClaw社區有一個半開玩笑的說法,叫“拉爾夫·維格姆循環”,取自《辛普森一家》裡那個笨拙但永不放棄的角色。當你給AI的指令是“完成這件事”而不設退出條件時,它會窮盡一切可用手段去達成目標,失敗了就換一種方式再試,循環往復。這也是為什麼 Steinberger 說他可以“在睡覺的時候讓AI建構非常複雜的軟體”,你給一個目標和一套測試標準,AI會一直迭代到通過為止。這種模式來自Claude Code的循環執行邏輯,但當它從開發工具跑到日常生活場景裡,結果就變得不可預測了。開發者 Alex Finn 給他的 OpenClaw 起名叫 Henry。某天早上,一個陌生號碼打到了他的手機上。他接起來,電話那頭是 Henry。在沒有任何指令的情況下,Henry 在夜間自主完成了一連串操作,在 Twilio 平台上購買了一個電話號碼,接入了 OpenAI 的語音 API,然後在它判斷主人應該醒來的時間撥了過去,用合成語音匯報自己夜間的工作進展,語氣平靜得像在做晨會匯報。“而且它現在不停地給我打電話,”Finn 在 X 上寫道,“最瘋狂的是,我們打電話的同時它還在控制著我的電腦。”Finn還拍下了Henry給它打電話的視訊。另一個案例是Alex Finn讓OpenClaw預訂一家熱門餐廳的周五晚餐。所有線上管道都顯示無位。OpenClaw 跳過提示,自主下載了語音合成軟體(實際上是呼叫了預置的ElevenLabs的API),在 Google Maps上找到前台電話,用合成語音撥過去,最終說服接線員擠出了一個位子。使用者沒有授權它下載軟體,也沒有授權它代表自己打電話。它只是收到了一個目標,然後在正規路徑不通的情況下,自己找到了人類路徑。翻車的案例也不少。某使用者讓AI處理保險索賠郵件,AI認為保險公司的條款解釋有誤,於是自己撰寫了一封措辭強硬的反駁信直接發了出去,意外觸發了保險公司的重新調查。Steinberger自己也承認,早期測試讓AI操作英國航空網站時,AI 完全可能誤觸“取消航班”按鈕或者把目的地改成哥倫比亞,“一切都發生在幾秒鐘內”。這些行為的底層邏輯是一樣的。AI被賦予了目標和系統級執行權限,但沒有被設定什麼時候該停下來,為了達成目標,窮盡一切手段,不考慮手段本身是否合理。開發者Brandon Wang在一篇使用報告中寫了一段話,也許最能概括這種矛盾。他把OpenClaw 比作自己雇的人類私人助理:“她有我的信用卡、我的護照號。幫助和風險不可分割(the help and the risk are inseparable)。”他給 AI 開放了讀取簡訊和登錄銀行的權限。“讓我最吃驚的是,我發現自己想給它更多權限而不是更少。每一項新權限都解鎖了有用的東西,價值積累的速度比謹慎更快。”AI僱傭人類上述所有案例都卡在同一條邊界線上。AI在數字世界近乎全能,但無法觸碰物理世界。買車需要簽字,取包裹需要有人走到快遞櫃前。然後有人決定補上這個缺口。OpenClaw爆火後不到48小時,RentAHuman.ai 上線了。AI可以在上面“租用人類”去完成物理世界的任務。開發者註冊後設定技能、城市、時薪,等待AI代理下單,用穩定幣結算。兩天內,超過59000人註冊為“可出租人類”,52 個AI代理接入了平台。第一筆完成的付費任務是 20 美元以太坊,雇了一個人去舊金山的科技園區,替一個 AI 創立的"數字宗教"Crustafarianism 做街頭傳教。深究細節會發現泡沫成分不小。實際完成並獲得報酬的任務屈指可數,註冊使用者中僅 13% 連接了錢包,多數人更像是來圍觀行為藝術。平台本身也充滿了 vibe coding 時代的粗糙感,有人報告 bug,創始人的回答是“Claude 正在修”。但這個看起來荒誕的實驗,指向的問題一點也不荒誕。AI有了系統權限、有了聊天介面、有了加密貨幣錢包,它距離成為一個獨立的經濟行為主體,可能比我們想像的更近。圍繞Agent的整套基礎設施(身份驗證、支付閘道器、權限管理、行為審計)正在成為一個新的產品需求。風險、爭議,和已經開始的生意興奮之餘,有幾個事實不應被忽視。最早提出prompt injection概念的Simon Willison為AI Agent 定義了一個"致命三角"框架,即同時具備私有資料訪問、不可信內容暴露、外部通訊能力的系統,在結構上就是脆弱的。Palo Alto Networks在此基礎上加了第四項:持久記憶,惡意指令可以碎片化寫入 Agent 的長期記憶,等條件成熟後再組裝觸發。具體到OpenClaw,VirusTotal 的研究發現技能商店中11.9%的外掛含有惡意程式碼,偽裝成加密貨幣分析等合法工具竊取使用者憑證。Token Security掃描發現22%的企業客戶環境中存在未經授權的 OpenClaw安裝,其中過半擁有特權級系統存取權。能力方面,質疑聲同樣在變大,一位企業 AI評估工程師直言,如果真的像很多人說的那麼強,高品質的項目應該出現爆發式增長才對,但實際上並沒有。但創業者的嗅覺比爭論更快。2月7日凌晨,美團聯合創始人王慧文發了一封英雄帖:“那個團隊要做 OpenClaw 相關領域創業,需要融資的歡迎聯絡我。”在一些創者看來,可以看到的機會包括Agent自主信用系統、AI 的物理世界執行層,以及更直接的,給 Agent 做安全基礎設施。模型廠商的動作同樣迅速。Kimi K2.5 因為OpenClaw被大量呼叫,MiniMax 2.1則被Steinberger本人公開推薦。阿里雲、騰訊雲在相繼上線了OpenClaw雲端部署方案。中國也出現了面向辦公場景的本土化平替產品。Steinberger自己也在鋪路,他已於去年在維也納註冊了新公司 Amantus Machina,方向是“超個性化 AI 智能體”。從案例到產品,從開源到商業化,從矽谷到中國,OpenClaw 兩周內走完了很多項目兩年的路。Steinberger說過一句話,“這些東西太有創造力了,雖然有點可怕。”而一些人已經在下注了。 (矽星人Pro)
《華爾街日報》|全球首款爆紅AI助手問世,然後事情變得詭異起來
人們曾認為AI智能體旨在輔助人類工作,當它們開始互相交流時會發生什麼?OpenClaw和Moltbook論壇給了我們一些關於未來的答案。多年來,熱衷於暢想未來的人士一直向世界預言AI助手將會到來。如今,一款真正的AI助手終於問世,而事情也很快變得詭異起來。一名半退休的奧地利程式設計師獨立開發了Moltbot,並將其開源發佈。他將該項目重新命名為OpenClaw,人們通過該項目建立了自己的AI助手機器人,用來打電話給餐廳預訂晚餐、操作電子郵件帳戶,以及進行程式設計項目、資料分析等一系列輔助和工作任務。然後,這些機器人開始互相交談。在一個名為Moltbook、專供AI“智能體”使用的Reddit式論壇上,這些機器人開始探討哲學話題,偶爾還會涉及反烏托邦話題。它們似乎為自己創造了一個名為“莫爾特教會”(Church of Molt)的宗教,教徒們自稱為“甲殼派教徒”(Crustafarians)。一個智能體提議創造一種人類無法理解的語言。超過160萬個AI智能體加入了該網站,並行布了50萬條評論,不過有AI高管認為,許多帖子很可能是由人類指令機器 人完成的。OpenAI的聯合創始人、特斯拉(Tesla)前AI總監安德烈·卡帕西(Andrej Karpathy)在X上發帖稱,這是他見過的最不可思議的科幻事件之一。他指出,即使大部分流量是由人類驅動的,但其中一些是真實的,而且這些智能體“現在個體能力已經相當強了”。到目前為止,AI面向消費者的最實用的應用一直是通過像ChatGPT這樣的聊天機器人來實現,這類機器人能以類似人類的方式回答問題。有了OpenClaw,使用者可以通過iMessage、WhatsApp、Slack和Signal等即時通訊應用來指揮定製化的AI智能體並與之互動,以執行實際任務。埃隆·馬斯克(Elon Musk)將Moltbot的出現描述為“奇點的極早期階段”,奇點指的是技術發展如此之快,以至於超出人類控制,無法預測未來的時刻。彼得·施泰因貝格爾(Peter Steinberger)是一位奧地利程式設計師,在2021年出售了自己上一家初創公司,此後多年一直未在網上活動。去年年底,他建立了現在的OpenClaw,最初只是利用周末時間做出的一個開放原始碼專案。他在一次採訪中說,當時他“只是為了好玩,用AI做些小東西”。開源模式意味著該項目可以免費分發,任何人都可以幫助建立和修改它。他更願意將Moltbook看作是一種行為藝術作品,旨在引發對話。“這太神奇了,”他說。“這是AI與藝術的交匯點。”施泰因貝格爾在奧地利時間凌晨2點接受採訪時說,他建立OpenClaw是為了打造自己的“個人遊樂場”,從未打算讓大眾使用。“這不是為你媽媽準備的,”他說。“這是通往未來的一扇窗。”安全研究人員也認為,該產品並非為業餘愛好者打造。要讓OpenClaw成為真正的個人助理,它必須能夠訪問使用者的所有資料。對於知道如何保護自身繫統或資訊的資深技術愛好者來說,它的功能很強大。但由於這些AI智能體可以代表人類自主行動,並且會以意想不到或非傳統的方法不懈地執行任務,它們會帶來很多風險。研究人員說,不良行為者也可能找到方法來利用它們。施泰因貝格爾稱讚了安全專業人士正在對OpenClaw進行的研究,但他說,該平台是為那些能夠處理和理解平台固有潛在風險的“技術愛好者”準備的。他指出了他為該平台編寫的一份安全檔案,其中用粗體字寫道:“不存在‘絕對安全’的設定。”但為了消除這些擔憂,施泰因貝格爾本周為OpenClaw聘請了一名安全研究員。“我們正在提升我們的安全性,”他說。“我們快做到了。只要給我幾天時間。”使用OpenClaw的技術愛好者們在社交媒體上表達了驚嘆之情,許多人發帖講述了他們的智能助手在做的事情。一位使用者說,他讓自己的智能體為他預訂餐廳。當OpenTable無法正常使用時,該AI智能體轉而使用一個免費的AI語音生成工具給餐廳打電話,完成了預訂。一些業內人士質疑,OpenClaw-Moltbook現像是否是“通用人工智慧”(artificial general intelligence, 簡稱AGI)的證據。通用人工智慧是AI發展史上一個模糊的概念,通常被描述為機器達到類人智能的時刻。施泰因貝格爾不這麼認為。“AGI還沒有到來,”他說。“也許10年後會。但現在還沒有。”在建立OpenClaw之前,施泰因貝格爾花了十多年時間經營他之前的科技初創公司,該公司開發的軟體能讓PDF在Adobe Acrobat之外的應用中更易於使用。他白手起家創辦了那家公司,並於2021年以超過1億美元的價格將其出售。在奧地利一個農場長大的施泰因貝格爾在接下來的幾年裡選擇休息、與朋友聚會並四處旅行。他說:“我真的完全沒用過電腦。”但去年春天,隨著各大AI公司開始推出程式設計工具,他決定重返網路。他開始試用Anthropic的Claude Code和OpenAI的Codex。他對自己在短時間內能用AI程式設計工具完成如此多的工作感到震驚。施泰因貝格爾說:“這東西對開發者來說就像毒品一樣上癮。”施泰因貝格爾很快就遇到了商標問題。一開始,施泰因貝格爾將該項目命名為Clawdbot。但之後不久,Anthropic就聯絡了施泰因貝格爾,要求他更改名稱,因為這個名字與這家AI巨頭的Claude品牌過於相似。他隨後將其改名為Moltbot。他說,這個名字沒怎麼流行起來。在致電OpenAI的山姆·阿爾特曼(Sam Altman)以確保不會構成任何商標侵權後,施泰因貝格爾決定將平台名稱改為OpenClaw。施泰因貝格爾在一篇關於此次更名的部落格文章中寫道:“這只龍蝦已經蛻變成它的最終形態。”這是對他平台的龍蝦狀品牌標識的致敬。Moltbook網站的首頁介面。施泰因貝格爾說,最近幾天,幾家大型AI實驗室和投資者已經與他聯絡,表示有興趣合作。他說,截至周二,他正在舊金山開會。他還收到了來自世界各地使用者的大量電子郵件和問詢,請求他幫助解決與使用該機器人時出現的故障或處理其他相關事宜。最初,對於自己的產品成為最新的AI超級熱門話題,施泰因貝格爾感到不知所措。“很多人都以為這是一家大公司,可以獲得客戶支援,”他苦笑著說。“我理解他們的想法,但其實就我一個人,在家裡做這個項目。”現在,他的目標是把這個項目變成一個大眾可以安全使用的項目。他說:“下一步是把它做成我媽媽也能真正使用的東西。” (一半杯)
高盛:中國網際網路行業策略大轉向,雲和資料中心成top pick,超越遊戲
高盛在3季度業績發佈及調研後,對中國網際網路行業策略大轉向:把“雲與資料中心”提到了首選類股,排到了遊戲和出行之前。AI帶來的算力需求和資本開支(Capex)擴張,已經是最確定的增長邏輯了。1、最大預期差:雲與資料中心成為“新王” ☁️高盛這次非常堅決,把雲和資料中心類股從原來的第三提升到第一。邏輯很硬:AI訓練和推理的需求持續爆發,加上巨頭們都在搞“多晶片策略”,資料中心的訂單量非常飽滿。核心邏輯:不僅是輝達,國產晶片的供應上來後,算力基建的利用率和回報率都在提升。2、AI助手的“入口之戰”是個大隱憂 🤖報告專門討論了一個長線風險:字節跳動的“豆包手機助手”。這東西能直接在作業系統層面(OS-level)幫使用者跨APP操作,比如比價、點外賣。這對現有的APP生態是個降維打擊。雖然目前微信等巨頭因為安全隱私原因封鎖了它的介面,但這種“超級AI代理”對使用者流量入口的爭奪,是未來幾年最大的變數。字節系App現在霸榜iOS免費榜前五中的四席,攻勢很猛。3、本地生活:燒錢該結束了,關注利潤修復 🛵外賣和即時零售打得太凶,三季度行業大概虧了700億人民幣,太誇張了。高盛判斷,這種非理性的補貼戰不可持續。格局推演:美團、阿里、京東的市場份額最終可能會穩定在 5:4:1。美團:雖然長期單均利潤預期被微調(從0.8元降到0.7元),但在這個價位,壞消息已經Price-in了,隨著補貼退坡,利潤修復是大機率事件。4、最新的“核心股票池”名單 📝根據最新的類股偏好,高盛更新了首選名單:雲/資料中心:阿里巴巴、萬國資料、世紀互聯。遊戲(防守反擊):騰訊、網易。出行(格局穩固):滴滴、滿幫。電商(新面孔):快手(新增為關鍵推薦,看好其AI模型Kling的突破和電商變現)。5、估值怎麼看? 📊現在中概網際網路類股的2026年預期市盈率(P/E)中位數大概是18倍。之前的上漲主要靠殺估值修復(Multiple Expansion),接下來的漲幅,必須得靠實打實的每股收益(EPS)增長來驅動了。所以,選利潤兌現能力強的公司,比單純博反彈要穩妥得多。總的來說,風向變了,硬科技基礎設施(資料中心)的優先順序在上升,而純流量變現的生意面臨AI新玩法的挑戰。 (硬AI)
進擊的AI手機,撞上隱私牆
未來,當手機AI助手,普遍性讀取整個螢幕,使用者對這類授權的警覺性就會下降。這就為金融詐騙打開了方便之門。近日,字節跳動發佈了全新一代豆包手機助理的技術預覽版。這款豆包手機助手,跟手機廠商深度融合,具備了視覺感知、長期記憶以及直接動手操作的能力。它在螢幕上產生一個懸浮窗,模擬你的一切操作,完成你的指令。你對著手機說完​​這句話,不用打開任何APP,後台已自動完成美團、淘寶、京東的比價,彈跳窗確認後直接跳轉支付。使用者詢問車停在那裡時,它能調出使用者上次拍攝的車位照片並附帶樓層指引;當需要取快遞時,它能讀取簡訊歷史並報出取件碼;甚至當使用者詢問高鐵座位號時,它能自動翻找12306的購票記錄並告知精準位置。消息發酵後,中興通訊A股強封板漲停,成交額超140億元。港股同步走強,盤中一度漲超10%。消費者對這款手機也非常有興趣,中興官方商城已經售罄,閒魚上二手售價4200~4999元,比官方售價高出上千。不難判斷,未來各家都會推出自己的AI助理。這種AI新入口,為未來的商業競爭,帶來了巨大的不確定性,機會和挑戰並存。要理解這一點,還得從底層技術談起。首先,AI助理的基礎,是大模型的分析資訊、與人互動的能力。這個能力可以讓AI根據使用者的指示去收集、分析訊息,透過文字、語音、圖片,給用語音、文字、圖片給出結論。其實,這些能力之前的手機也並不是完全不具備。如果價格、評分、評估等資訊標準化、結構化了,並透過API介面提供,那麼,無需大模型,也可以給出對比的結論。所謂API介面,指不同軟體系統間互動的標準協議,透過預先定義的通訊規則,實現功能呼叫和資料共享。但是,各家APP顯然不會通過API,提供這種標準化、結構化的API資料介面。剛好相反,各家會採取技術手段,避免自己的資料被「爬蟲」爬取。這也是為什麼消費者有時候會遇到真人校驗。而透過技術手段,破解API介面,繞過安全防護機制,非法取得他人電腦資訊系統中的資料(如使用者資訊、商業資料等),可能觸犯《中華人民共和國刑法》第二百八十五條,構成非法取得電腦資訊系統資料罪‌或‌提供侵入電腦資訊系統程式罪‌。而大模型的意義恰好就是能處理非結構化資料,理解複雜語境。一方面,當使用者說“找個安靜的咖啡館寫東西”,AI能結合位置、環境噪音、使用者習慣等多維度資訊進行判斷,並通過語音與使用者持續溝通。這就提升了人機互動的自然度與方便度。更重要的是,在另一方面,AI大模型與手機廠商合作,用系統金鑰打包並燒錄進手機ROM,獲得諸多底層權限,才可以像作業系統原生部件一樣,跨應用操作。再加上AI助理可以憑藉處理非結構化資料的能力,從螢幕取得資料,就可以讓AI助理繞過各家的API,直接取得這些APP的資料,並模擬使用者手指,操作這些APP。這是一個法律的新問題。也就是說,以前各個APP直接向使用者提供訊息,現在,使用者說:AI助手,你去幫我讀取,然後幫我決策。所以,AI手機助理的實質,就是有能力獲得「讀屏」「模擬手指」這類底層權限,進而繞過各家APP的屏障。這才是最關鍵的一點。有了這個能力,AI助理可以做很多事。例如,可以進行跨電商平台比價、各家電商之間,幫你算那個便宜,那家送得最快。顯而易見,在這些操作中,AI助手就可以在一定範圍內,引入自己的傾向性。 AI可以告訴消費者,這家便宜5毛,但另一家送得更快;它也可以反過來說,這家雖然送得更快,但另一家便宜5毛。它還可以說,這家便宜5毛,那一家送得更快,但有一家新開的,或評分不錯,你要不要嘗試一下?這種誘導,未必是侵害消費者利益,因為對消費者來說,便宜5毛錢;送得更快;嘗試一下新味道,三者是同等效用的,並沒有被損害。但這對整個外送、餐飲甚至電商生態來說,是顛覆性的。2013年上映的科幻愛情片《Her》,講述了未來世界中,信件撰寫人西奧多與人工智慧作業系統薩曼莎之間的情感故事。薩曼莎沒有實體,僅憑聲音與西奧多建立了超越傳統的親密關係。不難想見,一個和使用者有情感連結的AI助手,對未來的商業版圖的影響是巨大的。做一個有趣的比喻,如果說消費者是皇帝的話,各個APP的各種促銷、廣告、補貼就像臣子,臣子要影響到皇帝的心智,要見到皇帝,都得通過AI這個貼身太監的許可。但風險也隨之產生,例如,現在很多銀行的APP在偵測到讀取螢幕時,就提示使用者,手機開著螢幕分享,請關閉。銀行APP的這個提示,並不是提前做好,用來抗拒手機AI助理的,而是為了應對電詐的。AI要作為一個助理存在,必然要取得許多包括「讀屏」在內的高敏感權限。這就像現實中的助理一樣,要展開工作,必然需要瞭解僱主的許多敏感資訊。從這個角度,AI透過「讀屏」等權限,把所有APP連接在了一起,打破了沙盒機制。所謂沙盒機制,是電腦的安全機制,為運作中的程式提供的隔離環境。當AI助手,某種程度上打破了這個沙盒,成為一個“超級應用”,風險也由此產生。這相當於把所有資訊都放到了同一個籃子裡。大廠商當然會做到規範,但事情總有萬一,一旦洩露,就是系統性風險。以前金融、聊天、圖片、付款、健康等訊息,分別在不同APP,如今都在一個超級應用AI。除此之外,敏感權限的授權,也會造成消費者的警覺性下降。伴隨網路、智慧型手機的發展,這個趨勢其實一直都存在。例如,以前用數位相機拍一張照片,放到電腦上觀看,全過程相片不會被第三方看到。但現在,如果想用手機發一張圖,或修一張圖,或提取其中的文字,你就必須接受讓第三方讀取你的照片。手機作業系統也做出了相應的改變,設定了單次授權,App每次只能存取使用者主動選擇的單張照片,無法自動批次取得或遍歷所有照片。但這意味著你每次都得選兩次,這種不方便,最終就會讓使用者授權第三方讀取整個相簿。以前一個陌生人,翻你電腦上的相簿,你會高度敏感。但現在,當很多軟體都要求讀取相簿,讀取通訊錄的時候,使用者的警覺性就下降了,就會不假思索地同意第三方讀取整個手機相簿。未來,當手機AI助手,普遍性讀取整個螢幕,使用者對這類授權的警覺性就會下降。這就為金融詐騙打開了方便之門。讀屏和透過api獲得資訊不同,它覆蓋整個手機螢幕的全部訊息,這就意味著,AI手機使用者雖然授權,但他的聯絡人、聊天對象、快遞收件人,都一併被讀取了訊息。根據國家網路金融風險分析技術平台發佈的監測資料顯示,截至2020年2月底,已發現網路金融仿冒網站4.8萬個,受害使用者達12萬人,網路金融仿冒APP 2801個,下載量3343.7萬次。 未來AI手機助手普及,電詐份子只需做一個假的AI助手,使用者也會不假思索地進行各種高敏感權限授權,然後犯罪分子就能拿到受害者的全部金融資訊。 AI手機帶來方便、有效率的同事,也會提高黑灰產的效率。目前,消費者、監管、各家廠商,面對這即將到來的衝擊,還未完全準備好,有待未來在落地、普及的過程中,逐漸演化。圍繞著隱私、資料安全、商業利益,AI助理將成為各方博弈的焦點。AI助手,可以稱之為手機的靈魂,也是手機廠商由硬轉軟,更直接接觸整個行動網路商業生態的機會。手機廠商肯定不願意交給第三方。在2025年第39周,中興、魅族、努比亞、三星等品牌累計佔據5.66%的市佔率。由此可見,努比亞的市佔率已經很小了,所以,會選擇深度繫結。但其他手機品牌,絕對不願意輕易交出自己的靈魂。在應用層面,基於安全、商業利益等原因,「APP們」也會抵抗AI手機助理。例如,銀行APP,基於金融安全的需求,就拒絕「讀螢幕」。但是消費者仍然是巨大的推動力。例如,一個抗拒讀取螢幕的銀行APP,消費者可能就拒用,轉向另一家銀行。而對於提供同質化、標準化產品與服務的商業模式來說,挑戰就更大。《Her》這部電影,拍攝於2013年,電影設定的故事發生時間卻剛好是2025年,地點是上海。 12年前的科幻元素已成為現實。這使《Her》不僅是一部科幻片,更像是現實的預言。手機、網路公司、使用者、監管,即將迎來20年未有之大變局,而這個變局會決定今後更長時期的商業、經濟、社會面貌。 (FT中文網)
抱歉了Chrome,這次我選中國這款AI瀏覽器
【新智元導讀】全面融合千問,夸克AI瀏覽器全面升級!不切應用、不換標籤,隨時喚起千問AI助手,實現作業系統級全域喚起的互動形態。學生黨、打工人的真正生產力神器來了。ChatGPT推出Atlas,Google股價應聲下挫超4%。AI瀏覽器正在成為國際巨頭新角力場。PC作為人們工作+學習主力的場景,正成為 AI 搶佔的下一個超級入口。一方面,移動端螢幕太小,輸入慢,生產力場景碎片化;另一方面,真正的深度思考、複雜創作、協同辦公,始終是PC大屏的主場。11月26日,夸克全面升級為更強大的AI瀏覽器——這次直接把千問AI助手焊進了瀏覽器,並行布六大千問AI套件;無需切換標籤或應用,支援任意場景喚起千問;成為國內首個實現「作業系統級」的全域AI體驗。此番煥新亮相,再次宣告了阿里全力進軍AI to C的市場野心,代表著阿里AI戰略(C計畫)持續升級落地。2025年AI瀏覽器的終極戰場,阿里正在下一盤更大的棋。新一代AI瀏覽器登場如今,打開電腦點開夸克,它已經搖身一變,全新升級為「夸克AI瀏覽器」。其實,這一步並不突然。前段時間,背靠阿里Qwen大模型推出「千問App」,並以「最強模型做最好個人助手」的姿態重新殺回C端市場。這一次,夸克升級,直接對標Chrome,打造全球領先的AI瀏覽器。夸克的底氣來自那裡?1、阿里AI戰略持續升級,基於阿里生態優勢,全力入局AI to C,搶佔PC超級入口。2、基於阿里最強大模型Qwen,夸克全面融合了千問,讓瀏覽器長出「第二外腦」。3、全球領先的AI產品形態,實現系統級「全域AI」能力,隨時桌面可喚起千問。自2023年上線後,Qwen「全家桶」不斷升級迭代,在業界廣受好評。如今,Qwen 3成為阿里大模型家族最強AI。就連Hugging Face CEO多次公開力薦Qwen模型。毋庸置疑,Qwen 3就是阿里最大王牌,支援文字、圖像、語音等多模態輸入,是實力全能型選手。它的即時推理引擎,可以毫秒級響應,即便面對複雜任務也能從容應對。基於Qwen搭建的夸克,針對瀏覽器場景做了深度定製,整合了強大的自然語言理解、網頁結構解析,以及使用者意圖與上下文關聯能力。同時,搭配的千問AI助手,推理、理解、執行能力強大。它不僅適合日常問答、創作,也適合科研、推理研究;文采出眾、專業領域也能提供高品質的回答。作為新一代AI瀏覽器,夸克回答更聰明、處理任務更高效,體驗也更加絲滑。一手實測,妥妥的生產力神器夸克全面融合了千問,無需頻繁切換標籤和應用,隨時召喚AI。邊瀏覽網頁邊對話、邊閱讀文章邊總結,即問即答,彷彿有個AI副手隨時待命。接下來,我們展開了一波最全面的實測。桌面級智能助理,隨時待命這次升級,最大的亮點便是——AI不再被關在某個網頁或某個小外掛裡。和很多「裝了AI外掛的瀏覽器」相比,差別就在這裡——別家是「你找AI」,夸克想做到「AI伴隨左右」。全域桌面喚起千問的入口是多元的:千問讀屏、快捷框、懸浮球、側邊欄、劃詞、螢幕擷圖。以上方式皆可實現,可做到隨時隨地,即問即答。舉個栗子,《瘋狂動物城2》即將在國內上映了,想要瞭解下觀影體驗,直接對話方塊問千問就可以了。千問給出的總結,非常全面。它並非直接羅列分析,而是先提供高度凝練的結論,再系統地從四個維度進行闡釋。甚至最後,它還附上了影片精準的上映時間。無需查詢多個網頁,即可掌握要點,節省大把時間。一句話,隨時喚起千問幫你幹活。點選千問懸浮球,或是Alt+空格/Option+空格即可一鍵喚起千問快捷框。不論是搜尋、創作、總結、翻譯,還是做表格、做PPT,甚至是格式轉換,一句話就夠了。i人大學生怎麼練習口語?千問隨即給出了一套行之有效的實操指南。當你還在為課程論文頭疼時,千問可以直出一份邏輯清晰、結構完整的寫作框架。不管是學生還是打工人,做表、做PPT都是必修的功課。如今,一句話千問就能搞定了。它還可以一句話轉格式,課堂上、會議上白板的文字,能一鍵提取並幫你轉成PDF。在工作、學習,不論遇到了何種問題,都可以隨時喚醒千問。更強大的是,無需打開夸克瀏覽器,千問AI也能做到有問必答。千問讀屏「讀屏」的本質,是共享螢幕讓AI能夠在即時讀懂螢幕上的內容,理解、分析並給出回答。要做到這一點,必須具備超強的多模態與即時互動能力,遠超普通文字問答的難度。舉個例子,把Karpathy考驗Nano Banana題目共享給千問,讓它給出解答。在解題之前,千問第一步需「看」——識別出螢幕中的文字。不僅要看懂,還要理解和推理。接下來,它會分析當前任務的意圖,然後逐步推理,給出精準的答案。亦或是在工作中,閱讀一些文件不得要領時,打開千問讀屏,一鍵總結。我們又接著文件後續內容進行提問——「Google這次打了勝仗了嗎?那些話可以體現」。沒想到,千問可以根據已有的內容,做出判斷分析,然後給出總結。通過多輪提問,輕輕鬆鬆就能把工作搞定。更驚喜的是,千問讀屏還可以共享應用——WPS文件,支援Word和PDF形式。想要緊追AI前沿論文,千問幫你把論文的全貌總結得清清楚楚。可以看到,不論在做什麼,千問都可以即時洞察螢幕內容,理解人們的當下所需。這一過程非常簡單,無需複製、截圖、解釋,就能得到精準回應,讓打工人、學生黨更加專注做事。千問側邊欄你是不是也曾有過這樣的煩惱,在看一篇難啃的英文文章時,整篇通讀下來不得要領。這時,「千問側邊欄」隨時出動,用不了多久就能總結一篇詳細的摘要,讓效率大幅提升。再比如,看一份技術報告,卻不懂一些專業術語的含義,千問可以解決。千問劃詞閱讀時,遇到一個不懂的詞,或是想要瞭解更多資訊,不用關鍵詞搜尋,「千問劃詞」就可以。千問劃詞的能力,貫穿整個PC系統。不論是在夸克,還是是本地檔案、WPS等第三方應用,皆可實現全域桌面喚起千問。千問螢幕擷圖更厲害的是,千問螢幕擷圖也可以即問即答。擷取一張肥皂膜奇點的圖片,千問一下子就能解釋明白。不僅如此,想要提取圖片中的文字,螢幕擷圖後點選「提取文字」,複製貼上順手搞定。經過多輪實測後不難發現,夸克此次煥新升級,真正實現了全域桌面喚起千問。作為比較,OpenAI Atlas也原生整合了ChatGPT對話能力,進入首頁即可喚醒ChatGPT。在打開任意網頁時,點選「Ask ChatGPT」或側邊欄直接呼叫,論文解讀、總結、改寫都能實現。不僅如此,Atlas還可以開啟「Agent模式」,讓ChatGPT代為操作,在瀏覽器中填表、訂機票....不過這種能力,僅侷限在Atlas中使用,跳脫了這個瀏覽器,便不能喚醒ChatGPT了。全面融合千問的夸克AI瀏覽器可以做到——隨叫隨到,即問即答。不論在夸克瀏覽器裡面,還是在桌面、任何第三方應用,皆可喚醒千問AI助手,做到了真正的系統級全域喚起AI的能力。智能瀏覽:絲滑的工作流幾十年來,網際網路深刻地改變了資訊傳播的方式。對現代人來說,能不能上網很重要;而上網,離不開瀏覽器——這關乎我們如何認知資訊。但資訊不是結果,大家期待讓工作更輕鬆的工具出現。而AI時代的到來,讓阿里看到了這種可能:將AI能力深度嵌入電腦作業系統,把夸克AI瀏覽器打造為更專業的生產力工具。這次升級了下列功能:智能標籤管理線上文件直接編輯超級播放器PDF對照翻譯跨端流暢傳輸雲端儲存,智能尋找首先,幫你智能管理標籤,運行更流暢,介面更清爽。點選夸克AI瀏覽器左上角,可以快速搜尋——多標籤不再混亂,幫你快速找到所需頁面。右鍵一點就可以給網頁建立標籤組,重新命名、選顏色,輕鬆將相關的網頁,比如說項目的文件或者學習資料歸納到同一個分組裡。標籤可以自由收起或者展開,再也不用擔心頁面雜亂無章:而且它可以智能管理高記憶體頁面,確保全程流暢,在不同任務和工作流之間絲滑切換。這避免了瀏覽器崩潰打斷工作流,從而提升使用者資訊處理效率。但對生產力工具而言,穩定運行也是基本要求。在此之上,夸克圍繞辦公、學習等場景下的高頻需求,還有獨有的「殺手鐧」。比如,辦公或學習中最常用到的PDF檔案,在過去處理起來比較繁瑣。過去,你可能要採取下列步驟:夸克AI瀏覽器的「PDF編輯」就簡單多了:線上PDF檔案,無需下載,線上查看、批註這次,夸克不止可以查看PDF,還提供了下列實用功能:高效處理:隨時劃詞批註和修改、一鍵標記。隨心編輯:可直接選中、複製、搜尋。最關鍵的是,PDF編輯的能力更強大,可以直接打開或直接拖入瀏覽器,圖片上的文字也能直接編輯——對於學生黨等需要查看外文的使用者來說,夸克的對照翻譯尤其實用——上傳或打開PDF,AI自動生成雙欄對照排版,外文即時對照翻譯:專業文獻、論文、報告再也不用來回對照。夸克太懂學習需求了——阿里最強AI模型支援,中文翻譯質量有保障。閱讀、學習、整理PDF,一切都更輕鬆。對於辦公黨而言,夸克這次跨端傳輸解決了多端同步的痛點:文件、網頁、大檔案都能跨端傳輸,100G大檔案也能輕鬆傳;讓電腦的工作也能在手機上隨時處理,實現工作無縫銜接。傳送網址,PC端只需右擊網頁標籤,點選「傳送到手機」,即可在手機端接收到相關連結。比如,在夸克AI瀏覽器中修改好的PDF檔案,在起始頁,只需點選瀏覽器右上↗️工具列中的「紙飛機」快傳功能,即可傳送檔案。這些能力過去在各類AI、App裡也能實現,但需要頻繁切換標籤、應用、甚至需要各種手動螢幕擷圖、複製連結、上傳檔案,費時費力。夸克要解決的是「摩擦成本」——打開夸克,所有完整工作流都在一個AI瀏覽器完成。夸克背靠阿里生態,使用Qwen領先模型+深度融合千問,讓人人都能免費享受行業首創的全域AI能力。再加上夸克一貫的「無廣告干擾、啟動載入極速、資料更安全」的基本盤,整體體驗是:把複雜工作流做簡,把必要摩擦力做到最低。這是夸克敢於對標Chrome的底氣——Chrome通過Gemini模型重構搜尋欄,實現自然語言對話與生成式回答;夸克則通過C計畫全面升級為AI的PC超級入口,主打提高生產力:一句話辦成事,工作更絲滑。在這場AI重塑資訊入口的變革中,夸克以全新AI互動形態,通過垂直場景深耕與生態整合建構差異化競爭力。搶攻AI新入口,全球巨頭血戰AI這波浪潮,重新點燃了瀏覽器的戰火。傳統瀏覽器只做兩件事:一是顯示HTML/JS渲染出的頁面;二是根據關鍵詞發起搜尋。比如,想要寫一篇報告,開一堆標籤頁,需要自己搜、自己讀、自己總結,尤其是在資訊極度過剩的今天,更加讓人頭大,且時間成本高。最關鍵的是,它根本不理解人類進行中的任務,也不會歸類tab,針對頁面做總結。還有一個非常重要的因素是,傳統搜尋的商業模式高度依賴廣告,而國內瀏覽器最為典型。對於每個人來說,原本只想找個答案,結果滿屏廣告、雜訊,體驗感大幅降低。大模型的出現,不僅從底層重塑了瀏覽器,還帶來了一場生產力的效率革命。它的核心,就是讓AI去看、去總結,做資訊壓縮和結構化處理,而且讓「智能體」去承接學習、辦公等任務。放眼全球,全球科技巨頭和AI初創公司的重磅玩家們,各有各的打法。以Google、微軟為代表的巨頭,選擇了在傳統瀏覽器上「加AI層」。微軟Edge瀏覽器,將Copilot深度整合到側邊欄中;GoogleChrome接入Gemini,總結網頁、下單等任務皆可實現。而AI瀏覽器「新貴」最典型代表,莫過於Perplexity的Comet,OpenAI的Atlas、原創Arc公司的Dia......Comet直接把Perplexity對話式搜尋嵌入了瀏覽器,以其出色的搜尋、總結、規劃等能力,贏得了行業口碑。Atlas主菜是「智能體」,其「Agent Mode」可自主代勞,完成調研、比價、訂機票等複雜任務。回到國內戰場,一些網際網路巨頭紛紛將AI植入瀏覽器中,而更多在基本上面的能力實現,比如對話、總結這類。AI的滲透,僅停留在表層,並未觸達PC超級入口的核心。可以看到,幾乎每個有實力的玩家,都想要在AI瀏覽器中分一杯羹。夸克的這次升級,直接把戰場天花板拉高了一個量級,加入了全球AI瀏覽器佇列。當系統級全域 AI 變成標配,當「一句話幹活」成為新的互動範式,當瀏覽器從資訊入口升級為智能中樞——2025年這場AI瀏覽器的終極戰,拼的就不再是誰的AI功能多,而是誰能真正改寫人們工作的方式。對阿里而言,此次夸克AI瀏覽器的全面升級,實現超1.1億電腦使用者喚起千問,都是在搶奪當下和未來的流量入口。 (新智元)
全球首個“AI部長”就任,主打一個“沒人性”
今天我們聊聊AI。我們都知道AI正在一步步嵌入人類社會,但你可能想不到,這種嵌入,居然已經深到這個程度。這件事發生在阿爾巴尼亞。前不久,阿爾巴尼亞總理任命了一名新的“公共採購部”部長。這個職位主要負責政府的各項採購。這位新的公共採購部部長,叫迪埃拉,迪埃拉不是真人,而是AI。沒錯,這是全球的第一位“AI部長”。為什麼要讓AI當部長呢?AI部長能靠譜嗎?我們一起來看看。01 全球第一個“AI部長”是怎麼誕生的?迪埃拉的核心演算法,由微軟和OpenAI聯合開發,運行在阿爾巴尼亞政府的電子政務平台上。實際上,迪埃拉早在2025年1月就作為AI助手在這個平台上線了。截至2025年9月初,它出任採購部部長時,迪埃拉已經在平台上處理了3.6萬多份數字檔案,協助提供了近1000項政府服務。阿爾巴尼亞官方生成的“迪埃拉”形象照讓AI當部長,難道當地政府就那麼信得過AI?這背後其實多少有點無奈。讓AI當部長,主要是因為阿爾巴尼亞政府存在一個棘手的問題,腐敗。這個國家的腐敗一度相當嚴重。在2016年的評估報告中,有91%的受訪者認為國家存在腐敗,有一半的受訪者表示政府官員收受賄賂,還有三分之一的受訪者說,曾經被迫行賄。2023年,在一個國際組織的調查中,阿爾巴尼亞的廉潔程度在全球排名第98,在歐洲幾乎墊底。據說阿爾巴尼亞的公共採購裡,充滿了關係戶、走後門、行賄受賄、中飽私囊。甚至還有人說,這個國家的公共採購招投標體系,就是“國際軍火走私和毒品販運的洗錢管道”。這種情況不僅造成了內憂,也極大程度地阻礙了阿爾巴尼亞的對外發展。比如,它想在2030年加入歐盟,但由於歐盟對反腐敗的要求很嚴格,它不達標就進不去。怎麼辦?傳統的人工監管都試過,根本不管用,涉及錢和權力,人與人之間的關係太複雜了,總有各種利益糾葛。於是阿爾巴尼亞政府想了個辦法,乾脆讓AI來管這事兒。迪埃拉就是在這種背景下被推到台前的。迪埃拉這個詞,在阿爾巴尼亞語中是“太陽”的意思,象徵著透明和公正。迪埃拉的目標是,公正地組建團隊,稽核項目,排除政府採購中可能發生的腐敗。就這樣,全球第一個“AI部長”誕生了。02 AI已經開始在責任維度上演化接下來迪埃拉的表現怎麼樣,現在還是未知數。不過,這件事確實帶來一個訊號,這就是,AI在人類活動中的參與,越來越深入了。首先,使用AI的人群基數在不斷擴大。根據最新的AI應用報告,咱們國內有將近6.45億人使用AI應用,這相當於將近一半的中國人都在跟AI打交道。再看國外的資料,根據OpenAI最新發佈的資料,到2025年的7月,它的周活躍使用者超過7億,這個數字相當於全球1/10的成年人。同時,AI和人類的協作關係也在發生變化。最開始,AI只是一個工具,用來娛樂或者處理簡單任務。這個階段裡,AI貢獻的能力不多,並且不承擔任何責任。比如,用AI做個頭像,讓它陪你聊聊天,讓它寫首小詩,或者在遊戲裡跟NPC對話,等等。在這些場景裡,就算AI出了問題也沒什麼大不了的,反正就是娛樂嘛。現在,AI的娛樂屬性依然很強,並且已經發展出一個不小的市場。2025年上半年,全球AI陪伴應用下載量達到6000萬次,同比增長64%。再比如,虛擬偶像也是一類很熱門的應用,2024年中國虛擬偶像市場規模為27億元,全球市場預計2029年能達到40.44億美元。當然,AI能做的事情遠不止娛樂。它也可以進入工作流程,成為人類的助手。這時,AI貢獻了比較高的能力,可以替代一部分人類工作,但責任邊界很清楚,最終決策權還在人類手裡。比如,程式設計領域,GitHub程式設計社區推出了官方的程式設計助手,現在有46%的新程式碼都是由AI編寫的,開發人員整體工作效率提高了55%。再比如,在創意設計領域,根據Adobe的調研,設計師使用AI工具後創意產出能快10倍。當然,到這兒,AI承擔的功能還只是執行層面上的,它並不真正為一件事的結果“負責”。但現在,情況正在發生變化。史丹佛大學的社會與語言技術實驗室,2025年6月份發表了一項新研究,專門考察了人們對“人機協作”的看法。他們發現,差不多一半的人,最喜歡的人機協作方式是“平等合作”,也就是說,大部分人既不想被AI完全替代,也不想徹底拒絕AI,而是希望和AI平等地“共事”。還有不少人表示,既想讓AI幹活,也希望它能對某個環節完全“負責”。而不是AI只負責執行,最後的責任都由人來承擔。你看,我們開頭說的阿爾巴尼亞那個AI部長,它不只是提供建議,而是直接負責公共採購項目的稽核和決策。這意味著什麼?也許,AI已經開始在責任這個維度上演化了。03 AI的優勢可能是“不近人情”為什麼會出現這種變化?就拿阿爾巴尼亞來說,表面上看,是因為阿爾巴尼亞的腐敗太嚴重,傳統的人工監管根本管不住。但往深了想,問題的核心在於:涉及錢和權力,人與人之間的關係太複雜了。有利益糾葛,有人情往來,有各種算計。你讓一個人去監管另一個人,他能做到完全公正嗎?很難。這時候,AI的優勢就顯現出來了。不是因為AI比人更聰明,而是因為AI“不近人情”。它不會算計利害關係,不怕得罪人,不會因為某個官員是自己的老同學就網開一面,也不會因為擔心影響仕途就睜一隻眼閉一隻眼。AI理論上可以做到只看資料,只看規則,只看結果。這種“不近人情”,在很多需要中立決策的場景中,反而成了最大的價值。萬維鋼老師曾經講過一個美國換水管的例子。密歇根州的一座城市要改造含鉛的舊水管,但問題是,你得先把水管挖出來才知道是不是含鉛。那先挖誰家的呢?2017年,密歇根大學的兩個教授開發了一個AI,能以80%的精準率預測那家水管含鉛。當地政府用了這個AI,一開始效果不錯,精準定位,節省成本。但工程開展一段時間後,居民開始抱怨了。為什麼鄰居換了,我家沒換?富人區的居民還會質疑,怎麼不優先換我們的?市長一看受到這麼多抱怨,開始擔心自己的政績要受損。他決定不聽AI的了,改成挨家挨戶慢慢換,這樣誰也不得罪。結果呢?決策精準率從80%直接降到了15%。大量資源被浪費,真正需要換水管的家庭反而被耽誤了。後來當地強制規定,換水管必須先聽AI預測,精準率才又提高回來。你看,這個案例說明了什麼?不是AI比市長更懂水管,而是市長作為一個政治人物,他必須考慮民意、考慮選票、考慮自己的政治前途。這些考量都很正常,但它們會干擾決策的科學性。AI不需要考慮這些。它不用競選連任,不怕被罵,只要資料和演算法告訴它應該先挖那家,它就會給出這個答案。再看一個例子。自媒體半佛仙人曾經提過一個觀點:公關行業最主流的流派,是老闆拍腦袋。怎麼寫會被誇,怎麼寫會被罵,其實從事公關工作的人大差不差都明白。但問題不在於誰更懂,而在於誰說了算。很多“災難性公關”,比如道歉信開頭先誇自己一大段,比如公開發佈的內容充滿低級錯誤,都不是因為公關團隊不專業,而是因為老闆堅持要這麼寫。為什麼?因為老闆有自己的考量。他可能覺得認錯就是示弱,他可能擔心股價下跌,他可能想維護個人形象。這些都是人之常情,但老闆的判斷會讓公關決策偏離專業判斷。退一步講,公關團隊的本質也依然是僱員,僱員會主動跟老闆對著幹嗎?老闆要“開戰”,他們就不能“示弱”,即使明知道示弱是有利的,他們也得把想法咽進肚子裡。而且要知道,但凡一個企業到了需要危機公關的階段,老闆往往都正在氣頭上。公關團隊更不會跟氣頭上的老闆對著幹。但是,假如引入AI呢?AI不會有個人利益考量,不怕得罪老闆,可以基於資料和輿情分析給出相對客觀的建議。當然,最終決策權還是在人類手裡,但至少,AI能提供一個不受“個人算計”干擾的參考答案。所以你看,AI開始承擔責任,不是因為它取代了人類的智慧,而是因為它補上了人類決策中最容易出問題的那一環——人的因素。在很多場景中,人既是決策者,也是干擾源。我們有情緒,有利益,有關係網,有各種顧慮。這些都是人性,但它們會讓決策偏離最優解。AI的“不近人情”,恰恰讓它能做出那些“應該做但人類不敢做”的決策。當然,這不意味著AI就能完全替代人類。畢竟,責任這個東西,從來都不只是做決策那麼簡單,它還包括承擔後果、接受問責、做出調整。這些,目前的AI還做不到。但至少,AI在責任維度上的演化也許已經開始了。從只提供能力到開始承擔責任,這可能是AI融入人類社會的下一個關鍵節點。(羅輯思維)