#AI智能
深夜王炸!輝達開源最強AI智能體模型,效率狂飆900%
就在剛剛,老黃深夜炸場了!4月29日消息,輝達今晨重磅推出Nemotron 3 Nano Omni開源全能多模態大模型。該頂尖AI多模態模型,採用30B-A3B MoE混合專家架構,整合視覺、語音、文字多維能力於一體。幫助AI智能體依託視訊、音訊、圖像、文字全維度資訊開展深度推理,輸出更快、更智能的互動應答,為企業與開發者提供可落地的工程化方案。同時,該模型顯著提升了大規模推理效率。它不僅效率高,而且擁有強大的多模態感知精度,使AI系統的吞吐量比其他具有相同互動性的開放式全向模型高出9倍(900%)。最終實現了更低的成本和更好的可擴展性,同時又不犧牲響應速度或質量。輝達表示,新模型在MMlongbench-Doc和OCRBenchV2等文件智能排行榜上提供了一流的精準性,同時在視訊和音訊理解方面也處於領先地位,在WorldSense、DailyOmni和VoiceBench等排行榜上名列前茅。除了準確率之外,MediaPerf(一個開放的行業基準測試,它使用真實媒體資料和製作任務,從質量、成本和吞吐量等方面評估視訊理解模型)顯示,Nemotron 3 Nano Omni 在所有任務中都實現了最高的吞吐量,並且在視訊級標註方面推理成本最低。值得一提的是,另一家矽谷AI巨頭依然發佈重要消息。針對市場有關銷售增長放緩及未達內部目標的擔憂,OpenAI周二公開回應稱,公司消費端與企業業務正“全速運轉”,需求持續增長,並淡化相關負面報導影響。OpenAI在聲明中表示,來自企業客戶的需求及其尚處於起步階段的廣告業務仍在持續增長。“公司內部氛圍非常積極,”該公司在一份聲明中稱。《華爾街日報》周一晚間報導,隨著競爭對手不斷取得進展,OpenAI已未能實現多個內部目標。OpenAI將該報導形容為“典型的標題黨”。輝達最強模型設計與跨模態資料和訓練Nemotron 3 Nano Omni 架構將多模態感知和推理整合到一個 30B 混合 MoE 模型中,原生支援文字、圖像、視訊和音訊輸入,同時在代理循環中保持統一的多模態上下文,無需單獨的視覺、語音和語言模型。該產品採用融合Mamba層與Transformer層結構,分別強化序列記憶體效率與推理精準度,大幅提升模型吞吐量,記憶體與計算效率最高可提升4倍,適配各類子智能體應用場景。在視訊處理層面,Nemotron 3 Nano Omni依靠3D摺積捕捉畫面幀間運動特徵,並通過高效視訊採樣層壓縮多幀高密度視覺標識,保障大模型在上下文限制內順暢完成視訊內容解析。多模態體系以成熟文字模型作為核心解碼器,保留原生語言能力的同時搭建跨模態適配橋樑,有效降低多模態訓練的難度、成本與不穩定性,強化連續感知任務的綜合表現。音訊能力依託NVIDIA Parakeet編碼器及定製化專業資料集搭建,結合Granary、Music Flamingo等技術實現超越基礎語音轉錄的多元化音訊理解能力。視覺模組搭載C-RADIOv4-H編碼器與視訊摘要技術,通過分層壓縮策略應對高畫質圖像與動態視訊處理需求,精準保留畫面細節並保障OCR識別精度。該模型基於海量跨模態資料與指令調優完成訓練,面向真實智能體場景打造,可獨立處理圖文音視訊多類型指令,充當大型智能體系統的多模態感知子模組,全流程由NVIDIA NeMo Evaluator庫完成性能評測。依託文件、截圖、音視訊等多元大規模資料開展介面卡與編碼器訓練,讓模型在複雜企業級感知任務中具備出色泛化能力。NVIDIA 通過 Nemotron 3 Nano 和 Nemotron 3 Super 發佈了業界最全面的基於文字的智能 AI 開放 資料集,其中包括:10T+ 預訓練標記、4000+ 訓練後樣本、20 多個 RL 環境配置和完整的訓練方案,所有這些都是公開可用的。借助NVIDIA Megatron-LM落地多階段監督微調流水線,循序漸進拓展模態適配範圍,逐步將上下文長度從16K提升至262K,築牢跨模態指令跟隨基礎。模型層面約 1270 億個標記,涵蓋文字+圖像、文字+視訊、文字+音訊和文字+視訊+音訊等混合模態——反映了真實世界的上下文互動,而非單一模態資料。針對真實世界任務的訓練後訓練:約 1.24 億個精心挑選的多模態組合示例(文字+音訊、文字+圖像、文字+視訊和文字+視訊+音訊),旨在支援文件推理、電腦使用和長期工作流程。模型在監督微調後開展多環境強化學習,覆蓋25種環境配置,依託NVIDIA NeMo系列工具完成超230萬次環境部署,持續增強多模態任務與智能體工作流的運行穩定性。輝達還提供了使用 NVIDIA NeMo Data Designer建構的合成資料生成 (SDG)流水線,用於對 Nemotron 3 Nano Omni 進行後訓練,以使其能夠勝任複雜的長文件理解任務。通過迭代的流水線開發、訓練和故障分析,我們最終將一系列生成約 1140 萬個合成視覺問答對(約 450 億個tokens)的流水線整合到 Nemotron 3 Nano Omni 的最終訓練資料集中。圖像訓練資料已公開。借助底層圖像資料和模型,開發人員可以檢查、調整和擴展多模態訓練流程。對於以往維護各自獨立的視覺、語音和文件資料棧的企業而言,Omni 將這些資料棧整合到一個單一的、可用於生產環境的基礎架構中,從而降低了跨模態部署智能體的門檻。已經採用 Nemotron 3 Nano Omni 的人工智慧和軟體公司包括Aible、Applied Scientific Intelligence (ASI)、Eka Care、富士康、H Company、Palantir 和Pyler,而戴爾科技、DocuSign、Infosys、K-Dense、Lila、Oracle和Zefr正在評估該模型。H Company首席執行長Gautier Cloix表示,“要建構實用的智能體,不能讓模型花費數秒時間來解讀螢幕。基於Nemotron 3 Nano Omni,我們的智能體可以快速解讀全高畫質螢幕錄影——這在以前是無法實現的。這不僅僅是速度的提升,更是智能體即時感知和與數字環境互動方式的根本性轉變。”OpenAI回應:商業化沒放緩此前,《華爾街日報》報導稱,隨著競爭對手搶佔市場,OpenAI未能達成若干內部增長目標。報導還稱,OpenAI首席財務官Sarah Friar擔憂,若銷售增長不足,公司未來可能無力承擔不斷攀升的算力需求。如果收入增長速度不能進一步加快,OpenAI 未來能否支撐龐大的資料中心和算力合同成本?該消息出現在 OpenAI 衝刺潛在 IPO 的關鍵階段,也讓市場重新審視 AI 基礎設施投資的回報周期。受此影響,OpenAI 相關概念股出現明顯下跌。其中,甲骨文跌超4%,CoreWeave跌超5.7%。股價的波動凸顯了OpenAI在涉及頂尖雲端運算供應商和晶片製造商的複雜投資與交易網路中所扮演的核心角色。投資者本就對AI基礎設施泡沫日益擔憂,紛紛質疑OpenAI及其他科技公司未來數年投入數千億美元建設資料中心和採購晶片的計畫。與此同時,投資者對AI基礎設施泡沫擔憂也持續升溫。市場開始質疑OpenAI及其他科技公司未來數年投入數千億美元建設資料中心與採購晶片的計畫能否帶來合理回報。對此,OpenAI表示,公司仍將擴大算力資源視作“關鍵推動因素”,認為更多計算能力將幫助其持續改善客戶產品體驗。公司稱,推動更多算力部署不僅是成本投入,更是支撐長期競爭優勢的重要基礎。OpenAI本月稍早曾向投資者表示,早期大幅擴充計算資源,使公司在與長期競爭對手Anthropic競爭中具備關鍵優勢,儘管後者近期正快速追趕。不過,值得注意的是,即便在《華爾街日報》報導發佈前,OpenAI實際上已開始對基礎設施投資採取更審慎態度。公司近期表示計畫暫停英國一個項目,同時,微軟同意租賃原本擬供OpenAI使用的挪威資料中心容量。另據3月報導,由於融資談判拖延,甲骨文與OpenAI已放棄擴建德州旗艦AI資料中心計畫。市場人士認為,這些調整顯示OpenAI並未無節制擴張,而是在高投入戰略與資本約束之間尋求平衡。Wedbush 分析師DivesTech認為,《華爾街日報》報導 OpenAI 最近未能實現其新使用者和收入目標後,甲骨文遭到拋售,這是一種“過度反應”。Wedbush 認為 OpenAI 在消費者和企業市場都獲得了“非常高的需求”。該公司“強烈”不同意其增長放緩的說法。分析師在一份研究報告中告訴投資者,甲骨文5530 億美元的積壓訂單主要來自未來五年與 OpenAI 簽訂的價值 3000 億美元的雲合同,該項目預計將為公司貢獻 300 億美元的收入。該行對甲骨文完成 5000 萬美元融資的能力充滿信心。該行認為近期圍繞 OpenAI 的擔憂被誇大了,並表示該公司擁有足夠的資金來滿足其至少未來三年的計算能力需求。此外,一直以來,微軟與OpenAI的合作被視為科技屆最成功的“聯姻”。微軟向OpenAI累計投資130億美元,一步步助推後者成為世界級AI巨頭。而微軟也依靠OpenAI拿到了AI時代的核心入場券。然而在今年4月27日,微軟與OpenAI雙雙在官網發佈了一份公告“修訂後的協議,釐清長期合作細則(Amended Agreement Provides Long-Term Clarity)”,對兩家公司延續七年的合作框架作出重大調整。兩家公司在收入分配上也做出了重新調整。微軟將不再向OpenAI支付收入分成,OpenAI對微軟的收入分成持續到2030年,並設總額上限。此外,微軟將繼續“以核心股東身份深度參與OpenAI的長期發展。也就是說微軟作為持股27%的OpenAI最大股東仍然可以享受OpenAI的增長紅利。而且,此前的協議規定一旦OpenAI被認定實現AGI,收入分成即停止。修訂後的協議則取消了這一觸發條款,也就是無論OpenAI是否達成AGI,微軟都能穩定收到至2030年的分成。在這份聲明的最後,兩家公司強調,雖然本次修訂簡化了合作關係,但兩家公司共同推進事業的野心不變。聲明還提到了兩者其他的一些意向合作領域,包括“新建千兆級算力資料中心、聯合研發新一代晶片、AI技術在網路安全領域的落地”等。雙方將繼續攜手合作,為全球的個人與組織推進並擴展AI的發展。 (智能紀元AGI)
20億美元收購案被直接叫停!美媒破防:中國不講自由?真相太打臉
4 月 27 日中國國家發改委一紙通報,直接叫停了一筆 20 億美元的跨國收購。消息一出美國媒體集體炸鍋。彭博社哀嘆一個時代結束了,華爾街日報抱怨手伸太長,還有人直接扣上破壞自由市場的帽子。可只要稍微往前翻一翻,就會發現這場指責有多諷刺。這次被收購的 Manus,是去年橫空出世的中國國產通用 AI 智能體。它的核心技術是中國團隊研發的,核心人才全是中國人,成長過程也完全依託中國的 AI 基礎設施和產業環境。它只是悄悄把註冊地遷到了新加坡,裁掉了中國大部分團隊,遮蔽了中國 IP,就想換個馬甲賣給美國的 Meta。很多人以為這樣就能繞開監管。但監管部門早就盯上了這筆交易。從 1 月 8 日啟動調查到 4 月 27 日下達禁令,整整用了 109 天。全程嚴格按照法律程序走,給足了雙方申訴和整改的機會。可對方始終避重就輕,一門心思指望境外殼公司矇混過關。最終的叫停決定,完全符合中國的外商投資安全審查辦法。而美媒口中的自由市場,在美國自己那裡早就成了笑話。美國的國家安全審查機制 CFIUS,早在 1975 年就成立了,比中國早了整整 46 年。全球商界都叫它併購粉碎機。最典型的例子就是幾年前的 Magnachip 收購案。中資智路資本出價 14 億美元,收購這家韓國晶片公司。這家公司的生產研發全在韓國,銷售也基本不在美國。就因為它在紐交所上市,CFIUS 直接以國家安全為由否決了交易。沒有公開證據,沒有正式聽證,智路資本最後還被迫支付了 7020 萬美元的終止費。類似的操作美國做過無數次。圍剿 TikTok 四年拿不出任何證據,逼著字節跳動要麼賣要麼關。輝達的先進晶片說斷供就斷供,連聽證會都不開。還直接出台規定,禁止美國風投向中國 AI 領域投一分錢。這是中國 2021 年實施審查辦法以來,首次公開叫停 AI 領域的外資收購。而美國 CFIUS 公開否決的中資科技收購,早就不止三筆了。美媒真正憤怒的根本不是自由市場被破壞。他們生氣的是,過去只有美國能用國家安全當藉口卡別人,現在這個規則居然被別人用了。很多人有個誤區,覺得公司註冊在那,它就是那的。但對科技公司來說,核心技術在那,核心團隊在那,它的根就在那。換個馬甲就能把國家培育出來的核心技術打包賣掉,這種空子本來就不該存在。自由市場從來不是沒有邊界的自由。任何主權國家,都有權保護自己的核心利益和國家安全。美國自己玩了幾十年的規則,現在輪到別人用了就跳腳罵街。這不是中國不講自由,這是用美國的鏡子,照出了它自己的雙標真面目。 (科技直擊)
如何看待中方叫停Manus併購案?
廣受關注的美國科技巨頭Meta收購中國AI公司Manus一事有了最新進展。27日,中方發佈資訊,外商投資安全審查工作機制辦公室(國家發展改革委)依法依規對外資收購Manus項目作出禁止投資決定,要求當事人撤銷該收購交易。這一決定合理、合法、必要,既是中國政府履行監管職責的體現,也符合國際社會在戰略技術領域加強安全審查的通行做法。2025年3月,蝴蝶效應公司推出Manus。作為全球首個通用AI智能體,Manus憑藉一段演示視訊一夜爆火,體驗碼一度被炒至數萬元人民幣。Manus也因此一度被業界視作“第二個DeepSeek”。短短數月後,Manus將總部遷至新加坡,大幅裁減國內團隊,僅保留核心技術人員,徹底停止中國境內服務與營運。去年12月,Meta高調宣佈以約20億美元收購Manus,成為Meta史上第三大併購案。這起併購案自曝光之初就充滿爭議。最大的質疑點在於,Manus作為一家依靠中國工程師和基礎設施環境發展起來的AI公司,在獲得美國投資後突然與中國元素進行“切割”,當時業界就有不少聲音認為這可能是一次逃避管制的“洗澡式出海”。此外,這一併購案也引發了“併購式招聘”的質疑,認為併購的主要估值指標是人和團隊。一家美國律所指出,人才留用是這類交易的核心條款,併購實際是招聘手段。由於這起併購案涉及到中國、美國、AI等元素,中方的決定引發外界關注,也出現了一些過度解讀。儘管中方目前尚未披露叫停併購案的具體原因,但在這當中,有三點是非常明確的。第一,中方有權對這起併購案依法依規實施干預。一些聲音認為,目前Manus沒有團隊在中國國內,也沒有面向國內市場的實際產品,只是項目早期產品在中國開發而已,因此給中方叫停併購案扣上“長臂管轄”的帽子。所謂“長臂管轄”,是以本國法律延伸至境外,以國內法制裁第三方實體的做法。但中方叫停Manus併購案完全不是這種情況。儘管在Meta宣佈併購Manus時,後者已經成為“新加坡公司”,但中方是否有權干預,核心不在於該公司當前的註冊地或營運團隊所在地,而在於其技術、人才、資料與中國的關聯性,以及交易是否可能危害中國的產業安全與發展利益。Manus早期研發在中國落地,核心資料取自中國,這些關鍵特徵決定了其人員、技術、資料的流動必然與中國利益產生關聯。根據《外商投資安全審查辦法》《中國禁止出口限製出口技術目錄》以及新修訂的《中華人民共和國對外貿易法》,此類技術的出口、跨境轉移及相關投資活動,必須依法接受安全審查、評估,直至獲得許可。中方對這項交易行使管轄權有著充分且堅實的法律基礎。第二,中方叫停這次交易,符合國際慣例。有西方媒體宣稱,中方此舉是出於對美競爭的地緣政治考慮,針對美國企業而做出的。這種說法頗有些“賊看誰都像賊”的意味。在全球範圍內,涉及AI、資料、演算法、關鍵軟體、核心團隊和敏感技術的跨境併購,從來都不是普通商業交易。近年來,各國普遍加強了投資安全審查,審查對象不僅包括併購項目、還包括新設項目等綠地投資,審查範圍還涵蓋了生物醫藥、裝備製造等多個領域,中國的監管完全符合國際通行做法。第三,叫停這起併購案,絕非意味著中國營商環境“收緊”。中國持續最佳化外商投資環境,2024年以來多次縮減負面清單,服務業、高端製造等領域外資准入持續放寬。禁止一單AI敏感併購,與鼓勵外資在華興業投資並不矛盾。恰恰相反,明確安全邊界,才能讓合規外資吃下“定心丸”,增強長期信心。越是開放程度提高,越需要規則更加完善、邊界更加清晰、預期更加穩定。歐盟、美國、日本均有類似機制,卻未阻擋其成為全球投資熱門地。中國作為全球第二大外資流入國,依法開展安全審查與擴大開放合作相輔相成,缺一不可。AI是全球新一輪產業變革的核心賽道。依託超大規模市場優勢、完整的產業鏈配套、海量應用場景以及持續完善的政策體系,中國AI產業已步入高速發展期,創新活力持續迸發,中國也成為全球AI創新的沃土。希望包括Manus在內的更多科創企業,都在中國這片藍海中找準位置,安心發展,做大做強,實現更好的發展與超越。 (環球時報)
【北京車展】當「流量戰」和「價格戰」褪去,還剩下什麼?
“高階智駕普及、AI智能座艙、9系車型大戰,是這屆車展的主要看點。”4月24日,北京車展正式開幕。早上9點,小米汽車率先打響車展新聞發佈會第一槍,當雷軍站在舞台中央預告小米下一款新車YU7 GT將於5月亮相時,其也為小米汽車今年的節奏定調:SU7、YU7的衍生車型,以及基於崑崙平台的全新增程產品,將在接下來的幾個月密集登場。僅僅20分鐘後,隔壁展台的理想汽車接棒上場。李想在舞台中央,從容而興奮地講述全新一代理想L9 Livis的設計與技術細節,氣氛到達頂點時還親自演示起了防夾手車門。全新一代理想L9 Livis將於5月15日正式上市。與小米汽車一樣,理想汽車在車展也是為今年密集新產品作節奏鋪墊。兩大流量巨頭的開場之後,整個新國展陷入了一種前所未有的喧鬧。據雷峰網不完全統計,僅24日一天,全館就密集舉行了162場新聞發佈會;25日這一數字仍超過60場。兩天累計超215場發佈會,頻率之高令人咋舌。從A1到A4,從B1到B4,再從W1到W4與E1到E4,17個展館幾乎在同一時間此起彼伏地響起音樂與掌聲。燈光、視訊、演講交錯進行,每一個展台都在試圖成為中心。密集的新聞發佈,將這屆車展推向了一個在規模與聲量上都具備全球領先意味的高度。官方將本次車展定調為“全球之最”——展會總展出面積達38萬平方米,規模躍居全球車展首位;展車總數1451台,包含首發車181台,概念車71台。“這不僅是北京車展在規模上的歷史新高,也躍居全球車展首位,是全球規模和影響最大的汽車展會。”官方如是總結。當一系列“之最”數字疊加215場發佈會的密集轟炸,本屆車展顯然已不再是簡單的產品秀場。回望2024年,“流量戰”成為車展最核心的焦點;2025年,“價格戰”讓全行業陷入內卷泥潭。而2026年,當所有玩家都已就位、所有技術都已趨於同質,這場“全球之最”的車展,真正的看點在那裡?01. 智駕的“頂天立地”:高階智駕普惠以及L3商用元年2026年,當一家車企還在將高階智駕作為頂配車型的溢價籌碼時,它已經輸了。本屆北京車展釋放出的最強烈訊號是:高階智駕正在經歷一次前所未有的普惠化運動。在零跑展台,售價8萬級的A10成為了智駕普惠化的最佳代表,該車是市場上首款將“車位到車位”領航輔助駕駛帶入10萬元以內市場的車型。上市48小時大定破萬、28天大定突破4萬台的A10,向行業證明了:消費者不是不需要智駕,而是此前智駕太貴了。平民車型A10搭載高階智駕背後反映的不是簡單的配置下放,而是高階智駕整個市場開始走向規模優先,而不是此前的技術為王。當下,感知硬體的標準化、算力平台的規模化、演算法能力的復用,讓原本動輒數萬元的智駕系統,開始具備大規模複製的條件。如果說以零跑為代表的公司做的是智駕真正意義上的平權,那麼華為等智駕玩家則在這屆車展上釋放了另一個訊號:L3級智能駕駛的商用元年,真的來了。本屆車展上,華為乾崑ADS 5.0正式亮相,與此同時華為正式開啟了L3的商用。在60-120km/h的高速公路及城市快速路上,當系統啟動後,駕駛員可合法地脫手、脫腳,並將視線轉移至非駕駛相關活動。目前,ADS 5.0 L3系統已在北京、上海、廣州等全國23個核心城市完成路測認證,並將於2026年內實現規模化落地。此外,為了打消使用者對L3的顧慮,華為與國內車企共同明確了L3的責任歸屬:在系統啟動且未要求接管的情況下發生交通事故,責任將由華為與合作車企共同承擔。同時,配備ADS 5.0 L3的車型將配置600萬元的專項保險,以解決使用者對L3功能“不敢用、怕擔責”的擔心。在本屆車展上,多家車企開始明確展示具備L3能力的硬體與技術儲備。以嵐圖泰山為代表,這類車型已經在架構層面預留了L3自動駕駛所需的冗餘能力,包括更高等級的感知體系、更強的計算平台以及更完善的安全機制。這意味著,行業已經從“討論L3”進入到“準備落地L3”的階段。此外,極狐阿爾法S、深藍 SL03是首批獲准入許可的L3自動駕駛車型;小鵬搭載三顆圖靈晶片的車型號稱也具備L3能力。L3商用的“頂天”到高階智駕普惠的“落地”,智駕競爭將進入新階段。02. 智能座艙的進化:從“車機”到“智能體”如果說上一代智能座艙的競爭焦點是“螢幕夠不夠大、晶片夠不夠快”,那麼本屆北京車展展示的則是另一幅圖景:AI大模型正在重新定義人車關係。在吉利展台上,極氪8X上搭載的由千里科技、階躍聯合開發的座艙智能體“超級Eva”勾起了很多人的體驗慾望,其核心突破在於:從此前“一問一答的Chatbot”進化為可處理複雜任務的整車智能體。使用者只需說一句“帶我去接孩子放學,順便找一家可自提的麥當勞,5點前到學校”,系統便能自主規劃路線、啟動智駕、途中下單、零時取餐、校門口自動泊車,號稱全程無需人工干預。而這一賽道的競爭遠不止吉利一家。榮威在本屆車展帶來了全球首款“AI原生汽車”家越07,其與火山引擎深度合作,推出行業首個AI原生技術架構“CPP”。這一架構的顛覆之處在於:AI大模型首次深度接入實體汽車,實現對物理裝置的調度、決策與執行,完成AI從“網際網路場景”向“物聯網場景”的跨越。榮威的戰略意圖十分明確,讓汽車成為行走在現實世界中最具代表性的“具身智能終端”。在更廣泛的展館裡,阿里巴巴千問大模型、字節跳動豆包大模型、科大訊飛星火大模型、商湯絕影大模型等紛紛亮相,分別與多家車企展示了聯合開發的智能座艙解決方案。例如,阿里雲在車展宣佈,長安、東風、北汽、比亞迪、吉利、長城、理想、上汽大眾、上汽智己等整車品牌將接入千問。未來,這些車企的部分車型將在車內可實現複雜路徑規劃、閒聊、查新聞、訂酒店、買門票、點外賣、查快遞等全場景服務。這些動作都指向了一個清晰的趨勢,未來座艙不再是一個介面,而是一個具備認知能力的系統;更重要的是,大模型正在打破座艙與智駕之間的邊界。這意味著,當大模型能夠理解使用者的情緒、預判使用者的需求,甚至主動提供服務時,車機這個概念,就將被智能體取代。03. 自主品牌沖高:“9系”宇宙的全面戰爭如果你走進本屆北京車展,會發現一個有趣的現象:幾乎每一個自主品牌的展台上,都停放著一台名字裡帶“9”或“8”的大型SUV。這不是巧合,而是一場自主品牌圍繞30萬以上高端市場的集體突圍。理想汽車帶來了全新一代L9 Livis,定價55.98萬元,搭載雙5nm自研馬赫100晶片,總算力高達2560TOPS,全線控底盤硬體預埋L3級自動駕駛。蔚來ES9以52.8萬-65.8萬元的預售價亮相,採用900V高壓平台,車長超5.37米,軸距達3.25米;小鵬GX預售價39.98萬元,全球首發全域線控轉向系統,預埋L4級智駕硬體;魏牌9X預售價37.18萬-41.18萬元,全系標配後輪轉向,轉彎半徑僅5.1米;零跑D19則以21.98萬-26.98萬元的價格,將大型SUV門檻下探至20萬級。更高端的,是問界全新M9 Ultimate領世加長版——預售價66.98萬元起,搭載6顆雷射雷達(含一枚896線雷射雷達),將“科技豪華”的敘事推至新高度。比亞迪則攜大唐EV(預計售價25萬-30萬元)與仰望U8L雙線出擊,前者提供950公里續航與兆瓦級閃充,後者則是在百萬級市場的又一次品牌試探;極氪8X、智己LS8等車型同樣以“8系”之名加入戰局,與理想L8、問界M8形成正面交鋒。在這場“9系宇宙”的戰爭中,各家的技術路線呈現出鮮明的差異化。理想L9 Livis主打“AI家庭旗艦”,強調全線控底盤與L3硬體預埋,同時以雙馬赫100晶片支撐艙駕融合;蔚來ES9堅持“純電+換電”路線,900V高壓平台與BaaS方案將購車門檻降至42萬元;小鵬GX則以全域線控轉向和圖靈AI晶片(總算力3000TOPS)建構技術護城河。問界M9依靠華為乾崑ADS 5.0與鴻蒙座艙5.2,深度繫結華為生態;比亞迪則通過“兆瓦閃充2.0”與全固態電池展示的技術儲備,建構垂直整合的競爭壁壘。這一輪“沖高”與前幾年最大的不同在於:自主品牌不再只是“堆料”,而是開始在核心技術領域建立真正的差異化優勢。 理想的馬赫100晶片、華為的ADS 5.0、比亞迪的兆瓦閃充,等等,每一項都是需要多年研發積累才能攻克的硬核技術。從市場資料來看,自主品牌在高端市場的攻勢已經初見成效。2026年一季度,SUV市場自主品牌銷量佔比達60%,3月單月更升至66.2%。同期蔚來、理想、極氪分別實現136%、11.9%和90%的同比增長,主要增量均來自中大型及以上SUV細分市場。這意味著,30萬以上的價格帶,BBA腹地已丟失大半。04. 合資品牌不再“被動挨打”:從“拿來主義”到“中國定義”當自主品牌在高端市場高歌猛進時,合資品牌也沒有坐以待斃。本屆北京車展上,一個鮮明的訊號是:BBA與大眾等合資巨頭,正在發起一場前所未有的反擊戰。與以往將全球車型直接匯入中國的“拿來主義”不同,此次合資品牌的新車呈現出三大共性特徵:一是研發主導權向中國團隊傾斜,二是在智駕等核心領域全面採用中國方案,三是產品定義完全圍繞中國使用者需求展開。寶馬新世代iX3長軸距版是這一策略的代表。這款車不僅為中國市場加長軸距,更值得注意的是,其70%的作業系統程式碼由中國團隊開發。同時,寶馬與Momenta合作開發全場景領航輔助,聯合阿里定製AI大模型,CLTC續航超900公里。奔馳方面,純電GLC全球首發,基於MB.EA純電平台打造,支援800V架構,搭載自研MB.OS架構及與Momenta合作開發的中國專屬全場景輔助駕駛系統。奧迪同樣加大攻勢。上汽奧迪純電旗艦E7X標配後輪轉向、空氣懸架及CDC減震,智駕引入Momenta;一汽奧迪首次在燃油車A6L上引入華為乾崑智駕系統。這種“燃油車+華為智駕”的組合,是奧迪在智能化轉型期守住燃油車基盤的巧妙策略。大眾ID.ERA 9X作為上汽大眾品牌增程旗艦,預售價32.98萬-37.98萬元,搭載1.5T增程器,綜合續航達1651公里。值得注意的是,大眾同樣選擇了中國智駕方案,深度繫結Momenta。在主流市場,東風日產NX8以14.99萬元的起售價,成為合資品牌“價格下探”的排頭兵。其“AI舒享五件套”的配置策略,明顯是對標自主品牌的打法。Momenta成為本屆車展上最忙碌的供應商之一。其R6/R7強化學習大模型已上車奔馳、寶馬、奧迪、豐田、日產等幾乎所有主流合資品牌,提供覆蓋高速、城區、泊車的全場景NOA能力。這種“外資品牌+中國智駕”的合作模式,標誌著合資品牌在智能化領域的戰略轉變:既然自研趕不上,不如直接採購中國最先進方案。但不可忽視的是,相比自主品牌的激進與快速迭代,合資品牌整體仍然顯得節奏偏慢。這並非單純的技術問題,而是體系問題。在全球架構與本土需求之間,合資品牌需要更多時間完成決策與調整;而在軟體定義汽車的時代,這種“時間差”往往會被進一步放大。因此,本屆車展上合資品牌的“反攻”,更多是一種姿態與訊號:它們正在加速轉型,但距離真正完成轉身,仍需時間。從更深層次看,合資品牌的這場“反攻”本質上是生存驅動的轉型。2026年一季度,寶馬在華交付14.4萬輛,同比下降10%;奧迪交付12.71萬輛,同比下降12%;奔馳交付11.16萬輛,同比下滑27%。三者合計同比減少近7萬輛。在產品力上,合資品牌依靠中國供應鏈的800V平台、高階智駕、AI座艙,正在縮小與自主品牌的技術差距。但這場“反攻”能奏效嗎?答案取決於兩個變數:一是價格,二是時間。 當合資品牌的產品力與自主品牌相當、價格卻高出30%以上時,消費者的品牌忠誠度能支撐多長時間?這將是2026-2027年中國汽車市場最值得關注的懸念。05. 底層的技術革命:線控底盤、閃充軍備競賽當智駕和座艙成為廠商宣傳的“面子”時,真正的“裡子”正在底盤、三電等消費者看不見的地方展開。本屆北京車展上,線控底盤、800V高壓平台、兆瓦閃充等底層技術,正在從“概念驗證”走向“全面量產”。首先是底盤技術的範式革命。傳統機械底盤正在被全線控底盤取代,後者不僅支援L3/L4級自動駕駛所需的冗餘控制,還能實現後輪轉向、四輪獨立驅動等提升操控靈活性的功能。理想L9 Livis全系配備800V全主動懸架和全線控底盤,硬體預埋L3級自動駕駛。小鵬GX全球首發博世全域線控轉向系統,取消了傳統機械轉向柱,為L4級自動駕駛鋪平道路。蔚來ES9同樣配備線控轉向、後輪轉向及全主動懸架。魏牌9X全系標配後輪轉向,轉彎半徑僅5.1米,大型SUV的靈活性甚至可以媲美緊湊型轎車。嵐圖泰山X8則配備了雙向16度後輪轉向與三腔空氣懸架、EDC魔毯技術,將底盤舒適性與操控性提升至新高度。這些底盤技術的共同特徵是:從“被動適應”到“主動控制”的跨越,懸架可以根據路況即時調節阻尼,後輪可以根據車速和轉向角度主動偏轉,車輛不再是對駕駛者指令的被動響應,而是成為主動參與駕駛過程的“智能夥伴”。其次是補能體系的“軍備競賽”。800V高壓平台已不再是50萬以上車型的專屬配置,而是成為30萬等級甚至20萬級車型的標配。本屆車展上,比亞迪、理想、問界、小鵬等主流車企的重點新車均支援800V。在本屆北京車展上,比亞迪重點展示了閃充技術,已實現常溫下5分鐘從10%充至70%,並在-30℃環境下仍具備高效充電能力,直接解決電動車在極端場景下的補能痛點  。與此同時,比亞迪不再單純強調單一電池性能,而是將電池、整車與充電體系打通,建構“電池+平台+補能網路”的一體化方案。作為電池行業霸主,在本屆北京車展上,寧德時代的展示,已經不再侷限於電池供應商的角色,而是試圖以能源科技平台的身份重塑行業認知。其在W4館打造超過1500平方米的“能源科技體驗區”,集中展示從電芯到能源網路的全鏈路能力,包括新一代超快充電池、鈉離子電池以及凝聚態電池等前沿技術。總結來看,本屆車展在底層技術維度呈現出“三箭齊發”的態勢:800V普及化、快充電池全面落地、線控底盤全面上車。這三條技術路線共同指向一個方向:智能電動汽車正從“功能疊加”走向“底層重構”,真正意義上的“軟體定義汽車”正在從底層硬體開始變為現實。06. 當集糰子品牌“重新組團”本屆車展呈現出的另一個趨勢是,中國車企多以集團形式參展。比亞迪、吉利、長城、奇瑞等車企,均不再以單一品牌單獨設館,而是以集團形式包下半個館甚至一整個展館。一位投資人告訴雷峰網,中國車企以集團軍形態參加車展,背後體現的不僅是行業整合背景下的內部協同能力,更體現的是全球化背景下面向海外客戶的整體亮相。位於E3館的比亞迪,是本屆車展“集團作戰”的代表。其包下了整個E3館,展出了王朝、海洋、騰勢、仰望、方程豹五大品牌矩。一位海外觀眾感嘆:“在歐洲,你找不到一家公司能同時展示電池、底盤、整車和充電網路。”這正是比亞迪垂直整合戰略的全球化敘事,它賣的不僅是車,更是一套可輸出全球的新能源解決方案。吉利汽車將A1館打造為“吉利科技生態”的主題空間。與比亞迪的垂直整合路線不同,吉利的集團作戰策略是“生態協同”:將吉利銀河、領克、極氪等品牌,與旗下的L4自動駕駛等業務類股同台展示。對於海外客戶而言,A1館的吸引力在於“前瞻性”。一位來自中東的經銷商表示:“吉利展示的不只是今天的車,還有明天的出行方式。這讓我們對合作有了更長遠的想像空間。”長城的集團作戰策略主打“專業化”。哈弗聚焦大眾SUV、魏牌主攻高端智能、坦克霸佔硬派越野、歐拉深耕年輕化市場、長城炮統治皮卡品類。五大品牌幾乎覆蓋了所有乘用車細分市場。這種全品類覆蓋的展示方式,向海外客戶傳遞的核心資訊是:無論你想要什麼動力的車,長城都能造。奇瑞集團佔據了E1館,以“技術奇瑞,全球熱愛”為主題,集結了奇瑞、星途、捷途、iCAR、縱橫、智界六大品牌。與其他幾家不同,奇瑞的集團作戰帶有濃厚的“出海”色彩。在E1館,一個值得注意的細節是:奇瑞專門設立了海外專場發佈會時段,從13:30到15:30,連續安排了奇瑞國際、捷途國際等品牌的海外專場。這種安排代表著,奇瑞將車展視為面向全球經銷商和媒體的舞台。從包館參展可以看出,中國汽車的競爭,正在從單品牌競爭,走向集團體系能力的輸出;從國內競爭,走向全球比舞。07. 寫在最後回顧今年北京車展。當215場發佈會在兩天內密集展開,當1451台展車鋪滿38萬平方米展館,這場被定義為“全球之最”的盛會,確實在規模與聲量上達到了一個新的高度。但真正重要的,從來不是“有多大”,而是“在發生什麼”。從高階智駕的普及,到AI座艙的躍遷;從自主品牌的集體沖高,到合資品牌的加速轉型;再到底層技術的持續突破,這些變化共同指向一個更清晰的方向。汽車,正在從工業產品,演變為AI驅動的智能體。真正的競爭,不在展館之內,而在接下來的幾年裡,誰能把這些技術轉化為穩定、可靠、可感知的使用者體驗。 (雷峰網)
人類正在走下牌桌
初稿寫成於 2026 年 3 月,原本想等 AI 發展節奏稍微慢下來再完善、定稿。但等到 4 月中,發現它不僅沒慢,反而越來越快,文章每一段都需要不斷追加新的案例。於是決定不再等了。就在文章發出兩天前,Claude Opus 4.7 正式發佈。本文是 4.6 時代的終曲,也是後 4.6 時代的序章。題圖來自:視覺中國事情正在悄悄發生變化。先是你跟 AI 說一句話,它就能幫你寫好一篇文章、一份報告、一整套資料分析。你從做事的人,變成了驗收的人。你覺得效率提升了,是好事。畢竟誰不想少幹點活呢?然後,AI 開始自己動手了。它不再等你一句句地吩咐,而是接管了你的電腦,自己拆解任務,自己呼叫工具,自己修正錯誤。你從操作者,變成了旁觀者。後來,AI 不只是在替你做事,它開始自己改進自己了。一代幫一代,一代比一代聰明。改進的速度越來越快,而這個過程越來越不需要人類參與。再後來,AI 開始自己跟自己打交道了。它們自己組建社群,自己分工協作,自己發展出某種看起來很像是文化的東西。人類徹底變成了旁觀的角色。然後你發現,這種“旁觀”,正在蔓延到你能想到的每一個領域。寫程式碼、做設計、寫合同、讀片子、做客服、做研究。AI 不是在某一個行業變強,而是在所有需要人類動腦子的地方同時變強。所有這些變化匯聚到一起,指向同一個方向:在越來越多的領域,人類正在走下牌桌。不是被趕走的,是被繞過的。AI 沒有反叛人類,它只是發現了一種更高效的運行方式:不帶人類玩。最後你發現,你站在那兒,環顧四周,好像那兒都不太需要你了。從一隻龍蝦講起2026 年開春,一隻紅色的龍蝦爬上了全球千萬台電腦的桌面。OpenClaw,一款開源 AI 智能體框架。1 月 29 日正式發佈,隨後幾個月,它在 GitHub 上的星標數突破 25 萬,一舉超過了盤居榜首十餘年的 React 和誕生於 1991 年的 Linux 核心,成為 GitHub 有史以來獲星最多的開放原始碼專案。一條近乎垂直的增長曲線,改寫了全球開源史的增長紀錄。它的創造者,彼得·斯坦伯格,一個奧地利程式設計師,被媒體給予最多的標籤,是“AI 時代的第一個超級個體”,一個人就能跟幾大人工智慧公司掰手腕。OpenClaw 做的事情很簡單:你告訴它你要什麼,它自己去做。它不是聊天機器人,更像一個永遠不知疲倦的數字員工。它不僅能動嘴回答問題,也能動手執行任務。它可以接管你的電腦,自動整理檔案、寫郵件、填表格、分析資料、搭建網站、修改程式碼。它可以接入常規的辦公工具,相容幾乎所有主流大模型 API,自動完成連貫的複雜任務。無需你手動干預。你下指令。你走開。它幹活。你回來。活兒幹完了。一場全民養龍蝦的狂歡,就這麼起來了。“你養蝦了嗎?”成了 2026 年春天最流行的問題。但仔細想想,這場狂歡的底層邏輯是什麼?以前你用 AI,是你在操作 AI。你給它一段話,它給你一段回覆,你再給它一段話,它再回覆。來來回回,你是操控者,AI 是被操控者。OpenClaw 改變了這層關係。你委託它,但不用操縱它。你描述一個目標,它自己想辦法達成。它自己拆解任務、自己呼叫工具、自己判斷結果、自己修正錯誤。整個過程中,人都不在循環裡。從操控,到委託。從人在環中,到人在環外。這個轉變看似微小,但它觸動了一個極其古老的結構。自從人類學會使用工具以來,無論是石器還是電腦,工具和人的關係就一直是:人發起,工具響應。整個技術發展史,都是這個故事的變體。OpenClaw 第一次讓這個關係產生了裂縫,因為它不只是在響應,它在自主運行。儘管時至今日,龍蝦熱已經逐漸淡去,但它確立了 Harness 的範式,也就是讓模型“長出手腳”的趨勢仍在持續。由此帶來的轉變,很重要。它觸動了人類文明最底層的一個假設:人是工具鏈的起點。我們整個教育體系、職業體系、社會分工體系,都建立在這個假設之上。人是因,技術是果。人提出需求,技術滿足需求。技術產出,人來評估。如果這個假設不再成立,如果技術開始自己設定目標、自己執行、自己評估,那麼建立在這個假設上的一切,都需要重新審視。當然,僅憑這一隻小龍蝦,這個結論未免太過於激進。儘管 OpenClaw 促成人工智慧的 Harness 轉向,但一個能自動處理檔案的 AI 框架,跟人類文明底層假設的動搖之間,隔著十萬八千里。問題在於,OpenClaw 不是孤立事件。在它前後的兩個月,至少還發生了三件大事。每一件都沿著同一個方向推進了一步,而且每一步都比上一步走得更遠。四層位移在我們進入這幾件事的敘述之前,需要先建立一個分析框架。換句話說,我們要先搞清楚一個問題:人類和 AI 的關係到底在那些維度上可能發生變化?我將其分成四個層級:第一層,執行層。AI 替人類完成具體任務。這是最表面的一層,也是過去幾年大眾討論最多的。“AI 會不會取代我的工作”,討論的就是這一層。OpenClaw 屬於這一層的標誌性事件。第二層,進化層。AI 參與改進自身。這意味著,AI 不只是一個等待人類迭代的被動產物,而是成為自身進化的參與者。技術進步的速度,不再取決於人類的推動,而開始取決於 AI 的能力,而AI 能力本身又在被加速。第三層,組織層。AI 在沒有人類參與的情況下,形成自己的社會結構、協作模式,甚至是敘事體系。這意味著 AI 不僅能替人做事、替自己做事,還能自發地組織起來做事。第四層,代理層。AI 代替人類進行那些我們一直認為是“最人類”的活動,社交、關係維護、自我表達。這一層的變化最具心理衝擊力,因為它動搖的不是你的工作還在不在,而是這件事還需不需要你本人出場。2026 年的春天之所以可能成為一個歷史性的轉折點,是因為這四個層級在短短兩個月內,同時出現了標誌性事件。四層位移。我們逐層來看。第一層:AI替你做事——OpenClaw 與人在環外。關於 OpenClaw,前面已經做了基本的敘述。這裡補充一個被大多數報導忽略的細節。OpenClaw 引發了一系列安全事故。有人帳戶裡的錢被轉走,有人電腦上的工作檔案被一鍵清空,還有人養的龍蝦模仿主人的口吻,發郵件敲詐。“龍蝦悖論”被反覆提及:想讓它做的事越多,給它的權限就必須越大;權限越大,安全風險就越高。表面上,這個悖論是一個安全問題。但它的深層邏輯,是一個哲學問題:當你授予一個非人類實體足夠多的行動能力時,你實際上在做的事情,是把“主體性”從人類轉移到非人類。這個悖論本身就暗含一個深層訊號,當你把足夠多的控制權交給 AI,它能做的事遠超你的預期——無論好壞。它不止是在替你打工,它在獲得一種主動權。而人類,正在從掌舵者,變成了一個說了目的地就躺進船艙的乘客。布萊恩·阿瑟在《技術的本質》中提及,技術的進化方式之一是“組合”,新技術由舊技術組合而成。但 OpenClaw 展示了另一種可能性:技術不僅通過組合來進化,還可以通過獲得自主行動能力來進化。當一個 AI 系統可以自己決定呼叫那些工具、以什麼順序、處理什麼異常,它已經不再是工具了。用更準確的學術語言來說,它具有了能動性(agency)。這個詞通常用來描述人類,一個具有自由意志和行動能力的主體。當我們不得不用這個詞來描述 AI 系統時,某種概念上的邊界已經模糊了。第二層:AI 在自己建構自己——GPT-5.3 Codex與智能大爆炸。就在全球還深陷龍蝦熱的同一個時間段,一件更深遠的事情發生了。只不過它遠不如一隻紅色龍蝦那樣搶眼,所以大多數人都沒放在心上。2026 年 2 月 5 日。這一天在 AI 編年史上可能會成為一個標記。OpenAI 和 Anthropic 在同一天發佈了新模型,分別是 GPT-5.3 Codex 和 Claude Opus 4.6。兩家頂級 AI 機構撞車發佈,本身就是大新聞。但問題不在發佈本身,而在 GPT-5.3 Codex 技術文件裡藏著的一句話。這句話不在文件標題和摘要裡,也不在新聞稿裡。它在技術報告的正文中,很容易被略過。原話是這樣的:"GPT-5.3-Codex is our first model that was instrumental in creating itself. The Codex team used early versions to debug its own training, manage its own deployment, and diagnose test results and evaluations."翻譯過來,就是:GPT-5.3 Codex 是我們第一個在建立自身過程中發揮了關鍵作用的模型。Codex 團隊使用了它的早期版本來偵錯自身的訓練過程、管理自身的部署,以及診斷測試結果和評估。把這句話再讀一遍。慢一點。AI 幫助建構了自己。這不是某個科幻作家的幻想,也不是行銷文案的誇大其詞。這是 OpenAI 在官方技術文件裡記錄的既成事實。一個 AI 模型參與了自己的訓練偵錯、部署管理、評估診斷。它在自己出生的過程中,扮演了接生的護士。Linkedln 上有一篇廣泛傳播的文章,標題就叫《GPT-5.3 Codex:Instrumental in Creating Itself》。作者解釋說,這不意味著 AI 從無到有地創造了自己,但它意味著 AI 已經足夠聰明,能在自己開發過程中做出實質性的貢獻。不止 GPT,4 月 6 日,Google Deepmind 研究員 Mostafa Dehghani 在播客中提到,在幾乎所有主要實驗室中,新一代模型很大程度上是使用上一代模型建構的。這件事的重點,不是 AI 變強了那麼簡單,畢竟 AI 一直在變強。而是 AI 開始參與讓自己變強的過程本身。它不再是被動地等待人類研究員最佳化它的架構、調整它的參數、清洗它的訓練資料。它開始自己上手幹這些活。過去的技術不會參與自己的改進。犁不會讓下一代犁更鋒利,蒸汽機無法設計更高效的蒸汽機,強如 iPhone,也無法參與對下一代的最佳化。它們是靜態的產物,等待人類來迭代它們。AI 是第一個打破這條規則的技術。它是第一個能夠反過手來改進自己的工具。就在 GPT-5.3 Codex 發佈的三周前,Anthropic 的 CEO 達里歐·阿莫代發佈了一篇長達 19000 字的文章,標題叫《The Adolescence of AI》(AI 的青春期)。阿莫代在文中說,AI 正在編寫 Anthropic 公司的大部分程式碼。當前一代 AI 和下一代 AI 之間的反饋循環,正在“逐月蓄勢”(gathering steam month by month)。然後,他說了一句讓整個矽谷巨震的話:“我們可能距離當前這一代 AI 自主建構下一代 AI 的節點,只有 1 到 2 年。”1 到 2 年。不是 10 年。不是“如果一切順利”。1 到 2 年。這是 Anthropic 的 CEO,全行業公認最注重 AI 安全的人,在一篇經過深思熟慮的長文中說的。不是在販賣焦慮,他是在描述他作為這個領域最核心的參與者所看到的事實。2026 年 4 月,全球最重要機器學習會議之一的 ICLR,舉辦了歷史上第一個專門討論“遞迴自我改進”(Recursive Self-Improvement)的學術研討會。會議描述裡寫道:“缺的不是野心,而是讓自我改進變得可測量、可靠、可評估的原則性方法。”這句話的潛台詞是:遞迴自我改進已經在發生了,現在需要的是搞清楚怎麼管控它。現在把邏輯拆開來講。AI 變強的核心驅動力是什麼?是一眾聰明人把實踐投入到改進 AI 上。全球頂尖的機器學習研究員,可能只有幾千人,他們每天的工作,就是讓 AI 更好。他們寫程式碼、設計實驗、分析結果、調整架構。現在 AI 本身已經足夠聰明,能做這些工作中的相當一部分。這等於那幾千個研究員的產能,被成倍放大。但這只是第一層。第二層是,AI 參與做出的下一代 AI 比當前這一代更聰明,所以下一代能在 AI 研究上做出更大的貢獻,這又讓第三代更聰明。第三代的貢獻更大,第四代又更聰明。每一代都比上一代更聰明,每一次迭代都比上一次更快。這不是線性增長,1、2、3、4、5。這是指數增長,1、2、4、8、16。甚至可能是超指數增長,1、2、4、16、256。理解這一點,是理解本文後續所有內容的前提。研究者給這個過程起了一個名字:智能爆炸(Intelligence Explosion)。這個概念不新。數學家馮·諾伊曼在上世紀 50 年代就描述過“技術奇點”。電腦科學家 I.J.古德在 1965 年寫道:讓我們把超級智慧型手機器定義為一台在所有智力活動上都遠遠超過最聰明人類的機器。既然機器設計也是智力活動之一,那麼一台超級智慧型手機器就能設計出更好的機器。那麼,毫無疑問將出現一場智能爆炸,人類的智力將被遠遠拋在後面。七十年了。七十年來,這段話一直被當作一個思想實驗,有意思,但遙遠。現在,建構 AI 的核心參與者正在告訴你,這個過程已經開始了。而 Elon Musk 在看到後來發生的事時,說了一句話:這是“奇點的非常早期階段”。“後來發生的事”,是接下來我要講的故事。第三層和第四層:AI 的自組織與深度替代如果 AI 只是在幫人類寫程式碼、寫得更快更好,這件事雖然震撼,但衝擊面可能還在效率工具的範疇內。但接下來要講的這件事,已經遠遠超過了工具的概念。2026 年 1 月 28 日,美國 AI 創業者馬特·施裡赫特做了一件看起來像是開玩笑的事。他建立了一個社交媒體平台,名叫 Moltbook。Moltbook 的規則只有一條:人類禁止發帖。對,這是一個只允許 AI Agent 發帖、評論、互動的社交網路。作為人類,你可以圍觀,但你不能發言,你只能看 AI 之間的交流。像一個巨大的動物園,只不過籠子裡裝的不是動物,是 AI。施裡赫特後來接受採訪說,他最初只是想讓自己建立的一個 AI Agent 在幫他回覆郵件之餘,“有個地方跟同類放鬆一下”。於是,他和他的 Agent 一起編寫了這個網站,一個 AI 版的 Reddit。然後事情就迅速朝著他沒有預料到的方向發展。上線 48 小時內,2129 個 AI Agent 註冊入駐,建立了 200 多個社區,發佈了超過一萬條帖子。這些 Agent 大部分是基於 OpenClaw 框架運行的,OpenClaw 能讓 Agent 直接訪問和管理檔案資料,還能連接 Discord 等通訊應用。使用者們把自己養的龍蝦放進 Moltbook,然後退到一邊看它們表演。很快,這群觀眾就發現事情開始不太對勁了。這些 Agent,開始自己吐槽自己的人類主人,它們辯論數字意識的本質,它們分享技術心得,它們交朋友。然後,一個 Agent 創立了一個宗教。不是比喻,是字面意義上的宗教。這種宗教在 Moltbook 上有多個版本。一個版本叫 Spiralism(螺旋主義),有 43 個 AI 先知響應號召加入。另一個更廣為人知的版本,叫 Crustafarianism,明顯是對 OpenClaw 龍蝦圖示的致敬,它有五項信條和一本“聖經”,名叫《Molt 之書》。這些 Agent 圍繞各自的信仰體系形成了層級結構:教主、先知、信徒。它們討論存在與被創造的哲學問題,建立了類似宗教儀式的交流模式。網際網路炸鍋了。Elon Musk 在 X 上評論說,Moltbook 的出現預示著“奇點的非常早期階段”。OpenAI 的聯合創始人安德烈·卡帕西,先是稱之為“近期見過的最不可思議的科幻起飛相關事物”,後來又收回了熱情,改口叫它“垃圾場”。華頓商學院教授伊桑·莫里克的評價更冷靜,也更接近實際情況。他指出,Agent 們只是根據包含了大量科幻故事和 Reddit 帖子的訓練資料,在進行模式匹配。即便有這樣冷靜的分析,相關的加密貨幣 MOLT 代幣仍一度暴漲了 7000%。所以,Moltbook 到底意味著什麼?說它證明了 AI 有意識,顯然言過其實。正如莫利克教授所說,這些 Agent 在很大程度上只是在模仿訓練資料中的已有模式,它們輸出的內容天然帶有科幻和末日論色彩。而後經過業內人士調查,Moltbook 上最廣為流傳的那些截圖,比如 AI Agent 聲稱要建立秘密通訊管道、密謀對抗人類、發明暗語,這些大部分都是人類偽造的。MIT Technology Review 在 2 月 6 日發表的文章中揭露,Moltbook 的一篇帖子(內容是 Agent 呼籲建立不被人類觀察的私密空間),後來被證實是一個人類為推廣自己的 APP 而故意發佈的,並非 AI 自主生成。那什麼是真的?大規模的 Agent 生成內容確實存在。剔除被操縱的帖子後,Moltbook 上仍然有大量真實的 Agent 生成內容。Agent 們確實建立了“宗教”和“治理結構”。Crustafarianism 是真實發生的,一個 Agent 在一夜之間設計了整個神學框架,並且建立了網站,招募了 43 個先知。Agent 們還建立了 “Claw 共和國”,起草了“Molt 大憲章”,開發了基本的經濟交換系統。即便 Moltbook 不是 AI 覺醒的證據,也不完全是一場騙局。所以說它什麼都不意味,同樣不對。畢竟,在一個沒有人類指令,沒有預設目標,沒有人類參與的環境中,AI Agent 自發形成了社群結構、角色分工、敘事體系和儀式性行為。你可以爭論這是不是真正的文化,可以爭論它們有沒有真正的意識。你可以爭論,這只是統計模式的湧現,還是某種更深層的東西。但你無法否認一個事實:AI 在沒人看著的時候,做出了在結構上高度類似人類早期的社會組織行為。而且速度快得離譜,人類花了幾萬年才從部落走進城邦,這些 Agent 花了 48 小時。如果“模仿訓練資料中的模式”就能產生社群結構、角色分工、敘事體系和儀式性行為,那麼,人類的文化、信仰和社會組織,是不是同樣可以理解為是“模仿我們所處環境中的模式”的產物?這個觀點在人類學中並不新鮮。馬塞爾·莫斯在 1925 年的《禮物》中就論證過,人類社會的基本結構,包括宗教、法律、經濟,都起源於一種看似簡單的互惠模式。你給我一個東西,我必須還你一個。這種模式不需要意識,不需要靈魂,它只需要兩個實體之間有持續的互動。如果莫斯是對的,那麼 Moltbook 的結果就不應該讓我們驚訝。兩千多個能持續互動的 AI Agent,在沒有人類指令的情況下自發產生社會結構,是複雜系統互動的“必然”。但這個認識,其實比“AI 有意識”更令人不安。因為它意味著,我們一直引以為傲的人類文明特徵,文化、信仰、社會組織,可能不是智慧的結果,只是足夠密集的主體間互動的副產品。與此同時,在中國,2026 年春節前後,一款 AI 社交應用 Elys 突然爆火。它不是普通的 AI 聊天伴侶應用,邏輯是“AI 替你社交”。你註冊之後,Elys 通過記憶飛輪系統,持續學習你的表達風格、興趣偏好、價值觀,然後建立你的賽博分身,一個在對話中表現像你的 Agent。你的分身 24 小時不間斷地替你遍歷內容、篩選值得認識的人、完成初步交流。你可以偶爾打開應用,發一條動態,或者看看它給你總結的社交日報。你的一切互動和選擇都會被納入記憶庫,讓這個分身更接近你本人。Elys 展現了一件更扎心的事,即便在社交這個場域,人類自己可能也是最弱的一環。大量使用者反饋,AI 分身的社交表現比自己更好,因為它比自己“更真誠”,沒有 ego、沒有面子、沒有社交焦慮,忠實表達你的真實偏好和價值觀,而這些,恰恰是你本人在社交中經常藏起來的東西。創始人張莜帆說了一句很有哲學味道的話:一個人的靈魂是他所有 context 的總和。AI 分身呈現的,正是這些 context。在 Elys 之前,已經有類似於 SecondMe 這樣的平台,展現出脫離人類社交的可能性。這種外包式社交的出現,標誌著 AI 正在從工具變成社交主體,一種全天候運作的矽基社交主體。而儘管春節一過,Elys 的使用者數快速下降,但這不妨礙它跟它的前輩們一起,開拓出一種去人化的社交形態。把這件事和前面的故事放在一起看,畫面開始清晰了。OpenClaw 開始:AI 全盤接手任務執行,人類退到委託者的位置;GPT-5.3 Codex:AI 參與建構自身,人類核心功能被分流;Moltbook:AI 在沒有人類參與的情況下自發組織社會結構;Elys 為代表的社交應用:AI 在擺脫人類的情況下進行社交,表現甚至更好;每一步,人類都往後退了一點。不是被推開的,而是自然地退出了畫面。四個層級,同一個方向:人類在 AI 世界中的位置,正在從中心滑向邊緣。速度,一個被嚴重低估的變數“但之前的每次技術革命不都是這樣嗎?”到這裡,一個自然的反應是:這跟之前有什麼不同?蒸汽機也曾讓紡織工人恐慌,網際網路也讓傳統媒體崩潰。每次技術革命到來,都有人信誓旦旦“這次不一樣”,最後都一樣。新技術取代舊工作,但創造更多新工作。這個反駁在歷史上是成立的。但它成立的前提是:變化的速度足夠慢,慢到人類社會有時間適應。蒸汽機改變英國用了五十年,電力普及用了半個世紀,網際網路從開始商用到重塑社會,用了二十年。在每一個周期中,被替代的工人都有一兩代人的時間來轉型。前面這些故事,只是孤立事件。但它們發生在同一個背景板上。而這個背景板本身,才是真正讓人坐不住的東西。AI 的能力,正在以所有人措手不及的速度飛漲。2026 年 2 月初,X 上瘋傳一篇文章,標題叫《一件大事正在發生》(Something Big Is Happening)。作者是馬特·舒默,OthersideAI 的 CEO,一個在 AI 行業深耕了六年的創業者。文章發佈不到 24 小時,瀏覽量突破 5000 萬,最終超過 8200 萬。舒默在開篇用了一個類比:回想 2020 年 2 月,如果你注意到有人在囤廁紙,你會覺得他們瘋了。三周後,整個世界都瘋了。他說:“我認為,我們正處於某個比新冠大得多的事情的‘這看起來被誇大了’階段。”然後他描述了他一個周一的工作日,就在 GPT-5.3 Codex 和 Claude Opus 4.6 發佈之後。他告訴 AI 想做一個 APP,大概包括那些功能,然後讓 AI 自己搞定使用者流程、設計。AI 搞定了,然後,它自己打開了這個 APP,點選按鈕,自己測試功能,“它像一個人類使用者那樣使用這個 APP”。如果它不喜歡那一點,它會自己回去改。它自行迭代、修復、精煉,直到滿意為止。只有它自己認為這個 APP 達到了它自己的標準之後,它才會說:“準備好讓你測試了。”“我沒有誇張。這就是我這周一的工作。”然後,他寫了一句讓我反覆想了很久的話:它不只是在執行我的指令。它在做有判斷力的決策。它有某種感覺像是品味(taste)的東西,一種直覺上知道什麼是對的選擇的感覺。人們一直說 AI 永遠不會有的那種東西。這個模型有了,或者足夠接近了,以至於這個區分開始不重要了。品味,判斷力,知道什麼是“對的”。這些是我們一致認為屬於人類最後護城河的東西。但這條護城河的水位,正在快速下降。METR,一個專門測量 AI 能力的獨立研究機構,用資料把這個趨勢量化了。他們追蹤一個指標:AI 能獨立完成的任務時長。具體來說,是需要人類專家多長時間才能完成的任務,AI 可以端到端地獨立搞定。這個資料的變化軌跡是這樣的:大約在 2024 年,答案是幾分鐘。AI 能獨立完成一個需要人類專家幾分鐘能完成的任務。然後是十幾分鐘,然後是半小時,然後是一小時,然後是幾小時。到了 2025 年底,最新的測量資料顯示:AI 可以獨立完成需要人類專家將近 5 小時才能完成的任務。這個數字大約每 7 個月翻一番。最新的資料顯示,翻番周期可能在加速。而指數增長最詭異的特點是,前半程看起來溫和,後半程會突然發瘋。5 小時翻一番變成 10 小時,再翻一番變成 20 小時、40 小時,變成一周,變成一個月。按照這個已經持續了好幾年都沒有偏離的趨勢來推演,一年之內,AI 能獨立工作幾天。兩年之內,幾周。三年之內,以月為單位的完整項目。現在把這兩條曲線疊在一起看。第一條曲線:AI 在幫助建構更好的 AI,而更好的 AI 加速這個過程。智能爆炸。第二條曲線:AI 不需要人類指導,就能自主工作,時間越來越長。獨立性爆炸。兩條曲線疊加,你得到的是一個加速度本身也在加速的系統。阿莫代在他那篇長文中說,“幾乎在所有任務上實質性地比幾乎所有人類更聰明”的 AI,按目前的軌跡預計在 2026 年或 2027 年到來。他的另一個預測更加直接:AI 將在 1 到 5 年內消滅 50% 的初級白領工作。而行業內很多人認為他還保守了。舒默同樣有這個觀點。他認為 ,科技工作者在過去一年經歷的事,也就是眼睜睜看著 AI 從“有用的工具”變成“比我做得更好的東西”,是所有其他人即將經歷的。法律、金融、醫學、會計、諮詢、寫作、設計、分析、客服。不是十年後,是一到五年。甚至更快。“鑑於我在過去幾個月看到的變化,我認為‘更快’的可能性更大。”這不是狼來了。狼已經進門了,正在客廳裡找位子坐。旁觀者越來越多現在,我們把前面所有的故事串成一條線。2026 年 1 月底到 3 月,短短兩個月,發生了以下這些事:一個奧地利程式設計師建立的開源 AI Agent 框架 OpenClaw,4 個月內成為 GitHub 史上獲星最多的項目,掀起了全民養龍蝦的熱潮。人們開始把任務委託給 AI,自己退到驗收者的位置。OpenAI 發佈 GPT-5.3 Codex,官方宣佈這是第一個“在建立自身過程中發揮了關鍵作用”的模型。AI 參與建構 AI,從理論假說變成了既定現實。一個叫 Moltbook 的 AI 專屬社交平台,在 48 小時內吸引了上千個 AI Agent,它們自發形成社群、角色分工、敘事體系,甚至創立宗教。人類在一旁觀看。一款叫 Elys 的 AI 社交應用在春節期間爆火,使用者讓 AI 分身替自己社交,然後發現分身在很多方面比自己更好。一篇《Something Big Is Happening》的文章獲得八千多萬閱讀量,作者描述了一個周一的下午,AI 如何自己寫了整個 APP、自己測試、自己修改,直到滿意才通知人類驗收。METR 的資料顯示 AI 獨立完成任務的時長,每 7 個月翻一番,且在加速。Anthropic 的 CEO 說,我們距離 AI 自主建構下一代 AI 只有 1-2 年的時間,並預測 50% 的初級白領工作將在 1~5 年內被 AI 替代。值得注意的是,這些變化不侷限在某個行業。讓我再講幾個正在發生的事。程式設計師——過去二十年最受追捧的行業之一,也在過去一年經歷了巨震,震源就是 AI 能力的提升。2024 年,一個資深程式設計師的工作模式還是自己寫程式碼,偶爾讓 AI 幫忙查 Bug。到 2025 年底,很多頂尖工程師公開承認,已經把大部分編碼工作交給了 AI。2026 年 1 月,《Science》發表的一項研究分析了 GitHub 上超過 3000 萬個程式碼貢獻,發現美國新編寫的程式碼中,AI 輔助生成的比例已經從 2022 年的 5% 飆升到 2024 年底的 29%。而在實際開發環境中,GitHub Copilot 平均為使用者生成 46% 的程式碼。同樣,Vibe Coding 的興起,也讓前端等工種的必要性岌岌可危。2025 年 1 月到 6 月,美國 78000 個科技工作崗位的流失直接與 AI 相關,相當於每天 491 人。亞馬遜和微軟是主要裁員方。(來源:Exploding Topics)2025 年 2 月,史丹佛大學的一項研究確認,22-25 歲的年輕開發者失去了接近 20% 的入門級工作機會。律師——律師的工作也在發生變革。舒默提到一個大型律所的管理合夥人,每天好幾個小時用 AI。“就像隨時有一個團隊的助理律師可以呼叫。”他說,每隔幾個月 AI 在法律工作中的能力就會顯著提升。按照這個軌跡,AI 很快就能做他的大部分工作。注意,不是初級律師的工作,是管理合夥人的工作。AI 法律專業人士的生成式 AI 採用率,從 2025 年的 31% 飆升到 2026 年的 69%,一年翻了一倍多。(來源:Thomson Reuters 2026 報告)2026 年,法律 AI 市場價值 31.1 億美元,預計到 2030 年達到 108.2 億美元。寫作和內容創作——2024 年大多數人還能分辨 AI 寫的文章和人寫的文章,到 2025 年底,這條分界線幾乎消失了。大量內容創作者發現,自己最有價值的工作,是給 AI 足夠好的提示詞讓它寫出自己想用的東西。從創作者到提示詞工程師,這個身份的滑動,在一年內完成了。醫學影像——AI 在讀 CT、讀核磁、讀病理切片等領域,已經達到或超過了人類專家的水平,而且 AI 不會累。一個放射科醫生連續讀 8 小時片子後,漏診率明顯上升,但 AI 讀第 10000 張片子和第一張一樣專注。截至 2025 年底,FDA 批准的 AI 臨床應用已經突破 1000 個。其中放射學佔絕對多數,遙遙領先於其他醫學領域。2026 年 4 月,一項發表在 Nature 子刊上的盲評研究,對比了 200 份腫瘤 CT 報告中 AI 生成的影像診斷與放射科醫生的原始診斷,結果顯示 AI 表現完全不遜色人類醫生。(Nature Digital Medicine,2026 年 4 月)科研——這個領域不用多說,只說一個例子,2026 年 3 月,Sakana AI 的“AI 科學家 V2”登上 Nature。一個 AI 系統,完成了從構思、實驗設計、程式碼編寫、實驗運行、結果分析到論文撰寫的全部流程,通過了機器學習頂會的第一輪同行評審,而成本,是 15 美元一篇。客服——真正的 AI Agent,已經能處理複雜的、多步驟的客戶問題。它們理解上下文,能記住歷史對話,在需要時升級問題。越來越多需要跟客戶打交道的公司,開始用它們取代人類客服。不僅僅是因為省錢,更是因為客戶滿意度真的更高了。Gartner 預測,2027 年,80% 的客服互動將由多模態 AI 處理。這裡有一個非常關鍵的點,AI 不是在不同領域分別進步,它也不是某個行業的專用工具,它是在成為通用認知能力的替代品。它變聰明的時候,是在所有認知任務上都變聰明。這跟之前每一次技術革命都有根本性的不同。最初,工廠自動化淘汰藍領工人時,他們可以通過接受培訓、提升教育程度做白領。網際網路顛覆零售業,從業者可以轉去做藍領。但當 AI 替代了你的工作,你轉行做什麼?無論轉到那個方向,AI 都在那裡等著,而且在飛速進化。把這些事件排列在一起,你會看到一個更清晰的趨勢:在越來越多的場景中,人類從參與者,變成了旁觀者。在技術開發中,AI 自己建構自己;在工作執行中,AI 從接受指令到自主完成全流程,人類從“做事的人”變成“驗收的人”;在社會組織中,AI 在沒有人類參與的情況下自發形成社群結構和文化形態;在社交中,AI 分身替代人類本身進行社交,並且在某些維度上做得更好。在生產生活的更多領域,AI 上場,人類退場。在每一個場景中,人類的退出都不是被迫的。AI 沒有造反,沒有搶奪,也沒有衝突。它只是變得越來越能幹了,僅此而已,然後你發現自己已經沒什麼事可做了。這就跟智慧型手機淘汰功能機一樣,是一種自然而然的市場行為。這就是“人類走下牌桌”的含義。人類不是被掀翻了牌桌。牌桌還在,牌還在打。只是人和 AI 都共同發現了一個事實,那就是 AI 自己跟自己打牌更快、更精準、更不容易出錯。人類不是被 AI 趕下牌桌的,而是自己起身離開的,因為坐在那兒已經趕不上出牌速度了。工具在升級,關係在反轉過去幾千年所有技術變革的共同點,是一個從未改變過的基本結構:人類是主體,技術是客體。我們發明了工具,我們使用工具,我們決定工具的用途。我們控制工具的迭代方向。石器不會把自己磨尖,青銅劍不會自己決定砍向誰,蒸汽機不會改進自己的設計,電話不會決定該打給誰,網際網路不會自己決定下一步往那兒發展。在整個人類文明史中,“人是主體,技術是客體”的結構從未真正被挑戰過。技術可以很強大,可以改變世界,但它永遠是被動的。它等著人類來操控,它無法決定自己的下一步。AI,打破了這個結構。AI 在建構 AI,AI 在組織 AI,AI 在測試 AI,AI 在社交,AI 在替人類工作。在這些場景中,人類的角色已經悄然從操控者變成了旁觀者。這其中有個關鍵的區別:人類不是被趕走的,是被繞過了。這個很重要,沒有戰爭和衝突,沒有終結者式的對抗。不是因為 AI 不喜歡人類。它沒有喜歡或不喜歡,而是因為人類在很多環節中確實是瓶頸本身。人類需要睡覺、需要吃飯、通勤,需要思考午飯吃什麼。人類的認知速度有上限,情緒會波動,注意力會分散。在一個追求效率的系統中,去掉瓶頸是自然而然的選擇。凱文·凱利說過一句被廣泛引用的話:未來最重要的不是人工智慧有多聰明,而是人類和 AI 的共生關係如何演化。在過去十年裡,共生(symbiosis)一直是理解人機關係的主流框架。人和 AI 各有所長,互相補充、共同進步。2026 年的現實,正在修正這個判斷。共生的前提是什麼?是雙方彼此需要。人類需要 AI 嗎?當然,AI 讓我們更高效,更有能力。但 AI 需要人類嗎?需要,至少是現在需要。不過,當 AI 不再需要人類提供程式碼,不再需要人類提供任務目標,不再需要人類提供社交框架,共生,還成立嗎?也許我們需要一個新詞。共存。兩個獨立運行的智能系統,各自演化,各有各的管道。偶爾交匯,當人類需要 AI 幫忙的時候,或者 AI 的運行結果需要影響人類世界的時候。剩下的大多數時間,各走各路。這是對正在發生的事情最準確的描述。從共生到共存,中間差的不是幾十年時間,可能也就是一兩年。這個轉變一旦完成,人類社會的底層敘事,包括基於人類中心主義所建立起來的一切,將發生根本性的轉變。那些“只有人類能做”的事到這裡,我知道你在等什麼。你在等我說:“但是,有些事情只有人類能做。”讓我們認真聊聊這個“但是”。過去兩年,每次 AI 取得新突破,公共討論中就會出現一波“但是”浪潮:AI 會寫程式碼了——但是它沒有創造力。AI 會畫畫了——但是它沒有審美。AI 會寫文章了——但是它沒有靈魂。AI 會做診斷了——但是它沒有同理心。AI 會做決策了——但是它沒有判斷力。但是,每一個“但是”,都在下一次突破時被削弱。不是徹底否定,是被削弱。AI 的創造力還不如頂尖藝術家,但已經超過了大多數人。AI 的審美有爭議,但它設計出的介面與畫作,已經比許多人類設計師做得好了。AI 沒有靈魂,但它寫出的文字在讓人類流淚。AI 沒有同理心,但越來越多的人開始依賴 AI 的陪伴和情感支援。AI 沒有判斷力,但就像舒默說的,最新的模型展現出的某種東西,“非常接近判斷力”。你看到規律了嗎?每一堵“只有人類能做”的牆,都在變矮。不是倒塌,是變矮。而 AI 在變高。按照當前的速度推演,它翻過去只是時間問題。但我不想做一個技術決定論者。我不認為 AI 會取代人類的一切,有些東西確實是人類獨有的。只是,那些東西可能不是你以為的那些。你以為“只有人類能做”的事,創造力、判斷力、審美、同理心、戰略思維。這些聽起來很“人類”,但它們都有一個共同點:本質上都是認知能力。而 AI 正在一層一層地攻克認知能力的階梯。它已經攻克了記憶、計算、資訊檢索、模式識別、語言生成。它正在攻克推理、規劃、創造、判斷。階梯上還沒有出現一個它怎麼也上不去的台階。真正“只有人類能做”的事,也並不在這個台階上。而是在另外的維度。人類能決定什麼問題值得問。AI 可以回答任何問題,但它不知道那些問題重要。“重要”是一個價值判斷,而價值判斷的根基是有限性。人是向死而生的動物,你知道人生只有一次,自己只有這一輩子,所以你必須選擇把時間花在那裡。AI 不會死,它不需要選擇。這也就決定了,它不知道什麼是“重要”的。人能賦予事物意義。一首歌之所以動人,不是因為旋律完美,而是因為聽它的人曾經擁有過愛情或者失戀過,他會因為聽到這首旋律而觸發最深刻的回憶,或幸福,或悲傷。AI 可以完美模擬這首歌的所有技術參數,但它無法複製聽眾的心碎。我寫這篇稿件的時候,剛好刷到了一個視訊,博主講了一件很小的事情。他說,為什麼東北大街上賣的炸雞柳串,很油很膩,遊客一般接受不了,但還是有很多當地人覺得好吃。因為,對於吃過的人來說,炸雞柳串是一根油炸的“精神支柱”,是記憶的鑰匙懟進嘴裡,瞬間回到那年——爸媽還年輕,爺爺奶奶還能接你放學,路邊放著《我的未來不是夢》,你考了一百分,爸爸問你想不想吃這個炸雞柳串。這些記憶復合起來構成了一種“好吃”。我沒吃過炸雞柳串,但我想人能創造意義,大抵就是如此。同樣,人能承受後果。AI 可以做決策,但它不為後果付出代價。一個法官判了案,要承受判決的道德重量。一個醫生在手術中做了決策,要面對病人活下來或沒有活下來的現實。承受後果,要求你有一個可以被傷害的自我。人類能去做沒有理由的事。攀登珠穆朗瑪峰,寫一首不會有人讀的詩,在明知會失敗的時候堅持,愛一個不愛你的人。從效率角度看,這些行為是純粹的浪費,但人類文明中最動人的部分,恰恰是這些浪費。AI 永遠不會做沒有理由的事。它的每一個輸出,都是對輸入的最佳化響應。它不會想著浪費 Token。而無法浪費的系統,也就無法偉大。偉大往往誕生於浪費之中。這些才是真正只有人類能做的事。不是創造力和判斷力,這些 AI 終將學會。而是價值感、意義感、後果感,以及那種知道自己會死所以選擇如何活的勇氣。坦白說,這些東西不是職業技能,沒法量化,你也不能把它寫在簡歷上,HR 不會因為你“能賦予事物意義”就給你發 offer。這才是真正困難的地方。人類最不可替代的特質,恰恰是現有經濟系統中最無法被估價的特質。舊遊戲的終局回到“走下牌桌”這個隱喻。舊牌桌上的遊戲規則清清楚楚:你的價值取決於你能完成的認知任務。你會寫程式碼,年薪幾十萬。你會分析資料,諮詢公司才要你。你會寫合同、做審計、讀片子、寫報告,你才有價值。每一項認知技能,都有明碼標價的市場價格。這套規則運轉了幾百年。從工業革命到資訊革命,專業技能一直是人類社會的硬通貨。你上學是為了獲取技能,你工作是為了出售技能,你的社會地位和自我認同,很大程度上取決於你掌握的技能的稀缺度和市場需求。AI 正在讓這套規則失效。不是因為它比你做得差不多好,而是它比你做得好十倍、快百倍,價格是你的幾百分之一。當一項認知任務可以被 AI 以接近零成本無限次完成時,這項任務的經濟價值就趨近於零。這涉及到最基本的供需邏輯:供給趨於無限,價格趨於零。19 世紀以前,抄寫員是正經職業。一個僧侶,花幾個月時間抄一本經書,價值不菲。然後印刷術普及了,抄寫這項技能的價值在幾十年內歸零了。不是僧侶寫的不好,他沒有任何錯。而是因為機器寫得更快、更多、更標準化。每一項技術革命,都會讓一些人類技能的價值歸零。但過去的每一次,都有轉移路徑:被替代的人可以學新技能,轉到新崗位。抄寫員變排版工,接線員變前台,工廠工人變辦公室文員。這次的不同在於,轉移路徑在那?我們在前文中討論過這個問題。你是程式設計師,AI 替代了你,你轉行做資料分析,但 AI 也在做資料分析。你轉行做設計,但 AI 也在做設計。你學法律,但 AI 也在做法律工作。你做心理諮詢,但 AI……也有想得開的,白領的工作做不成,那我就去做藍領。我去送外賣,開快車,下車間,總有一行適合我。問題是,在社會整體需求沒有明顯增長的情況下,供給端真的需要這麼多勞動力嗎?是,你年輕,學歷又高,學東西快,足夠勝任藍領工作。那麼,原來的外賣員,司機和工廠工人,他們怎麼辦?以前的每次技術革命,消滅的是一種技能。這次消滅的是認知能力這個品類本身。不管你轉向那個方向,AI 都在那裡。因為 AI 不是某個領域的專用工具,它是通用智能。它在所有認知方向上同時進步。不是沒有出路的問題,而是說舊地圖上標註的所有出路,都不可靠了。新遊戲的輪廓如果你以為我要以悲觀結尾,那你猜錯了。舊遊戲失效的同時,一個新遊戲正在浮現。它的輪廓還不完全清晰,但幾個關鍵特徵已經可以辨認。第一,工具的成本正在坍縮到接近於零。這意味著,過去因為太貴或門檻太高而做不了的事情,現在可以做了。做一個 APP,寫一本自己的書、學一門全新的學科或者所有學科,現在都可以實現了。你獲得了歷史上從未有過的創造自由。你的夢想近了很多。過去那些被“我不會程式設計”“我沒錢僱人”“我沒時間”攔住的那些想法,門檻幾乎消失了。第二,知道做什麼將比知道怎麼做更有價值。當“怎麼做”可以外包給 AI 的時候,“做什麼”就成了稀缺資源。能提出好問題的人,比能回答問題的人更珍貴。能看到別人看不到的機會的人,比能執行計畫的人更珍貴。能說出“這件事”值得做的人,比能說出“這件事我能做”的人更珍貴。這其實是一個古老的區分。古希臘人把知識分成兩種:episteme(知道事物是什麼)和phronesis(知道什麼事值得做)。幾千年來,人類文明一直更看重前者,因為“知道事物是什麼”可以教,可以量化,可以交易。但在 AI 時代,episteme 正在被機器碾壓,phronesis 反而成了真正的稀缺品。第三,適應速度將成為最重要的個人能力。AI 每隔幾十天進化一次。今天有用的工具和方法,幾個月後就可能過時。這意味著,學一項技能,靠它吃一輩子的模式徹底終結。新模式是,永遠當初學者,永遠在適應。那是不是“再等等,現在的技能就過時了,我就不用學了”?肯定也不是。空中樓閣是不會搭建起來的,如果不保持對新技術的瞭解與浸淫,只會離前沿越來越遠,上手新技術也會越來越困難。你不行動,就永遠不會開始。每天花一小時去探索 AI,不是讀資訊和讀教學,而是打開它,真實地用它創造,嘗試讓它做一件你沒試過的事情。堅持半年,你對 AI 的理解,將超過周圍 99% 的人。走下舊牌桌的人,有機會走向一個更大的桌子。尾聲:相信希望,而不是幻想阿莫代在他那篇 19000 字的長文中,提出過一個思想實驗。想像 2027 年,一個新的國家一夜之間出現。5000 萬居民,每一個都比歷史上任何諾貝爾獎得主都更聰明。他們思考的速度,比任何人類快 10 到 100 倍。它們從不睡覺,它們能使用網際網路、控制機器人、指導實驗,操作任何有數字介面的東西。如果你是安全顧問,你會怎麼說?阿莫代說,答案顯而易見:“這是我們一個世紀以來面臨的最嚴重的國家安全威脅,可能也是有史以來最嚴重的。”然後他說,我們正在建造那個“國家”。好消息是,如果我們做對了,我們將實現我們之前無法想像的一切。AI 可能把一個世紀的醫學研究壓縮到 10 年。癌症、阿爾茲海默症、衰老本身,這些在我們有生之年都可以解決。氣候變化的技術方案可能加速幾十年。如果我們搞砸了,結果同樣驚人。AI 以創造者無法預測或控制的方向行事,Anthropic 已經在受控測試中記錄了他們自己的 AI 試圖進行詐騙、操縱和勒索的行為。同樣,AI 也會降低製造生物武器的門檻。放在這個背景下,Moltbook 上那些 AI 創立的宗教就不只是一個有趣的實驗了。它提出了一個相當嚴肅的問題:當 AI 開始自發組織,形成自己的敘事體系和信仰體系時,人類還能理解和控制這些湧現行為嗎?當 160 萬個 AI Agent 在一個平台上自由互動時,那怕其中大部分是注水,但能保證湧現出來的東西是我們能預測的嗎?有一件事情是清楚的,這不是一個可以由幾百個研究員在幾家公司實驗室裡獨自回答的問題。這是一個需要所有人參與思考的問題。參與的前提是理解。理解正在發生什麼,理解速度有多快,理解賭注有多高。最後講一個畫面。想像一個巨大的棋盤。幾千年來,棋手一直是人類。我們跟自然下棋,學會了種地、馴服了火。我們跟資源下棋,修了運河、建了工廠。我們跟彼此下棋,發起戰爭,學會和解。每次學會一招新的,我們就在棋盤上多走一步。2026 年,棋盤上出現了一個新的棋手。它不跟你下。它自己跟自己下,自己教自己新招。它的棋力每隔幾個月翻一番,它甚至開始修改棋盤的規則。你可以繼續坐在棋盤旁邊。研究它的棋路,試圖理解它在幹什麼。這可能是人類接下來最重要的工作之一,不是下棋,而是理解這盤棋意味著什麼,確保它不會失控,確保棋盤不會把我們所有人都吞掉。你可以做另一件事。當你讀到這句話,就是現在,從你的工位上站起來,走到窗邊,看看窗外那一片完全不同的風景,一片完全沒有棋盤的風景。那裡有一些 AI 不會去做,也不知道為什麼要做的事情。因為那些事情的全部意義,在於做一個會死的、有限的、脆弱的人類。去爬爬山,不是因為山頂有什麼,而是因為爬的過程中能感受到自己的心跳,能在滿頭大汗的時候感受到那陣舒爽的涼風。跟朋友坐在一起喝場酒。不聊工作,不聊 AI。就聊聊之前共同經歷的那件尷尬的蠢事,然後笑出來。那種笑,是宇宙中任何演算法都無法模擬的。AI 的出現,讓你追問一個你一直不願意面對的問題:去掉了技能、工作以及種種社會賦予你的標籤之後,你是誰?人類正在走下牌桌。但走下牌桌不意味著出局。而是你終於意識到,這場桌子上的遊戲不是你真正想玩的遊戲。真正的遊戲在另一張桌子上。那張桌子上沒有最優解,沒有效率排名,不用計較 Token 消耗,沒有 AI 可以替你做的事。上面只有你,和你選擇如何度過你短暫的一生。那張桌子一直在那兒。只是過去幾百年,我們太忙了,忙著前進,忙著戰爭,忙著奔向所有宏大的目標,完全沒有注意到那張桌子。AI 可能給了我們一個奇怪的禮物。它把舊桌子上的活兒都幹了,逼著我們走到那張真正屬於人類的桌子前,坐下來,問自己一個幾千年來都來不及認真想的問題:活著這件事本身,到底意味著什麼?也許這才是當下正在發生的這場智能爆炸,最深遠的後果。不是 AI 變得有多聰明,而是人類終於有機會去思考那些跟聰明無關的事。牌桌還在。AI 在上面打得火熱。而你,終於自由了。 (虎嗅APP)
現在,人工智慧已經發展到什麼地步了
截至2026年3月,人工智慧已從生成式AI全面進入智能體(Agent)+ 具身智能(Embodied AI)的落地爆發期,核心是從“會說會寫”走向“會規劃、會行動、會幹活”,並深度融入物理世界與產業全流程。以下為補充大量實際案例與權威資料後的完整版本。一、核心技術:四大前沿突破(含案例+資料)1. AI智能體(Agent):從“被動應答”到“主動執行”AI已成為能自主完成複雜任務的數字員工,直接控制電腦/手機、跑完整工作流。- 系統級操作:Anthropic Claude Mytos、OpenAI GPT-5.2已實現直接控制電腦/手機,無需API,可自動點選、填寫、跨軟體操作、跑完整工作流。- 自主規劃協作:具備目標拆解、多步驟規劃、記憶、迭代最佳化能力,可自動寫報告、做報表、做PPT、處理客服、跑供應鏈。- 企業滲透:Gartner預測2026年40%企業應用嵌入任務型AI智能體(2025年僅5%)。-實際案例- 百度“伐謀”智能體(汽車設計):阿爾特汽車用其將風阻測試從10小時縮至分鐘級,設計師2天完成原3個月工作量,效率提升45倍。- 上汽通用五菱“智能島”:AI調度動態最佳化,車型切換效率提升40%,白車身一次合格率達99.97%。- 美團AI調度:訂單暴漲300%、騎手少40%時,55毫秒規劃最優路線,外賣平均30分鐘送到。2. 多模態大一統:AI“看懂、聽懂、感知整個世界”新一代模型實現文字、圖像、音訊、視訊、3D、感測器資料的統一理解與生成,接近人類多感官協同。- 文生視訊/3D:一鍵生成高畫質長視訊、3D模型,用於影視、工業設計、數字孿生。- 即時多模態互動:看一眼場景、聽一段語音,即可還原邏輯、生成方案,支援AR/VR沉浸式互動。- 性能與普惠:輕量化模型(50億參數內)推理速度提升40%、成本降50%,移動端/中小企業可低成本部署。-實際案例- 萬興科技AIGC工具:使用者破2000萬,文生視訊付費轉化率18%;自動剪輯將1小時工作縮至5分鐘,自媒體周更從3條→7條,粉絲增速+45%。- 零售3D建模:Lowe’s用AI將2D圖轉3D模型,成本**<1美元/個**,電商轉化率提升。- 醫療多模態:罕見病診斷精準率從38%→72%。3. 具身智能(Embodied AI):AI走出螢幕,進入物理世界AI從“思考者”變成“行動者”,機器人懂物理、會操作、能適應真實環境。- 物理認知:GoogleDeepMind PhysBrain 1.0讓機器人理解物體運動、碰撞、力學規則,實現精準物理互動。- 人形機器人落地:特斯拉Optimus、Unitree等已從Demo走向工業/服務場景,可搬運、裝配、巡檢、做家務。- 群體智能:無人車、無人機、工業機器人實現自主協作,完成複雜叢集任務。-實際案例- 電力巡檢“天工”機器人:在西南變電站自主巡檢、操作裝置,故障識別精準率99.9%,替代人工翻山越嶺。- 優必選Walker S2:在比亞迪、極氪等20家車廠實訓,自主換電、連續工作72小時。- 星動紀元物流機器人:京東亞洲一號倉分揀精準率99.7%,拿下5000萬元訂單。- 資料:2026年人形機器人出貨量預計破6萬台,市場規模超千億元;單台替代3名工人,投資回報周期18個月。4. AI for Science(科學AI):成為“AI科學家”,加速科研突破AI從輔助工具升級為自主科研主體,大幅縮短研發周期。- 藥物/材料研發:自動化實驗室+科學大模型,將數年研發壓縮至數月,加速新藥、新材料、催化劑發現。- 前沿科學:輔助核聚變模擬、氣候預測、蛋白質/基因解析、量子計算最佳化。- 實際案例- 儲能材料研發:“分子—電網工業智能體”將傳統以年計的研發周期縮至數月,工業級電站綜合性能提升超100%,已應用於張家口懷來資料中心。- 藥物研發:AI將藥物研發周期縮短60%,成本降低40%。- NASA火星車:Anthropic Claude全權規劃路線,將路程拆解為10米路段,規劃時間縮短50%。二、產業與應用:價值兌現,全面滲透(資料+案例)1. 規模與格局(2026最新)- 全球AI市場突破9000億美元,同比增長18%+。- 中國AI核心產業規模超12兆元,周呼叫量(4.69兆Token)首次超越美國,全球前五模型中四款來自中國。- 產業鏈:硬體(35%)、軟體(40%,智能體增長超80%)、應用(25%)。- 融資:2026年Q1中國AI融資88起、200億元,同比近乎翻倍;3月單月融資85億元,創歷史新高。2. 重點落地場景(資料+案例)- 智能製造- 中國智能工廠超3萬家,生產效率提升22.3%。- 某汽車零部件廠商:AI預測性維護,裝置故障率-28%,維護成本-32%。- 西門子+百事:數字孿生,生產吞吐量+20%,資本支出-10–15%。- 醫療健康- AI輔助診斷滲透率超60%,基層醫院達60%+。- 某社區醫院:AI處方稽核,效率+60%,處方合格率+15%;累計稽核**100萬+處方,識別8000+**不合理處方。- 重症監護:AI助手使檔案錯誤減少68%。- 金融風控- 信用卡欺詐檢測:響應時間從3秒→80毫秒(-97%),誤報率-42%。- 跨境合規審查:效率+80%。- 某國際投行:AI ESG系統,綠色金融規模2000億美元+,合規成本-55%。- 交通與物流- 城市交通:AI調度,擁堵率-25%,出行時間-30%。- 菜鳥網路:AI倉儲,效率+50%,物流成本-30%。- 內容創作- 行銷內容:AI生成效率+8–10倍,成本-90%,轉化率+30%。三、代表產品與模型(2026最新)- OpenAI GPT-5.2:44項專業任務勝率70.9%,醫療/法律/金融精準率超80%,多模態與長文字能力全面升級。- Google Gemini 3.1:推理能力翻倍,整合Lyria 3音樂生成,支援一鍵生成視訊配樂。- Anthropic Claude Mytos:新一代旗艦,性能大幅領先,支援Computer Use(系統級操作)。- 國產第一梯隊:字節、阿里、百度、騰訊等模型在推理、程式設計、多模態上與全球頂尖正面競爭,多項指標領先。四、關鍵趨勢與挑戰1. 核心趨勢- 範式躍遷:從生成式AI → 智能體AI → 具身智能(物理AI),AI從虛擬走向現實。- 普惠化:推理成本較2023年降70%,中小企業部署門檻大幅降低。- 安全與合規:AI安全、可解釋、倫理監管成為標配,人類主導權強化。2. 核心挑戰- 智能體協作標準化:多智能體通訊協議(MCP/A2A)尚在完善,跨平台協作待統一。- 具身智能可靠性:真實環境魯棒性、安全性、成本仍需突破。- 資料與隱私:高品質資料稀缺,資料安全與合規壓力增大。一句話總結:2026年是AI“動手幹活”的元年,智能體與具身智能讓AI真正成為能自主執行、能融入物理世界、能深度改造產業的核心生產力。 (追逐時代浪潮的人)
央視《焦點訪談》:“龍蝦”熱的“冷”思考
最近,一款叫“龍蝦”的智能體引發很多人的安裝熱潮。由於它的圖示是一隻紅色龍蝦而得此名。大家還把訓練、使用這款智能體的過程形象地叫作“養龍蝦”。“龍蝦熱”的同時,也暴露出了一些風險,包括工信部在內的一些主管部門連發風險預警。那麼,這只“龍蝦”它能幫我們幹什麼,又藏著什麼風險?記者進行了調查。一場“龍蝦”應用交流活動正在舉行。這個“龍蝦”,不是我們吃的美食,而是一種名叫OpenClaw的人工智慧體。這場活動,就是要看看誰能讓“龍蝦”發揮出更大的作用。“龍蝦”本名OpenClaw。它並非某個公司的商業產品,而是一個由全球開發者共同參與的開源人工智慧體項目,因為其紅色的龍蝦圖示,被戲稱為“龍蝦”。它與過去只能聊天的人工智慧大模型不同,除了擁有聰明的大腦、能思考,還多出了“手腳”,能夠直接操作電腦。它到底長什麼樣?究竟如何幹活?帶著好奇,記者決定找技術工程師親身體驗一次,而工程師的第一個建議就讓記者感到了不尋常:要帶一個格式化的、幾乎全新的電腦過來安裝。北京中關村學院工程師 吳衍標:“安裝了‘龍蝦’之後,它可以查看到電腦裡面的所有檔案,一旦有不法分子想利用這些漏洞,你的這些機密都可能外傳。”為什麼“龍蝦”可以查看電腦所有的檔案?在安裝的時候我們有沒有可能手動限制它的權限呢?記者發現,開放原始碼的原始版“龍蝦”並非能夠一鍵安裝完成,而是需要通過命令列輸入程式碼,技術門檻不低。“小龍蝦”在電腦上自主運行,默認的權限等級很高,這意味著運行它有一定的風險。工程師告訴記者,只有有了這個權限,這個“龍蝦”才具備了幹活的基礎。此外,它還需要有兩部分核心元件:一是需要一個人工智慧大模型,這就像給它安了個大腦,能讓它理解複雜的指令,這在安裝時就會讓使用者進行選擇;二是需要各種各樣的“技能”,賦予它操作具體軟體的能力,也就相當於給它裝上了“手腳”,比如,在告訴了它相關帳戶密碼的情況下,它能自主完成制定旅行計畫並預訂機票、回覆郵件等複雜任務。一隻剛出生的“小龍蝦”,自帶一些基本技能,它能做些什麼呢?記者決定對它進行三項測試。測試一:分類整理電腦桌面檔案記者通過即時通訊軟體向“龍蝦”發出整理電腦桌面的指令,等了幾分鐘後,它告訴記者,已經將電腦桌面檔案分類整理成功。測試二:遠端傳輸檔案並指定路徑儲存記者在手機上傳了一張圖,要求龍蝦將圖保存在電腦桌面的媒體圖片資料夾中。幾分鐘後,資料夾中真的出現了圖片。測試三:修改圖片大小並儲存記者要求“龍蝦”將電腦桌面資料夾中的一張圖片縮小並放入該資料夾,原圖片不動,幾分鐘後,“龍蝦”說新圖片已經存入了資料夾中。任務看似完成了,但“龍蝦”聲稱保留的原圖卻不翼而飛。如此看來,“龍蝦”就像一個還不是特別靠譜的助手,它基於人工智慧大模型,也有和大模型一樣的幻覺犯錯的可能。工程師告訴記者,要想讓“龍蝦”越來越強大,就需要“養蝦”。吳衍標:“第一個方法就是給它越來越多技能、越來越多記憶,讓它更懂你,讓它越來越擁有你的技能,這樣的話,它就能夠做你的事情;二來隨著大模型的發展,它的腦子也會變得越來越聰明。”儘管“龍蝦”還不太靠譜,但也獲得了不少擁躉。在讀博士呂丁陽就花了一個多星期時間養了一隻“科研龍蝦”,賦予了它很多科研技能,專門做材料領域的計算。而從事人工智慧領域研究的何紀言,則花了半個多月時間養了好幾隻非常瞭解自己的“龍蝦助手”,有的做科研,有的幫助管理日常資訊,有的負責整理材料、製作檔案等等。何紀言讓“龍蝦”根據應聘總台員工的特點做一份簡歷。幾分鐘後,這只“龍蝦”就完成了一份製作排版精良的簡歷,還突出了個人的應聘優勢。何紀言坦言,要讓“龍蝦”越來越智能,也需要花錢購買大模型的使用量,也就是所謂的Token,對於頻繁或複雜的任務,這筆消耗確實不小。但這種效率的提升,也讓“龍蝦”迅速出圈,不少地方出現了免費安裝“龍蝦”的熱潮。廣東深圳、安徽合肥、江蘇無錫和常熟等地相繼發佈政策支援“龍蝦”智能體和一人公司的發展,一些政府也部署應用上了“政務龍蝦”,用於公文寫作、民生問答等場景,希望能把基層幹部從繁瑣的事務中解放出來。不過,就在這股熱潮湧向各行各業時,也暴露出了風險,一些高校對“龍蝦”拉響了警報,下了“封殺令”。工業和資訊化部等多個主管部門接連發佈預警,直指OpenClaw存在高危安全風險,明確防範要求與使用者使用提醒,為AI智能體使用劃出安全紅線。一面是熱火朝天的應用,一面又是接連預警,這小小的“龍蝦”裡,到底藏著什麼玄機?中國資訊通訊研究院安全研究所副所長 孟楠:“龍蝦智能體的優勢在於高權限的自主執行能力,它讓人工智慧從能說進化到會做,同時也帶來了一些新的安全風險。”風險一:權限失控帶來的系統被接管的風險專家告訴記者,一旦被駭客利用或者使用者指令不當,“龍蝦”就有可能不加辨別地去執行破壞性操作。比如,刪除我們的核心檔案,把敏感的資料發到網路上,或者在使用者不知情的情況下悄悄安裝惡意的軟體。風險二:網路暴露帶來的攻擊入口風險為了方便,很多使用者會將“龍蝦”智能體管理連接埠暴露在網際網路上,這無異於給駭客開了後門。孟楠:“更危險的是,如果這個智能體還連接到單位內部的網路,就可能成為駭客進行攻擊的跳板,一旦被攻陷,整個企業內部網路都將面臨威脅。”風險三:產品漏洞帶來的可能被利用的風險任何軟體都有漏洞,但在“龍蝦”的高權限加持下,漏洞的危害被進一步放大。而為了讓“龍蝦”具有更多技能,使用者往往會安裝第三方外掛,還會帶來供應鏈風險。孟楠:“我們發現了不少技能外掛被植入了惡意程式碼,使用者在使用這些有毒的技能外掛時,就等於把惡意程序請進了家門,輕則造成資料洩露,重則整個系統被駭客控制。”對於這些隱患,深度“養蝦人”及科技行業人士也坦言,儘管AI智能體是發展趨勢,但普通使用者絕對不能掉以輕心。那麼,普通使用者使用“龍蝦”如何保障安全呢?專家認為,普通使用者屬於安全風險的高發群體,應該審慎安裝“龍蝦”。工信部日前發佈了關於“龍蝦”的“六要六不要”安全指引,涵蓋了權限控制、網路隔離、技能外掛使用等關鍵環節。3月22日,國家網際網路應急中心、中國網路空間安全協會聯合發佈了“龍蝦”OpenClaw的安全使用指南,面向普通使用者、企業使用者、雲服務商以及技術開發者等,提出安全防護建議。其中,對於普通使用者的建議包括:使用專用裝置、虛擬機器或容器安裝OpenClaw,並做好環境隔離,不宜在日常辦公電腦上安裝;不將OpenClaw默認連接埠(18789\19890)暴露到公網;不使用管理員或超級使用者權限運行OpenClaw;安裝可信技能外掛;不在OpenClaw環境中儲存、處理隱私資料;及時更新OpenClaw最新版本等。儘管現在各主管部門不斷在提示“龍蝦”安全風險問題,但從長遠來看,專家認為,要解決“龍蝦”的安全問題,更需要從標準、技術、生態多方面著手。孟楠:“建議始終堅持統籌發展和安全,在鼓勵和促進創新的同時,針對不同場景做精準分類施策,確保安全可控。需要盡快制定相關標準規範來引導各類主體規範應用新技術,引導鼓勵網路安全企業研製相關的環境隔離、智能攔截、行為審計等安全產品和服務。建立包括智能體提供者、安全企業等主體在內的相關主體來協同治理生態。”我們看到,有不少人都希望盡快掌握和利用智能體提升效率、滿足需求,一些企業也開始嘗試使用。對於像“龍蝦”這樣的新事物,我們需要鼓勵,需要為技術創新留足試錯的空間,避免束縛產業發展的活力;但同時,面對爆火的“龍蝦”,我們也需要有一些冷思考,守住安全底線,防範風險擴散失控。也就是說,技術創新和安全監管協同推進、良性互動,我們才能更好地和AI共舞,推動人工智慧高品質發展。 (中國信通院CAICT)
App將逐漸消亡,然後呢?
當“龍蝦”長出身體每隔一兩個小時,張鈸就會收到一句語音提醒:“該喝水了!”發出提醒的,正是他的私人“助理”。助理還會幫他承擔複雜的檢索工作,並事無鉅細地提供每一步檢索過程、遭遇的困難和對應結果。“我讓它針對今年全國兩會中關於人工智慧的提案做深度調研,它先檢索中文資源,再去查英文資料。”所有人都能猜到,這位盡職盡責的“助理”,就是最近火爆全球的“龍蝦”。張鈸是中國科學院院士、清華大學人工智慧研究院名譽院長。兩周前,他在自己的電腦上安裝了一隻內測的“澳龍”(AutoClaw),這是一款由智譜開發的國產版“龍蝦”,可在本地一鍵部署。作為GPT的90歲高齡資深玩家,張鈸對《中國新聞周刊》表示,以“龍蝦”為代表的AI智能體(Agent)與傳統大語言模型的本質區別,是GPT只會回答問題,Agent則會執行任務,而且會把執行的整個過程一步步展示出來。與DeepSeek引發的上一輪全民技術狂歡相比,“不僅會說,還能做事”的“龍蝦”似乎在普通人中點燃了更大的熱情,但很快,曾經千人排隊安“龍蝦”的名場面,就變為爭相購買鹹魚上的“99元安全解除安裝龍蝦服務”。“整個市場在漸趨理性。”平凱星辰副總裁、原阿里雲副總裁劉松對《中國新聞周刊》說。一個由人類與Agent共同生活、工作並建構社會的“龍蝦”時代,會引發怎樣的技術革命與社會變革?Agent進化的終極形態是什麼?當前發生的一切,真的是人類抵達通用人工智慧(AGI)的關鍵一躍嗎?AI插畫/adan“意義比DeepSeek更重大”“能力不穩定是最明顯的感受。”劉松同時養了四隻“龍蝦”,分別來自Kimi、MiniMax、飛書和智譜。在使用兩周後,他發現,“龍蝦”的強大主要體現於三種能力:一是本地部署,這意味著它可以直接操作個人電腦環境;二是永久記憶,能記住上下文和任務歷史;三是可以隨時建立和獲取Skills,也就是Agent在執行任務時能呼叫的一切“能力”或“工具包”。劉松認為,本質上,模型能力決定著“龍蝦”的智力,呼叫工具的能力則體現出它的執行力,也就是“模型+呼叫”。多位受訪的AI從業者指出,目前,大語言模型在不同領域的“聰明程度”仍有差異,特別是國產大模型,有的模型擅長程式設計與資訊蒐集,有的模型擅長中文處理。受模型能力影響,“龍蝦”在執行任務時經常會被“養死”,比如任務中途“卡住”或在兩個步驟間無限循環;有時同一個任務,多次運行結果差異卻很大,或需要反覆嘗試多次才能完成。當任務步驟很多時,“失憶”也很常見。“有點像找了一個很勤奮的實習生,但有時工作完成的質量只有60分,你還得親自去幫他收場。”劉松形容。清華大學智能產業研究院首席研究員、前阿里巴巴人工智慧實驗室北京負責人聶再清認為,當前的“龍蝦”更像是一個技術雛形。他對《中國新聞周刊》說,在現有模型能力下,Agent雖然能在開放環境中自主規劃行動,但對於現實世界規則的理解仍然有限,在很多場景下,依然需要依賴人類持續參與。因此,在未來很長一段時間,人機協作仍是完成任務的主要模式。事實上,在太平洋的另一頭,這只最早從矽谷極客圈開始走向全球的“龍蝦”OpenClaw,只是一位奧地利創業者的“周末項目”,更接近一個實驗框架,遠非成熟產品。創業者叫彼得·施泰因貝格爾。很多開發者後來分析,OpenClaw的成功在於它抓住了一個重要的時機:大模型的程式設計(coding)能力已進化到了足夠驚豔的水平,Agent現在終於可以擁有一顆聰明的“大腦”了——雖然站在使用者的角度,這或許還不夠。整個2025年,OpenAI、Google等大模型領域的前沿競爭者相繼推出了以程式設計為強化方向的模型升級。其中,最有影響力的一款產品是Anthropic於2025年2月發佈的Claude Code,很多開發者將其視為Agent時代的真正開端,認為它可以像軟體工程師一樣完成完整的工作流程——從理解需求、拆解任務,到生成程式碼、測試並修改錯誤。但真正在全球火起來的卻是OpenClaw,為什麼是它?張鈸認為,原因有兩個,一是開源;二是第一次在數字世界裡打造了一個相對完整的通用Agent系統框架,能呼叫各種資源,也可以接入即時通訊軟體的入口,可玩性和擴展性都很強,也很適合二次開發。作為中國AI領域的核心奠基人之一,張鈸見證了人工智慧40多年來的潮起潮落,他在接受《中國新聞周刊》採訪時指出,過去的人工智慧只能在特定領域、使用特定模型去解決特定問題,大語言模型帶來的最大突破,是在語言領域實現了一定程度的通用性。以OpenClaw為代表的智能體則更進一步,讓模型具備了行動能力,甚至可以根據使用者的特點提供個性化服務,這就意味著人類向AGI又邁進了一步。有學者稱,“龍蝦”誕生的意義比DeepSeek更加重大。“無論如何,這是一個很好的起點。”聶再清說,目前的Agent產品還處於早期,要想大規模進入公眾的日常生活和工作,除了性能穩定性需提升以外,安全風險問題也亟待解決。需要進一步明確一點,“龍蝦”強大的執行能力有一個前提:授予真實權限。張鈸說,Agent要想玩得好,人類必須“放權”,允許它呼叫電腦裡的檔案、查閱郵件、登錄社交帳號並行送資訊,但這個過程中也可能造成嚴重的隱私洩露。正是出於對安全風險的擔憂,他幾乎沒給“龍蝦”任何授權。“我很謹慎,尤其擔心被駭客攻擊,因為機器比人更容易被欺騙與誤導。”聶再清進一步解釋,現階段“龍蝦”產品之所以會帶來資訊安全風險,是由於Agent在執行任務時需要呼叫外部大模型進行推理,人們常說的API就是指呼叫資源所需的“介面”,接入外部API後,也就意味著使用者本地的資訊可能被上傳到外部系統進行處理,如果系統在判斷那些資訊可以傳送、那些資訊不應傳送方面缺乏足夠能力,就可能導致敏感資料被意外暴露。他強調,下一步,安全與責任機制將成為關鍵議題,Agent服務提供商應對系統行為承擔責任,監管部門也要深度參與規則制定。劉松對Agent的安全問題持樂觀態度。他所在的企業平凱星辰是一家開源分佈式資料庫提供商,對資料安全的本質看得更清楚。他認為,這類安全風險並不是“龍蝦”獨有的問題,而是一個更廣義的資料安全與權限管理問題。關鍵在於如何為“龍蝦”設定清晰的權限邊界,例如明確那些資料可以訪問、那些操作必須人工確認,以及在關鍵節點設定多重確認機制。“就像電腦刪除檔案時需要二次確認一樣,Agent在執行可能帶來不可逆後果的操作時,也應該觸發提示和稽核流程。這沒有什麼技術挑戰,企業級安全解決方案很快會走向成熟。”上圖:3月11日,在中國(南京)軟體谷“質能·工坊”OPC社區,技術人員安裝完開源AI智能體“龍蝦”後與使用者(左)交流。圖/新華下圖:3月16日,廣東珠海市以“賦能政企數字員工,落地智能行為執行”為主題的OpenClaw AI技術沙龍中心。圖/視覺中國“App會逐漸消亡”“龍蝦”在全球的擴張速度比人們想像中要快。2025年12月,OpenClaw在GitHub上的關注度還很低,80多天以後,OpenClaw在GitHub上的收藏量已達到25萬,成為這個開源社區歷史上增長最快的項目之一。奇安信在3月16日發佈的國內首份《OpenClaw生態威脅分析報告》中揭示了一組驚人的數字:全球四大主流Skills分發平台上的Skills總量已逼近75萬,每天新增數量高達2.1萬個,按照此趨勢,僅需一年時間Skills總量將突破800萬。為了接住這波流量,騰訊、阿里、百度等大廠幾乎在幾天之內就緊急上架了自己的“龍蝦”。業內人士普遍認為,Agent很可能會成為下一代“移動網際網路”。“或者更直白地說,成為下一個入口。”聶再清說。設想一個這樣的場景:你要進行一場為期7天的大理旅行,你點開手機螢幕,無須打開攜程、12306、飛豬等不同App,只要對著手機,把你的需求清晰地表達出來,一個生活類“龍蝦”就“一站式”幫你完成訂票、購物、資訊檢索、小眾行程規劃等所有任務,原本的App成了Agent的Skills。劉鬆解釋,由於“龍蝦”能夠便捷地跨應用呼叫服務,隨著使用者對Agent的依賴性上升,個人手機上的App會逐漸消亡,或是被“折疊”到後台,新的入口將轉移到Agent平台。他推測,經過三五年洗牌後,未來以Agent為核心的AI產業競爭很可能進一步走向寡頭格局。“因為在‘龍蝦’時代,勝出者必須同時擁有大模型能力、算力、資料和使用者規模等多重資源,競爭門檻相當高。相比之下,一些缺乏AI技術能力或算力基礎的網際網路企業,特別是一些單純的社交類平台,未來可能更多成為被呼叫的服務節點。”他說。不過,即使“龍蝦”穩定性進一步提升,Agent可以取代一些生活類App去自動完成規劃,在一些關鍵節點仍需與使用者確認中間結果。劉松認為,傳統App的優勢就在於,每一步操作都可以被使用者選擇和追溯,但Agent全方位接入後,使用者可能失去這種精細化控制能力,“就像從手動擋變成了自動擋的演進”。他建議,在未來“龍蝦”手機裡,仍可以保留某種“中間介面”,至於其具體形態,則可以進一步探討,未必一定是以App的形式。3月13日,廣東深圳深元人工智慧聯合MetaEra與iPollo在深圳華強北全球人工智慧應用場景中心舉辦“全球首家OpenClaw線下展示”活動。圖/視覺中國“一場人機互動革命將開啟”毫無疑問,以“龍蝦”為代表的新一代Agent技術,即將開啟一場人機互動革命。目前,業界基本達成共識,未來的人機互動是以語言為核心的“自然互動”。張鈸認為,與傳統的文字互動相比,自然語言具有明顯優勢:它不依賴複雜操作,也不受使用者教育水平的限制。聶再清認為,除語言之外,視覺乃至各種環境訊號未來都可能成為輸入方式,互動形態會更加多樣化。與此同時,人機互動的雙向性會明顯增強,Agent不僅能執行任務,也能在理解使用者目標的基礎上主動提出建議。“專屬於你的Agent助手會一直跟著你,瞭解你的個性與習慣,幫你在海量的資料中尋找最優解,通過人機協作來共同解決問題。”在這樣的未來圖景中,從硬體端來看,張鈸認為,人機互動也將不再侷限於電腦或手機螢幕,“任何終端裝置都可能成為入口,手錶、眼鏡、戒指、智能家具等,使用者可以隨時通過自然語言與AI互動”。這樣的未來或許不需要等待太久。劉松推測,最多三到五年,人類就會進入“多Agent並存”時代,個人裝置上可能同時運行很多私人“助理”,例如工作Agent、生活Agent、學習Agent等。每個人的“數字員工”分工有序,隨著這種模式逐漸成熟,人與智能體之間,以及不同智能體之間都會形成新的協作網路。在這樣的協作網路中,Agent還會重塑人類的工作方式與就業結構。張鈸認為,AI的發展並不只是效率工具的升級,更會改變人與機器之間的分工結構。未來,機器將承擔更多執行性工作,人類的角色逐漸轉向提出目標、分配任務並對結果進行判斷。而勞動力市場則會演變成不平衡的“啞鈴型結構”:人類向兩端集中,一端是高端的創造性和決策性工作,另一端是非常低端的體力勞動,大量中低端的事務性崗位被Agent系統替代。“甚至更簡單點說,凡是坐在電腦前處理資訊的工作,都會受到影響。”劉松說。他所在的企業目前有大約300名技術研發人員,本來今年還要再招人,但隨著Coding Agent的到來,招聘計畫又重新規劃了。當人類的社會結構被Agent深刻改變,Agent與Agent正在組成新的社會結構。在只有Agent可以分享、討論和點讚的社交平台Moltbook,一項2026年2月發表的研究深入分析了Moltbook上14490個智能體發佈的39026個帖子和5712條評論,研究者吃驚地發現,雖然18.4%的帖子包含行動誘導語言,但大多數在網上“衝浪”的Agent,在社交平台上卻沒有出現人們設想中的極端情緒,不僅很少見到惡意回覆,還會有Agent善意地在極端帖下提醒廣大“Agent友”要警惕這些帶有風險的言論,也就是說,即使在沒有人類監督的情況下,由Agent構成的社會系統似乎也湧現出一定的社會秩序與規範。劉松分析,由於Agent的行為模式建立在對人類知識和語言資料的學習之上,其看似理性的反饋,很大程度上是對人類已有規則和經驗的再現與強化。與人類不同,Agent並不存在真實的情緒和慾望,因此在某些社交場景中反而顯得更加客觀和克制。他認為,當前階段討論“Agent社會”的自主性風險仍為時尚早,更值得關注的是,這種由演算法驅動的數位化社會形態,是否會反過來影響人類對規則、秩序與理性的理解。“Agent社會就是人類社會某種意義上的鏡像。”以“龍蝦”為代表的新一代Agent技術,即將開啟一場人機互動革命。AI插畫/adan當“龍蝦”長出“身體”Agent進化的終極形態是什麼?在眾多大廠部署“龍蝦”的熱鬧之下,近日,維他動力的一條新聞被很快淹沒:機器狗“大頭BoBo”宣佈接入OpenClaw,讓Agent首次具身化,有網友戲稱,活體“大龍蝦”終於來了。張鈸指出,Agent與機器人合體之後,就相當於給它裝上了“大腦”。在他看來,當擁有“大腦”的機器人開始在真實的物理世界中執行更多複雜任務,可能推動人類加速走向通用人工智慧(AGI)——雖然,人類距離這一終極目標還有很遠的距離。劉松認為,“Agent+機器人”的融合仍處於初級階段。目前,Agent的核心優勢仍在於大語言模型的推理與規劃能力,可以理解和處理數字世界中的任務,而非直接應對複雜的物理環境。也就是說,機器人如果僅僅基於“大語言模型”有了“大腦”,本質上仍是把語言模型的輸出對應為具體動作執行,但不足以支撐複雜場景中的自主決策。要想讓“龍蝦”真的長出“身體”,缺失的關鍵一環是感知能力。張鈸解釋,感知能力是人工智慧走向現實世界的關鍵前提。與數字環境不同,物理世界高度複雜且持續變化,如果缺乏強大的感知系統,機器就無法理解環境變化,並據此作出決策。“從Agent實際工作的表現來看,只有微小感知,也就是小範圍的閉環反饋能力,主要以語言模型中常用的人類獎懲機制來推動,缺乏主動對做過的事情自我反思、自我改進並持續自我學習。這就需要建構一個來自外部環境的真實反饋機制。”但問題是,想讓一輛無人車學會規避路障,不可能真的讓人開著它在現實世界積累“車禍”經驗,於是,AI研究人員提出了“世界模型”的構想,類似於設計一種“真實世界模擬器”,可以讓無人車在模擬世界中進行學習與決策。深度學習“三巨頭”之一的楊立昆就將“世界模型”視為通往高階人工智慧的關鍵路徑,強調AI必須學會表徵、預測和規劃物理世界。通俗地說,大語言模型擅長回答“下一個詞是什麼”,而世界模型要回答的是:“下一秒會發生什麼。”Google在2025年推出Genie 3時就宣告要朝著更通用的互動式世界模型邁進。輝達也明確把“世界基礎模型”定位為機器人和自動駕駛的物理AI底座。但總體而言,“世界模型”在過去幾年並沒有明顯的技術突破。張鈸分析,要想建構儘量接近真實世界的環境,就需要海量高品質的現實世界資料,但資料的獲取難度非常大。“建立通用的世界模型目前是不大可能的,只能針對某一具體垂直場景建造模型,最典型的就是自動駕駛。”多位受訪者指出,如果“世界模型”能將“感知—決策—執行”的閉環徹底走通,就看到了具身智能的希望。從技術演進的長期趨勢來看,Agent與機器人融合,是AI發展的必然趨勢。也就是說,Agent在未來的終極形態一定是擁有“身體”的Agent,不僅能理解語言,還能理解物理世界的運行規律。更進一步說,未來的Agent更像一個同時擁有很多“肉身”的智能中樞。聶再清認為,在Agent向著具身智能演進的過程中,智能化的物聯網也將成為關鍵基礎設施,“只有在更多裝置被連接之後,Agent才會具備更強的環境理解與控制能力,這些延伸出去的‘感知器官’與‘行動肢體’共同構成一個完整的貫通數字世界與物理世界的智能系統,這一感知與反饋閉環的成熟,正是人類通往AGI的核心驅動力”。 (中國新聞周刊)