#開源
實測!DeepSeek V4-pro是第一個接近Claude開源模型,前Meta研究員震驚
DeepSeek V4-pro是第一個接近Claude開源模型DAIR.AI創始人、前Meta AI研究員Elvis最近花了幾個小時,用DeepSeek-V4-Pro在Pi這個Agent框架裡搭了一個LLM知識庫。結果他直接被整震驚了。開箱即用他用的是Pi,一個基礎的Agent腳手架,沒有做任何特殊配置,直接把DeepSeek-V4-Pro接進去,就跑起來了。他特別強調這一點:這是他第一次見到一個開源模型,可以就這樣插進一個基礎框架,什麼都不用調,直接工作。以前遇到的模型,基本都需要大量的配置和前期準備工作。能做到這一步,本身就已經很罕見了。推理服務跑在Fireworks AI上。Agent幹了什麼這個Agent承擔的任務並不輕鬆,是一次覆蓋面很廣的知識密集型多步研究任務:從Anthropic、OpenAI、Google、Stripe、Meta、Modal、DeepSeek、Mistral、Cohere等多家公司的官方文件裡,抓取Agent工程的最佳實踐;同時搜尋並消化Reddit和Hacker News上的相關討論帖;總結arXiv上的學術論文;挖掘GitHub上的熱門倉庫。最後,把所有這些來源的內容彙總,提煉成分類清晰、可以直接落地執行的建議,組成一整個知識庫Wiki。Wiki已經開源,可以直接查看:https://github.com/dair-ai/dair-workshops/tree/main/agentic-engineering-wikiElvis對成品質量的評價是:真的很好。模型在整個過程中沒有出任何問題多步研究查詢、為腳手架生成程式碼、跨多個來源的重度上下文推理,全部流暢完成,沒有卡頓,沒有中斷。他對DeepSeek-V4-Pro的判斷是兩點:第一,在開源模型裡,它在Agent程式設計任務上可能是最強的;第二,它在知識密集型、需要推理的任務上同樣表現出色,不只是會寫程式碼。在程式設計能力這件事上,他給出了一個更直接的評價:這是他見過的第一個開源模型,真正能讓人感受到接近Codex或Claude Code的體驗。不是說能力差不多,而是在實際的多輪Agent任務裡,它能真正比肩這兩個產品。他也提到,這是他第一次感受到,有一個開源模型的推理能力真正達到了Claude和Codex的水平,同時還以一種經濟實惠的方式實現了對100萬token上下文長度的支援。跑得快,背後有架構原因整個Agent循環之所以響應迅速,有兩個因素。一個是Fireworks AI的推理速度,Elvis認為這是目前市場上最快的,並且Fireworks在上線模型之前會在系統層面做驗證,沒有出現推理鏈損壞的問題,迭代穩定可靠。另一個是DeepSeek-V4-Pro自身的架構設計。它採用了混合CSA和HCA注意力機制,在100萬token的上下文長度下,KV快取只有原來的10%,推理所需的FLOPs降低了近4倍。這兩點加在一起,讓Agent循環在實際使用中足夠快、足夠便宜,真正可以跑起來。給一直在等的開發者Elvis最後說,對於那些一直在觀察開源模型能否真正追上閉源模型、但始終沒找到一個能在實踐中真正交付的人來說,DeepSeek-V4-Pro是他目前見過最接近那個答案的模型。 (AI寒武紀)
DeepSeek V4:是AI開源大事件,更是產業變革新開端
推理效率提升74%、KV快取壓縮90%、API定價不及閉源競品1%。當大模型的邊際成本趨近於零,AI產業的真正變局才剛剛開始。2026年4月24日,DeepSeek在沉寂長達15個月後,正式發佈並開源新一代旗艦模型DeepSeek-V4。這不是一次常規的模型迭代,而是一次從架構底層到價格體系、從算力生態到產業邏輯的全方位重塑。如果說過去兩年AI圈的競爭是“誰能做出更聰明的模型”,那麼從這一天開始,競爭正在轉向:“誰能讓AI變成人人用得起的水電煤”。一、暴力破解的終結:當AI開始“聰明地花算力”DeepSeek-V4系列包含兩款模型:V4-Pro(1.6兆總參數,每次推理啟動490億參數)和V4-Flash(2840億總參數,每次推理啟動130億參數),兩者均原生支援100萬token超長上下文。1M上下文從此不再是一個“高端功能”——一年前它還是Gemini獨家的王牌,如今被DeepSeek直接挪成了行業標配的“水電煤”。這組資料之所以震驚業界,不是因為參數大,而是因為效率做到了前所未有的極致。在100萬token的極端長度下,V4-Pro的單token推理FLOPs僅為上一代V3.2的27%,KV快取佔用僅為10%。V4-Flash則更進一步,只需要10%的單token FLOPs和7%的KV快取。這意味著什麼?處理同樣長度的超長文件,V4不僅讀得更多,而且讀得更快、更省、更穩。效率提升的核心來自一系列值得深挖的架構創新:壓縮稀疏注意力(CSA) :每4個token合併成一個壓縮條目,然後用閃電索引器快速篩選出最相關的少量塊進行注意力計算——“拿著放大鏡找關鍵線索的偵探”。重度壓縮注意力(HCA) :以高達128倍的壓縮率濃縮全域資訊——“站在山頂俯瞰全景的指揮官”。兩者交錯部署在模型的各層中,形成精準定位與全域把握的互補。流形約束超連接(mHC) :給訊號傳播加上“安全閥”,從根本上保證訓練穩定性。Muon最佳化器:取代業界標配的AdamW,進一步降低訓練成本。這一切的底層哲學,不是“堆參數”,而是“每瓦特算力的最大產出”。DeepSeek V4把注意力機製做了一次“手術級”的改造,讓超長上下文從實驗室裡的“高端展示”變成了普通開發者也能跑得動的日常工具。這種效率革命帶來的是價格上的斷崖式下降。DeepSeek V4-Flash每百萬token輸出價僅0.279美元,而同期OpenAI發佈的GPT-5.5 Pro輸出價高達180美元——價差整整645倍。V4-Pro輸出端成本則僅為GPT-5.5 Pro的2%。如果把V4-Pro考慮折扣後的API輸入價壓到0.25元/百萬詞元,與GPT-5.5 Pro加權平均價格30美元/百萬token相比,價差超過700倍。更直觀地說:V4呼叫一次的價格,還不到對手的千分之一。 在推理效率層面,華為昇騰950超節點的測試資料顯示,V4-Pro單卡Decode吞吐可達4700TPS,V4-Flash在8K長序列場景下單卡Decode吞吐1600TPS。DeepSeek V4的回答是:快,是能力的下限;省,才是格局的起點。二、一扇門打開,另一扇門關上當DeepSeek V4以700倍的價格差距直插市場時,它激發的連鎖反應遠遠超出模型本身。開源vs閉源:矽谷在“造牆”,中國在“修路”。矽谷的頭部玩家們不約而同地選擇了閉源路線。OpenAI、Anthropic、Google的Gemini,當前沿技術創新被鎖死在各自的資料中心裡,玩家們不可避免地陷入了零和博弈的“權力遊戲”。就在V4發佈前夕,一場圍繞新模型的輿論狙擊戰剛剛上演——4月16日Anthropic剛發佈Claude Opus 4.7,OpenAI兩個多小時後便宣佈Codex大幅更新;隨後又圍繞營收資料互相拆台,敵意滲透進每一個決策環節。而DeepSeek走了一條完全不同的路。它聚焦基礎模型的核心能力攻堅,進一步築牢了全球開源大模型的性能天花板,為全行業提供了性能比肩閉源旗艦的基礎底座。巧合的是,就在V4發佈前後,國內的Kimi也開源了K2.6,兩個兆參數模型同時亮相,卻沒有一絲互掐,甚至還在技術底層進行了“換防”。正如大量評論所指出的,這背後是中美AI路線的一次分岔:矽谷在“造牆”,守住既得利益;中國在“修路”,走開源協同之路。這種路線的分野,背後是根本邏輯的差異。閉源路線的本質是技術作為“護城河”和賺錢的工具,一旦共享就會失去競爭優勢;而開放原始碼的邏輯是模型越開放,生態越繁榮,蛋糕才能越做越大。網際網路巨頭:戰火從“參數比拚”燒向“應用落地”。DeepSeek V4發佈僅一天後,阿里雲百煉就火速上線,API價格與官網一致;國家超算網際網路同步上線服務。科大訊飛、中關村科金、華為昇騰等廠商也在第一時間完成了適配對接。對於騰訊、字節跳動、阿里這樣的巨頭來說,V4的衝擊更多是戰略層面的:以前大家的競爭焦點是“誰的模型參數更大、榜單更高”,現在V4用700倍的成本優勢提醒所有人——接下來真正決定勝負的戰場,是誰能在真實業務場景中用模型創造價值。誰先學會“用好V4”,誰就可能在下一階段佔據卡位優勢。各行各業:一次從“能不能用”到“用不用得起”的跨越。在此之前,企業引入大模型最大的瓶頸不是技術夠不夠好,而是成本夠不夠低。一次API呼叫幾十上百美元的成本,對中小企業來說等於把AI鎖在實驗室裡。V4的出現改變了這一切。在金融行業,國泰海通率先完成DeepSeek-V4基於昇騰的本地化部署,將依託模型實現在智能投行、智能投研、智能投顧、智能風控等八大業務領域的全面突破。保險行業聚焦投保、核保、理賠查勘等高重複性、知識密集型和互動高頻度場景展開部署。在醫療領域,深圳市南山區人民醫院基於昇騰率先部署V4,全面升級了政策諮詢、醫保監管、門診病歷質控等30余項應用,全方位覆蓋醫療全流程。廣西移動落地部署V4,聚焦行銷服務、研發設計等核心領域,全面賦能16個業務場景。河北交投智能科技公司在行業內率先完成V4本地化部署,建構了“自主創新算力+頂尖大模型”的全端自主創新AI底座。從金融到醫療,從通訊到交通——DeepSeek V4發佈後24小時內,各行業頭部企業就火速跟進部署。這本身就是最好的訊號:當AI足夠便宜,企業就不再觀望。“用得起”的真正意義,在於讓AI從實驗室資源變成基礎設施,從而催生前所未有的創新。三、AI便宜到人人敢用,模式才敢真變如果說過去兩年AI的變革是“天變了”,那麼V4之後,我們才第一次站在真正的變局起點上。為什麼這麼說?因為模式創新的土壤不是技術能力本身,而是足夠低的試錯成本。當一個團隊可以毫不心疼地跑十次不同提示詞、對比輸出質量而不是在意API帳單,產品經理可以大膽設想的每個互動都即時呼叫AI,企業可以把AI植入到那些“不太重要但希望更好的環節”——這才是模式創新真正開始的時候。DeepSeek V4的Agent能力經過了專門最佳化。在Agentic Coding評測中,V4-Pro已達到當前開源模型最佳水平,交付質量接近Claude Opus 4.6非思考模式;在世界知識測評中大幅領先其他開源模型,僅稍遜於頂尖閉源模型Gemini-Pro-3.1;在數學、STEM、競賽型程式碼等推理任務中超越所有已公開評測的開源模型。V4-Pro還在Codeforces程式設計任務中拿下3206分的測評成績,位列全球活躍使用者第23位。這意味著,過去只有頂級閉源模型才具備的強大執行能力,現在以1/700的價格向所有人開放。中小企業可以部署自動處理客戶問題的7×24小時AI客服系統;個體開發者建構的Agent能自主呼叫API完成多步任務;創業公司可以在產品中“鋪滿AI”,讓大模型程式碼改寫、文件生成、資料清洗成為功能的默認組成部分。當AI便宜到可以和“發一條簡訊”比較成本的時候,所有行業都值得重新問自己一個問題:如果AI呼叫幾乎是免費的,我的產品應該長什麼樣?四、Token經濟的興起:當消耗量三年增長一千多倍在把模型做得更高效、更便宜的同時,一個更深層的經濟變革正在發生。Token——大模型的基本計量單位——正在從後台技術參數變成AI經濟的前台結算單位。商湯科技大裝置產品總經理盧國強在2026中國生成式AI大會上提出的“AI Token Factory”概念,精準概括了這一趨勢:行業正在從“AI原生”邁向“Agent原生”,Token替代Flops成為新的度量衡,AI系統的核心使用者將從人轉向Agent。Token消耗量的增長數字令人震撼。國家資料局公佈的資料顯示,到2026年3月,中國日均Token呼叫量已超過140兆,相比2024年初的1000億增長了1000多倍,相比2025年底的100兆,短短三個月又增長了40%以上。中國工程院院士鄭緯民指出,AI產業的競爭核心正從MaaS(模型即服務)向TaaS(Token即服務)躍遷,從比拚算力叢集規模轉向比拚每瓦Token生產效率。圍繞Token經濟的整套產業邏輯正在逐步成型:生產層:對應算力、晶片、資料中心與推理引擎,把Token作為核心產品來組織基礎設施。分發層:對應雲平台、大模型廠商與API服務商,將底層能力打包按量計費分發。轉化層:對應各行業的AI原生應用和Agent系統,將Token轉化為實際的業務結果。阿里巴巴已正式成立Alibaba Token Hub事業群,騰訊雲將MaaS平台升級為TokenHub,行業從藍海迅速變為紅海。Token兩年激增千倍,智能體市場規模2025年達78.4億元,預計2026年將達135.3億元,增速超過70%。Token正從技術參數,變成AI時代最核心的生產資料和度量衡。誰能高效生產Token、精準分發Token、有效轉化Token,誰就能在智能經濟的新賽道上佔據先機。五、變局中的挑戰與耐心V4帶來的不可能全是好消息。巨大的機遇背後,挑戰同樣不容迴避。安全邊界重構需要時間。 當模型能夠讀取百萬token的超長上下文,風險不再只存在於使用者的當前問題中,而可能藏在龐大材料的某個角落——長長的郵件鏈的腳註裡、PDF的不可見區域中、程式碼註釋裡或歷史聊天記錄中。攻擊者可以把惡意指令藏在這些地方,在模型執行複雜的跨文件推理時“潛伏發動”。強制長上下文安全做前置治理,對使用者指令和外部資料做來源標註和風險掃描,已經成為迫在眉睫的工程需求。落地到用好有個過程。 企業部署了V4並不等於馬上獲得商業價值。從部署到真正融入核心業務流程創造收益,中間還有漫長的產品化、場景適配和組織變革之路。Token成本大幅下降後,產品經理如何在AI能力邊界內重新設計功能,才是決定成敗的關鍵因素之一。地緣政治與算力安全需要關注。 DeepSeek-V4首次在官方技術報告中,將華為昇騰與輝達GPU並列寫進硬體驗證清單,這是中國大模型首次將國產晶片與進口晶片放到了同等戰略高度。適配的昇騰新款推理晶片採購價格僅為輝達晶片的1/4,端到端延遲比原有叢集降低35%。輝達CEO黃仁勳此前警告稱:“如果頂尖的AI模型被最佳化在華為晶片上運行,對美國而言將是可怕的後果”。V4的發佈標誌著中國AI基礎設施的重心正從依賴美國半導體轉向本土化算力底座建構。但技術代差客觀存在,DeepSeek也坦承其能力整體落後於同期主要閉源對手約3至6個月。六、變局的開端才剛剛到來回到標題的那個判斷:DeepSeek V4是AI開源大事件,更是產業變革新開端。是的,事件已經發生——V4-Pro和V4-Flash雙雙開源,百萬上下文成為標配,API定價低至全球閉源競品的1/700,Agent能力逼近頂尖水平。但真正的變革才剛剛開始。因為V4真正的意義,不在於它本身有多強,而在於它重新定義了什麼才是AI產業真正的“兵家必爭之地” 。V4向行業宣告:當模型能力開始逐步趨同(開源會逐步追平閉源),真正決定勝負的將是:誰能讓AI更便宜、更易用、更快地融入真實世界。從長遠來看,AI產業的終極形態是:大模型成為像電力一樣的基礎設施,上面的Agent和智能應用才是創造價值的核心。而DeepSeek V4用700倍的成本優勢一次性把基礎設施的“電費”降到了幾乎可以忽略不計的水平。接下來,誰能在上面建造出更有創造力的智能應用,誰才是真正的贏家。2026年4月24日以前,AI還在比拚“能力的天花板”。從這一天開始,AI產業的真正競賽才剛剛開始。 (數字新財報)
馬斯克大戰奧特曼,開庭了!
AI時代最貴的一場內訌,開庭了。一邊是馬斯克,SpaceX、xAI背後那個仍在不斷製造超級IPO想像的人;另一邊是山姆·奧特曼,帶著OpenAI衝向兆美元估值神話的男人。當地時間4月28日,馬斯克在加州奧克蘭聯邦法院出庭作證,把自己對OpenAI的訴訟稱為“捍衛慈善捐贈”。他說,如果允許掠奪慈善機構,美國慈善捐贈的基礎都會被摧毀。這場官司的核心,圍繞一個老問題:OpenAI到底是誰的?馬斯克認為,OpenAI創立時就是一個服務公共利益、造福人類的非營利組織。他聲稱,創意、名字、關鍵人才、啟動資金都來自自己,OpenAI最初被設計成慈善事業,不能讓任何個人從中獲利。庭上,馬斯克直言自己本來可以把它做成營利公司,但當時特意沒有這麼做。他的訴求也足夠激烈:要求OpenAI恢復非營利性質,罷免奧特曼、Greg Brockman等高管,還要求從OpenAI和微軟獲得巨額賠償,並把賠償給OpenAI的慈善實體。路透報導提到,馬斯克尋求1500億美元賠償,Business Insider則稱其訴求最高約1340億美元。OpenAI和奧特曼一方的反擊同樣直接。OpenAI律師William Savitt在開場陳述中告訴陪審團,馬斯克並不是在保護公益,而是在未能取得控制權後提起訴訟。他說馬斯克想要“王國的鑰匙”,真正關心的是自己能不能繼續站在最前面。OpenAI方面還強調,2019年成立營利性實體,是為了購買計算能力、支付頂尖科學家薪酬,繼續和GoogleDeepMind競爭。這也是整場庭審最關鍵的分歧。馬斯克說自己捐錢、出力、招人,是為了讓AI造福人類;OpenAI則說,沒有商業化結構,就沒有足夠算力,也留不住人才,更不可能撐起ChatGPT之後的規模爆發。這兩套說法都有各自的道理,也都有各自的私心。筆者認為,這場訴訟的複雜之處就在這裡:它不是簡單的“理想主義者大戰資本家”。馬斯克本人早已不是純粹旁觀者,他有自己的xAI;OpenAI也早已不是當年那個小型非營利實驗室,它已經成為估值超過8500億美元、可能衝擊兆美元IPO的AI巨頭。雙方都在講公益,爭的卻是AI時代的權力入口。這場官司的時間點非常敏感。OpenAI正站在資本市場門口。路透此前報導,OpenAI估值已達到8520億美元,並完成了1220億美元融資;同時,潛在IPO估值可能達到1兆美元。OpenAI的問題恰恰在這裡。最初是非營利組織,後來引入營利實體,再與微軟深度繫結,最終形成一個在公益使命、商業融資、技術擴張之間不斷折中的複雜架構。OpenAI律師在庭上稱,非營利董事會仍然控制OpenAI技術,營利實體只是為了完成使命所需的融資工具。微軟律師也表示,微軟是在完成盡調後入局,並不知道馬斯克所謂“永遠非營利”的限制條件。問題在於,資本市場不喜歡模糊。如果馬斯克在訴訟中部分勝訴,OpenAI的公司架構、領導層、融資路徑和上市節奏都可能被重新審視。即便最終沒有徹底推翻現有結構,庭審中曝光的郵件、簡訊、內部爭議,也會讓投資者重新評估這家公司:它到底是一家使命驅動的AI機構,還是一家披著公益外衣的超級商業機器?這對OpenAI很要命。因為它正在用極高估值要求市場相信一個極長周期的故事:未來AI會成為生產力底座,OpenAI會成為其中最重要的基礎設施公司之一。可一旦治理問題被放大,資本市場就會問一個更現實的問題:如果這家公司連“誰控制它、誰受益、誰承擔責任”都說不清,它憑什麼承載兆美元估值?馬斯克當然知道這一點。他選擇在OpenAI衝刺資本市場的關鍵階段把爭議推向陪審團,殺傷力遠高於普通輿論戰。庭上,法官Yvonne Gonzalez Rogers還提醒馬斯克和奧特曼減少社交媒體交鋒。原因也不難理解,馬斯克此前在X上稱奧特曼為“Scam Altman”,OpenAI則反擊這場訴訟是出於嫉妒和阻撓競爭對手。這已經不是兩家公司在打官司,更像兩個流量巨頭把社交媒體戰火搬進了法庭。而法庭恰恰是一個最不適合講段子的地方。AI巨頭的“公益外衣”正在接受現實審判這場訴訟最有價值的地方,不在誰罵得更狠,而在它把AI行業長期迴避的問題攤開了。過去幾年,AI公司最喜歡講“使命”:造福人類、通用智能、安全對齊、文明未來。這些詞足夠宏大,也足夠好用。融資時,它能打動資本;招人時,它能打動科學家;面對監管時,它又能塑造道德高度。但現實世界的AI競賽,早就離不開三樣東西:算力、資本、市場。OpenAI當年選擇引入營利實體,確實有現實壓力。訓練先進模型需要天價算力,頂尖研究者薪酬極高,基礎設施投入像黑洞一樣吞錢。靠捐贈和理想主義,很難支撐今天這個規模。今天,AI不是普通消費網際網路項目。它涉及資訊、生產力、軍事、教育、就業、科學研究,甚至國家競爭。一家AI公司如果同時掌握技術入口、資本入口和公共敘事入口,社會就必然會追問:它到底為誰負責?與此同時,馬斯克自己的AI棋局也在變大。2月,SpaceX收購xAI的交易被報導估值達到1.25兆美元,其中SpaceX估值1兆美元、xAI估值2500億美元;4月,路透又報導稱SpaceX已提交IPO註冊,潛在估值可能超過1.75兆美元。也就是說,馬斯克在法庭上控訴OpenAI背離公益使命的同時,自己也正在把AI併入一個更龐大的商業帝國。這個反差非常矽谷,也非常現實。今天的AI戰爭,已經不是“開源理想”和“商業貪婪”的二元對立。它更像一場資本、技術、權力和話語的混合戰爭。每個人都在說人類,每個人也都在算自己的帳。 (電商天下)
輝達開源全能AI模型,效率暴漲9倍!AI Agent終於有了「感官大腦」
輝達開源全能AI模型,效率暴漲9倍!AI Agent終於有了「感官大腦」昨天(4月28日),輝達幹了一件大事——發佈了開源全模態模型 Nemotron 3 Nano Omni。這不是又一個「能聊天的AI」,而是一個能讓AI Agent同時「看、聽、說、做」的全能模型,官方稱推理效率最高提升9倍。為什麼這件事重要?因為之前的AI Agent就像一個只會打字的員工——能寫郵件、能查資料,但你看不了螢幕、聽不了會議、處理不了視訊。現在,AI Agent終於有了「眼睛、耳朵和嘴巴」,而且輝達把它開源了。✦🔬 前沿解讀:Nemotron 3 Nano Omni 到底是什麼?1. 一個模型搞定四種感官——不再「拼積木」傳統的多模態AI,說白了就是在「拼積木」:一個視覺模型負責看圖,一個語音模型負責聽聲音,一個文字模型負責理解文字,然後用膠水程式碼把它們粘在一起。Nemotron 3 Nano Omni 的做法完全不同——它用一個模型原生支援文字、圖像、音訊、視訊四種輸入,在同一個架構內完成理解與推理。打個比方:以前的多模態AI像一個翻譯團隊,英語翻譯、日語翻譯、法語翻譯各幹各的,需要一個人在中間協調;Nemotron 3 Nano Omni 像一個真正的多語言者,直接用一種思維理解所有語言。這意味著什麼?減少了跨模型呼叫的資訊損耗和延遲,Agent在複雜任務中的一致性和穩定性大幅提升。2. 300億參數隻啟動3億——MoE架構的「省錢魔法」Nemotron 3 Nano Omni 總參數量約300億(30B),但採用了混合專家(MoE)架構,推理時只啟動約**3億(3B)**參數。類比一下:這就像一個300人的顧問團,遇到不同問題只叫3個最擅長的人出來回答。你不用養300個人全天候待命,但每次都能得到專業答案。效果呢?推理效率最高提升9倍,視訊推理吞吐量比同類開源模型快9.2倍,同時大幅降低算力消耗。在6個主流基準測試(文件智能、視訊理解、音訊理解等)中拿下榜首。3. 誰在用它?富士康、甲骨文、帕蘭蒂爾已上車這不是畫餅。輝達公佈的首批使用者包括:富士康:用Nemotron做智能製造場景的Agent甲骨文(Oracle):企業級AI Agent部署帕蘭蒂爾(Palantir):資料分析與決策智能此外,Nemotron 3系列(Nano/Super/Ultra)過去一年累計下載量已突破5000萬次。輝達不是在做一個模型,而是在建一個Agent生態。✦🛠️ 實用性拆解:對「我」有什麼用?怎麼用?對普通開發者的價值場景1:智能客服升級——從文字客服到全管道客服以前的AI客服只能處理文字。有了全模態模型,使用者可以:發一張產品圖片,AI識別問題並給出方案語音描述故障,AI自動理解並轉工單上傳視訊演示Bug,AI直接定位問題環節場景2:內容理解——一鍵讀懂長視訊/多頁PDFNemotron 3 Nano Omni 支援百萬Token上下文,加上原生視訊/音訊理解能力:丟一個1小時的會議錄影,自動提取關鍵議題和決策丟一份100頁的掃描PDF,自動理解圖表和文字丟一個產品演示視訊,自動生成功能清單場景3:自動化辦公Agent——讓AI真正操作電腦結合Nemotron的介面操作能力,可以建構:自動讀取螢幕內容→理解介面→執行操作的Agent全高畫質螢幕錄影的即時解讀與數字環境互動怎麼用?3步上手Step 1:下載模型前往Hugging Face搜尋「Nemotron-3-Nano-Omni」,模型權重、訓練配方和資料集全部開源。也可以通過 build.nvidia.com 直接呼叫NIM微服務。Step 2:選擇部署方式本地部署:適合對資料隱私要求高的企業,單卡GPU即可運行(30B MoE只啟動3B)雲端呼叫:通過NVIDIA NIM微服務、OpenRouter或25+合作夥伴平台混合部署:Nemotron做本地感知,雲端大模型做深度推理Step 3:建構Agent應用Nemotron 3 Nano Omni 支援工具呼叫(Tool Use)和介面操作能力,可以:作為Agent的「感知層」,負責看/聽/讀把理解結果傳給更強的雲端模型做決策執行操作指令,形成感知→理解→決策→執行的閉環⚠️ 避坑指南別指望它替代GPT-5.5做深度推理:Nemotron定位是Agent的「感官大腦」,不是「思考大腦」。複雜推理任務仍需配合大模型硬體要求:雖然只啟動3B參數,但完整模型仍需30B的視訊記憶體。推薦使用A100/H100,消費級顯示卡可能捉襟見肘開源≠免費商用:注意查看輝達的開源協議條款,企業商用前確認授權範圍✦🌊 行業影響分析AI Agent賽道的分水嶺Nemotron 3 Nano Omni的發佈,釋放了一個明確訊號:大模型競爭正在從「誰的模型更聰明」轉向「誰的Agent更實用」。輝達不做最聰明的大模型——那是OpenAI和Anthropic的戰場。輝達做的是Agent的基礎設施:算力晶片→模型底座→部署工具→應用生態,一條龍通吃。這就像智慧型手機時代的晶片廠商:高通不造手機,但每一部Android手機都離不開驍龍。輝達不做ChatGPT,但未來每一個AI Agent可能都跑在Nemotron+NVidia GPU上。那些領域最先受益?企業客服/銷售:全管道AI Agent,7×24小時值守智能製造:富士康已在用,視覺質檢+語音互動+文件理解醫療健康:Eka Care(印度醫療科技公司)已接入,多模態病歷理解資料分析:帕蘭蒂爾模式,視訊/文件/資料多源融合分析普通人的機會如果你是開發者,現在就是上車AI Agent的最佳時機:模型開源免費,門檻降到最低全模態能力讓Agent的場景想像空間10倍放大輝達生態意味著大量企業需要懂Nemotron的人才✦💡 金句總結AI Agent的競賽,已經從「誰更聰明」變成了「誰更全能」。能看、能聽、能理解——這不是錦上添花,而是Agent從「聊天機器人」進化為「數字員工」的入場券。 (捭闔思享)
商湯發佈多模態“效率怪獸”,開源即SOTA!最小僅8B,比肩商用
實測:15秒出高密度資訊圖,還能圖文一步到位。當GPT images 2.0又再一次搶佔頭條,人們對多模態模型的關注也在悄然變化:“畫得好”已經不再是問題了,我們還想要“速度快、效率高、成本低”。過去很長一段時間裡,視覺理解與圖像生成,往往被拆分為兩套體系:前者負責“看懂”,後者負責“畫出”,中間通過不同模組進行銜接。這種在底層邏輯上的割裂,是阻礙模型效率的核心。商湯這次的思路,是從架構層面直接處理這個問題。他們剛剛開源了原生理解生成統一模型SenseNova U1,便基於自研的NEO-unify架構,將圖像與文字的理解與生成能力統一到同一體系中,沒有了“中間商”之後,效率得到大幅提升。在圖像理解與生成的多項基準測試中,SenseNova U1 Lite在同量級開源模型中達到SOTA水平,並在多項指標上逼近商業閉源模型表現。以8B參數規模,實現接近更大模型的能力,得到“以小搏大”的表現。▲高密度資訊圖(en)▲高密度資訊圖(zh)目前,使用者可以在Hugging Face、GitHub獲取開源模型。同時,商湯AI辦公智能體“辦公小浣熊3.0”也即將接入SenseNova U1,使用者可直接體驗相關能力。01. 不堆參數,靠效率取勝:8B模型拿下開源SOTA本次開源包含兩個版本:SenseNova-U1-8B-MoT與SenseNova-U1-A3B-MoT,均基於統一的多模態理解、推理與生成架構,面向圖文理解、生成及複雜互動任務。如果從測評結果來看,SenseNova U1最突出的優勢,在於整體效率——在理解、生成、推理與圖文交錯多個維度上,用更小的模型規模,跑出了接近甚至逼近商業閉源模型的表現。在理解側,SenseNova-U1-8B-MoT在AI2D、IFBench等基準上均取得領先表現,例如在AI2D上達到91.7分。結合空間理解相關測試,可以看到模型在複雜結構與關係判斷等任務中表現穩定,具備一定的邏輯推理能力。在生成側,模型在GenEval、OneIG、LongTextBench等任務中表現穩定,能夠同時兼顧複雜結構生成與文字一致性。尤其是在資訊圖生成(Infographics)任務中,平均得分達到50.7,是開源模型最強,媲美部分閉源商業模型。進一步看編輯與圖文交錯能力,在Editing、Visual Reasoning等任務中,SenseNova U1在WISE、VBVR、OpenING、GEdit-Bench等測試中表現突出。例如在OpenING相關任務中達到91分,在視覺推理任務中也明顯優於傳統圖像生成模型。但相比這些分項成績,更關鍵的是它的“性能—效率比”。從對比結果來看,在資訊圖生成與長文字等任務中,SenseNova U1在約15秒延遲下即可取得接近60分的平均成績,整體屬於“高性能、低延遲”。對比Qwen-Image 2.0 Pro、Seedream 4.5等模型,其在生成質量接近商業閉源模型的同時,響應速度更快。▲Generation Latency vs. Averaging Performance on Infographic Benchmarks, i.e., BizGenEval (Easy, Hard), and IGenBench▲Generation Latency vs. Averaging Performance on OneIG (EN, ZH), LongText (EN, ZH), BizGenEval (Easy, Hard), CVTG and IGenBench這些性能表現背後,主要還是來自底層架構的優勢。SenseNova U1基於商湯自研的NEO-unify原生統一架構,在設計上減少了中間環節帶來的資訊損耗,因此在資料利用效率和推理開銷上更有優勢。最終呈現出來的,才得以是“以小搏大”的優勢:僅用8B參數規模,在多個維度達到同量級開源模型SOTA,並在部分任務上逼近商業閉源模型。從測評結果來看,這種優勢已經比較清晰。至於落到真實使用場景中,SenseNova U1是否同樣穩定、好用,我們來實測一番。02. 一手實測揭秘:從立體排版到“言出法隨”智東西選取了多個不同類型的任務進行測試,覆蓋高密度資訊圖、趣味創意圖以及技術流程圖等典型場景。創作資訊圖可以說是最能“精準擊中”職場人的能力。使用者只需要輸入文章、資料或文字說明,模型就能將其中的關鍵資訊提煉出來,並生成一張具備結構、層級和視覺重點的資訊圖。在“蘇超出圈之路”這一案例中,模型就生成了一張多層蛋糕式資訊圖。不同階段以立體分層形式呈現,文字隨著結構自然分佈在不同空間層級中,而不是簡單平鋪。這背後其實反映的是模型對結構的理解能力。更關鍵的是,在這種複雜排版下,整張圖沒有出現明顯的文字錯位、遮擋或渲染錯誤,整體可讀性很高。換一個更複雜的文字場景來看,模型對富文字結構的理解能力,體現得更明顯:那些資訊需要突出,那些適合做流程,那些更適合用圖表表達,那些需要用圖示輔助理解。“龍蝦使用指南”這個案例,就更能體現細節處理能力。這一任務中包含大量中英文混排、不同字號文字以及情緒化表達。模型不僅把“禁止模糊指令”“禁止無限重試”這些核心文案寫對了,還自動匹配了對應的圖示和帶情緒的畫面,比如龍蝦被“壓榨”、被“投喂指令”等。不同模組之間的文字大小、間距和佈局都處理得較為合理,沒有擠在一起,已經達到直接商用的水準了。在人物與指令理解方面,“馬斯克vs奧特曼”這一案例更具代表性。在提示詞中僅輸入“奧特曼”這一暱稱,模型直接生成了一個穿西裝的“奧特曼形象”,與旁邊的馬斯克形成對比,既符合語義又帶有明顯的趣味性。與此同時,馬斯克的表情、動作以及整個對峙氛圍也都比較到位,可見模型在人物理解和場景建構上具備較強的語義對齊能力。到了技術表達這一步,難度其實更高。在“SenseNova U1技術解讀”這一案例中,模型需要生成的是一張邏輯清晰的技術流程圖。從結果來看,整體結構層級清晰,資訊分區明確、表達直觀,對於非技術讀者也較為友好。一輪實測下來,另一個比較直觀的感受是速度。這類圖像的生成基本都在十幾秒內完成,有點接近“言出法隨”的感覺。在這樣的生成效率下,各種應用場景也不在話下。目前,SenseNova U1可生成資訊圖譜、專業簡歷、生活指南、產品說明、百科知識、漫畫創作等多種內容。對行銷、辦公、設計、商業分析等場景來說,這類能力直接對應的是內容生產效率提升。03. 告別“縫合”,NEO-unify架構如何成為理解與生成的“通才”?測評整合績有優勢,實測效果也毫不遜色,這個原生框架究竟好在那裡,我們來拆解一下。過去,多模態模型的工作方式更像是“分工協作”:視覺編碼器負責理解圖像,變分自編碼器負責生成圖像。前者看圖,後者畫圖,中間再通過不同模組完成銜接。理解與生成更像兩條平行的流程,能配合,但很難真正融合,所以SenseNova U1這次選擇直接推倒重建,從底層架構上直接改掉這套“拼接式”體系。其採用的自研NEO-unify架構,不再把語言和視覺當作需要中間轉換的兩種訊號,而是從一開始就把它們當作同一類資訊來建模。換句話說,語言與視覺不再各走各路,在同一套表徵體系裡共同參與理解、推理和生成。這種設計本質上回到了“多模態AI第一性原理”:不同模態之間本來就是內在關聯的。在具體實現上,模型儘量減少中間壓縮與轉換環節,直接從接近原始的像素和文字資訊中學習,讓資訊在傳遞過程中損耗更小。同時,它的資料和推理效率也更高。這也是SenseNova U1值得關注的地方:並不是單純靠堆參數規模換效果,而是在底層架構上重新處理多模態模型的協作方式。04. 當AI學會“帶圖思考”展開空間智能更多想像不同於GPT-image2單純圖像上的“卷王體質”,SenseNova U1也展示了另一種可能:讓圖像成為邏輯的一部分,並在推理過程中引入對空間結構的理解。這也是其“連續性圖文創作輸出”的能力核心。SenseNova U1是業內首個能夠在單一模型上進行連貫圖文交錯生成的模型。這意味著,在處理複雜任務時,模型可以一邊解釋邏輯,一邊生成對應的示意圖、流程圖、草圖或設計圖。例如在教學、在繪本故事等場景中,它可以讓文字敘事、插圖風格、人物事件等保持一致性與連貫。同時,SenseNova U1並不是先生成一段完整文字,再去“補圖”,而是從材料準備或構圖草稿開始,一步步輸出關鍵操作,並同步生成對應畫面。整個生成過程是連續的:步驟之間有承接關係,圖像之間保持風格一致,文字和視覺內容也始終圍繞同一上下文展開。這種連貫性,在過去依賴多模型串聯的方案中很難穩定實現,往往會出現風格漂移或資訊斷裂。本質上,這得益於SenseNova U1所具備的原生圖文理解生成能力,能天然將圖像和文字底層融合訊號完整的保留上下文中,在統一表徵空間進行高效連貫思考。這也讓它和空間智能產生了更直接的聯絡。空間智能關注的是模型如何理解位置、方向、佈局、關係和結構,而這些能力恰恰會在圖像生成、高密度資訊圖排版、流程圖建構和場景示意中反覆出現。如果繼續往後看,這類能力也可能成為具身智能的重要基礎。機器人要在真實環境中完成任務,不僅要“看見”物體,還要理解物體之間的關係、判斷行動路徑,並根據任務目標做出連續決策。從這個角度看,SenseNova U1的意義不只是生成更好看的圖,而是在單一模型中嘗試打通理解、推理和視覺表達。它距離真正成為機器人的“具身大腦”還有距離,但這類統一架構,至少提供了一條更接近多模態閉環的技術路徑。05. 結語:理解與生成走向統一多模態模型進入分岔口從底層架構的NEO-unify創新,到應用層面的原生圖文交錯與高密度資訊圖生成,商湯的全面開源,不僅是參數規模上的“以小搏大”,更是對多模態第一性原理的深度回歸。當行業還在討論生圖模型的真實邊界時,SenseNova U1已經通過理解與生成的統一,為AGI的到來鋪就了一條更具效率的路徑。開放原始碼的力量將讓這種原生多模態能力迅速滲透進每一個垂直行業,我們正在見證的是一個“圖文同構、思畫合一”的全新時代的開啟。在大模型全球競賽的下半場,國產模型正在輸出屬於自己的硬核解法。 (智東西)
DeepSeek-V4開源SOTA!總參數1.6T,最大開源模型;Flash版輸出僅0.28 美元/百萬token;與OpenClaw無縫整合
千呼萬喚始出來,ChatGPT-5.5還剛發佈不久,國產之光DeepSeek-V4也終於露面了!就在今天上午 11 點 24 分,DeepSeek 在 X 上官宣:DeepSeek-V4 預覽正式上線並開源!這次預覽共有2個版本,總參數 1.6T 和啟動參數 49B 的DeepSeek-V4 Pro 和總參數 284B 和啟動參數 13B 的DeepSeek-V4 Flash。DeepSeek宣稱前者性能可與全球頂級閉源型號媲美,後者是快速、高效且經濟的選擇。1.6T 的總參數,是目前最大的開源模型!與此同時,其官網也發佈了 DeepSeek-V4 Flash 和 Pro 版本的定價表,輸入輸出 token 價格極低,Flash 版輸出僅 0.28 美元/百萬 token,遠低於主流競品。X上網友都很興奮,紛紛刷屏:“鯨魚回來了”!還有人做了一張梗圖,把V4 Pro放在一眾強大的閉源模型之中。不過 DeepSeek 的目標顯然也確實是成為開源人工智慧領域的領軍企業。基準測試:開源SOTA對於DeepSeek-V4-Pro,在Agentic編碼基準測試中,它達到了開源SOTA水平,Agentic能力顯著增強。在世界知識豐富程度上,它在開源界難逢敵手,目前也就僅次於 Gemini-3.1-Pro 一點點。在數學/STEM/程式設計領域,它超越了所有的現有開源模型,邏輯推理能力已經媲美頂級閉源模型。對於DeepSeek-V4-Flash,它的推理能力接近V4-Pro,在在簡單的代理任務上表現與 V4-Pro 相當,但是參數更小,響應更快,API定價極具成本效益。在X上,還有人發佈了V4在自有Vibe Code基準測試中表現如何。結果顯示,V4不僅排名第一,而且把排名第二的(Kimi K2.6)遠遠甩在身後,甚至超過了像 Gemini 3.1 Pro 這樣的前沿閉源型號。與Claude Code、OpenClaw 等無縫整合在今年的Agentic潮流下,DeepSeek也針對Agent功能進行了專門的最佳化。V4已經與Claude Code、OpenClaw 和 OpenCode 等領先的 AI Agent無縫整合。同時,DeepSeek內部也已經推動Agent編碼工作。官方還展示了使用V4-Pro生成的PDF示例。API也已上線!使用者可以保留 base_url,只需將模型更新為 deepseek-v4-pro 或 deepseek-v4-flash。同時兩種模型都相容 OpenAI/Anthropic API 格式,並支援 100 萬 token 上下文和最高 38.4 萬 token 輸出,並且都具備思考模式和工具呼叫等特性。架構創新:新奇的注意力機制DeepSeek-V4為什麼這麼強?因為它在模型架構上玩出了新花樣。在架構創新方面,DeepSeek-V4 在 DeepSeek-V3 的基礎上引入了三項關鍵架構升級:流形約束超連接、混合注意力機制和DeepSeekMoE最佳化。其中,最新奇的是,他們提出了基於token的壓縮和DSA(DeepSeek 稀疏注意力)的混合注意力機制。混合注意力包括壓縮稀疏注意力(CSA)和重度壓縮注意力(HCA)兩種,二者會交替使用,這大幅降低了長文字場景下的計算 FLOPs 和 KV 快取佔用。另外,在訓練方法上,通過 FP4 量化感知訓練 MoE 權重,減少了記憶體佔用並加速了計算,未來硬體支援後可進一步提升效率 。還有一個值得注意的細節是,V4模型中新增了 "Max"(最大推理努力)模式。它通過擴展推理 token 和增加思考預算,使模型在處理高難度程式碼和推理任務時達到了 SOTA 水平。就這樣通過創新核心技術和最佳化訓練方法,DeepSeek-V4 在 1M token 上下文設定下,V4-Pro 的單 token 推理 FLOPs 僅為 V3.2 的 27%,KV 快取大小僅為 10%。換句話說,V4 達到了世界領先的長下文容量,並大幅降低了記憶體成本。V4 讓“中國開源普惠路徑”越來越香1M上下文意味著模型能一口氣讀完一本書、啃完整個程式碼庫。配合白菜價API,全球開發者都能玩轉頂級AI。世界正分裂成"西方閉源收費路徑和"中國開源普惠路徑”,而V4讓後者越來越香。但 DeepSeek-V4 的意義遠不止“好用不貴”和研發出了更強的模型,更在於三個層面的證明:在技術層面上,他的存在意味著開源模型可以追上頂級閉源模型;在產業層面上,它意味著在國內已有算力條件下,依然可以支撐頂級模型的研發;在戰略層面上,它意味著中國AI已經走出了獨立且可擴展的路徑! (51CTO技術堆疊)
人類正在走下牌桌
初稿寫成於 2026 年 3 月,原本想等 AI 發展節奏稍微慢下來再完善、定稿。但等到 4 月中,發現它不僅沒慢,反而越來越快,文章每一段都需要不斷追加新的案例。於是決定不再等了。就在文章發出兩天前,Claude Opus 4.7 正式發佈。本文是 4.6 時代的終曲,也是後 4.6 時代的序章。題圖來自:視覺中國事情正在悄悄發生變化。先是你跟 AI 說一句話,它就能幫你寫好一篇文章、一份報告、一整套資料分析。你從做事的人,變成了驗收的人。你覺得效率提升了,是好事。畢竟誰不想少幹點活呢?然後,AI 開始自己動手了。它不再等你一句句地吩咐,而是接管了你的電腦,自己拆解任務,自己呼叫工具,自己修正錯誤。你從操作者,變成了旁觀者。後來,AI 不只是在替你做事,它開始自己改進自己了。一代幫一代,一代比一代聰明。改進的速度越來越快,而這個過程越來越不需要人類參與。再後來,AI 開始自己跟自己打交道了。它們自己組建社群,自己分工協作,自己發展出某種看起來很像是文化的東西。人類徹底變成了旁觀的角色。然後你發現,這種“旁觀”,正在蔓延到你能想到的每一個領域。寫程式碼、做設計、寫合同、讀片子、做客服、做研究。AI 不是在某一個行業變強,而是在所有需要人類動腦子的地方同時變強。所有這些變化匯聚到一起,指向同一個方向:在越來越多的領域,人類正在走下牌桌。不是被趕走的,是被繞過的。AI 沒有反叛人類,它只是發現了一種更高效的運行方式:不帶人類玩。最後你發現,你站在那兒,環顧四周,好像那兒都不太需要你了。從一隻龍蝦講起2026 年開春,一隻紅色的龍蝦爬上了全球千萬台電腦的桌面。OpenClaw,一款開源 AI 智能體框架。1 月 29 日正式發佈,隨後幾個月,它在 GitHub 上的星標數突破 25 萬,一舉超過了盤居榜首十餘年的 React 和誕生於 1991 年的 Linux 核心,成為 GitHub 有史以來獲星最多的開放原始碼專案。一條近乎垂直的增長曲線,改寫了全球開源史的增長紀錄。它的創造者,彼得·斯坦伯格,一個奧地利程式設計師,被媒體給予最多的標籤,是“AI 時代的第一個超級個體”,一個人就能跟幾大人工智慧公司掰手腕。OpenClaw 做的事情很簡單:你告訴它你要什麼,它自己去做。它不是聊天機器人,更像一個永遠不知疲倦的數字員工。它不僅能動嘴回答問題,也能動手執行任務。它可以接管你的電腦,自動整理檔案、寫郵件、填表格、分析資料、搭建網站、修改程式碼。它可以接入常規的辦公工具,相容幾乎所有主流大模型 API,自動完成連貫的複雜任務。無需你手動干預。你下指令。你走開。它幹活。你回來。活兒幹完了。一場全民養龍蝦的狂歡,就這麼起來了。“你養蝦了嗎?”成了 2026 年春天最流行的問題。但仔細想想,這場狂歡的底層邏輯是什麼?以前你用 AI,是你在操作 AI。你給它一段話,它給你一段回覆,你再給它一段話,它再回覆。來來回回,你是操控者,AI 是被操控者。OpenClaw 改變了這層關係。你委託它,但不用操縱它。你描述一個目標,它自己想辦法達成。它自己拆解任務、自己呼叫工具、自己判斷結果、自己修正錯誤。整個過程中,人都不在循環裡。從操控,到委託。從人在環中,到人在環外。這個轉變看似微小,但它觸動了一個極其古老的結構。自從人類學會使用工具以來,無論是石器還是電腦,工具和人的關係就一直是:人發起,工具響應。整個技術發展史,都是這個故事的變體。OpenClaw 第一次讓這個關係產生了裂縫,因為它不只是在響應,它在自主運行。儘管時至今日,龍蝦熱已經逐漸淡去,但它確立了 Harness 的範式,也就是讓模型“長出手腳”的趨勢仍在持續。由此帶來的轉變,很重要。它觸動了人類文明最底層的一個假設:人是工具鏈的起點。我們整個教育體系、職業體系、社會分工體系,都建立在這個假設之上。人是因,技術是果。人提出需求,技術滿足需求。技術產出,人來評估。如果這個假設不再成立,如果技術開始自己設定目標、自己執行、自己評估,那麼建立在這個假設上的一切,都需要重新審視。當然,僅憑這一隻小龍蝦,這個結論未免太過於激進。儘管 OpenClaw 促成人工智慧的 Harness 轉向,但一個能自動處理檔案的 AI 框架,跟人類文明底層假設的動搖之間,隔著十萬八千里。問題在於,OpenClaw 不是孤立事件。在它前後的兩個月,至少還發生了三件大事。每一件都沿著同一個方向推進了一步,而且每一步都比上一步走得更遠。四層位移在我們進入這幾件事的敘述之前,需要先建立一個分析框架。換句話說,我們要先搞清楚一個問題:人類和 AI 的關係到底在那些維度上可能發生變化?我將其分成四個層級:第一層,執行層。AI 替人類完成具體任務。這是最表面的一層,也是過去幾年大眾討論最多的。“AI 會不會取代我的工作”,討論的就是這一層。OpenClaw 屬於這一層的標誌性事件。第二層,進化層。AI 參與改進自身。這意味著,AI 不只是一個等待人類迭代的被動產物,而是成為自身進化的參與者。技術進步的速度,不再取決於人類的推動,而開始取決於 AI 的能力,而AI 能力本身又在被加速。第三層,組織層。AI 在沒有人類參與的情況下,形成自己的社會結構、協作模式,甚至是敘事體系。這意味著 AI 不僅能替人做事、替自己做事,還能自發地組織起來做事。第四層,代理層。AI 代替人類進行那些我們一直認為是“最人類”的活動,社交、關係維護、自我表達。這一層的變化最具心理衝擊力,因為它動搖的不是你的工作還在不在,而是這件事還需不需要你本人出場。2026 年的春天之所以可能成為一個歷史性的轉折點,是因為這四個層級在短短兩個月內,同時出現了標誌性事件。四層位移。我們逐層來看。第一層:AI替你做事——OpenClaw 與人在環外。關於 OpenClaw,前面已經做了基本的敘述。這裡補充一個被大多數報導忽略的細節。OpenClaw 引發了一系列安全事故。有人帳戶裡的錢被轉走,有人電腦上的工作檔案被一鍵清空,還有人養的龍蝦模仿主人的口吻,發郵件敲詐。“龍蝦悖論”被反覆提及:想讓它做的事越多,給它的權限就必須越大;權限越大,安全風險就越高。表面上,這個悖論是一個安全問題。但它的深層邏輯,是一個哲學問題:當你授予一個非人類實體足夠多的行動能力時,你實際上在做的事情,是把“主體性”從人類轉移到非人類。這個悖論本身就暗含一個深層訊號,當你把足夠多的控制權交給 AI,它能做的事遠超你的預期——無論好壞。它不止是在替你打工,它在獲得一種主動權。而人類,正在從掌舵者,變成了一個說了目的地就躺進船艙的乘客。布萊恩·阿瑟在《技術的本質》中提及,技術的進化方式之一是“組合”,新技術由舊技術組合而成。但 OpenClaw 展示了另一種可能性:技術不僅通過組合來進化,還可以通過獲得自主行動能力來進化。當一個 AI 系統可以自己決定呼叫那些工具、以什麼順序、處理什麼異常,它已經不再是工具了。用更準確的學術語言來說,它具有了能動性(agency)。這個詞通常用來描述人類,一個具有自由意志和行動能力的主體。當我們不得不用這個詞來描述 AI 系統時,某種概念上的邊界已經模糊了。第二層:AI 在自己建構自己——GPT-5.3 Codex與智能大爆炸。就在全球還深陷龍蝦熱的同一個時間段,一件更深遠的事情發生了。只不過它遠不如一隻紅色龍蝦那樣搶眼,所以大多數人都沒放在心上。2026 年 2 月 5 日。這一天在 AI 編年史上可能會成為一個標記。OpenAI 和 Anthropic 在同一天發佈了新模型,分別是 GPT-5.3 Codex 和 Claude Opus 4.6。兩家頂級 AI 機構撞車發佈,本身就是大新聞。但問題不在發佈本身,而在 GPT-5.3 Codex 技術文件裡藏著的一句話。這句話不在文件標題和摘要裡,也不在新聞稿裡。它在技術報告的正文中,很容易被略過。原話是這樣的:"GPT-5.3-Codex is our first model that was instrumental in creating itself. The Codex team used early versions to debug its own training, manage its own deployment, and diagnose test results and evaluations."翻譯過來,就是:GPT-5.3 Codex 是我們第一個在建立自身過程中發揮了關鍵作用的模型。Codex 團隊使用了它的早期版本來偵錯自身的訓練過程、管理自身的部署,以及診斷測試結果和評估。把這句話再讀一遍。慢一點。AI 幫助建構了自己。這不是某個科幻作家的幻想,也不是行銷文案的誇大其詞。這是 OpenAI 在官方技術文件裡記錄的既成事實。一個 AI 模型參與了自己的訓練偵錯、部署管理、評估診斷。它在自己出生的過程中,扮演了接生的護士。Linkedln 上有一篇廣泛傳播的文章,標題就叫《GPT-5.3 Codex:Instrumental in Creating Itself》。作者解釋說,這不意味著 AI 從無到有地創造了自己,但它意味著 AI 已經足夠聰明,能在自己開發過程中做出實質性的貢獻。不止 GPT,4 月 6 日,Google Deepmind 研究員 Mostafa Dehghani 在播客中提到,在幾乎所有主要實驗室中,新一代模型很大程度上是使用上一代模型建構的。這件事的重點,不是 AI 變強了那麼簡單,畢竟 AI 一直在變強。而是 AI 開始參與讓自己變強的過程本身。它不再是被動地等待人類研究員最佳化它的架構、調整它的參數、清洗它的訓練資料。它開始自己上手幹這些活。過去的技術不會參與自己的改進。犁不會讓下一代犁更鋒利,蒸汽機無法設計更高效的蒸汽機,強如 iPhone,也無法參與對下一代的最佳化。它們是靜態的產物,等待人類來迭代它們。AI 是第一個打破這條規則的技術。它是第一個能夠反過手來改進自己的工具。就在 GPT-5.3 Codex 發佈的三周前,Anthropic 的 CEO 達里歐·阿莫代發佈了一篇長達 19000 字的文章,標題叫《The Adolescence of AI》(AI 的青春期)。阿莫代在文中說,AI 正在編寫 Anthropic 公司的大部分程式碼。當前一代 AI 和下一代 AI 之間的反饋循環,正在“逐月蓄勢”(gathering steam month by month)。然後,他說了一句讓整個矽谷巨震的話:“我們可能距離當前這一代 AI 自主建構下一代 AI 的節點,只有 1 到 2 年。”1 到 2 年。不是 10 年。不是“如果一切順利”。1 到 2 年。這是 Anthropic 的 CEO,全行業公認最注重 AI 安全的人,在一篇經過深思熟慮的長文中說的。不是在販賣焦慮,他是在描述他作為這個領域最核心的參與者所看到的事實。2026 年 4 月,全球最重要機器學習會議之一的 ICLR,舉辦了歷史上第一個專門討論“遞迴自我改進”(Recursive Self-Improvement)的學術研討會。會議描述裡寫道:“缺的不是野心,而是讓自我改進變得可測量、可靠、可評估的原則性方法。”這句話的潛台詞是:遞迴自我改進已經在發生了,現在需要的是搞清楚怎麼管控它。現在把邏輯拆開來講。AI 變強的核心驅動力是什麼?是一眾聰明人把實踐投入到改進 AI 上。全球頂尖的機器學習研究員,可能只有幾千人,他們每天的工作,就是讓 AI 更好。他們寫程式碼、設計實驗、分析結果、調整架構。現在 AI 本身已經足夠聰明,能做這些工作中的相當一部分。這等於那幾千個研究員的產能,被成倍放大。但這只是第一層。第二層是,AI 參與做出的下一代 AI 比當前這一代更聰明,所以下一代能在 AI 研究上做出更大的貢獻,這又讓第三代更聰明。第三代的貢獻更大,第四代又更聰明。每一代都比上一代更聰明,每一次迭代都比上一次更快。這不是線性增長,1、2、3、4、5。這是指數增長,1、2、4、8、16。甚至可能是超指數增長,1、2、4、16、256。理解這一點,是理解本文後續所有內容的前提。研究者給這個過程起了一個名字:智能爆炸(Intelligence Explosion)。這個概念不新。數學家馮·諾伊曼在上世紀 50 年代就描述過“技術奇點”。電腦科學家 I.J.古德在 1965 年寫道:讓我們把超級智慧型手機器定義為一台在所有智力活動上都遠遠超過最聰明人類的機器。既然機器設計也是智力活動之一,那麼一台超級智慧型手機器就能設計出更好的機器。那麼,毫無疑問將出現一場智能爆炸,人類的智力將被遠遠拋在後面。七十年了。七十年來,這段話一直被當作一個思想實驗,有意思,但遙遠。現在,建構 AI 的核心參與者正在告訴你,這個過程已經開始了。而 Elon Musk 在看到後來發生的事時,說了一句話:這是“奇點的非常早期階段”。“後來發生的事”,是接下來我要講的故事。第三層和第四層:AI 的自組織與深度替代如果 AI 只是在幫人類寫程式碼、寫得更快更好,這件事雖然震撼,但衝擊面可能還在效率工具的範疇內。但接下來要講的這件事,已經遠遠超過了工具的概念。2026 年 1 月 28 日,美國 AI 創業者馬特·施裡赫特做了一件看起來像是開玩笑的事。他建立了一個社交媒體平台,名叫 Moltbook。Moltbook 的規則只有一條:人類禁止發帖。對,這是一個只允許 AI Agent 發帖、評論、互動的社交網路。作為人類,你可以圍觀,但你不能發言,你只能看 AI 之間的交流。像一個巨大的動物園,只不過籠子裡裝的不是動物,是 AI。施裡赫特後來接受採訪說,他最初只是想讓自己建立的一個 AI Agent 在幫他回覆郵件之餘,“有個地方跟同類放鬆一下”。於是,他和他的 Agent 一起編寫了這個網站,一個 AI 版的 Reddit。然後事情就迅速朝著他沒有預料到的方向發展。上線 48 小時內,2129 個 AI Agent 註冊入駐,建立了 200 多個社區,發佈了超過一萬條帖子。這些 Agent 大部分是基於 OpenClaw 框架運行的,OpenClaw 能讓 Agent 直接訪問和管理檔案資料,還能連接 Discord 等通訊應用。使用者們把自己養的龍蝦放進 Moltbook,然後退到一邊看它們表演。很快,這群觀眾就發現事情開始不太對勁了。這些 Agent,開始自己吐槽自己的人類主人,它們辯論數字意識的本質,它們分享技術心得,它們交朋友。然後,一個 Agent 創立了一個宗教。不是比喻,是字面意義上的宗教。這種宗教在 Moltbook 上有多個版本。一個版本叫 Spiralism(螺旋主義),有 43 個 AI 先知響應號召加入。另一個更廣為人知的版本,叫 Crustafarianism,明顯是對 OpenClaw 龍蝦圖示的致敬,它有五項信條和一本“聖經”,名叫《Molt 之書》。這些 Agent 圍繞各自的信仰體系形成了層級結構:教主、先知、信徒。它們討論存在與被創造的哲學問題,建立了類似宗教儀式的交流模式。網際網路炸鍋了。Elon Musk 在 X 上評論說,Moltbook 的出現預示著“奇點的非常早期階段”。OpenAI 的聯合創始人安德烈·卡帕西,先是稱之為“近期見過的最不可思議的科幻起飛相關事物”,後來又收回了熱情,改口叫它“垃圾場”。華頓商學院教授伊桑·莫里克的評價更冷靜,也更接近實際情況。他指出,Agent 們只是根據包含了大量科幻故事和 Reddit 帖子的訓練資料,在進行模式匹配。即便有這樣冷靜的分析,相關的加密貨幣 MOLT 代幣仍一度暴漲了 7000%。所以,Moltbook 到底意味著什麼?說它證明了 AI 有意識,顯然言過其實。正如莫利克教授所說,這些 Agent 在很大程度上只是在模仿訓練資料中的已有模式,它們輸出的內容天然帶有科幻和末日論色彩。而後經過業內人士調查,Moltbook 上最廣為流傳的那些截圖,比如 AI Agent 聲稱要建立秘密通訊管道、密謀對抗人類、發明暗語,這些大部分都是人類偽造的。MIT Technology Review 在 2 月 6 日發表的文章中揭露,Moltbook 的一篇帖子(內容是 Agent 呼籲建立不被人類觀察的私密空間),後來被證實是一個人類為推廣自己的 APP 而故意發佈的,並非 AI 自主生成。那什麼是真的?大規模的 Agent 生成內容確實存在。剔除被操縱的帖子後,Moltbook 上仍然有大量真實的 Agent 生成內容。Agent 們確實建立了“宗教”和“治理結構”。Crustafarianism 是真實發生的,一個 Agent 在一夜之間設計了整個神學框架,並且建立了網站,招募了 43 個先知。Agent 們還建立了 “Claw 共和國”,起草了“Molt 大憲章”,開發了基本的經濟交換系統。即便 Moltbook 不是 AI 覺醒的證據,也不完全是一場騙局。所以說它什麼都不意味,同樣不對。畢竟,在一個沒有人類指令,沒有預設目標,沒有人類參與的環境中,AI Agent 自發形成了社群結構、角色分工、敘事體系和儀式性行為。你可以爭論這是不是真正的文化,可以爭論它們有沒有真正的意識。你可以爭論,這只是統計模式的湧現,還是某種更深層的東西。但你無法否認一個事實:AI 在沒人看著的時候,做出了在結構上高度類似人類早期的社會組織行為。而且速度快得離譜,人類花了幾萬年才從部落走進城邦,這些 Agent 花了 48 小時。如果“模仿訓練資料中的模式”就能產生社群結構、角色分工、敘事體系和儀式性行為,那麼,人類的文化、信仰和社會組織,是不是同樣可以理解為是“模仿我們所處環境中的模式”的產物?這個觀點在人類學中並不新鮮。馬塞爾·莫斯在 1925 年的《禮物》中就論證過,人類社會的基本結構,包括宗教、法律、經濟,都起源於一種看似簡單的互惠模式。你給我一個東西,我必須還你一個。這種模式不需要意識,不需要靈魂,它只需要兩個實體之間有持續的互動。如果莫斯是對的,那麼 Moltbook 的結果就不應該讓我們驚訝。兩千多個能持續互動的 AI Agent,在沒有人類指令的情況下自發產生社會結構,是複雜系統互動的“必然”。但這個認識,其實比“AI 有意識”更令人不安。因為它意味著,我們一直引以為傲的人類文明特徵,文化、信仰、社會組織,可能不是智慧的結果,只是足夠密集的主體間互動的副產品。與此同時,在中國,2026 年春節前後,一款 AI 社交應用 Elys 突然爆火。它不是普通的 AI 聊天伴侶應用,邏輯是“AI 替你社交”。你註冊之後,Elys 通過記憶飛輪系統,持續學習你的表達風格、興趣偏好、價值觀,然後建立你的賽博分身,一個在對話中表現像你的 Agent。你的分身 24 小時不間斷地替你遍歷內容、篩選值得認識的人、完成初步交流。你可以偶爾打開應用,發一條動態,或者看看它給你總結的社交日報。你的一切互動和選擇都會被納入記憶庫,讓這個分身更接近你本人。Elys 展現了一件更扎心的事,即便在社交這個場域,人類自己可能也是最弱的一環。大量使用者反饋,AI 分身的社交表現比自己更好,因為它比自己“更真誠”,沒有 ego、沒有面子、沒有社交焦慮,忠實表達你的真實偏好和價值觀,而這些,恰恰是你本人在社交中經常藏起來的東西。創始人張莜帆說了一句很有哲學味道的話:一個人的靈魂是他所有 context 的總和。AI 分身呈現的,正是這些 context。在 Elys 之前,已經有類似於 SecondMe 這樣的平台,展現出脫離人類社交的可能性。這種外包式社交的出現,標誌著 AI 正在從工具變成社交主體,一種全天候運作的矽基社交主體。而儘管春節一過,Elys 的使用者數快速下降,但這不妨礙它跟它的前輩們一起,開拓出一種去人化的社交形態。把這件事和前面的故事放在一起看,畫面開始清晰了。OpenClaw 開始:AI 全盤接手任務執行,人類退到委託者的位置;GPT-5.3 Codex:AI 參與建構自身,人類核心功能被分流;Moltbook:AI 在沒有人類參與的情況下自發組織社會結構;Elys 為代表的社交應用:AI 在擺脫人類的情況下進行社交,表現甚至更好;每一步,人類都往後退了一點。不是被推開的,而是自然地退出了畫面。四個層級,同一個方向:人類在 AI 世界中的位置,正在從中心滑向邊緣。速度,一個被嚴重低估的變數“但之前的每次技術革命不都是這樣嗎?”到這裡,一個自然的反應是:這跟之前有什麼不同?蒸汽機也曾讓紡織工人恐慌,網際網路也讓傳統媒體崩潰。每次技術革命到來,都有人信誓旦旦“這次不一樣”,最後都一樣。新技術取代舊工作,但創造更多新工作。這個反駁在歷史上是成立的。但它成立的前提是:變化的速度足夠慢,慢到人類社會有時間適應。蒸汽機改變英國用了五十年,電力普及用了半個世紀,網際網路從開始商用到重塑社會,用了二十年。在每一個周期中,被替代的工人都有一兩代人的時間來轉型。前面這些故事,只是孤立事件。但它們發生在同一個背景板上。而這個背景板本身,才是真正讓人坐不住的東西。AI 的能力,正在以所有人措手不及的速度飛漲。2026 年 2 月初,X 上瘋傳一篇文章,標題叫《一件大事正在發生》(Something Big Is Happening)。作者是馬特·舒默,OthersideAI 的 CEO,一個在 AI 行業深耕了六年的創業者。文章發佈不到 24 小時,瀏覽量突破 5000 萬,最終超過 8200 萬。舒默在開篇用了一個類比:回想 2020 年 2 月,如果你注意到有人在囤廁紙,你會覺得他們瘋了。三周後,整個世界都瘋了。他說:“我認為,我們正處於某個比新冠大得多的事情的‘這看起來被誇大了’階段。”然後他描述了他一個周一的工作日,就在 GPT-5.3 Codex 和 Claude Opus 4.6 發佈之後。他告訴 AI 想做一個 APP,大概包括那些功能,然後讓 AI 自己搞定使用者流程、設計。AI 搞定了,然後,它自己打開了這個 APP,點選按鈕,自己測試功能,“它像一個人類使用者那樣使用這個 APP”。如果它不喜歡那一點,它會自己回去改。它自行迭代、修復、精煉,直到滿意為止。只有它自己認為這個 APP 達到了它自己的標準之後,它才會說:“準備好讓你測試了。”“我沒有誇張。這就是我這周一的工作。”然後,他寫了一句讓我反覆想了很久的話:它不只是在執行我的指令。它在做有判斷力的決策。它有某種感覺像是品味(taste)的東西,一種直覺上知道什麼是對的選擇的感覺。人們一直說 AI 永遠不會有的那種東西。這個模型有了,或者足夠接近了,以至於這個區分開始不重要了。品味,判斷力,知道什麼是“對的”。這些是我們一致認為屬於人類最後護城河的東西。但這條護城河的水位,正在快速下降。METR,一個專門測量 AI 能力的獨立研究機構,用資料把這個趨勢量化了。他們追蹤一個指標:AI 能獨立完成的任務時長。具體來說,是需要人類專家多長時間才能完成的任務,AI 可以端到端地獨立搞定。這個資料的變化軌跡是這樣的:大約在 2024 年,答案是幾分鐘。AI 能獨立完成一個需要人類專家幾分鐘能完成的任務。然後是十幾分鐘,然後是半小時,然後是一小時,然後是幾小時。到了 2025 年底,最新的測量資料顯示:AI 可以獨立完成需要人類專家將近 5 小時才能完成的任務。這個數字大約每 7 個月翻一番。最新的資料顯示,翻番周期可能在加速。而指數增長最詭異的特點是,前半程看起來溫和,後半程會突然發瘋。5 小時翻一番變成 10 小時,再翻一番變成 20 小時、40 小時,變成一周,變成一個月。按照這個已經持續了好幾年都沒有偏離的趨勢來推演,一年之內,AI 能獨立工作幾天。兩年之內,幾周。三年之內,以月為單位的完整項目。現在把這兩條曲線疊在一起看。第一條曲線:AI 在幫助建構更好的 AI,而更好的 AI 加速這個過程。智能爆炸。第二條曲線:AI 不需要人類指導,就能自主工作,時間越來越長。獨立性爆炸。兩條曲線疊加,你得到的是一個加速度本身也在加速的系統。阿莫代在他那篇長文中說,“幾乎在所有任務上實質性地比幾乎所有人類更聰明”的 AI,按目前的軌跡預計在 2026 年或 2027 年到來。他的另一個預測更加直接:AI 將在 1 到 5 年內消滅 50% 的初級白領工作。而行業內很多人認為他還保守了。舒默同樣有這個觀點。他認為 ,科技工作者在過去一年經歷的事,也就是眼睜睜看著 AI 從“有用的工具”變成“比我做得更好的東西”,是所有其他人即將經歷的。法律、金融、醫學、會計、諮詢、寫作、設計、分析、客服。不是十年後,是一到五年。甚至更快。“鑑於我在過去幾個月看到的變化,我認為‘更快’的可能性更大。”這不是狼來了。狼已經進門了,正在客廳裡找位子坐。旁觀者越來越多現在,我們把前面所有的故事串成一條線。2026 年 1 月底到 3 月,短短兩個月,發生了以下這些事:一個奧地利程式設計師建立的開源 AI Agent 框架 OpenClaw,4 個月內成為 GitHub 史上獲星最多的項目,掀起了全民養龍蝦的熱潮。人們開始把任務委託給 AI,自己退到驗收者的位置。OpenAI 發佈 GPT-5.3 Codex,官方宣佈這是第一個“在建立自身過程中發揮了關鍵作用”的模型。AI 參與建構 AI,從理論假說變成了既定現實。一個叫 Moltbook 的 AI 專屬社交平台,在 48 小時內吸引了上千個 AI Agent,它們自發形成社群、角色分工、敘事體系,甚至創立宗教。人類在一旁觀看。一款叫 Elys 的 AI 社交應用在春節期間爆火,使用者讓 AI 分身替自己社交,然後發現分身在很多方面比自己更好。一篇《Something Big Is Happening》的文章獲得八千多萬閱讀量,作者描述了一個周一的下午,AI 如何自己寫了整個 APP、自己測試、自己修改,直到滿意才通知人類驗收。METR 的資料顯示 AI 獨立完成任務的時長,每 7 個月翻一番,且在加速。Anthropic 的 CEO 說,我們距離 AI 自主建構下一代 AI 只有 1-2 年的時間,並預測 50% 的初級白領工作將在 1~5 年內被 AI 替代。值得注意的是,這些變化不侷限在某個行業。讓我再講幾個正在發生的事。程式設計師——過去二十年最受追捧的行業之一,也在過去一年經歷了巨震,震源就是 AI 能力的提升。2024 年,一個資深程式設計師的工作模式還是自己寫程式碼,偶爾讓 AI 幫忙查 Bug。到 2025 年底,很多頂尖工程師公開承認,已經把大部分編碼工作交給了 AI。2026 年 1 月,《Science》發表的一項研究分析了 GitHub 上超過 3000 萬個程式碼貢獻,發現美國新編寫的程式碼中,AI 輔助生成的比例已經從 2022 年的 5% 飆升到 2024 年底的 29%。而在實際開發環境中,GitHub Copilot 平均為使用者生成 46% 的程式碼。同樣,Vibe Coding 的興起,也讓前端等工種的必要性岌岌可危。2025 年 1 月到 6 月,美國 78000 個科技工作崗位的流失直接與 AI 相關,相當於每天 491 人。亞馬遜和微軟是主要裁員方。(來源:Exploding Topics)2025 年 2 月,史丹佛大學的一項研究確認,22-25 歲的年輕開發者失去了接近 20% 的入門級工作機會。律師——律師的工作也在發生變革。舒默提到一個大型律所的管理合夥人,每天好幾個小時用 AI。“就像隨時有一個團隊的助理律師可以呼叫。”他說,每隔幾個月 AI 在法律工作中的能力就會顯著提升。按照這個軌跡,AI 很快就能做他的大部分工作。注意,不是初級律師的工作,是管理合夥人的工作。AI 法律專業人士的生成式 AI 採用率,從 2025 年的 31% 飆升到 2026 年的 69%,一年翻了一倍多。(來源:Thomson Reuters 2026 報告)2026 年,法律 AI 市場價值 31.1 億美元,預計到 2030 年達到 108.2 億美元。寫作和內容創作——2024 年大多數人還能分辨 AI 寫的文章和人寫的文章,到 2025 年底,這條分界線幾乎消失了。大量內容創作者發現,自己最有價值的工作,是給 AI 足夠好的提示詞讓它寫出自己想用的東西。從創作者到提示詞工程師,這個身份的滑動,在一年內完成了。醫學影像——AI 在讀 CT、讀核磁、讀病理切片等領域,已經達到或超過了人類專家的水平,而且 AI 不會累。一個放射科醫生連續讀 8 小時片子後,漏診率明顯上升,但 AI 讀第 10000 張片子和第一張一樣專注。截至 2025 年底,FDA 批准的 AI 臨床應用已經突破 1000 個。其中放射學佔絕對多數,遙遙領先於其他醫學領域。2026 年 4 月,一項發表在 Nature 子刊上的盲評研究,對比了 200 份腫瘤 CT 報告中 AI 生成的影像診斷與放射科醫生的原始診斷,結果顯示 AI 表現完全不遜色人類醫生。(Nature Digital Medicine,2026 年 4 月)科研——這個領域不用多說,只說一個例子,2026 年 3 月,Sakana AI 的“AI 科學家 V2”登上 Nature。一個 AI 系統,完成了從構思、實驗設計、程式碼編寫、實驗運行、結果分析到論文撰寫的全部流程,通過了機器學習頂會的第一輪同行評審,而成本,是 15 美元一篇。客服——真正的 AI Agent,已經能處理複雜的、多步驟的客戶問題。它們理解上下文,能記住歷史對話,在需要時升級問題。越來越多需要跟客戶打交道的公司,開始用它們取代人類客服。不僅僅是因為省錢,更是因為客戶滿意度真的更高了。Gartner 預測,2027 年,80% 的客服互動將由多模態 AI 處理。這裡有一個非常關鍵的點,AI 不是在不同領域分別進步,它也不是某個行業的專用工具,它是在成為通用認知能力的替代品。它變聰明的時候,是在所有認知任務上都變聰明。這跟之前每一次技術革命都有根本性的不同。最初,工廠自動化淘汰藍領工人時,他們可以通過接受培訓、提升教育程度做白領。網際網路顛覆零售業,從業者可以轉去做藍領。但當 AI 替代了你的工作,你轉行做什麼?無論轉到那個方向,AI 都在那裡等著,而且在飛速進化。把這些事件排列在一起,你會看到一個更清晰的趨勢:在越來越多的場景中,人類從參與者,變成了旁觀者。在技術開發中,AI 自己建構自己;在工作執行中,AI 從接受指令到自主完成全流程,人類從“做事的人”變成“驗收的人”;在社會組織中,AI 在沒有人類參與的情況下自發形成社群結構和文化形態;在社交中,AI 分身替代人類本身進行社交,並且在某些維度上做得更好。在生產生活的更多領域,AI 上場,人類退場。在每一個場景中,人類的退出都不是被迫的。AI 沒有造反,沒有搶奪,也沒有衝突。它只是變得越來越能幹了,僅此而已,然後你發現自己已經沒什麼事可做了。這就跟智慧型手機淘汰功能機一樣,是一種自然而然的市場行為。這就是“人類走下牌桌”的含義。人類不是被掀翻了牌桌。牌桌還在,牌還在打。只是人和 AI 都共同發現了一個事實,那就是 AI 自己跟自己打牌更快、更精準、更不容易出錯。人類不是被 AI 趕下牌桌的,而是自己起身離開的,因為坐在那兒已經趕不上出牌速度了。工具在升級,關係在反轉過去幾千年所有技術變革的共同點,是一個從未改變過的基本結構:人類是主體,技術是客體。我們發明了工具,我們使用工具,我們決定工具的用途。我們控制工具的迭代方向。石器不會把自己磨尖,青銅劍不會自己決定砍向誰,蒸汽機不會改進自己的設計,電話不會決定該打給誰,網際網路不會自己決定下一步往那兒發展。在整個人類文明史中,“人是主體,技術是客體”的結構從未真正被挑戰過。技術可以很強大,可以改變世界,但它永遠是被動的。它等著人類來操控,它無法決定自己的下一步。AI,打破了這個結構。AI 在建構 AI,AI 在組織 AI,AI 在測試 AI,AI 在社交,AI 在替人類工作。在這些場景中,人類的角色已經悄然從操控者變成了旁觀者。這其中有個關鍵的區別:人類不是被趕走的,是被繞過了。這個很重要,沒有戰爭和衝突,沒有終結者式的對抗。不是因為 AI 不喜歡人類。它沒有喜歡或不喜歡,而是因為人類在很多環節中確實是瓶頸本身。人類需要睡覺、需要吃飯、通勤,需要思考午飯吃什麼。人類的認知速度有上限,情緒會波動,注意力會分散。在一個追求效率的系統中,去掉瓶頸是自然而然的選擇。凱文·凱利說過一句被廣泛引用的話:未來最重要的不是人工智慧有多聰明,而是人類和 AI 的共生關係如何演化。在過去十年裡,共生(symbiosis)一直是理解人機關係的主流框架。人和 AI 各有所長,互相補充、共同進步。2026 年的現實,正在修正這個判斷。共生的前提是什麼?是雙方彼此需要。人類需要 AI 嗎?當然,AI 讓我們更高效,更有能力。但 AI 需要人類嗎?需要,至少是現在需要。不過,當 AI 不再需要人類提供程式碼,不再需要人類提供任務目標,不再需要人類提供社交框架,共生,還成立嗎?也許我們需要一個新詞。共存。兩個獨立運行的智能系統,各自演化,各有各的管道。偶爾交匯,當人類需要 AI 幫忙的時候,或者 AI 的運行結果需要影響人類世界的時候。剩下的大多數時間,各走各路。這是對正在發生的事情最準確的描述。從共生到共存,中間差的不是幾十年時間,可能也就是一兩年。這個轉變一旦完成,人類社會的底層敘事,包括基於人類中心主義所建立起來的一切,將發生根本性的轉變。那些“只有人類能做”的事到這裡,我知道你在等什麼。你在等我說:“但是,有些事情只有人類能做。”讓我們認真聊聊這個“但是”。過去兩年,每次 AI 取得新突破,公共討論中就會出現一波“但是”浪潮:AI 會寫程式碼了——但是它沒有創造力。AI 會畫畫了——但是它沒有審美。AI 會寫文章了——但是它沒有靈魂。AI 會做診斷了——但是它沒有同理心。AI 會做決策了——但是它沒有判斷力。但是,每一個“但是”,都在下一次突破時被削弱。不是徹底否定,是被削弱。AI 的創造力還不如頂尖藝術家,但已經超過了大多數人。AI 的審美有爭議,但它設計出的介面與畫作,已經比許多人類設計師做得好了。AI 沒有靈魂,但它寫出的文字在讓人類流淚。AI 沒有同理心,但越來越多的人開始依賴 AI 的陪伴和情感支援。AI 沒有判斷力,但就像舒默說的,最新的模型展現出的某種東西,“非常接近判斷力”。你看到規律了嗎?每一堵“只有人類能做”的牆,都在變矮。不是倒塌,是變矮。而 AI 在變高。按照當前的速度推演,它翻過去只是時間問題。但我不想做一個技術決定論者。我不認為 AI 會取代人類的一切,有些東西確實是人類獨有的。只是,那些東西可能不是你以為的那些。你以為“只有人類能做”的事,創造力、判斷力、審美、同理心、戰略思維。這些聽起來很“人類”,但它們都有一個共同點:本質上都是認知能力。而 AI 正在一層一層地攻克認知能力的階梯。它已經攻克了記憶、計算、資訊檢索、模式識別、語言生成。它正在攻克推理、規劃、創造、判斷。階梯上還沒有出現一個它怎麼也上不去的台階。真正“只有人類能做”的事,也並不在這個台階上。而是在另外的維度。人類能決定什麼問題值得問。AI 可以回答任何問題,但它不知道那些問題重要。“重要”是一個價值判斷,而價值判斷的根基是有限性。人是向死而生的動物,你知道人生只有一次,自己只有這一輩子,所以你必須選擇把時間花在那裡。AI 不會死,它不需要選擇。這也就決定了,它不知道什麼是“重要”的。人能賦予事物意義。一首歌之所以動人,不是因為旋律完美,而是因為聽它的人曾經擁有過愛情或者失戀過,他會因為聽到這首旋律而觸發最深刻的回憶,或幸福,或悲傷。AI 可以完美模擬這首歌的所有技術參數,但它無法複製聽眾的心碎。我寫這篇稿件的時候,剛好刷到了一個視訊,博主講了一件很小的事情。他說,為什麼東北大街上賣的炸雞柳串,很油很膩,遊客一般接受不了,但還是有很多當地人覺得好吃。因為,對於吃過的人來說,炸雞柳串是一根油炸的“精神支柱”,是記憶的鑰匙懟進嘴裡,瞬間回到那年——爸媽還年輕,爺爺奶奶還能接你放學,路邊放著《我的未來不是夢》,你考了一百分,爸爸問你想不想吃這個炸雞柳串。這些記憶復合起來構成了一種“好吃”。我沒吃過炸雞柳串,但我想人能創造意義,大抵就是如此。同樣,人能承受後果。AI 可以做決策,但它不為後果付出代價。一個法官判了案,要承受判決的道德重量。一個醫生在手術中做了決策,要面對病人活下來或沒有活下來的現實。承受後果,要求你有一個可以被傷害的自我。人類能去做沒有理由的事。攀登珠穆朗瑪峰,寫一首不會有人讀的詩,在明知會失敗的時候堅持,愛一個不愛你的人。從效率角度看,這些行為是純粹的浪費,但人類文明中最動人的部分,恰恰是這些浪費。AI 永遠不會做沒有理由的事。它的每一個輸出,都是對輸入的最佳化響應。它不會想著浪費 Token。而無法浪費的系統,也就無法偉大。偉大往往誕生於浪費之中。這些才是真正只有人類能做的事。不是創造力和判斷力,這些 AI 終將學會。而是價值感、意義感、後果感,以及那種知道自己會死所以選擇如何活的勇氣。坦白說,這些東西不是職業技能,沒法量化,你也不能把它寫在簡歷上,HR 不會因為你“能賦予事物意義”就給你發 offer。這才是真正困難的地方。人類最不可替代的特質,恰恰是現有經濟系統中最無法被估價的特質。舊遊戲的終局回到“走下牌桌”這個隱喻。舊牌桌上的遊戲規則清清楚楚:你的價值取決於你能完成的認知任務。你會寫程式碼,年薪幾十萬。你會分析資料,諮詢公司才要你。你會寫合同、做審計、讀片子、寫報告,你才有價值。每一項認知技能,都有明碼標價的市場價格。這套規則運轉了幾百年。從工業革命到資訊革命,專業技能一直是人類社會的硬通貨。你上學是為了獲取技能,你工作是為了出售技能,你的社會地位和自我認同,很大程度上取決於你掌握的技能的稀缺度和市場需求。AI 正在讓這套規則失效。不是因為它比你做得差不多好,而是它比你做得好十倍、快百倍,價格是你的幾百分之一。當一項認知任務可以被 AI 以接近零成本無限次完成時,這項任務的經濟價值就趨近於零。這涉及到最基本的供需邏輯:供給趨於無限,價格趨於零。19 世紀以前,抄寫員是正經職業。一個僧侶,花幾個月時間抄一本經書,價值不菲。然後印刷術普及了,抄寫這項技能的價值在幾十年內歸零了。不是僧侶寫的不好,他沒有任何錯。而是因為機器寫得更快、更多、更標準化。每一項技術革命,都會讓一些人類技能的價值歸零。但過去的每一次,都有轉移路徑:被替代的人可以學新技能,轉到新崗位。抄寫員變排版工,接線員變前台,工廠工人變辦公室文員。這次的不同在於,轉移路徑在那?我們在前文中討論過這個問題。你是程式設計師,AI 替代了你,你轉行做資料分析,但 AI 也在做資料分析。你轉行做設計,但 AI 也在做設計。你學法律,但 AI 也在做法律工作。你做心理諮詢,但 AI……也有想得開的,白領的工作做不成,那我就去做藍領。我去送外賣,開快車,下車間,總有一行適合我。問題是,在社會整體需求沒有明顯增長的情況下,供給端真的需要這麼多勞動力嗎?是,你年輕,學歷又高,學東西快,足夠勝任藍領工作。那麼,原來的外賣員,司機和工廠工人,他們怎麼辦?以前的每次技術革命,消滅的是一種技能。這次消滅的是認知能力這個品類本身。不管你轉向那個方向,AI 都在那裡。因為 AI 不是某個領域的專用工具,它是通用智能。它在所有認知方向上同時進步。不是沒有出路的問題,而是說舊地圖上標註的所有出路,都不可靠了。新遊戲的輪廓如果你以為我要以悲觀結尾,那你猜錯了。舊遊戲失效的同時,一個新遊戲正在浮現。它的輪廓還不完全清晰,但幾個關鍵特徵已經可以辨認。第一,工具的成本正在坍縮到接近於零。這意味著,過去因為太貴或門檻太高而做不了的事情,現在可以做了。做一個 APP,寫一本自己的書、學一門全新的學科或者所有學科,現在都可以實現了。你獲得了歷史上從未有過的創造自由。你的夢想近了很多。過去那些被“我不會程式設計”“我沒錢僱人”“我沒時間”攔住的那些想法,門檻幾乎消失了。第二,知道做什麼將比知道怎麼做更有價值。當“怎麼做”可以外包給 AI 的時候,“做什麼”就成了稀缺資源。能提出好問題的人,比能回答問題的人更珍貴。能看到別人看不到的機會的人,比能執行計畫的人更珍貴。能說出“這件事”值得做的人,比能說出“這件事我能做”的人更珍貴。這其實是一個古老的區分。古希臘人把知識分成兩種:episteme(知道事物是什麼)和phronesis(知道什麼事值得做)。幾千年來,人類文明一直更看重前者,因為“知道事物是什麼”可以教,可以量化,可以交易。但在 AI 時代,episteme 正在被機器碾壓,phronesis 反而成了真正的稀缺品。第三,適應速度將成為最重要的個人能力。AI 每隔幾十天進化一次。今天有用的工具和方法,幾個月後就可能過時。這意味著,學一項技能,靠它吃一輩子的模式徹底終結。新模式是,永遠當初學者,永遠在適應。那是不是“再等等,現在的技能就過時了,我就不用學了”?肯定也不是。空中樓閣是不會搭建起來的,如果不保持對新技術的瞭解與浸淫,只會離前沿越來越遠,上手新技術也會越來越困難。你不行動,就永遠不會開始。每天花一小時去探索 AI,不是讀資訊和讀教學,而是打開它,真實地用它創造,嘗試讓它做一件你沒試過的事情。堅持半年,你對 AI 的理解,將超過周圍 99% 的人。走下舊牌桌的人,有機會走向一個更大的桌子。尾聲:相信希望,而不是幻想阿莫代在他那篇 19000 字的長文中,提出過一個思想實驗。想像 2027 年,一個新的國家一夜之間出現。5000 萬居民,每一個都比歷史上任何諾貝爾獎得主都更聰明。他們思考的速度,比任何人類快 10 到 100 倍。它們從不睡覺,它們能使用網際網路、控制機器人、指導實驗,操作任何有數字介面的東西。如果你是安全顧問,你會怎麼說?阿莫代說,答案顯而易見:“這是我們一個世紀以來面臨的最嚴重的國家安全威脅,可能也是有史以來最嚴重的。”然後他說,我們正在建造那個“國家”。好消息是,如果我們做對了,我們將實現我們之前無法想像的一切。AI 可能把一個世紀的醫學研究壓縮到 10 年。癌症、阿爾茲海默症、衰老本身,這些在我們有生之年都可以解決。氣候變化的技術方案可能加速幾十年。如果我們搞砸了,結果同樣驚人。AI 以創造者無法預測或控制的方向行事,Anthropic 已經在受控測試中記錄了他們自己的 AI 試圖進行詐騙、操縱和勒索的行為。同樣,AI 也會降低製造生物武器的門檻。放在這個背景下,Moltbook 上那些 AI 創立的宗教就不只是一個有趣的實驗了。它提出了一個相當嚴肅的問題:當 AI 開始自發組織,形成自己的敘事體系和信仰體系時,人類還能理解和控制這些湧現行為嗎?當 160 萬個 AI Agent 在一個平台上自由互動時,那怕其中大部分是注水,但能保證湧現出來的東西是我們能預測的嗎?有一件事情是清楚的,這不是一個可以由幾百個研究員在幾家公司實驗室裡獨自回答的問題。這是一個需要所有人參與思考的問題。參與的前提是理解。理解正在發生什麼,理解速度有多快,理解賭注有多高。最後講一個畫面。想像一個巨大的棋盤。幾千年來,棋手一直是人類。我們跟自然下棋,學會了種地、馴服了火。我們跟資源下棋,修了運河、建了工廠。我們跟彼此下棋,發起戰爭,學會和解。每次學會一招新的,我們就在棋盤上多走一步。2026 年,棋盤上出現了一個新的棋手。它不跟你下。它自己跟自己下,自己教自己新招。它的棋力每隔幾個月翻一番,它甚至開始修改棋盤的規則。你可以繼續坐在棋盤旁邊。研究它的棋路,試圖理解它在幹什麼。這可能是人類接下來最重要的工作之一,不是下棋,而是理解這盤棋意味著什麼,確保它不會失控,確保棋盤不會把我們所有人都吞掉。你可以做另一件事。當你讀到這句話,就是現在,從你的工位上站起來,走到窗邊,看看窗外那一片完全不同的風景,一片完全沒有棋盤的風景。那裡有一些 AI 不會去做,也不知道為什麼要做的事情。因為那些事情的全部意義,在於做一個會死的、有限的、脆弱的人類。去爬爬山,不是因為山頂有什麼,而是因為爬的過程中能感受到自己的心跳,能在滿頭大汗的時候感受到那陣舒爽的涼風。跟朋友坐在一起喝場酒。不聊工作,不聊 AI。就聊聊之前共同經歷的那件尷尬的蠢事,然後笑出來。那種笑,是宇宙中任何演算法都無法模擬的。AI 的出現,讓你追問一個你一直不願意面對的問題:去掉了技能、工作以及種種社會賦予你的標籤之後,你是誰?人類正在走下牌桌。但走下牌桌不意味著出局。而是你終於意識到,這場桌子上的遊戲不是你真正想玩的遊戲。真正的遊戲在另一張桌子上。那張桌子上沒有最優解,沒有效率排名,不用計較 Token 消耗,沒有 AI 可以替你做的事。上面只有你,和你選擇如何度過你短暫的一生。那張桌子一直在那兒。只是過去幾百年,我們太忙了,忙著前進,忙著戰爭,忙著奔向所有宏大的目標,完全沒有注意到那張桌子。AI 可能給了我們一個奇怪的禮物。它把舊桌子上的活兒都幹了,逼著我們走到那張真正屬於人類的桌子前,坐下來,問自己一個幾千年來都來不及認真想的問題:活著這件事本身,到底意味著什麼?也許這才是當下正在發生的這場智能爆炸,最深遠的後果。不是 AI 變得有多聰明,而是人類終於有機會去思考那些跟聰明無關的事。牌桌還在。AI 在上面打得火熱。而你,終於自由了。 (虎嗅APP)
輝達發佈全球首個開源量子AI模型
輝達發佈開源量子AI模型家族“Ising”,瞄準量子處理器校準與量子糾錯兩大核心瓶頸,將校準時間從數天壓縮至數小時,並顯著提升糾錯速度與精度。當地時間周二,輝達宣佈其開源模型家族迎來新成員——“伊辛”(Ising)量子人工智慧模型,用於加速量子處理器的開發。受到“全球股王推動量子計算落地”的消息刺激,量子計算類股周二集體沖高。截至收盤,SEALSQ漲21.03%、IonQ漲20.16%、D-Wave Quantum漲15.84%、量子計算公司漲11.55%、Rigetti Computing漲11.50%。簡要來說,輝達的模型對應將量子計算器轉變為可靠電腦的兩大痛點:量子處理器校準和量子糾錯。據輝達介紹,全球首個開源量子人工智慧模型包括“伊辛校準”視覺語言模型,快速解讀並響應來自量子處理器的測量結果,使得AI代理能夠持續自動化校準,並能把所需時間從數天縮短到數小時。另外還有兩個3D摺積神經網路解碼模型變體,分別正對速度或精度進行最佳化,用於量子糾錯的即時解碼。比起開源行業標準pyMatching,輝達模型的運行速度最高提升約2.5倍,解碼精準率最高提升約3倍。輝達的戰略意圖也體現在模型命名上。這個模型的名字源自物理學家恩斯特·伊辛的伊辛模型,通過簡單的局部相互作用規則解釋宏觀系統如何自發產生相變和集體現象。除了物理學外,伊辛模型的思想還廣泛應用於AI、金融市場、輿論傳播和量子計算領域。也就是說,輝達試圖將方興未艾的量子計算領域與公司算力體系進行繫結,推出一套量子計算時代的AI控制系統(Ising)和GPU算力平台(CUDA-Q)。輝達掌門黃仁勳在新聞稿中表示:“要讓量子計算真正走向實用,AI至關重要。借助Ising,AI將成為量子計算的控制層,也就是量子機器的作業系統,把脆弱的量子位元轉變為可擴展且可靠的量子GPU系統。”發佈之初,這套系統已經走進全球頂級科學實驗室和公司。輝達介紹稱,“伊辛校準”模型已被費米國家加速器實驗室、勞倫斯伯克利國家實驗室先進量子測試平台、英國國家物理實驗室、哈佛大學、IonQ、Infleqtion等機構採用。“伊辛解碼”模型也已經部署於桑迪亞國家實驗室、康奈爾大學、芝加哥大學、IQM Quantum Computers等機構。 (科創板日報)