#月之暗面
楊植麟主持、羅福莉張鵬拋乾貨,這場“龍蝦局”把AI未來聊透了
大模型真正開始“幹活”,token需求或增長百倍。智東西3月27日報導,今天,在中關村論壇上,智譜CEO張鵬、月之暗面CEO楊植麟(擔任主持)、小米MiMo大模型負責人羅福莉、無問芯穹CEO夏立雪和香港大學助理教授黃超罕見同台,進行了一場圍繞開源大模型與智能體未來走向的深度對話。這場對話以當下最火的OpenClaw切入,幾位嘉賓一致認為,智能體讓大模型真正開始“幹活”了。OpenClaw可擴展大模型的能力邊界,但也對模型提出了更高要求,智譜正研究長程規劃、自我偵錯等能力,而羅福莉的團隊更關注通過架構創新把成本降下來、速度提上去,甚至實現模型自進化。基礎設施也得跟上智能體的節奏。夏立雪認為現在的算力系統和軟體架構還是給人用的,不是給智能體用的,其實是用人的操作能力限制了Agent的發揮空間。因此,我們需要打造Agentic Infra。在多位嘉賓眼中,開源是推動大模型與智能體發展的核心動力之一。香港大學助理教授黃超便認為,開源生態的繁榮是智能體從“玩一玩”走向真正“打工人”的關鍵,只有通過社區共建,才能讓軟體、資料和技術全面轉向智能體原生形態,最終形成可持續的全球AI生態。此外,幾位嘉賓還就大模型漲價、token用量爆發、AI未來12個月的關鍵詞等話題,展開討論。以下是這場圓桌論壇的核心觀點:1、張鵬:模型變大後推理成本也會相應提高,近期智譜的漲價策略其實是回歸到正常的商業價值上了,長期低價競爭不利於行業發展。2、張鵬:智能體等新技術的爆發讓token用量增長了10倍,但實際需求可能增長100倍,仍有大量需求未被滿足,因此算力仍然是未來12個月內的關鍵問題。3、羅福莉:從基座大模型廠商的視角來看,OpenClaw保證了基礎大模型的下限,拉高了上限。國產開源模型+OpenClaw的任務完成度已經非常接近Claude。4、羅福莉:DeepSeek給國內大模型廠商帶來了勇氣和信心。一些看似是“為了效率妥協”的模型結構創新引發了真正的變革,讓業界在算力一定的情況下發揮出最高的智能水平。5、羅福莉:接下來一年AGI歷程中最重要的事情是“自進化”。自進化讓大模型像頂尖科學家一樣去探索,是唯一能“創造新東西”的地方。小米已經借助Claude Code+頂尖模型,將研究效率提升10倍。6、夏立雪:當AGI時代到來時,基礎設施本身都應該是智能體,自主管理整個基礎設施,根據AI客戶的需求去迭代基礎設施,實現自我進化、自我迭代。7、夏立雪:OpenClaw引爆了token用量。如今的token消耗速度,就像當年3G時代手機流量剛起步時,每個月只有100M額度的那種感覺。8、黃超:未來很多軟體都不是面向人類的,軟體、資料和技術都會程式設計Agent-Native的形態,人類未來可能只需要使用那些“讓自己快樂的GUI”。以下是這場圓桌論壇的完整實錄:01. OpenClaw就是“腳手架” 大模型token消耗仍處於3G時代楊植麟:很榮幸今天能邀請到各位重磅嘉賓,幾位嘉賓來自模型層、算力層再到agent層。今天最主要的關鍵詞是開源,然後還有agent。第一個問題來談談現在最流行的OpenClaw。大家日常使用OpenClaw或者類似的產品有什麼覺得最有想像力或者印象深刻的點?從技術的角度來看,如何看待今天OpenClaw和相關的Agent的演進。張鵬:很早我就開始自己玩OpenClaw,當時還叫Clawbot。我自己動手來折騰,畢竟也是程式設計師出身,玩這些東西還是有一些自己的體驗。我覺得OpenClaw給大家帶來的最大突破點,或者說新鮮感就在於,它不再是程式設計師或極客們的專利。普通人也可以比較方便地使用頂尖模型的能力,尤其是在程式設計和智能體方面的能力。所以我到現在為止,跟大家在交流的過程當中,我更願意把OpenClaw稱作“腳手架”。它提供的是一種可能性,在模型的基礎之上搭起了一個很牢固、很方便,但是又很靈活的腳手架。大家可以按照自己的意願,去使用很多底層模型提供的新奇功能。原來自己的想法可能會受限於不會寫程式碼,或者沒有掌握其他的相關技能,今天有了OpenClaw,終於可以通過很簡單的交流就把它完成。OpenClaw給我帶來非常大的衝擊,或者說讓我重新認識了這件事。夏立雪:其實我最開始用OpenClaw的時候是不太適應的,因為我習慣於跟大模型聊天的交流方式,使用後我感覺OpenClaw反應好慢。但後來我意識到一個問題,就是它和之前的聊天機器人有一個很大的不同,本質是一個能幫我完成大型任務的“人”。我開始給它提交更複雜的任務,就發現其實它能夠做的很好。這件事情給我帶來很大的感觸。模型一開始按照token去聊天,到現在能夠變成一個agent,變成一個龍蝦,能夠幫你去完成任務。這件事對AI的整體想像力空間帶來很大的提升。同時,它對於整個系統的能力的要求也變得很高。這也是為什麼我一開始用OpenClaw,會覺得它有點卡。作為基礎設施層的廠商,我看到的是OpenClaw對於AI背後的大型系統和生態都帶來了更多的機遇和挑戰。我們現在所有能夠用到的資源,想要支撐起這樣一個快速增長的時代是不夠的。比如說就拿我們公司來說,我們公司從一月底開始,基本上每兩周token用量就翻一番,到現在基本上漲了10倍。上次見到這個速度,還是當年用3G手機消耗流量的時候。我有種感覺,現在的token用量,就像當年每個月只有100M手機流量的那個時代。這種情況下,我們所有的資源都需要進行更好的最佳化,進行更好的整合。讓每一個人,不僅僅在AI領域,而是在整個社會中的每一個人都能夠去把OpenClaw的AI能力用起來。作為基礎設施的玩家,我對這個時代是非常激動、深有感觸的。我也認為這裡邊有很多的最佳化空間是我們仍然應該去探索,應該去嘗試的。02. OpenClaw拉高國產模型上限 互動模式突破意義重大羅福莉:我自己是把OpenClaw當做agent框架演進過程中,一個極具革命性和顛覆性的事件來看待的。其實我身邊所有在進行非常深度coding的人,他們的第一選擇還是Claude Code。但是,我相信用OpenClaw的人會感受到,它在Agent框架上的很多設計是領先於Claude Code的。最近Claude Code有很多更新其實都是在向OpenClaw去靠近。我自己使用OpenClaw時的感受是,這個框架給我自己帶來更多是想像力的隨時隨地的擴展。Claude Code最開始只能在我的桌面上去延展我的創意,但是OpenClaw可以隨時隨地去延展我的創意。OpenClaw帶來的核心價值主要有兩點。第一點是它開源。開源這件事,非常有利於整個社區深度參與進來,重視並推動這個框架的演進,這是一個很重要的前置條件。像OpenClaw這樣的AI框架,我覺得一個很大的價值在於,它把國內那些水平雖然接近閉源模型、但還沒完全追上的模型的上限拉到了很高。在絕大多數場景下,你會發現它(國產開源模型+OpenClaw)的任務完成度已經非常接近Claude的最新模型。同時,它又很好地把下限保證了——通過一套Harness系統,或者說借助它的Skills體系等多方面的設計,保障了任務的完整度和精準率。總結一下,從基座大模型廠商的開發者角度來看,OpenClaw保證了基礎大模型的下限,拉高了上限。此外,我認為它給整個社區帶來的另一個價值是,它點燃了大家的認知,讓大家發現在大模型之外,Agent這一層其實蘊藏著非常大的想像空間。我最近也觀察到,社區裡除了研究員之外,越來越多的人開始參與到AGI的變革中來,更多人開始接觸像Harness、Scaffold這樣更強大的Agent框架。這些人某種程度上是在用這些工具替代自己的一部分工作,同時也是在釋放自己的時間,去投入到更有想像力的事情上。黃超:我覺得首先從互動模式來講,OpenClaw這次之所以能火,第一個原因可能是它給了一種更有“活人感”的體驗。其實我們做Agent也有一兩年了,但之前像Cursor、Claude Code這些Agent,給人的感覺更多是一種“工具感”。而OpenClaw第一次以“即時通訊軟體嵌入”的方式,讓人更有一種接近心目中“個人賈維斯”的感覺。我覺得這可能是互動模式上的一個突破。另外一點,它給整個社區帶來的啟發是:像Agent Loop這種簡單但高效的框架,再次被證明是可行的。同時,它也讓我們重新思考一個問題:我們到底是需要一個全能型的、能做所有事情的超級智能體,還是需要一個更好的“小管家”,像一個輕量級的作業系統或腳手架?OpenClaw帶來的思路是,通過這樣一個“小系統”或者說“龍蝦作業系統”和它的生態,讓大家真正有“玩起來”的心態,進而撬動整個生態裡的所有工具。隨著Skills、Harness這類能力的出現,越來越多的人可以去設計面向OpenClaw這類系統的應用,去賦能各行各業。我覺得這一點天然就跟整個開源生態結合得非常緊密。在我看來,這兩點是我們獲得的最大啟發。03. GLM新模型專為“幹活”打造 漲價是對正常商業價值的回歸楊植麟:想問一下張鵬。最近看到智譜發佈了新的GLM-5 Turbo模型,我理解在Agent能力上做了很大的增強。能不能給大家介紹一下這個新模型和其他模型的不同之處?另外我們也觀察到有提價的策略,這反映了什麼樣的市場訊號?張鵬:這是個很好的問題。前兩天我們確實緊急更新了一波,這其實是我們整個發展路標中的一個階段,只是提前把它放了出來。最主要的目的,是從原來的“簡單對話”轉向“真正幹活”——這也是大家最近普遍感受到的:大模型不再只是能聊天,而是真的能幫人幹活了。但“幹活”背後隱含的能力要求非常高。模型需要自己去做長程的任務規劃、不斷試錯、壓縮上下文、偵錯,還可能要處理多模態資訊。所以它對模型能力的要求,和傳統面向對話的通用模型其實不太一樣。GLM-5 Turbo就是在這些方面做了專門加強,尤其是你提到的——讓它幹活、跑上七十二小時,怎麼能夠不停地loop,這裡邊我們做了很多工作。另外大家也很關注token消耗的問題。讓一個聰明的模型去幹複雜任務,token的消耗量是巨大的。普通人可能感知不深,但看帳單的時候會發現錢掉得特別快。所以我們在這方面也做了最佳化,在面臨複雜任務時,模型能用更高效的token效率去完成。總體上,模型的架構還是多工協同的通用架構,只是在能力上做了偏向性的加強。提價這件事其實也很好解釋。剛才說了,現在不再是簡單地問一個問題就得到一個回答,背後的推理鏈路非常長。很多任務要通過寫程式碼和底層基礎設施打交道,還要不斷debug、修正錯誤,消耗量非常大。完成一個複雜任務需要的token量,可能是原來回答一個簡單問題的十倍甚至百倍。所以價格上需要有一定的提升,模型也變大了,推理成本相應提高了。我們把它回歸到正常的商業價值上,因為長期靠低價競爭也不利於整個行業的發展。這也是我們讓商業化能形成一個良性閉環,持續最佳化模型能力,給大家提供更好服務的。04. 打造更高效token工廠 基礎設施本身也應該是Agent楊植麟:現在開源模型越來越多,也開始形成生態,各種模型可以在不同的算力平台上給使用者提供更多價值。隨著 token用量的爆發,大模型也正在從訓練時代走向推理時代。想請教一下立雪,從基礎設施的層面來看,推理時代對於無問來說意味著什麼?夏立雪:我們是一家誕生在AI時代的基礎設施廠商,現在也在為智譜、Kimi、Mimo等提供支援,讓大家能把token工廠更高效地用起來。同時我們也在跟很多高校、科研院所合作。所以我們一直在思考一件事:AGI時代需要什麼樣的基礎設施?以及我們怎麼一步步去實現和推演它。我們現在對短期、中期、長期不同階段需要解決的問題,已經做好了充分準備。當前最直接的問題,就是大家剛才聊到的——整個Open帶起來的token量暴增,對系統效率提出了更高的最佳化需求。包括價格的調整,其實也是在這個需求下的一種應對方式。我們一直是通過軟硬體打通的方式來佈局和解決的。比如我們接入了幾乎所有種類的計算晶片,把國內十幾種不同的晶片和幾十個不同的算力叢集統一連接起來。這樣能解決AI系統裡算力資源緊缺的問題,資源不足時,最好的辦法就是先把能用上的資源都用起來,然後讓每一個算力都用在刀刃上,發揮出最大的轉化效率。所以在這個階段,我們要解決的就是怎麼打造一個更高效的token工廠。這裡邊我們做了很多最佳化,包括讓模型和硬體上的視訊記憶體等各種資源做最優適配,也在看最新的模型結構和硬體結構之間能不能產生更深的化學反應。但解決當前的效率問題,其實只是打造了一個標準化的token工廠。面向Agent時代,我們認為這還不夠。因為Agent更像一個人,可以交給它一個任務。我堅定地認為,當前很多雲端運算時代的基礎設施,是為服務一個程序、服務人類工程師設計的,而不是為AI設計的。這相當於我們做了一個基礎設施,上面是給人用的介面,再在上面包一層去接入Agent,這種方式其實是用人的操作能力限制了Agent的發揮空間。舉個例子,Agent能做到毫秒等級去思考和發起任務,但像K8s(kubernetes)這類底層能力,其實並沒有為此做好準備,因為人類發起任務大概是分鐘級的。所以我們需要更進一步的能力,我們把它叫“Agentic Infra”,也就是“智慧化的token工廠”,這是無問芯穹在做的事情。更長遠地看,真正AGI時代到來時,我們認為連基礎設施本身都應該是智能體。我們打造的這套工廠,也應該是能自我進化、自我迭代的,能形成一個自主的組織。它相當於有一個CEO,這個CEO本身就是一個Agent,可能是OpenClaw,去管理整個基礎設施,然後根據AI客戶的需求自己去提需求、迭代基礎設施。這樣AI和AI之間才能更好地耦合。我們也在做一些探索,比如讓Agent之間更好地通訊、做Cache to Cache這樣的能力。所以我們一直在思考的是,基礎設施和AI的發展不應該是一個隔離的狀態——我接到需求就去實現,而是應該產生非常豐富的化學反應。這才是真正意義上的軟硬協同、演算法和基礎設施的協同,也是無問芯穹一直想實現的使命。謝謝。05. “為效率妥協”的創新也有意義 DeepSeek給國內團隊帶來勇氣和信心楊植麟:接下來想問一下福莉。小米最近通過發佈新模型、開源背後的技術,對社區做出了很大的貢獻。想問你,小米在做大模型方面,你覺得有什麼獨特的優勢?羅福莉:我覺得可以先拋開小米有什麼獨特優勢這個話題,我更想聊一聊中國做大模型的團隊整體上的一個優勢。我覺得這個話題有更廣泛的價值。大概兩年前,中國的基座模型團隊已經開始了非常好的突破——我們在有限的算力、尤其是在一些NVLink互聯頻寬受限的算力條件下,怎麼去突破這些低端算力的限制,做一些看似是“為了效率妥協”的模型結構創新,比如DeepSeek V2、V3系列,以及MoE、MLA等等。但後來我們看到,由這些創新引發的是一個變革:在算力一定的情況下,怎麼發揮出最高的智能水平。這是DeepSeek給國內所有基座模型團隊帶來的勇氣和信心。雖然今天我們的國產晶片,尤其是推理晶片,以及訓練晶片,已經不再受這種限制,但正是在這種限制下,催生了我們對更高訓練效率、更低推理成本的模型結構的新探索。就像最近出現的Hybrid Sparse、Linear Attention這類結構,比如DeepSeek的NSA、Kimi 的KSA,小米也有面向下一代結構的HySparse。這些都是區別於MoE這一代結構的、面向Agent時代去做的模型結構創新。我為什麼覺得結構創新如此重要?其實大家如果真正地去用OpenClaw,會發現它越用越好用、越用越聰明。其中一個前提是推理的上下文長度。長上下文是一個我們聊了很久的話題,但現在真正有模型能在長上下文下表現很好、性能強勁、推理成本很低嗎?其實很多模型不是做不到1M或10M的上下文,而是因為推理1M、10M的成本太貴了、速度太慢了。只有把成本降下來、速度提上去,才能把真正高生產力價值的任務交給模型,才能在這種長上下文下完成更高複雜度的任務,甚至實現模型的自迭代。所謂模型的自迭代,就是它可以在一個複雜環境裡,依靠超長的上下文完成對自我的進化。這種進化可能是對Agent框架本身的,也可能是對模型參數本身的——因為我認為上下文字身其實就是對參數的一種進化。所以怎麼實現一個長上下文的架構,怎麼在推理側做到長上下文高效推理,是一個全方位的競爭。除了我剛剛提到的預訓練階段做好long-context-efficient的架構——這大概是我們一年前就開始探索的問題。現在真正要做到在長程任務上的穩定性和高上限的效果,是我們在後訓練階段正在迭代的創新範式。我們在想怎麼構造更有效的學習演算法,怎麼採集到真實環境下、在1M、10M、100M上下文裡真正具有長期依賴關係的文字,以及結合複雜環境產生的軌跡資料。這是我們後訓練正在做的事情。但更長期來看,由於大模型本身的飛速進步,加上Agent框架的加持,就像立雪說的,推理需求在過去一段時間已經有近十倍的增長。那麼今年整個token用量的增長會不會到100倍?這裡邊又進入另一個維度的競爭——算力,或者說推理晶片,甚至再往下到能源。所以我覺得,如果大家一起思考這個問題,我可能會從大家身上學到更多。謝謝。06. Agent有三大關鍵模組 多Agent爆發將帶來衝擊楊植麟:非常有洞察的分享。下面想問一下黃超,你開發過像Nanobot這樣很有影響力的Agent項目,也有很多社區的粉絲。想問你從Agent的Harness或者應用層面來看,接下來有那些技術方向是你覺得比較重要、值得大家關注的?黃超:我覺得如果把Agent的技術抽象出來,關鍵就是Planning、Memory和Tool Use這幾個模組。先說Planning。現在的問題主要是在長程任務或者非常複雜的上下文中,比如500步甚至更長的步數,很多模型不一定能做很好的規劃。我覺得本質上是模型可能不具備這類隱性知識,尤其是在一些複雜的垂直領域。所以未來可能需要把各種複雜任務的知識固化到模型裡,這可能是一個方向。當然,Skill、Harness在某種程度上也在緩解Planning帶來的錯誤,因為它提供了高品質的Skill,本質上也是在引導模型去完成一些比較難的任務。再說Memory。Memory給人的感覺是,它好像總是存在資訊壓縮不精準、檢索不准的問題。特別是在長程任務和複雜場景下,Memory的壓力會暴增。現在像OpenClaw這類項目,大家用的其實都是最簡單的檔案系統式的 Markdown格式的Memory,通過共享檔案來做。未來Memory可能會走向分層設計,也需要讓它變得更通用。老實講,現在的Memory機制很難做到通用——因為Coding場景、Deep Research場景、多模態場景,它們的資料模態差別很大,怎麼對這些Memory做好的檢索和索引,同時又保持高效,這永遠是一個權衡。另外,現在OpenClaw讓大家建立Agent的門檻大幅降低之後,未來可能不止一個“龍蝦”。我看到Kimi也有Agent Swarm這樣的機製出來,未來每個人可能會有“一群龍蝦”。相比於單個龍蝦,一群龍蝦帶來的上下文暴增是可以想像的,這對Memory的壓力會非常大。現在其實還沒有一套很好的機制去管理這種“一群龍蝦”帶來的上下文,尤其是對複雜Coding、科研發現這類場景,不管是模型還是整個Agent架構,壓力都很大。再說Tool Use,也就是Skill這塊。Skill現在存在的問題,其實和當初MCP的問題類似——MCP當時有質量不保障、安全風險等問題。現在Skill也一樣,看似有很多Skill,但高品質的很少,低品質的Skill會影響Agent完成任務的精準度。另外還有惡意注入的問題。所以從Tool Use來看,可能需要靠社區把整個Skill生態做得更好,甚至讓Skill能在執行過程中自我進化出新的Skill。總的來說,從Planning、Memory到Tool Use,這些是當下Agent存在的一些痛點,也是未來可能的方向。07. 未來12個月關鍵詞: 生態、可持續token、自進化與算力楊植麟:可以看到兩位嘉賓從不同視角討論了一個共同的問題——隨著任務複雜度增加,上下文會暴漲。從模型層面可以提升原生上下文長度,從Agent Harness層面,像Planning、Memory、Multi-Agent這樣的機制,也能在特定模型能力下支援更複雜的任務。我覺得這兩個方向接下來會產生更多化學反應,進一步提升任務的完成能力。最後我們來一個開放式的展望。請各位用一個詞來描述接下來12個月大模型發展的趨勢以及你的期望。這次先從黃超開始。黃超:12個月在AI這個領域看起來好遙遠,都不知道12個月之後會發展成什麼樣。楊植麟:本來這裡寫的是五年,我改掉了。黃超:對,哈哈。我想到的一個詞是“生態”。現在OpenClaw讓大家很活躍,但未來Agent真的要成為“打工人”,而不只是大家玩一玩、圖個新鮮感。未來應該讓它真正沉澱下來,成為搬磚的工具、成為真正的coworker。這需要整個生態的努力,尤其是開源,把技術探索和模型技術都開源出來之後,需要整個社區一起共建——不管是模型的迭代,還是Skill平台的迭代,還有各種工具,都需要更好地面向龍蝦去創造生態。一個比較明顯的趨勢是,未來的軟體還會是給人用的嗎?我相信未來很多軟體可能都不一定是面向人類的——因為人類需要的是GUI,而未來可能是面向Agent原生的使用。有趣的是,人可能只去用那些讓自己快樂的GUI。而現在整個生態又從GUI、MCP轉到了CLI的模式。這就需要生態把軟體系統、資料、各種技術都變成Agent Native的形態,這樣整個發展才會更加豐富。羅福莉:把問題縮小到一年,我覺得非常有意義。如果五年的話,從我心目中AGI的定義來看,我覺得已經實現了。所以如果用一句話描述接下來一年AGI歷程裡最關鍵的事情,我認為是“自進化”。這個詞聽起來有點玄幻,過去一年大家也多次提到。但我最近對它有更深的體會,或者說對“自進化”怎麼做,有了更務實、更可行的方案。原因在於,有了強大的模型之後,我們在Chat範式下根本沒有發揮出預訓練模型的上限,而Agent框架把這個上限啟動了。當我們讓模型執行更長時間的任務時,發現它可以自己去學習和進化。一個簡單的嘗試是:在現有的Agent框架裡給它加上一個可驗證的條件限制,再給它設一個Loop,讓模型不停地去迭代最佳化目標,就會發現它能持續拿出更好的方案。這種自進化現在其實已經能跑一兩天了,當然跟任務難度有關。比如在一些科學研究上,像是探索更好的模型結構,因為模型結構有評估標準,比如更低的PPL。在這種確定性的任務上,我們發現它已經能自主最佳化和執行兩三天了。所以從我的角度看,自進化是唯一能“創造新東西”的地方。它不是替代我們現有的人的生產力,而是像頂尖科學家一樣,去探索世界上還沒有的東西。一年前我會覺得這個時間線要拉到三到五年,但最近我覺得確實應該縮小到一到兩年。可能很快我們就能用大模型疊加一個強大的自進化Agent框架,實現對科學研究至少指數級的加速。最近我已經發現,我們組裡做大模型研究的同學,他們的workflow是高度不確定、高度創造性的,但借助Claude Code加上頂尖模型,我們的研究效率已經提升了近十倍。我很期待這種範式輻射到更廣泛的學科和領域,所以我覺得“自進化”非常重要。夏立雪:我的關鍵詞是“可持續token”。我看到整個AI的發展還在一個長期持續的過程中,我們也希望它有長久的生命力。從基礎設施的角度看,一個很大的問題是資源終究是有限的。就像當年講可持續發展一樣,我們作為一個token工廠,能否持續、穩定、大規模地提供token,讓頂尖模型真正能為更多的下游服務,是我們看到的一個很重要的問題。我們需要把視角放寬到整個生態——從能源到算力,再到token,最終到應用,形成可持續的經濟化迭代。我們不僅要把國內的各種算力用起來,也在把這些能力輸出到海外,讓全球的資源都能打通和整合。我也覺得“可持續”其實是在把中國特色的token經濟學做起來。過去我們講Made in China,把中國低價的製造能力變成好的商品輸出到全球。現在我們要做的是“AI Made in China”——把中國在能源等方面的優勢,通過token工廠可持續地轉化成優質的token,輸出到全球,成為世界的token廠。這是我今年想要看到的、中國給世界的人工智慧帶來的價值。張鵬:我就簡短一點。大家都在仰望星空,我就落地一點。我的關鍵詞是“算力”。剛才也說了,所有技術、智能體框架讓大家創造力和效率提升了十倍,但前提是大家能真正用得起來。你不能一個問題提出去,讓它思考半天也不給答案,那肯定不行。也因為這樣,很多研究的進展、很多想做的事情都會受阻。前兩年我記得有位院士在中關村論壇上說了一句話:“沒卡沒感情,談卡傷感情。”我覺得今天又到了這個地步,但情況又不一樣了。現在我們進入了推理階段,需求真的在爆發——十倍、百倍地增長。剛才你說用量漲了十倍,那其實需求可能是一百倍呢?還有大量的需求沒被滿足,怎麼辦?我們大家可能一起來想想辦法。 (智東西)
突發!月之暗面被傳考慮赴港上市
第四家衝刺港交所IPO的大模型獨角獸來了?智東西3月26日消息,剛剛,據外媒彭博社報導,北京大模型獨角獸月之暗面近期正籌備赴港IPO。知情人士稱,月之暗面正處於早期階段,其目的是激發投資者對AI的興趣。就在前一天,彭博社曾爆料月之暗面正在洽談籌集高達10億美元的資金,這或許會使其估值被推高至180億美元。消息人士稱,月之暗面已經與中金公司、高盛集團就合作發行進行磋商,但IPO時間尚不確定。另一位知情人士透露,月之暗面的相關籌備工作仍在進行中,最終未必會啟動IPO上市。月之暗面、高盛發言人均拒絕置評,中金公司未作出回應。月之暗面成立於2023年初。根據企查查資訊,月之暗面已經完成5輪融資,最新的一筆是今年2月的超7億美元C輪融資,其估值已經突破100億美元。阿里巴巴、騰訊、小紅書、美團等頭部公司都是其投資方。▲月之暗面融資情況(圖源:企查查)就在上周,在輝達GTC大會上,楊植麟作為本屆唯一受邀現場演講的中國獨立大模型公司創始人,發表題為《How We Scaled Kimi K2.5》的演講,首次完整披露Kimi K2.5背後的技術路線圖。他將Kimi K2.5的進化邏輯概括為三個維度的共振:Token效率、長上下文和智能體叢集(Agent Swarms)。去年12月31日,月之暗面曝光的內部信中,月之暗面創始人兼CEO楊植麟透露了該公司當時的資金狀況。月之暗面當時剛完成了5億美元C輪融資且大幅超募,當前現金持有量超過100億元。楊植麟稱,相比於二級市場,月之暗面判斷還可以從一級市場募集更大量資金,短期不著急上市,但未來計畫將上市作為手段來加速AGI,擇時而動。今年以來,大模型獨角獸上市潮開啟。1月8日、9日,智譜和MiniMax先後登陸港交所,截至今日收盤,這兩家公司的市值已經分別達到3050億港元和3092億港元。今年2月25日,上海大模型明星創企階躍星辰被曝正考慮在港交所IPO,計畫籌集約5億美元。接連幾家大模型獨角獸的上市進展被曝出,這或許標誌著中國大模型產業從技術競賽正式邁入資本與商業雙輪驅動的產業化新階段。 (智東西)
估值1200億,Kimi融資破紀錄了
Kimi狂飆。投資界獲悉,月之暗面Kimi正以投前估值180億美元(約合人民幣1200億),進行新一輪10億美元融資。大約一個月前,Kimi剛剛完成逾7億美元融資,彼時估值100億美元;而在去年底一輪5億美元融資中,其估值還只是43億美元。不到三個月,三輪融資,估值翻四倍——Kimi不僅以最快速度成為“十角獸”(估值超100億美元),還創下國內大模型連續融資最多紀錄,金額超過同期大模型公司IPO募資額。放眼一級市場,這樣的融資節奏和量級幾乎從未見過。而點燃這一切的,是Kimi新模型帶來的“K2.5時刻”和業務端的爆發:1月底以來的短短20天內,收入便超2025年全年,狂攬全球使用者。不經意間,中國公司正在改寫世界AI敘事。01融資創紀錄中國最快十角獸誕生猶記得2025年最後一天,投資界報導Kimi 5億美元C輪融資,彼時Kimi獲阿里、騰訊、王慧文等老股東繼續支援,且大幅超募,投後估值達43億美元。如今,紀錄被刷新——不到三個月時間,Kimi一舉創下近年來國內大模型連續融資最多紀錄。早在春節期間,投資界從接近Kimi人士獲悉,當時Kimi已完成超7億美元融資,估值達100億美元。最新一幕,則是Kimi正進行新一輪10億美元融資,投前估值攀升至180億美元。如此估值,已然超過同期大模型公司IPO首日市值。這也意味著,Kimi在短短三個月內,估值翻了4倍。過去幾年,中國AI風暴歷歷在目,特別當DeepSeek一騎絕塵,很多人認為大廠之外創業公司再無機會的時候,中國的AI小龍們還在用市場表現證明自己。放眼一級市場,Kimi的身後集結了紅杉中國、真格基金、Monolith礪思資本、今日資本等知名基金以及阿里、美團、小紅書、騰訊等大廠。從一開始,這就是一個非頭部擠不進去的現象級項目。隨之而來的,Kimi估值也是螺旋式上升,成為國內最快“十角獸”——從成立到估值超100億美元,僅僅用了兩年多的時間。一組對照是,完成這樣的蛻變,拼多多用了三年多,字節跳動則用了四年多。不知不覺間,Kimi正刷新中國科技公司的成長速度。02標誌性一幕:訂單暴漲80倍為何投資人絡繹不絕押注?背後Kimi正迎來爆發。時間回到今年1月底,Kimi正式發佈K2.5,這是Kimi迄今最智能也最全能的模型。官方資訊顯示,該模型具備原生的多模態架構設計,同時支援視覺與文字輸入、思考與非思考模式、對話與Agent任務。Kimi K2.5迅速收穫熱烈反響。矽谷頂級風投a16z聯合創始人Marc Andreessen直言,中國AI公司正讓矽谷感到驚訝,“根據目前的基準測試,Kimi K2.5基本上複製了GPT-5等級的推理能力。”對比下來,GPT-5開發和服務成本極其高昂,Kimi2.5則以極致性價比觸及目前AI推理能力的“天花板”。矽谷知名的風險投資家、企業家Chamath Palihapitiya更是將此視為“Kimi K2.5時刻”——開源模型第一次在綜合能力層面真正撼動由OpenAI、Anthropic、Google建構的閉源體系。回看歷史,技術拐點往往也是商業爆發的起點。其實此次最關鍵的突破點,在於多模態程式設計能力。目前其他主流開源模型並不具備圖片和視訊理解等多模態能力,這在很大程度上影響使用者與AI的互動門檻。由此,Kimi獨特的競爭優勢凸顯,K2.5已是阿里、騰訊、字節等國內巨頭旗下的程式設計工具Qoder、CodeBuddy、Trae使用者使用的主力程式設計模型,也是全球程式設計巨頭Cursor唯一接入的中國開源模型。技術水平直接決定了使用者判斷。據全球支付巨頭Stripe資料,Kimi個人訂閱使用者1月支付訂單數環比增長8280%,2月環比再漲123.8%。在其全球支付榜單上,短短兩個月,Kimi排名由百名開外飆升至第9位。國內市場,Kimi.com今年2月的網站瀏覽量也達到歷史峰值。與此同時,Clawdbot(現為OpenClaw)開始爆紅。擁有它,你就相當於獲得了一個7×24小時不眠不休的AI助手。這也意外成為Kimi的引爆點——作為AI工具,OpenClaw必須搭配大模型才能真正智能。2月初,OpenClaw宣佈將Kimi K2.5設為官方主力模型,直接讓Kimi迎來爆發式增長。而第一時間嗅到趨勢,Kimi也是最早上線了Kimi Claw。相比於OpenClaw繁雜的安裝程序,Kimi Claw無需複雜設定,無需自備電腦,能在網頁端直接使用。不出所料,過去一周OpenClaw全網爆火,“養龍蝦”成為眼下最炙手可熱的社交話題。在此之後,國內大廠及AI公司相繼推出各種“Claw”,千蝦大戰氛圍熱烈。Kimi第一波吃螃蟹,也第一波吃到了紅利。據悉,受Kimi K2.5模型及Kimi Claw火爆出圈帶動,1月底以來,Kimi近20天累計收入已經超過2025年全年。K2.5模型上線以來始終處於供不應求的狀態。如今回頭看,這一波爆發也驗證了Kimi團隊的敏銳。回顧過往,Kimi不少成長節點都是行業風向標。想起楊植麟曾在公開信中寫道,“2026年Kimi會成為一個‘與眾不同’和‘不被定義’的LLM。”如他所言,這樣的輪廓已經浮現。03里程碑中國AI正在成為標準此時此刻,中國AI公司正顛覆想像。記得2026年年初的CES上,黃仁勳展示下一代GPU性能,使用的基準模型是DeepSeek和Kimi K2-Thinking。這在歷史上是第一次。而即將舉行的輝達年度大會GTC 2026,楊植麟也成為唯一受邀演講的中國大模型公司創始人。不止於此,在AI模型API聚合平台OpenRouter的排行榜上,DeepSeek和Kimi泛化能力更強的近7000億和兆大模型,無需免費補貼,也能始終與Google、Anthropic的頂尖模型一起位於榜單TOP10。這是全球使用者的真實需求、真實錢包的投票結果,堪稱中國AI產業一個極具象徵意義的時刻。效應之下,全球資金紛紛開始重估中國科技資產。“相信可以從一級市場募集更大量資金。”楊植麟在去年底的全員信中如此表示。新一輪10億美元融資便是一種應證——如此體量,放在任何交易所都是超級IPO的規模,但Kimi在未上市時就拿到了。這背後是一層更深的邏輯:用一級市場的長錢,換技術突破的時間,在上市之前就建構起足夠的技術壁壘和人才密度。畢竟,AGI這場仗變化太快,唯有持續迭代才能一直在牌桌上。如此策略,也為Kimi打開一個更大的戰略空間。而對於投資人來說,此刻的情緒很複雜。成立不到三年的公司,估值180億美元,這在過去不可想像。但如果這是通往未來的世界級公司,現在不投,以後可能就再也投不進去了。放眼海外,OpenAI最新估值高達8500億美元。但一個普遍共識是,全球AI科技開始進入“中國時間”——中國大模型公司的海外收入不斷攀升,全球AI人才開始向東看,中國頂尖AI公司也將迎來重估。我們正在親歷著這一幕。(EDA365電子論壇)
OpenClaw,給中國AI開闢了一個彎道超車的大市場
OpenClaw可以說是AI圈裡最熱門的話題,一丁點風吹草動都能牽動全球所有AI廠商的神經。無數產品經理在OpenClaw上進行創意大比拚。嗅覺靈敏的中國廠商也都紛紛開始行動,他們看到的不只是OpenClaw這個產品本身,而是它背後代表的整個agent市場。這個市場需要雲伺服器、需要模型API、需要本土化的產品、需要更低門檻的部署方案。中國AI想要彎道超車,必須要在Anthropic和Google先後對其進行打壓的時機,緊緊抓住這個機會。騰訊雲、阿里雲上線了一鍵部署服務,他們想要趁著這個機會,成為AI圈那個賣鏟子的人。月之暗面推出了雲端版的Kimi Claw,MiniMax也緊隨其後發佈了MaxClaw,道理很簡單,本土化的OpenClaw仍然是市場的一大空缺。智譜和字節雖然沒有在OpenClaw上面明確表態,但他們其實也沒閒著。OpenClaw的成功讓智譜和字節對agent的產品更有信心。01. 月之暗面的雲端OpenClaw在OpenClaw出現之前,大模型的使用主要是“對話式”的,使用者問一句,模型答一句,單次呼叫的token消耗有限。但OpenClaw創造了全新的“模型消費場景”。一個配置合理的OpenClaw,每天可能向模型發起數百次甚至上千次呼叫,每次呼叫還要攜帶完整的上下文資訊。這意味著,單個OpenClaw使用者產生的token消耗,可能是傳統聊天使用者的幾十倍甚至上百倍。因此,OpenClaw變成了OpenRouter上token消耗最大的應用。那個模型能接入OpenClaw生態,就等於獲得了一個指數級增長的需求管道。當OpenClaw使用者選擇底層模型時,他們實際上選的不是模型性能或者模型知識儲備,使用者選的是一個持續、穩定、高頻的供貨商。誰耐用,誰便宜,誰才是OpenClaw生態下的大贏家。所以月之暗面和MiniMax就在OpenClaw的這場巨浪之中收穫頗豐。先說說前者吧,他們在OpenClaw生態中的角色,經歷了兩個階段的演變。2026年1月,Kimi K2.5因其便宜且agent能力較強,成為OpenRouter平台上OpenClaw呼叫量最高的模型。OpenRouter資料顯示,Kimi K2.5的周token使用量環比增長最高達261%。其呼叫場景主要來自OpenClaw.究其原因,Kimi K2.5支援最多100個子agent平行執行、1500次以上的工具呼叫,這些能力讓它在agent場景下表現出色。於是OpenClaw官方在1.30版本後,將Kimi K2.5設為“首個官方免費主力模型”,使用者安裝OpenClaw時可以選擇MoonshotAI通道,甚至可以留空API Key繼續使用,OpenClaw官方會補貼算力。這種爆發式增長直接帶來了商業回報。受全球付費使用者及API呼叫量大漲的共同推動,Kimi K2.5發佈不到一個月,近20天累計收入已超過2025年全年總收入。正是因為OpenClaw,Kimi的海外付費使用者數快速增長,海外收入首次超過國內。SimilarWeb資料顯示,Kimi上月訪問量達3300萬,中國地區訪問量佔比從去年的77%降低到了今年的60%多。這個階段,月之暗面扮演的是“模型供應商”的角色,被動地提供 API 服務。但Kimi團隊很快意識到,與其被動地提供API,不如主動降低使用者使用門檻。一個月後,Kimi正式推出Kimi Claw。這是一個雲端託管的OpenClaw服務。使用者無需本地部署,直接在瀏覽器中就能使用完整的OpenClaw功能。Kimi Claw把原版OpenClaw的複雜步驟全部省略了,使用者只需擁有Kimi Allegretto及以上會員,就能在網頁端一鍵建立自己的“雲端OpenClaw”,整個過程不超過1分鐘。Kimi Claw內建了Kimi K2.5模型,自動關聯使用者的Kimi Code會員權益額度。使用者無需額外配置API Key,也不用擔心突然燒掉大量token導致帳單爆炸。在功能層面,Kimi Claw直接整合了ClawHub社區的5000多個技能庫,使用者可以在網頁介面中一鍵啟用,包括天氣查詢、網頁搜尋、瀏覽器操作、郵件處理等高頻場景。原版OpenClaw的Skills需要使用者通過命令列手動搜尋、安裝、配置,這個過程對普通使用者來說又是一道門檻。Kimi Claw則是把這些技能都整合到了介面裡,使用者只需要點選就能啟用,降低了使用者使用難度。原版OpenClaw的核心理念是“本地優先”,所有對話記憶和檔案都儲存在使用者自己的裝置上。這種設計保護了隱私,但也帶來了不便,使用者換了裝置就得重新配置,AI助手的記憶也無法延續。Kimi Claw則提供了40GB的雲端儲存空間,使用者可以在辦公室電腦、家裡電腦、手機上無縫切換,AI助手的記憶始終保持一致。這種體驗對於需要在多個裝置間切換的使用者來說,是個很實用的功能。02. MiniMax也這麼幹了2月25日,MiniMax也推出了自己的MaxClaw,走的是與Kimi Claw類似但更激進的路線。MaxClaw基於MiniMax M2.5模型,雖然這是一個模型總參數量約2300億,單次推理僅啟動約100億的大模型,但它的API價格非常便宜。M2.5在OpenRouter上的表現也很亮眼。發佈後12小時內登頂OpenRouter熱度榜,一周內登頂呼叫量榜首,周呼叫量暴漲至3.07兆token,超過Kimi K2.5、GLM-5與DeepSeek V3.2三家的總和。發佈7天內token使用量突破3兆,2月單月token使用量達4.55兆,空降榜首。為什麼M2.5能在短時間內實現如此驚人的增長?答案同樣是OpenClaw。MiniMax M2.5的定價策略是“極端性價比”。在每秒輸出100token的情況下,連續工作一小時只需花費1美金;而在每秒輸出50個token的情況下,只需要0.3美金。這意味著,同樣是運行一個7×24小時這樣的OpenClaw實例中,M2.5的成本可能只有Claude Sonnet的1/10到1/20。對於需要高頻呼叫工具的agent場景來說,這種成本差異是決定性的。OpenClaw社區的開發者很快發現了這一點。在外網論壇上,大量關於“如何在OpenClaw中配置 M2.5”的教學湧現,甚至有開發者專門編寫了“從Claude遷移到M2.5”的遷移指南。這種開源社區中的傳播,比任何廣告投放都更有效,要知道OpenClaw能走到今天,也是被開源社區帶火的。MiniMax還將MaxClaw整合到自家的MiniMax Agent生態中,與Expert 2.0同步升級,形成了“對話式AI + agent 工作流”的完整產品矩陣。資本市場的反應更為直接。2月20日,也就是馬年港股開市首個交易日,MiniMax的股價單日暴漲14.52%,市值一度衝破3042億港元,創下公司上市新高。自上市以來,MiniMax股價累計漲幅最高超過480%,2026年初至今股價最高漲幅超450%,成功躋身港股AI核心標的行列。摩根大通給予MiniMax “增持”評級,目標價700港元。3月2日,MiniMax發佈財報,2025財年收入為7900萬美元,同比增長158.9%。OpenClaw帶來的流量紅利,讓月之暗面和MiniMax轉化為了自家的使用者資產。想想看,當一個使用者通過OpenClaw使用Kimi K2.5一個月後,他已經習慣了這個模型的輸出風格、響應速度和能力邊界。這時候搬出Kimi Claw給他,然後說:“你不用自己維護伺服器了,不用配置API Key了,直接在我們的平台上用,還能多端同步。”這轉化率能低得了嗎?這兩家公司的雲端OpenClaw產品,本質上是在用SaaS的方式去做agent服務,你給我錢,那我給你一個低門檻的產品。雖然沒有原版OpenClaw那麼能擴展,但是勝在便宜好用。事實上絕大多數 人其實都沒有那麼尖端的需求。他們可能只是想讓AI幫忙檢查郵件、整理文件、定時提醒、查詢資訊。回到段落開頭,Kimi和MiniMax也都明白這個道理,agent的價值不在於單次對話的質量,而在於長期、持續、穩定的任務執行能力。所以他們剛好填補了市場的一片空白。03. 騰訊、阿里的“賣鏟子”生意OpenClaw對普通使用者來說門檻不低。你得有自己的伺服器,得會配置 Node.js 環境,得懂怎麼申請各家模型的 API Key,還得知道怎麼設定消息通道。整個過程下來,沒有半小時到一小時搞不定,技術小白基本上看到教學就放棄了。這種極客屬性很強的產品,註定只能在開發者圈子裡流行,很難真正普及到大眾市場。騰訊和阿里看到的,恰恰就是這個痛點。與其讓使用者自己折騰,不如直接提供一套開箱即用的解決方案。於是在OpenClaw爆火後,騰訊雲和阿里雲幾乎同時推出了OpenClaw的一鍵部署服務。這些雲廠商提供的,不僅僅是一台伺服器那麼簡單。他們把整個OpenClaw的運行環境都打包好了,包括預配置的鏡像、自動化的部署指令碼、已經偵錯好的依賴包,甚至還有現成的模型 API 接入方案。使用者只需要點幾下滑鼠,選擇配置,付款,然後等幾分鐘,一個完整的OpenClaw實例就跑起來了。騰訊雲的方案相對簡潔直接。他們在輕量應用伺服器上推出了“雲應用”功能,使用者通過這個功能可以三步完成OpenClaw部署。系統默認配置的是 DeepSeek API 作為模型供應商,但使用者可以在 Dashboard 中自由切換到 Kimi、MiniMax 或者其他國產模型。騰訊雲的官方文件裡寫得很明白:“OpenClaw來自開源社區,雲應用不收費”,但緊接著又補充了一句,“雲伺服器和 API 按照實際消耗計費”。騰訊賺的不是OpenClaw的錢,而是雲伺服器租賃費、流量費、還有模型 API 呼叫產生的費用。他們不強制繫結自家模型,給使用者留了選擇空間,但基礎設施這一層,你跑不掉。阿里雲的打法則更加“生態化”。使用者在輕量應用伺服器上部署OpenClaw後,系統會引導使用者前往“阿里雲百煉大模型控制台”建立 API Key,默認呼叫的就是通義千問系列模型。阿里雲還推出了一個叫“Coding Plan”,這是阿里雲百煉面向全品類 AI 編碼工具推出的通用訂閱套餐,相容OpenClaw接入。換句話說,阿里就是想通過OpenClaw的代安裝服務,推廣自己家的 AI 程式設計以及模型API。阿里和騰訊想要的,是要佔領agent時代的“水電煤”。OpenClaw的爆火證明了一個趨勢,未來的 AI 應用不是簡單的“聊天機器人”,而是一個 24 小時線上、能執行複雜任務、需要穩定算力支援的 agent。當個人使用者和中小企業開始部署 agent 時,他們需要的不僅是模型的 API,還需要雲伺服器、儲存空間、網路頻寬,以及飛書、釘釘、企業微信這樣的消息整合,還有安全沙箱環境等一整套基礎設施,最後更不能少了像是 AI 程式設計這樣具體的執行工具。所以騰訊雲和阿里雲才提供了“一鍵部署OpenClaw”這個服務,以此搶佔這個新興市場的入口。他們的邏輯很清楚,今天使用者因為OpenClaw來了,明天可能因為其他 agent 產品來,但只要使用者習慣了在他們的雲平台上部署 agent,那麼這些使用者就成了長期客戶。更重要的是,當每個企業都需要部署自己的 agent 時,誰能提供最便捷、最穩定、最本土化的基礎設施,誰就能佔據這個兆級市場的底層。雲廠商們看得很明白,賣鏟子的生意,往往比挖金子的人更穩定,也更賺錢。不僅是這樣,OpenClaw它代表的是一個訊號,未來的agent產品只多不少。雲廠商們現在做的,就是提前佔位,建立使用者習慣,建構生態壁壘。當agent成為企業和個人的標配時,誰能提供更多配套的服務,誰就掌握了話語權。04. 智譜和豆包為何不激進在這場圍繞OpenClaw的競爭中,智譜和字節的態度顯得有些微妙。不過這不代表他們在agent這個賽道上落後了,恰恰相反,他們選擇了一條更獨特的路。智譜對OpenClaw的態度可以概括為“技術上支援,戰略上不主推”。智譜GLM-5在官方文件中明確提供了OpenClaw接入指南,GLM的Coding Plan套餐也支援OpenClaw配置。智譜甚至還推出了“AutoGLM版本的OpenClaw”,支援OpenClaw與飛書的一體化配置。從這些動作來看,智譜並沒有忽視OpenClaw,提供了作為一家中國AI廠商該有的一些基本支援。智譜更看重的是AutoGLM,這是一個具備“Phone Use”能力的agent。AutoGLM在2025年12月開源,能夠完成外賣點單、機票預訂等數十步複雜操作,還支援微信、淘寶、抖音等超50個高頻中文應用。AutoGLM的核心技術是視覺語言模型,它不依賴傳統的API,而是像人眼一樣“看”螢幕,通過理解UI元素的語義直接預測下一步動作。這種方式的優勢在於,它只要能看到介面,就能進行操作。這意味著AutoGLM可以操作任何應用,包括那些沒有開放API的應用。OpenClaw 的核心場景是桌面端,需要配置海外消息平台,這些平台在中國的使用率並不高。相比之下,AutoGLM 直接在使用者最常用的中文應用中執行任務,不需要依賴海外消息平台,更符合中國使用者的使用習慣。智譜的想法是,既然OpenClaw證明了agent的市場需求,那真正適合中國使用者的agent,更應該是能操作微信、淘寶、抖音的AutoGLM。字節跳動對OpenClaw的態度更加微妙。表面上看,只有前文提到的,火山引擎提供的一鍵部署OpenClaw。這是因為字節對agent的注意力集中在移動端。去年字節跳動與中興努比亞合作推出nubia M153測試手機,內建了“豆包手機助手技術預覽版”。其核心技術是UI-TARS,一個純視覺驅動的GUI agent模型。與OpenClaw相比,豆包手機助手更有優勢。豆包是直接整合到Android系統層,可以不打開應用就從底層進行操作,完全不會影響使用者當下使用。OpenClaw需要通過瀏覽器控制或API呼叫來操作應用,權限和穩定性都受限。同時,豆包手機助手能夠實現跨應用的複雜操作,比如“幫我在三個外賣平台比價,然後下單最便宜的”。OpenClaw的跨應用能力有限,很多任務不能跨應用完成,而且在不同應用之間切換的速度很慢。字節跳動官方始終強調,agent應該是整合到作業系統中、能直接操作所有應用的系統級能力,而不是一個需要使用者手動配置、運行在伺服器上的獨立程序。這種理念上的差異,決定了字節不會在OpenClaw上投入太多資源。字節對OpenClaw保持距離,是因為它正在打造一個更高維度的解決方案。當然,智譜和字節的這種戰略選擇也有代價。在OpenClaw熱度最高的這段時間,錯過了一波流量紅利。不過從長期來看,誰的選擇更正確,還需要時間來驗證。agent這個賽道才剛剛開始,現在下結論還為時過早。 (字母AI)
月之暗面Kimi最新收入公開,行業沸騰
能賺錢的AI才是“好AI”。春節返工第一天,當大部分網際網路公司還在為年度財報焦慮時,一家成立僅兩年多的中國AI公司卻交出了一份令人矚目的成績單。近日,據財聯社透露,大模型公司月之暗面(Kimi)旗下K2.5大模型發佈不到一個月,近20天累計收入已超過2025年全年總收入!更離譜的是其估值躍遷速度。在連續融資超12億美元後,月之暗面創下國內公司從成立到晉級“十角獸企業”(估值超100億美元)的最快晉級速度。此前,字節估值突破百億美元大關用時超4年,拼多多用時超3年,而Kimi從天使輪的3億美元到估值過百,僅用兩年多的時間,身價已翻了30多倍。一夜之間,月之暗面就從AI圈的“小黑馬”變成了行業討論的焦點,但質疑聲也隨之而來:20天就賺完一整年的錢,到底是真有本事,還是資本在背後炒作?兩年多就逆襲成十角獸,它憑啥能比字節、拼多多還猛?圖源:財聯社收入與估值雙狂飆,Kimi刷新行業紀錄讀懂月之暗面的崛起,核心看兩點:收入的斷崖式增長與估值的火箭式攀升。從過去幾年的表現來看,月之暗面的收入增長並不是靠一次性訂單或者資本補貼堆出來的。真正拉著收入漲起來的,是全球付費使用者的增多和API呼叫量的暴漲,尤其是海外市場,表現特別亮眼,已經成了它的核心增長引擎。據瞭解,目前其海外收入已超過國內,預計未來佔比將升至70%以上。Kimi創始人楊植麟在內部信中提到,過去一年,Kimi海外及國內付費使用者數的月環比增長超過170%,海外大模型API收入較9-11月實現4倍增長。而這一次收入暴漲的直接導火索,就是2026年1月底發佈的Kimi K2.5模型。該模型一經上線,就直接引爆了全球開發者市場——其在OpenRouter平台的呼叫量一直穩居行業前列,甚至超過了GPT、Claude這些海外頭部模型,成了全球開發者最青睞的AI模型之一,也直接帶動了B端收入的暴漲。圖源:LMArena網站並且,月之暗面的融資節奏更顯激進:2025年底,楊植麟在內部信中透露,公司剛完成新一輪5億美元融資,現金儲備達100億元人民幣,規模接近同期籌備上市的兩家頭部同行之和。而不到兩個月後,消息又傳出月之暗面即將完成新一輪超7億美元融資,且再次出現超額認購。“融資金額超過絕大部分IPO募資及上市公司的定向增發,還可以從一級市場募集更大量資金,主動權掌握在我們手中。”楊植麟在內部信中的這句話,道出了這家公司在資本市場的強勢地位。在資本寒冬論調尚未完全消散的當下,這種“超募”現象顯得尤為刺眼。圖源:微博資本為什麼願意這麼瘋狂追捧它?很多人將月之暗面的成功,簡單歸結為“運氣好”“踩中了AI風口”,但事實上,其近20天的收入爆發和兩年多的估值飆升,並非偶然,而是“技術產品化、產品商業化”的必然結果。核心在於,它精準踩中了AI大模型商業化的痛點,用“產品破局+模式閉環”,建構了屬於自己的核心競爭力,這也是其能夠在巨頭環伺中突圍的關鍵。如果要從三個角度拆解它的增長邏輯,那會是:技術突破、OpenClaw使用門檻降低以及“B端+C端+出海”的商業化閉環。第一個核心支撐:Kimi K2.5的技術突破,為它打下了堅實的基礎。圖源:Kimi官網在AI賽道,技術就是核心競爭力,而Kimi K2.5的推出,直接打破了海外模型在技術和成本上的壟斷,成了它引爆市場的關鍵。它的核心優勢同樣有三點:一,開源免費,徹底降低了使用門檻。和GPT、Claude按Token收費的模式不一樣,Kimi K2.5可以直接從Hugging Face免費下載,不用付任何授權費用,讓中小企業和獨立開發者直接實現“成本歸零”,也就能快速搶佔市場。二,技術架構領先,性能特別能打。它採用了1T總參數量的MoE架構,靠著專屬的最佳化技術,能指揮100個子智能體一起工作,把複雜任務的端到端效率最高提升4.5倍;同時它還具備原生多模態能力,能看懂截圖、設計稿,還能直接生成程式碼,填補了開源模型的短板。三,部署成本極低,適配各種使用場景。據Kimi K2.5深度技術分析報告顯示,這款模型採用了原生INT4量化技術,在訓練的時候就考慮到了低精度表示,推理的時候可以直接使用4-bit權重,還不會明顯損失精度,大大降低了硬體門檻,讓中小企業和個人開發者不用投入巨額硬體成本,也能用上高性能的大模型。第二個核心支撐:Kimi Claw的出現大幅降低了OpenClaw使用門檻,擴大了使用者群體。圖源:Kimi App簡單說,春節期間上線的Kimi Claw把OpenClaw從“只有開發者能用的工具”,變成了“普通人也能上手的全民AI助手”,既吸引了大量普通使用者,也讓更多中小企業能快速用上高性能的AI服務,為C端會員和B端定製服務,都帶來了新的增長空間。可能很多人不知道,原版的OpenClaw使用門檻特別高,需要租用伺服器、配置API、安裝外掛,就算是有一定技術基礎的開發者,也得花半天時間才能完成部署,普通使用者根本上手不了。Kimi Claw實現了“零程式碼、零硬體、零部署”,讓更多人能用上AI工具,也擴大了它的使用者覆蓋範圍。第三個核心支撐:“B端+C端+出海”的商業化閉環,讓它的技術優勢真正變成了錢。在AI行業,很多企業都有一個通病——技術很強,但賺不到錢,而月之暗面之所以能實現收入暴漲,關鍵就是它有清晰的商業模式,能把Kimi的產品優勢,快速變成實實在在的收入。所謂B端,就是B端的API呼叫和企業定製服務,這也是目前它收入的核心支柱,佔比達到67%。C端,指C端的使用者會員訂閱服務。月之暗面推出了49元/月、99元/月、199元/月以及最新699元/月四檔會員,會員可以享受更長的上下文窗口、更快的響應速度、更多的技能外掛使用權限這些增值服務。圖源:Kimi官網雖然目前C端收入佔比還不如B端,但隨著Kimi Claw的普及,越來越多的職場人、內容創作者,願意為這種高效、便捷的AI助手付費,未來增長潛力很大。而出海,就是全球化佈局,海外市場已經成了它的核心增長極,前文已經提過,這裡不再贅述。總結一下就是,月之暗面的增長,其實是“技術突破→做出產品→降低門檻→吸引使用者→賺到錢→資本追捧”的良性循環。但話說回來,在這樣的高光時刻背後,它的百億美元估值,也藏著不少隱患。高光之下,不可忽視的隱憂與挑戰說實話,沒人能否認,月之暗面這兩年多的成績,確實夠驚豔。但越是看到這樣的高光時刻,就越需要保持理性,因為在AI行業,“來得快,去得也快”的案例並不少見。月之暗面的高速增長背後,隱藏著諸多不可忽視的隱憂和挑戰,這些問題,或將決定它能否在未來持續領跑,能否撐起百億美元的估值。首先,使用者留存難度大,技術紅利消失得太快。月之暗面能快速崛起,很大程度上是靠Kimi K2.5和Kimi Claw帶來的新鮮感和門檻優勢,但這種優勢,其實維持不了太久。就拿Kimi Claw來說,目前已有大廠跟進一鍵部署能力,一旦該模式商業化徹底跑通,作為獨角獸公司的月之暗面很難跟大廠正面較量。其次,商業化可持續性存疑,成本壓力居高不下。雖然近20天的收入暴漲實現了短期盈利,但從長期來看,還有很多不確定因素,而高昂的研發成本,就像是懸在它頭頂的“花錢”大山,壓得人喘不過氣。更要命的是,估值泡沫顯著,資本依賴度高。過高的估值,會給公司帶來了巨大的業績壓力。雖然創始人說“不以上市為目標”,而且手裡現在還有超過100億元的現金儲備,但早期投資機構終究是要退出、要賺錢的,未來一定會對它的商業化進展提出更高的要求。如果以後它的收入增長跟不上,撐不起這100億美元的估值,資本的態度很可能會變,融資節奏也會放緩,到時候,這場增長神話,可能就會突然結束。除此之外,行業競爭太激烈也是一個很大的問題。不光是阿里、騰訊、字節跳動這些網際網路大廠,國內還有很多AI初創企業,也在盯著AI大模型這個賽道,靠著自己的差異化優勢,搶佔細分市場,行業裡的同質化競爭也越來越卷。在這樣的競爭環境下,月之暗面要想持續保持領先地位,持續實現高速增長,難度可想而知。當然,我們並不是否定月之暗面的實力,也不是唱衰它的未來。作為一家成立僅兩年多的年輕企業,能夠取得如此成績,已經足夠優秀,它的崛起,也為國產AI大模型的商業化,提供了一種新的可能——不盲目追求技術參數的堆砌,而是聚焦使用者需求,用產品創新降低門檻,用清晰的商業模式實現價值兌現。但我們必須清醒地認識到,AI行業的發展,從來都不是“一蹴而就”的,百億美元的估值,既是榮譽,也是壓力;近20天的收入爆發,既是機遇,也是考驗。 (科技重磅)
20天賺回1年的錢!估值超100億美元快過字節,月之暗面憑什麼?
背後離不開那個被朱嘯虎炮轟的女人。這可能是中國AI公司的又一個瘋狂時刻。2月23日,一則消息在創投圈炸開:大模型創業公司月之暗面(Kimi)旗下K2.5大模型發佈不到一個月,近20天累計收入已超過2025年全年總收入。更令人咋舌的是,海外收入首次反超國內,全球付費使用者正在以驚人的速度湧入。但這只是冰山一角。在連續融資超12億美元後,月之暗面剛剛創下國內公司從成立到晉級“十角獸”企業(估值超100億美元)的最快紀錄——僅用兩年多時間,身價翻了30多倍。要知道,字節突破百億美元用了4年,拼多多用了3年。當阿里砸30億請全國人民喝奶茶、騰訊用10億紅包狂轟濫炸時,這家不參與補貼大戰的公司,反而成了AI賽道最吸金的玩家之一。創始人楊植麟在內部信中淡定寫下:“短期不著急上市。”公司帳面現金儲備已接近100億元,比不少上市公司還有錢。這家僅300人的創業公司,如此底氣十足,究竟憑什麼?讓100個AI分身同時幹活K2.5的發佈方式很特別。創始人楊植麟沒有開發佈會,他站著錄了一段中英雙語視訊,輕描淡寫地說:“K2.5是我們目前最強大的模型,而且是開放原始碼的。”真正讓開發者瘋狂的,不是開源本身,而是K2.5帶來的新物種:Agent叢集。簡單來說,K2.5可以調度多達100個“分身”同時工作。當你讓它完成一項複雜任務,比如“檢索近三個月所有關於叢集式Agent的文獻,整理成Excel並提煉核心發現”,它不再是一個AI單打獨鬥,而是瞬間組建一支專業團隊——有“人”分別負責搜尋、篩選、總結、排版,所有工作平行推進,效率提升3到10倍。這種能力的背後,是Kimi研發團隊自研的一套新技術——平行智能體強化學習(PARL)。它在訓練中教會模型如何拆解任務、分配角色、協同執行,所有的分工協作無需預設,全由模型即時決策。“高品質資料的增長速度趕不上算力的增長,傳統的用網際網路資料預測下一個token的方式帶來的改進越來越少。”楊植麟在Reddit(全球最大的網友自發討論社區)上與全球網友互動時解釋,“但我們可以通過其他方式擴展,比如Agent叢集——平行執行子任務的數量可以無限擴展。”說白了,就是靠喂更多資料讓AI變聰明的老辦法,效果越來越差了。所以Kimi換了思路,讓AI學會團隊作戰,靠人多力量大來突破瓶頸。這一策略很快被市場驗證。K2.5發佈後,在全球最大的大模型API聚合與呼叫量排行榜平台——OpenRouter上,其呼叫量一度登頂全球第一,超過Google的Gemini和Anthropic的Claude。OpenClaw——2026年初最火爆的開源Agent框架——直接將K2.5列為首選推薦模型。在全球各大社區上,大量開發者開始分享“如何用Kimi部署OpenClaw”的教學。一個使用者寫道:“用Claude跑Agent,帳單動不動幾百美元,換成Kimi,成本降到原來的八分之一。”這正是Kimi的陽謀:不參與國內C端聊天機器人的補貼大戰,轉而擁抱全球開發者生態。結果就是文章開頭那一幕:K2.5發佈不到20天,收入超過去年全年總和,海外收入首次反超國內。被DeepSeek逼入牆角之後但在K2.5發佈之前,Kimi剛剛度過艱難的2025年。年初,DeepSeek的橫空出世讓Kimi的市場聲量一度下滑,月活從一季度2165萬回落至年末902.7萬,幾乎腰斬。楊植麟在內部信中總結:“2025年可以說只做了一件事,All in模型能力和Agent。”這一年,公司做了幾個關鍵決定:戰略性停止年耗超7億元的燒錢買量,砍掉Ohai、Noisee等C端泛娛樂產品線;從閉源轉向開源,7月發佈Kimi K2時採用MIT開源協議;將重心轉向海外,9月OK Computer(Kimi Agent)率先在海外全量上線,國內僅灰度測試。埋頭投入很快有了回報。7月,Kimi發佈中國首個兆參數開源基座模型K2,程式碼與Agent能力達到領域頂尖水平;9月推出OK Computer全端智能體助手;11月開源思考模型Kimi K2 Thinking,訓練成本僅460萬美元,性能卻超越數十億美元投入的GPT模型。一位接近團隊的人士形容,那段時間“幾乎是抱著必死決心在投入”。這場反擊的技術成果,最終在2026年1月的K2.5身上集中兌現。而將Kimi帶到這個位置的楊植麟,是一個1992年出生的年輕人。楊植麟的求學履歷堪稱硬核——被清華錄取了三次(保送、自主招生、汕頭理科狀元),以年級第一畢業,隨後赴卡內基梅隆大學讀博,師從蘋果AI負責人,以第一作者身份發表Transformer-XL與XLNet兩篇論文,成為建構大模型的基石性成果。但他絕不是個技術宅。在清華,他是搖滾樂隊Splay的鼓手,夢想過成為搖滾明星。公司取名“月之暗面”(Moonshot AI),正源自他鍾愛的平克·弗洛伊德樂隊專輯,象徵著對未知的好奇與探索。2023年創立Kimi時,楊植麟選擇的是一條在當時看來有些偏門的路——超長文字。當同行都在卷參數規模時,他帶著團隊死磕“讓AI一次性讀完百萬字小說”的能力。2024年初,Kimi憑藉200萬字上下文一鳴驚人,成為資本寵兒。但2025年的低谷,讓他和團隊完成了一次關鍵進化:從“長文字之王”轉向Agent技術派。如今回頭看,那場被DeepSeek逼入牆角的危機,反而成了Kimi蛻變的契機。操盤手張予彤,被朱嘯虎炮轟的女人Kimi的狂奔,還離不開一個人——張予彤。這位80後清華才女的加入,曾伴隨巨大爭議。作為金沙江創投的前投資人,她主導投資了楊植麟首次創業的項目,兩人早有交集。2024年,張予彤從金沙江離職,深度參與月之暗面營運,卻因此被前同事朱嘯虎公開炮轟,指控其隱瞞持股、違反受托責任,糾紛一度被提交至香港國際仲裁中心。楊植麟對此的反應是力挺。他在內部信中澄清,張予彤的股份是基於多年兌現的貢獻對價,是對她在公司業務、戰略及融資上所做貢獻的獎勵。2025年12月,張予彤正式以“月之暗面Kimi總裁”身份公開亮相,全面負責商業化落地。這對組合的分工日漸清晰:楊植麟專注技術上限;張予彤負責商業變現。她在達沃斯論壇上提出的競爭策略頗具深意:“最有效的競爭方式就是不競爭。”——不盲目追求大而全,而是專注於底層技術創新和Agent等高價值場景的深耕。這種“不競爭”的背後,是Kimi對人才的極致投入。2025年底,楊植麟在內部信中透露,基於成果產出,公司對324名員工進行了調薪、期權、現金等各種激勵。2026年,計畫將平均激勵提升至2025年的200%,同時大幅上調期權回購額度。有獵頭算過一筆帳:以300人團隊、2025年人均80萬元總包估算,2026年單人力成本將衝到160萬元。這意味著月之暗面要用約5億元現金,買員工一年的“人才獨佔期”。“我們沒有隨意堆砌算力的條件,這迫使我們必須通過大量的基礎研究創新,來換取極致的效率。”張予彤說。用美國頂尖實驗室1%的資源,研發出全球領先的開源模型——這不是謙虛,是現實。如今的國內大模型賽道,正呈現清晰的“K型分化”。巨頭們憑藉生態和資本進行“全端飽和攻擊”,智譜和MiniMax擁抱大廠、啟動IPO,市值雙雙突破3000億港元。而Kimi選擇另一條路:不上市,不站隊,靠技術溢價和全球開發者生態,建構自己的護城河。100億現金和Agent叢集的技術領先,幫Kimi拿到了留在牌桌上的資格。但在算力掣肘和巨頭虎視眈眈之下,它能否把領先的半個身位跑成一段路?答案或許藏在楊植麟喜歡的那張平克·弗洛伊德專輯裡——月之暗面,既是未知的黑暗,也是未被照亮的可能。 (新質動能)
Anthropic撕破臉:中國AI三巨頭"偷"了1600萬次
昨天(2026-02-23),美國AI獨角獸Anthropic突然發難,在自家部落格扔出一顆重磅炸彈——指控DeepSeek、月之暗面、MiniMax三家中國頭部AI公司通過24,000個虛假帳號,對Claude模型發動了高達1,600萬次的"工業規模蒸餾攻擊"。更戲劇性的是,馬斯克當場在X平台開炮,直指Anthropic"賊喊捉賊",還翻出了這家公司去年因盜版書籍賠償15億美元的黑歷史。這事兒看著像技術糾紛,實際上是中美AI競賽白熱化的縮影。一邊是Anthropic把技術問題上升到國家安全高度,另一邊是馬斯克揭老底式反擊。說白了,這不是簡單的"偷模型"爭議,而是OpenAI和Anthropic聯手對中國AI的圍剿開始了。📊 關鍵數字 1,600萬+ 次互動DeepSeek約15萬次 · 月之暗面340萬次 · MiniMax超1,300萬次Anthropic在報告裡列了組讓人瞠目的資料。過去幾個月,他們監測到有組織的攻擊者利用大規模代理網路(他們叫"九頭蛇叢集"架構),通過輪換IP地址和偽造請求中繼資料,繞過了平台的安全防護。光是MiniMax一家,就發起了超過1,300萬次互動,專攻Agent程式設計和工具編排能力。月之暗面也不遑多讓,340萬次互動主要衝著Agent推理和電腦視覺能力去的。最有意思的是,Anthropic聲稱通過分析請求中的技術模式、基礎設施指標,甚至對比月之暗面高管的公開資料,以"高置信度"把這三家公司揪了出來。這種溯源能力本身就很嚇人——說明AI公司對你的一舉一動瞭如指掌。2025-08 Anthropic被曝通過"巴拿馬計畫"大規模掃描數百萬本版權書籍用於訓練2025-12 Anthropic同意支付15億美元與作者群體達成和解2026-02-12 OpenAI向美國眾議院提交備忘錄,首次指控DeepSeek非法蒸餾2026-02-23 Anthropic發佈部落格正式指控三家中企"工業規模蒸餾攻擊"2026-02-24 馬斯克在X平台連發數文炮轟Anthropic"賊喊捉賊"🔧 技術拆解:所謂"蒸餾"(Distillation),說白了就是"抄作業"的高級版。讓小模型(學生)通過學習大模型(老師)的輸出來提升能力,就像學渣通過研究學霸的解題步驟來提高成績。這技術本身完全合法,甚至OpenAI自己也用。但Anthropic指控的是"工業規模"的非法蒸餾——通過2.4萬個假帳號,像工廠流水線一樣系統性竊取模型能力,這就涉及法律灰色地帶了。看到這兒你可能會問:如果中國公司是通過付費API呼叫的,這算不算 theft?這就觸及了當前AI行業最模糊的地帶。模型輸出的版權歸誰?用API呼叫結果訓練新模型,是合理使用還是侵權?現在全球都沒有明確判例。Anthropic自己也幹著類似的事——去年被曝光的"巴拿馬計畫"顯示,他們未經授權掃描了數百萬本圖書,最後不得不掏出15億美元和解。"Anthropic大規模竊取訓練資料並支付數十億美元賠償金是不爭的事實,賊喊捉賊。"—— 伊隆·馬斯克(X平台,2026-02-24)馬斯克這次開炮可謂精準打擊。他指的15億美元賠償案,正是Anthropic在2025年底因為系統性盜版書籍訓練模型,被作者群體集體訴訟後的和解金額。有意思的是,Anthropic內部給這個項目起了個諷刺的代號——"巴拿馬計畫",明顯是在影射臭名昭著的避稅天堂。一邊自己盜版書籍付天價賠償,一邊指控別人蒸餾模型,這雙標玩得確實溜。更微妙的是時間點。OpenAI在2月12日剛向美國眾議院中國特設委員會遞交了備忘錄,指控DeepSeek通過"混淆第三方路由器"非法蒸餾ChatGPT。兩周後Anthropic跟進發難,形成完美的"美國雙雄"圍剿態勢。這絕非巧合,而是精心策劃的聯合行動。💰 成本分析:Anthropic去年因盜版書籍賠了15億美元,相當於他們好幾年的營收。這次指控中國公司"蒸餾攻擊",本質上是在轉移視線——把自己的道德污點包裝成"維護智慧財產權"的正義之戰。更深層看,他們想把技術競爭上升到國家安全層面,借此推動更嚴格的晶片出口管制。畢竟,如果中國公司通過蒸餾就能獲得頂級模型能力,那美國卡晶片脖子的策略就失效了。Anthropic在報告裡毫不掩飾地緣政治意圖,直言蒸餾技術"破壞出口管制效果",甚至警告這些模型"缺乏安全護欄,可能被用於生物武器開發"。這種話術聽著耳熟——典型的"威脅國家安全"敘事套路,目的是為更嚴厲的監管鋪路。存疑:目前所有指控資料均來自Anthropic單方面披露,DeepSeek、月之暗面、MiniMax三家中國公司截至發稿均未公開回應。所謂的"高置信度"歸因,是否經得起第三方獨立驗證?24,000個帳號的技術模式,是否足以確鑿指向這三家公司,而非其他第三方行為者?Anthropic是否借技術爭議之名,行商業打壓之實?說到底,這是一場沒有贏家的戰爭。如果Anthropic的指控屬實,說明中國AI公司在技術獲取手段上確實存在爭議;但如果這只是一場精心策劃的輿論戰,那暴露的是美國AI巨頭面對中國競爭時的焦慮與恐慌。馬斯克看透了這點——與其爭論技術細節,不如直接揭穿對方的道德虛偽。耐人尋味的是,截至目前,三家被指控的中國公司集體保持沉默。這種沉默可以有多種解讀:或是默認,或是不屑回應,或是在準備法律反擊。無論如何,這場爭端標誌著中美AI競爭進入了一個更殘酷的新階段——從晶片禁令到模型蒸餾,戰場正在向技術倫理和智慧財產權領域蔓延。💡 主編觀點:這不是技術糾紛,而是商業戰爭的煙霧彈。Anthropic一邊自己盜版書籍賠15億,一邊指控別人"蒸餾"不道德;一邊享受開源社區紅利,一邊想把蒸餾技術變成"專利壁壘"。更噁心的是把技術問題硬往國家安全上扯,這種"潑髒水"套路在TikTok聽證會上已經演過一遍了。DeepSeek們是否真蒸餾了?可能有。但在這個沒有規則的遊戲裡,Anthropic沒資格當道德裁判。真正的危險不是"蒸餾",而是美國AI巨頭借監管之名,扼殺全球競爭。 (雲櫻夢海資源導航)
Anthropic,裝糊塗的高手
台北時間2月24日,Anthropic在官方部落格發佈了一篇措辭強硬的文章,指控三家中國AI公司DeepSeek、月之暗面(Moonshot)和MiniMax(稀宇科技)通過約24000個虛假帳戶,與Claude產生了超過1600萬次互動,目的是"非法提取"Claude的能力來訓練自己的模型。Anthropic稱這種行為為"蒸餾攻擊"(distillation attacks),並將其上升到了國家安全的高度,聲稱這些行為不僅違反了服務條款,還"強化了出口管制的合理性",甚至可能幫助"部署前沿AI用於進攻性網路行動、虛假資訊運動和大規模監控"。博文還聲稱,Anthropic通過IP地址關聯、請求中繼資料和基礎設施指標,將這些行為"高置信度"歸因到了具體實驗室,甚至追蹤到了具體的研究人員。這篇博文的技術證據看起來是紮實的,但細看經不起推敲,一個技術上最強的AI公司,發如此漏洞百出的大字報,其實是目的明確,如果仔細閱讀,你會發現它真正想說服的對象不是技術社區,而是華盛頓。那些技術上的模糊,都是它裝糊塗的一部分。不到1%的DeepSeek,100%的標題位先看資料。三家公司的蒸餾規模差異巨大,MiniMax超過1300萬次互動,月之暗面超過340萬次,而DeepSeek只有約15萬次。換句話說,DeepSeek在這1600萬次互動中佔比不到1%。然而在Anthropic的博文標題、推文,以及隨後所有英文媒體的報導中,排序都是“DeepSeek、Moonshot和MiniMax”。Anthropic博文中對三家公司的描述也頗有玄機。MiniMax的蒸餾規模最大,策略最具適應性,Anthropic發佈新模型後,MiniMax在24小時內就將近一半流量轉向了新系統,重點提取程式設計和工具使用能力。月之暗面的操作最具技術野心,不僅針對智能體推理、程式設計和電腦視覺能力,後期還試圖提取和重建Claude的推理鏈(reasoning traces)。相比之下,DeepSeek的15萬次互動在技術層面幾乎微不足道,但Anthropic對它的描述卻著墨最多,因為它包含了華盛頓最能感知到殺傷力的細節。Anthropic 的排列方法,就是按它們在華盛頓的政治知名度排序。DeepSeek是自2025年初以來美國AI政策辯論中最具標誌性的名字,它像征著出口管制爭議、中美AI競爭焦慮,以及“中國AI是否真的只靠自主創新”的核心疑問。把DeepSeek放在第一位,整篇博文自動啟動了這套完整的政治敘事框架。在Anthropic選擇單獨拎出來講的細節裡,對DeepSeek的“指控”也包括“安全替代回答”等,這些細節的技術意義非常有限,但能精準命中地緣政治裡的敏感點。在這方面,Anthropic 懂得很。“蒸餾攻擊”:一個被武器化的術語蒸餾(knowledge distillation)是機器學習領域一項成熟且普遍的技術,最早可以追溯到康奈爾大學Rich Caruana等人的研究,核心思路是用一個強大的“教師模型”的輸出來訓練一個較小的“學生模型”。所有主要AI實驗室都在使用這項技術,Anthropic自己也在博文中承認,“前沿AI實驗室會定期蒸餾自己的模型,以為客戶提供更小、更便宜的版本”。用競爭對手的API輸出來訓練自己的模型?這在行業內接近於公開的秘密。2025年初DeepSeek R1模型發佈時,Databricks CEO Ali Ghodsi就直言,蒸餾技術“極其強大,極其廉價,而且對任何人都可用”。Google的威脅情報團隊兩周前剛發佈報告,稱在2025年期間“識別並阻斷了來自世界各地研究人員和私營企業的模型提取活動”。這不是Anthropic獨有的遭遇,而是整個行業面臨的結構性現實。甚至不少開發者也多次展示過,在Anthropic 的模型互動中,顯示出它對DeepSeek的蒸餾痕跡。違反服務條款?確實成立。不只是Anthropic,各大廠的服務條款裡現在都會明確禁止使用其服務來訓練或開發“與它競爭”的AI模型。但需要指出的是,AI模型的輸出即便在美國法律框架下都並不享有版權保護。美國版權局2025年1月確認,版權保護要求人類作者身份,“僅提供提示詞不使輸出受版權保護”。這意味著從法律角度看,這只與合同違約事件相似,而非智慧財產權盜竊。然而Anthropic在博文中完成了一次概念偷換,它把這種本質上的合同違約行為,重新定義成了“攻擊”。“蒸餾攻擊”這個術語把一個中性的機器學習概念與軍事化的攻擊一詞繫結在一起,配合博文中反覆出現的“國家安全”、“生物武器”、“威權政權”、“出口管制”等關鍵詞,一起商業行為被升級為一起國家安全事件。博文甚至還使用了“hydra cluster”(九頭蛇叢集)這樣的軍事化措辭來描述其中使用的網路架構,整篇文字的語言選擇是刻意且系統性的。為什麼是現在:一條被忽視的時間線要理解這篇博文,需要將它放回它發佈時的更大背景中。2月16日,Axios報導稱五角大樓警告Anthropic將“付出代價”,並威脅將其列為“供應鏈風險”。這個標籤通常是給外國對手的,意味著所有與五角大樓合作的公司都必須證明自己沒有使用Claude。矛盾的核心在於,Anthropic不希望Claude被用於大規模監控美國公民或開發完全自主武器,而五角大樓要求所有AI模型開放“所有合法用途”,不附加任何條件。2月18日,CNBC報導雙方合同談判陷入僵局。2月20日,NBC報導稱Anthropic因質疑Claude在1月美軍突襲抓捕委內瑞拉總統馬杜洛行動中的使用方式,與五角大樓的關係“達到沸點”。據報導,一名Anthropic高管向合作方Palantir詢問Claude是否被用於該行動,引發了軍方的強烈不滿。五角大樓發言人隨即宣佈“正在審查與Anthropic的關係”。2月23日,Axios報導國防部長Hegseth將於次日召見Dario Amodei,國防部官員對媒體形容這是一場攤牌會面,一位高級官員直言,“Dario的問題在於,對他來說這是意識形態。我們知道我們在跟誰打交道。”同一天,Elon Musk的xAI與五角大樓簽署了協議,接受“所有合法用途”條款,等於在Anthropic面前樹了一個聽話的標竿。也是在2月23日,Anthropic發佈了這篇蒸餾博文。一篇通篇強調國家安全、出口管制、中國威脅的技術報告,恰好在CEO被五角大樓召見的前一天發出,恰好在2億美元國防合同懸而未決之際發出,恰好在五角大樓威脅要將自己列為“供應鏈風險”的一周之後發出,恰好在競爭對手xAI剛剛向五角大樓“表忠”的同一天發出。如果這是一次純粹的技術披露,為什麼不在檢測到蒸餾行為時就公佈?為什麼要等到與五角大樓的關係降至冰點的這一刻?博文發佈後,據報導,2月24日,Dario Amodei已前往五角大樓赴會。若最終談成改變“初衷”的合同,這篇通篇威脅論的“技術報告”,就可以是支援它如此決策的依據。“我可以蒸餾全世界的知識,但你不能蒸餾我的輸出”Anthropic的道德立場還面臨另一個尷尬。就在一個月前,法院解封的4000多頁檔案揭露了Anthropic的巴拿馬計畫(Project Panama)。這家公司花費數千萬美元,從二手書商大量購買實體書,用工業液壓切割機切掉書脊,高速掃描每一頁,然後將紙質書銷毀回收。內部檔案顯示,項目的目標是“破壞性掃描全世界的書”,計畫在六個月內處理50萬到200萬本。在此之前,Anthropic聯合創始人Ben Mann還曾從盜版網站LibGen下載了數百萬本書用於早期模型訓練。去年,Anthropic以15億美元和解了相關版權訴訟,但未承認任何不當行為。一邊是蒸餾全世界人類作品來訓練自己的模型,一邊是指控別人蒸餾我的模型輸出並將其定性為國家安全威脅。這種雙標並未逃過社交媒體上的審視。科技評論人Gergely Orosz在X上寫道,“Anthropic在網上抓取受版權保護的材料,建立一個收費模型,不支付補償,這顯然是公平的?現在Anthropic抱怨其他公司付費使用模型,來建立任何人都能免費使用的模型,這就不公平了?”也有評論人士指出,“蒸餾不是攻擊,沒有影響你伺服器任何性能。蒸餾如果有問題,它的問題絕對不大於你破壞版權、蒸餾全世界人類作品。”從法律角度看,這兩件事的性質確實不同。前者涉及版權法下受保護的人類創作作品,後者涉及法律上不受版權保護的AI輸出。有法律分析指出,即便Anthropic能證明蒸餾確實發生了,它也不太可能擁有被提取資料的版權。合同法(即ToS違約)可能是比智慧財產權法更有效的訴訟路徑。但從道德敘事的角度看,一家靠“蒸餾”人類知識起家的公司,指控別人“蒸餾”自己的輸出是“攻擊”,這中間的說服力落差是顯而易見的。這也導致了在這篇博文發佈後,在X等平台上,批評Anthropic 的聲音甚至大過了所謂蒸餾指控的討論。Anthropic自己不會沒意識到,但顯然它決定裝糊塗。因為這篇博文的目的,從來不只是技術披露。這是一次在五角大樓關係危機中的戰略表態,用真實的技術證據,包裝了一個服務於自身利益的國家安全敘事。它的受眾不是技術社區,而是華盛頓的政策制定者。這並非沒有先例。川普政府的AI顧問David Sacks早在去年10月就公開指控Anthropic在搞“基於恐懼販賣的精密監管俘獲策略”。蒸餾博文的發佈時機和修辭策略,恰恰印證了這一判斷。Anthropic一直試圖在“AI安全領導者”和“國防承包商”之間維持一種微妙的平衡。它以安全為核心品牌敘事,對模型的軍事用途設定限制,但它同時又是第一家將模型部署到軍方機密網路的AI公司,擁有價值2億美元的國防合同。當這兩個身份發生衝突,當五角大樓要求它在安全限制上讓步,它需要一個故事來重新證明自己對國家安全的價值。指控中國公司蒸餾Claude,恰好就是這樣一個故事。一家公司學會了把商業競爭包裝成國家安全敘事,把合同違約包裝成“攻擊”,把行業普遍存在的灰色地帶包裝成單方面的受害者故事,我們也許需要問的不只是“誰在蒸餾Claude”,還有“Anthropic在蒸餾什麼”。它正在從真實的技術事件中,蒸餾出一套服務於自身政治生存的敘事。 (硅星人Pro)