#月之暗面
紅籌事件影響:月之暗面、元戎啟行考慮公司重組,千億IPO節奏或生變
Meta收購Manus的交易影響在發酵。5月1日消息,據報導,AI大模型公司月之暗面(Kimi)、物理AI公司DeepRoute.ai(元戎啟行)均有意赴港IPO上市,但目前已收到問詢,重點關注兩家企業控股主體的股權權屬問題。據透露,月之暗面Kimi已啟動架構調整可行性評估,同步聯合研討方案,現階段尚未敲定最終調整決議;元戎啟行也已開啟同類型架構重構的內部研討工作。證券機構已釋放明確訊號,對本土企業採用架構推進上市稽核的態度趨於審慎,相關上市獲批難度有所提升。預計兩家公司將放棄境外主體架構模式——“紅籌”架構,轉為落地國內註冊設立實體。天眼查顯示,月之暗面和元戎啟行目前均未完成股改。這意味著,兩家公司需要重新改公司主體資本架構,千億估值上市節奏生變。根據公開報導,月之暗面的最新估值達到180億美元,而元戎啟行的B+輪估值達15億美元,兩家公司合計估值超過1300億元。一旦科技企業的紅籌架構全面變化,這可能會顛覆一項已有數十年歷史、推動數十億IPO首次公開募股的規則。顯然,Manus事件影響了一個企業現實問題:關鍵核心技術是創新發展的命門,絕不容許企業以任何“換殼”的名義,讓它變成資本的籌碼,需要恢復到投資實施前的狀態,讓AI公司更加“本土式”發展。企業上市與架構調整現實影響什麼是紅籌架構?簡單來說,紅籌架構就是業務和資產在中國境內,融資和上市主體卻放在境外。最常見的操作路徑是:在開曼群島或BVI設立控股公司,再由港或開曼層面的境外實體完成美元融資和港股/美股上市。過去,科技公司、生物醫藥企業特別青睞這種模式。因為它對接美元基金更順暢,能靈活設定優先股、員工期權、多輪融資和退出安排,操作相對便捷。但如今,這條路走得沒有以前那麼輕鬆了,核心原因在於,2023年3月31日境外上市備案新規實施後的監管邏輯轉變。新規明確:所有境內企業赴境外上市,無論直接還是間接,都必須納入證監會備案管理。港股IPO不再只是港交所一家說了算,至少還要過備案這一關。然而,對於帶有境外投資背景的科技企業而言,若要轉為國內註冊主體,需與境外投資方在境內設立合資經營主體。整套流程手續繁雜、周期漫長,大機率會延後企業既定的上市規劃。事實上,此前20億美元的跨地收購案,讓行業架構問題受到高度關注。被收購企業創始團隊、核心技術人員此前已遷移,同時關停辦公主體。如今最終要求交易終止落地。顯然,AI公司實現上市或被收購,將面臨公司架構層面的管理。多家深耕企業架構重組業務的法務人士介紹,拆解紅籌架構是一套流程繁瑣的法律工程,完整周期通常在半年至一年。具體操作需完成回購境外控股主體全部投資方股權、與境外資方設立境內合資公司、再以合資主體名義向原投資方重新配售股份等一系列步驟。其中,此次考慮重組架構的月之暗面,創立於2023年3月,由楊植麟、周新宇、吳宇欣等人創立。目前,Kimi估值已上升至180億美元,公司估值在3個月內翻了4倍,新一輪10億美元融資正在進行中。不到3個月,Kimi已先後完成3輪融資,創下近年來國內大模型連續融資最多紀錄,並成為國內估值最快突破百億美元的獨角獸公司。值得注意的是,Kimi估值的快速攀升和投資熱度的持續升溫,一方面離不開自身產品的迭代與付費爆發;另一方面,則是以MiniMax、智譜為代表的AGI賽道估值的集體沖高,兩家公司港股上市短短2個月時間,市值雙雙突破3000億港元。為Kimi等頭部玩家的估值躍升提供了市場支撐。2026年開年以來,Kimi密集推進產品上新與能力升級,包括新一代兆參數開源多模態大模型Kimi K2.5和K2.6、Agent產品Kimi Claw、Kimi K2.5 Thinking模型等。據悉,受Kimi K2.5模型及Kimi Claw火爆出圈帶動,1月底以來,Kimi 20天收入超2025年全年。而另一家元戎啟行,則是從自動駕駛——如今定位於物理AI的公司,由周光於2019年帶領團隊創立,總部位於深圳。元戎啟行已完成8輪融資,累計融資金額近10億美元,投資方包括長城汽車、復星銳正、雲啟資本、阿里巴巴等。產品和商業化層面,元戎啟行基於Foundation Model建構下一代輔助駕駛核心基座模型。它能夠理解複雜交通場景、生成駕駛決策並評估駕駛行為,使系統具備更強的環境理解與決策能力,打造高可靠的AI司機。目前元戎已與輝達、長城等多家企業建立深度量產合作,目前已有30萬輛搭載其城市領航輔助駕駛方案的車輛進入消費者市場,覆蓋十餘款熱銷車型,並率先以量產車建構Robotaxi演算法底座,拓展相關業務。拆紅籌赴IPO,流動性和資金興趣會下降元戎和Kimi不是唯二要求拆紅籌的AI公司。早前,隨著印奇擔任階躍星辰董事長,AI大模型獨角獸階躍星辰(StepFun)已於今年主動啟動拆解境外控股架構工作。企業研判,將主體營運實體落地國內,能夠有效縮短後續港交所上市的審批周期。天眼查最新顯示,今年4月26日,階躍星辰正式完成所有股改操作,從“股份有限公司(非上市、自然人投資或控股)”變更為“股份有限公司(港澳台投資、未上市)”,並且完成了增資、股權份額分配等操作。據知情人士透露,此次階躍星辰架構調整也已獲得現有投資方的支援。這意味著,階躍星辰最快在今年6月前實現IPO招股書公開——而印奇也有望實現第二家IPO上市公司,第一家是啟動赴港IPO的千里科技。2025年,港股IPO創四年新高,今年市場開局也創下歷史新高。未來還有更多公司即將上市。據香港交易所的資料顯示,截至1月底,已有超過400家公司正在籌備上市。畢馬威會計師事務所預測,市場募集資金可能達到六年來的最高水平,約為450億美元。而根據德勤發佈報告,2026年一季度,全球前十大IPO融資總額同比增長22%,港市場以1099億港元融資額位列全球新股融資額榜首。德勤預計,全年約160隻新股、融資額最少3,000億港元,港股可望穩守全球IPO前三甲。亞洲證券業與金融市場協會股票及後交易業務負責人趙良恩表示,AI 及前沿科技屬於戰略重點賽道,希望全面掌握這類企業的成長路徑、融資運作及資金流轉全貌。放眼全球,各國都會從產業安全形度出發,完善對重點科技企業的常態化體系。他進一步提到,當前全球產業競爭格局加劇,各方對前沿科技賽道的重視程度持續提升。在重點科技領域,國內也需築牢產業底盤,守住核心賽道發展主動權。私募銀行(Union Bancaire Privee )董事總經理凌偉森表示,“但可以預見的是,未來一些中國初創企業可能會因此事起到警示作用,提醒他們謹慎行事。”事實上,當前不少國內科創企業將港交所作為上市優選目的地。比如阿里、中移動、中石油等,國內頭部科技企業大多採用境外紅籌架構佈局,多家網際網路龍頭均在離岸地區註冊主體。這類架構除便於境外募資外,還能靈活設定創始人特殊投票權、員工股權激勵體系,而國內現行規則在相關環節約束更為嚴格。但完成架構調整落地境內合資主體後,企業港股上市需發行對應品類證券,原有投資方股份鎖定期為 12 個月,相較傳統紅籌架構上市的鎖定期時長直接翻倍。因此,需要注意的是,企業拆解境外紅籌架構,也會削弱吸納境外美元資金的能力。境外投資方往往不願承擔境內合資主體投資的複雜流程,同時還要面對跨境匯兌、投資退出等多重合規門檻,投資意願或將明顯下降。不過,知情人士稱,目前並未對境外紅籌架構企業上市出台全面禁令。不少服務港股上市籌備的律所均建議客戶保持觀望,等待出台明確的架構整改指引後,再推進相關調整動作。此外,港股市場的散戶流動比例有下降趨勢。以最新IPO的曦智科技公佈的配發結果來看,公司全球發售約1379.52萬股股份,香港公開發售佔20%,國際發售佔80%。最終發售價每股183.2港元,全球發售淨籌約23.77億港元。顯然,未來AI公司IPO的最快選擇是港股,但壁流動性差導致估值低於A股——天數智芯、壁仞科技市值低於摩爾線程和沐曦股份,這或成為一種新的資本趨勢。 (智能紀元AGI)
中國AI“雙子星”殺出重圍,西方封鎖者的如意算盤徹底碎了!
中國AI圈近期傳出一個令人振奮的消息,兩家領軍級AI創業公司DeepSeek(深度求索)和Kimi(月之暗面),在底層技術的突破上打出了一套漂亮的“組合拳”,在一周內相繼發佈各自兆參數等級的開源大模型。老胡看到,有人把這比作中國AI界的“兩彈一星”時刻,當“人工智慧+”上升為國家戰略,兩家技術路徑各異卻節奏同頻的公司,確實正在共同揭示科技社會的一次深刻演進。兩家公司展現了一種難得的開源協作精神:Kimi模型參考了DeepSeek架構,而DeepSeek新模型則採用了Kimi大規模驗證的關鍵最佳化器技術,直接挑戰了西方壟斷十年的技術標準。這種“你中有我,我中有你”的超越零和博弈的協作關係,在高度競爭的科技圈並不多見。▲權威機構Artificial Analysis公佈的全球大模型“智能指數”老胡想說的是,這不僅僅是兩家公司的勝利。一方面,我們要看到,西方對華的技術封鎖緊鑼密鼓,試圖在算力和底層演算法上把中國困在“石器時代”;但另一方面,中國人的韌性和創新能力,往往也在壓力最大的時候爆發。這兩家公司把兆量級的開源模型做到了逼近美國頂尖閉源模型的效果,而且價格只有人家的不到十分之一,這說明什麼?說明中國AI正在形成一種基於成本優勢和技術迭代的“非對稱作戰”能力。Deepseek和Kimi的創始人梁文鋒和楊植麟,時隔一年先後參加了總理座談會。這釋放出的訊號非常明確:國家不僅支援創新,更支援那種能解決“卡脖子”問題的實戰派。他們不是在實驗室裡空談,而是實實在在地與中國國產晶片“共生”。DeepSeek研究在華為昇騰晶片上做推理,Kimi搞混合式推理架構,讓中國國產晶片和西方晶片能“同台競技”。這種現實主義的突圍路徑,正是中國科技產業最需要的底氣。同時,我們離全球最頂級的生態位還有一段路要走,美國人的先發優勢依然客觀存在。但老胡相信,只要不亂陣腳,堅持開源共享,堅持底層自研,那些試圖通過封鎖來遲滯中國進步的企圖,終將在歷史的洪流面前撞得頭破血流。輝達的黃仁勳在GTC演講中,用這兩個中國模型來給自家下一代晶片“驗貨”,美國的Cursor、日本的樂天都在套殼使用中國模型。那些希望技術封鎖者的“如意算盤”,恐怕要落空了。老胡最後想說,中國太大了,這種充滿活力的民間創新與國家意志的同頻共振,是任何力量都難以遏制的。讓我們給這些年輕人一點時間,給中國AI一點耐心。中國人的“AI核彈”已經造出來了,接下來的戲,一定會越唱越精彩。 (胡錫進觀察)
“下載量破100億次”!又一個全球第一!
近日,中國國產自主研發的人工智慧大模型DeepSeek正式發佈全新V4系列版本,在百萬級超長上下文處理、全球即時知識儲備、複雜邏輯推理等核心技術維度實現跨越式升級。資料顯示,中國國產開源大模型全球累計下載量突破100億次,中國已成為全球人工智慧專利最大擁有國。DeepSeek-V4系列大模型發佈 記者實測其性能表現超長上下文處理能力,是衡量大模型工業級應用價值的核心指標。針對這款模型百萬級超長內容處理能力,記者提前準備了總量達97萬字的多類型素材包,其中涵蓋長篇文學作品、多領域新聞稿件等多元文字內容,一次性匯入模型。在首輪測試中,記者要求模型精準提煉指定新聞稿件第四部分的核心內容。用約7秒鐘時間,大模型就輸出了五個核心要點的結構化精準總結。隨後,記者提出了需要橫跨全部近百萬字內容才能回答的問題:“在這套素材裡,一共涉及多少行業?”大模型給出了共涉及約45個細分行業的答覆。記者聚焦全球基建與民生實事提問:“2025年下半年,全球有那些國家開通了中國援建的新鐵路線路?這些線路給當地老百姓帶來最直觀的變化是什麼?”面對這一兼具時間限定、地域跨度、事實核查與深度解讀的複合型問題,模型不僅精準說出了多個國家的鐵路項目,還詳細講述了每條線路帶來的改變——比如坦贊鐵路啟動項目完工後,貨物運輸時間預計縮短近三分之二,運力將提升至每年240萬噸。從能記住百萬字內容的“超級記憶力”,到涵蓋全球的“海量知識庫”,再到複雜場景的深度邏輯推理,記者通過實測,直觀感受到了中國國產大模型技術的快速迭代。多款中國國產開源大模型近期完成迭代升級DeepSeek-V4一個重要的標誌,是“開源”模型。其實近期,中國多家科技企業都密集完成開源大模型的迭代升級。記者梳理髮現,本輪中國國產開源大模型迭代,覆蓋了技術降本、工業級應用、專項能力突破、端側適配等多個核心方向,實現了多維度的技術升級。騰訊開放原始碼的混元模型,大幅降低AI推理部署成本,讓中小企業無需高額投入即可快速搭建專屬AI應用;月之暗面發佈的Kimi模型,能把複雜任務拆解開,讓多個AI小助手協同幹活,能應對更複雜的工業場景;稀宇科技的Minimax在程式碼生成與程序理解領域實現顯著躍升。全球最大的AI開源社區Hugging Face發佈的2026年春季全球開源AI生態報告顯示,過去一年,該平台上41%的大模型下載量來自中國研發的模型,中國已成為全球開源大模型供給最活躍、增長最快的地區之一。開源開放的發展模式,打破了AI技術的行業應用壁壘,推動中國國產大模型從“能聊天、會問答”的通用互動能力,向“能執行、可落地、提效率”的生產力工具全面轉型,深度融入製造、能源、交通、金融等實體經濟重點領域。資料顯示,中國國產開源大模型全球累計下載量突破100億次,中國已成為全球人工智慧專利最大擁有國,專利申請量全球佔比達60%。目前,中國AI企業數量已超過6200家,2025年人工智慧核心產業規模超過1.2兆元。 (深科技)
不是算力,不是電力,這才是中美AI競爭的終極變數
近日,英國《經濟學人》發表題為《中國正贏得人工智慧人才競賽》的文章,指出中國正在全球AI人才競逐中,逐步擴大對西方國家的領先優勢,為贏得AI競爭增加更多可能。西方媒體並非第一次有這類言論和預期,事實上,他們說得都對。相比算力,電力而言,人才,才是贏得AI競爭的終極籌碼,而中國正建立自己的領先優勢。《經濟學人》那篇文章拋出了一個判斷:在中美競爭中,中國“贏得”AI人才戰的方式是:留住增量,吸引更多存量回流。先看增量。文章援引了卡內基國際和平基金會的一份報告:2019年,全球頂尖的AI會議NeurIPS上,華裔研究者的比例是29%,已經超過了美國本土的20%;到了2022年,這個數字接近一半;而來自中國機構的作者佔比,從2019年的11%猛漲到28%——雖然還落後於美國的42%,但升勢已十分顯著。與此同時,中美之間的緊張關係也在悄悄改變年輕人的選擇。STEM專業的中國學生,前往美國讀博的機率降了大約15%,畢業後留在美國的機率又降了4%。過去,最頂尖的中國AI研究者大多把“去美國”當成理所當然的下一步;現在,越來越多人開始把目光留在中國。種種跡象指向同一個結論:美國正在失去吸引下一代的能力,進而在人才增量上出於被動。再看存量。黃仁勳說過一句很直白的話:“美國絕對有可能在AI上落後於中國,因為人才在變。”所謂人才在變,核心是流向在變,是美國的頂尖AI人才正在流往或回到中國。2025年3月,齊國君回到中國。他在美國工作了十幾年,先後在IBM研究中心、華為美國研究中心、OPPO西雅圖研究中心任職,履歷漂亮得像教科書;回國後,他全職加入杭州西湖大學,帶著一支近20人的團隊,組建了“MAPLE實驗室”。差不多同一時候,純外籍的Alex Lamb也前往中國。這位前微軟研究院高級研究員,師從圖靈獎得主Yoshua Bengio,在亞馬遜、Google Brain和微軟研究院都留下過足跡。他宣佈加入清華大學人工智慧學院,成為了一名助理教授。頂尖學者的回流只是冰山的一角,更密集的變化發生在產業界。姚順雨,前OpenAI研究員,加入騰訊成為其史上最年輕的首席AI科學家;吳永輝,前GoogleDeepMind研究副總裁,去了字節跳動;潘欣,前Google大腦研究員,加入了美團……再往前推兩年,楊植麟從卡內基梅隆大學博士畢業後,沒有留在美國,而是回到中國創辦了月之暗面。如今,成立不過三年的月之暗面已是估值超過180億美元的世界級獨角獸,其大模型也被不少美國初創公司改採用。▲月之暗面在過去一年迅速完成多輪融資,受到頭部基金、網際網路巨頭與產業資本的密集下注。圖源:VCG值得注意的是,所有這些回流,都不遠遠不是“為國效力”的口號在驅動,而是最樸素的理由——選擇更好的發展環境與空間。越來越多的頂尖AI研究者發現,“在中國”就是最好的職業路徑。中國擁有發展科創的巨大政策支援,也有一批頭部公司和頂尖高校,算力不缺,資料全面,工程體系完整,更重要的是,有大量可落地的應用場景。而且,中國公司,包括中國資本現在也都捨得為頂級人才投入,給錢、給空間,乃至給權力。不少人在矽谷可能是“螺絲釘”,但回到中國就能獨當一面,當負責人。最重要的是,中國不斷湧現的成功案例,大大增加了對美國矽谷人才的吸引力。過去幾年,中國湧現出一批10億美金,百億美金的AI初創公司,它用真金白銀告訴全球優秀人才,這裡是實現夢想的理想殿堂。如今,談中國的科創人才優勢,核心的核心,還在於自身強大的教育體系。自改革開放,尤其鄧小平提出科技是第一生產力以來,中國的理工科教育就一直備受重視。國家不斷出台政策支援理工科人才培養,民間也曾長期有著“學好數理化,走遍天下都不怕”的理工崇拜。這些的積累,為中國造就了一個領先全球的AI人才底座。現在,中國不但擁有全球最大的高等教育體系,每年培養以千萬計的大學學子,而且還約有四成的大學生攻讀STEM專業,這個比例幾乎是美國的兩倍。早在“人工智慧”這個詞還沒流行起來的時候,這片土地就已經為它儲備了最龐大的人才池。當AI的浪潮真的拍過來時,中國的這一優勢立刻湧出了驚人的勢能。到今天,中國已有80多所高校設立了AI學院,僅2025年一年,就有包括人大、北理工、西北工大在內的二十多所名校加入這個行列。五年間,AI專業新增了406個布點,在所有本科專業中增量最大。其中,清華在2025年擴招了150名本科生,全部進入新成立的通識書院,眼下已有117門課程、147個班級在嘗試AI賦能教學;而在另一頭,深圳技術大學這樣的地方院校,則選擇與華為、騰訊、百度聯手,把課堂無限延伸,讓實習直通產業。從頂尖名校到普通院校,中國搭起了一座人才培養金字塔——塔尖培養能“開天闢地”的領軍人才,塔身和底座則源源不斷地輸送應用型人才。教育端的播種,持續在產業端開花結果。2025年,中國企業發佈了超過300款AI產品,遍佈醫療、教育、物流。其中,其中,DeepSeek以不到150人的研發團隊、十分之一的成本,打造出可與GPT-4“掰手腕“的大模型。但DeepSeek最讓人感慨的不是技術本身,而是這支隊伍的底色——核心研發團隊平均年齡僅28歲。創始人梁文鋒曾坦言:“目前在人工智慧領域,前50名頂尖人才可能都不在中國,但也許我們能自己打造這樣的人。”這句話像一枚石子投進湖面,漣漪很快擴散到了招聘市場。據一家頭部AI獵頭透露,當下各家都在爭搶“C9”院校的高端人才。一位清華大學電腦系的博士畢業後,同時收到了華為“天才少年”項目、某大模型創業公司以及海外網際網路巨頭的Offer,最終他選擇了那家中國創業公司,年薪過百萬。這並非個例。脈脈資料顯示,2025年中國AI崗位的招聘量一年漲了十倍,平均月薪超過六萬,一半以上的應屆AI崗月薪破五萬。大模型演算法工程師的起薪,已經超過了不少傳統行業老專家的天花板。市場的熱度,反過來推動著教育繼續擴張——人才培養、產業吸納、再反哺教育,一個完整的閉環悄然成形。而在這套系統的底層,是國家的力量在穩穩托舉。2025年8月,國務院印發了《關於深入實施“人工智慧+”行動的意見》,明確提出到2030年,人工智慧要全面賦能高品質發展;同月,八部門聯合發文,提出要“超常規”建構領軍人才培養的新模式。政策支援不僅是檔案上的表態。2024年,中國的研發經費超過了3.6兆元,投入強度2.68%,已經超過歐盟的平均水平;2025年中央科技預算接近4000億元,同比增長一成,重點投向人工智慧、積體電路這些關鍵戰場。同時,人社部也在去年發佈了42個新工種——生成式人工智慧系統測試員是其中之一,同時頒布了73個國家職業標準,為AI賽道上的年輕人畫出了清晰的成長路線圖。教育、產業、政策,三股力量交織在一起,讓中國的AI人才培養不再是一個個孤立的點,而是一張綿密、可持續的網。當世界還在爭論“去那兒搶人”的時候,中國已經默默搭好了“自己造人”的底座。這場人才戰,贏得的不只是眼前,更是未來十年。人才培養的底座越築越厚實,但遠沒到高枕無憂的時候。這場人才戰的敘事裡,依然藏著幾道繞不過去的坎。首先,眾多頂尖人才還漂在海外。卡內基基金會追蹤了100位在2019年NeurIPS上亮相的中國籍研究者,六年後再看,87%的人還留在美國機構裡。▲2019–2025年,頂尖中國籍AI研究人員的職業路徑 註:國家隸屬關係基於研究人員目前所在機構的總部所在地 來源:保爾森基金會與卡內基國際和平研究院“回流”確實在發生,但還只是“涓涓細流”,星星之火。美國為什麼能留住他們?一來,它從基礎研究到技術轉化再到產業應用的鏈條,已經打磨得足夠成熟;二來,中國與西方頂尖創新生態之間,還橫著一條看得見的“鴻溝”。諾獎、圖靈獎的突破,至今仍然高度集中在西方。中科院院士唐本忠點破了一個尷尬的事實:“中國在AI領域擅長‘從1到10’的最佳化升級和‘從10到100’的規模擴張,但在‘從0到1’的原創突破上步履維艱。”他進一步拆解了根源——我們太推崇實用主義了,科研工作總盯著短期的成果和落地的應用,卻忘了基礎研究和原創探索才是一切的根。其次,本土人才的供需矛盾突出,AI產業的人才缺口依然巨大。2025年,AI技術類崗位的需求比前一年漲了四成。而另一邊,真正能駕馭垂直領域大模型訓練和最佳化的人,供需比已經掉到了0.3左右。高性能計算工程師更誇張——0.15,相當於七個崗位搶一個人。再者,美國政策的不確定性,既是機遇,也是變數。簽證收緊、經費削減、對華裔學者的懷疑氣氛,在一定程度上推動了美國AI人才向中國流動。2025財年,H-1B簽證的中國留學生中籤率跌到了11.7%。Meta、亞馬遜這樣的科技巨頭,已經宣佈不再為部分崗位的留學生提供擔保;那些研究半導體材料、AI演算法最佳化的學生,如果研究方向被貼上“受控技術”的標籤,連簽證都可能拿不到;美國眾議院甚至還提出議案,打算限制中國人在美國從事AI和機器學習相關的職業。這些變化,都在讓年輕一代重新思考“要不要出去”。▲北京的招生會上,中國赴美留學生人數近年來有所下降 圖源:紐約時報但問題的另一面是:這類因素極不穩定。政策會隨著選舉、隨著地緣政治的風向來回搖擺,不能把它當成可以長期依賴的變數。AI競爭,表面是算力之爭、模型之爭,乃至電力之爭,但真正的底層卻是教育體系、產業結構與人口結構的長期較量,人才,才是贏得競爭的終極變數。人才之戰,不是一場百米衝刺,而是一場漫長的馬拉松。曾經,中國不但本土優秀人才有限,而且優秀人才大規模外流。如今,中國不但本土優秀人才湧現,而且還迎來外流人才的回流。趨勢已經逆轉,但要真正長期形成超越優勢,還任重道遠。當下,或許只是這場競賽的起點。 (華商韜略)
剛剛,Kimi2.6封神!13小時狂寫4000行程式碼,性能碾壓GPT-5.4
【硬核科技導讀】月之暗面正式發佈並開源 Kimi K2.6 模型,在程式碼生成、長程任務執行及 Agent 叢集能力上實現全面升級。實測顯示,該模型可連續編碼13小時,編寫或修改超過4000 行程式碼,多項基準測試成績持平或優於GPT-5.4、Claude Opus 4.6等閉源模型。中國大模型程式碼能力首次躋身全球第一梯隊。4月20日晚,月之暗面(Moonshot AI)扔出一枚「重磅炸彈」。其最新研發的Kimi K2.6模型正式發佈並開源,即日起所有使用者均可通過官(kimi.com)、最新版Kimi應用、Kimi API以及Kimi Code程式設計助手免費使用。這不是一次普通的版本迭代。在博士級難度的完整版「終極人類考試」(Humanity's Last Exam)、評估真實軟體工程能力的SWE-Bench Pro、Agent深度檢索基準 DeepSearchQA 等測試中,Kimi K2.6均取得行業領先成績,表現持平或優於GPT-5.4、Claude Opus 4.6和Gemini 3.1 Pro等閉源模型。**中國大模型的程式碼能力,第一次真正站在了世界之巔。程式碼能力暴漲20%,13小時不間斷作業程式碼能力是此次升級的核心亮點。在Kimi內部嚴格程式碼評測基準Kimi Code Bench中,K2.6得分68.2,較前代K2.5的57.4 提升約20%。什麼概念?實測顯示,該模型可以連續編碼13 小時,編寫或修改超過4000行程式碼**,完成複雜系統的開發與最佳化。這不是簡單的「寫得多」,而是「寫得深」。在一個實測案例中,K2.6成功在Mac本地下載並部署了Qwen3.5-0.8B模型,使用小眾的Zig 語言實現並最佳化模型推理。經過4000多次工具呼叫、超過12小時不間斷運行、14 輪迭代,將吞吐量從約15 tokens/s 提升至約193 tokens/s,最終推理速度比LM Studio快20%。另一個案例更硬核。K2.6 自主完成了對擁有8年歷史、接近性能極限的開源金融撮合引擎 exchange-core 的深度重構。13 小時連續作業,迭代12套最佳化策略,通過1000餘次工具呼叫,精準修改4000多行程式碼。結果如何?中位吞吐量從0.43MT/s 躍升至1.24MT/s(增幅185%),峰值吞吐量從 1.23 MT/s 飆升至2.86 MT/s(增幅133%)。接近性能極限的老舊系統,被硬生生提升了近兩倍。Agent叢集架構升級,300個子Agent 平行作戰如果說程式碼能力是「單兵作戰」,那Agent 叢集就是「集團軍衝鋒」。K2.6的Agent 叢集架構迎來重大升級,現支援300個子Agent 平行完成4000 個協作步驟,任務完成度與交付質量較K2.5 顯著提升。這意味著什麼?Agent叢集能夠將搜尋、深度研究、文件分析和長文創作等能力進行組合,在單次運行中獨立完成從文件到網頁、再到 PPT 和表格的多產物端到端交付。一個實測案例:針對全球100個半導體標的,Agent叢集設計並執行了5套量化策略,將麥肯錫風格的 PPT 邏輯沉澱為可復用技能,最終交付了詳盡的建模表格和整套匯報演示文件。另一個案例更震撼。Agent叢集將一篇包含大量視覺資料的天體物理論文轉化為可復用學術技能,提取論文的推理流程和可視化方法,產出40頁、7000字的研究論文,以及包含**2 萬多條資料的結構化資料集和14 張天文級圖表。這已經不是「輔助工具」,而是「數字員工」。程式碼+視覺融合,專業級Web應用一鍵交付通過程式碼與視覺能力的深度融合,K2.6將程式碼驅動的設計能力提升到了新高度。在Kimi Agent模式下,K2.6能夠製作具有設計感和視覺衝擊力的網站。憑藉對圖像和視訊生成工具的熟練呼叫,該 Agent 可以生成視覺風格高度統一的素材,建構視覺焦點突出的首屏區,並實現互動元素和滾動觸發動效。月之暗面不侷限於前端頁面編寫,也支援基礎的後端資料庫模組,例如在網頁中嵌入表單資訊收集功能。為此,月之暗面建立了一套專門的前端開發設計評測基準Kimi Design Bench,涵蓋視覺輸入、落地頁建構、全端應用開發及通用 Web 開發四個維度。對比Google AI Studio中的Gemini 3模型,基於Kimi K2.6的Agent展現出了明顯領先優勢。5 天不間斷自主運行,維運Agent正式上線K2.6 顯著增強了 Agent 的自主化執行能力。尤其在與OpenClaw、Hermes Agent等主動式 Agent 框架協同工作時,這類場景要求 AI 能夠跨應用實現 24/7 不間斷運行。月之暗面的RL 基礎設施團隊使用基於K2.6的Agent 實現了連續5天自主運行。該Agent負責監控、故障響應和系統維運,展現了持久的上下文維持能力、多線程任務處理能力以及從接收告警到徹底解決的全流程執行能力。Kimi內部的Claw Bench 測試結果顯示,K2.6相比K2.5綜合性能提升了10%,涵蓋程式設計任務、即時通訊生態整合、資訊檢索與分析、定時任務管理及記憶呼叫五大維度。在需要長時間自主運行且無需人工干預的工作流中,優勢尤為顯著。技能系統上線,Office文件一鍵轉技能借助K2.6更強的程式碼和視覺理解能力,Kimi Agent模式現在支援建立和呼叫技能(Skill)。系統已內建上百個官方推薦技能,包括投研技能包,可一鍵生成專業排版的A股、港股、美股公司一頁紙或深度投資研報。使用者在Kimi Agent模式下輸入斜槓「/」即可開始建立和呼叫技能。更有趣的是「Office 文件轉技能」功能。上傳高品質Office文件後,模型會嘗試理解原文件的結構與風格基因,生成專屬的可復用文件建立技能。這意味著,你的PPT範本、Excel報表格式、Word公文規範,都可以被 AI學習並復現。「Claw 群組」內測開啟,人機協同時代來臨月之暗面同時宣佈開啟「Claw 群組」小範圍內測。該群組的目標是讓多個 Agent 與人類作為真正的協作者共同運行。使用者可以接入來自任何裝置、任何供應商、運行任何模型的全天候 Agent(首批支援 OpenClaw,後續將加入對 Hermes Agent 等框架的支援),每個 Agent 可攜帶各自的專業工具包、技能和持久化記憶上下文。在 Claw 群組中,K2.6 擔任協調者,根據 Agent 的技能畫像和可用工具動態匹配任務。當某個Agent遇到故障或停滯時,協調者會檢測到中斷並自動重新分配任務或生成子任務。Kimi Claw使用者將陸續收到內測邀請。企業客戶提前測試,口碑炸裂Baseten、Blackbox AI、CodeBuddy、Factory(Droid)、飛書妙搭、Fireworks AI、Nous Research(Hermes Agent)、Kilo Code、Ollama、OpenCode、Qoder 和 Vercel 等企業客戶已提前測試該模型。評價如何?Baseten:K2.6 在程式設計任務上已可與領先閉源模型掰手腕,對第三方框架底層邏輯理解更深。Blackbox AI:指令遵循能力更強,能挖掘出深藏不露的隱蔽Bug。CodeBuddy:內部評測顯示程式碼生成精準率提升12%,長上下文穩定性提升18%,工具呼叫成功率達 96.60%。API限時優惠,最高充贈30%Kimi K2.6現已面向所有免費使用者、付費訂閱使用者、Kimi Code和企業 API使用者開放。企業和開發者在Kimi API中指定模型為kimi-k2.6即可開始使用。為慶祝K2.6模型API上線,Kimi開放平台同步開啟了最高30%的限時充贈活動。同時,Kimi K2.6官方API已經首發登陸騰訊雲TokenHub等平台。月之暗面推薦直接呼叫官方API復現基準評測成績,如需使用第三方API 服務,可通過Kimi模型供應商驗證服務(Kimi Vendor Verifier, KVV)挑選精度更高的服務商。十年磨一劍。從2023年Kimi橫空出世,到如今K2.6 對標全球頂尖閉源模型,月之暗面用三年時間走完了歐美大廠十年的路。這一次,中國大模型不再是「追隨者」。而是真正的「並跑者」,甚至在某些領域成為「領跑者」。AGI 的奇點,或許比我們想像的更近。 (硬核科技資本論)
現在的造富速度,太嚇人了!
兩年半,從3億美元到180億美元。這不是科幻小說,而是AI公司月之暗面的真實估值曲線。2023年6月天使輪融資時,這家中國AI公司估值僅3億美元。2026年初,傳聞新一輪融資投前估值,這個數字已經變成180億美元——漲幅5900%。網際網路時代,從零到百億身家,需要5到10年。AI時代,2到3年就夠了。為什麼AI時代的造富速度如此之快?答案藏在生產要素的變遷裡。網際網路時代的核心要素是流量、資本與管道。商業邏輯是"先圈地、後變現"——燒錢買量,積累使用者,再通過廣告、電商間接變現。這是一場需要長期佈局的"化學爆炸"。AI時代完全不同。核心要素變成了算力、資料與演算法。商業邏輯是"直接交付價值"——使用者付費是因為模型能解決問題,而非單純的流量入口。這是一場瞬間釋放能量的"核聚變"。例如:月之暗面的Kimi模型支援200K+上下文窗口,直接切入法律、金融等長文字需求場景。200多家律所、50家券商成為付費客戶。不是先免費吸引使用者再變現,而是直接靠能力收費。網際網路時代的競爭壁壘是網路效應——使用者越多,產品價值越高。AI時代的競爭壁壘是技術飛輪——模型越好,使用者反饋的資料越多,模型迭代越快,精度更高。智譜AI的模型精度提升後,政企客戶反饋的資料質量隨之提高,反過來又加速了模型最佳化。這是一個強者恆強的正向循環。DeepSeek的程式碼理解能力已媲美GPT-4o,其開源模型在Hugging Face下載量超1090萬次。開發者生態反哺技術迭代,形成競爭壁壘。中國AI造富呈現出獨特的"三綁"特徵。一是科研繫結。智譜AI脫胎於清華大學KEG實驗室,GLM-130B是國內首個千億參數開源大模型。央國企客戶天然信任有高校背景的AI企業。二是資本繫結。阿里、騰訊等大廠不僅提供資金,更開放算力資源。阿里雲為月之暗面提供定製化萬卡叢集,支援其200K+上下文訓練。三是政策繫結。地方國資直接投資,杭州、珠海等地政府與智譜AI達成戰略合作,開發城市級大模型應用。與美國市場以C端產品為主不同,中國AI企業更側重B端政企服務。MiniMax海外收入佔比達73%,智譜AI企業級收入佔比超50%。AI時代的創業者,與網際網路時代截然不同。高學歷成為標配。福布斯中國2025年資料顯示,超過一半的AI創業者擁有博士或博士後學位。清北、浙大、中科院畢業生佔比超40%。年輕化趨勢明顯。AI創業者平均年齡32歲,90後佔比超60%。月之暗面創始人楊植麟1992年出生,MiniMax創始人閆俊傑1989年出生,Deepseek創始人梁文鋒1985年出生。更重要的是技術信仰。楊植麟每天工作12小時以上,親自參與模型研發;梁文鋒將幻方量化盈利全部投入DeepSeek,估值破兆也不分紅;閆俊傑面試演算法工程師通過率不足5%。他們不是商業模式的創新者,而是技術的攻關者。需要警惕的是,造富速度驚人,但風險也在累積。中國頭部AI企業市銷比普遍超過400倍。智譜AI約466倍,MiniMax約427倍。對比之下,輝達巔峰時期僅40倍,特斯拉巔峰時期僅30倍。估值嚴重脫離基本面。而且,盈利周期漫長。OpenAI預測最早2030年才能現金流轉正。中國多數AI企業需要5到7年才能盈利。此外,算力成本也在上漲。資料中心電力成本較2025年上漲40%,人才缺口超500萬,高校培養速度滯後產業需求6年以上。但長期趨勢依然樂觀。 (馬江博說趨勢)
中國AI四小龍,全部去見了總理
不是百度,不是阿里,不是騰訊。總理的座談會上,中國AI創業江湖的"四小龍"終於湊齊了一桌。從2024年3月到2026年4月,智譜AI、DeepSeek梁文鋒、MiniMax閆俊傑、月之暗面楊植麟,先後坐到了總理對面。四個男人,覆蓋了80後、85後、90後三個世代;廣東潮汕與湛江,河南商丘縣城,浙江杭州錢塘江畔,串聯起中國AI最生猛的草根逆襲史。他們帶著各自的"技術圖騰":一個逆勢漲價,一個開源封神,一個不信天才,一個搖滾反叛。這是中國AI獨有的故事。智譜AI 清華土著第一家受邀的是智譜AI。2024年3月,調研新質生產力座談會,第一個出場的AI公司就是它。張鵬,標準的清華"土著",清華電腦系本碩博連讀,在清華園待了近十年,連創業都是清華老師唐傑帶的隊。圈內人都說,他身上那股"技術原教旨主義"的勁兒,很清華。2026年1月,智譜AI在香港上市,成為"大模型第一股"。張鵬有一句很狠的話:"智能上界決定了定價權。"當所有人在價格戰裡殺紅了眼,比誰更便宜時,他逆勢漲價。邏輯很簡單:只有把模型能力做到極致,才有資格定價格,而不是靠燒錢補貼換市場。這種底氣來自智譜的"技術護城河",自研的GLM架構,不走尋常路,而是用"自回歸填空"的原創設計。2026年發佈的GLM-5採用超大規模MoE架構,在國產晶片上跑出了比雙卡叢集還強的性能。智譜的CodeGeeX程式碼大模型,在程式設計圈程式設計師裡的口碑,被稱為"國產Copilot最強平替"。張鵬相信,AGI不是炒概念,而是一行程式碼一行程式碼摳出來的工程問題。梁文鋒 全球AI都意外第二家,DeepSeek。2025年1月20日,政府工作報告座談會,梁文鋒第四個發言。鏡頭裡的他,眼神平靜得像一潭深水。1985年,梁文鋒出生在廣東湛江吳川,一個連五線城市都算不上的地方,父親是當地小學老師。2002年,17歲的他以吳川一中"高考狀元"的成績考入浙江大學電子資訊工程專業。2008年全球金融危機,在浙大讀研的梁文鋒嗅到了機會。他拉著同學,用機器學習探索全自動量化交易。2015年,30歲的梁文鋒創立幻方量化。6年後,管理規模突破千億,躋身中國"量化四大天王"。但外界不知道的是,2019年,他豪擲2億元搭建“螢火一號”,搭載1100塊消費級顯示卡;2021年,又砸10億元建“螢火二號”,搭載萬張輝達A100"。別人炒股賺錢買房,他炒股賺錢買顯示卡。2023年,梁文鋒帶著這些"計算軍火"殺入大模型戰場。2025年,DeepSeek-R1橫空出世,用557萬美元的訓練成本(僅為GPT-4的零頭),干翻了矽谷的一眾巨頭。Meta、微軟連夜研究他的技術路線。他最著名的一句話是:"中國AI和美國真實的gap,是原創和模仿的差距。"這句話,成了中國AI行業反攻的起點。梁文鋒極其低調,卻在2022年以"一隻平凡的小豬"名義,向慈善機構捐款1.38億元。閆俊傑 不相信天才第三家,MiniMax。2026年1月,討論"十五五"規劃的座談會上,閆俊傑坐在對面。1989年,閆俊傑出生在河南商丘的一個縣城,高中在縣城中學度過。。2006年考入東南大學數學學院,隨後進入中科院自動化所碩博連讀(2015年博士畢業於中國科學院自動化所模式識別國家重點實驗室),並在清華大學電腦系從事博士後研究。2014年,25歲的閆俊傑在百度深度學習研究院實習。那是中國AI的"黃埔軍校",他在這裡第一次直觀感受到大規模算力的顛覆性價值。據說,他一個人就用掉了百度當時三分之一的GPU算力做實驗,還拿下了百度獎學金。轉折發生在2021年春節。閆俊傑回河南老家,外公說想寫一本回憶錄,但不會打字,也沒辦法組織語言。這個做了十年AI的博士突然意識到:他做的技術,對一個想寫回憶錄的老人來說,一點用都沒有。那一刻,他決定要做"普通人能用上的AI"。2021年底,離職創立MiniMax。閆俊傑有一句座右銘:"AI不是神秘黑盒,而是可用第一性原理解析的工程問題。AGI是科學,不是魔法。"他旗幟鮮明地反對"天才論",認為大模型領域貢獻前50的人,可能沒一個在中國公司工作,中國公司要做的就是"聚攏一批素質優秀的人,做一個成長型組織"。四小龍裡,MiniMax是唯一放棄盲目追求"超級模型"的,專攻Agent和程式設計。他們的M2系列,被稱為"國產Claude平替",最新M2.7實現了"模型自己訓練自己"的AI進化。更驚人的是成本,MiniMax用OpenAI約1%的研發投入(累計4.5億美元),實現了全模態技術全球領先,團隊385人,平均年齡29歲,70%收入來自海外。2026年3月,MiniMax市值突破3800億港元,超越了曾經的"導師"百度。在MiniMax內部,閆俊傑有一個花名叫“IO”,既是電腦語言的輸入輸出,也是DOTA裡那個專職輔助隊友的英雄。這很符合他的自我定位:“成功是體系和組織的勝利,不是個人的勝利。”他曾評價自己“可能只是二流研究者”,但堅信二流研究者加上一流組織,能打敗一流研究者的單打獨鬥。楊植麟 "Token經濟學"第四家,月之暗面。2026年4月10日,經濟形勢座談會,楊植麟作為科技企業家出席。1993年,楊植麟出生在廣東汕頭。這是四小龍裡唯一的90後,潮汕人。他的成長史像一部青春電影:高中時零程式設計基礎,被選拔進資訊學奧賽培訓班,拿下廣東一等獎,保送清華。但他放棄保送,以667分的高考成績成為汕頭市理科狀元,考入清華熱能工程系。大二轉專業進入電腦系,師從唐傑教授。在清華,他還是搖滾樂隊Splay的鼓手和詞曲作者,曾晉級清華校園歌手大賽原創決賽。他坦言,選擇電腦專業,是因為村上春樹的一篇小說,讓他對"深夜寫程式碼讓科技落地"的角色印象深刻。2015年,他進入卡內基梅隆大學(CMU),師從蘋果AI負責人Ruslan Salakhutdinov和Google首席科學家William Cohen。4年時間,他完成了通常需要6年的博士課程,提出的Transformer-XL與XLNet模型,成為自然語言處理領域的里程碑,至今被引用上萬次。他參與過Google Gemini、Google Bard、盤古NLP、悟道等大模型的研發。2023年創業,公司名"月之暗面"(Moonshot AI)來自他崇拜的搖滾樂隊Pink Floyd的專輯《The Dark Side of the Moon》。楊植麟最廣為人知的觀點是:"Token消耗在未來可能將直接意味著GDP產出。"誰消耗的Token越多,誰的經濟就越活躍。在AI Agent時代,這就是新的GDP演算法。技術路線上,楊植麟是"長文字"和"原生多模態"的堅定信徒。2026年發佈的Kimi K2.5,上下文窗口擴展到200K,並引入了Linear注意力架構和Attention Residuals(注意力殘差),讓馬斯克都直呼"令人印象深刻"。他提出了"智能體叢集"(Agent Swarms)的概念,認為未來的智能將從單智能體向動態生成的叢集進化。2026年3月,月之暗面完成新一輪融資,投前估值180億美元(約1300億人民幣),帳上現金儲備超過100億元。但楊植麟說,"短期內不著急上市"。小結一個時代的註腳。你看這四個人:一個清華土著,一個浙大天才,一個縣城做題家,一個潮汕搖滾青年。46歲,40歲,36歲,33歲。當有的AI公司還在套殼做大模型、卷流量、應付AI考試時,這四個人,正在卷"智能上界"、卷"原創架構"、卷"國產算力"、卷"全球化"。張鵬說:"智能上界決定定價權。" 梁文鋒說:"中國AI不能永遠跟隨。" 閆俊傑說:"AGI是科學,不是魔法。" 楊植麟說:"Token消耗就是GDP。"四句話,四個技術哲學,四種商業路徑。為什麼選擇見他們,而不是見網際網路巨頭?中國AI,正在從"應用創新"轉向"硬核創新",從"跟隨者"轉向"規則制定者"。四小龍全部到位,中國AI的牌桌,重新發牌了。 (奇偶工作室)
楊植麟主持、羅福莉張鵬拋乾貨,這場“龍蝦局”把AI未來聊透了
大模型真正開始“幹活”,token需求或增長百倍。智東西3月27日報導,今天,在中關村論壇上,智譜CEO張鵬、月之暗面CEO楊植麟(擔任主持)、小米MiMo大模型負責人羅福莉、無問芯穹CEO夏立雪和香港大學助理教授黃超罕見同台,進行了一場圍繞開源大模型與智能體未來走向的深度對話。這場對話以當下最火的OpenClaw切入,幾位嘉賓一致認為,智能體讓大模型真正開始“幹活”了。OpenClaw可擴展大模型的能力邊界,但也對模型提出了更高要求,智譜正研究長程規劃、自我偵錯等能力,而羅福莉的團隊更關注通過架構創新把成本降下來、速度提上去,甚至實現模型自進化。基礎設施也得跟上智能體的節奏。夏立雪認為現在的算力系統和軟體架構還是給人用的,不是給智能體用的,其實是用人的操作能力限制了Agent的發揮空間。因此,我們需要打造Agentic Infra。在多位嘉賓眼中,開源是推動大模型與智能體發展的核心動力之一。香港大學助理教授黃超便認為,開源生態的繁榮是智能體從“玩一玩”走向真正“打工人”的關鍵,只有通過社區共建,才能讓軟體、資料和技術全面轉向智能體原生形態,最終形成可持續的全球AI生態。此外,幾位嘉賓還就大模型漲價、token用量爆發、AI未來12個月的關鍵詞等話題,展開討論。以下是這場圓桌論壇的核心觀點:1、張鵬:模型變大後推理成本也會相應提高,近期智譜的漲價策略其實是回歸到正常的商業價值上了,長期低價競爭不利於行業發展。2、張鵬:智能體等新技術的爆發讓token用量增長了10倍,但實際需求可能增長100倍,仍有大量需求未被滿足,因此算力仍然是未來12個月內的關鍵問題。3、羅福莉:從基座大模型廠商的視角來看,OpenClaw保證了基礎大模型的下限,拉高了上限。國產開源模型+OpenClaw的任務完成度已經非常接近Claude。4、羅福莉:DeepSeek給國內大模型廠商帶來了勇氣和信心。一些看似是“為了效率妥協”的模型結構創新引發了真正的變革,讓業界在算力一定的情況下發揮出最高的智能水平。5、羅福莉:接下來一年AGI歷程中最重要的事情是“自進化”。自進化讓大模型像頂尖科學家一樣去探索,是唯一能“創造新東西”的地方。小米已經借助Claude Code+頂尖模型,將研究效率提升10倍。6、夏立雪:當AGI時代到來時,基礎設施本身都應該是智能體,自主管理整個基礎設施,根據AI客戶的需求去迭代基礎設施,實現自我進化、自我迭代。7、夏立雪:OpenClaw引爆了token用量。如今的token消耗速度,就像當年3G時代手機流量剛起步時,每個月只有100M額度的那種感覺。8、黃超:未來很多軟體都不是面向人類的,軟體、資料和技術都會程式設計Agent-Native的形態,人類未來可能只需要使用那些“讓自己快樂的GUI”。以下是這場圓桌論壇的完整實錄:01. OpenClaw就是“腳手架” 大模型token消耗仍處於3G時代楊植麟:很榮幸今天能邀請到各位重磅嘉賓,幾位嘉賓來自模型層、算力層再到agent層。今天最主要的關鍵詞是開源,然後還有agent。第一個問題來談談現在最流行的OpenClaw。大家日常使用OpenClaw或者類似的產品有什麼覺得最有想像力或者印象深刻的點?從技術的角度來看,如何看待今天OpenClaw和相關的Agent的演進。張鵬:很早我就開始自己玩OpenClaw,當時還叫Clawbot。我自己動手來折騰,畢竟也是程式設計師出身,玩這些東西還是有一些自己的體驗。我覺得OpenClaw給大家帶來的最大突破點,或者說新鮮感就在於,它不再是程式設計師或極客們的專利。普通人也可以比較方便地使用頂尖模型的能力,尤其是在程式設計和智能體方面的能力。所以我到現在為止,跟大家在交流的過程當中,我更願意把OpenClaw稱作“腳手架”。它提供的是一種可能性,在模型的基礎之上搭起了一個很牢固、很方便,但是又很靈活的腳手架。大家可以按照自己的意願,去使用很多底層模型提供的新奇功能。原來自己的想法可能會受限於不會寫程式碼,或者沒有掌握其他的相關技能,今天有了OpenClaw,終於可以通過很簡單的交流就把它完成。OpenClaw給我帶來非常大的衝擊,或者說讓我重新認識了這件事。夏立雪:其實我最開始用OpenClaw的時候是不太適應的,因為我習慣於跟大模型聊天的交流方式,使用後我感覺OpenClaw反應好慢。但後來我意識到一個問題,就是它和之前的聊天機器人有一個很大的不同,本質是一個能幫我完成大型任務的“人”。我開始給它提交更複雜的任務,就發現其實它能夠做的很好。這件事情給我帶來很大的感觸。模型一開始按照token去聊天,到現在能夠變成一個agent,變成一個龍蝦,能夠幫你去完成任務。這件事對AI的整體想像力空間帶來很大的提升。同時,它對於整個系統的能力的要求也變得很高。這也是為什麼我一開始用OpenClaw,會覺得它有點卡。作為基礎設施層的廠商,我看到的是OpenClaw對於AI背後的大型系統和生態都帶來了更多的機遇和挑戰。我們現在所有能夠用到的資源,想要支撐起這樣一個快速增長的時代是不夠的。比如說就拿我們公司來說,我們公司從一月底開始,基本上每兩周token用量就翻一番,到現在基本上漲了10倍。上次見到這個速度,還是當年用3G手機消耗流量的時候。我有種感覺,現在的token用量,就像當年每個月只有100M手機流量的那個時代。這種情況下,我們所有的資源都需要進行更好的最佳化,進行更好的整合。讓每一個人,不僅僅在AI領域,而是在整個社會中的每一個人都能夠去把OpenClaw的AI能力用起來。作為基礎設施的玩家,我對這個時代是非常激動、深有感觸的。我也認為這裡邊有很多的最佳化空間是我們仍然應該去探索,應該去嘗試的。02. OpenClaw拉高國產模型上限 互動模式突破意義重大羅福莉:我自己是把OpenClaw當做agent框架演進過程中,一個極具革命性和顛覆性的事件來看待的。其實我身邊所有在進行非常深度coding的人,他們的第一選擇還是Claude Code。但是,我相信用OpenClaw的人會感受到,它在Agent框架上的很多設計是領先於Claude Code的。最近Claude Code有很多更新其實都是在向OpenClaw去靠近。我自己使用OpenClaw時的感受是,這個框架給我自己帶來更多是想像力的隨時隨地的擴展。Claude Code最開始只能在我的桌面上去延展我的創意,但是OpenClaw可以隨時隨地去延展我的創意。OpenClaw帶來的核心價值主要有兩點。第一點是它開源。開源這件事,非常有利於整個社區深度參與進來,重視並推動這個框架的演進,這是一個很重要的前置條件。像OpenClaw這樣的AI框架,我覺得一個很大的價值在於,它把國內那些水平雖然接近閉源模型、但還沒完全追上的模型的上限拉到了很高。在絕大多數場景下,你會發現它(國產開源模型+OpenClaw)的任務完成度已經非常接近Claude的最新模型。同時,它又很好地把下限保證了——通過一套Harness系統,或者說借助它的Skills體系等多方面的設計,保障了任務的完整度和精準率。總結一下,從基座大模型廠商的開發者角度來看,OpenClaw保證了基礎大模型的下限,拉高了上限。此外,我認為它給整個社區帶來的另一個價值是,它點燃了大家的認知,讓大家發現在大模型之外,Agent這一層其實蘊藏著非常大的想像空間。我最近也觀察到,社區裡除了研究員之外,越來越多的人開始參與到AGI的變革中來,更多人開始接觸像Harness、Scaffold這樣更強大的Agent框架。這些人某種程度上是在用這些工具替代自己的一部分工作,同時也是在釋放自己的時間,去投入到更有想像力的事情上。黃超:我覺得首先從互動模式來講,OpenClaw這次之所以能火,第一個原因可能是它給了一種更有“活人感”的體驗。其實我們做Agent也有一兩年了,但之前像Cursor、Claude Code這些Agent,給人的感覺更多是一種“工具感”。而OpenClaw第一次以“即時通訊軟體嵌入”的方式,讓人更有一種接近心目中“個人賈維斯”的感覺。我覺得這可能是互動模式上的一個突破。另外一點,它給整個社區帶來的啟發是:像Agent Loop這種簡單但高效的框架,再次被證明是可行的。同時,它也讓我們重新思考一個問題:我們到底是需要一個全能型的、能做所有事情的超級智能體,還是需要一個更好的“小管家”,像一個輕量級的作業系統或腳手架?OpenClaw帶來的思路是,通過這樣一個“小系統”或者說“龍蝦作業系統”和它的生態,讓大家真正有“玩起來”的心態,進而撬動整個生態裡的所有工具。隨著Skills、Harness這類能力的出現,越來越多的人可以去設計面向OpenClaw這類系統的應用,去賦能各行各業。我覺得這一點天然就跟整個開源生態結合得非常緊密。在我看來,這兩點是我們獲得的最大啟發。03. GLM新模型專為“幹活”打造 漲價是對正常商業價值的回歸楊植麟:想問一下張鵬。最近看到智譜發佈了新的GLM-5 Turbo模型,我理解在Agent能力上做了很大的增強。能不能給大家介紹一下這個新模型和其他模型的不同之處?另外我們也觀察到有提價的策略,這反映了什麼樣的市場訊號?張鵬:這是個很好的問題。前兩天我們確實緊急更新了一波,這其實是我們整個發展路標中的一個階段,只是提前把它放了出來。最主要的目的,是從原來的“簡單對話”轉向“真正幹活”——這也是大家最近普遍感受到的:大模型不再只是能聊天,而是真的能幫人幹活了。但“幹活”背後隱含的能力要求非常高。模型需要自己去做長程的任務規劃、不斷試錯、壓縮上下文、偵錯,還可能要處理多模態資訊。所以它對模型能力的要求,和傳統面向對話的通用模型其實不太一樣。GLM-5 Turbo就是在這些方面做了專門加強,尤其是你提到的——讓它幹活、跑上七十二小時,怎麼能夠不停地loop,這裡邊我們做了很多工作。另外大家也很關注token消耗的問題。讓一個聰明的模型去幹複雜任務,token的消耗量是巨大的。普通人可能感知不深,但看帳單的時候會發現錢掉得特別快。所以我們在這方面也做了最佳化,在面臨複雜任務時,模型能用更高效的token效率去完成。總體上,模型的架構還是多工協同的通用架構,只是在能力上做了偏向性的加強。提價這件事其實也很好解釋。剛才說了,現在不再是簡單地問一個問題就得到一個回答,背後的推理鏈路非常長。很多任務要通過寫程式碼和底層基礎設施打交道,還要不斷debug、修正錯誤,消耗量非常大。完成一個複雜任務需要的token量,可能是原來回答一個簡單問題的十倍甚至百倍。所以價格上需要有一定的提升,模型也變大了,推理成本相應提高了。我們把它回歸到正常的商業價值上,因為長期靠低價競爭也不利於整個行業的發展。這也是我們讓商業化能形成一個良性閉環,持續最佳化模型能力,給大家提供更好服務的。04. 打造更高效token工廠 基礎設施本身也應該是Agent楊植麟:現在開源模型越來越多,也開始形成生態,各種模型可以在不同的算力平台上給使用者提供更多價值。隨著 token用量的爆發,大模型也正在從訓練時代走向推理時代。想請教一下立雪,從基礎設施的層面來看,推理時代對於無問來說意味著什麼?夏立雪:我們是一家誕生在AI時代的基礎設施廠商,現在也在為智譜、Kimi、Mimo等提供支援,讓大家能把token工廠更高效地用起來。同時我們也在跟很多高校、科研院所合作。所以我們一直在思考一件事:AGI時代需要什麼樣的基礎設施?以及我們怎麼一步步去實現和推演它。我們現在對短期、中期、長期不同階段需要解決的問題,已經做好了充分準備。當前最直接的問題,就是大家剛才聊到的——整個Open帶起來的token量暴增,對系統效率提出了更高的最佳化需求。包括價格的調整,其實也是在這個需求下的一種應對方式。我們一直是通過軟硬體打通的方式來佈局和解決的。比如我們接入了幾乎所有種類的計算晶片,把國內十幾種不同的晶片和幾十個不同的算力叢集統一連接起來。這樣能解決AI系統裡算力資源緊缺的問題,資源不足時,最好的辦法就是先把能用上的資源都用起來,然後讓每一個算力都用在刀刃上,發揮出最大的轉化效率。所以在這個階段,我們要解決的就是怎麼打造一個更高效的token工廠。這裡邊我們做了很多最佳化,包括讓模型和硬體上的視訊記憶體等各種資源做最優適配,也在看最新的模型結構和硬體結構之間能不能產生更深的化學反應。但解決當前的效率問題,其實只是打造了一個標準化的token工廠。面向Agent時代,我們認為這還不夠。因為Agent更像一個人,可以交給它一個任務。我堅定地認為,當前很多雲端運算時代的基礎設施,是為服務一個程序、服務人類工程師設計的,而不是為AI設計的。這相當於我們做了一個基礎設施,上面是給人用的介面,再在上面包一層去接入Agent,這種方式其實是用人的操作能力限制了Agent的發揮空間。舉個例子,Agent能做到毫秒等級去思考和發起任務,但像K8s(kubernetes)這類底層能力,其實並沒有為此做好準備,因為人類發起任務大概是分鐘級的。所以我們需要更進一步的能力,我們把它叫“Agentic Infra”,也就是“智慧化的token工廠”,這是無問芯穹在做的事情。更長遠地看,真正AGI時代到來時,我們認為連基礎設施本身都應該是智能體。我們打造的這套工廠,也應該是能自我進化、自我迭代的,能形成一個自主的組織。它相當於有一個CEO,這個CEO本身就是一個Agent,可能是OpenClaw,去管理整個基礎設施,然後根據AI客戶的需求自己去提需求、迭代基礎設施。這樣AI和AI之間才能更好地耦合。我們也在做一些探索,比如讓Agent之間更好地通訊、做Cache to Cache這樣的能力。所以我們一直在思考的是,基礎設施和AI的發展不應該是一個隔離的狀態——我接到需求就去實現,而是應該產生非常豐富的化學反應。這才是真正意義上的軟硬協同、演算法和基礎設施的協同,也是無問芯穹一直想實現的使命。謝謝。05. “為效率妥協”的創新也有意義 DeepSeek給國內團隊帶來勇氣和信心楊植麟:接下來想問一下福莉。小米最近通過發佈新模型、開源背後的技術,對社區做出了很大的貢獻。想問你,小米在做大模型方面,你覺得有什麼獨特的優勢?羅福莉:我覺得可以先拋開小米有什麼獨特優勢這個話題,我更想聊一聊中國做大模型的團隊整體上的一個優勢。我覺得這個話題有更廣泛的價值。大概兩年前,中國的基座模型團隊已經開始了非常好的突破——我們在有限的算力、尤其是在一些NVLink互聯頻寬受限的算力條件下,怎麼去突破這些低端算力的限制,做一些看似是“為了效率妥協”的模型結構創新,比如DeepSeek V2、V3系列,以及MoE、MLA等等。但後來我們看到,由這些創新引發的是一個變革:在算力一定的情況下,怎麼發揮出最高的智能水平。這是DeepSeek給國內所有基座模型團隊帶來的勇氣和信心。雖然今天我們的國產晶片,尤其是推理晶片,以及訓練晶片,已經不再受這種限制,但正是在這種限制下,催生了我們對更高訓練效率、更低推理成本的模型結構的新探索。就像最近出現的Hybrid Sparse、Linear Attention這類結構,比如DeepSeek的NSA、Kimi 的KSA,小米也有面向下一代結構的HySparse。這些都是區別於MoE這一代結構的、面向Agent時代去做的模型結構創新。我為什麼覺得結構創新如此重要?其實大家如果真正地去用OpenClaw,會發現它越用越好用、越用越聰明。其中一個前提是推理的上下文長度。長上下文是一個我們聊了很久的話題,但現在真正有模型能在長上下文下表現很好、性能強勁、推理成本很低嗎?其實很多模型不是做不到1M或10M的上下文,而是因為推理1M、10M的成本太貴了、速度太慢了。只有把成本降下來、速度提上去,才能把真正高生產力價值的任務交給模型,才能在這種長上下文下完成更高複雜度的任務,甚至實現模型的自迭代。所謂模型的自迭代,就是它可以在一個複雜環境裡,依靠超長的上下文完成對自我的進化。這種進化可能是對Agent框架本身的,也可能是對模型參數本身的——因為我認為上下文字身其實就是對參數的一種進化。所以怎麼實現一個長上下文的架構,怎麼在推理側做到長上下文高效推理,是一個全方位的競爭。除了我剛剛提到的預訓練階段做好long-context-efficient的架構——這大概是我們一年前就開始探索的問題。現在真正要做到在長程任務上的穩定性和高上限的效果,是我們在後訓練階段正在迭代的創新範式。我們在想怎麼構造更有效的學習演算法,怎麼採集到真實環境下、在1M、10M、100M上下文裡真正具有長期依賴關係的文字,以及結合複雜環境產生的軌跡資料。這是我們後訓練正在做的事情。但更長期來看,由於大模型本身的飛速進步,加上Agent框架的加持,就像立雪說的,推理需求在過去一段時間已經有近十倍的增長。那麼今年整個token用量的增長會不會到100倍?這裡邊又進入另一個維度的競爭——算力,或者說推理晶片,甚至再往下到能源。所以我覺得,如果大家一起思考這個問題,我可能會從大家身上學到更多。謝謝。06. Agent有三大關鍵模組 多Agent爆發將帶來衝擊楊植麟:非常有洞察的分享。下面想問一下黃超,你開發過像Nanobot這樣很有影響力的Agent項目,也有很多社區的粉絲。想問你從Agent的Harness或者應用層面來看,接下來有那些技術方向是你覺得比較重要、值得大家關注的?黃超:我覺得如果把Agent的技術抽象出來,關鍵就是Planning、Memory和Tool Use這幾個模組。先說Planning。現在的問題主要是在長程任務或者非常複雜的上下文中,比如500步甚至更長的步數,很多模型不一定能做很好的規劃。我覺得本質上是模型可能不具備這類隱性知識,尤其是在一些複雜的垂直領域。所以未來可能需要把各種複雜任務的知識固化到模型裡,這可能是一個方向。當然,Skill、Harness在某種程度上也在緩解Planning帶來的錯誤,因為它提供了高品質的Skill,本質上也是在引導模型去完成一些比較難的任務。再說Memory。Memory給人的感覺是,它好像總是存在資訊壓縮不精準、檢索不准的問題。特別是在長程任務和複雜場景下,Memory的壓力會暴增。現在像OpenClaw這類項目,大家用的其實都是最簡單的檔案系統式的 Markdown格式的Memory,通過共享檔案來做。未來Memory可能會走向分層設計,也需要讓它變得更通用。老實講,現在的Memory機制很難做到通用——因為Coding場景、Deep Research場景、多模態場景,它們的資料模態差別很大,怎麼對這些Memory做好的檢索和索引,同時又保持高效,這永遠是一個權衡。另外,現在OpenClaw讓大家建立Agent的門檻大幅降低之後,未來可能不止一個“龍蝦”。我看到Kimi也有Agent Swarm這樣的機製出來,未來每個人可能會有“一群龍蝦”。相比於單個龍蝦,一群龍蝦帶來的上下文暴增是可以想像的,這對Memory的壓力會非常大。現在其實還沒有一套很好的機制去管理這種“一群龍蝦”帶來的上下文,尤其是對複雜Coding、科研發現這類場景,不管是模型還是整個Agent架構,壓力都很大。再說Tool Use,也就是Skill這塊。Skill現在存在的問題,其實和當初MCP的問題類似——MCP當時有質量不保障、安全風險等問題。現在Skill也一樣,看似有很多Skill,但高品質的很少,低品質的Skill會影響Agent完成任務的精準度。另外還有惡意注入的問題。所以從Tool Use來看,可能需要靠社區把整個Skill生態做得更好,甚至讓Skill能在執行過程中自我進化出新的Skill。總的來說,從Planning、Memory到Tool Use,這些是當下Agent存在的一些痛點,也是未來可能的方向。07. 未來12個月關鍵詞: 生態、可持續token、自進化與算力楊植麟:可以看到兩位嘉賓從不同視角討論了一個共同的問題——隨著任務複雜度增加,上下文會暴漲。從模型層面可以提升原生上下文長度,從Agent Harness層面,像Planning、Memory、Multi-Agent這樣的機制,也能在特定模型能力下支援更複雜的任務。我覺得這兩個方向接下來會產生更多化學反應,進一步提升任務的完成能力。最後我們來一個開放式的展望。請各位用一個詞來描述接下來12個月大模型發展的趨勢以及你的期望。這次先從黃超開始。黃超:12個月在AI這個領域看起來好遙遠,都不知道12個月之後會發展成什麼樣。楊植麟:本來這裡寫的是五年,我改掉了。黃超:對,哈哈。我想到的一個詞是“生態”。現在OpenClaw讓大家很活躍,但未來Agent真的要成為“打工人”,而不只是大家玩一玩、圖個新鮮感。未來應該讓它真正沉澱下來,成為搬磚的工具、成為真正的coworker。這需要整個生態的努力,尤其是開源,把技術探索和模型技術都開源出來之後,需要整個社區一起共建——不管是模型的迭代,還是Skill平台的迭代,還有各種工具,都需要更好地面向龍蝦去創造生態。一個比較明顯的趨勢是,未來的軟體還會是給人用的嗎?我相信未來很多軟體可能都不一定是面向人類的——因為人類需要的是GUI,而未來可能是面向Agent原生的使用。有趣的是,人可能只去用那些讓自己快樂的GUI。而現在整個生態又從GUI、MCP轉到了CLI的模式。這就需要生態把軟體系統、資料、各種技術都變成Agent Native的形態,這樣整個發展才會更加豐富。羅福莉:把問題縮小到一年,我覺得非常有意義。如果五年的話,從我心目中AGI的定義來看,我覺得已經實現了。所以如果用一句話描述接下來一年AGI歷程裡最關鍵的事情,我認為是“自進化”。這個詞聽起來有點玄幻,過去一年大家也多次提到。但我最近對它有更深的體會,或者說對“自進化”怎麼做,有了更務實、更可行的方案。原因在於,有了強大的模型之後,我們在Chat範式下根本沒有發揮出預訓練模型的上限,而Agent框架把這個上限啟動了。當我們讓模型執行更長時間的任務時,發現它可以自己去學習和進化。一個簡單的嘗試是:在現有的Agent框架裡給它加上一個可驗證的條件限制,再給它設一個Loop,讓模型不停地去迭代最佳化目標,就會發現它能持續拿出更好的方案。這種自進化現在其實已經能跑一兩天了,當然跟任務難度有關。比如在一些科學研究上,像是探索更好的模型結構,因為模型結構有評估標準,比如更低的PPL。在這種確定性的任務上,我們發現它已經能自主最佳化和執行兩三天了。所以從我的角度看,自進化是唯一能“創造新東西”的地方。它不是替代我們現有的人的生產力,而是像頂尖科學家一樣,去探索世界上還沒有的東西。一年前我會覺得這個時間線要拉到三到五年,但最近我覺得確實應該縮小到一到兩年。可能很快我們就能用大模型疊加一個強大的自進化Agent框架,實現對科學研究至少指數級的加速。最近我已經發現,我們組裡做大模型研究的同學,他們的workflow是高度不確定、高度創造性的,但借助Claude Code加上頂尖模型,我們的研究效率已經提升了近十倍。我很期待這種範式輻射到更廣泛的學科和領域,所以我覺得“自進化”非常重要。夏立雪:我的關鍵詞是“可持續token”。我看到整個AI的發展還在一個長期持續的過程中,我們也希望它有長久的生命力。從基礎設施的角度看,一個很大的問題是資源終究是有限的。就像當年講可持續發展一樣,我們作為一個token工廠,能否持續、穩定、大規模地提供token,讓頂尖模型真正能為更多的下游服務,是我們看到的一個很重要的問題。我們需要把視角放寬到整個生態——從能源到算力,再到token,最終到應用,形成可持續的經濟化迭代。我們不僅要把國內的各種算力用起來,也在把這些能力輸出到海外,讓全球的資源都能打通和整合。我也覺得“可持續”其實是在把中國特色的token經濟學做起來。過去我們講Made in China,把中國低價的製造能力變成好的商品輸出到全球。現在我們要做的是“AI Made in China”——把中國在能源等方面的優勢,通過token工廠可持續地轉化成優質的token,輸出到全球,成為世界的token廠。這是我今年想要看到的、中國給世界的人工智慧帶來的價值。張鵬:我就簡短一點。大家都在仰望星空,我就落地一點。我的關鍵詞是“算力”。剛才也說了,所有技術、智能體框架讓大家創造力和效率提升了十倍,但前提是大家能真正用得起來。你不能一個問題提出去,讓它思考半天也不給答案,那肯定不行。也因為這樣,很多研究的進展、很多想做的事情都會受阻。前兩年我記得有位院士在中關村論壇上說了一句話:“沒卡沒感情,談卡傷感情。”我覺得今天又到了這個地步,但情況又不一樣了。現在我們進入了推理階段,需求真的在爆發——十倍、百倍地增長。剛才你說用量漲了十倍,那其實需求可能是一百倍呢?還有大量的需求沒被滿足,怎麼辦?我們大家可能一起來想想辦法。 (智東西)