#中關村
楊植麟主持、羅福莉張鵬拋乾貨,這場“龍蝦局”把AI未來聊透了
大模型真正開始“幹活”,token需求或增長百倍。智東西3月27日報導,今天,在中關村論壇上,智譜CEO張鵬、月之暗面CEO楊植麟(擔任主持)、小米MiMo大模型負責人羅福莉、無問芯穹CEO夏立雪和香港大學助理教授黃超罕見同台,進行了一場圍繞開源大模型與智能體未來走向的深度對話。這場對話以當下最火的OpenClaw切入,幾位嘉賓一致認為,智能體讓大模型真正開始“幹活”了。OpenClaw可擴展大模型的能力邊界,但也對模型提出了更高要求,智譜正研究長程規劃、自我偵錯等能力,而羅福莉的團隊更關注通過架構創新把成本降下來、速度提上去,甚至實現模型自進化。基礎設施也得跟上智能體的節奏。夏立雪認為現在的算力系統和軟體架構還是給人用的,不是給智能體用的,其實是用人的操作能力限制了Agent的發揮空間。因此,我們需要打造Agentic Infra。在多位嘉賓眼中,開源是推動大模型與智能體發展的核心動力之一。香港大學助理教授黃超便認為,開源生態的繁榮是智能體從“玩一玩”走向真正“打工人”的關鍵,只有通過社區共建,才能讓軟體、資料和技術全面轉向智能體原生形態,最終形成可持續的全球AI生態。此外,幾位嘉賓還就大模型漲價、token用量爆發、AI未來12個月的關鍵詞等話題,展開討論。以下是這場圓桌論壇的核心觀點:1、張鵬:模型變大後推理成本也會相應提高,近期智譜的漲價策略其實是回歸到正常的商業價值上了,長期低價競爭不利於行業發展。2、張鵬:智能體等新技術的爆發讓token用量增長了10倍,但實際需求可能增長100倍,仍有大量需求未被滿足,因此算力仍然是未來12個月內的關鍵問題。3、羅福莉:從基座大模型廠商的視角來看,OpenClaw保證了基礎大模型的下限,拉高了上限。國產開源模型+OpenClaw的任務完成度已經非常接近Claude。4、羅福莉:DeepSeek給國內大模型廠商帶來了勇氣和信心。一些看似是“為了效率妥協”的模型結構創新引發了真正的變革,讓業界在算力一定的情況下發揮出最高的智能水平。5、羅福莉:接下來一年AGI歷程中最重要的事情是“自進化”。自進化讓大模型像頂尖科學家一樣去探索,是唯一能“創造新東西”的地方。小米已經借助Claude Code+頂尖模型,將研究效率提升10倍。6、夏立雪:當AGI時代到來時,基礎設施本身都應該是智能體,自主管理整個基礎設施,根據AI客戶的需求去迭代基礎設施,實現自我進化、自我迭代。7、夏立雪:OpenClaw引爆了token用量。如今的token消耗速度,就像當年3G時代手機流量剛起步時,每個月只有100M額度的那種感覺。8、黃超:未來很多軟體都不是面向人類的,軟體、資料和技術都會程式設計Agent-Native的形態,人類未來可能只需要使用那些“讓自己快樂的GUI”。以下是這場圓桌論壇的完整實錄:01. OpenClaw就是“腳手架” 大模型token消耗仍處於3G時代楊植麟:很榮幸今天能邀請到各位重磅嘉賓,幾位嘉賓來自模型層、算力層再到agent層。今天最主要的關鍵詞是開源,然後還有agent。第一個問題來談談現在最流行的OpenClaw。大家日常使用OpenClaw或者類似的產品有什麼覺得最有想像力或者印象深刻的點?從技術的角度來看,如何看待今天OpenClaw和相關的Agent的演進。張鵬:很早我就開始自己玩OpenClaw,當時還叫Clawbot。我自己動手來折騰,畢竟也是程式設計師出身,玩這些東西還是有一些自己的體驗。我覺得OpenClaw給大家帶來的最大突破點,或者說新鮮感就在於,它不再是程式設計師或極客們的專利。普通人也可以比較方便地使用頂尖模型的能力,尤其是在程式設計和智能體方面的能力。所以我到現在為止,跟大家在交流的過程當中,我更願意把OpenClaw稱作“腳手架”。它提供的是一種可能性,在模型的基礎之上搭起了一個很牢固、很方便,但是又很靈活的腳手架。大家可以按照自己的意願,去使用很多底層模型提供的新奇功能。原來自己的想法可能會受限於不會寫程式碼,或者沒有掌握其他的相關技能,今天有了OpenClaw,終於可以通過很簡單的交流就把它完成。OpenClaw給我帶來非常大的衝擊,或者說讓我重新認識了這件事。夏立雪:其實我最開始用OpenClaw的時候是不太適應的,因為我習慣於跟大模型聊天的交流方式,使用後我感覺OpenClaw反應好慢。但後來我意識到一個問題,就是它和之前的聊天機器人有一個很大的不同,本質是一個能幫我完成大型任務的“人”。我開始給它提交更複雜的任務,就發現其實它能夠做的很好。這件事情給我帶來很大的感觸。模型一開始按照token去聊天,到現在能夠變成一個agent,變成一個龍蝦,能夠幫你去完成任務。這件事對AI的整體想像力空間帶來很大的提升。同時,它對於整個系統的能力的要求也變得很高。這也是為什麼我一開始用OpenClaw,會覺得它有點卡。作為基礎設施層的廠商,我看到的是OpenClaw對於AI背後的大型系統和生態都帶來了更多的機遇和挑戰。我們現在所有能夠用到的資源,想要支撐起這樣一個快速增長的時代是不夠的。比如說就拿我們公司來說,我們公司從一月底開始,基本上每兩周token用量就翻一番,到現在基本上漲了10倍。上次見到這個速度,還是當年用3G手機消耗流量的時候。我有種感覺,現在的token用量,就像當年每個月只有100M手機流量的那個時代。這種情況下,我們所有的資源都需要進行更好的最佳化,進行更好的整合。讓每一個人,不僅僅在AI領域,而是在整個社會中的每一個人都能夠去把OpenClaw的AI能力用起來。作為基礎設施的玩家,我對這個時代是非常激動、深有感觸的。我也認為這裡邊有很多的最佳化空間是我們仍然應該去探索,應該去嘗試的。02. OpenClaw拉高國產模型上限 互動模式突破意義重大羅福莉:我自己是把OpenClaw當做agent框架演進過程中,一個極具革命性和顛覆性的事件來看待的。其實我身邊所有在進行非常深度coding的人,他們的第一選擇還是Claude Code。但是,我相信用OpenClaw的人會感受到,它在Agent框架上的很多設計是領先於Claude Code的。最近Claude Code有很多更新其實都是在向OpenClaw去靠近。我自己使用OpenClaw時的感受是,這個框架給我自己帶來更多是想像力的隨時隨地的擴展。Claude Code最開始只能在我的桌面上去延展我的創意,但是OpenClaw可以隨時隨地去延展我的創意。OpenClaw帶來的核心價值主要有兩點。第一點是它開源。開源這件事,非常有利於整個社區深度參與進來,重視並推動這個框架的演進,這是一個很重要的前置條件。像OpenClaw這樣的AI框架,我覺得一個很大的價值在於,它把國內那些水平雖然接近閉源模型、但還沒完全追上的模型的上限拉到了很高。在絕大多數場景下,你會發現它(國產開源模型+OpenClaw)的任務完成度已經非常接近Claude的最新模型。同時,它又很好地把下限保證了——通過一套Harness系統,或者說借助它的Skills體系等多方面的設計,保障了任務的完整度和精準率。總結一下,從基座大模型廠商的開發者角度來看,OpenClaw保證了基礎大模型的下限,拉高了上限。此外,我認為它給整個社區帶來的另一個價值是,它點燃了大家的認知,讓大家發現在大模型之外,Agent這一層其實蘊藏著非常大的想像空間。我最近也觀察到,社區裡除了研究員之外,越來越多的人開始參與到AGI的變革中來,更多人開始接觸像Harness、Scaffold這樣更強大的Agent框架。這些人某種程度上是在用這些工具替代自己的一部分工作,同時也是在釋放自己的時間,去投入到更有想像力的事情上。黃超:我覺得首先從互動模式來講,OpenClaw這次之所以能火,第一個原因可能是它給了一種更有“活人感”的體驗。其實我們做Agent也有一兩年了,但之前像Cursor、Claude Code這些Agent,給人的感覺更多是一種“工具感”。而OpenClaw第一次以“即時通訊軟體嵌入”的方式,讓人更有一種接近心目中“個人賈維斯”的感覺。我覺得這可能是互動模式上的一個突破。另外一點,它給整個社區帶來的啟發是:像Agent Loop這種簡單但高效的框架,再次被證明是可行的。同時,它也讓我們重新思考一個問題:我們到底是需要一個全能型的、能做所有事情的超級智能體,還是需要一個更好的“小管家”,像一個輕量級的作業系統或腳手架?OpenClaw帶來的思路是,通過這樣一個“小系統”或者說“龍蝦作業系統”和它的生態,讓大家真正有“玩起來”的心態,進而撬動整個生態裡的所有工具。隨著Skills、Harness這類能力的出現,越來越多的人可以去設計面向OpenClaw這類系統的應用,去賦能各行各業。我覺得這一點天然就跟整個開源生態結合得非常緊密。在我看來,這兩點是我們獲得的最大啟發。03. GLM新模型專為“幹活”打造 漲價是對正常商業價值的回歸楊植麟:想問一下張鵬。最近看到智譜發佈了新的GLM-5 Turbo模型,我理解在Agent能力上做了很大的增強。能不能給大家介紹一下這個新模型和其他模型的不同之處?另外我們也觀察到有提價的策略,這反映了什麼樣的市場訊號?張鵬:這是個很好的問題。前兩天我們確實緊急更新了一波,這其實是我們整個發展路標中的一個階段,只是提前把它放了出來。最主要的目的,是從原來的“簡單對話”轉向“真正幹活”——這也是大家最近普遍感受到的:大模型不再只是能聊天,而是真的能幫人幹活了。但“幹活”背後隱含的能力要求非常高。模型需要自己去做長程的任務規劃、不斷試錯、壓縮上下文、偵錯,還可能要處理多模態資訊。所以它對模型能力的要求,和傳統面向對話的通用模型其實不太一樣。GLM-5 Turbo就是在這些方面做了專門加強,尤其是你提到的——讓它幹活、跑上七十二小時,怎麼能夠不停地loop,這裡邊我們做了很多工作。另外大家也很關注token消耗的問題。讓一個聰明的模型去幹複雜任務,token的消耗量是巨大的。普通人可能感知不深,但看帳單的時候會發現錢掉得特別快。所以我們在這方面也做了最佳化,在面臨複雜任務時,模型能用更高效的token效率去完成。總體上,模型的架構還是多工協同的通用架構,只是在能力上做了偏向性的加強。提價這件事其實也很好解釋。剛才說了,現在不再是簡單地問一個問題就得到一個回答,背後的推理鏈路非常長。很多任務要通過寫程式碼和底層基礎設施打交道,還要不斷debug、修正錯誤,消耗量非常大。完成一個複雜任務需要的token量,可能是原來回答一個簡單問題的十倍甚至百倍。所以價格上需要有一定的提升,模型也變大了,推理成本相應提高了。我們把它回歸到正常的商業價值上,因為長期靠低價競爭也不利於整個行業的發展。這也是我們讓商業化能形成一個良性閉環,持續最佳化模型能力,給大家提供更好服務的。04. 打造更高效token工廠 基礎設施本身也應該是Agent楊植麟:現在開源模型越來越多,也開始形成生態,各種模型可以在不同的算力平台上給使用者提供更多價值。隨著 token用量的爆發,大模型也正在從訓練時代走向推理時代。想請教一下立雪,從基礎設施的層面來看,推理時代對於無問來說意味著什麼?夏立雪:我們是一家誕生在AI時代的基礎設施廠商,現在也在為智譜、Kimi、Mimo等提供支援,讓大家能把token工廠更高效地用起來。同時我們也在跟很多高校、科研院所合作。所以我們一直在思考一件事:AGI時代需要什麼樣的基礎設施?以及我們怎麼一步步去實現和推演它。我們現在對短期、中期、長期不同階段需要解決的問題,已經做好了充分準備。當前最直接的問題,就是大家剛才聊到的——整個Open帶起來的token量暴增,對系統效率提出了更高的最佳化需求。包括價格的調整,其實也是在這個需求下的一種應對方式。我們一直是通過軟硬體打通的方式來佈局和解決的。比如我們接入了幾乎所有種類的計算晶片,把國內十幾種不同的晶片和幾十個不同的算力叢集統一連接起來。這樣能解決AI系統裡算力資源緊缺的問題,資源不足時,最好的辦法就是先把能用上的資源都用起來,然後讓每一個算力都用在刀刃上,發揮出最大的轉化效率。所以在這個階段,我們要解決的就是怎麼打造一個更高效的token工廠。這裡邊我們做了很多最佳化,包括讓模型和硬體上的視訊記憶體等各種資源做最優適配,也在看最新的模型結構和硬體結構之間能不能產生更深的化學反應。但解決當前的效率問題,其實只是打造了一個標準化的token工廠。面向Agent時代,我們認為這還不夠。因為Agent更像一個人,可以交給它一個任務。我堅定地認為,當前很多雲端運算時代的基礎設施,是為服務一個程序、服務人類工程師設計的,而不是為AI設計的。這相當於我們做了一個基礎設施,上面是給人用的介面,再在上面包一層去接入Agent,這種方式其實是用人的操作能力限制了Agent的發揮空間。舉個例子,Agent能做到毫秒等級去思考和發起任務,但像K8s(kubernetes)這類底層能力,其實並沒有為此做好準備,因為人類發起任務大概是分鐘級的。所以我們需要更進一步的能力,我們把它叫“Agentic Infra”,也就是“智慧化的token工廠”,這是無問芯穹在做的事情。更長遠地看,真正AGI時代到來時,我們認為連基礎設施本身都應該是智能體。我們打造的這套工廠,也應該是能自我進化、自我迭代的,能形成一個自主的組織。它相當於有一個CEO,這個CEO本身就是一個Agent,可能是OpenClaw,去管理整個基礎設施,然後根據AI客戶的需求自己去提需求、迭代基礎設施。這樣AI和AI之間才能更好地耦合。我們也在做一些探索,比如讓Agent之間更好地通訊、做Cache to Cache這樣的能力。所以我們一直在思考的是,基礎設施和AI的發展不應該是一個隔離的狀態——我接到需求就去實現,而是應該產生非常豐富的化學反應。這才是真正意義上的軟硬協同、演算法和基礎設施的協同,也是無問芯穹一直想實現的使命。謝謝。05. “為效率妥協”的創新也有意義 DeepSeek給國內團隊帶來勇氣和信心楊植麟:接下來想問一下福莉。小米最近通過發佈新模型、開源背後的技術,對社區做出了很大的貢獻。想問你,小米在做大模型方面,你覺得有什麼獨特的優勢?羅福莉:我覺得可以先拋開小米有什麼獨特優勢這個話題,我更想聊一聊中國做大模型的團隊整體上的一個優勢。我覺得這個話題有更廣泛的價值。大概兩年前,中國的基座模型團隊已經開始了非常好的突破——我們在有限的算力、尤其是在一些NVLink互聯頻寬受限的算力條件下,怎麼去突破這些低端算力的限制,做一些看似是“為了效率妥協”的模型結構創新,比如DeepSeek V2、V3系列,以及MoE、MLA等等。但後來我們看到,由這些創新引發的是一個變革:在算力一定的情況下,怎麼發揮出最高的智能水平。這是DeepSeek給國內所有基座模型團隊帶來的勇氣和信心。雖然今天我們的國產晶片,尤其是推理晶片,以及訓練晶片,已經不再受這種限制,但正是在這種限制下,催生了我們對更高訓練效率、更低推理成本的模型結構的新探索。就像最近出現的Hybrid Sparse、Linear Attention這類結構,比如DeepSeek的NSA、Kimi 的KSA,小米也有面向下一代結構的HySparse。這些都是區別於MoE這一代結構的、面向Agent時代去做的模型結構創新。我為什麼覺得結構創新如此重要?其實大家如果真正地去用OpenClaw,會發現它越用越好用、越用越聰明。其中一個前提是推理的上下文長度。長上下文是一個我們聊了很久的話題,但現在真正有模型能在長上下文下表現很好、性能強勁、推理成本很低嗎?其實很多模型不是做不到1M或10M的上下文,而是因為推理1M、10M的成本太貴了、速度太慢了。只有把成本降下來、速度提上去,才能把真正高生產力價值的任務交給模型,才能在這種長上下文下完成更高複雜度的任務,甚至實現模型的自迭代。所謂模型的自迭代,就是它可以在一個複雜環境裡,依靠超長的上下文完成對自我的進化。這種進化可能是對Agent框架本身的,也可能是對模型參數本身的——因為我認為上下文字身其實就是對參數的一種進化。所以怎麼實現一個長上下文的架構,怎麼在推理側做到長上下文高效推理,是一個全方位的競爭。除了我剛剛提到的預訓練階段做好long-context-efficient的架構——這大概是我們一年前就開始探索的問題。現在真正要做到在長程任務上的穩定性和高上限的效果,是我們在後訓練階段正在迭代的創新範式。我們在想怎麼構造更有效的學習演算法,怎麼採集到真實環境下、在1M、10M、100M上下文裡真正具有長期依賴關係的文字,以及結合複雜環境產生的軌跡資料。這是我們後訓練正在做的事情。但更長期來看,由於大模型本身的飛速進步,加上Agent框架的加持,就像立雪說的,推理需求在過去一段時間已經有近十倍的增長。那麼今年整個token用量的增長會不會到100倍?這裡邊又進入另一個維度的競爭——算力,或者說推理晶片,甚至再往下到能源。所以我覺得,如果大家一起思考這個問題,我可能會從大家身上學到更多。謝謝。06. Agent有三大關鍵模組 多Agent爆發將帶來衝擊楊植麟:非常有洞察的分享。下面想問一下黃超,你開發過像Nanobot這樣很有影響力的Agent項目,也有很多社區的粉絲。想問你從Agent的Harness或者應用層面來看,接下來有那些技術方向是你覺得比較重要、值得大家關注的?黃超:我覺得如果把Agent的技術抽象出來,關鍵就是Planning、Memory和Tool Use這幾個模組。先說Planning。現在的問題主要是在長程任務或者非常複雜的上下文中,比如500步甚至更長的步數,很多模型不一定能做很好的規劃。我覺得本質上是模型可能不具備這類隱性知識,尤其是在一些複雜的垂直領域。所以未來可能需要把各種複雜任務的知識固化到模型裡,這可能是一個方向。當然,Skill、Harness在某種程度上也在緩解Planning帶來的錯誤,因為它提供了高品質的Skill,本質上也是在引導模型去完成一些比較難的任務。再說Memory。Memory給人的感覺是,它好像總是存在資訊壓縮不精準、檢索不准的問題。特別是在長程任務和複雜場景下,Memory的壓力會暴增。現在像OpenClaw這類項目,大家用的其實都是最簡單的檔案系統式的 Markdown格式的Memory,通過共享檔案來做。未來Memory可能會走向分層設計,也需要讓它變得更通用。老實講,現在的Memory機制很難做到通用——因為Coding場景、Deep Research場景、多模態場景,它們的資料模態差別很大,怎麼對這些Memory做好的檢索和索引,同時又保持高效,這永遠是一個權衡。另外,現在OpenClaw讓大家建立Agent的門檻大幅降低之後,未來可能不止一個“龍蝦”。我看到Kimi也有Agent Swarm這樣的機製出來,未來每個人可能會有“一群龍蝦”。相比於單個龍蝦,一群龍蝦帶來的上下文暴增是可以想像的,這對Memory的壓力會非常大。現在其實還沒有一套很好的機制去管理這種“一群龍蝦”帶來的上下文,尤其是對複雜Coding、科研發現這類場景,不管是模型還是整個Agent架構,壓力都很大。再說Tool Use,也就是Skill這塊。Skill現在存在的問題,其實和當初MCP的問題類似——MCP當時有質量不保障、安全風險等問題。現在Skill也一樣,看似有很多Skill,但高品質的很少,低品質的Skill會影響Agent完成任務的精準度。另外還有惡意注入的問題。所以從Tool Use來看,可能需要靠社區把整個Skill生態做得更好,甚至讓Skill能在執行過程中自我進化出新的Skill。總的來說,從Planning、Memory到Tool Use,這些是當下Agent存在的一些痛點,也是未來可能的方向。07. 未來12個月關鍵詞: 生態、可持續token、自進化與算力楊植麟:可以看到兩位嘉賓從不同視角討論了一個共同的問題——隨著任務複雜度增加,上下文會暴漲。從模型層面可以提升原生上下文長度,從Agent Harness層面,像Planning、Memory、Multi-Agent這樣的機制,也能在特定模型能力下支援更複雜的任務。我覺得這兩個方向接下來會產生更多化學反應,進一步提升任務的完成能力。最後我們來一個開放式的展望。請各位用一個詞來描述接下來12個月大模型發展的趨勢以及你的期望。這次先從黃超開始。黃超:12個月在AI這個領域看起來好遙遠,都不知道12個月之後會發展成什麼樣。楊植麟:本來這裡寫的是五年,我改掉了。黃超:對,哈哈。我想到的一個詞是“生態”。現在OpenClaw讓大家很活躍,但未來Agent真的要成為“打工人”,而不只是大家玩一玩、圖個新鮮感。未來應該讓它真正沉澱下來,成為搬磚的工具、成為真正的coworker。這需要整個生態的努力,尤其是開源,把技術探索和模型技術都開源出來之後,需要整個社區一起共建——不管是模型的迭代,還是Skill平台的迭代,還有各種工具,都需要更好地面向龍蝦去創造生態。一個比較明顯的趨勢是,未來的軟體還會是給人用的嗎?我相信未來很多軟體可能都不一定是面向人類的——因為人類需要的是GUI,而未來可能是面向Agent原生的使用。有趣的是,人可能只去用那些讓自己快樂的GUI。而現在整個生態又從GUI、MCP轉到了CLI的模式。這就需要生態把軟體系統、資料、各種技術都變成Agent Native的形態,這樣整個發展才會更加豐富。羅福莉:把問題縮小到一年,我覺得非常有意義。如果五年的話,從我心目中AGI的定義來看,我覺得已經實現了。所以如果用一句話描述接下來一年AGI歷程裡最關鍵的事情,我認為是“自進化”。這個詞聽起來有點玄幻,過去一年大家也多次提到。但我最近對它有更深的體會,或者說對“自進化”怎麼做,有了更務實、更可行的方案。原因在於,有了強大的模型之後,我們在Chat範式下根本沒有發揮出預訓練模型的上限,而Agent框架把這個上限啟動了。當我們讓模型執行更長時間的任務時,發現它可以自己去學習和進化。一個簡單的嘗試是:在現有的Agent框架裡給它加上一個可驗證的條件限制,再給它設一個Loop,讓模型不停地去迭代最佳化目標,就會發現它能持續拿出更好的方案。這種自進化現在其實已經能跑一兩天了,當然跟任務難度有關。比如在一些科學研究上,像是探索更好的模型結構,因為模型結構有評估標準,比如更低的PPL。在這種確定性的任務上,我們發現它已經能自主最佳化和執行兩三天了。所以從我的角度看,自進化是唯一能“創造新東西”的地方。它不是替代我們現有的人的生產力,而是像頂尖科學家一樣,去探索世界上還沒有的東西。一年前我會覺得這個時間線要拉到三到五年,但最近我覺得確實應該縮小到一到兩年。可能很快我們就能用大模型疊加一個強大的自進化Agent框架,實現對科學研究至少指數級的加速。最近我已經發現,我們組裡做大模型研究的同學,他們的workflow是高度不確定、高度創造性的,但借助Claude Code加上頂尖模型,我們的研究效率已經提升了近十倍。我很期待這種範式輻射到更廣泛的學科和領域,所以我覺得“自進化”非常重要。夏立雪:我的關鍵詞是“可持續token”。我看到整個AI的發展還在一個長期持續的過程中,我們也希望它有長久的生命力。從基礎設施的角度看,一個很大的問題是資源終究是有限的。就像當年講可持續發展一樣,我們作為一個token工廠,能否持續、穩定、大規模地提供token,讓頂尖模型真正能為更多的下游服務,是我們看到的一個很重要的問題。我們需要把視角放寬到整個生態——從能源到算力,再到token,最終到應用,形成可持續的經濟化迭代。我們不僅要把國內的各種算力用起來,也在把這些能力輸出到海外,讓全球的資源都能打通和整合。我也覺得“可持續”其實是在把中國特色的token經濟學做起來。過去我們講Made in China,把中國低價的製造能力變成好的商品輸出到全球。現在我們要做的是“AI Made in China”——把中國在能源等方面的優勢,通過token工廠可持續地轉化成優質的token,輸出到全球,成為世界的token廠。這是我今年想要看到的、中國給世界的人工智慧帶來的價值。張鵬:我就簡短一點。大家都在仰望星空,我就落地一點。我的關鍵詞是“算力”。剛才也說了,所有技術、智能體框架讓大家創造力和效率提升了十倍,但前提是大家能真正用得起來。你不能一個問題提出去,讓它思考半天也不給答案,那肯定不行。也因為這樣,很多研究的進展、很多想做的事情都會受阻。前兩年我記得有位院士在中關村論壇上說了一句話:“沒卡沒感情,談卡傷感情。”我覺得今天又到了這個地步,但情況又不一樣了。現在我們進入了推理階段,需求真的在爆發——十倍、百倍地增長。剛才你說用量漲了十倍,那其實需求可能是一百倍呢?還有大量的需求沒被滿足,怎麼辦?我們大家可能一起來想想辦法。 (智東西)
Kimi楊植麟「2026中關村論壇」演講全文
大家好,今天很高興有機會分享我們在做開源模型和不斷訓練更好的大模型過程中的最新進展和思考。其實做大模型本質上是把能源轉化成智能。轉化的過程中,最重要的事情是規模化。也就是說,把儘可能多的能源,經過算力和模型,變成更多的、更高程度的智能。本質上,規模化定律(Scaling Law)是過去若干年,所有的模型和 AI 發展的一個很重要的基礎。當然,規模化並不是代表我們只是去暴力地增加能源,或者去暴力的增加算力,而是涉及到我們如何有效地規模化。我們會從三個維度去思考如何提高效率:首先是提升 Token 效率。它代表的是從同樣的資料中能夠學到多少智能。因為這個世界上的有效高品質資料,其實是一個常數,或者說是一個非常有限的值。如果你有更好的網路架構,或者有更好的最佳化器,那麼你就可以從有限的資料裡學到更多的智能。第二是擴展上下文長度。更長的上下文能力,意味著模型可以學會處理更複雜的任務。為此,我們設計了新的網路架構 Kimi Linear 和專門的訓練資料,來提升模型在長上下文時的表現。第三是 Agent 叢集。我們在最新模型 Kimi K2.5 中提出了一種新的規模化的方法,就是通過引入多個 Agent,讓很多個 Agent 可以一起去工作,形成 Agent 叢集。通過這種方式提升 AI 能完成的任務複雜度。這是我們 K2.5 Agent 叢集的一個內部測試結果。橫坐標是任務複雜度,縱坐標是執行時間,如果我們用這種單一 Agent 的方式工作,可以看到隨著任務複雜度逐漸提升,完成時間是指數增加的。如果你需要做一個非常複雜的任務,比如從頭去寫一個程式碼倉庫,去實現一個很複雜的功能,需要幾天甚至幾周的時間。但如果我們能夠平行,比如說開啟 100個 Agent 同時去做這個任務,然後在過程中它們會互相協作,互相協調和規劃接下來應該做的事情,就跟人類的組織一樣,那麼隨著任務複雜度的增加,執行時間其實沒有太大的變化。這意味著你可以在單位時間內去完成更加複雜的任務,使得原來一些完全不可能實現的任務變得有可能。就像一家公司,如果你想做一個非常艱難的事情,完成一個很複雜的使命,比如說從 0 到 1 建造一家 100 億或者 1,000 億美元的公司,那麼你只靠一個人,可能要 100 年才能做出來,那你在市場上是沒有競爭力的,但這個時候如果你有100 或者 200 個非常聰明的人,能一起協作,那就有可能在短時間內完成。通過 Agent 叢集能力,我們可以實現規模化的輸入,比如說你可以同時去調查幾百個不同的資料來源,在各種權威的資料來源裡面尋找答案;你也可以做規模化的輸出,比如說你可以通過閱讀這些資料來源,去撰寫一個幾百頁的論文;以及去規模化的執行或規模化的編排,去提升模型能處理的任務複雜度。同時,我們非常注重研發更好的底層網路架構。這是我們最新開放原始碼的模型架構,叫做注意力殘差(Attention Residuals)。這項技術主要的靈感來自於 10 年前的技術 Resnet, 或者叫殘差網路連線。在十年之前,其實沒有任何人有辦法去訓練深度的神經網路。直到何凱明等研究者引入殘差網路,可以讓模型去訓練幾十、幾百層的網路,可以任意的增加層數。這種殘差結構,其實可以認為是 LSTM 網路的一個變種,只是說 LSTM 是應用在時間的維度上,殘差網路更多體現在網路深度上,使得每一層可以用上一層的輸出,然後做一個函數的處理,得到當前這一層的輸出。我們把類似的思路做一個自然的泛化,把注意力機制這種計算模式做 90 度的旋轉,從原來只是應用在時間軸上,現在我們可以把它應用在深度上。把注意力應用到深度上有很多好處,比如不僅僅只是基於前一層的輸出來進行計算,而是可以去結合之前的所有層的輸出進行計算,這樣在最佳化網路架構性能的時候就有非常多好處。這是我們整個注意力殘差的架構圖。左邊是標準的殘差結構,右邊是我們提出來並開放原始碼的殘差結構。然後,我們也設計了基於塊狀的殘差結構,使它能夠非常高效地實現。基本上在只有 2% 額外成本的情況下,就大幅度提升了效果。就像我剛才說的,大模型的第一性原理是規模化定律(Scaling Law),但我們不僅僅只是去暴力的做規模化,而是希望我們在規模化的同時也能夠去提升效率,所以我們一直致力於研發更強的模型架構。比如像 Adam 最佳化器或者像 Attention 架構、殘差連接這些都是有了 10 餘年歷史的技術。在電腦領域,十年其實是非常長的時間。過去十年的時間裡面,沒有任何人能夠去挑戰這些技術,大家都把它當成一個標準。但隨著現在算力的提升和大家研發方式的變化,從原來的偏學術,單純從想法(idea)出發的研究,到變成現在更加重視與工程的結合,然後可以設計非常紮實的規模化驗證實驗,從而得到非常紮實的結論。因此,很多以前認為是標準的東西,現在都可以被挑戰。我們看到,開源模型正在逐漸成為新的標準。這是幾張從剛剛結束的輝達 GTC 2026 大會上,黃仁勳的主題演講中裡面摘取的幻燈片。可以看到,以 Kimi K2.5 為代表的開源模型,已成為全世界所有晶片廠商測試硬體性能的基準:如果發佈新的晶片,就會通過 Kimi 或者其他開源模型來評測晶片性能提升幅度。現在,全世界很多研究機構也在用 Kimi K2.5 或其他的開源模型去進行研究。我們通過開源,讓每一個企業、每一個研究者、每一個終端使用者,都能以非常低門檻獲取智能,是一個非常重要的事情。同時我們做的很多重要的創新,包括我剛提到的新的架構也是開放的,可以被任何人所獲取。最終,大家能夠去形成一個開源生態系統,一起推動 AI 領域的發展。最後想跟大家分享,從模型訓練的角度看,大模型領域仍在快速發展,現在的研發方式跟兩三年之前會有很大不同:2023 年和 2024 年,大家主要使用「天然」資料。也就是從整個網際網路獲取的資料,加上一些少量的人工標註,比如去標註某一條資料是不是符合價值觀或者偏好。2025年,大家更加重視搭建大規模的強化學習系統。但要靠人篩選高品質任務,然後在這些任務上做強化學習得到更好的效果。可以看到,在程式設計或者數學領域上得到的能力提升,主要就來自於這種技術路線。從 2026 年開始,包括接下來的若干年時間內,整個 AI 研發的方式會發生重大變化:更多由 AI 去主導研究。每個研究員會配備非常多的 AI Token, 然後這些 AI 的 Token 可以幫你去合成新的任務,幫你合成新的環境,幫你定義在這個環境下面最好、最合適的獎勵函數是什麼。甚至可以去幫你探索新的網路架構可能長什麼樣。因此,整個 AI 的研發也會逐漸加速。我們希望也能夠跟整個開源社區一起,打造更好的生態系統,不斷把技術往前推進,加速探索智能的上限。感謝大家。 (深科技)
朱嘯虎2025年中關村論壇演講完整版:所有AI應用壁壘都在技術之外,要更懂商業,要全力出海
3月31日,在2025中關村論壇年會AI未來論壇上,金沙江創投主管合夥人朱嘯虎發表了以《生成式AI:應用為王!》為主題的演講。以下分別為演講摘要、演講視訊和演講全文,值得一看~演講摘要圖片來源見水印▶ 就中國的科技投資,非常注意的一點就是科技成熟之前很難商業化,但是科技成熟以後迅速平權,所以這個最大受益人到底是誰?所以要仔細思考的一個問題就是技術平權以後誰會是最大收益者,終局會怎麼樣。▶  做AI應用的公司,基本都是十幾個人,就能很快的在6到12個月做到千萬美金的收入。▶  對很多創業者來說,是技術路線不重要,重要的是商業場景,重要是產品。你懂不懂你的客戶,你懂不懂客戶的需求在那裡?能不能開發出他們需要的產品,能不能試用一下就付費。▶  我們給中國創業的建議是在國內打磨產品,打磨團隊,馬上出海,靠國內基本上都是白菜價,然後在海外賺取利潤。▶  我們發現中國團隊在出海,在日本、在東南亞、在中東都是沒有競爭對手的。基本上出海現在全世界只有中國和美國有AI的落地能力,甚至在美國有一半的團隊是中國人,所以中國確實在AI應用落地上能力還是非常強的。▶ 今天的AI應用創業者,要勇於承認自己沒有壁壘,有任何技術壁壘都是騙人的,都是忽悠人的。我就是靠這個底層模型提供能力,但是我更懂使用者,更懂產品,所有的應用都是套殼應用,但是我可以在很多非AI的能力上建立壁壘,這所有的能力都來自於AI之外,都來自於苦活累活。▶ 中國AI賦能軟體可能有機會像超過美國的這軟體公司,就是我們用直接用AI交付結果,我們不賣軟體了,只用AI交付結果。這是今天中國的軟體公司迅速爆發的一個很大的機會點。演講全文圖片來源見水印大家下午好,很高興回到海淀,回到中關村。中關村其實是中國網際網路的搖籃,非常多的網際網路公司起步於海淀,起步於華清家園。20年前我剛開始做VC的時候,其實很幸福的,那時候只需要蹲點在華清家園就行了。我們最近也在反思中國網際網路和創投過去20年的歷史。其實過去網際網路20年經歷過很多風口,今天這些風口都已經被證明是商業模式成立的。但是當年他們都經歷過泡沫期,然後被嘲笑,回落到死亡谷,然後再從死亡谷重新再發展起來,重新再爬出來,最終都成功的。當年最早的入口網站,那時候講eyeball,講眼球經濟,大家都嘲笑有眼球怎麼賺錢,光有眼球怎麼賺錢,到今年已經證明完全不是問題。到長視訊優酷土豆的時候,大家也是講eyeball,中國人願不願意為長視訊付費。今天全中國為長視訊訂閱付費的超過1億人。當然後面的像打車、外賣、共享單車、共享行動電源,今天都證明商業模式是成功的。但當時都被嘲笑過,對吧?共享行動電源雖然發生了很多故事,但是全行業今天每天5000萬單以上,今天在外面騎共享單車就非常好。共享行動電源也是一樣的,雖然今天美團可能佔據了50%以上的市場份額,但是剩下3000家企業都是規模化利潤的,對吧?每年基本都在1到2億利潤以上。過去五六年我覺得進入科技時代以後,我們感覺也是同樣的在走非常類似的歷程。比如說18、19年的元宇宙,在2021年的SaaS軟體,然後過去兩年的這個大模型,我覺得這些都很快被證偽,對吧?但是在一開始的時候都是熱點非常高對吧?但是很快證偽,然後今天可能沒人再看元宇宙,沒人再看SaaS軟體了,對吧?但是我們可能感覺這裡面又在死亡谷當中又孕育著希望,比如說這個像元宇宙。蘋果的Vision Pro雖然很酷、很炫,但是商業化做的非常不好。但是Meta Ray-Ban就做的很好,對吧?現在出貨量已經超過200萬副。但是Meta Ray-Ban可能就是做減法,做的特別成功,不需要那麼酷那麼炫的功能,就聚焦在一些最簡單的功能上,把這些最簡單的功能做好。所以今年我們可以看到在中國可能會發佈無數款的這種AR眼鏡,對吧?那可能說元宇宙又以另外一種方式在恢復。SaaS軟體也是一樣的,SaaS軟體在20年、21年非常火,中國的所有投資人都在追逐軟體企業,那時候瘋狂的到像系統整合收入,客戶定製收入都能給十倍20倍的估值。但很快兩年以後,現在沒人願意說自己是這個軟體投資人了,對吧?為什麼呢?因為美國軟體企業為什麼發展,給投資人賺了很多錢,因為他們發展速度很快,每年3倍、2倍,很快就能到1億美金收入,對吧?那中國可能到1億人幣以後,收入的增長速度就迅速放緩。但是今年Deep Seek出來以後,我們看到春天的可能性,今年3月份我們看到很多軟體企業同比收入增長比去年翻了3倍以上,今年積極擁抱AI的、積極擁抱Deep Seek的這些軟體,我覺得中國的歡迎程度迅速的爆發,所以如果到今年年底能保持這樣的增長速度,那麼中國軟體企業春天可能就到來了。但是當年在高點上融了很多錢,燒了很多錢的軟體企業可能就看不到春天了。但所有嚴守商業紀律的軟體企業,終於我覺得可能看到了隧道盡頭的曙光,大模型也是一樣的,大模型我覺得過去兩年非常火,但今年Deep Seek出來以後,明顯的市場開始看淡。但是我們可以看到很多作為AI應用的企業,也是今天的我講的主題,開始爆發式收入增長。圖片來源見水印收入增長速度幾乎和當年團購企業一樣,這是非常驚人的。但是應用企業基本上都想低調發財,對吧?不像這些大模型企業天天打榜給政府看,但是應用企業幾乎沒人想告訴別人我很賺錢。今天我就主要分享一些大家已經公開的案例。因為太多的企業我們都不願意說,企業也不願意我們去報導他們,對吧?我覺得Deep Seek出來以後,確實是對整個大模型的AI生態有個巨大的變化。在Deep Seek出來之前,我們感覺也是可能在閉源模型在往前面走不動的時候,開源模型會逐步追上來,最終是IOS和Android兩種生態。但是Deep Seek是完全不一樣的,它甚至比Android更開放,但是不僅不要商業化,甚至都不要使用者。這也是為什麼騰訊在今年以後會全力擁抱Deep Seek,騰訊是Deep Seek開放原始碼的最大受益者,這是我覺得是一個非常好的一個案例。就中國的科技投資,非常注意的一點就是科技成熟之前很難商業化,但是科技成熟以後迅速平權,所以這個最大受益人到底是誰?所以要仔細思考的一個問題就是技術平權以後誰會是最大收益者,終局會怎麼樣,對吧?大家都沒可能都沒想到在Deep Seek出來之後,最大受益人是騰訊。騰訊元寶是超越了以前所有大模型都要排到第一去了,對吧?因為騰訊確實有流量優勢,它推廣以後特別容易,所以我們一直建議創業公司不要浪費一分錢去訓練底層模型,全力擁抱開源模型,全力擁抱這個API。今年,確實底層模型成熟以後,我們發現很多應用公司的收入開始爆發性增長。這些舉的例子都是美國的公司例子。但是在過去六個月,我們在中美都看到非常多的創業,開始收入爆發增長。就是每周比上周環比增長10%以上,月環比增長20%以上。雖然今天數字還非常小,但是這個增長速度是真的是很類似於當年團購早期增長速度,所以是非常讓我們興奮的,是我們今天要具體關注的項目,所以我們現在非常忙,就在看這些應用項目。而且是公司不需要很多人,十幾個人,基本都是十幾個人,就能很快的在6到12個月做到千萬美金的收入。中國的公司能做到6到12個月做到千萬美金收入,就月收入過100萬美金,這個是非常驚人的。但是在今天我們看到十幾個公司有這樣的案例,這個是非常讓人興奮的。為什麼能增長這麼快?主要是今天的模型,在很多場景下已經達到PMF,已經達到讓使用者付費的這個地步了。雖然很多人說Scaling Law可能還能往前走,那個xAI Grok3確實證明了只要砸錢砸到20萬張卡,可能還能比前面的模型再進步各10%,對吧?但是不重要,這個後面的10%、 20%不重要。圖片來源見水印今天的基礎模型不管是Deep Seek還是通義千問,或者豆包,都已經達到在很多場景下可以做到商業化程度了。但我們看看到在客服端、在銷售端、在會議紀要端、在行銷文案端、在語言教學端,都可以做到很多很多的商業化,而且都能做到這個收入增長速度是做到這個月環比增長20%以上速度是吧?最重要的是,對很多創業者來說,是技術路線不重要,重要的是商業場景,重要是產品。你懂不懂你的客戶,你懂不懂客戶的需求在那裡?能不能開發出他們需要的產品,能不能試用一下就付費,這種是就試用一下就付費,這種速度才會造成這樣今天這麼快的增長速度。而且很多時候,我覺得在中國我們感覺這個競爭還是非常白熱化的。在美國今天也是一樣的,我們發現今天美國的VC也不投大模型了,美國的VC很多很多錢在AI應用上,在任何一垂直賽道上,可能都有十幾家公司拿到這個風險投資,所以今天可能是美國第一次創業公司之間會打價格戰。在中國打價格戰實際那家常便飯了,對吧?我們給中國創業的建議是在國內打磨產品,打磨團隊,馬上出海,靠國內基本上都是白菜價,然後在海外賺取利潤。我們發現中國團隊在出海,在日本、在東南亞、在中東都是沒有競爭對手的。基本上出海現在全世界只有中國和美國有AI落地能力,甚至在美國有一半的團隊是中國人,所以中國確實在AI應用落地上能力是非常強的。很多投資人都在說,所以歷史真的是重複的對吧?很多投資人今天為什麼不敢投AI應用?都覺得AI應用沒有壁壘。這是讓我想起來十幾年前,移動網際網路的時代也是一樣的。當年為什麼大家看不起滴滴,看不起餓了麼,看不起小紅書?在A輪的時候我們分給別人都沒人要。大家覺得APP有啥壁壘?沒有任何壁壘。所以今天的AI應用創業者,要勇於承認自己沒有壁壘,有任何技術壁壘都是騙人的,都是忽悠人的,對吧?就是沒有壁壘,我就是靠這個底層模型提供能力,但是我更懂使用者,更懂產品,所有的應用都是套殼應用,但是我可以在很多非AI的能力上建立壁壘,這所有的能力都來自於AI之外,都來自於苦活累活,對吧?比如說我們後面會分享的一些案例,在這個整合工作流上,在編輯能力上,在專有硬體上,在人工交付的苦活累活上,這些是創業者可以建立的壁壘。圖片來源見水印Liblib也是北京的企業,它就在海淀,在中關村,對吧?這個也是從一片紅海當中殺出來的。我們天使投資的時候,中國有十幾家做文生圖的這個公司。大家一直都覺得文生圖有啥壁壘啊,文生圖用midjourney、用SD對吧?今天這個GPT4o出來文生圖的模型以後,這個簡直沒有任何壁壘,誰都可以做,就搶入口的。但他們面向不一樣,他們不是面向C端,我同意的,面向C端沒有任何入口,所以沒有任何壁壘,誰掌握入口誰就會掌握使用者,對吧?但是它面向中國專業的設計師,中國一共差不多2000萬專業的設計師,他們已經基本上全部佔領了,而且月活500多萬。今天他們的收費還在非常克制的情況下,月收入增長都非常快,所以基本上在國內已經做成完全的市場第一名了,然後很快也會在考慮出海,他們的核心能力不是生圖,他們整合都是開放原始碼的生圖模型,核心能力是編輯。他們就是AI版的Photoshop,提供了非常複雜的編輯功能。簡單的編輯可能需要培訓半天,複雜的編輯可能需要培訓2到3周才能使用,這完全和Photoshop的效果是一樣的,這種就是編輯能力反而是今天的壁壘。ABridge是美國的一個企業,我就講了會議紀這麼一個細分場景,大家看上去非常簡單,你用手機、用chatgpt就可以直接做會議紀要。在這麼一個細分場景裡面,全世界幾十家公司在各種場景裡面都做的非常好啊。ABridge就是給這個醫生和病人之間問診,它把這個語音記錄下來,自動轉成文字,根據各個州的要求,自動轉成各個州要的病歷卡,這個就是面向醫院大B收費的公司,拿了Bessemer的融資,都發展的非常好。但是這個行業美國現在有同樣也有十幾家公司做,對吧?Bessemer投了ABridge,然後紅杉美國馬上投了一個專門賣向醫生個人的這種類似軟體,然後還有個做獸醫的,也發展的非常好。就這麼一個細分場景裡,關鍵是你能不能達成90%以上的精準率,精準率是特別重要的。這個場景裡面還有很多公司做這個商業化做得很好。PLAUD這是一個中國的年輕人在美國創業做的一個非常簡單的一個硬體。像電子名片一樣貼在手機後面,可以把你的任何電話或者電話會議轉成會議紀要。它的軟體就是直接接GPT,這麼簡單的功能,對吧?完全是從深圳定製的這個名片硬體,去年收入七千多萬美金,現在月收入超過一千多萬美金。這個兩年的公司,據說現在已經在準備在美國IPO了。循環智能,大家知道循環智能可能是更多的是因為它和月之暗面之間的糾紛。但是今天循環智能做的非常好,它在垂直的AI場景,AI Agent場景裡面,基本上佔領了中國汽車4S店銷售的80%的市場份額。它同樣的具有自己的專有硬體,一個AI的名片給銷售人員帶著胸前,汽車4S店的銷售人員給客戶賣車的時候,它可以自動記錄下來,自動分析有沒有根據SOP這種話術規範,然後有什麼問題,如果漏了什麼賣點,它甚至可以自動的提示銷售人員。所以最重要的是每天的這個例會不用開了,以前給些銷售人員賣這些硬體軟體都很難,他們覺得是管理他們的,他們都不太願意去接受這些管理軟體。但是今天解放他們,以前每天結束以後,這個銷售經理召集銷售員開例會不用開了,現在全部自動的,像自動向銷售經理匯報。每個銷售人員今天談了幾個客戶,談的效果怎麼樣,話術怎麼樣,有沒有按照規範來,有那些客戶是有可能性的,現在就開不用開例會了,銷售人員完成任務就可以自己下班了,所以銷售人員就非常願意接受這樣的產品的AI產品。現在國內的汽車4S店基本都已經佔領了。然後現在也在進入金融領域。今天如果在座的金融行業的領導也可以考慮這樣的產品,這個是非常好的、一個新的AI賦能的軟硬體結合的產品。這個是我一直在講的Fancy,就是苦活累活,文生圖這個編輯功能,文生視訊更難,光靠編輯還可能解決不了,我把這個編輯功能全部接過來,我們在美國也投了一個公司一樣的,把編輯功能外包到印度去,中國就是外包到二三線城市的工作室來做編輯功能。這個視訊可能95%的AI、5%的人工,對吧?這個可能要50%、60%的AI、40%、50%的人工。就不同質量、不同客戶要求,它需要的AI的編輯功能和人的編輯功能可能是不一樣的。這個也差不多50%的AI、50%的電,所以這些人參與的苦活累活,這都是大廠不願意幹的。百度Robin為什麼說百度不願意研發這個文生視訊的模型?他就感覺五年之內,文生視訊是不可能100%交付商用的,是必須要人工編輯的,這就是創業公司的機會。同樣的我們也不是研發任何頂層模型,我們整合了幾百個各種各樣的文生視訊的模型。根據使用者的風格,像中東的客戶,他們在中東賣的非常好,中東客戶要符合中東風格這個要求的。比如他對這個面巾都有各種要求,你不能露出來是吧?這種要符合他們的規範,各種垂直場景的視訊模型,但是我生成以後,靠中國二三線城市工作室來進行人工編輯,就直接交付給這個企業需求的最終產品。所以這也是中國為什麼AI賦能軟體可能有機會像超過美國的這個軟體公司,就是我們用直接用AI交付結果,我們不賣軟體了,只用AI交付結果。這是今天中國的軟體公司迅速爆發的一個很大的機會點。消費電子這個其實可能是元宇宙再次回來了一個非常好的契機。而且中國的公司特別有優勢,因為全部在大灣區,任何硬體基本都在大灣區開發的。但是同樣的要做減法,不要做加法,做減法,加法是太複雜了,因為這個消費電子的供應鏈太複雜了。今年春節前就有一個創業公司花了融資了一半的錢,開發開了一個巨大的發佈會,但是春節以後交付不了,這就是很大的陷阱,千萬不要陷入這個加法的陷阱裡面去。所以我覺得最後講一下,就是AI我覺得這一波是在應用端中國有巨大機會,但是我覺得這個還是要注重商業化,所有的AI應用的壁壘都在AI之外,在技術之外,要更懂商業,然後要全力出海。好,謝謝大家。 (超算百科)