楊植麟主持、羅福莉張鵬拋乾貨,這場“龍蝦局”把AI未來聊透了
大模型真正開始“幹活”,token需求或增長百倍。
智東西3月27日報導,今天,在中關村論壇上,智譜CEO張鵬、月之暗面CEO楊植麟(擔任主持)、小米MiMo大模型負責人羅福莉、無問芯穹CEO夏立雪和香港大學助理教授黃超罕見同台,進行了一場圍繞開源大模型與智能體未來走向的深度對話。
這場對話以當下最火的OpenClaw切入,幾位嘉賓一致認為,智能體讓大模型真正開始“幹活”了。OpenClaw可擴展大模型的能力邊界,但也對模型提出了更高要求,智譜正研究長程規劃、自我偵錯等能力,而羅福莉的團隊更關注通過架構創新把成本降下來、速度提上去,甚至實現模型自進化。
基礎設施也得跟上智能體的節奏。夏立雪認為現在的算力系統和軟體架構還是給人用的,不是給智能體用的,其實是用人的操作能力限制了Agent的發揮空間。因此,我們需要打造Agentic Infra。
在多位嘉賓眼中,開源是推動大模型與智能體發展的核心動力之一。香港大學助理教授黃超便認為,開源生態的繁榮是智能體從“玩一玩”走向真正“打工人”的關鍵,只有通過社區共建,才能讓軟體、資料和技術全面轉向智能體原生形態,最終形成可持續的全球AI生態。
此外,幾位嘉賓還就大模型漲價、token用量爆發、AI未來12個月的關鍵詞等話題,展開討論。以下是這場圓桌論壇的核心觀點:
1、張鵬:模型變大後推理成本也會相應提高,近期智譜的漲價策略其實是回歸到正常的商業價值上了,長期低價競爭不利於行業發展。
2、張鵬:智能體等新技術的爆發讓token用量增長了10倍,但實際需求可能增長100倍,仍有大量需求未被滿足,因此算力仍然是未來12個月內的關鍵問題。
3、羅福莉:從基座大模型廠商的視角來看,OpenClaw保證了基礎大模型的下限,拉高了上限。國產開源模型+OpenClaw的任務完成度已經非常接近Claude。
4、羅福莉:DeepSeek給國內大模型廠商帶來了勇氣和信心。一些看似是“為了效率妥協”的模型結構創新引發了真正的變革,讓業界在算力一定的情況下發揮出最高的智能水平。
5、羅福莉:接下來一年AGI歷程中最重要的事情是“自進化”。自進化讓大模型像頂尖科學家一樣去探索,是唯一能“創造新東西”的地方。小米已經借助Claude Code+頂尖模型,將研究效率提升10倍。
6、夏立雪:當AGI時代到來時,基礎設施本身都應該是智能體,自主管理整個基礎設施,根據AI客戶的需求去迭代基礎設施,實現自我進化、自我迭代。
7、夏立雪:OpenClaw引爆了token用量。如今的token消耗速度,就像當年3G時代手機流量剛起步時,每個月只有100M額度的那種感覺。
8、黃超:未來很多軟體都不是面向人類的,軟體、資料和技術都會程式設計Agent-Native的形態,人類未來可能只需要使用那些“讓自己快樂的GUI”。
以下是這場圓桌論壇的完整實錄:
01. OpenClaw就是“腳手架” 大模型token消耗仍處於3G時代
楊植麟:很榮幸今天能邀請到各位重磅嘉賓,幾位嘉賓來自模型層、算力層再到agent層。今天最主要的關鍵詞是開源,然後還有agent。
第一個問題來談談現在最流行的OpenClaw。大家日常使用OpenClaw或者類似的產品有什麼覺得最有想像力或者印象深刻的點?從技術的角度來看,如何看待今天OpenClaw和相關的Agent的演進。
張鵬:很早我就開始自己玩OpenClaw,當時還叫Clawbot。我自己動手來折騰,畢竟也是程式設計師出身,玩這些東西還是有一些自己的體驗。
我覺得OpenClaw給大家帶來的最大突破點,或者說新鮮感就在於,它不再是程式設計師或極客們的專利。普通人也可以比較方便地使用頂尖模型的能力,尤其是在程式設計和智能體方面的能力。
所以我到現在為止,跟大家在交流的過程當中,我更願意把OpenClaw稱作“腳手架”。它提供的是一種可能性,在模型的基礎之上搭起了一個很牢固、很方便,但是又很靈活的腳手架。大家可以按照自己的意願,去使用很多底層模型提供的新奇功能。
原來自己的想法可能會受限於不會寫程式碼,或者沒有掌握其他的相關技能,今天有了OpenClaw,終於可以通過很簡單的交流就把它完成。
OpenClaw給我帶來非常大的衝擊,或者說讓我重新認識了這件事。
夏立雪:其實我最開始用OpenClaw的時候是不太適應的,因為我習慣於跟大模型聊天的交流方式,使用後我感覺OpenClaw反應好慢。
但後來我意識到一個問題,就是它和之前的聊天機器人有一個很大的不同,本質是一個能幫我完成大型任務的“人”。我開始給它提交更複雜的任務,就發現其實它能夠做的很好。
這件事情給我帶來很大的感觸。模型一開始按照token去聊天,到現在能夠變成一個agent,變成一個龍蝦,能夠幫你去完成任務。這件事對AI的整體想像力空間帶來很大的提升。
同時,它對於整個系統的能力的要求也變得很高。這也是為什麼我一開始用OpenClaw,會覺得它有點卡。作為基礎設施層的廠商,我看到的是OpenClaw對於AI背後的大型系統和生態都帶來了更多的機遇和挑戰。
我們現在所有能夠用到的資源,想要支撐起這樣一個快速增長的時代是不夠的。比如說就拿我們公司來說,我們公司從一月底開始,基本上每兩周token用量就翻一番,到現在基本上漲了10倍。
上次見到這個速度,還是當年用3G手機消耗流量的時候。我有種感覺,現在的token用量,就像當年每個月只有100M手機流量的那個時代。
這種情況下,我們所有的資源都需要進行更好的最佳化,進行更好的整合。讓每一個人,不僅僅在AI領域,而是在整個社會中的每一個人都能夠去把OpenClaw的AI能力用起來。
作為基礎設施的玩家,我對這個時代是非常激動、深有感觸的。我也認為這裡邊有很多的最佳化空間是我們仍然應該去探索,應該去嘗試的。
02. OpenClaw拉高國產模型上限 互動模式突破意義重大
羅福莉:我自己是把OpenClaw當做agent框架演進過程中,一個極具革命性和顛覆性的事件來看待的。
其實我身邊所有在進行非常深度coding的人,他們的第一選擇還是Claude Code。但是,我相信用OpenClaw的人會感受到,它在Agent框架上的很多設計是領先於Claude Code的。最近Claude Code有很多更新其實都是在向OpenClaw去靠近。
我自己使用OpenClaw時的感受是,這個框架給我自己帶來更多是想像力的隨時隨地的擴展。Claude Code最開始只能在我的桌面上去延展我的創意,但是OpenClaw可以隨時隨地去延展我的創意。
OpenClaw帶來的核心價值主要有兩點。第一點是它開源。開源這件事,非常有利於整個社區深度參與進來,重視並推動這個框架的演進,這是一個很重要的前置條件。
像OpenClaw這樣的AI框架,我覺得一個很大的價值在於,它把國內那些水平雖然接近閉源模型、但還沒完全追上的模型的上限拉到了很高。
在絕大多數場景下,你會發現它(國產開源模型+OpenClaw)的任務完成度已經非常接近Claude的最新模型。同時,它又很好地把下限保證了——通過一套Harness系統,或者說借助它的Skills體系等多方面的設計,保障了任務的完整度和精準率。
總結一下,從基座大模型廠商的開發者角度來看,OpenClaw保證了基礎大模型的下限,拉高了上限。
此外,我認為它給整個社區帶來的另一個價值是,它點燃了大家的認知,讓大家發現在大模型之外,Agent這一層其實蘊藏著非常大的想像空間。
我最近也觀察到,社區裡除了研究員之外,越來越多的人開始參與到AGI的變革中來,更多人開始接觸像Harness、Scaffold這樣更強大的Agent框架。這些人某種程度上是在用這些工具替代自己的一部分工作,同時也是在釋放自己的時間,去投入到更有想像力的事情上。
黃超:我覺得首先從互動模式來講,OpenClaw這次之所以能火,第一個原因可能是它給了一種更有“活人感”的體驗。其實我們做Agent也有一兩年了,但之前像Cursor、Claude Code這些Agent,給人的感覺更多是一種“工具感”。而OpenClaw第一次以“即時通訊軟體嵌入”的方式,讓人更有一種接近心目中“個人賈維斯”的感覺。我覺得這可能是互動模式上的一個突破。
另外一點,它給整個社區帶來的啟發是:像Agent Loop這種簡單但高效的框架,再次被證明是可行的。同時,它也讓我們重新思考一個問題:我們到底是需要一個全能型的、能做所有事情的超級智能體,還是需要一個更好的“小管家”,像一個輕量級的作業系統或腳手架?
OpenClaw帶來的思路是,通過這樣一個“小系統”或者說“龍蝦作業系統”和它的生態,讓大家真正有“玩起來”的心態,進而撬動整個生態裡的所有工具。
隨著Skills、Harness這類能力的出現,越來越多的人可以去設計面向OpenClaw這類系統的應用,去賦能各行各業。我覺得這一點天然就跟整個開源生態結合得非常緊密。在我看來,這兩點是我們獲得的最大啟發。
03. GLM新模型專為“幹活”打造 漲價是對正常商業價值的回歸
楊植麟:想問一下張鵬。最近看到智譜發佈了新的GLM-5 Turbo模型,我理解在Agent能力上做了很大的增強。能不能給大家介紹一下這個新模型和其他模型的不同之處?另外我們也觀察到有提價的策略,這反映了什麼樣的市場訊號?
張鵬:這是個很好的問題。前兩天我們確實緊急更新了一波,這其實是我們整個發展路標中的一個階段,只是提前把它放了出來。
最主要的目的,是從原來的“簡單對話”轉向“真正幹活”——這也是大家最近普遍感受到的:大模型不再只是能聊天,而是真的能幫人幹活了。
但“幹活”背後隱含的能力要求非常高。模型需要自己去做長程的任務規劃、不斷試錯、壓縮上下文、偵錯,還可能要處理多模態資訊。所以它對模型能力的要求,和傳統面向對話的通用模型其實不太一樣。GLM-5 Turbo就是在這些方面做了專門加強,尤其是你提到的——讓它幹活、跑上七十二小時,怎麼能夠不停地loop,這裡邊我們做了很多工作。
另外大家也很關注token消耗的問題。讓一個聰明的模型去幹複雜任務,token的消耗量是巨大的。普通人可能感知不深,但看帳單的時候會發現錢掉得特別快。所以我們在這方面也做了最佳化,在面臨複雜任務時,模型能用更高效的token效率去完成。總體上,模型的架構還是多工協同的通用架構,只是在能力上做了偏向性的加強。
提價這件事其實也很好解釋。剛才說了,現在不再是簡單地問一個問題就得到一個回答,背後的推理鏈路非常長。很多任務要通過寫程式碼和底層基礎設施打交道,還要不斷debug、修正錯誤,消耗量非常大。完成一個複雜任務需要的token量,可能是原來回答一個簡單問題的十倍甚至百倍。
所以價格上需要有一定的提升,模型也變大了,推理成本相應提高了。我們把它回歸到正常的商業價值上,因為長期靠低價競爭也不利於整個行業的發展。這也是我們讓商業化能形成一個良性閉環,持續最佳化模型能力,給大家提供更好服務的。
04. 打造更高效token工廠 基礎設施本身也應該是Agent
楊植麟:現在開源模型越來越多,也開始形成生態,各種模型可以在不同的算力平台上給使用者提供更多價值。隨著 token用量的爆發,大模型也正在從訓練時代走向推理時代。想請教一下立雪,從基礎設施的層面來看,推理時代對於無問來說意味著什麼?
夏立雪:我們是一家誕生在AI時代的基礎設施廠商,現在也在為智譜、Kimi、Mimo等提供支援,讓大家能把token工廠更高效地用起來。同時我們也在跟很多高校、科研院所合作。
所以我們一直在思考一件事:AGI時代需要什麼樣的基礎設施?以及我們怎麼一步步去實現和推演它。我們現在對短期、中期、長期不同階段需要解決的問題,已經做好了充分準備。
當前最直接的問題,就是大家剛才聊到的——整個Open帶起來的token量暴增,對系統效率提出了更高的最佳化需求。包括價格的調整,其實也是在這個需求下的一種應對方式。
我們一直是通過軟硬體打通的方式來佈局和解決的。比如我們接入了幾乎所有種類的計算晶片,把國內十幾種不同的晶片和幾十個不同的算力叢集統一連接起來。這樣能解決AI系統裡算力資源緊缺的問題,資源不足時,最好的辦法就是先把能用上的資源都用起來,然後讓每一個算力都用在刀刃上,發揮出最大的轉化效率。
所以在這個階段,我們要解決的就是怎麼打造一個更高效的token工廠。這裡邊我們做了很多最佳化,包括讓模型和硬體上的視訊記憶體等各種資源做最優適配,也在看最新的模型結構和硬體結構之間能不能產生更深的化學反應。但解決當前的效率問題,其實只是打造了一個標準化的token工廠。
面向Agent時代,我們認為這還不夠。因為Agent更像一個人,可以交給它一個任務。我堅定地認為,當前很多雲端運算時代的基礎設施,是為服務一個程序、服務人類工程師設計的,而不是為AI設計的。這相當於我們做了一個基礎設施,上面是給人用的介面,再在上面包一層去接入Agent,這種方式其實是用人的操作能力限制了Agent的發揮空間。
舉個例子,Agent能做到毫秒等級去思考和發起任務,但像K8s(kubernetes)這類底層能力,其實並沒有為此做好準備,因為人類發起任務大概是分鐘級的。所以我們需要更進一步的能力,我們把它叫“Agentic Infra”,也就是“智慧化的token工廠”,這是無問芯穹在做的事情。
更長遠地看,真正AGI時代到來時,我們認為連基礎設施本身都應該是智能體。我們打造的這套工廠,也應該是能自我進化、自我迭代的,能形成一個自主的組織。它相當於有一個CEO,這個CEO本身就是一個Agent,可能是OpenClaw,去管理整個基礎設施,然後根據AI客戶的需求自己去提需求、迭代基礎設施。這樣AI和AI之間才能更好地耦合。我們也在做一些探索,比如讓Agent之間更好地通訊、做Cache to Cache這樣的能力。
所以我們一直在思考的是,基礎設施和AI的發展不應該是一個隔離的狀態——我接到需求就去實現,而是應該產生非常豐富的化學反應。這才是真正意義上的軟硬協同、演算法和基礎設施的協同,也是無問芯穹一直想實現的使命。謝謝。
05. “為效率妥協”的創新也有意義 DeepSeek給國內團隊帶來勇氣和信心
楊植麟:接下來想問一下福莉。小米最近通過發佈新模型、開源背後的技術,對社區做出了很大的貢獻。想問你,小米在做大模型方面,你覺得有什麼獨特的優勢?
羅福莉:我覺得可以先拋開小米有什麼獨特優勢這個話題,我更想聊一聊中國做大模型的團隊整體上的一個優勢。我覺得這個話題有更廣泛的價值。
大概兩年前,中國的基座模型團隊已經開始了非常好的突破——我們在有限的算力、尤其是在一些NVLink互聯頻寬受限的算力條件下,怎麼去突破這些低端算力的限制,做一些看似是“為了效率妥協”的模型結構創新,比如DeepSeek V2、V3系列,以及MoE、MLA等等。
但後來我們看到,由這些創新引發的是一個變革:在算力一定的情況下,怎麼發揮出最高的智能水平。這是DeepSeek給國內所有基座模型團隊帶來的勇氣和信心。雖然今天我們的國產晶片,尤其是推理晶片,以及訓練晶片,已經不再受這種限制,但正是在這種限制下,催生了我們對更高訓練效率、更低推理成本的模型結構的新探索。
就像最近出現的Hybrid Sparse、Linear Attention這類結構,比如DeepSeek的NSA、Kimi 的KSA,小米也有面向下一代結構的HySparse。這些都是區別於MoE這一代結構的、面向Agent時代去做的模型結構創新。
我為什麼覺得結構創新如此重要?其實大家如果真正地去用OpenClaw,會發現它越用越好用、越用越聰明。其中一個前提是推理的上下文長度。長上下文是一個我們聊了很久的話題,但現在真正有模型能在長上下文下表現很好、性能強勁、推理成本很低嗎?
其實很多模型不是做不到1M或10M的上下文,而是因為推理1M、10M的成本太貴了、速度太慢了。只有把成本降下來、速度提上去,才能把真正高生產力價值的任務交給模型,才能在這種長上下文下完成更高複雜度的任務,甚至實現模型的自迭代。
所謂模型的自迭代,就是它可以在一個複雜環境裡,依靠超長的上下文完成對自我的進化。這種進化可能是對Agent框架本身的,也可能是對模型參數本身的——因為我認為上下文字身其實就是對參數的一種進化。所以怎麼實現一個長上下文的架構,怎麼在推理側做到長上下文高效推理,是一個全方位的競爭。
除了我剛剛提到的預訓練階段做好long-context-efficient的架構——這大概是我們一年前就開始探索的問題。現在真正要做到在長程任務上的穩定性和高上限的效果,是我們在後訓練階段正在迭代的創新範式。
我們在想怎麼構造更有效的學習演算法,怎麼採集到真實環境下、在1M、10M、100M上下文裡真正具有長期依賴關係的文字,以及結合複雜環境產生的軌跡資料。這是我們後訓練正在做的事情。
但更長期來看,由於大模型本身的飛速進步,加上Agent框架的加持,就像立雪說的,推理需求在過去一段時間已經有近十倍的增長。那麼今年整個token用量的增長會不會到100倍?
這裡邊又進入另一個維度的競爭——算力,或者說推理晶片,甚至再往下到能源。所以我覺得,如果大家一起思考這個問題,我可能會從大家身上學到更多。謝謝。
06. Agent有三大關鍵模組 多Agent爆發將帶來衝擊
楊植麟:非常有洞察的分享。下面想問一下黃超,你開發過像Nanobot這樣很有影響力的Agent項目,也有很多社區的粉絲。想問你從Agent的Harness或者應用層面來看,接下來有那些技術方向是你覺得比較重要、值得大家關注的?
黃超:我覺得如果把Agent的技術抽象出來,關鍵就是Planning、Memory和Tool Use這幾個模組。
先說Planning。現在的問題主要是在長程任務或者非常複雜的上下文中,比如500步甚至更長的步數,很多模型不一定能做很好的規劃。我覺得本質上是模型可能不具備這類隱性知識,尤其是在一些複雜的垂直領域。所以未來可能需要把各種複雜任務的知識固化到模型裡,這可能是一個方向。
當然,Skill、Harness在某種程度上也在緩解Planning帶來的錯誤,因為它提供了高品質的Skill,本質上也是在引導模型去完成一些比較難的任務。
再說Memory。Memory給人的感覺是,它好像總是存在資訊壓縮不精準、檢索不准的問題。特別是在長程任務和複雜場景下,Memory的壓力會暴增。現在像OpenClaw這類項目,大家用的其實都是最簡單的檔案系統式的 Markdown格式的Memory,通過共享檔案來做。未來Memory可能會走向分層設計,也需要讓它變得更通用。
老實講,現在的Memory機制很難做到通用——因為Coding場景、Deep Research場景、多模態場景,它們的資料模態差別很大,怎麼對這些Memory做好的檢索和索引,同時又保持高效,這永遠是一個權衡。
另外,現在OpenClaw讓大家建立Agent的門檻大幅降低之後,未來可能不止一個“龍蝦”。我看到Kimi也有Agent Swarm這樣的機製出來,未來每個人可能會有“一群龍蝦”。
相比於單個龍蝦,一群龍蝦帶來的上下文暴增是可以想像的,這對Memory的壓力會非常大。現在其實還沒有一套很好的機制去管理這種“一群龍蝦”帶來的上下文,尤其是對複雜Coding、科研發現這類場景,不管是模型還是整個Agent架構,壓力都很大。
再說Tool Use,也就是Skill這塊。Skill現在存在的問題,其實和當初MCP的問題類似——MCP當時有質量不保障、安全風險等問題。現在Skill也一樣,看似有很多Skill,但高品質的很少,低品質的Skill會影響Agent完成任務的精準度。另外還有惡意注入的問題。所以從Tool Use來看,可能需要靠社區把整個Skill生態做得更好,甚至讓Skill能在執行過程中自我進化出新的Skill。
總的來說,從Planning、Memory到Tool Use,這些是當下Agent存在的一些痛點,也是未來可能的方向。
07. 未來12個月關鍵詞: 生態、可持續token、自進化與算力
楊植麟:可以看到兩位嘉賓從不同視角討論了一個共同的問題——隨著任務複雜度增加,上下文會暴漲。從模型層面可以提升原生上下文長度,從Agent Harness層面,像Planning、Memory、Multi-Agent這樣的機制,也能在特定模型能力下支援更複雜的任務。我覺得這兩個方向接下來會產生更多化學反應,進一步提升任務的完成能力。
最後我們來一個開放式的展望。請各位用一個詞來描述接下來12個月大模型發展的趨勢以及你的期望。這次先從黃超開始。
黃超:12個月在AI這個領域看起來好遙遠,都不知道12個月之後會發展成什麼樣。
楊植麟:本來這裡寫的是五年,我改掉了。
黃超:對,哈哈。我想到的一個詞是“生態”。現在OpenClaw讓大家很活躍,但未來Agent真的要成為“打工人”,而不只是大家玩一玩、圖個新鮮感。未來應該讓它真正沉澱下來,成為搬磚的工具、成為真正的coworker。
這需要整個生態的努力,尤其是開源,把技術探索和模型技術都開源出來之後,需要整個社區一起共建——不管是模型的迭代,還是Skill平台的迭代,還有各種工具,都需要更好地面向龍蝦去創造生態。
一個比較明顯的趨勢是,未來的軟體還會是給人用的嗎?我相信未來很多軟體可能都不一定是面向人類的——因為人類需要的是GUI,而未來可能是面向Agent原生的使用。有趣的是,人可能只去用那些讓自己快樂的GUI。而現在整個生態又從GUI、MCP轉到了CLI的模式。這就需要生態把軟體系統、資料、各種技術都變成Agent Native的形態,這樣整個發展才會更加豐富。
羅福莉:把問題縮小到一年,我覺得非常有意義。如果五年的話,從我心目中AGI的定義來看,我覺得已經實現了。所以如果用一句話描述接下來一年AGI歷程裡最關鍵的事情,我認為是“自進化”。
這個詞聽起來有點玄幻,過去一年大家也多次提到。但我最近對它有更深的體會,或者說對“自進化”怎麼做,有了更務實、更可行的方案。原因在於,有了強大的模型之後,我們在Chat範式下根本沒有發揮出預訓練模型的上限,而Agent框架把這個上限啟動了。當我們讓模型執行更長時間的任務時,發現它可以自己去學習和進化。
一個簡單的嘗試是:在現有的Agent框架裡給它加上一個可驗證的條件限制,再給它設一個Loop,讓模型不停地去迭代最佳化目標,就會發現它能持續拿出更好的方案。這種自進化現在其實已經能跑一兩天了,當然跟任務難度有關。
比如在一些科學研究上,像是探索更好的模型結構,因為模型結構有評估標準,比如更低的PPL。在這種確定性的任務上,我們發現它已經能自主最佳化和執行兩三天了。
所以從我的角度看,自進化是唯一能“創造新東西”的地方。它不是替代我們現有的人的生產力,而是像頂尖科學家一樣,去探索世界上還沒有的東西。一年前我會覺得這個時間線要拉到三到五年,但最近我覺得確實應該縮小到一到兩年。可能很快我們就能用大模型疊加一個強大的自進化Agent框架,實現對科學研究至少指數級的加速。
最近我已經發現,我們組裡做大模型研究的同學,他們的workflow是高度不確定、高度創造性的,但借助Claude Code加上頂尖模型,我們的研究效率已經提升了近十倍。我很期待這種範式輻射到更廣泛的學科和領域,所以我覺得“自進化”非常重要。
夏立雪:我的關鍵詞是“可持續token”。我看到整個AI的發展還在一個長期持續的過程中,我們也希望它有長久的生命力。從基礎設施的角度看,一個很大的問題是資源終究是有限的。
就像當年講可持續發展一樣,我們作為一個token工廠,能否持續、穩定、大規模地提供token,讓頂尖模型真正能為更多的下游服務,是我們看到的一個很重要的問題。
我們需要把視角放寬到整個生態——從能源到算力,再到token,最終到應用,形成可持續的經濟化迭代。我們不僅要把國內的各種算力用起來,也在把這些能力輸出到海外,讓全球的資源都能打通和整合。
我也覺得“可持續”其實是在把中國特色的token經濟學做起來。過去我們講Made in China,把中國低價的製造能力變成好的商品輸出到全球。
現在我們要做的是“AI Made in China”——把中國在能源等方面的優勢,通過token工廠可持續地轉化成優質的token,輸出到全球,成為世界的token廠。這是我今年想要看到的、中國給世界的人工智慧帶來的價值。
張鵬:我就簡短一點。大家都在仰望星空,我就落地一點。我的關鍵詞是“算力”。
剛才也說了,所有技術、智能體框架讓大家創造力和效率提升了十倍,但前提是大家能真正用得起來。你不能一個問題提出去,讓它思考半天也不給答案,那肯定不行。也因為這樣,很多研究的進展、很多想做的事情都會受阻。
前兩年我記得有位院士在中關村論壇上說了一句話:“沒卡沒感情,談卡傷感情。”我覺得今天又到了這個地步,但情況又不一樣了。現在我們進入了推理階段,需求真的在爆發——十倍、百倍地增長。剛才你說用量漲了十倍,那其實需求可能是一百倍呢?還有大量的需求沒被滿足,怎麼辦?我們大家可能一起來想想辦法。 (智東西)