#token工廠
“token工廠”是個什麼廠?科技圈這是又在玩什麼新“黑話”
最近這段時間,“token工廠”一詞在科技圈有點火。事情的起因是,在不久前舉辦的美國輝達公司年度GTC大會(GPU技術大會)上,輝達創始人兼首席執行長黃仁勳表示,當前的行業競爭已從大模型時代發展到token產能時代,“未來的資料中心不再是儲存檔案的倉庫,而是生產token的‘工廠’”。對相關企業來說,“計算能力等同於收入”。“token工廠”是什麼?科技圈這是又在玩什麼新“黑話”?要瞭解“token工廠”,首先得明白什麼是token。簡單來說,token是人工智慧(AI)世界裡最小的語義單元,也即模型處理和生成資訊的基本單位。它可以是一個詞、一段程式碼,也可以是圖像或視訊中的一個像素區塊。3月22日,在北京舉行的“騰訊雲社區龍蝦公開課”活動上,參與者體驗使用騰訊AI智能體工具Workbuddy。鞠煥宗攝(新華社)和許多人想像的不同,AI其實既不識字,也聽不懂人話。每當它需要理解人類的意圖,需要先把資訊切割成token,再生成它自己可以理解的數字資訊,處理完成後再反向執行這一流程,合成人類能夠理解的資訊表達出來。不嚴謹地說,token有點像動畫電影《神偷奶爸》流水線上的“小黃人”,觀眾雖然弄不清每一隻小黃人具體在做什麼,但卻明確地知道,當一群小黃人聚在一起,奇蹟就會發生。理解token之後,就可以嘗試理解“詞元”了。在不久前舉辦的中國發展高層論壇2026年年會上,中國國家資料局局長劉烈宏明確將Token稱為“詞元”,並將它定義為“結算單位”。對此,多位業內專家表示,這意味著,中國AI正在從能力佈局邁向能力結算,從模型好不好,轉向智能服務如何計量、如何定價、如何交易。一個譯名為什麼會引起業界如此高的關注?答案可以從兩個方面拆解。第一,觀測層面。資料顯示,2024年初,中國日均詞元呼叫量為1000億;到2025年底,躍升至100兆;到2026年3月,已突破140兆,兩年增長超過1000倍。日均超140兆的詞元呼叫量,相當於1000兆個中文詞彙,相當於250個中國國家圖書館的資源量。同時,中國AI大模型周呼叫量已連續多周領跑全球,且國產詞元價格僅為海外同類產品的十幾分之一。兩組資料說明,詞元不再只是技術術語,而成為AI商業化速度、應用深度和產業景氣度的重要觀測指標。圖源:千圖網第二,計費層面。詞元作為最小的語義單元,天然就具備量化計算的屬性。它就像工業時代的電、網際網路時代的流量一樣,是AI時代核算成本的新度量衡。過去,很多企業採購軟體,買的是許可證、帳號數和部署周期;如今,越來越多企業開始按照可呼叫、可核算、可復盤的智能服務量計費。這種標準化、精細化的結算方式,將使得AI服務的商業化路徑變得清晰。因此,真正值得重視的,不只是“詞元”這個譯名,更是一個新的計量系統。正如賽迪研究院人工智慧研究中心副研究員鐘新龍在其署名文章中所言,詞元一詞的誕生意味著,“人工智慧開始被納入更成熟的經濟敘事”。搞清楚token和詞元之後,“token工廠”也就不難理解了。如果我們將詞元比作數字經濟時代的“硬通貨”,那麼在既定的電力和空間資源約束下,資料中心拼的是產出詞元的速度、質量和成本,每瓦特電力帶來的詞元吞吐量將替代傳統的伺服器數量、儲存容量,成為決定資料中心競爭力的核心指標。從這個意義上講,資料中心的角色正在發生根本性轉變。傳統意義上的資料中心主要用於資料的靜態儲存和網路交換,可以被簡單視作“電子倉庫”;如今隨著AI智能體的發展,資料中心正全面轉變為持續吞吐海量資料並輸出智能內容的“電子工廠”。本質上說,資料中心已經變成了一條“智能生產線”:輸入的是電力、資料、模型和調度系統,輸出的則是AI智能體的執行能力和行業場景中的實際生產率。圖源:千圖網至此,真正值得關注的關鍵詞“實際生產率”出現了。根據AI的“工作流程”,人類說出一句話之後,模型要先把文字切分成詞元,再把詞元對應成編號,隨後才能完成關聯、推斷和生成。由於切分規則不同,相同的資訊會被不同的模型拆解為不同數量的詞元,相應的,模型處理問題的速度、效率甚至結果也不會完全相同。因此,詞元消耗量與模型智能程度並不能完全畫等號,真正決定結果的,仍然是模型演算法、資料質量、任務設計和提示組織方式。換言之,未來的“token工廠”,比拚的並不只是詞元呼叫能力,而是詞元呼叫與使用的綜合能力,這才是“token工廠”真實的競爭力。 (經濟日報)
【GTC 2026】兆美金後的新霸主:黃仁勳GTC 2026全解讀,AI正式進入“Token工廠”時代
台北時間2026年3月17日凌晨2點,沒有絲毫意外,全球科技圈的目光再次聚焦於那個穿著皮衣的男人身上。輝達GTC 2026大會如約而至。如果你還以為這只是一場關於顯示卡參數的發佈會,那你可能已經掉隊了。今年的GTC,黃仁勳不再僅僅談論晶片,而是拋出了一個震撼行業的全新定義:輝達已經從一家“晶片公司”徹底蛻變為一家“AI基礎設施和工廠公司”。這場長達兩小時的演講,資訊密度極高。從CUDA生態的飛輪效應,到Token成本的極致壓縮;從Vera Rubin平台的量產,到Feynman架構的前瞻;再到那個讓全場沸騰的“龍蝦”NemoClaw。黃仁勳用無可辯駁的資料和路線圖,向世界展示了AI推理時代的宏大圖景。01 20年的飛輪:CUDA的護城河比想像中更深演講伊始,黃仁勳並沒有急於拋出新的硬體參數,而是花了近十分鐘回溯CUDA架構誕生20年的歷程。這不僅是對過去的致敬,更是對護城河的宣示。螢幕上展示著“20 YEARS CUDA FLYWHEEL”(20年CUDA飛輪)的巨大循環圖,這不僅是技術的循環,更是商業的邏輯。“二十年來,我們一直致力於這種革命性架構——單指令多線程(SIMT)。”黃仁勳回憶道。CUDA的真正壁壘,在於底層的安裝基數。這是一個經典的飛輪效應:安裝基數:全球數億塊運行CUDA的GPU構成了龐大的底座。開發者:龐大的底座吸引開發者創造新演算法。突破:新演算法帶來技術突破(如深度學習)。生態:技術突破催生新市場,吸引更多公司加入,進一步擴大安裝基數。“CUDA真正融入了每一個生態系統。”黃仁勳指著那張描述其媒體戰略的幻燈片說道。這種軟硬一體的生態壁壘,讓NVIDIA的架構應用範圍不斷擴展,計算成本持續降低。正如他所強調的,加速計算不僅帶來初期的性能躍升,還能在生命周期內持續最佳化軟體,讓算力成本不斷下降。02 資料革命:結構化與非結構化資料的全面加速在本次演講中,黃仁勳著重介紹了輝達為資料處理打造的核心軟體庫,並稱其為“本場演講最重要的一張圖”。隨著AI的爆發,全球資料處理體系正面臨結構性變革。螢幕上展示了一張複雜的圖表,標題為“Structured Data is the Ground Truth of AI”(結構化資料是AI的“真相”),這是一個價值1200億美元的生態系統。過去,企業計算建立在結構化資料之上。但未來,AI智能體將直接訪問和使用這些資料庫。與此同時,全球每年產生的資料中約90%是非結構化資料。AI的多模態能力正在將這些“死資料”轉化為可計算的資訊。為此,NVIDIA推出了兩項關鍵技術:cuDF:加速資料框計算,面向結構化資料。cuVS:面向向量儲存和語義資料,處理非結構化資料。黃仁勳透露,SQL的發明者IBM正在利用cuDF加速其watsonx.data平台。這標誌著AI正在重塑整個資料處理基礎設施。03 推理拐點:Token成本全球最低“去年我說營收將達5000億美元,你們可能沒覺得驚豔。但今天,我預見通過2027年的營收將至少達到1兆美元。”黃仁勳的這句話引爆了全場。支撐這一驚人預測的,是AI計算需求的爆發式增長。螢幕上清晰地標示著“Inference Inflection Arrives”(推理拐點到來)黃仁勳指出,過去兩年,計算需求增長了約10,000倍。這背後是三件大事的發生:ChatGPT開啟生成式AI時代:計算從“檢索”轉向“生成”。推理AI(o1/o3)的出現:AI開始思考、規劃,Token使用量爆炸。Claude Code開啟代理時代:首個代理模型革新了軟體工程。“推理既是最困難的環節,也是最關鍵的商業環節。”黃仁勳強調。在資料中心層面,衡量效率的關鍵指標是“每瓦特生成多少Token”。評測結果顯示,NVIDIA在AI推理性能和效率上保持絕對領先。從Hopper H200到Grace Blackwell NVLink 72架構,每瓦特性能提升約35倍,分析師甚至認為接近50倍。螢幕上打出了“NVIDIA Token Cost is Untouchable”(NVIDIA Token成本不可觸碰)的字樣。黃仁勳放出豪言:“即便競爭對手的架構是免費的,它也不夠便宜。” 因為建立一個1GW的工廠,即便什麼都不放,15年的攤銷成本也高達400億美元。只有運行最強的電腦系統,才能獲得最低的Token生產成本。04 Vera Rubin:為智能體AI而生的超級電腦演講的高潮之一,是Vera Rubin超級AI平台的亮相。這是一個由七款晶片組成的全新計算平台,涵蓋計算、網路和儲存三大功能。螢幕上展示的“NVIDIA Vera Rubin”字樣下,赫然寫著“40,000,000X - 10 years”(10年4000萬倍性能提升),震撼人心。 該平台包含40個機架、1.2千兆個電晶體、近2萬個NVIDIA晶片、1152個Rubin GPU,擁有60 exaflops的運算能力。這是一個完全縱向整合的計算平台,專門為智能體AI(Agentic AI)設計。隨著大模型處理更長上下文,系統需要更高頻寬的記憶體和儲存訪問能力,因此NVIDIA對整個系統架構進行了重新設計。硬體層面,全新的NVIDIA Vera CPU開始單獨銷售,有望成為一項數十億美元級業務。系統設計方面,採用100%液冷架構,通過45°C熱水散熱,大幅降低製冷成本,整機安裝時間從兩天縮短至兩小時。更引人注目的是,NVIDIA推出了全球首個CPO(光電共封裝)乙太網路交換機,將光模組直接整合到晶片封裝中,顯著提升頻寬與能效。針對光互聯技術,黃仁勳展示了全球首款量產的共封裝光學(CPO)交換機Spectrum X,並平息了市場對於“銅退光進”的路線之爭。黃仁勳說我們需要更多的銅纜產能,更多的光晶片產能,更多的CPO產能。而在未來的版圖中,Rubin Ultra和Feynman架構也已提上日程。螢幕上展示的路線圖清晰地標示著從2024年Blackwell到2028年Feynman的演進路徑,每一次迭代都涉及晶片、CPU、網路交換機等關鍵元件的全面升級 Feynman架構將採用定製化HBM技術,搭載全新的Rosa CPU,標誌著計算、儲存和封裝的深度耦合。05 “龍蝦”創造歷史:SaaS將消失整場演講中,對軟體開發者影響最深遠的,莫過於對“龍蝦”現象的評論。螢幕上展示了一張Star History圖,紅色的openclaw/openclaw曲線在2024-2026年間急劇飆升,遠超Linux和React,其增長速度“極其深遠” 黃仁勳宣佈,NVIDIA將正式支援這一項目。OpenClaw被黃仁勳定義為一種智能體電腦的作業系統。它連接大模型,管理資源,調度任務,類似於Linux之於PC,Kubernetes之於雲,HTML之於網際網路。“未來所有科技公司都會面臨一個問題——你的OpenClaw戰略是什麼?”黃仁勳的這句話擲地有聲。他認為,未來幾乎所有SaaS公司都將演變為AaaS(Agentic as a Service)——即以智能體為核心的服務平台。針對智能體進入企業網路帶來的安全挑戰,NVIDIA推出了NVIDIA NemoClaw參考架構。螢幕上演示了簡單的安裝命令:curl -fsSL https://nvidia.com/nemoclaw.sh | bash,顯示出NVIDIA推動這一生態落地的決心。NemoClaw在OpenClaw基礎上加入了安全元件,確保企業能安全部署智能體系統。甚至未來工程師招聘,除了薪資,公司還會提供“Token配額”,因為算力將直接決定生產效率。06 物理AI與數字孿生:AI工廠的作業系統AI的未來不僅在數字世界,更在物理世界。黃仁勳介紹了面向“AI工廠”的基礎設施平台——NVIDIA DSX在資料中心建設階段,系統通過工程模擬工具進行驗證,實現“虛擬偵錯”;投入運行後,數字孿生系統成為基礎設施的“作業系統”,AI智能體即時監控冷卻、電力和網路,動態最佳化效率。在物理AI方面,NVIDIA的觸角已延伸至自動駕駛和機器人。螢幕上展示的“NVIDIA Space-1 Vera Rubin Module”暗示了其向太空計算領域的拓展。自動駕駛領域,基於NVIDIA Drive AV,車輛已具備推理能力。NVIDIA宣佈了新的Robotaxi合作夥伴,包括BYD、Hyundai、Nissan和Geely,並與Uber合作部署自動駕駛計程車網路。機器人產業方面,正與ABB、KUKA等企業合作,將物理AI模型用於工業自動化。結語:跨越“推理鴻溝”,中國AI產業的破局之路演講的最後,黃仁勳站在巨大的“NVIDIA Vera Rubin”標識前,背後是醒目的“40,000,000X - 10 years”。這一刻,我們看到的不再是單一的晶片迭代,而是一場宏大的生態進化。從底層的CUDA飛輪,到算力成本的極致壓縮;從智能體作業系統NemoClaw的推出,到SaaS向AaaS的範式轉移;從資料中心向AI工廠的蛻變,到物理AI的全面覺醒。黃仁勳用這場演講證明:AI推理的拐點已經到來。未來的競爭,不再僅僅是算力的競爭,更是Token生產效率、智能體生態和物理世界融合能力的全方位競爭。面對輝達如此強勁的實力與深不見底的護城河,中國AI產業該如何趕上?這或許是每個從業者看完這場演講後最深刻的思考。首先,必須正視“軟體生態”的斷層。 黃仁勳反覆強調,CUDA的安裝基數才是飛輪加速的原因,這不僅是硬體的勝利,更是二十年軟體生態的積累。中國產業界往往重硬輕軟,但在AI時代,軟體棧(如cuDF、cuVS等核心庫)才是連接應用與算力的橋樑。我們不僅需要造出“卡”,更需要打磨出能承載萬行程式碼、適配千行場景的“軟底座”。其次,要從“單一產品”思維轉向“系統級整合”。 Vera Rubin平台的成功在於其垂直整合能力——從Vera CPU到NVLink互連,再到液冷機架,這是一個整體的“超級電腦”。中國廠商不能只盯著單點突破,而應致力於建構從晶片、網路到液冷散熱的整體系統解決方案,追求每瓦特性能的極致最佳化。最後,要抓住“智能體”與“物理AI”的新範式窗口。 當SaaS轉向AaaS,當OpenClaw成為新的作業系統入口,這意味著軟體開發的底層邏輯正在重構。這是彎道超車的機會。中國企業應積極擁抱開源生態,在智能體安全、垂直行業大模型、以及物理AI(如機器人、自動駕駛)的落地場景中尋找差異化優勢,建構屬於自己的“主權AI”。在這場通往未來的競賽中,輝達已經鋪好了最堅實的鐵軌,但列車駛向何方,依然取決於我們如何握緊手中的方向盤。 (算力與科技茶館)