#token
火山引擎有了它自己的Token經濟學
Token,Token,還是Token。在12月18日的FORCE原動力大會上,火山引擎總裁譚待半小時的開場演講裡提了18次“Token”,而“雲”則只出現了7次。火山也再次更新了備受矚目的豆包大模型最新日均Token呼叫量:50兆。這一指標從發佈至今實現了417 倍增長,相比去年 12 月則是超 10 倍增長。作為對比,Google10月最新公佈的月均Token直接換算為日均量的資料是43兆。豆包大模型的呼叫量已經是中國第一、全球第三。而根據IDC的報告,火山引擎在中國的公有雲大模型的服務呼叫量上也是穩居第一,MaaS市場份額從2024年的46.4%進一步提升到了今年的49.2%。“也就是說,在中國公有雲上每產生的兩個Tokens就有一個是火山引擎生產的。”譚待在當天面對台下5000名觀眾說道。在當天的發佈中,一如既往由火山來更新了字節最新模型的進展。豆包大模型1.8正式亮相,它在多項指標上顯著提升,繼續走All-in-One的技術路線,文字、程式碼、Agent、音訊,圖視訊等能力,全部在同一個基礎模型裡演進;而專門為視訊生成服務的Seedance 1.5 pro也同步推出,在音畫同步、中文及方言處理上做到了“世界領先水平”。字節要傳達的資訊明顯:豆包大模型創造著Token,且它的進化方向也正對應著今天Token消耗的結構性變化——從“推理取代訓練”推動Token消耗,到今天多模態+Agent成為Token的絕對大頭,這些需求都可以被火山提供的服務滿足。這一切迅猛增長的背後,火山引擎正在建立起一套它自己的Token經濟學。更多的Token就是代表更多智能Token,是大模型處理資訊的基本單位。無論是文字、圖像還是視訊,在模型中都在被轉換為Token序列進行計算。本質上,Token就是人們對AI的呼叫量。但這背後存在一個問題:由於Token的計算方式基於長度,所以一篇文章和一段關鍵的程式碼可能消耗相似的Token數量。那麼,純粹的以Token數量來衡量,能否真實反映AI創造的價值?火山引擎的演算法人員在和我們的交流中回憶,其實曾經火山內部也有過類似爭論,但最終的結論是:Token量一定是對的指標。“AI要在實際場景產生價值,大家肯定要把它用起來,不管單位價值有大有小,但實際上一定是跟Token用量正相關的。可能你最終的那個關鍵決策對應的只是‘是’或者‘否’,一個Token,但得出這個結論必然已經用掉了大量Token。”所以火山內部最終明確,更多的Token就是代表更多智能。而今天Token的增長,其內在結構也在悄然變化。火山引擎智能演算法負責人吳迪提供了一個演化路徑:“可能到了2027,2028年,一個普通的C端使用者從AI助手得到的很多的訊號就是視覺的,你不會看到大段大段的文字了。那麼,到時候LLM會以coding和agent的形式下沉到整個數字世界的底層運行邏輯裡。”換言之,Token會分層,LLM會向下成為底座,多模態的視覺、互動Token將在上層湧現。這就會讓Token成為一個持續增長的指標,也是一個有效指標。吳迪預測,到2030年,國內市場的Token消耗量將是現在的百倍以上。屆時,衡量企業智能化程度的核心指標,將從其擁有的GPU數量轉變為消耗的Token總量,因為它是唯一能同時穿透“模型能力、使用頻率和真實需求”的統一指標。雲設施必須以模型為中心重構更多Token意味更多智能,那麼如何讓企業客戶更好生成它們需要的Token,就是火山作為從字節內部走出的“AI雲原生”基礎設施的任務。過往雲端運算所習慣的一整套體系也因此出現“不適”,它更多是一個圍繞算力設計的體系,而火山認為新的需求註定是圍繞模型的。“傳統 IaaS、PaaS、SaaS分層規劃的IT架構不再有效,以模型為中心的AI雲原生架構正在形成。”譚待說。此次的一整套體系也由此誕生。火山推出了“推理代工”,企業可將訓練好的模型託管至火山,按實際Token消耗付費,無需自建推理叢集;Agent開髮套件(ADK) 全面升級,支援動態執行階段、多會話共享、強身份傳遞與內建工具鏈;智能端點(Endpoint) 支援模型路由,可根據效果、成本等策略自動分流至豆包、DeepSeek、Kimi等多模型後端;方舟平台進一步升級,支援客戶在自有場景中做RL 強化學習等的微調。而且這一系列產品裡的很多細節,都體現出很多根本性差異。例如,Agent開髮套件(ADK) 的動態執行階段設計,直接挑戰了行業慣例。AWS AgentCore為每個會話啟動一個獨立執行階段,而火山採用多會話共享模式。火山引擎雲基礎產品負責人田濤濤直言,這是一個行業慣性的問題,AgentCore為每個session起一個Runtime,過去可以,但進入模型時代就太奢侈了,而火山對成本敏感,字節自己內部就一直有不同的更AI原生的需求,因此本就有不同的設計,現在可以推廣給更多模型使用者。在火山看來,人們最終會“躍過”對算力的關注,最終直接衝著模型而來。“你很難想像五年後新的創業者還會去雲上租GPU、開資料庫。到時候在他們創業的第一天,他們會直接向雲服務商‘要Token’,直接要的就是呼叫模型和配套工具。”吳迪說。“我們已經把像Response API、分佈式的KV Cache、良好的P/D分離、一大堆高品質的內建Tools組裝好了,等著你把你的一個齒輪裝上來,這輛車就能跑。”火山還配套改進了模型服務的定價模式,推出了一個“AI節省計畫”,讓企業達到模型使用成本的全域最優解。“客戶只需要為用了的Token付錢。”模型訓練和市場需求一桿子打通現在我們可以來看看字節和火山今天已經有了什麼:最大規模的雲端運算需求:內部支撐抖音等國民級產品帶來的規模效應和成本優勢。最多使用者的大模型產品:豆包。而且在火山的視角,它也是一個最大的Agent產品。第一的Token呼叫量:50兆/天,且還在猛漲。以及支援著豆包app和抖音這種巨量真實需求的多模態和推理大一統的豆包大模型。這種全端系統能力是今天最重要AI玩家必備的能力,橫向對比,可以把目前的玩家分為三種路線:OpenAI + 微軟路線:模型自己的,雲設施是戰略夥伴的。阿里雲路線:開源模型長在自己雲上,然後近期在強推產品。Google路線:全部自研,模型閉源,產品到研發直接全面打通。這裡面,字節的路線很像Google。豆包就對應著Gemini,一個大一統的多模態agent模型。Seedance 1.5緊跟Veo3,甚至超過了對方。這一切的技術基礎也和Google類似,都長在自己的以AI為核心的機器學習平台和雲服務上,然後這些“Gemini同款”和“豆包同款”細化成產品再提供給外界。而尚未被太多關注到的另一個“相似”,則是對待模型技術的方式上。Google在Gemini 3的“翻身仗”後分享了很多內部復盤,其中最重要一個因素就是模型、研發、產品和需求的統一打通。而字節如何訓練模型此前並未被外界瞭解,它與大多模型公司一個非常大的不同是,它把真實市場需求直接一桿子打通到了模型訓練層面。火山引擎作為模型對外統一的出口,也有自己的演算法人員,他們和字節的模型部門Seed緊密合作,甚至是“混合辦公”和各種靈活的配合方式,而火山引擎團隊所獲取到的市場需求情況,可以直接影響模型研發方向和決策。火山的模型策略團隊會把市場上的需求反饋收集和抽象出來,直接影響到模型的重要功能和研發方向。這都直接體現在豆包大模型的身上:豆包之所以是一個大一統的模型,除了技術路線的選擇,也是從客戶體驗出發:火山的客戶們認為模型版本太多了,甚至字節內部的“使用者”都搞不清楚各方面的區別,所以這個模型必須all in one來降低選擇成本。字節認為,今天訓練模型最重要的是評估體系,而它絕對不應該只是公開的benchmark,必須用真實業務價值來衡量模型能力。字節內部已經為B端建設了大量benchmark,模型開發成果必須真正符合實際的經濟價值要求。於是Seedance會在模型層面增加一個Draft樣片的能力,讓使用者不是抽卡,而是提前做預覽判斷;豆包模型在建設工具呼叫能力之外,直接在配套API中就配套做了許多built in的工具。128k上下文這種看起來能用來炫技但事實上實際需求並不高的能力,就會被去掉。“在25年,有超過100萬家企業和個人使用了火山引擎的大模型服務,覆蓋了100多個行業,我們也對他們在火山方舟上的用量進行了匿名統計,我們發現,有超過100家企業在火山引擎累計Tokens使用量超過了1兆。”譚待在發佈會上說。這可能是比市場份額增長更值得玩味的一組資料。 它最能體現字節這種用需求指引模型發展的方式所帶來的收益。所以,如果我們來拆解一下,字節的Token經濟學就是:1. 越多的Token意味越高智能Token是智能的度量衡,其增長與結構變化指引技術演進。2. 服務AI的雲必須以模型為中心重構傳統雲廠商的慣性已經太大,而火山服務的最大客戶就是字節自己,字節就是一個長在AI和模型上的公司,火山解決的一直是AI的需求,現在這些需求變成外界的廣泛需求,它的技術思路就可以用來重構整個雲行業的方案。3. Agent的普及會讓Token從原材料變為更高級的智能單元,進而帶來更大價值譚待曾經形容,目前基於Token的商業模式還很原始,而今天他認為,隨著Agent的進步和在企業裡的普及,Token最終會走出今天“原材料”的定位。Agent 可將模型串聯,雲平台和中介軟體進一步把Tokens組裝成Agents,並實現Agent和現有工作流、Agent和Agent之間的智能互通,以 API 或完整 Agent 的方式提供服務,從更高抽象層次創造價值。“今天討論Token,是從底層作業系統角度看,是在 IT 預算環節考慮;而抽象成 Agent 後,可從 BPO (業務流程外包)角度看待,那麼它就是在擴大整個市場的規模了。”譚待說。“人們常說的10兆Agent市場,核心就是這個邏輯。” (矽星人Pro)
AI公司正陷入囚徒困境!知名科技投資老鳥警告:未來三到四年最重要的是建設太空資料中心,OpenAI最大痛點是每token成本太高
“AI 時代,誰是 token 的最低成本生產者,誰就擁有決定性優勢。”“未來三四年,最重要的事情是太空資料中心。”近日,知名科技投資人Gavin Baker在最新採訪中與主持人深入探討了輝達與Google之間的基礎設施戰爭,Gemini3和Scaling Law的影響,以及從Hopper向Blackwell晶片的轉變如何重塑了整個行業。Gavin Baker是Atreides Management的管理合夥人兼首席投資官(CIO),以其在公開市場上對科技趨勢,尤其是AI領域的深刻洞察而聞名。其中有關太空資料中心的觀點,也得到了馬斯克的認同:Gavin尖銳地指出,過去幾年所有AI公司都陷入“囚徒困境”:如果你放慢腳步,你就永遠出局;如果競爭對手不停,你只能繼續投。他認為,在模型進展上,Gemini 3 證明Scaling Law仍然成立。過去一段時間 AI 的主要進步則更多來自後訓練的兩條新縮放路徑,也就是帶驗證回報的強化學習與測試時算力,讓 AI 在新一代硬體還沒有完全到位時仍能繼續推進。Blackwell(GB200/GB300)和 AMD MI450 的出現,將帶來大幅降低每 token 成本的能力。Gavin強調,xAI 將是最快推出 Blackwell 模型的公司,因為它擁有最快的資料中心部署能力和大規模叢集調通經驗。Gavin還指出,過去 Google 是全球最低成本 Token 生產者,這給了他們巨大優勢。但隨著GB300開始量產,低成本時代將屬於 Nvidia 的客戶,如OpenAI、xAI 等。至於太空資料中心的建設,他認為這是未來三到四年最重要的事情,“現在這是一場巨大的淘金熱”。此外,他還分析了:AI 推理如何讓飛輪啟動,徹底改變資料和使用者反饋的價值邏輯;端側 AI 對算力需求的潛在衝擊,可能讓雲算力的爆發放緩;SaaS 公司在 AI 時代面臨的毛利困局,以及誰能抓住下一波風口。小編節選整理了部落格內容,資訊量巨大,enjoy!Gemini 3 與前沿模型整體進度主持人:公眾對 Gemini 3 的理解大多集中在擴展定律(Scaling Laws)與預訓練機制。你怎麼看當前的前沿模型整體進展?Gavin:Gemini 3 非常重要,因為它再次確認:預訓練的擴展定律仍然成立。關鍵在於,全世界沒人真正知道為什麼擴展定律成立。它不是理論,是經驗事實,而且被極其精確地測量、驗證了很多年。我們對擴展定律的理解,就像古埃及人對太陽運行的理解:能精確測量,卻完全不知道背後的物理機制。所以每一次確認都非常關鍵。基於擴展定律,其實 2024–2025 按理應該沒有任何 AI 進展。原因是:xAI 把 20 萬 Hopper GPU 做到完全“coherent”(訓練時 GPU 彼此同步共享狀態)之後,下一步就必須等下一代晶片。Hopper 時代的上限就是 20 萬片,你再擴都沒用。但真正的故事是: “推理(Reasoning)”救了整個 AI 行業如果沒有推理模型(OpenAI 在 2024 年 10 月推出的 Reasoning 系列),整個行業會從 2024 年中期到 2025 年底 陷入 18 個月停滯。推理帶來了兩條全新擴展定律:強化學習 + 可驗證獎勵(RL + Verified Rewards)“在 AI 中,凡是你能驗證的,你就能自動化。”測試時計算(Test-Time Compute)也就是讓模型在推理階段使用更多算力。這兩條擴展定律讓 AI 在沒有新 GPU 的 18 個月裡依然高速進步。xAI會最快訓練出 Blackwell 模型Gavin:Google 在 2024 推 TPU v6、2025 推 TPU v7。這些晶片性能飛躍巨大,相當於從二戰戰機跳到冷戰噴氣機。因為 Nvidia Blackwell(GB200)極度困難、延遲嚴重,Google 等於是提前拿到了下一代“材料”。Gemini 3 正是在更強 TPU 上驗證預訓練擴展定律的第一次大考,結果通過了。這意味著:Blackwell 時代訓練出來的模型會非常強。2026 年初會出現第一批真正的 Blackwell 模型。我認為最快的是 xAI。理由很簡單:黃仁勳曾說過,“沒有人比 Elon Musk 更快建資料中心。”Blackwell 這種超級複雜的晶片,需要海量叢集快速部署來“磨合”。只有 xAI 能做到最快部署、最多叢集、最快調通。所以他們會最先訓練出 Blackwell 模型。Google“低成本生產 Token”的戰略地位將被逆轉Gavin:過去 Google 是 全球最低成本 Token 生產者,這給他們巨大優勢:他們可以用低價(甚至負毛利!)讓競爭對手幾乎無法呼吸。這是極其理性的企業戰略。但當 GB300(比 GB200 更強)開始量產、並且能無縫替換進現有機房後,低成本時代將屬於 Nvidia 的客戶(OpenAI、xAI 等)。到那時,Google 就不再是最低成本生產者,就不能再輕易靠“負 30% 毛利”窒息競爭者。AI 行業經濟格局將大幅改變。為什麼 TPU v8 / v9 趕不上 GPU?主持人:為什麼會這樣?為什麼 TPU v8、v9 無法做到和 GPU 一樣優秀?Gavin:這裡有幾點原因。第一點:Google 做了更加保守的設計選擇原因之一我認為是他們的晶片設計流程本身比較特殊。半導體設計分為前端(Front-End)與後端(Back-End)。另外還有與台積電合作的晶圓代工環節。製造 ASIC 有很多方式,而 Google 的方式是:Google 主要負責前端設計(相當於建築師畫房子的圖紙)Broadcom 負責後端設計與量產(相當於施工方蓋房子,並負責與台積電合作)這是個粗略類比,但能說明問題。Broadcom 的半導體業務長期維持 50~55% 毛利率。我們不知道 TPU 的具體數字,但如果假設到 2027 年 TPU 業務規模達到 300 億美元,那麼 Broadcom 大概會從中賺走 150 億美元的毛利。對 Google 來說,這實在太貴了。當一個公司把 ASIC 業務做大到這種量級,就會出現一個非常明顯的經濟動力:把所有晶片設計和製造流程“收歸自研”。蘋果就是這麼幹的。蘋果的晶片沒有 ASIC 合作夥伴,前端蘋果自己做,後端蘋果自己做,生產也由蘋果直接管理台積電,因為他們不想為外包設計付 50% 毛利。當業務規模夠大時,你完全可以把 Broadcom 這類供應商的工程師挖走、薪水翻倍、甚至三倍,還可以省錢。如果 TPU 到 2028 年規模做到 500 億美元,那 Google 每年付給 Broadcom 的錢會變成 250 億。那 Google 完全可以去 Broadcom 把整個團隊全買走,把成本反而降下來。當然,出於競爭與監管原因 Google 不能真的這麼幹,但這些“經濟摩擦”已經影響 TPU v8 / v9 的設計節奏了。第二點:Google 引入了聯發科(MediaTek),在敲打 Broadcom這是一個明確的訊號:Google 對付給 Broadcom 的高額費用已經非常不滿。台灣的 ASIC 公司(包括聯發科)毛利要低得多,把他們引入,就是“第一槍”。第三點:SerDes 是晶片之間通訊的核心技術,但有價值上限Broadcom 的 SerDes 確實很好,但SerDes 的價值上限也就 100~150 億美元等級,絕沒到 250 億美元 這種程度,世界上還有其他優秀的 SerDes 供應商所以,Google 沒必要永遠被 Broadcom 卡住。第四點:Google 的保守設計,可能是因為供應鏈“分裂”要開始了Google 正在準備多家供應商平行工作(Broadcom + MediaTek)。這種“分裂的供應鏈”會讓設計更加保守,因為你要保證每家廠商都能按時做出一致的結果。這讓 TPU 的迭代速度變慢了。第五點:GPU 正在加速,而 ASIC 正在變慢這是行業最關鍵的趨勢。Nvidia 和 AMD 的回應是:“你們所有人都在造自己的 ASIC?好,我們就一年一代,讓你們永遠追不上。”GPU 的迭代速度現在是過去的 2 倍甚至 3 倍。而當你去做 ASIC(TPU、Trainium、各種自研晶片)時,你會突然意識到:“哦……原來造 ASIC 根本不是只做一個晶片這麼簡單!”你要同時解決:晶片本體、NIC(網路介面卡)、CPU、Scale-up 交換機、Scale-out 交換機、光模組、軟體棧、訓練框架、生態系統、整個供應鏈。你做出來一個小晶片,結果發現:“糟糕,我只是做了一個微小元件,而 GPU 廠商已經把整個巨型系統打通了。”第六點:做出“好 ASIC”需要至少三代Google TPU 的歷史就是活生生的例子:TPU v1:能用,但力量不足TPU v2:好一點TPU v3/v4 才開始接近真正“能打”Amazon 的 Trainium 也是一樣:Trainium 1:比 TPU v1 略好,但差不多等級Trainium 2:變強一點Trainium 3:第一次達到“可以接受”Trainium 4:預計才會真正成為好晶片這就是經驗積累 → 工程成熟 → 系統打磨,無法跳步驟。這意味著所有其他試圖“自研 AI 晶片”的公司都會發現自己根本追不上 Nvidia、AMD。第七點:最終,TPU 和 Trainium 也會變成“客戶自有工具鏈”你可以爭論具體年份,但方向是確定的。因為從第一性原理來說,當規模足夠大,把晶片從外包轉為自研是經濟必然。主持人:如果把視角拉遠一點,這一切的意義是什麼?三代 GPU、三代 TPU、三代 Trainium 之後,這場巨大戰爭將給全人類帶來什麼?Gavin:如果讓我給出一個事件路徑:第一步:Blackwell 時代的模型將極其強大。第二步:GB300(以及 AMD MI450)帶來每 Token 成本的大幅下跌。這會讓模型可以“思考更久”。當模型能思考更多步,就能做新的事情。我被 Gemini 3 第一次“主動幫我做事”震撼到:它幫我訂餐廳。以前模型都是給我生成文字、做研究,這次是直接辦成一件現實任務。如果它能訂餐廳,那就離訂機票、訂酒店、打 Uber、管日程、全面生活助理不遠了。大家現在都在談這個,但真的想像一下:這東西最終會跑在手機裡。這就是近期就會發生的未來。而且你看,現在一些非常“技術前沿”的大公司,他們超過 50% 的客服已經完全由 AI 處理了。客服是一個 4000 億美元的大產業。而 AI 特別擅長的一件事,就是“說服”,這正是銷售和客服的核心能力。從一家公司的角度想,如果把業務拆開,就是:做產品、賣產品、服務使用者。現在看,到 2026 年底,AI 很可能在其中兩塊已經非常拿手了。這又回到 Karpathy 說過的那句話:AI 可以自動化所有“可被驗證”的任務。凡是存在明確對錯結果的事情,你都可以用強化學習把模型訓練得非常強。主持人:你最喜歡的例子有那些?或者說未來最典型的?Gavin:比如讓模型自動訓練模型本身;比如全球帳目是否能對齊;比如大規模會計工作;或者銷售、客服這些“明確可驗證結果”的任務。如果這些在 2026 年開始全面落地,那麼NVIDIA Blackwell就有明確 ROI,然後領域繼續往前走,接著會迎來Rubin,再接著是 AMD MI450、Google TPU v9。ASI與大公司的“囚徒困境”Gavin:但最有意思的問題是:人工超級智能(ASI)到底會產生怎樣的經濟回報?過去幾年所有公司都陷入“囚徒困境”:如果你放慢腳步,你就永遠出局;如果競爭對手不停,你只能繼續投。微軟今年早些時候“猶豫”了 6 周,我想他們大概會說他們後悔。但是隨著 Blackwell、特別是 Rubin 的到來,經濟因素將會壓倒囚徒困境。因為數字實在太誇張了。你看那些買 GPU 最大的公司,都是上市公司,他們每季度都有審計過的財報,你完全可以算出他們的 ROIC(投入資本回報率)。而所有這些公司在大規模買 GPU 後,ROIC 比之前更高。有人說那是因為減少了營運成本,但那本來就是期待的 AI ROI。還有很多收入增長,其實來自廣告推薦系統從 CPU 遷移到 GPU 帶來的效率提升。但不管怎樣,ROI 已經非常明確。每家網際網路大廠內部,掌管營收的人都非常不爽,因為他們認為太多 GPU 被給了研究團隊:“你把 GPU 給我,我就能增長營收。”這在每家公司都是永恆的爭奪。主持人:我很好奇你有那些“潑冷水”的看法,會讓算力需求增長放緩?Gavin:最明顯的“空頭邏輯”是端側 AI(Edge AI)。三年後,只要手機稍微變厚一點、塞下更多 DRAM、電池短點續航,你就能在本地運行一個剪裁版 Gemini 5、Grok 4/4.1、ChatGPT,達到30–60 tokens/s,IQ 115 左右。而且這是免費的。顯然,這就是蘋果的戰略:在本地運行隱私安全的模型,只有需要時才呼叫雲端的“上帝大模型”。如果端側 AI 滿足90% 的需求,那這將是最嚇人的“空頭論點”。另一個風險是 scaling law 不再生效。但如果假設 scaling law 繼續有效,預訓練肯定還能撐一代;後訓練(RLVR 等)剛起步;推理階段的 test-time compute 也才剛開始。而且我們已經在取得巨大進展,比如模型能把越來越多上下文裝進“腦子”裡。長期來看,大上下文窗口可能是解決當前很多問題的關鍵。配合 KV-cache offload 這一類技術,它們潛力巨大。對 Meta、Anthropic、OpenAI的看法主持人:我們其實還沒有聊太多 Meta、Anthropic、OpenAI。我很好奇你對整個基礎設施層的看法。這三家是這個“大博弈”裡最關鍵的玩家。我們前面討論的所有趨勢,對這幾家公司會產生什麼影響?Gavin:我先談談對 frontier 模型整體的一些看法。在 2023–2024 年,我特別喜歡引用Erik Brynjolfsson(美國經濟學者) 的一句話。Erik 說:“基礎模型是歷史上增值速度最快的資產。”我認為他說對了 90%。我當時補了一句:“擁有獨特資料和網際網路等級分發能力的基礎模型,才是歷史上增值最快的資產。”但“推理” 的出現徹底改變了這一切。以前所有偉大網際網路公司的核心飛輪都是:做出好產品→ 吸引使用者 → 使用者產生資料 → 用資料改進產品 → 更多使用者 → 更多資料……Netflix、亞馬遜、Meta、Google都靠這套飛輪運轉十年以上,這也是為什麼它們擁有極強的規模回報。然而,這個飛輪在“無推理能力”的AI 時代是不存在的。你預訓練一個模型,把它丟到現實世界,它就那樣了。你可以做 RLHF,基於一些使用者反饋去調整,但那個過程噪音大、訊號弱、反饋難以精確量化,很難真正變成“可驗證獎勵”反饋回模型但推理讓飛輪開始轉動了。現在,如果大量使用者不斷提出某類問題,並持續對某些回答給出明確的正向或負向反饋,這些都能被轉化為可度量、可驗證的獎勵訊號,再反饋回模型做強化學習。我們現在還處在非常早期的階段,但飛輪已經開始轉動了。這是對所有 frontier labs 的格局影響最大的變化。主持人:你能具體解釋一下嗎?為什麼 reasoning 會讓飛輪成立?Gavin:如果大量使用者在問同一個問題,並穩定地偏好某些答案、不喜歡另一些答案,這就產生了一個穩定一致的獎勵訊號。而且這個獎勵訊號是可驗證的。模型就能把這些偏好再次學習回去。雖然現在還早、還很難做,但你已經能看到飛輪開始啟動。第二點,我認為非常重要的是:Meta。祖克柏在今年1 月曾說過一句話:“我高度確信,到2025 年的某個時間點,我們將擁有最強、最好的AI。”我現在不確定他是不是仍然能排進前 100 名。他當時的判斷可以說是錯得不能再錯。而我認為這是一個非常重要的事實,因為它說明:這四家美國前沿實驗室做到的事情,其實難度遠比外界想像的大。Meta 砸了巨額資金,也失敗了。Yann LeCun團隊出現動盪,他們甚至推出了那個著名的“10 億美元挖 AI 研究員”的計畫。順帶說一句,微軟也失敗了。他們雖然沒有像 Meta 那樣做明確預測,但微軟收購了 Inflection AI,當時他們內部也多次說:“我們預期自己的內部模型會迅速變強,未來 Copilot 會越來越多跑在內部模型上。”亞馬遜則收購了 Adept AI,他們有自己的 Nova 模型,但我不認為它能進入前 20 名。所以很顯然,這件事比一年前所有人以為的都要難得多。原因有很多,例如要讓一個巨型 GPU 叢集保持“同步一致”其實非常困難。許多傳統科技公司過去營運基礎設施時都以“節省成本”為核心,而不是以“性能複雜度”為核心。要讓一大堆 GPU 在大規模叢集裡保持高利用率,這是極其難的事情,而且不同公司在 GPU 維運能力上差距非常大。如果你最多能把兩、三十萬顆 Blackwell(GPU)跑到高效一致,而你的叢集只有 30% 的有效執行階段間,而你的競爭對手能做到 90%,那你們根本不在同一個維度競爭。這就是第一點:不同公司在 GPU 維運能力上存在巨大差距。第二點,這些 AI 研究人員喜歡談“品味”,我覺得很好笑。“你為什麼賺這麼多錢?”“因為我的品味很好。”所謂“品味”,其實就是一種對實驗方向的直覺判斷能力。而這正是為什麼這些人能拿很高的薪水。隨著模型規模繼續增大,你已經不能像以前一樣,先在一個 1000 GPU 的叢集上跑一次實驗,再把它複製到 10 萬 GPU 上。你必須直接在 5 萬 GPU 規模上跑實驗,而且可能要跑好幾天。機會成本極高。所以你必須有一支極強的團隊,知道應該把算力押在那些實驗上。然後,你還必須把 RL(強化學習)、後訓練、推理成本控制等所有部分都做到很好。整個流程極其複雜。做這一切,非常非常難。很多人以為簡單,但其實一點都不簡單。我以前做零售行業分析時常說:在美國任何一個行業,如果你能營運 1000 家門店,並讓它們保持整潔、燈光明亮、陳列合理、價格得當、員工友好並且不偷東西——你就能成為一家 200 億或 300 億美元的公司。但結果是,全美國只有 15 家公司能做到。真的非常難。AI 也是同樣的道理:要把所有環節都做到位,非常難。而這也讓所謂的“推理飛輪”開始拉開差距。更重要的是,這四家實驗室,XAI、Gemini、OpenAI、Anthropic,它們內部都有比公開型號更先進的“檢查點”。所謂檢查點,就是模型持續訓練過程中階段性的版本。它們內部使用的版本更強,它們又用這些更強的版本去訓練下一個版本。如果你沒有這些最新的 checkpoint,你就已經落後了,而且會越來越難追上。中國開源對 Meta 來說是“天賜禮物”。因為 Meta 可以用中國開源模型當成自己的 checkpoint,從而實現“自舉”(bootstrap)。我相信他們正在這麼做,其他公司也一樣。OpenAI的最大痛點:Per-token成本太高Gavin:回到公司競爭格局:XAI 將會是第一家推出 Blackwell 模型的公司,也是第一家在大規模推理場景中使用 Blackwell 的公司。這對他們來說是非常關鍵的節點。順便說一句,如果你現在去看 openrouter 的資料,xAI 已經佔據主導地位了。openrouter 可能只佔 API token 的 1%,但它是一個趨勢訊號:XAI 處理了大約1.35 兆 tokenGoogle 大約800–9000 億Anthropic 大約7000 億XAI 表現非常好,模型也很棒,我強烈推薦。你會看到:XAI 先推出模型,OpenAI 會隨後跟上,但速度更快。但是 OpenAI 現在最大的痛點,是它們的 per-token 成本太高,因為他們需要為算力支付溢價,而且合作方不一定是最擅長維運 GPU 的那批人。結果就是OpenAI 是高成本的 token 生產者。這也解釋了他們近期的“紅色警戒”。他們承諾了1.44 兆美元的未來 GPU 支出,這是一個巨大的數字,因為他們知道自己需要大量融資,尤其是如果 Google 繼續“把生態的經濟氧氣吸乾”,那 OpenAI 的壓力更大。他們會推出新模型,但在相當長的時間裡,他們仍然無法解決自己相對於 XAI、Google、甚至 Anthropic 的成本劣勢。Anthropic 是一家好公司,他們燒錢遠低於 OpenAI,但增長更快。所以我覺得必須給Anthropic很多的認可,而這很大程度上得益於他們和Google、Amazon在TPU和Trainium上的合作關係。Anthropic能夠從與Google相同的動態中受益,我認為這在這場精彩的“國際象棋”遊戲中非常具有指示意義。你可以看看Daario Jensen,可能有一些公開評論,他們之間有一些小小的交鋒。Anthropic剛剛和Nvidia簽了50億美元的合同。那是因為Dario是個聰明人,他理解關於Blackwell和Rubin相對於TPU的這些動態。所以Nvidia現在從原來的兩個“戰士”(XAI和OpenAI)增加到了三個戰士。這有助於Nvidia在與Google的競爭中佔據優勢。如果Meta能夠趕上,這也非常重要。我相信Nvidia會盡其所能幫助Meta,比如:“你這樣運行這些GPU,我們或許可以把螺絲擰緊一點,或者調整一下參數。”此外,如果Blackwell回到中國,看起來很可能會發生,那也非常好,因為中國的開源生態也會回歸。未來三到四年,最重要的是太空資料中心主持人:我總是很好奇關於資料中心的一些問題,比如你腦中有沒有關於非晶片方面的突破?Gavin:我認為未來三到四年世界上最重要的事情是太空中的資料中心,這對地球上建造電廠或資料中心的人都有深遠影響。現在這是一場巨大的淘金熱。大家都覺得AI很有風險,但我打算建一個資料中心,一個電廠來驅動資料中心。我們肯定需要它。但如果從最基本的原理來看,資料中心應該建在太空裡。運行資料中心的基本投入是什麼?是電力、冷卻和晶片。總成本角度來看,這就是全部的投入。在太空中,你可以讓衛星全天候在陽光下運行,而且陽光的強度高出30%。你可以讓衛星一直接收光照,這意味著外太空的輻照度比地球高六倍,所以你能獲得大量太陽能。其次,因為全天都有陽光,你不需要電池,而電池成本佔比巨大。所以太空中可用的最低成本能源就是太陽能。冷卻方面,在一個機架中,大部分重量和體積都是用於冷卻,而地球上的資料中心冷卻非常複雜,包括HVAC、CDU、液冷等。而在太空中,冷卻是免費的,你只需把散熱器放在衛星的背光面,這幾乎接近絕對零度,所有這些成本都消失了,這節省了大量開銷。每顆衛星可以看作是一個機架,也有人可能製造三機架的衛星。那麼如何連接這些機架呢?在地球上,機架通過光纖連接,本質上是通過電纜傳輸雷射。而唯一比光纖更快的,是通過真空傳輸雷射。如果你能用雷射把太空中的衛星連接起來,你就擁有比地球資料中心更快、更穩定的網路。訓練方面,這需要很長時間,因為規模太大。但推理(inference)方面,我認為最終訓練也會發生。考慮使用者體驗:當我問Grok問題並得到回答時,手機發出的無線電波傳到基站,然後進入光纖,經過紐約某個匯聚設施,再到附近的資料中心完成計算,最後返回。如果衛星可以直接與手機通訊,而Starlink已經展示了直接到手機的能力,那麼體驗將更快、更低成本。所以從最基本的原理來看,太空資料中心在各方面都優於地球上的資料中心。主持人:那麼阻礙因素是什麼?是發射成本嗎?還是發射可用性問題?Gavin:我的意思是,我們需要大量的太空飛船。像Starship這樣的飛船是唯一能夠經濟地實現這一目標的飛船。我們需要很多這樣的Starship。也許中國或俄羅斯能夠回收火箭,Blue Origin剛剛回收了一個助推器。這完全是一種全新的思考SpaceX的方式。很有趣的是,Elon昨天在採訪中提到,Tesla、SpaceX和XAI正在趨於融合,實際上確實如此。XAI將成為Tesla Optimus機器人的智能模組,Tesla Vision提供感知系統,而SpaceX將擁有太空中的資料中心,為XAI、Tesla、Optimus以及許多其他公司提供AI算力支援。這種融合非常有趣,每個公司都在為其他公司創造競爭優勢。如果你是XAI,有了與Optimus的內建關係非常好,Tesla又是上市公司,任何內部協議都會經過嚴格稽核,而太空資料中心又帶來了巨大優勢。此外,XAI還有兩家公司擁有大量客戶,可以幫助他們建立客戶支援和銷售AI代理系統。總的來說,這些公司正在以一種巧妙的方式融合在一起。我認為當xAI明年推出第一個Blackwell模型時,將是一個重要時刻。如何看待算力短缺的周期性問題主持人:歷史上人類經濟中短缺總會伴隨資本周期的過剩。如果這次短缺是算力,比如Mark Chen曾表示,如果給他們幾周時間,他們會消耗十倍算力。似乎算力仍然存在巨大短缺,但歷史規律表明短缺之後會出現過剩。你怎麼看這個規律在這項技術上的體現?Gavin:AI與傳統軟體根本不同,每次使用AI都會消耗算力,而傳統軟體不會。確實,每家公司都可能消耗十倍算力,結果可能只是讓200美元檔的服務更好,免費檔可能會加入廣告。Google已經開始用廣告為AI模式變現,這會給其他公司引入免費模式廣告的許可,這將成為重要的ROI來源。OpenAI等公司也會在服務中收取佣金,例如幫你預訂旅行,獲取一定收入。半導體行業中庫存動態會導致周期性波動。半導體的“鐵律”是客戶緩衝庫存必須等於交貨周期,因此出現庫存周期。我們最近沒有看到真正的半導體產能周期,也許自90年代末以來就沒有。原因是台灣半導體非常擅長整合和穩定供應,但現在他們的產能擴張未跟上客戶需求。我認為台灣半導體可能會犯錯誤,因為他們過於擔心產能過剩。他們曾經嘲笑Sam Altman,認為他不懂,他們害怕產能過剩。從另一個角度看,功率作為“限速器”對最先進計算玩家非常有利。如果功率受限,計算成本就不重要,你每瓦特獲得的算力越高,收入越高。建造資料中心的投資回報取決於單位功率的收益,這是對最先進技術非常有利的。至於能源解決方案,美國無法快速建造核電站,法律和環境限制太嚴格。解決方案是天然氣和太陽能,AI資料中心可以靈活選址,這也是為什麼美國各地,包括Abilene,會有大量活動,因為這裡靠近天然氣產區。渦輪機製造商正在擴張產能,比如Caterpillar計畫在未來幾年增加75%產能,所以電力問題正在得到解決。SaaS公司犯的“亞馬遜式錯誤”主持人:我們來談談SaaS吧,你怎麼看?Gavin:應用型SaaS公司正在犯和實體零售商對待電商時同樣的錯誤。實體零售商,特別是在電信泡沫破裂後,他們看到了亞馬遜,覺得“哦,它在虧錢,電商是低利潤業務。”從基本原理來看,怎麼可能效率更高呢?現在,我們的客戶自己去店裡,付運輸費,然後再付把商品運回家的費用。如果我們直接把貨物發給每個客戶,怎麼可能效率更低呢?亞馬遜的願景當然是,最終我們會沿街把包裹送到每戶人家。因此,他們當時沒有投資電商,雖然看到客戶需求,但不喜歡電商的利潤結構。這就是幾乎所有實體零售商在投資電商方面動作緩慢的根本原因。現在來看,亞馬遜在北美零售業務的利潤率甚至高於很多大眾零售商。利潤率會變化,如果客戶需求一項根本性的變革性新技術,不去接受總是錯誤的,這正是SaaS公司正在犯的錯誤。這些SaaS公司有70%、80%、甚至90%的毛利率,但他們不願接受AI帶來的毛利率。AI的本質是,每次都需要重新計算答案,而傳統軟體寫一次就能高效分發,這也是傳統軟體很好的商業模式。AI正好相反,一個優秀的AI公司毛利率可能只有40%。主持人:那為什麼他們還能夠早期產生現金流?Gavin:奇怪的是,由於效率提升,他們比傳統SaaS公司更早產生現金流,但不是因為高毛利,而是因為員工很少。看著這些公司很悲哀,如果你想運行AI代理,但不願意接受低於35%的毛利率,它永遠不會成功,因為AI原生公司就是以40%左右的毛利在運作。如果你試圖保持80%的毛利結構,等於保證在AI上失敗,這是絕對的保證。這很瘋狂,因為我們已有案例證明軟體投資者願意忍受毛利壓力,只要毛利潤美元總額合理,這就是雲端運算的存在證明。你可能忘了,Adobe從本地部署轉向SaaS模式時,不僅毛利下滑,收入也大幅下降,因為從一次性收費變為多年分期收費。微軟的情況沒那麼戲劇,但早期雲轉型的股票也很難,投資者覺得“天啊,你是個80%毛利的業務,現在毛利下降到50%”。但事實證明,只要毛利潤美元總額增長,這些毛利可以隨著時間改善。微軟買下GitHub,現在GitHub也成為Copilot的分發管道,這是一筆巨大的業務,毛利較低,但成功了。幾乎沒有一家應用型SaaS公司不能運行成功的AI代理策略。他們相較AI原生公司有巨大優勢,因為他們有現金流業務。我認為有機會出現新的“建設性激進者”,去告訴SaaS公司:別再這麼傻了。只需展示AI收入和毛利,說明真實的AI是低毛利的,並且對比風險投資支援的虧損競爭者。有些公司甚至可以暫時將毛利降為零,但他們有現成現金流業務。這是一套顯而易見的玩法,Salesforce、ServiceNow、HubSpot、GitLab、Atlassian,都可以運行。使用AI代理的方法很直接:先問自己,當前為客戶提供的核心功能是什麼?如何用代理進一步自動化?例如CRM,客戶做什麼?他們與客戶溝通,我們做客戶關係管理軟體,也做客戶支援。做一個可以執行這些功能的代理,以10%-20%的價格出售,讓代理訪問所有資料。目前的情況是,其他人開發的代理訪問你的系統,把資料拉走,最終你會被替換。這完全是因為企業想保持80%毛利,這是一場生死攸關的決策。除了微軟,幾乎所有人都在失敗。正如Nokia當年備忘錄所說,你的平台在燃燒,你可以跳到新的平台去撲滅火。 (51CTO技術堆疊)
輝達發佈新GPU,專為百萬級Token的程式碼生成與視訊生成任務設計
當地時間周二,輝達在加州聖克拉拉舉辦的AI基礎設施峰會上發佈了最新的 Rubin CPX GPU。這款晶片專為處理百萬級Token的程式碼生成和視訊生成任務而設計。輝達 Vera Rubin 晶片(圖片來源:輝達)在人工智慧領域,Token(標記)是一種基礎處理單位,可以代表一個詞、一個子詞,甚至是視訊或音訊中的片段。無論是使用 ChatGPT、Claude、Gemini 還是 Grok,這些模型都會將使用者輸入的文字或指令拆分成若干 Token,並基於這些 Token 進行分析和生成回答。Rubin CPX 將與輝達的 Vera CPU 及 Rubin GPU 配合使用,構成 Vera Rubin NVL144 CPX 平台的一部分。其中,“NVL144” 表示該系統配備 144 個 GPU。輝達首席執行官黃仁勳表示:“Vera Rubin 平台將再次推動 AI 計算實現跨越式發展——不僅推出新一代 Rubin GPU,還引入了一類全新處理器架構——CPX。正如 RTX 曾徹底革新圖形處理與物理模擬領域,Rubin CPX 是首款專為‘超大規模上下文 AI’打造的 CUDA GPU,可支援模型在數百萬個 Token 的知識範圍內同時進行推理與運算。”據官方介紹,Vera Rubin NVL144 CPX 的 AI 性能將達到現有 Grace Blackwell 架構 GB300 NVL72 系統的 7.5 倍。輝達表示,該平台將顯著提升客戶的 AI 商業化能力,並測算出:每投入 1 億美元,預計可實現高達 50 億美元的基於Token的收益。Rubin CPX 預計將在 2026 年底正式上市。 (超算百科)
區塊鏈一定要有 Token 嗎?
區塊鏈一定要有 Token 嗎?提到區塊鏈,你首先想到的是什麼?是不是比特幣、以太坊——那些在螢幕上 24 小時跳動、讓人一夜暴富或徹夜難眠的數字元號?這些符號,就是我們常說的 Token,也叫“代幣”。久而久之,一個等式彷彿刻在了所有人的腦海裡:區塊鏈 = 發幣但,真的是這樣嗎?資料庫不需要 Token,網際網路也不需要,為什麼偏偏到了區塊鏈,這個“幣”似乎就成了必選項?沒有 Token 的區塊鏈,還能運轉嗎?Token 究竟是幹嘛的?想像你要在全球搭建一個去中心化的帳本系統,沒有公司、沒有員工、沒有老闆。那誰來幫你記帳?誰來打包交易?誰來維護安全?靠愛發電?不現實。這時候,Token 就登場了。它像是一種原生貨幣,為這個系統注入經濟激勵。你貢獻算力,就能獲得 Token 獎勵;你質押資產,就能參與驗證記帳;你打包交易、維護網路,就能獲得手續費作為回報。Token 就是區塊鏈世界裡的“工資”“燃料”和“信用籌碼”。在沒有法律、沒有監管、沒有公司發工資的環境中,Token 是唯一能讓陌生人協作的機制。區塊鏈與傳統金融的根本差別要理解 Token 的必要性,我們不妨對比一下傳統金融和區塊鏈系統的運行方式:傳統金融靠國家機器背書,區塊鏈則靠演算法與 Token 激勵達成共識。可以說,Token 是區塊鏈試圖擺脫制度依賴、實現自我運行的關鍵發明。可是,真的“所有區塊鏈”都需要 Token 嗎?答案是——未必。來看一個反例:聯盟鏈(Consortium Blockchain)(如果你覺得聯盟鏈不算區塊鏈,那就省略這段)。比如,一個由幾家銀行組成的帳本網路,用於跨行結算或供應鏈追蹤。這裡的參與者身份可知、動機清晰、責任明確,他們之間的協作,靠的是商業合同、合作關係、企業信譽。在這種場景中:沒有人需要靠挖礦賺錢,也沒有匿名節點需要經濟懲罰,更不需要“通證經濟”來引導行為。所以,聯盟鏈完全可以不發 Token,也能高效運作。但它也就不是一個真正意義上的“去中心化系統”,更像是一個多方共享資料庫。Token 的真正價值:它替代了制度為什麼區塊鏈一出現,就“非得”有 Token?因為它試圖替代的,不是資料庫,而是一整套制度。沒有老闆,Token 就是工資;沒有法律,Token 就是懲罰;沒有央行,Token 就是貨幣;沒有監管,Token 就是股權。當你想建構一個制度真空中的運行機制時,Token 就是那個“被迫誕生”的制度替身。這也是為什麼你會看到:比特幣用 Token 激勵礦工;以太坊用 Token 進行 Gas 結算;MakerDAO 用 Token 治理系統;Uniswap 用 Token 投票社區資金用途。這些系統之所以能長期自治,靠的都是 Token 背後的經濟邏輯。那麼,Token 是不是區塊鏈的全部?當然不是。Token 是必要條件,但不是充分條件。一個“發幣系統”,未必有真實價值。一個不發幣的區塊鏈,也可能在特定場景下高效運作。真正有意義的區塊鏈項目,一定是在 Token 激勵之上,建構出可靠的協作機制、清晰的價值邏輯,以及健康的社區文化。換句話說:Token 是區塊鏈的血液,但靈魂,依然是那套“去中心化信任邏輯”。所以問題回到原點:區塊鏈一定要有 Token 嗎?答案是:如果你要建構一個開放、去中心化、全球協作的系統——Token 是制度的替代,不可或缺。但如果你的目標只是提升效率、共享帳本、互信協作——Token 並非必須。未來,或許會有越來越多的鏈,不發幣。也可能會出現新的激勵機制,超越 Token。但在今天,Token 依然是區塊鏈最核心的制度裝置。它不是發幣致富的工具,而是重建信任與激勵的一場系統性實驗。 (Seven Research)
從資產到Token:揭開RWA對應結構的‘價值橋樑’
導語想像你手裡握著一張看似普通的票據,它背後可能是一棟商業樓、一筆企業債,或者一份應收帳款。如果這張票據直接在市場上流通,經常會遇到驗證成本高、交易效率低、流動性差的問題。現在,區塊鏈來了,它給了這張票據一個“數位化護照”,讓它可以自由穿梭在全球金融市場。這個護照,就是RWA項目中的Token。可是,問題來了:一張票據如何變成一枚可信賴的Token? 票據上的資產價值如何被精準、安全地“翻譯”到鏈上?如果沒有一個清晰的規則,Token就可能只是空殼,投資者的信任也會蕩然無存。這時,Token對應結構登場了。它就像一座堅固的橋,把現實資產和鏈上世界牢牢連接起來,確保“票據”與“護照”一一對應,既不失真,也能高效流通。這座橋建得穩不穩,直接決定了RWA項目能否落地、能否讓市場信任,也決定了鏈上資產的流通速度和規模。接下來,我們就從最基礎的概念入手,一步步拆解RWA項目中的Token對應結構,看看它是如何運作的,又有那些不同的設計方式。一、Token對應結構的概念Token對應結構,通俗來說,就是“現實資產如何與區塊鏈上的數字Token對應”的機制。它將線下的價值對應到鏈上,讓數字Token成為現實資產價值的可流通載體。在RWA項目中,Token對應結構通常包括以下幾個核心要素:1. 底層資產(Underlying Asset)RWA的本體,如商業貸款、債券、房地產、礦產資產等。2. 數字Token(Digital Token)鏈上的代幣化資產,可以在區塊鏈上進行交易、質押、抵押或分割。3. 對應規則(Mapping Rules)確定Token與底層資產之間關係的規則,包括1:1對應、分層對應、部分抵押等。4. 治理與合規機制(Governance & Compliance)確保Token對應過程符合法律法規和監管要求。簡單理解,Token對應結構就是RWA上鏈的“數學與法律公式”,它告訴你“一份Token對應了多少現實資產,有那些權利和限制”。二、RWA項目中常見的Token對應結構類型根據對應的方式和資產類型不同,RWA項目中的Token對應結構主要可以分為以下幾類:1. 1:1對應結構這是最直觀的對應方式,即每一份數字Token對應同等數量的現實資產。例如:一份Token代表1000美元的公司債券;一份Token代表一平方米的房地產權益。特點與優勢:對應簡單直觀,便於投資者理解;流動性好,Token可以直接在二級市場交易。潛在風險:需要高透明度的資產託管和審計機制,否則投資者難以驗證Token背後的真實資產;在資產價格波動較大時,1:1對應可能導致Token價值波動加劇。2. 分層對應結構(Tranche Token)在一些高風險或收益分層的RWA項目中,會採用分層對應結構,將Token分為不同等級或Tranche,每層對應不同風險和收益權利。例如,一個貸款池可能發行三類Token:優先順序Token(Senior Token):優先獲得收益,風險低;次級Token(Mezzanine Token):收益中等,承擔部分風險;劣後Token(Junior Token):收益高,但風險最大。特點與優勢:滿足不同投資者的風險偏好;可通過分層設計最佳化資產池的融資結構。潛在風險:結構複雜,普通投資者可能理解困難;需要完善的清算和回收機制,否則分層權益容易糾紛。3. 抵押型對應結構一些RWA項目採用抵押型對應,即數字Token背後有部分或全部底層資產作為抵押。例如:穩定幣項目中,Token部分由RWA資產抵押支援,如企業債券或應收帳款;房地產抵押型Token,每個Token代表部分房產抵押權。特點與優勢:提高Token信用度,使其更容易被市場接受;為資產提供額外保障,降低投資者風險。潛在風險:抵押品管理和清算機制複雜,需要法律和技術支援;抵押資產價值波動大可能影響Token穩定性。三、Token對應結構設計的核心要點在設計RWA Token對應結構時,需要綜合考慮技術、法律和金融三方面因素:1. 資產鑑證與託管必須確保Token背後的RWA真實存在,可通過第三方審計、託管機構和鏈上證明機制保障。例如,銀行存管、保險保障或區塊鏈上多重簽名託管(Multi-Sig)機制。2. 對應透明度投資者需要清晰瞭解Token和底層資產的對應關係,包括比例、分層權利及收益計算方式。可通過智能合約和鏈上資料公開實現透明化。3. 法律合規不同國家對RWA上鏈和Token發行的監管要求不同,設計對應結構時必須遵循當地法規。合規方案包括SPV(特殊目的載體)、代幣持有人協議、KYC/AML流程等。4. 流動性管理Token對應結構應支援在二級市場交易、質押或兌換,以提高資產流動性。例如,可設計兌換機制,將Token隨時兌換回底層資產或法幣。5. 風險緩釋機制包括價格波動保護、分層結構、保險機制或超額抵押等。對投資者和資產方都能提供更穩健的風險管理方案。四、Token對應結構的實際應用案例1. 債券代幣化一些RWA項目將企業債券通過SPV(特殊目的載體)上鏈,發行對應Token。每份Token與一定面額的債券掛鉤,投資者可在二級市場交易,收益按利息分配。2. 房地產代幣化房地產項目通過分割房產權益,發行Token代表所有權份額。例如,一棟商業樓可以拆分為10000份Token,每份Token對應0.01%的產權,投資者可以按Token收益分紅。3. 供應鏈金融RWA企業應收帳款代幣化,通過Token化對應到實際應收款,投資者可購買Token提前獲得應收帳款的收益,實現供應鏈融資。這些案例都顯示,Token對應結構不僅是技術實現手段,更是金融創新與資產流動性提升的核心工具。總 結RWA項目的Token對應結構,是連接現實資產與區塊鏈世界的關鍵紐帶。合理的對應結構能夠確保資產價值真實可信,提高投資者信心,並推動RWA市場的規範化與發展。在實際設計中,需要兼顧對應規則、風險管理、法律合規及投資者體驗。無論是簡單的1:1對應,還是分層或抵押型對應,都應以透明、安全、可操作為原則,確保Token真正成為現實資產價值的數位化代表。隨著RWA市場的發展,Token對應結構將不斷創新,從單一資產對應到資產組合對應,從線性對應到智能合約驅動的動態對應,最終實現RWA在全球金融市場的高效流通與價值創造。 (雲上RWA)
什麼是Token,Token 與 Coin 的區別
Token(代幣) 是區塊鏈和加密貨幣領域中的核心概念,通常指基於現有區塊鏈(如以太坊、Solana等)發行的數位資產,代表某種權益、功能或價值。它可以理解為一種“數字憑證”,其形態、用途和規則由智能合約程式碼定義。不是獨立貨幣(如比特幣),而是依託於某條區塊鏈(例如以太坊的 ERC-20 代幣)。依賴底層鏈的安全性和共識機制(如以太坊的 PoS)。可程式設計性:通過智能合約實現複雜功能(如自動分紅、銷毀機制)。可能是貨幣、股權、投票權、遊戲道具、訪問憑證等。Token 的常見類型類型 代表例子 作用實用型代幣 LINK (Chainlink) 支付區塊鏈服務費用(如獲取鏈上資料)治理代幣 UNI (Uniswap) 持有者可投票決定協議發展方向穩定幣 USDT, DAI 價值錨定法幣(如1 USDT ≈ 1美元)證券型代幣 tZERO (合規STO) 代表傳統金融資產(如股票、債券)NFT BAYC, CryptoPunks 唯一性數位資產(藝術品、收藏品)Memecoin DOGE, SHIB 社區文化驅動,無實際用途(高風險投機)Token 與 Coin 的區別Coin(幣)是區塊鏈的原生貨幣,有獨立網路(如比特幣、以太幣)。主要用於支付交易手續費或作為價值儲存。Token(代幣)依賴現有區塊鏈發行,無獨立網路(如UNI代幣運行在以太坊上)。用途更靈活,由發行方定義規則。 簡單比喻:Coin 像國家的法定貨幣(如美元),而 Token 像遊樂場的代幣或超市優惠券——需要依託特定場景使用。Token 的建立與標準以太坊常見標準ERC-20:同質化代幣(可互換,如USDT)。ERC-721:非同質化代幣(NFT,如CryptoPunks)。ERC-1155:混合標準(同時支援同質化和非同質化)。其他鏈標準BSC 的 BEP-20、Solana 的 SPL 代幣等。Token 的價值來源實用性需求,如支付Gas費(ETH)、購買服務(FIL儲存網路)。治理權持有者可參與協議決策(如Compound的COMP代幣)。投機/供需市場炒作或通縮設計(如比特幣總量上限)。底層資產背書穩定幣由法幣或加密貨幣抵押(如USDC、DAI)。風險提示程式碼風險:智能合約漏洞可能導致代幣被盜(如2016年The DAO事件)。監管風險:部分代幣可能被認定為證券(如SEC起訴XRP)。流動性風險:小眾代幣難買賣,價格易操縱。如何獲取 Token?交易所購買:中心化(幣安)或去中心化(Uniswap)。空投(Airdrop):免費領取(通常需完成互動任務)。挖礦/質押:提供流動性賺取代幣獎勵。 案例:UNI 是 Uniswap 的治理代幣,持有者可投票決定手續費分配等規則。USDC 是中心化發行的穩定幣,由美元1:1抵押。BAYC 是NFT代幣,每個代表獨特的猿猴圖像所有權。代幣與硬幣的區別硬幣是區塊鏈的原生貨幣,有獨立網路(如比特幣、以太幣)。主要用於支付交易手續費或作為價值儲存。Token(代幣)依賴現有區塊鏈發行,無獨立網路(如UNI代幣運行在以太坊上)。用途更靈活,由發行方定義規則。 簡單比喻:硬幣像國家的法定貨幣(如美元),而代幣像遊樂場的代幣或超市優惠券——需要依託特定場景使用。令牌的建立與標準以太坊常見標準ERC-20:同質化代幣(可互換,如USDT)。ERC-721:非同質化代幣(NFT,如CryptoPunks)。ERC-1155:混合標準(同時支援同質化和非同質化)。其他鏈標準BSC的BEP-20、索拉納的SPL代幣等。代幣的價值來源實用性需求,如支付燃氣費(ETH)、購買服務(FIL儲存網路)。治理權持有者可參與協議決策(如化合物的COMP代幣)。投機/供需市場炒作或通縮設計(如比特幣總量上限)。底層資產背書穩定幣由法幣或加密貨幣抵押(如USDC、戴伊)。風險提示程式碼風險:智能合約漏洞可能導致代幣被盜(如2016年道(DAO)事件)。監管風險:部分代幣可能被認定為證券(如SEC起訴XR P)。流動性風險:小眾代幣難買賣,價格易操縱。如何獲取令牌?交易所購買:中心化(幣安)或去中心化。空投(Airdrop):免費領取(通常需完成互動任務)。挖礦/質押:提供流動性賺取代幣獎勵。 案例:UNI是Uni wap的治理代幣,持有者可投票決定手續費分配等規則。USDC是中心化發行的穩定幣,由美元1:1抵押。BAYC是NFT代幣,每個代表獨特的猿猴圖像所有權。 (通曉芸芸眾生)
Google Token使用量是ChatGPT的6倍?
本篇文章的內容來自星球中的一個討論,Google Gemini的DAU/MAU明明比ChatGPT要少很多,但Google的token使用量卻是ChatGPT的6倍。最後還是感謝球友的提醒,發現自己沒有好好看報告...上個月,在Barclays的一份報告中,有這樣一張圖:Google的Token使用量竟然是微軟(大部分都是ChatGPT消耗的)的6倍。再來看下DAU的資料,semianalysis和Barclays給的不太一樣,而且都是今年3月份的資料。semianalysis的資料中,Gemini的DAU連ChatGPT的1/4都不到;Barclays的資料中,Gemini是ChatGPT的一半。但無論是那個資料,ChatGPT都起碼比gemini高了一倍,那又是如何算出Google的token消耗量比ChatGPT高6被呢?在 2025 年第一季度,Google 在 AI 推理方面的 Token 使用量達到了驚人的 634 兆(Trillion),遠遠超過了同期微軟的 100 兆。更值得注意的是,Google 在 2025 年 4 月單月的 Token 使用量高達 480T,而一年前的同期僅為 9.7T,短短 12 個月增長了近 50 倍。這一巨大的增幅主要來自搜尋業務中引入的 AI Overviews、Lens、Circle to Search 等新功能,以及 Workspace 等產品線對 Gemini 模型的深度整合。這個資料就很關鍵了,Google 的 Token 使用並不主要來自 Gemini Chat,而是由搜尋產品驅動。資料顯示,Gemini 在 2025 年 3 月的月度 Token 消耗約為 23T,僅佔 Google 整體 Token 使用的約 5%。相比之下,AI Overviews 等搜尋增強功能才是 Token 消耗的主力軍。這種平台級的呼叫方式使得即便 Gemini 的日活使用者(約 4000 萬)只有 ChatGPT(約 8000 萬)的一半,Google 的整體 Token 使用量依舊遙遙領先。使用者方面,ChatGPT 在活躍使用者數量上依然保持領先,MAU(Monthly Active Users)約為 8 億,而 Gemini 為 4 億。不過,Gemini 與 ChatGPT 在單個使用者的 Token 消耗上幾乎一致,月均每個 MAU 使用約 56,000 個 Token,說明使用者活躍度與使用強度方面並沒有明顯差距。這也從側面印證了 Google 的 Token 消耗高,並不是因為個別使用者使用過度,而是系統性地在各類產品中嵌入了 AI 推理能力。2025 年第一季度,Google 處理這些推理 Token 的成本約為 7.49 億美元,佔當季營運支出(不含流量獲取成本 TAC)的 1.63%。即便將這一成本年化,也僅相當於 Google 搜尋收入的約 1.4%。相比傳統搜尋的營運成本約佔營收的 18%,AI 帶來的成本負擔尚屬可控。Barclays 的結論是,雖然 AI 推理確實增加了伺服器負載和晶片需求,但對 Google 的利潤率影響有限。Barclays 預測,僅為了支撐當前 Token 處理需求,Google 在 2025 年 Q1 就需要約 27 萬顆 TPU v6 晶片,季度新增晶片支出達 6 億美元,預計 Q2 將增長至 16 億美元。這意味著 Google 的 AI 推理已成為支撐其未來基礎設施建設的核心動力之一。前幾天Google的財報發佈,非常炸裂,我們在星球中也放了幾個機構對Google的分析,有興趣的朋友可以到星球查看。 (傅里葉的貓)
BTC Bull Token 最後倒數搶購中!下一個 SHIB 或 FLOKI?
投資者搶購BTC Bull Token(BTCBULL)預售價格的時間所剩無幾。目前預售已籌集超過784萬美元,BTCBULL 展現出的強勁動能可能只是開始 —— 尤其是在潛在主流交易所上幣的預期下。這也讓不少人開始問:這會是下一個 Shiba Inu(SHIB)或 Floki(FLOKI)嗎?BTCBULL 與 SHIB 和 FLOKI 之間存在明顯的相似之處,這兩款以狗為主題的迷因幣都曾從微市值暴漲至數十億美元估值。但 BTC Bull Token 是另一種「動物」——從字面上也是如此。它將迷因幣的能量直接連接到全球最大加密貨幣比特幣(BTC),而不是像 Dogecoin(DOGE)那樣單純調侃比特幣。BTCBULL 的設計是為了緊跟每一個比特幣的重要里程碑,並在此過程中以真實的 BTC 獎勵持幣者。如果你還沒有買入,時間幾乎要用完了。每枚 BTCBULL 僅售0.002585美元的價格,或許將再也無法見到。訪問BTC Bull TokenBTCBULL 從 SHIB 和 FLOKI 身上學到什麼Shiba Inu 和 Floki 都曾從極低估值成長為數十億美元市值的加密項目。從歷史低點到價格高峰,SHIB 創造了驚人的152,810,317,700%漲幅,而 FLOKI 的漲幅則為408,910% —— 這一數據同樣在任何標準下都極為驚人。SHIB 借助 Dogecoin 帶起的文化熱潮成功出圈,以一句簡單的「為什麼不試試?」引爆散戶FOMO情緒,把零錢變成了翻天覆地的財富。FLOKI 則在此基礎上進一步創新,加入了質押獎勵與使命驅動的品牌敘事,讓持幣者不再只是單純投機,更有理念可以追隨。SHIB 在首次暴漲後推出了 ShibaSwap —— 與 FLOKI 的質押功能類似 —— 以及其他生態系統建設,用於支撐項目的長期增長。BTC Bull Token正是在這兩種成功模型基礎上進化而來。但不同的是,它並不僅僅依賴 Rick Ross 式、戴著金鍊的肌肉牛迷因能量,而是將比特幣的重要里程碑直接綁定於每一位 BTCBULL 持幣者的真實獎勵。此外,項目還內置了銷毀機制,以實現代幣價值的穩定增長 —— 這些都是從 Day 1 就設計好的,而不是像 SHIB 和 FLOKI 那樣在熱度過後才陸續補上的功能。這意味著 BTC Bull Token 有潛力複製甚至超越過去頂級迷因幣的收益表現 —— 並在整個過程中緊跟比特幣的上漲步伐。BTCBULL 準備好迎來 50 倍至 90 倍暴漲?數據給出答案按照當前 $0.002585 的價格計算,BTC Bull Token 上市時的完全稀釋估值(FDV)僅約為 5400 萬美元,為未來的上漲預留了巨大空間。與那些純靠情緒炒作的迷因幣不同,BTCBULL 的設計一開始就綁定了比特幣價格節點與被動收益機制。運作邏輯如下:當比特幣價格觸及 $150,000 時,BTCBULL 持幣者將自動獲得按持倉比例計算的比特幣空投。此後每提升 $50,000(即 $200,000、$250,000、$300,000……),空投將持續進行。同時,當 BTC 突破 $125,000 並每增加 $50,000 時,BTCBULL 將自動啟動供應銷毀機制,逐步減少流通量,增強稀缺性。如果 BTCBULL 市值達到 5 億美元,相較上幣價格將實現 9 倍漲幅;而如果情緒進一步爆發,觸發迷因行情,達到 10 億美元市值也不是天方夜譚,屆時將實現約 18 倍回報。若進入全面狂熱模式,比特幣飆升至 $200,000,各項獎勵節點接連觸發,BTCBULL 的代幣經濟學將進入瘋狂價值發現階段。此時市值潛力可達數十億美元,一旦條件到位,實現 50 倍至 90 倍的漲幅將指日可待 —— 這與知名加密媒體 CryptoNews 提出的百倍潛力預測相吻合。https://www.youtube.com/watch?v=UHzvQ_aOjVE當然,在加密世界中沒有任何事情是有保證的,但 BTC Bull Token 所帶來的一切都是前所未有的。它將迷因能量與比特幣的吸引力結合,已經在早期投資者中引發了大量關注,而一旦登陸交易所,這種興奮情緒可能會呈現拋物線式爆發。在 BTCBULL 開始交易前的最後搶購步驟預售價格讓早期投資者有機會在 BTCBULL 正式上線交易所前搶先入場。這是登月旅程啟動前的絕佳時刻 —— 參與方式如下:前往BTC Bull Token 官方網站,連接錢包,使用 ETH、USDT 或銀行卡進行購買。BTC Bull Token 推薦其戰略合作夥伴Best Wallet,以滿足項目中比特幣獎勵機制所需的多鏈需求。若想獲得 BTC 空投,你也可以將錢包導入 Best Wallet。如果你尚未使用 Best Wallet,可在Google Play或Apple App Store下載應用。關注 BTC Bull Token 的X和Telegram頻道,獲取里程碑更新和社區公告。訪問BTC Bull Token免責聲明:本內容為通訊社發布的新聞稿,僅供參考。我們未對其中的資訊進行獨立驗證,亦不對其準確性或所述服務承擔任何責任。本內容不構成投資建議或推薦,亦不應被視為此類建議。我們強烈建議您在參與任何金融活動或投資決策前,諮詢合格且受監管的專業財務顧問,以確保自身權益。