#火山引擎
AI上春晚:一場十四億人的驗收
AI模型的「最牛甲方」教會了我們什麼?如果還有“春晚最愛的節目評選”,2026年春晚你投那一個?“春晚最夯”“MVP”“每一幀都是絕美”這是2026春晚《賀花神》節目的網友評論。當白居易舟行水上,吟出「猶在水中央」;當繪畫大家徐渭潑墨成花;當王昭君凝眉轉身回望中原,一撥琵琶;我的中國文化DNA動了。直到節目結束,主持人念出“火山引擎用豆包大模型圖像和視頻生成能力打造十二花神視效”,很多觀眾才意識到,AI的能力已經走到了這一步。這也是有史以來AI含量和科技含量最大的一屆央視春晚。這首先是一場給十數億人的AI視覺奇觀。不只美輪美奐《賀花神》,在歌舞節目《夢底》中,當演員劉浩存在舞台上伸展舞姿,五個逼真的數字分身,也在舞台背景上演繹著一番悲歡離合。當鏡頭移動、現場燈光變化時,分身的視角和光影也會即時同步。吸引了許多人目光的,還有蔡明的機器人小品:機器人能在後空翻之餘,還能懟人逗悶子——「如果真孫子和機器人孫子掉河裡,奶奶先救誰?」「機器人:我倆一起掉河裡,你就被電死了。」——在豆包剛在「科技晚露」懟過過河裡永人之後的小手。當主持人數次拿起手機,對螢幕前的觀眾喊話:讓大家打開豆包App,生成一句馬年的祝福、讓豆包根據自己的形像生成拜年頭像…這些時刻都頗具意味。站在2026年的起點,談論AGI的終極想像已經陷入流俗──大部分的人類想像,都沒有超越《Her》或《鋼鐵人》裡全知全能的AI助手。相較之下,距離我們更近的現實,正在劇烈地改變。在除夕當天,豆包AI互動總數達19億,「豆包過年」活動,就已經幫助用戶產生超過5000萬張新春主題頭像、生成超過1億條新春祝福。除夕當天,火山引擎豆包大模型的峰值TPM(每分鐘token數)正是在春晚主持人宣布用豆包進行第二輪互動之的這一分鐘內,豆包大模型推理吞吐量達到633億tokens。AI界的「技術奇觀」仍在繼續。從去年的Google的Nano Banana,到近期的「小龍蝦」Clawdbot、字節視訊生成模型Seedance 2.0,都在共同趨向一條主線:每一次技術爆發後,傳遞到C端用戶中的速度在迅速加快。擁有資金實力的大廠們用紅包、春晚、AI點奶茶等大戰,加速了這些「奇觀」的爆發。這讓2026年的春節大戰,足以被記錄為歷史性時刻。這個時刻有兩個維度:一個是技術邊界的突破——AI第一次在國民舞台上,完成了此前不可能的創作;另一個時刻在於使用門檻的迅速降低——觀眾們第一次發現,AI不再是遙遠的技術競賽,而是在自己身邊,能「幫得上忙」的助手。AI視效怎麼滿足頂級甲方?這個「幫得上忙」的時刻,先發生在了春晚導演組的準備過程中。2026年春晚前夕,看到水墨奔馬從靜態畫卷中躍然而出,從頭到尾保持一致,依然威風凜凜時,火山引擎工程師小林終於放下心來。在導演組確認效果達標前,沒有人能預料到效果如此好——包括春晚導演組和火山引擎自己。來源:歌曲《駕馭風歌》,背景動畫用Seedance 2.0生成一個多月前,春晚導演組把一份節目需求遞給了火山引擎團隊,要求看似簡單:一張徐悲鴻風格的水墨畫,畫上幾匹風格各異的馬,能讓馬跑起來就行,那怕原地踏步也可以。大模型的邊界在那裡,能不能實現?至少,在接到春晚導演組的節目要求時,火山引擎工程師小林並沒有答案。 「非常忐忑。」他對36氪回憶道。當時,字節正忙於訓練新一代的旗艦生成模型Seedance 2.0,進度只有約30%左右。AI影片生成模型特別適合春晚這種節奏快、變化多、不斷需要迭代的專案。在火山引擎團隊接手之前,春晚導演組已經嘗試了市面上幾乎所有主流的影片生成模型,但最後發現,在水墨畫這個場景上,都不如人意。水墨風格的影像語料本來就極度稀缺,大多數國外模型根本不懂什麼是水墨畫,又因為水墨畫以寫意為主,而非寫實。在沒有分鏡腳本、動態參考時,很難有人說清「水墨畫動起來應該是什麼樣子」。但嘗試之後,團隊發現,導演組想要實現的效果——風格遷移、參考生成、細粒度動態控制——恰好與他們正在訓練的Seedance 2.0的技術方向非常契合。春晚導演組就這樣成了Seedance 2.0的全球第一位頂級用戶。頂級甲方的好處在於,甲方們的藝術素養是一流的。一開始,駿馬身上用寫意手法畫的紋路和毛髮,奔跑時身上的紋路該怎麼動?火山引擎的理科生團隊想像不出來,只能請導演組的老師手繪出腦海中下一幀的版本,再反復用AI跑視頻,去逼近那個“對”的感覺。來源:歌曲《駕馭風歌》即便模型能生成馬的動態視頻,又會遇到更棘手的一致性問題:畫上有六匹馬,每匹顏色、長相、氣質都不同。就算能夠生成馬奔跑起來的影片。同時,六匹馬的樣子很難保持平衡,甚至數量也會在下一個畫面中改變。在這些基礎上,也要確保畫面也夠精緻逼真。否則,在春晚舞台背後的真HDR和8k超高清螢幕上,面對著十數億觀眾,最細小的瑕疵和失誤都難以被容忍。火山引擎的解決辦法是:遵循“先可用後滿意”的迭代邏輯,先生成關鍵幀,再基於關鍵幀生成動態視頻,而非直接用文字描述生成。「我們沒有為春晚單獨微調模型,」字節相關團隊表示。團隊對模型在每個訓練階段的能力邊界有著清晰認知-知道它能做什麼、不能做什麼。隨著訓練進度推進,他們不斷在能力邊界內,把模型能力用到極限。在春晚計畫的推進過程中,來自導演組的回饋也反哺了模型訓練環節。 「最高峰的時候,我們每周可以迭代數十到超過一百個視訊版本,這是傳統影視團隊不可能達到的頻率。」他說。但僅僅過了一個月,火山引擎團隊就拿出了驚人的結果:將一張靜態水墨畫,變成了一段分鐘級、包含分散、聚合、特寫、交互等複雜分鏡的動態影像。每一匹馬不僅跑了起來,都保持著自己的性格和特質,六匹馬會在畫面中分散、聚合、互動,最後回到一張完整的畫面。如今的Seedance 2.0模型最高僅能支援到720P 24 FPS的直出內容,與春晚的畫質要求有差距。為此,火山引擎團隊甚至建立了一套畫質精修體系──這套體系會先分析畫面裡的人、運動、細節紋理等等要素,用多種演算法組合,把畫質規格提升到春晚可播出的標準。另一個有趣的現像是,一開始,當導演組還不清楚模型能力時,需要模型團隊不斷先提出方案,推到創作者面前。但當模型可用性提升到80%-90%以上,創作主導權發生了逆轉——導演組開始隨心所欲地提出創意要求,模型能夠穩定響應各種精細化的藝術控制指令,分鏡的設計權又回到了導演手中。中國AI的“黑神話時刻” 是怎麼發生的?不論是在《賀花神》中起舞、吟詩的十二個花神、《駕馭風歌》節目裡奔騰的駿馬,還是豆包App的春節AI互動,都離不開一個關鍵字:字節影片生成模型Seedance 2.0。Seedance 2.0在臨近春節前上線,引起的全球轟動仍在持續,甚至被遊戲科學創始人馮驥稱為「中國AI圈的黑神話時刻」。為什麼它能夠有這麼大的影響力?這是因為,影片生成模型第一次完成了從生成一段畫面,到完成一個完整作品的跨越。以往的影片生成模型,更多是產生大量零碎畫面的工具。創作者本質上是在「抽卡」-先畫好分鏡表,依照每個分鏡的要求(近景、中景、遠景,畫面內容等)。生成的10個影片中,可能只有1-2個能用,大量的時間還要耗費後製上,例如讓生成的影片裡人物、背景保持一致。在不少用例中,我們都能夠看到,僅是簡單的一段話,描寫出故事情節、畫面風格,Seedance 2.0就直接能夠生成一段15-30秒、帶鏡頭調度、保持角色一致、音畫同步的視頻,可用率高達八成以上。重點在於,Seedance生成的視頻,鏡頭間的切換是帶有“導演思想”的,這根本性地改變了創作體驗,真正做到了讓創作者指揮AI拍電影,模型完成相當大部分的“思考”工作。要讓模型懂得真正理解世界,這需要模型全方位的能力都達到基準線。字節相關團隊用了一個比喻:基礎大模型的訓練,木桶效應非常顯著——就像是,面對一個60分的考生,很難挖掘亮點;但當考生到了90分,所有閃光點才會被看見。 Seedance 2.0 的突破,不是某個單一能力的躍升,而是過去影響可用性的短板被系統性地解決後,使用者體驗發生了質變。相較於上一代模型,Seedance2.0進步的一個重要原因是訓練標準。在2.0的訓練過程中,Seedance團隊建立了一套新的Benchmark(評測系統):第一層保證畫面中的實體正確、運動不崩壞;第二層才追求更高的視覺表現力和遵循能力。換句話說,在模型的能力演進曲線完全沒有收斂時,多模態模型的進步,很大程度上還需要依賴基礎模型能力的提升。在明白這個道理前,字節也交過一些學費。36氪了解到,從2023年開始做AI時,字節並沒有更多追求在更大的參數上訓練模型,而是先訓練一個參數較小的基礎模型,推出C端應用,根據用戶反饋來快速迭代產品,當時,基礎模型的規模更多是「夠用就好」。所以,儘管豆包依靠字節的抖音,語音、圖像等多模態功能做得非常好,但一開始總被用戶嫌棄“有點傻”,限制了豆包的能力泛化到更多專業場景。2025年的DeepSeek時刻之後,國內大廠都結實實在RL(強化學習)上捲了一整年。字節不僅增加了基礎模型的投入,並且讓模型團隊和AI應用一定程度解耦——模型團隊追求模型的智能上限,產品團隊則繼續圍繞豆包App為主的產品進行高速迭代,從用戶的使用場景中提取需求,反哺給模型團隊。Seedance 2.0的上一個版本1.5 pro,就驗證了這種路線的可行性。當時,模型其實已經可以做到聲畫同步,例如生成一個室內的畫面,聲音會對應地變得更集中;戶外的畫面則匹配一個更悠遠、空曠的聲音。所以,當基礎模型Seed 2.0的能力大幅提升-Seedance 2.0也變得更聰明了。相較前代版本,2.0擁有了自己的“導演意圖”,生成的視訊分鏡是符合故事敘述​​邏輯的,這滿足了更多專業創作者的需求。更大規模的爆發來自工程上的降本。保持角色一致、到達更高可用度,讓Seedance 2.0在應用側邁了一大步,如果抽卡頻率能降至25%(即2次),成本可降至1.4元/秒,降幅高達68%。這讓大眾用戶更容易創作出有品味的AI影片。於是,抖音、B站、小紅書等平台迅速出現了大量地整活類二創,進一步促進了全球的破圈。怎麼喊十幾億人來玩AI?2015年的春晚,當央視春晚主持人說出「拿起手機搖一搖」時,中國的行動網路歷史被改寫了。那一夜,微信用戶搖了110億次手機,2億人搶紅包的過程中綁定了銀行卡。馬雲後來把這次突襲稱為「珍珠港事件」——他用了8年時間累積的支付寶用戶,被微信用一個晚上追平了。不過,微信紅包的成功有一個前提:行動支付技術在2015年時已經成熟,用戶需要的只是一個「為什麼要用」的理由。但現今的AI,可能比大家想像的階段還要更早。除夕夜,十幾億人同時用AI生成紅包封面和祝福語時,看似簡單的操作背後,就是一場艱鉅的基礎建設保障戰爭。AI的基礎建設還遠遠未到成熟之時。一位火山引擎人士對36氪算了一筆帳:傳統的搶紅包基本上只用CPU算力,一次請求的算力消耗在十萬分之一Tops以內。透過大模型產生祝福語和祝福圖片,單次請求需要累積消耗約10 Tops算力——對於單一請求而言,算力消耗差有百萬倍之多。那麼,為什麼字節要在春晚場景中,用百萬倍的算力猛推多模態紅包、祝福語;阿里千問為什麼要狂撒補貼,讓AI幫人類點奶茶?在1998年的《商業周刊》採訪中,蘋果創始人喬布斯曾說:“人們不知道他們想要什麼,直到你把它擺在他們面前。”在ChatGPT橫空出世之後的頭三年,無數AI應用創業家都在做類似的事情:去猜測用戶的需求,造了錘子找釘子。但誰真正找到了答案?在Agent時代來臨後,Anthropic憑藉著押注Coding路線,用Claude Code一舉反攻企業側市場,幾乎有反超OpenAI的勢頭;DeepSeek則極致的工程降本和展示思考鏈的產品設計,向全球展示了「AI會思考」的神奇時刻,給中國的大廠打了個樣。不同在於,美國會花更大力氣,專注在大模型本身,例如繼續堆巨量算力以迭代模型;但在中國,絕大多數網路巨頭都是憑藉消費者應用崛起,競爭更為激烈。在國內,技術突破搶佔C端場景的使用者心智,只能是雙線並行。除了技術處於發展早期之外,技術的迭代速度,也比當年的支付大戰時更快——大廠們現在面對的問題可以說更加艱鉅,無論是市場教育成本還是基建。但好處在於,如果C端應用保持快速成長的態勢,和底層的基礎設施會一起成長。例如,高速快速成長的火山引擎已經成為字節的AI能力底座和出口,正在變得越來也健壯。截至2025年12月,豆包大模型日均token使用量突破50兆,較去年同期成長超過10倍,火山2025年的營收也已快速成長,突破200億元。C端應用場景和B端服務互補式地成長,已經成為一種常態。例如,在市場心智還沒還固定前,不少人也會因為字節在豆包App、即夢和其他AI應用的良好體驗,選擇採購火山的AI雲服務;相應地,火山也被倒逼著,在一種極限狀態下快速迭代基礎設施。無論是豆包讓十億人第一次體驗多模態能力,還是阿里千問AI請奶茶,本質上理念相同:在自家模型擁有SOTA能力時,迅速讓更多的C端用戶,在合適的時機,用上AI能力。這是一場資金、技術、應用場景缺一不可的綜合戰役。換言之,模型領先只是這場戰役的前提。未來,決定一家企業成敗的關鍵,是技術範式發生改變之時,誰能將斷代領先的模型能力,迅速轉化為用戶可以感知到的產品功能——讓不用AI的人第一次體驗多模態、辦事能力,這已經決定下一個時代生態位、建立護城河的關鍵問題。 (36氪)
今年春晚的C位,變了
今年春節,AI 快把各大衛視卷懵了。火山引擎一舉拿下總台春晚獨家AI 雲冠名,其他網路大廠亦貼身肉搏,爭搶地方衛視春晚合作資源。這場仗讓榮光不再的電視台受寵若驚,多少年沒有大廠為推大模型紮堆搶冠名的待遇了。各家如此激進,其實是押注春晚帶動的陡峭成長曲線──既為爭奪產品心智,也是搶佔AI 原生應用入口。至此,2026 年春晚意外催生出一場全民大模型普及浪潮,也成為名副其實的「首屆AI 春晚」。央視作為春晚的執牛耳者,AI 元素的每次亮相都會被觀眾放大、審視。在總台春晚節目上,火山引擎將豆包視頻生成模型Seedance 2.0、豆包圖像創作模型Seedream、空間視頻等AI 技術深度融入舞台創作,打造了《賀花神》《駕馭風歌》《夢底》等多個刷屏名場面。除此之外,豆包在C 端互動也斬獲了不俗的成績單:除夕當天,豆包AI 互動總數達19 億,「豆包過年」活動在除夕幫助用戶生成超5000 萬張新春主題頭像、超1 億條新春祝福。豆包大模型在春晚做「導演」了可別覺得AI 只擅長解決技術與算力難題,2026 年央視春晚創作階段就在挑戰「不可能三角」(極致藝術效果、高頻迭代節奏與創新突破要求)。原本,藝術創作被許多人視作AI 難以跨越的天塹,是人類區別於AI 的底色,但春晚導演組誌在打造前所未有的視覺特效,比如讓水墨畫動態化、讓數字人實時響應舞檯燈光,這些場景均無現成參考方案,對模型泛化能力與藝術理解提出了極高要求。而且,這類需求還無法單靠堆人力解決。例如水墨馬的動態效果,若由動畫師純手繪完成,不僅耗時數月,還難以保證每匹馬的神韻統一;而導演組要求以周迭代,根本等不起。導演組曾嘗試國內外多款主流視訊生成模型,均未能突破「不可能三角」:一方面,國外模型無法理解中國水墨的藝術邏輯,生成的馬匹要么變形、要么喪失神韻;另一方面,國內友商產品雖在影視後期具備優勢,卻無法滿足多主體一致性與細粒度控制的需求。兜兜轉轉一圈,導演組最後找到了豆包團隊。歌詠創意秀《賀花神》在蜀葵花和金魚的視覺製作中,Seedance 2.0 為每位演員定制了“一月一人一景,一花一態一觀”的視覺奇觀,核心挑戰在於極致的細節把控——花朵綻放速度、紋理清晰度、光影均需精準控制,任何微小的春光板都被放大?2026 央視春晚《賀花神》節目舞台畫面Seedance 2.0 憑藉精細的控制能力,可根據指令精準調整花朵綻放節奏,讓每一片花瓣的展開都自然舒緩;透過多模態理解感知舞檯燈光變化,讓虛擬場景的光影與現場燈光即時同步。同時,導演組提出的「光影再柔和一點」「花瓣紋理更清晰」等修改意見可實現二次編輯,這種生成- 反饋- 迭代的閉環,讓節目效果在高頻打磨中不斷逼近導演組的藝術預期。值得一提的是,目前主流影片產生模型的直出規格為1080P/24FPS,而春晚要求達到8K/50FPS 的超高清、高幀率標準。火山引擎的視訊增強技術如同“AI 修圖師”,能在保留畫面原有風格的前提下,將視頻分辨率提升至8K、幀率拉高至50 幀,還能修復AI 生成的微小瑕疵,讓畫面在大屏上更細膩絲滑。在張傑演唱的《駕馭風歌》中,Seedance 2.0 讓徐悲鴻《六駿圖》中的靜態水墨駿馬躍然而出,六匹馬的奔跑、聚攏、分散均符合物理規律,身上的水墨筆觸隨動作自然飄動,墨色濃與原畫保持一致,甚至能與歌手準契合的唱節奏。2026 央視春晚《駕馭風歌》節目舞台畫面據虎嗅了解,火山春晚計畫組於1 月4 日收到導演組需求,6 天後就完成了初版交付。豆包大模型能實現如此高效的交付,靠的不是瞎猜,而是兩項獨門絕技:一是懂中國風。模型在訓練階段融入了大量中國傳統文化素材,涵蓋京劇、水墨畫等傳統藝術形式,真正理解水墨的筆觸、墨韻、留白,知曉什麼樣的動態才符合水墨美學。二是精準響應細粒度創作指令,能在不同畫面切換(場景、背景變化)時,確保運動品質、指令遵循能力的一致性-無論是「馬跑慢一點」「毛動輕一點」的具體要求,或是「馬的眼神要靈動」的抽象指令,模型生成效果都能與導演要求高度契合。更關鍵的是,整個創作過程由「AI + 導演」深度共創:由於先前無人見過水墨駿馬奔跑的動態姿態,導演組手繪關鍵幀,火山技術團隊參照​​關鍵幀調整創作指令,再由AI 快速生成版本,根據反饋持續迭代優化。在歌曲《夢底》裡,火山引擎的空間視訊技術也實現了明星「多分身同台」的震撼效果——明星劉浩存的多個數位分身同時在舞台上表演,鏡頭轉動時分身的視角同步變化,影子也能隨燈光即時調整。2026 年央視春晚《夢底》節目舞台畫面據虎嗅了解,這些數位分身較傳統虛擬人存在兩大核心差異:一是實時光影同步,能精準響應舞檯燈光的顏色和明暗變化,影子投射完全符合物理規律;二是運鏡交互,現場攝影機推拉搖移時,數位分身的視角會隨之變化,貼合透視虛實。這一效果的實現,得益於空間視頻技術+ 豆包大模型的組合:先在影棚用70 台相機360 度拍攝劉浩存的表演,收集3D 素材;再用豆包3D 模型生成的“幾何外殼”,解決多人同時渲染的算力問題;最後通過豆包大模型的質量精準度計算圖像深度,讓真人光體變化的細節,能看到真實感光的深度,模型更清晰地計算畫面深度,讓真人光體變化。AI 在春晚舞台上的接連出圈,也讓不少觀眾產生了疑問:AI 的創作能力已如此強大,未來是否會取代動畫師、設計師?從春晚的實踐來看,答案恰恰相反:例如水墨馬的創作中,AI 解決了動態生成、風格保持等技術難題,但創意方向、分鏡設計、情感表達仍由導演組把控;十二花神的場景中,AI 精準執行細節要求,但「一人一景」的創意構思,仍將來自人類的靈感——可見,AI 的核心價值——可見,AI 的核心。從搶紅包破解首屆AI春晚提起春晚互動,大家印象最深的可能是搶紅包網速總慢人一步的懊惱,而2026 年豆包APP 讓這場全民互動徹底變了樣:打開APP,用戶可點擊“豆包過年”呈現六種不同玩法,依次是AI 新春願望、拜年寫真、賀花神、AI 創作、新春關鍵詞撰寫獨一無二的拜年祝福語,使用者完成體驗即有機會抽取現金、科技禮包等福利。豆包APP「豆包過年」活動介面與AI 產生新春內容範例看似只多了一步創作環節,實則春晚的核心互動邏輯已被徹底重構。過去的春晚互動,本質是事務型的流量承載——無論微信搖紅包還是支付寶集五福,核心都是預設規則下的I/O 密集型操作,即用戶點擊按鈕,考驗網速與手速,一次請求的算力消耗不足十萬分之一Tops,核心挑戰在於網絡並發和數據庫讀寫能力。2026 年春晚,豆包APP 徹底顛覆了這一邏輯,將互動路徑變為AI 創作+ 抽獎,這種千人千面的體驗,是生成式AI 從少數科技擁躉向全民普及的關鍵一躍:生成式AI 成功破圈,覆蓋老人、小朋友的全年齡段,用戶可在幾分鐘內體驗這一切的樂趣,這才是真正的樂趣。這種千人千面的AI 創作互動,在帶來全民體驗升級的同時,也對背後的算力支撐與技術調度,提出了前所未有的嚴苛要求——每次互動都是一次實時創作,生成圖片需調用Seedream 圖像模型,撰寫祝福語需調​​用豆包大語言模型,單次請求的算力消耗高達10Tops,是傳統春晚互動消耗的100 萬倍。這意味著,春晚口播的短短幾分鐘內,豆包APP 要同時承接上億次「百萬倍算力」的請求,相當於讓一台普通伺服器瞬間扛住100 萬台電腦的運算壓力。根據虎嗅了解,豆包在2025 年12 月的日活用戶已破億,除夕當天,豆包大模型的峰值TPM(每分鐘token 數)出現在21 時46 分,推理吞吐量達到633 億tokens,在全球範圍內首次實現億級用戶規模的大模型推理並發。面對如此龐大的算力洪峰,這些請求無法進行「插隊」或非同步處理:使用者點擊生成後,必須在幾秒鐘內呈現結果,慢一秒都會影響體驗。更何況,豆包的互動流量還需與抖音彈幕審核、頭條內容推薦、外部客戶模型訓練等業務爭奪算力,如同百萬輛汽車同時駛入同一條高速公路,調度難度呈指數級上升。如何在有限的資源池內,既保障春晚互動的極致體驗,又兼顧其他業務的穩定運行,成為火山引擎面臨的核心挑戰。過去,雲端運算被視為數位時代的“水力發電煤”,核心提供算力、儲存等基礎資源。但在AI 時代,這種單一的資源供給模式已難以滿足產業需求,使用者所需的並非單純的GPU 資源,而是能支撐AI 模型訓練、推理、部署全流程的智慧引擎。根據虎嗅了解,火山引擎憑藉技術調度能力優勢,將N 種場景、M 個機房、X 種機型、Y 種模型下的多種異構卡型的資源池統一合併調度,像一個「智慧交通指揮中心」即時監控每個機房的擁塞情況,實現分鐘級調度數十萬核心CPU、上萬卡GPU,成功承接除夕的每分鐘 63 億峰值流量。具體而言,火山引擎的核心突破體現在三個層面:首先,在調度層讓資源「活」起來。火山引擎的調度系統,核心解決了資源碎片化和需求動態化的矛盾。傳統調度系統往往侷限於單一機房或單一機型,資源利用率低,無法應對突發流量;而火山引擎將不同機房、不同異構機型整合成統一資源池,即時監控資源水位和業務負載,實現資源的最適分配。例如,春晚期間,豆包APP 的互動流量與抖音的彈幕審核流量存在錯峰:前者集中在口播時段,後者分散在整個晚會過程。調度系統會自動識別這種錯峰特徵,互動流量低谷時,將部分GPU 資源分配給彈幕審核業務;互動流量高峰時,再快速回收資源並優先分配給豆包APP——這種動態調度,讓資源利用率提升了30% 以上。其次,推理層讓算力「省」下來。大模型推理的算力消耗巨大,如何在保證效果的前提下降低成本,是AI 規模化應用的關鍵。火山引擎從體系結構、算子、系統三個層面進行全鏈路優化,實現了算力倍增的效果。最後,在生態層實現能力復用。火山引擎的技術突破不會局限於春晚單一場景,而是形成可復用、可推廣的行業解決方案,可為金融、電商等多領域提供可落地的參考方案;而針對舞台特效打磨的推理引擎全鏈路優化技術,更能大幅降低全行業AI 視頻生成的應用成本。根據虎嗅了解,目前,火山引擎已與40 餘家主流具身智慧公司合作,為機器人提供視覺理解、語意理解、語音合成等能力。例如,為適配春晚節目《奶奶的最愛》《武BOT》中的人機互動劇情,持續優化推理速度,將機器人的反應時間控制在秒級。毫不誇張地說,2026 年年春晚的底色是科技,也是中國AI 發展進入深水區的精準切片。大模型的規模化應用時代已經到來,AI 正加速湧進千行百業。 (虎嗅APP)
字節又賭贏了
豆包成為字節新“王牌”上周,豆包刷足了存在感。先是有媒體報導,火山引擎將攜豆包站上春晚 AI 雲獨家合作的 C 位;接著豆包 DAU(日活躍使用者數)破 1 億的消息不脛而走——若再結合火山引擎披露豆包大模型日均 Token 呼叫量已超 50 兆,一場事先張揚的 AI 輿論戰便在 2026 年前夕打響了。躁動的不止字節跳動:前腳,阿里調集數百名工程師聚集在西溪園區 C4 樓封閉開發千問;後腳,騰訊成立 AI Infra 部、AI Data 部及資料計算平台部,全面強化 AI 研發體系。種種跡象顯示,網際網路巨頭正在 AI 賽道不遺餘力推進 “模型研發與 ToC 產品落地平行” 的商業化佈局。這恰恰讓字節回到了最熟悉的“舒適區”——極致 ROI、極致商業效率早已刻進這家公司的 DNA,從資訊、短影片到電商、短劇,字節跳動向來擅長以“閃電戰”在軍備競賽中彎道超車;如今,字節跳動正在 AI 混戰中,不動聲色完成階段性成果驗收。字節迎頭趕上復盤字節跳動的崛起路徑,除在本地生活、遊戲賽道“短暫躊躇”外,其在資訊、短影片、電商、短劇等核心賽道都非先發者,卻最終上演了後來居上的戲碼。2024 年初,字節跳動 CEO 梁汝波在 All Hands 全員會上多次提及“危機感”。他坦言,不少內部人士反饋,現在字節“該有的大公司病全有了”,最大的危機感是擔心字節跳動作為一個組織,正變得平庸,無法取得新突破;尤其,在應對這波大模型浪潮時顯得遲鈍。這場會議成為戰略轉向的明確訊號,也是字節跳動奮起直追的關鍵註腳——此後兩年間,多篇媒體報導均提及,張一鳴對 AI 業務展現出濃厚興趣:不僅會在新加坡與研究員深度交流,還會定期回國與核心技術骨幹溝通。這一系列動態,也讓今年 6 月下旬“張一鳴重回字節跳動業務一線”的傳聞愈演愈烈——畢竟,他曾帶領字節跳動闖入騰訊、阿里的“狩獵禁地”,即便遭遇重火力阻擊,仍成功改寫了資訊、短影片、電商行業格局,打造出數款 DAU 破億的產品。據虎嗅瞭解,自 2024 年下半年起,豆包大模型所屬的字節跳動 Seed 團隊,被視為公司核心戰略業務,集團核心高管不僅親自參加 Seed 團隊復盤會,還深度參與 AI 技術路線、模型策略及前沿課題的規劃,字節跳動也從之前的反應遲緩快速切換至全力追趕的姿態。與此同時,2025 年 Seed 團隊完成了 AI Lab 等數個部門的整合,吳永輝肩挑“一號位”,全面統籌大模型基礎研究與應用落地,盡顯“畢功於一役”的戰略決心。背後的深層原因在於,當下中國移動網際網路已進入使用者、流量趨於見頂的成熟期,監管層面更側重產業網際網路的推進與建設,這意味著技術已走到平台重構生態的關鍵節點,張一鳴自然無法“作壁上觀”。正如四年前他卸任時預判的那樣:“科技公司面臨的外部環境正在變化,科技對社會的影響越來越大,這些因素決定了字節跳動‘需要突破業務的慣性去探索’。”與此同時,字節跳動的大模型敘事也搖身一變成了“逆襲樣本”,豆包的競爭優勢正逐步擴大。從使用者規模來看,2025 年初 QuestMobile 資料顯示,截至 2024 年 11 月底,中國 AIGC APP 整體月活使用者數量突破 1 億,較 2024 年 6 月實現翻倍;其中,豆包佔據行業一半的月活使用者份額,處於第一梯隊的 Kimi 智能助手、文小言與豆包的月活差距也在持續拉大。如今,豆包的 DAU 已突破 1 億,且使用者增長過程中的市場推廣成本是字節跳動歷史上所有 DAU 破億產品中最低的。資料來源:AppGrowing(2025年)據 DataEye 研究院資料,2025 年 11 月大陸市場原生 AI 產品投放素材達 89.1 萬組;其中,騰訊元寶素材量佔比 46%、千問佔比 34%、豆包僅 11%。從整體市場投放格局來看,2025 年騰訊元寶、阿里夸克、字節豆包穩居前三。其中,騰訊元寶的投放策略最為激進:AppGrowing 資料顯示,自 2025 年 2 月起,元寶的投放力度持續走高,尤其春節後,騰訊元寶憑藉高額投入在 APP Store 免費榜先後超越豆包、DeepSeek,最終於 3 月 3 日登頂中國區 APP Store 免費榜。阿里同樣來勢洶洶,千問 APP 於 11 月 17 日開啟公測,據第三方資料,其創下國內 AI 應用最快增長紀錄,成為不容小覷的“攻擂者”。至此,網際網路大廠在 AIGC 這一新賽點,似乎又回到了移動網際網路時代卷投放、搶管道入口的“暴力燒錢”模式。一位大模型行業從業者向虎嗅表示,字節跳動在 AI 領域展現出了體系化的執行力,核心體現在三方面:精準把握戰略方向、高效配置研發資源以及快速響應市場的迭代能力。“梁汝波內部反思至今不足兩年,字節跳動卻能快速鎖定關鍵戰略方向、調整資源分配,在大模型領域迎頭趕上——C 端推出豆包、貓箱(AI 虛擬陪伴應用)、剪映(視訊編輯工具)、扣子(AI 智能體開發平台)等貼合需求的產品;B 端通過火山引擎持續最佳化 AI 雲服務。相比之下,部分大廠在市場響應速度與技術支援上有所保留,導致其在競爭中逐漸顯現頹勢。”上述人士補充道。對此,火山引擎智能演算法負責人吳迪曾向虎嗅表示,AI 是一項需要長期投入的事業,未來 10 年、20 年才會逐漸顯現真正價值,眼下的快慢在漫長的歷史周期中影響有限——這一邏輯與移動網際網路 3G、4G、5G 的普及處理程序類似,技術變革需建立在使用場景充分落地、使用者心智深度滲透的基礎上,只是 C 端使用者與媒體往往會過度關注短期進展並加以解讀。“做好產品本身更為關鍵:B 端客戶注重產品性價比,C 端使用者則關注使用體驗,本質是讓使用者無論選擇那款產品,都能獲得更便捷、實用的服務。”吳迪強調。事實上,從抖音到紅果,從豆包到即夢、貓箱,字節跳動全面的產品策略與靈活的市場定位,使其能夠覆蓋不同使用者群體需求,持續強化對流量入口的掌控力:一方面,豆包、貓箱、剪映、扣子等 C 端應用通過使用者互動沉澱資料,反哺模型性能最佳化,進而提升使用者粘性與忠誠度;另一方面,AI 應用的“幻覺”問題需通過持續最佳化資料質量、模型架構與評估機制來解決,而廣泛收集、清洗、標註資料是關鍵,這能有效避免模型過度擬合,提升泛化能力。尤其隨著市場競爭格局逐漸明朗,大模型的核心競爭力已轉向推理效率、精準性與即時性,頭部大廠紛紛推出模型開發平台,建構開放生態:火山引擎 2023 年 6 月推出 MaaS 模式大模型服務平台“火山方舟”,整合多家 AI 科技公司及科研院所的大模型,提供企業級精調、推理、評測全流程服務,同時逐步向個人開發者開放。阿里雲 2023 年 10 月上線“阿里雲百煉”,整合通義千問系列、DeepSeek 等主流模型,支援文字生成、多模態處理、程式碼生成等核心能力,通過 MCP 服務等開放生態及行業解決方案推動 AI 規模化落地。騰訊雲 2025 年 5 月 21 日將“大模型知識引擎”升級為騰訊雲智能體開發平台(TCADP/ADP),依託混元大模型與優圖實驗室演算法優勢,支援低程式碼/無程式碼搭建專屬智能體。一位大模型創業者認為,這些優質的模型開發平台,可以助力中小團隊向更垂直的細分領域突破:一是聚焦技術研發,深耕特定應用場景,最佳化模型性能,提供高品質專項服務;二是建構完整解決方案,圍繞模型打造資料採集、預處理、部署等全流程服務,提升使用者體驗;三是探索創新商業模式,積極佈局訂閱服務、技術支援、定製化開發等增值服務,增強盈利能力。這與火山引擎總裁譚待的期待不謀而合。他認為,AI 如同一場馬拉松,早期階段無需緊盯最終目標,而應聚焦“成功的早期訊號”——基於這一理念,團隊重心會放在產品最佳化上,通過與客戶高頻互動、響應市場迭代,持續驗證產品是否走在正確的發展軌道上。一個獨特的全球化樣本隨著豆包一路狂飆,市場浮現了一個不容忽視的訊號。誠然,阿里雲、騰訊雲、百度智能雲憑藉自身資源已然佔據先發優勢與人才優勢,火山引擎晚了近十年才“上桌”;但憑藉豆包的爆發式增長,其大模型日均 Token 呼叫量已超 50 兆(半年內增長 200%),規模全球僅次於 OpenAI 和 Google Cloud,以至於被媒體調侃:字節跳動正在變成“Token 跳動”。對此,火山引擎總裁譚待表示,不同於雲端運算時代,AI 雲時代模型是軟體核心,尤其隨著大模型能力持續提升,偏向 C 端的行業增長更快,例如網際網路、C 端零售(含手機、汽車)、教育等領域。“但 B 端也不錯,有個客戶內部做了大概 100 多個智能體,每天有幾十億 Token 消耗。”他進一步補充,雲端運算時代 Token 消耗符合二八定律,企業與個人的用量佔比約為 8.5:1.5,而在 AI 雲時代,這一比值正動態調整至 7.5:2.5,“我覺得未來,個人可能還會再高一點”。究其本質,大模型時代的 AI 應用開發是全新的技術範式,核心競爭力聚焦三點:模型智能度、響應速度、成本控制——這三大因素直接決定 AI 應用的使用體驗與使用者普及度,也成為 AI 雲廠商競爭的 “新賽點”。譚待還透露了一組關鍵資料,“我們內部算了一下,火山兆 Tokens 客戶有 100 個,比 AWS 多一些,說明整個 AI 的進展還是比較好的”;至於客戶分佈,火山引擎曾對外公佈,覆蓋八成頭部咖啡茶飲品牌、九成主流汽車品牌、八成頭部券商、八成系統重要性銀行、七成 985 高校,以及 9 家全球出貨量前十的手機廠商。作為對照,2025 年 10 月 OpenAI 曾披露,其 Token 呼叫量過兆的客戶僅 30 家,且集中在教育、銷售、程式設計(Coding)等場景。“模型競爭日益激烈,每兩三個月就有新的 SOTA(最優性能)模型誕生;預計到 2026 年,全球 MaaS 賽道大機率只會剩五六家在第一梯隊。” 一位資深行業觀察人士向虎嗅分析,如此激烈的競爭格局下,基礎模型能力的提升將倒逼企業持續加大算力投入,而工程化升級則要求更低成本、更高易用性,兩者疊加比拚的仍是模型“性價比”。AI 業務的狂飆,也在推動字節跳動向著一家具備全球影響力的科技公司邁進。過去一年,字節跳動在電商、短劇、AI 領域的擴張速度明顯加快,旗下所有應用的月活躍使用者數預估超 40 億,商業化能力也節節攀高。先是 2025 年 7 月,外媒報導今年前三月,字節跳動收入超過 430 億美元,首次超過 Meta 同期的 423.1 億美元,成為 2025Q1 全球收入最高的社交媒體公司。圖源:Tech News Hub12 月 19 日,外媒援引知情人士消息,字節跳動 2025 年淨利潤或將站穩 500 億美元關口,超額完成全年盈利目標,營收也將從 2024 年的 1550 億美元增至約 1860 億美元。要知道,美國科技巨頭 Meta 2025 年的營收預計約 2000 億美元,利潤或將維持在 600 億美元,字節跳動在全球使用者規模、營收、利潤等核心指標上,均在持續縮小與 Meta 的差距。此外,12 月 23 日外媒報導,字節跳動計畫在 2026 年投入 1600 億元加碼 AI,其中一半預算將用於 AI 晶片採購——若按照 2025 年 500 億美元的預估利潤計算,字節跳動 2026 年的 AI 投入將佔 2025 年全年利潤的近一半。從 AI 賽道的加速狂飆到 AI 晶片投入的愈發激進,資本市場也給出了積極反饋:先是軟銀願景基金將字節跳動估值上調至 4000 億美元以上;隨後,富達投資與 T. Rowe Price 在各自的持倉與估值模型中,分別給予字節跳動約 4100-4500 億美元的估值區間。更高的估值溢價則來自近期的二級市場交易:今日資本創始人徐新掌舵的機構,以約 4800 億美元的整體估值買入字節跳動股份——即便如此,字節跳動的估值與 Meta 當前 1.7 兆美元市值相比,仍存在不小差距。對此,科技行業觀察者魏亞輝認為,字節跳動是中國網際網路領域一個獨特的全球化樣本——這家公司成立後兩三年便實現大規模盈利,這在之前的中國網際網路公司中屈指可數;同時,它在海外市場與國際巨頭展開勢均力敵的競爭,憑藉一年近 500 億美元的淨利潤(接近騰訊兩倍,基本與 Meta 持平),真正實現了全球級盈利水平。“此前中國部分網際網路公司盈利不佳,原因在於那一代創業者大多不以利潤為核心導向,指望這類企業在短期內實現高額盈利並不現實;而以字節、大疆、拼多多、米哈游為代表的新一代企業,顯著特點是盈利能力極強,應該把希望放到這些新公司上來。”魏亞輝說道。 (虎嗅APP)
火山引擎有了它自己的Token經濟學
Token,Token,還是Token。在12月18日的FORCE原動力大會上,火山引擎總裁譚待半小時的開場演講裡提了18次“Token”,而“雲”則只出現了7次。火山也再次更新了備受矚目的豆包大模型最新日均Token呼叫量:50兆。這一指標從發佈至今實現了417 倍增長,相比去年 12 月則是超 10 倍增長。作為對比,Google10月最新公佈的月均Token直接換算為日均量的資料是43兆。豆包大模型的呼叫量已經是中國第一、全球第三。而根據IDC的報告,火山引擎在中國的公有雲大模型的服務呼叫量上也是穩居第一,MaaS市場份額從2024年的46.4%進一步提升到了今年的49.2%。“也就是說,在中國公有雲上每產生的兩個Tokens就有一個是火山引擎生產的。”譚待在當天面對台下5000名觀眾說道。在當天的發佈中,一如既往由火山來更新了字節最新模型的進展。豆包大模型1.8正式亮相,它在多項指標上顯著提升,繼續走All-in-One的技術路線,文字、程式碼、Agent、音訊,圖視訊等能力,全部在同一個基礎模型裡演進;而專門為視訊生成服務的Seedance 1.5 pro也同步推出,在音畫同步、中文及方言處理上做到了“世界領先水平”。字節要傳達的資訊明顯:豆包大模型創造著Token,且它的進化方向也正對應著今天Token消耗的結構性變化——從“推理取代訓練”推動Token消耗,到今天多模態+Agent成為Token的絕對大頭,這些需求都可以被火山提供的服務滿足。這一切迅猛增長的背後,火山引擎正在建立起一套它自己的Token經濟學。更多的Token就是代表更多智能Token,是大模型處理資訊的基本單位。無論是文字、圖像還是視訊,在模型中都在被轉換為Token序列進行計算。本質上,Token就是人們對AI的呼叫量。但這背後存在一個問題:由於Token的計算方式基於長度,所以一篇文章和一段關鍵的程式碼可能消耗相似的Token數量。那麼,純粹的以Token數量來衡量,能否真實反映AI創造的價值?火山引擎的演算法人員在和我們的交流中回憶,其實曾經火山內部也有過類似爭論,但最終的結論是:Token量一定是對的指標。“AI要在實際場景產生價值,大家肯定要把它用起來,不管單位價值有大有小,但實際上一定是跟Token用量正相關的。可能你最終的那個關鍵決策對應的只是‘是’或者‘否’,一個Token,但得出這個結論必然已經用掉了大量Token。”所以火山內部最終明確,更多的Token就是代表更多智能。而今天Token的增長,其內在結構也在悄然變化。火山引擎智能演算法負責人吳迪提供了一個演化路徑:“可能到了2027,2028年,一個普通的C端使用者從AI助手得到的很多的訊號就是視覺的,你不會看到大段大段的文字了。那麼,到時候LLM會以coding和agent的形式下沉到整個數字世界的底層運行邏輯裡。”換言之,Token會分層,LLM會向下成為底座,多模態的視覺、互動Token將在上層湧現。這就會讓Token成為一個持續增長的指標,也是一個有效指標。吳迪預測,到2030年,國內市場的Token消耗量將是現在的百倍以上。屆時,衡量企業智能化程度的核心指標,將從其擁有的GPU數量轉變為消耗的Token總量,因為它是唯一能同時穿透“模型能力、使用頻率和真實需求”的統一指標。雲設施必須以模型為中心重構更多Token意味更多智能,那麼如何讓企業客戶更好生成它們需要的Token,就是火山作為從字節內部走出的“AI雲原生”基礎設施的任務。過往雲端運算所習慣的一整套體系也因此出現“不適”,它更多是一個圍繞算力設計的體系,而火山認為新的需求註定是圍繞模型的。“傳統 IaaS、PaaS、SaaS分層規劃的IT架構不再有效,以模型為中心的AI雲原生架構正在形成。”譚待說。此次的一整套體系也由此誕生。火山推出了“推理代工”,企業可將訓練好的模型託管至火山,按實際Token消耗付費,無需自建推理叢集;Agent開髮套件(ADK) 全面升級,支援動態執行階段、多會話共享、強身份傳遞與內建工具鏈;智能端點(Endpoint) 支援模型路由,可根據效果、成本等策略自動分流至豆包、DeepSeek、Kimi等多模型後端;方舟平台進一步升級,支援客戶在自有場景中做RL 強化學習等的微調。而且這一系列產品裡的很多細節,都體現出很多根本性差異。例如,Agent開髮套件(ADK) 的動態執行階段設計,直接挑戰了行業慣例。AWS AgentCore為每個會話啟動一個獨立執行階段,而火山採用多會話共享模式。火山引擎雲基礎產品負責人田濤濤直言,這是一個行業慣性的問題,AgentCore為每個session起一個Runtime,過去可以,但進入模型時代就太奢侈了,而火山對成本敏感,字節自己內部就一直有不同的更AI原生的需求,因此本就有不同的設計,現在可以推廣給更多模型使用者。在火山看來,人們最終會“躍過”對算力的關注,最終直接衝著模型而來。“你很難想像五年後新的創業者還會去雲上租GPU、開資料庫。到時候在他們創業的第一天,他們會直接向雲服務商‘要Token’,直接要的就是呼叫模型和配套工具。”吳迪說。“我們已經把像Response API、分佈式的KV Cache、良好的P/D分離、一大堆高品質的內建Tools組裝好了,等著你把你的一個齒輪裝上來,這輛車就能跑。”火山還配套改進了模型服務的定價模式,推出了一個“AI節省計畫”,讓企業達到模型使用成本的全域最優解。“客戶只需要為用了的Token付錢。”模型訓練和市場需求一桿子打通現在我們可以來看看字節和火山今天已經有了什麼:最大規模的雲端運算需求:內部支撐抖音等國民級產品帶來的規模效應和成本優勢。最多使用者的大模型產品:豆包。而且在火山的視角,它也是一個最大的Agent產品。第一的Token呼叫量:50兆/天,且還在猛漲。以及支援著豆包app和抖音這種巨量真實需求的多模態和推理大一統的豆包大模型。這種全端系統能力是今天最重要AI玩家必備的能力,橫向對比,可以把目前的玩家分為三種路線:OpenAI + 微軟路線:模型自己的,雲設施是戰略夥伴的。阿里雲路線:開源模型長在自己雲上,然後近期在強推產品。Google路線:全部自研,模型閉源,產品到研發直接全面打通。這裡面,字節的路線很像Google。豆包就對應著Gemini,一個大一統的多模態agent模型。Seedance 1.5緊跟Veo3,甚至超過了對方。這一切的技術基礎也和Google類似,都長在自己的以AI為核心的機器學習平台和雲服務上,然後這些“Gemini同款”和“豆包同款”細化成產品再提供給外界。而尚未被太多關注到的另一個“相似”,則是對待模型技術的方式上。Google在Gemini 3的“翻身仗”後分享了很多內部復盤,其中最重要一個因素就是模型、研發、產品和需求的統一打通。而字節如何訓練模型此前並未被外界瞭解,它與大多模型公司一個非常大的不同是,它把真實市場需求直接一桿子打通到了模型訓練層面。火山引擎作為模型對外統一的出口,也有自己的演算法人員,他們和字節的模型部門Seed緊密合作,甚至是“混合辦公”和各種靈活的配合方式,而火山引擎團隊所獲取到的市場需求情況,可以直接影響模型研發方向和決策。火山的模型策略團隊會把市場上的需求反饋收集和抽象出來,直接影響到模型的重要功能和研發方向。這都直接體現在豆包大模型的身上:豆包之所以是一個大一統的模型,除了技術路線的選擇,也是從客戶體驗出發:火山的客戶們認為模型版本太多了,甚至字節內部的“使用者”都搞不清楚各方面的區別,所以這個模型必須all in one來降低選擇成本。字節認為,今天訓練模型最重要的是評估體系,而它絕對不應該只是公開的benchmark,必須用真實業務價值來衡量模型能力。字節內部已經為B端建設了大量benchmark,模型開發成果必須真正符合實際的經濟價值要求。於是Seedance會在模型層面增加一個Draft樣片的能力,讓使用者不是抽卡,而是提前做預覽判斷;豆包模型在建設工具呼叫能力之外,直接在配套API中就配套做了許多built in的工具。128k上下文這種看起來能用來炫技但事實上實際需求並不高的能力,就會被去掉。“在25年,有超過100萬家企業和個人使用了火山引擎的大模型服務,覆蓋了100多個行業,我們也對他們在火山方舟上的用量進行了匿名統計,我們發現,有超過100家企業在火山引擎累計Tokens使用量超過了1兆。”譚待在發佈會上說。這可能是比市場份額增長更值得玩味的一組資料。 它最能體現字節這種用需求指引模型發展的方式所帶來的收益。所以,如果我們來拆解一下,字節的Token經濟學就是:1. 越多的Token意味越高智能Token是智能的度量衡,其增長與結構變化指引技術演進。2. 服務AI的雲必須以模型為中心重構傳統雲廠商的慣性已經太大,而火山服務的最大客戶就是字節自己,字節就是一個長在AI和模型上的公司,火山解決的一直是AI的需求,現在這些需求變成外界的廣泛需求,它的技術思路就可以用來重構整個雲行業的方案。3. Agent的普及會讓Token從原材料變為更高級的智能單元,進而帶來更大價值譚待曾經形容,目前基於Token的商業模式還很原始,而今天他認為,隨著Agent的進步和在企業裡的普及,Token最終會走出今天“原材料”的定位。Agent 可將模型串聯,雲平台和中介軟體進一步把Tokens組裝成Agents,並實現Agent和現有工作流、Agent和Agent之間的智能互通,以 API 或完整 Agent 的方式提供服務,從更高抽象層次創造價值。“今天討論Token,是從底層作業系統角度看,是在 IT 預算環節考慮;而抽象成 Agent 後,可從 BPO (業務流程外包)角度看待,那麼它就是在擴大整個市場的規模了。”譚待說。“人們常說的10兆Agent市場,核心就是這個邏輯。” (矽星人Pro)
豆包大模型1.8正式發佈,擁有更強多模態Agent能力,豆包日均使用量超過50兆,推出成本節省計畫降幅達47%
豆包大模型1.8具備更強的多模態Agent能力,256K超長上下文使其能夠處理更複雜的資訊,擅長處理複雜多步任務。火山引擎正式發佈的"AI節省計畫",普惠覆蓋豆包大模型、豆包視訊及圖像創作模型與第三方開源大模型,全面最佳化使用者呼叫成本,最高節省幅度達47%。火山引擎在2025原動力大會上發佈豆包大模型1.8,具備更強的多模態Agent能力,256K超長上下文和原生API上下文管理,擅長處理複雜多步任務。火山引擎總裁譚待在12月18日的大會上透露,平台"兆Tokens俱樂部"成員已突破100家。並披露豆包大模型日均使用量超50兆Tokens,自發佈以來增長417倍,同時推出最高節省47%的AI成本最佳化計畫。除主力模型外,火山引擎同步發佈圖像創作模型Doubao-Seedream-4.5和視訊生成模型Seedance系列,進一步完善多模態能力版圖。新推出的Seedance-1.0-Pro支援2至12秒1080P自由生成,可實現多人語言對白和多鏡頭敘事。火山引擎正式推出"AI節省計畫",一次加入即可覆蓋豆包大模型、視訊圖像創作模型及第三方開源大模型,支援全預付、零預付等靈活付款方式。開源證券研報指出,此次發佈有望推動AI在企業生產場景中的落地應用。火山引擎總裁譚待在回應對明年模型行業的競爭時表示,“明年模型之間最重要的還不是競爭,最重要的是要把市場做大。明年這個市場可能還要再漲10倍,大家其實就不是存量的競爭,不是零和博弈,而是說大家一起把市場做大。同時,明年模型還需要進一步降價,這個市場才能做大。”01 核心模型能力全面升級豆包大模型1.8在多模態理解上實現顯著提升。模型的長視訊理解和安防監控場景能力得到增強,256K超長上下文使其能夠處理更複雜的資訊。通過更靈活的上下文管理,新模型可輔助公司處理複雜任務並支援決策。在圖像生成領域,火山引擎發佈的Doubao-Seedream-4.5具備多圖組合、創意寫真、圖片拆解、複雜組圖、虛擬試穿與海報設計等能力。視訊生成能力同步增強,Seedance系列包含兩個版本:Seedance-1.0-Lite以成本優先兼顧速度,適配高頻創作;Seedance-1.0-Pro提供影視級畫質與原生音效,滿足電影級感官敘事需求。豆包大模型已落地智能硬體與語音助手,應用場景覆蓋日常溝通、專業服務與報告解讀、聯網搜尋等。配合使用者認證的邊想邊搜互動體驗,使豆包成為隨身智能夥伴。02 推理與開發服務生態完善火山引擎推出"火山方舟"推理代工服務,已接入Qwen、GLM、Seed-OSS等主流開源大模型,支援企業將精調後的模型一鍵Serverless部署。平台提供海量資源、專屬推理加速與極致彈性調度,承諾"你訓練,我推理"。Viking系列產品在大會上亮相,VikingAI搜尋與VikingDB向量資料庫雙輪驅動,為終端使用者提供優質輸入,為模型與Agent快速建構知識庫和記憶庫。配套的多模態搜尋支援文字、圖像跨模態檢索,個性化推薦實現"千人千面",Agentic問答基於豆包大模型精準識別意圖。在Agent開發方面,火山引擎發佈企業級AI Agent平台AgentKit與TRAE(CN)企業版,已獲NIO、PwC、匯付天下、銳捷、軟通動力、高頓等頭部客戶採用。平台依託企業級GPU叢集,支援10萬檔案、5億行程式碼超長上下文,可靈活配置企業規則、知識庫與Agent,即時追蹤AI生成率與程式碼量,程式碼全鏈路加密傳輸、雲端零儲存。03 成本最佳化計畫釋放普惠紅利火山引擎正式發佈的"AI節省計畫"採用一次性加入機制,普惠覆蓋豆包大模型、豆包視訊及圖像創作模型與第三方開源大模型,全面最佳化使用者呼叫成本。最高節省幅度達47%,支援全預付、零預付等多種付款方式,實現"多用多省"。火山引擎此次還發佈了MaSS on AICC服務。開源證券研報稱,火山引擎此次發佈有望實現性能提升與成本降低,特別是視訊生成模型的進一步升級。研報建議關注字節產業鏈及AI應用投資機會,認為Agent開發工具的升級與Agent生態的擴容將推動AI在企業生產場景中的落地應用。 (硬AI)
聽說字節要造機器人,月薪開12萬
宇宙廠要造機器人?據科創板日報、第一財經等多家媒體報導,字節跳動旗下的火山引擎團隊,正以高達9.5萬至12萬的月薪招聘操作演算法資深專家(具身智能)。按照職位描述,這個崗位主導研發“人形具身機器人”的操作演算法,包括但不限於演算法架構設計,抓取演算法,VLA模型研發,靈巧手等方向的工作。職位描述中的五大核心職責,包括“主導研發人形具身機器人的操作演算法”、“參與具身大模型的預訓練與部署”以及“推動演算法在硬體上的系統整合與部署”等。這份對人才的要求,勾勒出字節跳動意在打造一個整合先進大模型、具備複雜操作能力的具身智能體。除了操作演算法資深專家,字節跳動同時也在招聘具身智能資料開發工程師、具身智能推理性能最佳化工程師、運動控制演算法資深專家等具身領域相關崗位。開這麼高的工資,說明不是“端側小應用”,而是面向通用具身智能棧的投入。字節造機器人不是新鮮事,只不過之前造的是輪式物流機器人。據“晚點LatePost”披露,字節跳動的機器人探索始於 2020 年,2023年7月時已有50人團隊。到2025年已累計量產超千台。今年開始在具身智能發力。7月,字節跳動Seed團隊今日發佈通用機器人模型GR-3。這是一款VLA模型,也就是機器人的大腦,能讓機器人理解指令、操作柔性物體,甚至雙手協同幹活。同樣是7月,發佈高自由度靈巧手ByteDexter,具備20個自由度,可以通過遙操作等輔助裝置實現人手的靈巧操作。9月, Seed 團隊發佈最新的機器人研究成果——Robix,一個旨在提升機器人思考、規劃與靈活互動能力的“機器人大腦”。據“機器之心”報導,搭載 Robix 的機器人已展現出一系列過去難以實現的複雜互動能力。比如,在做飯時,它不僅能根據菜名(如“魚香肉絲”)準備食材,還能主動發現缺少配料並詢問是否需要補齊。10月,火山引擎還與賽力斯集團旗下重慶鳳凰技術有限公司簽署具身智能業務合作協議,合作範圍包括“面向多模態雲邊協同的機器人決策、控制與人機協作技術”。字節提供AI技術支援——包括AI演算法、算力、多模態模型等;賽力斯提供產業場景和落地經驗——包括真實的產業需求、測試環境,並負責將技術最終落地到汽車、機器人產品中。如果把機器人“拆”開來,字節跳動已經在機器人的大腦、手、腿、演算法、場景等都開始各自有所進展了。為什麼現在又要招人做完整的機器人?字節跳動的優勢在於多模態大模型與流量分發。而具身智能需要長時程、閉環互動資料(視覺-觸覺-動作-語言)。把機器人引入“倉配/門店/內容生產”多場景,能產生高價值對齊資料,反哺其Agent與VLA模型。“未來程式碼局”則認為,全球網際網路的線上使用者增長和使用時長都已見頂,“線上流量”枯竭了。新的流量在物理世界。具身智慧型手機器人是終極的資料採集終端。它擁有視覺、聽覺、觸覺,它在現實世界中24小時不間斷地與環境互動、收集資料。這些資料是訓練更強大AI的“完美燃料”。對於字節來說,佈局具身智能,不僅是開闢新業務,更是為了獲取“下一代流量”——物理世界的資料流,從而延續其“資料-演算法-產品”的核心優勢。另外,由前字節跳動財務投資部負責人楊潔創立的錦秋基金(字節跳動為其出資方之一),正在深度佈局具身智能產業鏈正在深度佈局具身智能產業鏈,已投了星塵智能、樂享機器人、首形科技等機器人公司。 (鉛筆道)
中國市值第二車進軍具身智能:這次牽手字節
兩個身價超千億的巨頭,聯手具身智能合作了。如今市值已躋身車企第二的賽力斯,在具身智能賽道潛心佈局已久,剛剛以一則公告,正式官宣了其具身智能的最新動向。不過這次攜手的隊友,不是「好大哥」華為,而是另一家大家熟知的科技巨頭——字節跳動。看起來,這似乎是賽力斯首次明確對外官宣具身智能進展,但深挖之下,實際上早在兩年前,賽力斯就在為打造機器人做準備了。賽力斯官宣具身智能,隊友是字節火山賽力斯最新發佈公告,官宣旗下的子公司重慶鳳凰技術有限公司(以下簡稱「重慶鳳凰」),攜手北京火山引擎科技有限公司,簽訂了一份關於共同研發智慧機器人技術的初步合作協議。重慶鳳凰,是賽力斯的全資子公司,營運範圍包括智慧機器人的研發、製造、銷售等等。火山引擎,大家可能比較熟悉了,2020年成立的科技公司,專注做AI、雲端運算和資料服務,母公司是最新估值約超3,300億美元(約2.35兆元)的字節跳動。根據公告介紹,雙方打算透過「技術研發+場景驗證」的模式,圍繞著「多模態雲邊協同的智慧機器人決策、控制與人機增強技術」展開合作。簡單理解就是:字節提供AI技術支援:包括AI演算法、算力、多模態模型等;賽力斯提供產業場景和落地經驗:包括提供真實的產業需求、測試環境,並負責將技術最終落地到汽車、機器人產品中。不過呢,這次簽署的還只是一個框架性協議,等於意向書,目前還沒有揭露更多細節。賽力斯也明確了,協議不會對2025年財務表現造成什麼重大影響。至於怎麼具體合作、做什麼項目,涉及金額幾何,就要看後續簽訂更具體的合約內容了。另外,公告也提到了,賽力斯官宣入局具身智能的緣由:其一,是響應國家「人工智慧+」政策的號召,推動AI與實體經濟深度融合。其二,是從賽力斯自身角度出發,可以提前佈局前沿技術,為未來的智慧汽車、智慧製造領域做準備,也符合公司的長期發展策略。事實上,賽力斯瞄準具身智能已久,早在兩年前就開始暗藏珠璣,埋好了伏筆。車企具身智慧佈局,集體浮出水面捋捋時間線,賽力斯從2023年底開始,就被外界感知到了入局具身智能的動作。這一過程,可以大致分為三條線:第一條線是成立專門的公司、註冊品牌,為具身智慧業務搭建實體架構。早在2023年12月,賽力斯就連同重慶市財政局,共同出資成立了重慶賽力斯鳳凰智創科技,專門用於承接機器人業務。2024年9月,賽力斯申請了「ROBOREX」 商標,不久前已獲國家智慧財產局核准註冊。當時外界普遍推測,這很可能就是賽力斯機器人產品的潛在品牌。還有本次簽署協議的重慶鳳凰,也是賽力斯在今年3月17日創立的新公司。而且重慶鳳凰成立不過半月,也攜手北京航空航太大學,合資成立了北京賽航具身智慧科技有限公司,專注於智慧機器人的研發與銷售,賽力斯透過重慶鳳凰持股70%。第二條線,體現在賽力斯正在為具身智慧業務「招兵買馬」。從2024年下半年開始,賽力斯的招募資訊中,就已多次出現具身智慧相關的需求,涵蓋具身智慧控制工程師、嵌入式軟體開發等職缺。例如今年的春季校招,賽力斯首次設立了「具身智能大模型工程師」崗位;秋季校招還有「具身智能大模型演算法工程師」等崗位,現在還能在其招募官網中看到。第三條線,實際和第一條線相輔相成,就是與外在力量進行策略合作。像是和前面提到的重慶市財政局、北航,以及本次合作的字節等等。梳理下來,其實在具身智能這條路上,賽力斯排兵布陣已久,各方面都做了鋪墊,這次明確宣佈合作,更像是時機恰到好處的進場宣言。不只是賽力斯,如今國內眾多主流車企,都在追趕具身智能這一熱潮。「參賽」方式無非兩種,要麼自主研發——已有產品亮相的包括廣汽的GoSide、GoMove、GoMate人形機器人“家族”,小鵬的PX5和Iron,小米的Cyber​​One和鐵蛋(Cyber​​Dog)等等。△廣汽GoMate人形機器人理想、蔚來、東風等也都明確表態,正在具身智能領域加快動作。要嘛就是砸錢投資,尋找合作機會。像是比亞迪、上汽投資智元機器人,長安攜聯手海爾集團…還有奇瑞攜手AI公司Aimoga,打造了墨甲人形機器人墨茵,上半年已經完成首批交付,有消息稱,這個月就會面向經銷商和個人售賣了。△奇瑞人形機器人墨茵車企們集體跨界入局,當然不單純是因為這條賽道火熱,還因為這些主機廠有得天獨厚的優勢。汽車,尤其是智慧汽車,本身就類似一個搭載了大量感測器和強大運算平台的「機器人」。車企在智慧輔助駕駛、環境感知、智慧決策等領域累積的技術,與人形機器人很大程度共通。且車圈當前競爭異常激烈,車企迫切需要尋找第二成長曲線。被視為下一個兆級賽道的人形機器人,自然很適合成為巨頭們爭奪的入口,想像空間無限。就拿賽力斯來說-當初賽力斯(彼時還是小康股份)在危急邊緣掙扎求生,與華為深度綁定後才脫離了至暗時刻,5年間市值從200億元左右,暴漲到今天超2700億元,幾乎翻了12倍還多。在國內車企中,賽力斯已名列市值第二,僅次於比亞迪。而現在,賽力斯開始了具身智能的新旅程,不能再以單純車企造車來看了。重估賽力斯,是時候了…嗎? (智慧車參考)