字節狂飆、阿里亮劍…大模型混戰春節檔

除夕的煙花尚未綻放,AI戰場早已硝煙瀰漫。

2026年馬年春節,表面上是百度5億、騰訊元寶10億紅包、阿里30億免單的混戰,實則是國產大模型陣營一次史無前例的“集體亮劍”。

從臘月二十開始,字節、智譜、MiniMax、Kimi扔出王炸,DeepSeek悄無聲息地完成了關鍵迭代,阿里Qwen3.5箭在弦上,百度O計畫秘而不宣,騰訊則請來姚順雨這位“關鍵先生”在技術部落格裡埋下伏筆。

這不是一場擠牙膏式的常規更新,而是一場關於“大模型下半場往那走”的路線對壘。每一家都在賭:未來兩年,使用者和開發者真正離不開的那個模型,究竟長什麼樣?

大廠篇:字節暫領風騷
阿里磨刀,百度織網,騰訊“深潛”

字節跳動:Seedance 2.0 是截至目前這春節檔唯一的“破圈者”。

如果只選一個模型定義2026年春節,那一定是字節的Seedance 2.0。

2月7日,沒有發佈會,沒有媒體通稿,字節只是在飛書文件裡輕描淡寫扔下一句“Kill the game”。隨後發生的事情超出了所有人的預期:《黑神話》製作人馮驥稱其為“地表最強視訊生成模型,沒有之一”;影視颶風Tim連說六次“恐怖”;二級市場影視傳媒類股掀漲停潮;海外X平台上,外國網友四處求中國手機號體驗Seedance 2.0。

憑什麼?因為Seedance 2.0完成了視訊生成從“玩具”到“工具”的關鍵一躍。它不僅支援圖文音視四模態輸入、多鏡頭連貫生成,更可怕的是它對物理世界的“理解”,你上傳一張建築正面照,它能自動生成繞到建築背面的運鏡,且與現實幾乎一致。

字節這一仗打出了兩個結論:第一,視訊生成不是Sora的專利,中國大廠不僅能跟,還能超;第二,DeepSeek之後,字節是第二個讓矽谷感受到“技術代差焦慮”的中國玩家。

當然,狂歡背後也有隱憂。上線僅兩天,即夢就緊急限制真人圖生視訊——當造假成本趨近於零,監管的達摩克利斯之劍隨時可能落下。

2月12日,網信中國公眾號發文稱網信部門督促網站平台深入排查整治,依法依約處置帳號13421個,清理違法違規資訊54.3萬餘條。下一步網信部門將對無AI標識的虛假不實資訊保持高壓嚴管態勢,發現即處置,嚴厲打擊違規行為。

阿里:Qwen3.5發佈在即,這一次要做“看得懂世界”的基座。

相比於字節的高調,阿里的春節顯得“蓄勢待發”。

2月9日,Hugging Face頁面上悄然出現Qwen3.5提交程式碼合併的PR,開發者從中扒出關鍵資訊:全新混合注意力機制,極有可能是原生視覺語言模型(VLM),且計畫開源2B密集版和35B-A3B的MoE版 。

這是阿里一次明確的戰略轉向。此前千問系列雖然強大,但始終是“純文字學霸”。而Qwen3.5一旦以原生VLM(視覺語言模型)形態登場,意味著阿里決心把視覺理解直接塞進基座,而不是像多數廠商那樣靠“視覺編碼器+大語言模型”拼湊。如果落地順利,這將是國產開源模型在多模態原生能力上的一次重要卡位。

百度:O計畫“深潛”,入口才是護城河

百度是今年春節最早砸紅包的玩家,5億、北京台春晚首席AI合作夥伴,攻勢不可謂不猛。但在模型層面,百度顯得異常安靜。

近期,百度“O計畫”的代號在圈內流傳,內部人士僅透露“與百度APP有關” 。這其實透露出百度現階段的核心邏輯,也就是不急於發一個新模型秀肌肉,而是守住2億月活的文心助手,把百度APP做成AI時代的超級入口。

這未必是錯。當字節、阿里、騰訊都在為“入口”瘋狂撒錢時,百度手裡本就攥著一個國民級入口。O計畫究竟是在訓練新模型、重構搜尋體驗,還是醞釀Agent應用?懸念可能要留到節後了。

騰訊:沒有新模型,卻可能是最深遠的佈局。

盤點春節檔時最容易漏掉騰訊,畢竟元寶的紅包大戰看起來只是“跟牌”,並沒有像字節、智譜那樣扔出重磅模型。

但懂行的人盯著另一件事:AI大拿姚順雨加入騰訊後首次帶隊發佈研究成果。

2月3日,騰訊混元技術部落格上線,開篇就是姚順雨團隊的CL-bench基準研究。結論非常“狠”:全球前十的語言模型在“從上下文中學習新知識”這項能力上,平均解決率只有17.2%——這些頂級的做題家,其實根本不會利用上下文 。

這意味著什麼?姚順雨給出了一個極具野心的願景:未來競爭的焦點不是誰能把模型訓練得更好,而是誰能為任務提供最豐富、最相關的上下文。使用者將從“資料提供者”轉變為“上下文提供者”。

這或許解釋了為什麼騰訊春節沒有搶發基座模型——他們在押注一條更長的賽道:定義大模型下一階段的核心能力標準。一旦CL-bench成為行業共識的評估基準,騰訊就握住了下一代模型迭代的方向盤。

創業公司篇
四小龍分化,各有各的“護城河”

如果說大廠的春節檔是“入口+模型”雙線作戰,那麼創業公司的牌桌上只剩下純粹的模型硬仗。

智譜:Agentic Engineering的開路先鋒。

2月12日,智譜GLM-5上線即開源。744B參數、SWE-bench 77.8分、全球開源第一、國產晶片全適配 。

但參數不是重點,重點是智譜為這代模型重新定義了角色:不是對話助手,是“系統架構師”。

GLM-5能自主拆解需求、呼叫工具、偵錯程式碼、交付可部署產品。一位開發者用它做出了橫版解謎遊戲,另一個做出了論文版“抖音”,已提交商店稽核 。

智譜賭的是,2026年,大模型必須從“寫程式碼”進化到“寫工程”。從GLM-5開始,他們不再和同行比誰更會聊天,而是比誰能真正替代初級工程師。

MiniMax:把Agent做成白菜價。

MiniMax M2.5在同一天發佈,走了另一條路。

10B啟動參數,SWE-bench 80.2%,超越Claude Opus 4.6。但真正讓行業側目的是它的成本:1萬美元理論上可支援4個Agent連續工作一年 。

這是MiniMax一貫的風格,不做最聰明的模型,做最便宜的生產級模型。當別人還在卷榜單分數時,MiniMax已經在算“Agent小時單價”。創始人閆俊傑的邏輯很清晰,Agent規模化部署的最大瓶頸從來不是能力,是成本。M2.5把推理速度做到主流模型2倍,把價格打到幾分之一,這是在為Agent經濟鋪路。

Kimi:Agent叢集,把多模態玩出花。

Kimi K2.5趕在2月初發佈,是春節檔的“早鳥”。

它的亮點是原生多模態架構和Agent叢集——模型可以自主建立多個分身智能體,按需組成團隊平行工作 。大規模搜尋場景下,效率碾壓單Agent。

同時上線的Kimi Code已整合VSCode、Cursor,開發者可以直接丟進一張UI設計圖,讓AI照著寫程式碼 。這是目前國內把“視覺理解→程式設計執行”鏈路跑得最順的產品。

DeepSeek:V4還在憋,但長上下文已封頂。

整個春節檔,DeepSeek沒有任何官方發佈,卻在使用者端“被更新”了。

網友們發現,DeepSeek的回覆風格變了:上下文窗口從128K飆升至1M,知識庫更新至2025年5月 。這依然是那家倔強的公司——不做多模態,不追風口,把文字推理和長程式碼理解死磕到極致。

1M上下文意味著什麼?你可以把《三體》全集、或者一個中大型公司的完整程式碼倉庫一次性喂給它。這不僅是技術領先,更是對Agent場景的戰略預判:真正的複雜任務,從來不是靠幾輪對話完成的。

據爆料,DeepSeek V4的程式設計能力內部測試已超越Claude 。它遲遲不發,要麼是在攻克更難的關卡,要麼是在等一個“壓軸登場”的時機。

2026年,沒人再提“通用”

回顧這二十多天的密集出牌,一個清晰的圖景浮現出來:大模型行業已經告別“大一統”的幻想。

  • 字節押注視訊生成,賭的是AIGC工業化;
  • 智譜All in Agent工程,賭的是程式設計師生產力重構;
  • MiniMax死磕推理成本,賭的是Agent規模化落地;
  • Kimi走通多模態原生+端側,賭的是開發者的手邊工具;
  • DeepSeek固守長文字高地,賭的是複雜推理的不可替代性;
  • 阿里即將亮劍原生VLM,賭的是多模態基座的開源生態;
  • 百度織網入口,賭的是場景和資料;
  • 騰訊深潛上下文學習,賭的是下一階段的定義權。

沒有那一家是“全面領先”,但每一家都在自己的賽道上跑到了極致。

這其實是健康的訊號。當一個行業從“所有人都想造出同一個神”轉向“各造各的神”,說明它正在走向成熟。

最後,如果你問我,我的答案是:我pick字節Seedance 2.0。

不是因為它的技術參數最漂亮,也不是因為它引發的股票漲停潮最猛烈。而是因為它讓圈外人又一次真正感知到了AI的衝擊。一位從業者看完AI生成的15秒短片後說“《流浪地球3》的預算可能要砍了”,這正是技術跨越鴻溝的時刻。

當然,這只是春節檔的開幕戰。

Qwen3.5還未正式亮相,DeepSeek V4這頭“房間裡的大象”還在踱步,百度的O計畫仍是黑盒,騰訊的上下文學習革命才剛剛寫在紙上。

但有一點已經確定:2026年,單純靠“會聊天”已經拿不到牌桌入場券了。

煙花散去,留在場上的只能是那些能真正捲入工作流、嵌入生產線、重構成本結構的狠角色。

這一票,我投給那些讓對手感到脊背發涼的玩家。 (TechWeb)