免費100兆Token,開源模型新王登場。▲圖片由AI生成智東西4月28日報導,剛剛,小米開源羅福莉帶隊研發的MiMo-V2.5系列模型,採用MIT協議,允許商用推理部署與二次訓練,無需額外授權。▲MiMo-V2.5-Pro在Hugging Face的開源頁面截圖此前,該系列模型於4月23日開啟公測,包括MiMo-V2.5-Pro、MiMo-V2.5兩款模型。模型具備更強Agent能力,支援100萬上下文,且Token效率大幅提升。MiMo-V2.5-Pro的完整基準測試結果今日公佈,小米稱其在GDPVal-AA(Elo)、Claw-Eval(pass^3)等多項測評中超過了最新開放原始碼的DeepSeek-V4-Pro模型,也超過了發佈不久的Kimi K2.6等主流閉源模型,實現總體最佳。▲MiMo-V2.5-Pro的最新測評成績開源首日,MiMo-V2.5-Pro宣佈已完成與阿里平頭哥、亞馬遜雲科技、AMD、百度崑崙芯、燧原科技、沐曦、天數智芯多個晶片廠商的接入適配。MiMo-V2.5系列模型同步完成SGLang和vLLM主流推理框架的Day 0適配。與此同時,小米還推出百兆Token創造者激勵計畫,計畫30天內免費發放總計100兆Token權益;推出Agent生態共建計畫,目前已與OpenCode、Hermes Agent、KiloCode等Agent框架廠商展開合作。01. 模型技術細節公佈 測評超越DeepSeek-V4由小米最新公開的模型卡可知,小米迄今為止最強模型MiMo-V2.5-Pro是一款擁有1.02兆(1.02T)個參數的混合專家模型,其中420億(42B)個啟動參數,基於混合注意力架構,相比前代模型在通用智能能力、複雜軟體工程和長時域任務處理方面均實現了顯著提升。MiMo-V2.5-Pro繼承了MiMo-V2-Flash的混合注意力機制和多標記預測(MTP)設計。局部滑動窗口注意力(SWA)和全域注意力(GA)以6:1的比例交錯使用,窗口大小為128個Token,在長上下文情況下,通過可學習的注意力池偏置,將鍵值快取儲存空間減少了近7倍,同時保持了性能。一個輕量級的MTP模組,採用密集前饋神經網路(FFN),原生整合用於訓練和推理,輸出吞吐量大約提升了三倍,並加速了強化學習(RL)的部署。▲MiMo-V2.5-Pro的模型架構及訓練過程該模型預訓練使用27兆(27T)個Token,採用FP8混合精度,原生序列長度為32K,上下文擴展至1M個Token。後訓練遵循MiMo-V2-Flash中引入的三階段範式:1、監督式微調,在精心挑選的資料對上建立基礎的指令跟蹤;2、領域專精訓練,其中不同的教師模型分別通過針對特定領域的強化學習進行最佳化,涵蓋數學、安全、智能工具使用等領域;3、多教師策略蒸餾(MOPD),其中單個學生模型在每位專精教師的Token級指導下,從自身的展開中學習策略,並將所有教師的能力融合到一個統一的模型中。再來看看MiMo-V2.5,這是一個3100億(310B)參數的稀疏MoE模型,擁有150億(15B)啟動參數,在48兆(48T)個Token上進行訓練。它的語言主幹框架繼承了MiMo-V2-Flash的混合滑動窗口注意力機制,並搭載自研預訓練視覺、音訊編碼器,兩類編碼器通過輕量化投影模組完成跨模組融合。▲MiMo-V2.5架構訓練過程分為五個階段:1、基於多樣化語料開展文字預訓練,搭建大語言模型主幹網路;2、進行投影層預熱訓練,實現音視訊、視覺投影器與語言模型的對齊融合;3、依託高品質跨模態資料集,開展大規模多模態預訓練;4、執行監督微調與智能體後訓練,在此過程中將上下文窗口從32K逐步擴容至256K,最終達到100萬Token;5、最後是通過強化學習(RL)與多目標偏好蒸餾(MOPD),進一步強化模型的感知、邏輯推理與智能體執行能力。從小米最新公佈的測評結果來看,MiMo-V2.5在Claw-Eval Text、Terminal-Bench 2.0、SWE-Bench Pro等多項測評中大幅超越了DeepSeek最新發佈的DeepSeek-V4-Flash。▲MiMo-V2.5最新測評情況02. 開源首日,完成阿里平頭哥沐曦 等7家晶片廠商適配小米還公佈了晶片生態與推理框架最新適配情況,MiMo-V2.5-Pro開源首日完成多個晶片廠商的接入適配:阿里平頭哥:基於真武810E及全端自研AI軟體棧實現深度適配。亞馬遜雲科技:基於Trainium2晶片與Neuron SDK+vLLM推理框架完成深度適配,實現開源即全球可用的首日適配。下一代3nm製程Trainium3將進一步釋放模型性能。AMD:依託ROCm開放原始碼軟體棧提供Day-0適配及全面最佳化支援。百度崑崙芯:通過底層算子最佳化與軟硬體協同加速,保障模型穩定高效運行。燧原科技:基於自研馭算TopsRider軟體棧深度最佳化,在燧原L600上完成全量適配。沐曦:基於曦雲C系列及全端自研MXMACA軟體棧,實現Triton語法到沐曦GPU指令集的端到端原生支援。天數智芯:實現Day 0級深度適配。此外,MiMo-V2.5系列模型同步完成SGLang和vLLM主流推理框架的Day 0適配。03. 免費發放100兆Token 已與Hermes Agent等合作與此同時,小米還同步推出MiMo Orbit計畫,包含兩部分:“百兆Token創造者激勵計畫”,與面向Agent框架團隊的“Agent生態共建計畫”。在百兆Token創造者激勵計畫方面,小米面向全球AI使用者免費發放Token,30天內發放總計100兆Token權益,贈完即止。該計畫採取申請制,通過者最高獲得Max檔位Token Plan,包含16億Credits,價值659元。活動時間:台北時間2026年4月28日00:00至5月28日00:00。Agent生態共建計畫方面,小米面向全球Agent框架團隊提供專項支援,為框架提供MiMo Token限免支援,同時參與和贊助框架平台的AI Hackathon等共創活動。其目前已與OpenCode、Hermes Agent、KiloCode等Agent框架廠商展開深度合作。04. 結語:多款國產開源模型“亮劍”交鋒近期,大模型行業開源力度持續加碼,模型與國產及國際晶片的“Day 0”適配已從亮點變為剛需,推理效率和部署成本成為下一階段競爭的核心。同時,百億級Token免費激勵與Agent框架生態共建,反映出行業正從“拼參數”轉向“拼應用”。值得關注的是,小米MiMo-V2.5-Pro在多項基準評測中直接超越DeepSeek最新開放原始碼的DeepSeek-V4-Pro模型,可謂與DeepSeek在開源賽道發起“亮劍”交鋒,有望倒逼行業更快降低推理成本、提升Agent真實任務完成率。 (智東西)