【導讀】騰訊推出新一代快思考模型混元 Turbo S,將在騰訊元寶逐步灰度上線
大模型領域競爭日趨激烈,騰訊又放出大招!
2月27日,騰訊混元Turbo S模型在騰訊雲官網上架,開發者和企業使用者可以通過API呼叫,即日起一周內免費試用,同時將逐步在騰訊元寶灰度上線,供使用者使用和體驗。
據介紹,此次升級,最大的亮點是為了讓使用者擁有更好的大模型問答體驗:吐字(回答)速度提升一倍,首字時延降低44%。這相當於“你剛說完問題,它已經準備好開頭了”。
2月27日下午,騰訊混元自研的快思考模型Turbo S正式發佈。
區別於DeepSeek-R1、混元T1等需要“想一下再回覆”的慢思考模型,混元Turbo S能夠實現“秒回”,吐字速度提升一倍,首字時延降低44%,同時在知識、數理、創作等方面也有突出表現。通過模型架構創新,Turbo S部署成本也大幅下降,持續推動大模型應用門檻降低。
另據測評,在業界通用的多個公開Benchmark上,騰訊混元Turbo S在知識、數學、推理等多個領域展現出對標DeepSeek-V3、GPT-4o、Claude3.5等業界領先模型的效果表現。
表格中,其他模型的評測指標來自官方評測結果,官方評測結果中不包含部分來自混元內部評測平台。
定價上,Turbo S 輸入價格為0.8元/百萬tokens,輸出價格為2元/百萬tokens,相比前代混元Turbo模型價格下降數倍。
總結來看,Turbo S模型有三大方面的升級。
第一,模型架構有重要技術創新。混元Turbo S通過創新性地採用了Hybrid-Mamba-Transformer融合模式,有效降低了傳統Transformer結構的計算複雜度,減少了KV-Cache快取佔用,實現訓練和推理成本的下降。
騰訊方面人士介紹,新的融合模式突破了傳統純Transformer結構大模型面臨的長文訓練和推理成本高的難題,一方面發揮了Mamba高效處理長序列的能力,也保留Transformer擅於捕捉複雜上下文的優勢,建構了視訊記憶體與計算效率雙優的混合架構,這是工業界首次成功將Mamba架構無損地應用在超大型MoE模型上。
第二,模型整體效果提升。通過長短思維鏈融合,騰訊混元Turbo S在保持文科類問題快思考體驗的同時,顯著改進了理科推理能力,整體效果明顯提升。
第三,部署成本大幅下降。有效降低了傳統Transformer結構的計算複雜度,減少了KV-Cache快取佔用,實現訓練和推理成本的下降。
騰訊混元方面透露,作為旗艦模型,Turbo S未來將成為騰訊混元系列衍生模型的核心基座,為推理、長文、程式碼等衍生模型提供基礎能力。
值得一提的是,基於Turbo S,通過引入長思維鏈、檢索增強和強化學習等技術,騰訊自研了推理模型 T1,該模型已在騰訊元寶上線,使用者可以選擇DeepSeek-R1或騰訊混元T1模型進行回答。
騰訊混元還表示,正式版的騰訊混元T1模型API也將很快上線,對外提供接入服務。
騰訊此次推出混元Turbo S模型背後,是中國網際網路行業在AI領域日趨激烈的競爭。
前不久,騰訊旗下首個AI原生App元寶超越豆包,升至中國區蘋果免費APP下載排行榜第二。DeepSeek繼續位居榜首。
2025年以來,國內AI大模型通過演算法與工程化創新加速技術躍遷,低成本的DeepSeek-R1推理能力比肩OpenAI o1;阿里巴巴發佈千億級MoE架構模型Qwen2.5-Max;豆包依託字節跳動的生態優勢提升模型能力;騰訊混元大模型已深度整合於微信等業務場景。
阿里表示未來三年將圍繞AI戰略核心,加大投入三大領域:AI和雲端運算的基礎設施建設、AI基礎模型平台以及AI原生應用、現有業務的AI轉型升級,並宣佈未來三年集團在雲和AI的基礎設施投入預計將超越過去十年的總和。
與此同時,競爭格局也在發生變化。高盛發佈的報告則指出,隨著AI技術的快速發展和應用場景的不斷拓展,中國網際網路行業的競爭格局正逐漸分化為兩大陣營:AI基建和AI應用。
高盛認為,阿里巴巴憑藉其強大的雲服務基礎設施,成為AI基建的關鍵參與者;而騰訊則憑藉其在C端應用的強大生態和使用者體驗,成為AI應用領域的核心受益者。
而騰訊通過其強大的C端生態和使用者體驗,將AI技術深度融入日常生活中。元寶的快速崛起,正是騰訊在AI應用領域強大實力的體現。
報告指出,元寶整合了DeepSeek-R1模型的強大推理能力和騰訊雲的AI推理基礎設施,這一組合不僅為使用者提供了更智能的互動體驗,還通過微信生態的獨特內容支援,實現了更精準的資訊推送和更高效的任務執行。 (中國基金報)