登入
關鍵字
#Hunyuan-TurboS
官方認證
RexAA
2025/03/11
•
騰訊混元-TurboS:首個混合Transformer-Mamba MoE超大模型來了
騰訊混元團隊發佈了他們最新的力作——Hunyuan-TurboS,首個混合Transformer-Mamba MoE架構的超大模型 大家都知道,傳統Transformer模型在處理長文字時一直面臨挑戰,O(N²)的複雜度以及KV-Cache問題讓長文字訓練和推理效率大打折扣。 而這次,混元-TurboS巧妙地融合了Mamba和Transformer兩種架構的優勢: Mamba的高效長序列處理能力 Transformer強大的上下文理解能力
#騰訊
#Hunyuan-TurboS
#開源模型
293人
讚
留言
分享