【DeepSeek】中國不只有DeepSeek,阿里除夕夜拋出重磅新模型,是時候整體重估中國AI資產了嗎?


當阿里雲展現出"強大模型+充足算力+完整雲平台"的組合優勢時,是否印證了類似去年北美雲端運算服務商的投資邏輯?


農曆除夕夜,在全球華人喜迎新春之時,紐約證券交易所的電子屏上,阿里巴巴股價在收盤前出現顯著異動——從漲幅1%快速拉升至6.7%。

行情異動的背後,是一場沒有硝煙的技術奇襲。

1月29日凌晨,阿里通義千問團隊悄然上線的大模型Qwen2.5-Max,在多個權威基準測試中展現出與全球頂級模型比肩的性能。

繼DeepSeek之後,Qwen2.5-Max的發佈是中國AI陣營在高性能、低成本技術路線上的又一重要突破。

市場人士分析稱,此前過度聚焦DeepSeek,卻忽視了包括阿里通義在內的中國AI整體性追趕。行業媒體《資訊平權》表示,若阿里Qwen-2.5-max這次的確性能超過V3,可以對其RL推理模型給予更大期待。

進一步,當阿里雲展現出"強大模型+充足算力+完整雲平台"的組合優勢時,是否印證了類似去年北美雲端運算服務商的投資邏輯?

如果美股因AI整體增值10兆美元,中國AI資產的重估時機是否已至?


01

全面對標全球頂級模型,百萬token里程碑

Qwen2.5-Max採用超大規模MoE(混合專家)架構,基於超過20兆token的預訓練資料。


在測試大學水平知識的MMLU-Pro、評估程式設計能力的LiveCodeBench、綜合能力評估的LiveBench,以及近似人類偏好的Arena-Hard等多個權威評測中,該模型均展現出與DeepSeek V3、GPT-4和Claude-3.5-Sonnet比肩,甚至領先的性能。

阿里團隊表示,隨著後訓練技術的不斷進步,下一個版本將有望達到更高水平。


Qwen2.5團隊同步發佈了兩個創新型號:Qwen2.5-7b-instruct-1m和Qwen2.5-14b-instruct-1m。這些開源模型支援高達100萬token的上下文窗口,成為業內首個達到此規模的公開可用模型。

這些模型使用稀疏注意力,只關注上下文中最重要的部分。這種方法處理百萬token輸入的速度比傳統方法快3到7倍,輸出長度可達8000個token。然而,這需要模型識別上下文文件中的關鍵段落——這是當前語言模型經常難以完成的任務。

在測試中,14B型號和Qwen2.5-Turbo在尋找非常長的文件中的隱藏數字時都達到了完美的精準性。較小的7B型號也表現良好,只有輕微的錯誤。

在RULER、LV-Eval和LongbenchChat等要求更高的複雜的上下文測試中,百萬token模型的表現優於128K token模型,尤其是在超過64K token的序列中,14B型號甚至在RULER中得分超過90分——這是Qwen系列的第一次——在多個資料集上持續擊敗gpt - 4o mini。


02

是時候整體重估中國AI資產了嗎?

如果說DeepSeek V3的橫空出世展現了中國AI的銳度,那麼本次阿里的突破則體現了產業生態的深度進化。

在Qwen2.5-Max發佈當天,阿里雲百煉平台同步開放了完整的工具鏈支援,開發者可以直接在雲端呼叫。這種"超算叢集+開源生態+雲原生"的三位一體架構,與北美AWS、Azure、GCP三大雲服務商的商業模式形成鏡像。

此外,根據我們之前提到的摩根士丹利最新研報,低成本高性能模型也將重塑資料中心和軟體行業格局:

對於中國資料中心而言,短期內,如果大型科技公司採用類似技術路線,可能減少AI訓練相關需求。但從長遠來看,低成本模型將推動推理需求增長,對一線城市資料中心形成利多;
對於中國軟體行業,AI模型成本的降低將降低應用程式運行AI功能的門檻,從供給側改善行業環境。

如果阿里Qwen-2.5-max的性能確實展現出預期水平,加上其低成本優勢與完整雲生態,有理由期待,它將引發DeepSeek之後的中國AI資產新一輪重估。 (硬AI)