阿里Qwen3如何改寫AI生產力格局?
當AI從實驗室走向全場景應用,如何兼顧效能與成本,成為每個開發者與企業共同的難題。
4月29日凌晨,伴隨著全球網路的猜測與期待,阿里巴巴正式開源新一代通義千問模型Qwen3(以下簡稱「千問3」),並同步發佈了多個版本,試圖改寫上述困境。
這款模型以DeepSeek-R1三分之一的參數量,實現了數學、程式碼、多語言理解等核心能力對全球頂尖模型的全面超越,並憑藉「混合推理」架構與全場景部署方案,將大模型的應用成本降至歷史最低水平。
這不僅意味著中國AI首次登上全球開源模型性能巔峰,也是AI從實驗室走向產業規模化落地的關鍵。
在AI模型結構設計中,過往的競爭主要集中在「推理速度」與「推理深度」之間的取捨:要麼快,要麼深,但難以兼得。
作為國內首個“混合推理模型”,千問3創造性地將“快思考” 與“慢思考” 整合於同一框架,如同賦予模型人類般的思維靈活性:面對簡單諮詢時,模型以低算力快速響應;處理複雜問題時,則可啟動多步驟深度推理。這種設計不僅大幅降低算力消耗,也解決了傳統模型在任務適配上的效率瓶頸。
LangGPT社區創始人云中江樹對「甲子光年」表示,「混合推理」是通義千問模型更新中最大的變化。在千問3問世以前,該系列的推理模型為QwQ,非推理模型是Qwen2.5, 現在推理和非推理能力合而為一。
這也預示著,AI應用將告別「一刀切」的粗放模式。在產業落地環節,它能以更智慧、更經濟的方式滲透到金融風控、醫療診斷等對準確度要求極高的領域。
對於「千問3是否會弱化提示詞價值」的問題,雲中江樹認為,模型本身越強,提示詞能發揮的價值越高。這裡的“弱化”,更多指涉的是“工程”,也就是弱化提示詞工程中的一些複雜、奇特的提示技巧,迭代調優的精力。
千問3背後的混合專家(MoE)架構同樣功不可沒。總參數量235B的千問3,實際啟動僅需22B,結合36T資料預訓練與多輪強化學習,實現效能飛昇的同時,也將成本大幅降低。
在測試奧數水準的AIME25測評中,千問3斬獲81.5分,刷新開源紀錄;程式碼能力測試中,千問3 LiveCodeBench得分突破70分,超越Grok3;人類偏好對齊測評裡,ArenaHard 95.6分的成績更是超越OpenAI-o1及DeepSeek-R1。
為了適合不同場景需求,千問3同步開源了8款不同規模的模型版本,包括0.6B、1.7B、4B、8B、14B、32B密集模型,以及30B-A3B、235B-A22B兩款MoE大模型,每款模型均獲同尺寸開源模型SOTA(最佳效能),並在多工處理、系統整合與模型壓縮等方面做了針對性最佳化,使得開發者與企業使用者可以根據資源條件靈活選擇,快速落地各類創新應用。
以上所有千問3模型都是混合推理模型。經「甲子光年」實測,使用者可按需設定「思考預算」(即預期最大深度思考的tokens數量),進行不同程度的思考,靈活滿足AI應用和不同場景對性能和成本的多樣需求。
這個佈局,為AI從「能用」到「好用」的過程提供了關鍵支撐——模型不僅要算得準,還應以更低的成本部署到更多真實場景之中。
技術創新的終極目標是服務業。當千問3以突破性的架構刷新開源模型性能天花板後,其多版本、低成本的特性,也將成為撬動各行業智慧化轉型的支點。
具體來看,千問3的不同版本將分別適配於不同場景,尤其對手機、智慧眼鏡、智慧駕駛、人形機器人等智慧型裝置和場景的部署更為友善。
此外,傳統印象中,頂級大模型部署動輒需要上千萬元的硬體投入,而千問3打破了這一魔咒。
以其最大規模的235B-A22B模型為例,在典型部署環境下,僅需4張H20顯示卡即可滿血運行,整體部署成本僅為同期滿血版DeepSeek-R1的25%至35%。
簡而言之,幾十萬元的預算,就可以擁有全球最強開源大模型的推理與服務能力。
在成本控制上,千問3的API「思考預算」 設定堪稱點睛之筆。開發者可根據任務複雜度動態調整推理深度,在效能與成本間自由權衡。結合MoE架構的低部署成本,即使中小企業也能以較低門檻接入頂尖AI能力,加速產業智慧化轉型。
雲中江樹對「甲子光年」表示,相較於DeepSeek、Llama模型來說,千問3具有更豐富的譜系選擇,能夠更好的支援全場景的落地應用需求。
同時,千問3所有模型均在Apache2.0許可下開源,是非常寬鬆的開源協議,不僅允許商業使用,還允許修改和分發程式碼,不需要分享修改後的原始碼。而Apache 2.0的法律全面性、專利保護較好,是大型企業開放原始碼的常用選擇。
更值得關注的是,千問3原生支援MCP協議,並透過Qwen-Agent框架降低智慧體開發門檻。
在BFCL評測中,Qwen3以70.8分超越Gemini2.5-Pro等模型,證明其在智慧體工具呼叫上的領先優勢。這意味著開發者可基於MCP協議,快速建構手機助理、辦公機器人等智慧體應用,為即將爆發的Agent生態提供核心技術支撐。
MCP協議如同智能體的“通用語言”,而Qwen-Agent框架則是“翻譯器”與“工具箱”。兩者結合,使得開發者只要透過簡單組態,就能將千問3的能力快速轉化為智慧客服、智慧辦公等場景應用,開發周期大幅縮短。
總結來看,千問3向產業提供了「人人可用、處處能跑」的全新範式,必將推動AI真正走出技術象牙塔,奔赴產業最前線。
技術能力之外,千問3的發佈,也標誌著阿里雲向全球AI中樞的戰略轉型全面提速。
千問3的開源,無疑是阿里通義千問開源戰略的另一個里程碑。自2023年起,阿里已開源200余個模型,全球下載量超3億次,千問衍生模型突破10萬個,超越Llama成為全球第一開源模型家族;支援119種語言的千問3,更打破語言壁壘,為缺乏自研能力的國家和地區提供了全球頂尖的AI模型能力。
時至今日,通義千問Qwen在全球下載量超過3億,在HuggingFace社區2024年全球模型下載量中千問Qwen佔比超30%,穩居第一。在2025年2月的Huggingface全球開源大模型榜單(Open LLM Leaderboard)中,排名前十的開源模型全部都是基於千問Qwen二次開發的衍生模型。
在李飛飛領銜的史丹佛HAI研究所發表的《2025年人工智慧指數報告》顯示,2024年重要大模型(Notable Models)中,阿里入選6個,依照模型貢獻度排名,阿里AI貢獻位列全球第三。
「甲子光年」觀察到,全球AI產業已從單點突破、封閉競爭,轉向開放式協作、平台化競爭。開源大模型成為建構開放生態、搶佔產業標準制高點的關鍵。千問3以其領先的性能、完善的產品線和極致的成本優勢,為阿里巴巴在AI生態系統建設中,提供了強有力的技術底座。
上線開源數小時後,華為已宣佈升騰支援千問3全系列模型部署,開發者在MindSpeed和MindIE中開箱即用,實現千問3的0Day適配。輝達、英特爾、聯發科、AMD等多家頭部晶片廠商已成功適配千問3,在不同硬體平台和軟體棧上的推理效率均顯著提升,可滿足移動終端和資料中心場景的AI推理需求。
在技術生態建設上,就在不久之前,阿里雲百煉剛剛上線業界首個全生命周期MCP服務,無需使用者管理資源、開發部署、工程維運等工作,5分鐘即可快速搭建一個連接MCP服務的Agent(智能體)。中國第一AI開源社區魔搭更是上線了國內最大的中文MCP廣場,支付寶、MiniMax等MCP服務首發魔搭。
今年2月,阿里巴巴集團CEO吳泳銘還剛剛宣佈,未來三年,阿里將投入超過3800億元,用於建設雲和AI硬體基礎設施。由此,阿里從算力基建,到模型研發,再到應用落地的全鏈條佈局逐步清晰——不僅是要從電商巨頭向智能服務提供商邁進,更要成為全球AI技術領導者。
如今的阿里,也將憑藉千問3的技術優勢與開源生態,重新定義自身價值。在AI重估浪潮下,其全球競爭力已不僅限於雲端運算資源,更在於透過技術創新驅動產業升級的能力。隨著夸克、通義APP 等業務全面接取千問3,一個以阿里雲為核心的智慧生態正在成型,而這或許只是阿里主導新一輪AI產業周期的起點。
更重要的是,人工智慧將不再是少數巨頭的專屬技術,而是每位開發者、每個企業、每個一般使用者都能觸手可及的創新力量。
未來兩到三年,我們一定能見證AI原生應用的爆發式增長,人工智慧成為個人生產力工具的標配,同時企業智慧化加速,形成「千企千面」的智慧營運新格局。
全球AI創新的新一輪浪潮,正以更開放、更協同的方式展開。(首圖和文中圖片來自通義千問) (甲子光年)