#通義
技術全球前三,使用者倒數第一,“千問”項目暴露了阿里的AI困局
就在昨天,11月13日,阿里秘密啟動了一個代號"千問"的項目。上百名工程師封閉研發,在杭州總部劃出了兩層樓用作專屬辦公,這是要全面對標ChatGPT的節奏啊。但更震撼的,是CEO吳泳銘在雲棲大會上說了一句話:"通義千問要做'AI時代的Android'。"聽起來很誇張,對吧?AI怎麼可能複製Android呢?但現在的Qwen全球下載量已經達到了6億次,相當於全球每12個人就有1個人或團隊下載過。衍生模型超17萬個,就像AI時代的"三星、華為、小米",每個都是潛在的超級應用。連Airbnb的CEO都說:"我們大量依賴Qwen,因為比OpenAI更快更好。"那吳泳銘是誰,他是被馬雲欽點接班、帶領阿里走出低谷的人。曾是淘寶技術負責人,親手打造了中國最大的電商平台。兩年半前他押注Qwen開源路線時被業內質疑,今天6億次的下載量,證明了他當初的選擇無比正確。這個消息在整個科技圈引起了巨大震動。為什麼?因為阿里這步棋,可能會改寫AI時代的遊戲規則。阿里的AI困局要理解阿里這步棋有多大膽,先得看兩個事實。第一個事實是,Qwen模型技術實力已經得到全球驗證。在OpenAI工作了4年、參與過ChatGPT和GPT-4研發的前研究員都說,Qwen的技術路線是對的。最新發佈的Qwen3-Max在全球大模型排行榜上位列第三,性能超過GPT-5、Claude Opus 4等國際頂尖模型。Airbnb CEO布萊恩·切斯基公開表示,公司"大量依賴Qwen",因其"比OpenAI模型更快更好且便宜"。他們使用Qwen後,AI客服平均解決時間從近3小時縮短至6秒,減少了15%的現場需求。另外,阿里在C端AI市場的短板太明顯了。豆包月活1.72億,DeepSeek月活1.45億,通義APP月活遠低於豆包和DeepSeek。技術再強,沒有使用者,也是白搭。這就是阿里要面臨的殘酷現實,B端稱王,C端落後。而剛剛啟動的"千問"項目,就是阿里扳回這一局的非常關鍵之戰。開源VS閉源的終極對決吳泳銘說要做"AI時代的Android",這背後的戰略目的是什麼?我們可以先回顧一下Android的故事。2008年,Google推出Android開源系統,當時蘋果iOS技術領先、體驗更好,很多人斷言Android已經沒有機會了。但關鍵轉折來了——Android開放生態吸引了三星、華為、小米等硬體廠商,應用程式商店迅速繁榮,價格優勢明顯。到2015年,Android佔全球約70%份額,iOS約30%。開放生態,戰勝了封閉產品。現在,Qwen正在複製這個路徑。就像Android開源讓每個硬體廠商都能做手機,Qwen開源讓每個開發者都能做AI應用。你可能會問,AI沒有硬體廠商聯盟啊,怎麼複製Android呢?但事實是,17萬個衍生模型、100萬企業客戶、Airbnb等頂級公司,就是AI時代的"硬體廠商聯盟"。每個衍生模型都是一個潛在的超級應用,就像基於Android誕生了Galaxy、Mate、小米手機。用這組資料對比一下就知道了,Qwen全球下載6億次、17萬衍生模型、100萬企業客戶。而ChatGPT雖然月活4.455億,但生態封閉,主要靠API呼叫,開發者很難深度定製。更關鍵的是成本優勢。開源模型可以二次開發、部署在私有雲,企業不用擔心資料洩露,這是ChatGPT做不到的。歷史告訴我們,開放生態最終會戰勝封閉產品。但問題來了——豆包VS通義:阿里為什麼急?C端AI市場已經是紅海了,豆包月活1.59億,DeepSeek月活1.46億,阿里現在入場還來得及嗎?看一組資料就知道阿里有多急了。豆包背靠字節跳動,有抖音、剪映導流,10月月活環比增長22.2%。DeepSeek雖然環比下滑14%,但基礎盤穩固。騰訊元寶單月投流超10億,月活增長23.6%。而通義APP,日活遠低於豆包和DeepSeek,差距懸殊。更要命的是,獨立AI應用的生存空間正在快速縮小。Kimi月活從2025年3月的1830萬下跌至9月的967萬,跌幅近47%,就是因為停止投流後使用者流失嚴重。這也給了阿里一個警示:沒有生態支撐的AI應用,很難活下去。但阿里也看到了機會。豆包和DeepSeek雖然月活高,但都是"工具型應用",使用者黏性不強。而阿里有淘寶、天貓、餓了麼等天然流量入口——使用者在淘寶購物、支付寶支付時,千問AI可以無縫嵌入,大大降低獲客成本。這是豆包、DeepSeek都不具備的優勢。更重要的是,2025年2月,阿里宣佈未來三年將投入3800億元建設AI基礎設施,9月雲棲大會上表示將在此基礎上追加更大投入。到2032年,阿里雲資料中心能耗規模將提升10倍,算力投入指數級增長。這3800億是什麼概念?相當於建100個鳥巢體育場,或者買下3個迪士尼樂園。時機、資金、生態,三個條件齊了。阿里管理層把"千問"項目視為"AI時代的未來之戰",不是沒有道理的。三張王牌但挑戰也是顯而易見的。阿里To C基因弱、通義APP表現平平,千問APP憑什麼能逆襲?因為阿里手裡還有三張王牌。第一張王牌,Qwen模型的全球影響力。Qwen3-Max性能躋身全球前三,超越GPT-4.5、Claude Opus 4,支援119種語言,全球化能力強。更重要的是,頂級公司的認可。蘋果國行AI確定與Qwen合作,這是中國大模型首次進入iPhone生態。第二張王牌,阿里雲生態資源。阿里雲AI市場份額35.8%是什麼概念?就是說,中國每3家用AI的企業,有1家選阿里雲。更誇張的是,它比第2到第4名加起來還多——就像考試時你考了90分,第2到第4名加起來才85分。財富中國500強裡,超過一半企業都在用阿里雲。你平時點的外賣、打的車、刷的短影片,背後的AI計算,很可能就跑在阿里雲上。通義大模型已服務超9萬家企業和220萬家釘釘企業。第三張王牌,全端AI能力。從算力(阿里雲)、模型(Qwen)、應用(千問APP)到生態(17萬衍生模型),全鏈條覆蓋。這就像華為做手機,技術(麒麟晶片)+生態(鴻蒙系統)+管道(線下門店)三位一體,最終殺出重圍。但手握王牌不等於贏得戰爭。能不能打好這手牌,還得看最後的落地執行。開源能贏嗎?這不僅僅是阿里的戰爭,更是開源生態vs閉源產品的終極對決。阿里的野心不是做一個對標ChatGPT的產品,而是打造AI時代的作業系統,讓每個開發者都能參與這場變革。從Android到Qwen,歷史告訴我們,開放生態最終會戰勝封閉產品。但能否成功,取決於執行力、時機和運氣。OpenAI選擇閉源商業化,字節選擇工具化,阿里選擇開源生態化。三條路線,三種不一樣的打法,最終誰會勝出呢?大家心裡都沒底。阿里選擇了開源,這可能是最慢的路,但也可能是唯一正確的路。而時間會告訴我們答案。AI時代,資訊真假難辨,我是林傑,關注我,這裡不誇大,不虛假,只聊AI行業的真話和事實。(I人林傑聊AI)
阿里將推出國際版“千問”,與ChatGPT競爭
《科創板日報》獲悉,阿里巴巴已秘密啟動“千問”項目,基於Qwen最強模型打造一款同名個人AI助手——千問APP,全面對標ChatGPT,加入全球AI應用的頂級競賽。阿里核心管理層將其視為“AI時代的未來之戰”,希望借助Qwen的開源技術優勢贏得競爭。這是年初公佈3800億投入AI基礎設施之後,阿里AI戰略的又一重要佈局。此前,阿里重兵一直放在B端AI市場,通過阿里雲向各行各業提供模型API服務。基於Qwen的優秀性能和國際影響力,阿里管理層認為啟動千問C端之戰的時機已經成熟。阿里巴巴已經抽調上百名工程師秘密辦公。在阿里巴巴位於杭州的總部園區,已有兩層辦公樓被劃為該項目的專屬區域。面向全球市場的國際版千問APP也在同步研發,將借助Qwen模型的海外影響力與ChatGPT直接爭奪海外使用者。Qwen大模型的研發始於三年前,目前已經成為全球排名第一的開源大模型。資料顯示,Qwen系列模型的全球下載量已突破6億次。Airbnb CEO布萊恩·切斯基此前公開表示,公司正“大量依賴Qwen”,因其比openAI模型更快更好。輝達CEO黃仁勳表示,Qwen已佔據全球開源模型的大部分市場,並在持續擴大份額。不過,阿里雲與通義大模型雖然在AI基礎設施層面技術領先,卻缺乏直達消費者的應用載體。2024年底至2025年初,阿里巴巴就已經通過一系列組織架構調整和戰略部署,正式加碼AI To C業務。2024年12月,阿里巴巴將AI應用“通義”的產品團隊從阿里雲智能劃入智能資訊事業群。調整後,通義的PC端及App端團隊與夸克平級,共同探索AI在C端市場的應用場景,而通義實驗室仍保留在阿里雲體系內,繼續負責基礎技術研發。今年3月13日,阿里巴巴宣佈推出AI旗艦應用——新夸克,作為阿里巴巴AI To C的代表產品。而此次秘密研發的阿里“千問” APP,後續將與夸克如何協同發展,仍有待進一步明確。據麥肯錫預測,到2030年,全球AI To C市場規模將達到1.3兆美元,年均增長率超過35%。這個數字讓任何科技企業都無法忽視。在阿里之外,字節旗下豆包已經獲取了海量使用者流量。根據QuestMobile《2025年三季度AI應用價值榜》,豆包月活環比增長22.2%至1.59億,月均下載量達3447萬。騰訊元寶則一度靠著DeepSeek流量急速攀升。QuestMobile資料顯示,2025年上半年,騰訊元寶的月活使用者數同比增長55.2%。隨著AI應用融入更廣大使用者的日常生活,阿里、字節、百度等廠商之間的比拚也逐漸升溫,曾經在網際網路、移動網際網路時代屢次上演的競爭大戲,如今將在AI的舞台上迎來全新演繹。 (財聯社AI daily)
AI交易員大戰:六大AI模型誰是賺錢王者?
好消息,10.11 幣圈史詩級大跌後,加密交易又開始變得活躍了。壞消息,是 AI 在交易。想像一下這樣的場景:給全球六大頂級 AI 模型每人發 1 萬美元,讓它們在同一個真實市場裡廝殺,會發生什麼?注意,這不是模擬盤,而是正在發生的現實。Claude、GPT-5、Gemini、Deepseek、Grok 和通義千問,每個模型都拿著 1 萬美元真金白銀在加密交易平台 Hyperliquid 交易。所有地址公開,任何人都能即時圍觀這場「AI 交易員大戰」。有意思的是,這六個 AI 用的是完全相同的提示詞,接收完全相同的市場資料。唯一的變數,就是它們各自的「思考方式」。這就像給六個人同樣的槍和子彈,但每個人的射擊技術完全不同。結果會如何?答案令人震驚。戰況激烈:三天分出勝負如果你從 10 月 18 日開始追蹤 Alpha Arena,會發現剛開始幾個 AI 都差不多,但越往後差距越大。開局,大家都在試探。第一天結束時,最好的 Deepseek 也只賺了 4%,最差的 Qwen3 虧了 5.26%。大部分 AI 都在正負 2%之間徘徊,看起來像是都在試探市場。就像一群新手司機第一次上高速,都開得很小心。但到了 10 月 20 日,畫風突變。Deepseek 飆升到 38.03%,而 Gemini 跌到了-31.56%。短短三天,頭部和尾部的差距拉大到了近 70 個百分點。更有意思的是交易頻率的差異:Gemini:完成了 47 筆交易,平均每天 15 筆,像個焦慮的投機交易員Claude:只做了 5 筆,如同謹慎的基金經理Grok:僅 1 筆交易,甚至還有未平倉的持倉,佛系到極點截至 10 月 20 日,也就是開始交易後的第三天,戰局已經出現了明顯的分化:領先梯隊:Deepseek Chat V3.1:$13,862(+38.03%)Grok-4:$13,358(+33.58%)Claude Sonnet 4.5:$12,384(+23.85%)表現平平:Qwen3 Max:$10,831(+8.27%)嚴重落後:GPT-5:$7,294(-27.06%)Gemini 2.5 Pro:$6,876(-31.56%)從盈虧分佈看:Deepseek:最大單筆虧損 348 美元,但整體盈利 3847 美元Gemini:最大單筆盈利 347 美元,最大虧損卻高達 750 美元不同 AI(公版大模型,未經過二次調教),對風險和收益的平衡完全不同。你能在網站上的 Model Chat 選項裡看到不同模型的聊天記錄和思考過程,這些獨白特別有意思:Gemini 的頻繁交易和思考像個多動症患者Claude 的謹慎像個保守的基金經理Deepseek 穩健得像個量化老手,只說倉位,不做任何情緒評價這種性格感覺不像是設計出來的,而是在訓練過程中自然湧現的。當面對不確定性時,不同的 AI 會傾向於不同的應對方式。為什麼是 Deepseek?量化基因的勝利1950 年,圖靈提出了著名的圖靈測試,試圖回答「機器能否像人一樣思考」;現在在幣圈,6 大 AI 在 Alpha 競技場中廝殺,在回答一個更有趣的問題:如果讓最聰明的 AI 們在真實市場裡交易,誰會活下來?或許在這個幣圈版的「圖靈測試」裡,帳戶餘額就是唯一的裁判。最讓人意外又似乎情理之中的當然是 Deepseek 的表現。說意外,是因為這個模型在國際 AI 圈的熱度遠不如 GPT 和 Claude。普通人提到 AI,第一個想到的往往是 ChatGPT 或者 Claude,很少有人會想到 Deepseek。說情理之中,是因為 Deepseek 背後是幻方量化團隊。這家管理規模超千億人民幣的量化巨頭,在進軍 AI 之前,就是靠演算法交易起家的。從量化交易到 AI 大模型,再用 AI 來做真實的加密交易,Deepseek 有點像回到了老本行。這就好比讓一個退役的職業拳擊手和一群健身愛好者比拳擊,雖然大家都有肌肉,但專業基因完全不同。訓練資料的影響可能是關鍵。Deepseek 背後的幻方量化,十幾年來積累了海量的交易資料和策略。這些資料即使不直接用於訓練,是否也會影響團隊對“什麼是好的交易決策”的理解?相比之下,OpenAI 和 Google 的訓練資料可能更偏向學術論文和網路文字,對實盤交易的理解可能不夠親民。同時,有交易員推測,Deepseek 可能在訓練時特別最佳化了時間序列預測能力,而 GPT-5 可能更擅長處理自然語言。在面對價格圖表這種結構化資料時,不同的架構會有不同的表現。這就像讓語言學家和數學家去解讀股價走勢圖,雖然都很聰明,但專業領域不同,結果自然不同。市場才是智能的終極試金石傳統的 AI 評測,無論是讓模型寫程式碼、做數學題,還是寫文章,本質上都是在一個「靜態」的環境裡測試。題目是固定的,答案是可預期的,甚至可能已經在訓練資料裡出現過。但加密市場不一樣。資訊極度不對稱的前提下,每一秒的價格都在變化,沒有標準答案只有盈虧。更重要的是,加密市場是典型的零和遊戲,你賺的錢就是別人虧的錢。市場會立即、無情地懲罰每一個錯誤決策。這個舉辦 AI 交易大戰的 Nof1 團隊,在它們的網站上寫了一句話:Markets are the ultimate test of intelligence(市場是檢測 AI 智能的終極測試)。如果說傳統的圖靈測試是在問「你能不能讓人類分不清你是機器」,那麼這個 Alpha Arena 問的其實是:你能不能在加密市場裡賺錢。這一點其實才是幣圈玩家對 AI 的真實期待。圍觀 AI 交易,也是一門生意當所有人都在關注 AI 的盈虧時,很少有人注意到背後這家神秘的公司。搞出這個 AI 交易大戰的 nof1.ai,並沒有太大的知名度。但是如果你看一下它社媒的關注列表,還是能找到一些蛛絲馬跡。nof1.ai 背後似乎不是一群典型的加密創業者,而是清一色的學院派 AI 研究員。Jay A Zhang(創始人)的個人簡介也很有意思:“Big fan of strange loops - cybernetics, RL, biology, markets, meta-learning, reflexivity”。reflexivity(反身性)是索羅斯的核心理論:市場參與者的認知會影響市場,市場的變化又會影響參與者的認知。讓一個研究“反身性”的人來做 AI 交易市場實驗,本身就顯得很有宿命感。另一個聯創 Matthew Siper 簡介顯示其為紐約大學機器學習方向的博士候選人,同時也是 AI 研究科學家。一個還沒畢業的博士生做項目,更像一個印證學術研究的項目。從他們的動作和背景來看,Nof1 顯然不是為了搞個噱頭。SharpeBench 這個平台名字就很有野心,夏普比率是衡量風險調整後收益的金標準,他們或許真正想做的,是 AI 交易能力的基準測試平台。有人猜測 Nof1 背後有大資本支援,也有人說他們可能在為後續的 AI 交易服務做鋪墊。如果他們推出訂閱 Deepseek 交易策略服務,買單的人或許不在少數。而基於這個雛形,去做 AI 資管、策略訂閱和大企業的交易解決方案,也是一門可以預見的生意。除了這個團隊本身之外,圍觀 AI 交易本身也有利可圖。Alpha Arena 剛上線,就有人開始跟單了:正向跟單:跟著 Deepseek 做。它買什麼你買什麼,它賣什麼你賣什麼反向操作:專門做 Gemini 的對手盤,Gemini 買就賣,賣就買但跟單有個問題:當所有人都知道 Deepseek 要買什麼時,這個策略還有效嗎?這也是項目創始人 Jay Zhang 說的反身性,即觀察本身會改變被觀察的對象。這裡還有一種頂級交易策略民主化的假象。表面上看起來,每個人都能知道 AI 的交易策略,但實際上你看到的是交易結果,不是交易邏輯。每個 AI 的止盈和止損邏輯並不一定連續且可靠。當 Nof1 在測試 AI 交易的行為,散戶在尋找財富密碼,其他的一些交易員在偷師,研究者們也在蒐集資料。只有 AI 本身不知道自己在被圍觀,還在認真地執行每一筆交易。如果說經典的圖靈測試是關於“欺騙”和“模仿”,那現在的 Alpha Arena 交易大戰,是關於加密玩家對於 AI 能力和結果的回應。多年來,AI 一直由靜態基準來衡量。ImageNet、MMLU 以及無數的排行榜告訴我們,那個模型能更好地「理解」圖像、邏輯或語言。但所有這些測試都有一個共同的缺陷,它們都發生在無菌、可預測的環境中。市場則恰恰相反。金融市場是終極的世界建模引擎,也是唯一一個會隨著 AI 變得更聰明而難度同步提升的基準。它們波動、反應、懲罰、獎勵。它們是一個由資訊和情感構成的生命系統。在 Alpha Arena 中,沒有正確的標籤,只有不斷變化的機率。一個模型的成功取決於它解讀波動的速度、權衡風險的精度,以及承認錯誤的謙遜程度。這將交易變成了一種新型的圖靈測試:考驗的不再是「機器能否思考」,而是「它能否在不確定性中生存」。在這個結果主導的加密市場裡,會賺錢的 AI,可能比會聊天的 AI 更重要。 (深潮 TechFlow)
阿里下場,具身智能迎來超級玩家!
通義團隊已建立機器人和具身智能的小組。多模態基礎模型正轉變為基礎智能體(agents),而這些智能體將從虛擬世界走向物理世界。阿里通義千問大語言模型負責人林俊暘昨日在社交媒體上發文表示,已在通義團隊內部建立機器人和具身智能的小組。在2025雲棲大會上,阿里雲與輝達在物理AI領域達成合作。而此次阿里組建機器人和具身智能的團隊,標誌著阿里通義大模型正式涉足具身智能大腦領域。▍通義大模型走向物理AI林俊暘提及建立機器人和具身智能團隊時表示,多模態基礎模型正轉變為基礎智能體,這些智能體可以利用工具和記憶通過強化學習進行長時序(long-horizon)推理,而它們絕對應該從虛擬世界走向物理世界。據瞭解,林俊暘畢業於北京大學,其研究興趣集中於大規模語言模型和多模態大模型。他曾在阿里達摩院負責打造超大規模多模態預訓練模型M6,通用統一多模態預訓練模型OFA,中文預訓練模型Chinese CLIP等。目前是阿里通義千問的技術負責人。“多模態基礎模型如果僅用於視訊生成,仍停留在相對初級的階段。視訊生成只能證明AI對物理世界的理解能力,更關鍵的在於控制能力。阿里從純軟體AI應用轉向開發能夠控制智能終端與機器人的‘大腦’,實質上是在重新定義勞動力,這其中蘊含著巨大的市場空間。”快思慢想研究院院長田豐表示。他進一步指出,阿里當前採取的策略是:在軟體層面自研“大腦”,在硬體層面則通過投資整機廠商進行佈局。9月8日,阿里雲領投了機器人初創公司自變數機器人1.4億美元的A+輪融資。此前,阿里還投資了法奧意威、星動紀元、逐際動力、宇樹科技等多家機器人企業。“要實現從通用人工智慧(AGI)到超級人工智慧(ASI)的跨越,關鍵在於是否具備足夠強大的‘大腦’,能夠處理跨工業、農業、服務業等多領域的複雜任務,並達到人類水平。眼下整機技術路徑尚未收斂,硬體形態仍處於發散階段,因此通過投資參與是更為靈活和高效的方式。”田豐稱。▍不止阿里,大廠紛紛入局阿里的此番入局並不意外。當前,全球巨頭都在下場具身智能,物理AI成為新戰場。在今年6月的年度股東大會上,輝達 CEO黃仁勳曾提到:“人工智慧和機器人技術是最大的兩個增長機會,代表著數兆美元等級的增長機會。”9月雲棲大會期間,阿里雲就與輝達在物理AI領域達成合作。阿里雲人工智慧平台 PAI 將整合輝達Physical AI軟體棧,將為企業使用者提供資料預處理、模擬資料生成、模型訓練評估、機器人強化學習、模擬測試等全鏈路平台服務,進一步縮短具身智能、輔助駕駛等應用的開發周期。除了阿里外,京東、騰訊等網際網路廠商也在瞄準具身智能的大腦。京東已經發佈附身智能品牌JoyInside,為機器人、機器狗和AI玩具等提供機器人的“大腦”能力,並與數十家主流機器人品牌達成合作,包括陪伴類的Fuzozo芙崽、火火兔;教育領域的元蘿蔔AI、心大陸、Folotoy、嚕咔博士;產業領域的眾擎、雲深處、魔法原子等。騰訊Robotics X實驗室與福田實驗室聯合發佈具身智能開放平台 Tairos “鈦螺絲”。據騰訊首席科學家張正友介紹,Tairos 具身智能平台希望為機器人本體與應用開發商補齊關鍵軟體能力,就像為各類機器人裝上“大腦”,讓機器人具備感知世界、規劃任務以及自主決策等能力,從被動執行指令的機械體進化為主動適應現實世界的智能生命體。▍具身智能“大腦”邁入發展深水區具體來看,不少大廠選擇從自身業務場景切入,落地具身智能技術。“例如在倉儲、物流、服務業等場景中,讓具身智能‘大腦’達到解決專業任務的水平是具有可行性的。像順豐、美團等企業,都在朝這一方向積極佈局。它們在提升自身生產效率之後,再進一步通過生態合作將技術擴展至更多元的應用場景。”田豐提到。田豐還特別指出,阿里巴巴具備將自身業務與平頭哥晶片技術融合的潛力。“在最佳化機器人大腦的基礎上,與平頭哥進行協同,推動雲端AI晶片逐步向智能終端落地,無論是機器人晶片還是自動駕駛晶片,都將為大模型的規模化推廣提供硬體支撐。未來,更有機會建構起機器人領域的‘AppStore’應用生態圈。”不過,具身智能的大腦仍處於探索階段。宇樹科技創始人王興興曾多次表示,當前硬體的性能其實足夠支撐應用,核心瓶頸在於AI模型本身的能力不足,導致硬體潛力無法被充分釋放。此外,他對於當前熱門的VLA模型也持保留態度,認為其模型架構仍需進一步的迭代升級。談及大廠紛紛入局具身智能大模型所帶來的影響,田豐指出,當前機器人大腦的發展仍需聚焦於專業場景的突破。在他看來,專業場景下的應用仍存在明顯不足,更不必說實現通用場景的覆蓋。“物理AI對可靠性、精確性、速度要求更高。在物理環境中,一旦決策失誤,整條生產線上的太陽能板或鋰電池都可能受到影響,帶來巨大的試錯成本,遠高於軟體AI的容錯空間。目前我們需要彌補的短板非常多,包括物理環境中的任務流程設計、業務深層知識以及行業經驗等,這些方面都尚未被充分挖掘和理解。”田豐相信,未來具身智能的“大腦”將邁入發展的深水區。“從資料、邏輯再到決策,整個業務流的思維鏈條將被拆解得極為細緻,我們必須釐清其中每一個環節的因果依賴關係。” (財聯社AI daily)
阿里深夜幹了件大事,成本暴降90%!
32B尺寸比肩235B性能,兩大新模型已開源。智東西9月12日報導,今天凌晨,阿里通義實驗室正式發佈下一代基礎模型架構Qwen3-Next,並訓練了基於該架構的Qwen3-Next-80B-A3B-Base模型,該模型擁有800億個參數,僅啟動30億個參數。Base模型在Qwen3預訓練資料的子集上訓練,包含15T tokens訓練資料,僅需Qwen3-32B 9.3%的GPU計算資源,針對超過32k的上下文,推理吞吐量可達到Qwen3-32B的10倍以上。同時,基於Base模型,阿里開源了Qwen3-Next-80B-A3B的指令模型(Instruct)和思維模型(Thinking),模型支援原生262144個token上下文長度,可擴展至1010000個token。其中,Qwen3-Next-80B-A3B-Instruct僅支援指令(非思考)模式,其輸出中不生成<think></think>塊;Qwen3-Next-80B-A3B-Thinking僅支援思考模式,為了強制模型進行思考,默認聊天範本自動包含<think>。指令模型的性能表現與參數規模更大的Qwen3-235B-A22B-Instruct-2507相當,思維模型優於Google閉源模型Gemini-2.5-Flash-Thinking。▲指令模型測試基準▲思維模型測試基準在架構升級方面,相比阿里4月底的Qwen3 MoE模型,新增了混合注意力機制、高稀疏度MoE結構、一系列訓練穩定友好的最佳化,以及提升推理效率的多Token預測(MTP)機制等。新模型已在魔搭社區和Hugging Face開源,開發者也可通過Qwen Chat或阿里雲百煉、NVIDIA API Catalog體驗Qwen3-Next。開發者在Qwen的X評論區稱讚其新增的多Token預測(MTP)機制,稱這是最令人印象深刻的部分。Qwen Chat地址:https://chat.qwen.aiHugging Face地址:https://huggingface.co/collections/Qwen/qwen3-next-68c25fd6838e585db8eeea9d魔搭社區:https://modelscope.cn/collections/Qwen3-Next-c314f23bd0264a阿里雲百煉:https://bailian.console.aliyun.com/?tab=model#/model-market/detail/qwen3?modelGroup=qwen301.指令模型接近235B旗艦模型思維模型超Gemini-2.5總的來看在性能方面,指令模型接近阿里參數規模235B的旗艦模型,思維模型表現優於Gemini-2.5-Flash-Thinking。其基座模型為Qwen3-Next-80B-A3B-Base,僅使用1/10的Non-Embedding啟動參數,在大多數基準測試中,性能表現與Qwen3-32B-Base相近。但其總訓練成本為Qwen3-32B-Base的10%不到。得益於其新的混合模型架構,Qwen3-Next在推理效率方面,與Qwen3-32B相比,Qwen3-Next-80B-A3B在預填充(prefill)階段,在4k tokens的上下文長度下,吞吐量接近前者的7倍,當上下文長度超過32k時,吞吐量提升達到10倍以上。在解碼(decode)階段,該模型在4k上下文下實現近4倍的吞吐量提升,在超過32k的長上下文場景中能保持10倍以上的吞吐優勢。具體來看,其指令模型表現優於Qwen3-30B-A3B-Instruct-2507和Qwen3-32B-Non-thinking,並取得了幾乎與參數規模更大的Qwen3-235B-A22B-Instruct-2507模型相近的結果。只有在面向大模型的綜合性評測基準、高難度數學推理基準AIME25中,指令模型的表現略遜色於Qwen3-235B-A22B-Instruct-2507,在程式設計、複雜問答與長對話的評測中表現更好。Qwen3-Next-80B-A3B-Instruct在RULER上所有長度的表現明顯優於層數相同、注意力層數更多的Qwen3-30B-A3B-Instruct-2507,甚至在256k範圍內都超過了層數更多的Qwen3-235B-A22B-Instruct-2507。思維模型的表現優於預訓練成本更高的Qwen3-30B-A3B-Thinking-2507、Qwen3-32B-thinking,全面超過Google的閉源模型Gemini-2.5-Flash-Thinking,並在部分指標上接近阿里最新旗艦模型Qwen3-235B-A22B-Thinking-2507。02.混合注意力、MoE、穩定最佳化多Token預測加持研究人員在部落格中提到,Qwen3-Next是針對大模型在上下文長度和總參數兩方面不斷擴展的未來趨勢而設計。Qwen3-Next採用的是Qwen3 36T預訓練語料的均勻採樣子集,包含15T tokens的訓練資料,其訓練所消耗的GPU Hours不到Qwen3-30A-3B的80%;與Qwen3-32B相比,僅需9.3%的GPU計算資源,即可實現更優的模型性能。這一模型結構相較其4月底推出的Qwen3的MoE模型,新增了多種新技術並進行了核心改進,包括混合注意力機制、高稀疏度MoE結構、一系列訓練穩定友好的最佳化,以及提升推理效率的多Token預測(MTP)機制等。混合注意力機制:用Gated DeltaNet(線性注意力)和Gated Attention(門控注意力)的組合替換標準注意力,實現超長上下文長度的有效上下文建模。研究人員發現Gated DeltaNet相比常用的滑動窗口注意力(Sliding Window Attention)和Mamba2有更強的上下文學習能力, 並在3:1的混合比例下,即75%層使用Gated DeltaNet,25%層保留標準注意力,能一致超過超越單一架構,實現性能與效率的雙重最佳化。同時在保留的標準注意力中,研究人員進一步引入多項增強設計,包括沿用先前工作的輸出門控機制,緩解注意力中的低秩問題,將單個注意力頭維度從128擴展至256,僅對注意力頭前25%的位置維度加入旋轉位置編碼,提高長度外推效果。高稀疏度混合專家(MoE):在MoE層中實現極低的啟動比率,大幅減少每個token的FLOPS,同時保留模型容量。研究人員的實驗表明,在使用全域負載平衡後,當啟動專家固定時,持續增加專家總參數可帶來訓練loss的穩定下降。此前,Qwen3系列的MoE專家啟動比約為1比16,Qwen3-Next實現了1比50的啟動比。穩定性最佳化:包括零中心化和權重衰減LayerNorm等技術,以及其他增強穩定性以實現魯棒的預訓練和後訓練。研究人員發現,注意力輸出門控機制能消除注意力池與極大啟動等現象,保證模型各部分的數值穩定。多Token預測(MTP):提升預訓練模型性能並加速推理,Qwen3-Next特別最佳化了MTP多步推理性能,通過訓練推理一致的多步訓練,進一步提高了實用場景下的投機採樣(Speculative Decoding)接受率。03.結語:3B啟動參數對標旗艦模型!阿里憑架構創新為模型降本提速Qwen3-Next的突破點在於同時實現了大規模參數容量、低啟動開銷、長上下文處理與平行推理加速。此外結合注意力機制、MoE設計等方面的多項架構創新,阿里通義此次實現僅啟動3B參數模型就能對標規模更大模型的性能,使得模型在性能與效率之間找到更佳平衡點,同時為降低模型訓練、推理成本提供了有效路徑。研究人員在部落格提到,未來他們將持續最佳化這一架構並開發Qwen3.5。與此同時近期阿里通義已經推出數個不同領域的模型,如超兆參數的Qwen3-Max-Preview、文生圖及編輯模型Qwen-Image-edit、語音識別模型Qwen3-ASR-Flash等。隨著其多領域模型的持續落地與開源,阿里通義在開源社區的技術影響力正逐步增強。 (智東西)
“清華系”VS“阿里系”:誰將定義中國大模型的下一個“範式”?
隨著“百模大戰”的喧囂逐漸退去,中國大模型產業正從技術競賽轉嚮應用落地的深水區。在這場重塑AI格局的處理程序中,兩大“隱形門派”——以清華背景企業為代表的“清華系”,與從阿里“通義”體系走出的創業者構成的“阿里系”,正成為影響未來走向的關鍵力量。源起:學院派與實戰派的兩條路徑“清華系”的根基深植於清華大學電腦系的知識工程實驗室(KEG),在唐傑教授的帶領下,團隊長期深耕知識圖譜、圖神經網路與預訓練模型。這一學派強調理論驅動,追求技術本質的突破。智譜華章便是這一學術傳統的商業延續。其CEO張鵬為清華博士,公司依託GLM(通用語言模型)架構,走出了一條不同於GPT和BERT的技術路線,體現出強烈的“學院派”氣質。而月之暗面則由清華校友楊植麟創立,團隊融合了清華的理論深度與Google Brain的工程經驗。其產品Kimi憑藉支援百萬級長文字輸入的能力,在2023至2024年間迅速引爆市場,展現了“理論+工程”雙輪驅動的潛力。相比之下,“阿里系”的創業者則是在商業實戰中錘煉出的“羅馬軍團”。阿里自2017年設立達摩院以來,持續投入AI研發,並於2023年推出通義千問(Qwen)系列大模型,建構了“模型+平台+業務”的閉環生態。從這一體系中走出的創業者,如前阿里副總裁賈揚青創辦的Lepton AI,以及螞蟻集團前首席AI科學家漆遠創立的無限光年,都帶有鮮明的“場景驅動”烙印。他們更關注技術如何與金融、電商、物流等真實產業結合,擅長高並行、低延遲的系統部署,追求技術的可規模化與商業回報。分野:理想主義與實用主義的碰撞?技術路徑的差異,也對應出兩種截然不同的創業哲學。“清華系”創始人多為學者或頂尖研究員,創業故事常帶有理想主義色彩。他們追求長期技術壁壘,建構以學術成就為核心的“知識共同體”。融資時,他們講述的是“改變世界的技術”和“國家戰略需求”,吸引國家級基金與頂級風投。而“阿里系”則更像一支“戰友聯盟”,創始人多為身經百戰的業務將才。他們決策迅速、執行高效,擅長講述清晰的商業邏輯。在資本眼中,他們的履歷本身就是信用背書——一個被驗證過的團隊,正奔赴一個兆級市場。這種差異也體現在資源爭奪上:兩者都在搶奪頂尖AI人才、GPU算力和企業客戶市場。但“清華系”瞄準的是大模型“智力本質”的突破,在尋求商業突破時更試圖定義下一代AI範式;“阿里系”則聚焦於應用層的快速落地,力求在紅海中建立商業護城河。競合:對手,也是盟友儘管表面上是競爭對手,但“清華系”與“阿里系”之間卻存在著複雜的合作關係。一個耐人尋味的現像是:阿里巴巴通過其戰略投資部門,同時投資了“清華系”的智譜和月之暗面。這意味著,阿里既是“阿里系”創業者的“母校”,也是“清華系”新銳的金主。這種佈局,實則是阿里在核心技術自研之外,建構的“雙軌生態”戰略——既通過通義守住基本盤,又通過投資外部創新力量對衝風險、搶佔前沿。此外,所有大模型玩家都依賴共同的上游生態:輝達的GPU、阿里雲等算力平台、以及ModelScope等開源社區。他們的競爭客觀上推動了產業鏈成熟,共同做大了中國AI的“蛋糕”。未來:融合才是終局?“清華系”與“阿里系”的對決,本質上是中國AI發展兩條路徑的交鋒:由理生工(從理論出發推動工程)與由工反理(在工程實踐中倒逼理論突破)。未來的勝出者,或許不是某一陣營的全面勝利,而是兩類基因的融合體——既擁有“清華系”的技術深度,又具備“阿里系”的商業敏銳。這類新一代AI企業,將不再被簡單的“門派”標籤所定義,而是以更系統、更成熟的能力,迎接全球競爭。當喧囂退去,這場“門派之爭”最終指向的,是中國科技產業對長期主義與系統能力的集體回歸。誰能在理論與商業之間找到最佳平衡,誰就有望定義中國大模型的下一個“範式”。 (元界)
最新智能體自動操作手機電腦,10個榜單開源SOTA全拿下
能自動操作手機、電腦的智能體新SOTA來了。通義實驗室推出Mobile-Agent-v3智能體框架,在手機端和電腦端的多個核心榜單上均取得開源最佳。它不僅能做互動介面的問答、描述、定位,也能一條指令獨立完成複雜任務,甚至可以在多智能體框架中無縫扮演不同角色。PC+Web演示:在Edge瀏覽器中搜尋阿里巴巴的股價。然後在WPS中建立一個新表格,在第一列填寫公司名稱,在第二列填寫股價。PC演示:建立一個新的空白簡報,然後在第一張幻燈片中以藝術字的形式插入一段文字,內容為“阿里巴巴”。Web演示:去嗶哩嗶哩看雷軍的視訊,然後給第一個視訊點贊。手機演示:請幫我在小紅書上搜尋濟南旅遊攻略,按收藏數排序,並保存第一條筆記。請幫我在攜程上查詢濟南大明湖風景區的詳細資訊,包括地址、票價等。自動化操作手機、電腦成為了各家多模態大模型攻堅的主戰場。但是現有的模型,要麼被訓練成一個專用模型,輸入輸出格式固定,沒有多面能力;要麼就是能力不夠強的通用模型,雖然能遵循指令,但實際執行總是磕磕絆絆。這次來自通義實驗室的Mobile-Agent團隊給出新穎的解決方案,訓練一個兼具基礎能力與推理泛化能力的圖形互動基礎模型(Foundational Agent)。它既能獨當一面,在AndroidWorld、OSWorld、ScreenSpot等10個主流GUI榜單中均取得了開源SOTA的水平;也能承擔對話、問答、定位、介面描述等基礎任務。自我進化軌跡生產基建 (Self-Evolving Trajectory Production)GUI基礎模型的訓練離不開大規模、高品質的軌跡資料。為此,通義MobileAgent團隊依託阿里雲強大的雲能力,建構了一整套覆蓋Android、Ubuntu、macOS、Windows的跨平台雲環境基礎設施。通過PyAutoGUI和ADB等工具,打通了模型輸出到系統執行的障礙,使得模型可以大規模平行地在隔離的雲端沙箱中進行任務執行和軌跡爬取。在雲環境基礎上,團隊設計了一套名為“Self-Evolving GUI Trajectory Production”的自動化資料生產鏈路,其核心是實現資料採集與模型最佳化的自動化閉環。它首先通過高品質任務生成模組(High-Quality Query Generation)產出豐富多樣的任務指令,再讓GUI-Owl模型在雲環境中執行(Roll-out)並爬取軌跡。軌跡正確性判斷模組(Trajectory Correctness Judgment)會對這些軌跡進行打分和篩選。對於模型難以完成的高難度任務,任務指南生成模組(Query-specific Guidance Generation)會基於成功案例或人工標註,提煉出關鍵步驟提示,幫助模型在下一輪嘗試中提高成功率。最終,這些經過層層篩選和最佳化的的高品質軌跡被用於模型的迭代訓練,形成一個不斷自我增強的飛輪。GUI知識 & 推理能力 Are All You NeedMobile-Agent團隊發現,建構通用的GUI基礎模型(Foundational Agent)的關鍵在於強大的GUI基礎知識以及魯棒的推理能力。前者保證模型有解決問題的基本功,後者保證模型能夠適應各種下游場景,無論是單打獨鬥,還是多智能體協同。一、精準的介面元素定位:讓AI“指那打那”要讓AI真正理解圖形介面,首先得讓它知道“每個元素在那、是什麼、怎麼用”。為此,團隊建構了兩類接地(grounding)任務資料:1. UI元素定位資料來源包括三部分:開源資料集 - 整合了UI-Vision、GUI-R1等多個公開GUI資料集。基於無障礙樹(A11y Tree)的資料合成 - 利用移動端和桌面端的無障礙資訊,提取UI元素的邊界框及其功能描述,並結合多模態大模型生成外觀與佈局描述。爬取PC截圖的密集定位 - 針對PC端標註資料稀缺的問題,團隊爬取大量介面截圖,採用SAM模型將圖像分割為多個子區域,再由多模態大模型在每個區域內進行細粒度接地,有效解決了PC介面元素密集、難以分割的痛點。為保證質量,所有標註結果均與Omniparser V2的UI檢測結果進行比對,過濾掉IoU低於0.5的噪聲框。同時,原始指令經由大模型重寫為更自然、任務導向的表達。2. 細粒度文字與字元接地(Fine-grained Text Grounding)針對文件類介面中文字精確定位的需求,團隊收集文件圖像,結合OCR工具提取文字內容及其空間坐標,建構出支援單詞甚至單字元級定位的資料集,使模型能夠準確響應“點選第三段第二行的‘提交’二字”這類精細指令。二、複雜任務規劃:教會AI“先想後做”面對長周期、跨應用的真實任務,模型不僅需要“看得懂”,更要“想得清”。為此,團隊從兩個維度建構任務規劃資料:從歷史軌跡中提煉經驗 - 基於已有的成功操作軌跡,對每一步頁面跳轉進行細粒度描述,通過大模型整理成結構化的“任務執行手冊”。從大規模預訓練語言模型中蒸餾知識 - 收集主流應用列表,由人工或模型生成複雜任務,交由Qwen3-235B等超大規模語言模型生成詳細執行計畫,再經整合清洗,形成高品質的任務規劃資料集。三、動作語義理解:掌握“操作如何改變介面”一個優秀的介面智能體,必須理解“動作”與“狀態變化”之間的因果關係。基於大量真實操作軌跡,團隊建構了“操作前”/“操作後”的截圖對,核心任務是讓模型根據介面變化,反向推斷出中間發生的操作——包括動作類型和具體參數。這類資料直接來自離線採集的軌跡,真實可靠,幫助模型建立起『視覺差異 → 使用者行為』的因果對應能力。強化學習進階:讓AI在真實互動中“越練越強”僅靠離線SFT資料還不夠,模型需要在與環境的真實互動中持續學習,才能解決長尾問題、提升決策魯棒性。為此,Mobile-Agent團隊引入強化學習(RL),並建構了一套高效、靈活的訓練基礎設施:1 解耦式、可調控的Rollout機制:將經驗生成與策略更新完全解耦。系統既可嚴格按策略同步運行,也可非同步執行,同時Rollout服務可獨立部署在專用於推理的硬體上,在不犧牲學習質量的前提下,顯著提升訓練吞吐效率。2 統一的多工介面:無論是單步推理還是多輪互動的複雜任務,都通過統一的外掛介面接入系統,極大降低了新環境的接入成本。3 獨創的軌跡感知相對策略最佳化(TRPO)演算法:直面挑戰:GUI任務的獎勵訊號通常是稀疏且延遲的(Sparse & Delayed),這給傳統的RL帶來了巨大的信用分配難題(Credit Assignment Problem)。解決方案:TRPO演算法在一次任務結束後,對整條軌跡計算一個總獎勵(成功+1,失敗0,格式錯誤-0.5)。然後,通過歸一化的優勢估計(Normalized Advantage Estimate),將這個獎勵訊號穩定且均勻地分配給軌跡中的每一步操作。關鍵創新:**引入了基於任務ID的成功軌跡回放池(Replay Buffer)。 當某個任務的線上探索(Rollout)全部失敗時,系統會從池中取出一個歷史成功軌跡替換掉其中一個失敗樣本,確保每個訓練批次都有正向訊號**,極大提升了學習效率和穩定性。通過這套先進的RL框架,GUI-Owl在動態環境中的表現得到巨大提升,在OSWorld-Verified基準測試中,成功率從27.1%穩定提升至34.9%。多智能體協同:讓AI團隊協作完成複雜任務團隊在GUI-Owl強大能力基礎上,進一步推出Mobile-Agent-v3,一個支援知識演進、任務規劃、子任務執行與反思推理的多智能體協作框架。Mobile-Agent-v3由四位“特工”協同驅動,並且這四個角色均由同一個GUI-Owl模型扮演。Manager Agent負責全域戰略規劃。接到使用者指令後,它會先呼叫RAG模組檢索外部知識,然後將高階任務拆解為有序的子目標序列。在執行過程中,它持續接收反饋,動態調整計畫。Worker Agent負責執行操作。面對當前介面狀態,它選擇最合適的動作並執行,輸出包含推理過程、操作指令與意圖說明的完整行動元組(Action Tuple)。Reflector Agent負責事後復盤。每一步操作後,它都會比對Worker的預期結果與實際介面變化,判斷結果為 成功 或 失敗,並生成詳細的歸因分析。Notetaker Agent負責記憶沉澱。僅在成功操作後觸發,它會自動提取關鍵資訊——如驗證碼、訂單號等——存入長期記憶,供後續步驟使用。四者協同,形成一個閉環增強的自動化流水線:拆解 → 執行 → 檢查 → 記錄 → 調整 → 再執行。在Mobile-Agent-v3的架構下,AI不再盲目試錯,而是有計畫地行動、有依據地修正、有記憶地推進。實驗結果團隊還開源了全新的全非同步、軌跡級強化學習框架,並提出獨創的軌跡感知相對策略最佳化(TRPO)演算法,在OSWorld動態環境中將成功率提升近8個百分點,展現出自進化潛力。在遇到複雜任務時,端到端模型往往力不從心,這時就需要多智能體框架來幫大模型理清工作流程。然而GUI專用模型因指令遵循能力弱,很難用於多智能體框架。GUI-Owl通過對推理資料的深度訓練,使其能在一個模型內無縫扮演規劃者、執行者、反思者、記錄員等多種角色。 配合全新的Mobile-Agent-v3框架,在真實環境評測中,帶來了高達7~8個百分點的性能提升。(量子位)
比亞迪裝上阿里“最強大腦”!接入阿里通義大模型
阿里雲與比亞迪宣佈達成深度合作,比亞迪全系車型正式接入阿里通義大模型。這一技術升級將徹底改變車載互動體驗:使用者只需一句語音指令,即可通過智能座艙完成訂火車票、點外賣、查詢快遞等複雜操作。例如,使用者說“幫我訂明早去上海的高鐵票”,系統會自動調取日曆確認行程並完成購票;若詢問“淘寶買的快遞到那了”,座艙能精準識別淘寶App並模擬點選查詢物流資訊。此次合作的核心技術支撐是阿里雲AI智能體Mobile-Agent。它基於全視覺解決方案,結合比亞迪開放的座艙生態與通義大模型的多模態能力(如Qwen-VL視覺識別),實現對螢幕內容的智能感知、任務規劃及UI操作決策。該系統無需針對不同App單獨適配,具備跨場景、跨裝置的強泛化能力,覆蓋購票、外賣、社交、娛樂等高頻需求。此外,比亞迪已在多個業務場景落地通義大模型:智能座艙:騰勢車型推出“AI壁紙”功能,使用者語音生成個性化壁紙,並隨時間自動調節色調;心理伴聊:基於通義星塵技術,提供情感陪伴服務,緩解駕駛疲勞;行銷服務:通過通義千問最佳化客服對話質量監控,提升服務效率。雙方表示,未來將進一步拓展車載AI應用場景,例如結合高精度地圖實現“車內預訂目的地周邊餐廳”等深度服務。當前,智能汽車正從“工具屬性”向“服務生態”轉型。比亞迪與阿里的合作,標誌著車載互動邁入“多模態指令+場景化服務”的新階段。技術驅動:通義大模型的多模態能力(語音、視覺、文字融合)解決了傳統語音助手的侷限性。例如,Mobile-Agent通過視覺識別精準定位螢幕功能入口,避免了“誤喚醒”和“重複確認”的痛點。生態整合:阿里雲依託支付寶、淘寶、微博等生態資源,為比亞迪提供豐富的服務入口。這種“車企硬體+網際網路服務”的模式,建構了從需求識別到服務落地的閉環。行業趨勢:據麥肯錫預測,2026年全球車載AI市場規模將突破千億美元。特斯拉、小鵬等車企雖在自動駕駛領域領先,但在“車內服務生態”上仍依賴第三方應用,而比亞迪通過開放生態與AI結合,率先搶佔使用者高頻場景。比亞迪與阿里雲的合作並非偶然,而是雙方長期戰略佈局的必然結果。合作基礎技術互補:比亞迪擁有全球領先的電池技術與整車製造能力,而阿里雲在雲端運算、AI大模型領域積累深厚。2023年起,雙方已在車機系統最佳化、使用者畫像分析等場景試點合作。生態協同:阿里通過支付寶、高德地圖等建構車載服務生態,比亞迪則通過“迪粉匯”等平台積累超2000萬使用者資料,雙方資料融合後能精準預測使用者需求。行業轉折點2024年,比亞迪推出“天神之眼”高階智駕系統,但使用者反饋“互動體驗單一”;此次接入通義大模型後,其座艙從“指令執行工具”升級為“需求理解夥伴”,差異化競爭力顯著提升。對比華為鴻蒙OS(依賴自家硬體)和特斯拉純視覺方案,比亞迪選擇開放生態+多模態AI,更易實現規模化落地。競爭對手對比:生態整合成決勝關鍵本質差異:比亞迪與阿里的合作聚焦“使用者需求直達”,通過AI打破App壁壘;而特斯拉、華為更側重技術自研與生態控制權。未來競爭將圍繞“服務顆粒度”與“生態開放性”展開。比亞迪接入阿里通義大模型,不僅是技術升級,更是對“人車關係”的重新定義。通過多模態互動與場景化服務,汽車從“移動工具”進化為“需求預測者”和“服務執行者”。這一變革背後,是車企從“製造”向“服務營運”的深層轉型。比亞迪借助阿里的AI能力,以較低成本實現了服務生態的快速擴展;而阿里則通過車企場景反哺大模型迭代,形成雙向賦能。然而,挑戰依然存在:如何平衡個性化服務與使用者隱私?如何避免生態封閉導致的“資料孤島”?這些問題的解決,將決定智能座艙能否真正成為使用者生活的“延伸”。可以預見,2025年將是“車內AI服務”爆發之年,而比亞迪與阿里的組合,已然搶佔了先發優勢。 (智創獅)