#國產AI
中國國產AI重估之年:紅包、奶茶、Seedance2.0、DeepSeek
技術的真正意義,不在於其孤立的機械成就,而在於它如何被整合進生活的整體,並在此過程中擴散至整個社會機體,從而改變文明的質感。—— 劉易斯·芒福德,《技術與文明》2026年的春節,國產AI領域呈現出一種莫名的“折疊感”。一邊是社交媒體上關於DeepSeek“變冷淡”的討論。使用者發現,這個曾在去年春節期間以“平替OpenAI”姿態破圈的先行者,如今的對話風格變得極其精簡、機械,甚至拒絕在廢話上浪費那怕一個Token。另一邊,中國網際網路大廠們在春節檔已經開啟了熱戰模式:阿里通義千問豪擲數億元請全國人民喝“AI奶茶”,字節跳動的Seedance 2.0以電影級的視訊生成能力席捲創作者圈、就連馬斯克都不斷在X上保持關注,騰訊元寶、百度文心的“搶紅包”更是一浪接替一浪。如果說 2024 年和 2025 年是 AI 的“幻覺期”,人們沉浸在 AGI 即將降臨的狂喜與恐懼中;那麼 2026 年的春節,則標誌著AI正式跨越了那道名為“有用性”的鴻溝,真正成為一次產業革命。回想2025年末AI泡沫的討論。今天我需要思考的是,冷熱之間,到底正在發生什麼?01DeepSeek拒絕討好型人格先來看國產AI黑馬DeepSeek。在AI產品裡,存在一種根深蒂固的“討好型人格”。為了讓大模型說出貼心、得體、充滿人情味的“漂亮話”,開發者往往需要通過大規模的RLHF(基於人類反饋的強化學習)對模型進行精密微調。這意味著什麼?意味著需要僱傭海量的標註員去對齊人類的感性偏好,消耗巨大的算力去磨平邏輯中的棱角。對於大多數旨在成為“超級助理”的產品來說,這種討好是通往C端市場的入場券。但DeepSeek選了另一條路。回看DeepSeek的崛起,梁文鋒曾有過無數次機會將其打造成一個“國民級App”。在2025年春節DeepSeek震驚全球、流量如潮水般湧入時,如果按照傳統的網際網路邏輯,他們完全可以迅速推出社交裂變功能、搶佔辦公套件市場、引入各種生活服務介面,甚至通過狂砸廣告來留住那些被“平替”概念吸引而來的泛使用者。但他選擇了極度的克制。到今天為止,DeepSeek的介面依然保持著一種近乎簡陋的極簡主義,沒有冗餘的社交入口,沒有華麗的行銷活動。這種拒絕,源於梁文鋒更大的戰略野心:他想做的從來不是AI時代的超級流量入口,而是AI時代的“核動力引擎”。從目前來看,在DeepSeek的邏輯裡,看起來更希望的是把每一分算力都應該被消耗在邏輯鏈條的推理(CoT)上,而不是消耗在客套話和語氣助詞上。這種“機械感”和“冷淡”,本質上是思維透明化的代價。這種對“思考質量”的極致追求,意味著它主動放棄了對泛C端使用者情緒的迎合,轉而尋求與那些真正需要解決複雜問題的開發者、科研工作者和極客們達成深層次的“邏輯共鳴”。當然,討好還是冷淡其實並無對錯,而意味著兩種不同的朝向AGI未來的探索道路。支援deepseek不提供情緒價值,但同時也不是說在否定情緒價值的重要性,而是生態分工位的不同。從產品視角觀察,梁文鋒想做的,大機率不是 AI 時代的超級流量入口,要不然,在去年春節Deepseek震驚全球時,他們就可以開始了。他希望的,應該是真的能突破技術極限,去探索 MoE(混合專家模型)的邊界,去嘗試在有限的資源下復現甚至超越 OpenAI 的推理能力。對於DeepSeek而言,使命不是做一個“好用的聊天機器人”,而是做一個“最聰明的智能引擎”。這是生態位的差異。02DS之外:紅包、奶茶、seedance2.0這就要繼續說回最近大廠的春節AI大戰。我們要意識到,今天的AI 產業正進入一個深度的分工期。在做面向C端的應用上,國內的網際網路大廠們——字節、阿里、騰訊、百度、美團——顯然更有經驗。他們擁有現成的流量入口、深厚的使用者心理積澱,以及極其成熟的營運體系。他們更懂得如何把 AI 變成一個貼心的助理、一個懂你的玩伴、或者一個高效的生產力工具。如果要求 DeepSeek 這樣一家極客色彩濃厚的技術公司,去和大廠比拚如何做“情緒價值”“場景落地”,這不僅是對人才的浪費,更是戰略上的錯位。大廠們擅長的是“降維打擊”,將成熟的技術包裝成絲滑的產品;而 DeepSeek 的價值在於“升維突破”,去攻克那些無人區裡的演算法難題。芒福德在《技術與文明》中強調,技術的真正價值在於其擴散過程,而大廠們恰恰是這一過程的超級加速器。首先是“奶茶、紅包、外賣”所代表的流量邏輯。對於絕大多數普通使用者來說,AGI的宏大敘事太過遙遠,但一杯實實在在的、由AI下單的奶茶外賣卻非常具體。大廠們深諳此道,他們擁有現成的流量入口、深厚的使用者心理積澱,以及極其成熟的營運體系。通過這些看似“沒技術含量”的玩法,AI正迅速從極客的玩物變成一種全民級的生活方式。其次是Seedance 2.0所代表的生產力飛躍。字節跳動最新發佈的Seedance 2.0,實現了單指令生成多場景、音畫同步的電影級視訊。這不再僅僅是“提供情緒價值”,而是將導演、攝影、剪輯的功能端到端地壓縮排一個模型中。這標誌著AI應用已經跨越了簡單的對話階段,進入了影視工業和社媒行銷的深水區。放眼全球AI競賽,中美兩國正在呈現出截然不同的演進範式。如果說矽谷更傾向於在“Scaling Law”的加持下追求全能型的通用智能,試圖一舉攻克算力與智慧的塔尖;那麼中國AI則正在呈現一種“多元突進”的混戰局面:一端是以DeepSeek為代表的技術原教旨主義,在算力受限的極限壓強下,通過演算法創新死磕推理深度與成本極限;另一端則是以大廠為核心的應用生態,利用全球最肥沃的商業土壤,將AI迅速轉化為奶茶、短劇、視訊工具等觸手及人的互動節點。這種分工不僅不是衰退,反而是一種極具韌性的系統性對抗。我們不應輕易否定任何一端。沒有DeepSeek式的底層突破,國產AI將永遠失去“入場券”,在全球算力競賽中淪為附庸;而如果沒有大廠在紅包、奶茶、Seedance 2.0上的應用突圍,領先的技術也將因缺乏商業閉環而枯萎,無法惠及普羅大眾。03真正的下半場從商業進化的視角看,這已經非常像技術周期進入下半場後的必然分化階段。幾乎可以斷定的是,大模型的“驚豔期”過去,市場開始進入殘酷的“重估期”:我們正在從對通用大模型的盲目崇拜,轉向對不同生態位的精準錨定。正如芒福德所言,一項技術的生命力最終取決於它的擴散能力與整合深度。DeepSeek的“冷”與大廠應用的“熱”,本質上是同一場技術革命在不同維度的硬核迴響。這種分化不僅標誌著中國AI企業戰略路徑的清晰化,更預示著一個多層次、差異化競爭的成熟生態正在形成。從技術發展的長軸來看,2026 年春節的這場分化並非偶然。在每一次科技革命的中段,都會出現類似的“重估期”:從對技術本身的崇拜,轉向對技術所創造的價值的重塑。當蒸汽機離開礦井,裝上車輪成為火車,裝入工廠成為織布機,將孤立的技術奇蹟擴散為全球貿易的毛細血管;當 TCP/IP 協議的爭論告一段落,真正的戰場便轉移到了瀏覽器、搜尋引擎與電子商務等具體應用場景。現在的AI革命正處於這個關鍵的“中段”。這意味著我們已經不再滿足於討論 AI “能做什麼”,而開始死磕 AI “在做什麼”。太陽底下無新事,這樣的場景,其實我們經歷過很多次。所以也沒有必要過於擔心AI對人類的替代,當年電燈出現時、汽車出現時,這種擔憂都出現過。但事實證明,人不是不被需要了,而是更加能夠發揮價值了。2026年春節的這場“冷熱交替”,是AI產業最為真實的成人禮。而值得慶幸的是,中國AI公司們,整體表現都不錯。 (深水研究)
春節檔國產AI模型混戰開打,MiniMax-M2.5上線,隨手做“蘋果系統”
一句話做“黃金礦工”遊戲、生成精美公司網站。春節將至,國產AI大模型之戰愈發火爆。短短1天多時間,DeepSeek、智譜、字節等多家廠商模型密集更新,MiniMax-M2.5正式上線,其重點提升了Agent和程式設計能力。▲MiniMax-M2.5已可選MiniMax AI相關負責人在X平台上發文稱,他想盡快發佈M2.5,已經迫不及待想回家過年了,但隨著他們投入的訓練計算增多,模型效果也越來越好,這是一個痛並快樂著的問題。▲MiniMax AI工程負責人Skyler Miao在X平台發文智東西第一時間體驗了MiniMax-M2.5在定時任務、網頁製作、調研報告撰寫、視訊生成、PPT製作等任務執行上的能力。從結果來看,網頁製作是其強項,尤其在可視化表達方面,網頁的視覺呈現效果較好,比如我可以一句話讓它生成一家公司的投資分析儀表盤。▲關於蘋果公司的可視化儀表盤分析網頁做一個“黃金礦工”網頁版遊戲,MiniMax-M2.5也可以給出不錯的結果。▲網頁版黃金礦工小遊戲定時任務方面,其可以按照要求按時完成任務,但不同任務呈現的結果質量有一定差異。此外,不論是PPT製作還是調研報告生成,其生成結果的詳實程度都較好,輸出篇幅較長。有X平台使用者提前三天拿到了內測資格,他發文稱,MiniMax-M2.5提升明顯,和Opus 4.6打的有來有回,其模型體積小,據傳Mac mini也能部署。他還曬出了MiniMax-M2.5製作的網頁版“macOS系統”。▲X平台使用者評價截至2月12日港股收盤,MiniMax股價漲幅14.62%,總市值1622億人民幣,其股價盤中曾一度漲幅超23.5%。根據官網資訊,MiniMax將於3月2日公佈全年業績。▲截至2月12日收盤,MiniMax港股股價情況01.網頁設計是強項一句話做“黃金礦工”小遊戲首先,在考察程式設計能力的網頁製作環節,我們讓模型建立一個網頁儀表盤,對蘋果公司進行可視化分析,內容必須涵蓋財務健康狀況、技術面/市場情緒、競爭對手比較以及戰略估值(SWOT/內在價值),以提供明確的投資建議。從結果來看,需求中提到的基本指標都有較好覆蓋,SWOT分析給出的較為具體,整體網頁設計比較簡潔、美觀,基本的動效都已做好,資料展示較為直觀,滑鼠懸停在統計圖表上會有對應資料呈現。接著,我們讓模型為一家AI創業公司設計官方網站,融入太空主題元素,使用黑、白、灰作為主色調,營造出酷炫、精緻且充滿科技感的氛圍,特別要有一個能讓使用者感到震撼的精美地球動畫。從結果來看,網頁焦點處確實有地球動畫效果呈現,且地球本身可以跟隨滑鼠進行一定程度的運動。但網頁本身並沒有實現主色調的要求,對於精緻、科技感的要求沒有明確呈現,地球動畫本身帶有一些類似“粒子光效”的表現,但整體感覺並未達到“震撼”的水平。網頁遊戲製作令我們印象比較深刻,雖然第一次的生成效果“翻車”,遊戲無法互動遊玩。▲初次生成的版本無法遊玩,僅有首頁封面基本的遊戲模式、遊戲說明、遊戲關卡、遊戲操作都按照要求完成了,並且確實可以遊玩,遊戲過程還配合了對應的音效。02.專業報告一鍵生成PPT製作學會用比喻潤色此外,我們通過幾個任務測試了模型生成專業研究報告的能力,比如全面梳理AI開源推理生態、分析應用場景、對應方案並分析原因。從結果來看,其輸出內容邏輯清晰,在展示不同框架異同時用了表格進行對比,內容較多比較詳實,約6000字。▲AI開源推理生態相關研究報告生成對於“計畫開發一款針對初學者的AI 3D建模工具”這一需求,我們讓模型分析目標使用者畫像和使用者在主要場景下的核心痛點,並推匯出對應的潛在功能需求,寫出MVP需求文件和初期營運增長路徑。▲AI 3D建模工具產品MVP需求文件從結果來看,所有需求要點都有比較準確的對應資訊,需求文件和營運增長路徑都有多個表格呈現梳理的內容,路徑規劃較為具體。▲AI 3D建模工具初期營運增長路徑PPT製作環節,我們要求PPT“讓學生真的能聽進去”,舉的例子能讓他們產生共鳴,對於這一需求,模型在PPT製作中用了很多“比喻”,融入了一些當代元素,比如“唐朝朋友圈”、將長安城比作“北上廣深”、將杜甫比作關注民生的“新聞記者”。不過模型在PPT製作的美觀程度和細節嚴謹程度方面還有待提升。03.新聞報告成“舊聞彙總”視訊生成仍有最佳化空間Agent能力方面,我們還測試了兩個定時任務,包括每日科技要聞摘要和TikTok熱門趨勢周度分析。雖然需求強調了是24小時內新聞,但給出的8個新聞全部為“過時消息”,基本均為2025年舊聞。這樣即便總結的新聞內容較為準確,但已經失去了最根本的“新聞”屬性。▲每日科技新聞摘要同時,對於檢索來源的標註只標明了媒體名稱,並未帶上對應的網頁連結。在TikTok熱門趨勢周度分析任務中,模型首先總結了核心趨勢動向,接著對熱門挑戰、熱門音訊、熱門話題標籤、重要創作者等部分進行了分析總結,最後按照要求給出了內容創作建議。▲TikTok熱門趨勢分析報告最後,我們簡單嘗試了視訊生成,從結果來看,模型並沒有對需求中狗的品種有精準呈現,不過畫面的氛圍、主物體動作、背景元素都有精準還原。提示詞:結果:04.結語:程式設計和Agent能力仍是模型競賽焦點雖然MiniMax-M2.5尚未官宣發佈,但從實際體驗和公開評價來看,其提升的重點仍然是Agent能力和程式設計能力,這也是當前主流大模型競爭的焦點。從生成結果來看,“拿來即用”仍然存在一定距離,大部分結果仍然需要修改校對,對需求的精準呈現仍然存在最佳化空間。 (智東西)
豆包日活破億,中國國產AI大戰邁入新階段?
國產AI大戰或加速步入下一階段。中金公司援引市場資料顯示,國內豆包App日活躍使用者數(DAU)已突破1億大關。該機構認為,豆包目前的使用者規模、留存率、增速、DAU與MAU的比率,均說明其DAU邁向更高門檻的確定性強,甚至有望實現對Chatbot形態的產品使用者近乎全量的覆蓋;而競爭對手們無論是基於對產品的理解、定位還是投入,都很難影響這一路徑。而根據研究機構Quest Mobile發佈的《2025下半年AI應用互動革新與生態落地報告》,截至最新統計周期(12月8日至12月14日),豆包周活躍使用者數在全市場AI原生App中亦居榜首,達1.55億,實現了斷崖式領先。DeepSeek、元寶分別位居第二、第三,周活躍分別為8156萬、2084萬;螞蟻阿福、千問周活躍使用者量則分別為1025萬、872萬。豆包使用者數目增長的背後是大模型呼叫量的跨越式爆發。在前不久的火山引擎原動力大會上,火山引擎總裁譚待透露,豆包大模型日均使用量(Tokens)超過50兆,自發佈以來增長417倍。對此,中金公司如此強調:“國內所謂‘Chatbot入口之爭’似乎已然意義不大。”儘管如此,國內網際網路大廠所佈局的AI入口形態確各不相同:12月1日,字節跳動豆包團隊發佈豆包手機助手技術預覽版——一款通過深度系統合作而實現的AI手機;阿里將千問APP視作“超級入口”,並致力於接入高德地圖等生態場景;騰訊則是將元寶深度融入微信APP,其活躍程度甚至一度引發“評論區的元寶互動是小編輪班扮演還是AI”的爭議。基於上述背景,仍有眾多機構強調未來AI入口之爭的不確定性,如華源證券指出,AI入口競爭後續會持續演繹,手機端側、超級APP和垂直AI平台將從不同維度持續推進AI Agent入口使用者層面的教育和圈定,同時通過不同方式完成應用層生態的連接和統一。中泰證券最新研報則表示,越來越多的AI應用場景正被解鎖。AI會放大應用的價值空間,從效果工具走向勞動力服務市場,市場空間有望大幅提升。更多的專業門檻高、流程複雜、服務屬性強的場景不會被大模型廠商穿透。投資層面上,該機構判斷,基礎大模型廠商仍在加速卷能力天花板,對算力的需求持續旺盛,且伴隨AI應用的快速落地,更多的推理算力需求也隨之而生,隨著宏觀經濟好轉、AI應用落地以及人員調整與人效提升,電腦類股的基本面有望加速向好。 (科創板日報)
超越 Nano Banana,這個中國國產 AI 剛剛拿下全球生圖第一 | 附詳細體驗
這幾天 AI 圈都在被 Sora 2 刷屏,沒想到國產 AI 也悄咪咪地幹了票大的。騰訊的混元圖像大模型 3.0,才發佈一週,就在全球最硬核的 AI 競技場 LMArena 上殺瘋了——在26 個全球頂級模型混戰,拿下文生圖全球榜單的 Top 1!這可不是什麼野榜,LMArena 是加州大學伯克利分校搞的,純靠全球網友「盲測」投票,誰好誰壞,全憑真實體驗說話。簡單說,就是把所有模型的名字都遮住,讓你憑感覺二選一,選出你更喜歡的那張圖。這種機制下拿第一,含金量可想而知。LMArena 官方也發文祝賀,說這是「文生圖排行榜大洗牌」,稱混元圖像 3.0 已經超過了 Google 爆火的 nano banana。騰訊這個開源模型實打實把一眾頂級閉源模型都給「干沉默」了.APPSO 也深度體驗了混元圖像大模型 3.0,再次分享給大家。中秋佳節將至,不妨用它來傳達些有意思的祝福,APPSO 預祝大家團團圓圓閤家歡樂。混元圖像 3.0 的最大的亮點是,不僅能畫圖,還能精準「理解」,和利用世界知識「推理」。比如我們想做一張廣告海報,它能把商品畫出來,還順手把文字排版好;想做一套漫畫,輸入一句話,它就能幫我們畫好分鏡。聽起來是很強,但也讓人好奇,它真能替代設計師嗎?還是只是多了點「聰明」的生圖?畢竟我們手上已經有 nano banana 這樣強大的圖像編輯模型,更不用說其他層出不窮的生圖模型。體驗地址:https://hunyuan.tencent.com/modelSquare/home/play?modelId=289&from=/visual在開始我們的實測之前,先看看這次 3.0 更新了什麼內容。這是首個開放原始碼的工業級原生多模態生圖模型。多模態的能力,意味著它不僅能畫畫,還具備語言模型的理解和推理能力,在畫之前,它可以先想清楚要畫什麼。開源方面,混元圖像 3.0 的體量和能力都處於最前列,參數規模高達 80B,是目前最大的開源生圖模型。騰訊混元圖像 3.0 模型框架圖,80B 參數的 MoE 結構原生多模態架構,也讓一個模型,就可以同時處理文字、圖像、視訊、音訊的輸入輸出,而不是把幾個不同模型拼湊在一起;此外,文字生成的能力,也是混元圖像 3.0 的一大主打,它號稱能解析千字等級的複雜語義內容,精確生成長文字文字。騰訊混元把它形容成一個自帶「大腦」的畫家。使用者只需給出大方向,它就能用常識和世界知識把畫面補全,生成真實、細膩、帶有美學質感的圖像。採用了常用於評估圖像生成效果的 GSB(好/一樣/差)評價方法。總共使用了1000 個文字提示,100 多名專業評估人員,混元圖像 3.0 與 nano banana 和字節跳動的 Seedream,以及 GPT-IMG 對比,一樣好的情況佔比最多,而深灰色部分,則代表混元圖像 3.0 更好,淺灰色代表用來對比的模型更好。光說不練假把式。從常識到創意,從專業到玩梗,我們用不同的提示詞,全方位地測試了這個混元圖像 3.0 模型的生圖能力,結果低估它了?世界知識和推理,AI 像人一樣畫畫有了世界知識,最大的好處,我們的提示詞可以更像人話。就像下面這張圖,我們直接告訴它 labubu,而不用專門去描述 labubu 這個形象具體是什麼樣。生成一個畫出 labubu 的四宮格素描畫流程而一些特定的知識上,它似乎也有查詢的能力,並應用在圖像生成的過程中。像下面這張圖片,我的提示詞只有 3 號線、客村站這些資訊,但是模型推理出下一站是廣州塔、珠江新城、體育西路。更令我感到驚喜的是,混元圖像 3.0 對文字生成的把控,幾乎是做到了精準還原。廣州地鐵客村站站台實拍圖,遮蔽門頂部有顯示3號線的站點情況我們也用 nano banana、ChatGPT、和豆包生成同樣的照片,結果是,都只能根據我輸入提示詞的資訊來生圖,線路站點資訊,有些是文字渲染完全不行、有些是資訊錯誤、還有直接顯示「3 號線站點資訊」幾個字的。一時間不知道是該誇,服從使用者指令,還是說它知識學習得不夠多。不過 Seedream 給我的感覺,整張圖片的風格,是「AI 味」最少的。能夠利用世界知識進行推理,給了生圖模型更多的潛在玩法。就像開頭我們的 labubu 四宮格素描圖,可以擴展到做一些知識點的講解,這些經常在社交媒體平台上刷到的,漫畫科普小卡片。生成一個月全食的四格科普漫畫混元官方也給出了類似四宮格漫畫的提示詞指南,幫助我們單抽出金。開篇表明是四宮格漫畫:「一幅黑白四格漫畫。」分格子描述畫面:「第一格,xxx。第二格,xxx。第三格,xxx。第四格,xxx。」可以展開你的想像,填充細節,這樣效果會更好。想要高級感,很吃提示詞官方在它們 GitHub 倉庫放出的幾張圖片,我第一眼看到,想到的是朋友圈的那些範本封面圖,高級感真的拉滿。但我自己用一些簡單的提示詞,讓混元圖像 3.0 去做的時候,出來的圖片 AI 味是非常重的,甚至給我一種,這不像是 2025 年生圖模型的效果。在提示詞裡面,我們已經用了「日常拍照風格」、「復古濾鏡」等風格化用詞,但是最後的成片,還是高飽和度、高亮度。官方給出的攝影風格,提示詞參考技巧是,主體場景+畫質風格+構圖視角+光線氛圍+技術參數。我們又照著這個格式,重新測試了一回,效果上確實好了一些。指定多少毫米的鏡頭,在提示詞裡面,確定這類技術參數,我認為是生成真實圖片的關鍵。但還是很難抽到「AI 味」沒那麼重的圖片,目前混元圖像 3.0 也只支援文生圖,圖像的編輯功能暫時還沒有上線,所以對提示詞的要求,變得更高。騰訊混元團隊透露,圖生圖、圖像編輯、以及多輪互動等版本將在後續發佈。國外模型的難點,長文字生成真實照片的攝影風格比較不如意,其他風格化,像是卡通、漫畫以及不同材質的渲染,混元圖像 3.0 的表現確實不錯,以及還有一項長文字的生成能力。畫一個咖啡店的菜單黑板,上面寫著:拿鐵 - 30元,美式 - 25元,卡布奇諾 - 28元。而更複雜的文字,也需要掌握一些官方給出的技巧。將大段的文字拆成多句並使用多個引號,文字會更準確。同時,文字的精準性與 prompt 描述的佈局方式有一定關聯。可以嘗試以下的策略:(a)在渲染的文字前使用「第幾行寫著」、「左邊寫著」之類提示佈局資訊的詞(b)修改圖片長寬比(c)換一種內容佈局的方式(如左右佈局換成上下佈局)文章的幾個測試案例,大多集中在「玩」的階段。從效果看,混元圖像 3.0 的確在一些細節上比大部分模型更聰明,但能不能真的應用到具體的工業場景,選擇繼續開源是它最好的答案。最後,不得不說,生圖還是目前 GenAI 裡面最火的,模型能不能出圈,彷彿都得靠生圖。ChatGPT 靠一張吉卜力風格的照片、Gemini 則是用一張一致性極強的桌面手辦,獲得了空前的關注。從風格到一致性,傳達的都是這張照片給我們最直接的感覺,而非照片的具體含義。這大概是視覺動物的特點,一致性過後,AI 圖片的下一個大熱門,會是什麼呢?極強的創意,更極致的細節密度,往真實再進一步。 (APPSO)
DeepSeek新模型開源,新架構亮了!國產AI晶片集體狂歡
DeepSeek離下一代架構,又近了一步!智東西9月30日報導,昨日,DeepSeek宣佈開源DeepSeek-V3.2-Exp實驗版模型。該模型首次引入了DeepSeek Sparse Attention稀疏注意力機制,並在幾乎不影響模型輸出效果的前提下,大幅度提升了長文字訓練和推理效率,被DeepSeek定義為“邁向新一代架構的中間步驟”。HuggingFace地址:https://huggingface.co/deepseek-ai/DeepSeek-V3.2-Exp魔搭社區地址:https://modelscope.cn/models/deepseek-ai/DeepSeek-V3.2-Exp這一改進還降低了DeepSeek新模型的服務成本,DeepSeek因此執行了新的價格政策,讓開發者呼叫DeepSeek API的成本降低50%以上。降價幅度最大的為輸出token的價格:DeepSeek-V3.2-Exp模型輸出100萬個token的價格僅為3元,為DeepSeek-V3.1系列模型的1/4。截至9月30日上午6點,華為雲、PPIO派歐雲、優刻得等雲平台已宣佈上線DeepSeek-V3.2-Exp,華為、寒武紀、海光資訊等AI晶片廠商已經宣佈適配DeepSeek-V3.2-Exp。DeepSeek-V3.2-Exp是在DeepSeek-V3.1-Terminus的基礎上打造的。在各領域的公開評測集上,兩款模型的表現基本一致,不過,DeepSeek-V3.2-Exp完成任務使用的token量大幅度減少。目前,DeepSeek App、網頁端與小程序均已同步上線了DeepSeek-V3.2-Exp模型。DeepSeek也臨時保留了DeepSeek-V3.1-Terminus的API介面,方便開發者進行對比驗證。除模型本體外,DeepSeek還開源了相關技術報告及程式碼,並提供TileLang與CUDA雙版本GPU算子,以便研究者在不同層級進行實驗和最佳化。技術報告地址:https://github.com/deepseek-ai/DeepSeek-V3.2-Exp/blob/main/DeepSeek_V3_2.pdfDeepSeek還補充道,作為一個實驗性的版本,DeepSeek-V3.2-Exp雖然已經在公開評測集上得到了有效性驗證,但仍然需要在使用者的真實使用場景中進行範圍更廣、規模更大的測試,以排除在某些場景下效果欠佳的可能。01.華為、海光、寒武紀光速適配,網友直呼第二個DeepSeek時刻要來了DeepSeek-V3.2-Exp一經推出,便在產業界與開發者圈子裡引發熱烈反響,不少國內企業紛紛第一時間宣佈完成DeepSeek-V3.2-Exp的適配和上線。華為計算公眾號發文宣佈,昇騰已快速基於vLLM/SGLang等推理框架完成適配部署,實現DeepSeek-V3.2-Exp Day 0(第零天)支援,並面向開發者開源所有推理程式碼和算子實現。DeepSeek-V3.2-Exp在昇騰裝置上128K長序列輸出,能夠保持TTFT(首token輸出耗時)低於2秒、TPOT(每token輸出耗時)低於30毫秒的推理生成速度。華為雲則首發上線了DeepSeek-V3.2-Exp,還使用CloudMatrix 384超節點為該模型提供推理服務。在DeepSeek發文宣佈DeepSeek-V3.2-Exp模型開源後的4分鐘,寒武紀也發文稱其已同步實現對該模型的Day 0適配,並開源大模型推理引擎vLLM-MLU原始碼。寒武紀通過Triton算子開發實現了快速適配,利用BangC融合算子開發實現了性能最佳化,並基於計算與通訊的平行策略,達成了較高的計算效率水平。DeepSeek-V3.2-Exp模型的尺寸達671GB,僅下載就可能需要數小時。這種時隔4分鐘的Day 0適配,或許意味著寒武紀和DeepSeek兩家企業在模型發佈前就已經啟動適配工作。據經濟觀察網報導,海光資訊的DCU(深度計算處理器)率先實現了對DeepSeek-V3.2-Exp的Day 0級高效適配與最佳化,確保大模型算力“零等待”部署。在DeepSeek官宣DeepSeek-V3.2-Exp開放原始碼的推文中,有不少網友分享了對模型的使用體驗和感受。有位網友稱,自己在10萬個token的程式碼庫上測試了DeepSeek-V3.2-Exp,速度提升非常明顯。有網友感嘆,DeepSeek API現在幾乎等同於免費了。更有網友認為,這一模型的推出,或許意味著第二個DeepSeek時刻即將到來。Hugging Face上,DeepSeek-V3.2-Exp的社區類股也有不少討論,不過,關注度最高的一條帖子,是來自中國網友的“吐槽”:“咱這個模型是非得國慶前更新嗎?”還有網友列出了DeepSeek每次更新模型的時間,幾乎都卡在節假日的前幾天。02.一手體驗DeepSeek-V3.2-Exp架構創新或許比性能提升更重要DeepSeek-V3.2-Exp在使用體驗上,究竟與此前的DeepSeek-V3.1-Terminus有何不同?在程式設計方面,DeepSeek-V3.2-Exp撰寫的程式碼明顯更為簡短了,相同的任務下,其輸出的程式碼行數要少於DeepSeek-V3.1-Terminus。不過,這在某種程度上也影響了模型的性能。DeepSeek-V3.2-Exp編寫的小球彈跳動畫程式碼未能正常運行,小球直接飛出了六邊形的範圍。DeepSeek-V3.1-Terminus在智東西此前的測試中完美地完成了這一任務。智東西還讓DeepSeek-V3.2-Exp完成了一項資訊檢索任務,要求它推薦幾種適合新手在陽台盆栽的、生長快、果子能直接生吃的植物,並且要保證對小孩絕對安全,最好能附上簡單的播種技巧。與DeepSeek-V3.1-Terminus(左)相比,DeepSeek-V3.2-Exp(右)的生成結果更為簡短,用詞也比較“樸素”。並且,DeepSeek-V3.2-Exp推薦的無花果、百香果等植物,需要進行扦插、高頻率養護等操作,並不符合提示詞要求的新手友好。▲DeepSeek-V3.1-Terminus(左)與DeepSeek-V3.2-Exp(右)在資訊檢索任務上的表現(圖源:智東西)總體而言,DeepSeek-V3.2-Exp確實在推理效率上實現提升,但卻在能力上做出了一定的讓步。知乎博主@toyama nao也在測評中發現了類似的問題。他認為,DeepSeek-V3.2-Exp在工作記憶、計算精度穩定性等方面存在明顯短板,還容易有偷懶傾向和陷入死循環的可能。▲知乎博主@toyama nao對DeepSeek-V3.2-Exp的評價這也得到了其他網友觀點的印證,例如,這位網友便在x平台發貼稱,並沒在這款模型上看到改進,並提出質疑:我們為什麼要使用能力降級的模型呢?作為一款實驗模型,DeepSeek-V3.2-Exp更大的貢獻或許在於理論層面。DeepSeek稱,與DeepSeek-V3.1-Terminus相比,DeepSeek-V3.2-Exp在架構上的唯一修改,就是通過繼續訓練引入了DeepSeek Sparse Attention。目前的DSA機制還處在原型期,主要由兩個元件構成:一個Lightning Indexer(閃電索引器)和一個細粒度的token選擇機制。▲DeepSeek-V3.2-Exp架構圖Lightning Indexer能夠快速評估查詢token與歷史token的相關性,從選擇機制只挑選最相關的一部分上下文進入注意力計算,這讓複雜度從傳統的二次方降到了近似線性水平,大幅降低了訓練和推理的成本。在訓練上,DeepSeek-V3.2-Exp採用了“繼續預訓練+後訓練”的方式。繼續預訓練分為兩個階段:首先在稠密模式下短暫訓練indexer,讓它的輸出和標準注意力保持一致;隨後引入稀疏選擇機制,逐漸讓模型適應新的計算方式。完成預訓練後,DeepSeek-V3.2-Exp又通過專家蒸餾和混合強化學習進行後訓練。專家蒸餾的思路是針對數學、程式設計、推理等不同領域訓練專門的專家模型,然後將這些模型的知識壓縮排通用模型。混合強化學習則將推理、智能體能力和人類對齊訓練統一在一個RL階段中,避免了傳統多階段方法容易出現的遺忘問題。技術報告顯示,DeepSeek-V3.2-Exp在大多數評測任務上的表現與前代基本持平,個別推理相關的測試分數略有下降,但主要原因是生成的推理token更少,如果使用中間檢查點,差距則會縮小。相比之下,效率的提升尤為顯著。在H800 GPU的測試環境中,長序列推理的開銷明顯降低,證明DSA在真實部署中有很強的實用性。同時,訓練曲線與前代模型保持相似的穩定性,也表明這種架構在收斂性上並沒有額外風險。03.結語:DeepSeek邁向新一代架構正如其名字內的Exp(實驗版)所言,DeepSeek-V3.2-Exp的推出,本身並不是一次性能爆表的升級,而更像是一場架構實驗,展示了一種在長文字處理中兼顧性能和效率的新路徑。作為技術原型,DeepSeek-V3.2-Exp背後的DSA機制或許很快就會得到進一步完善。隨著相關技術的持續最佳化和更多企業、研究者參與驗證,DeepSeek有望在不久的未來交出更令人驚喜的成果。 (智東西)
DeepSeek-3.1的UE8M0 FP8 Scale專為下一代國產AI晶片而設計
UE8M0 FP8 是一種專為下一代國產 AI 晶片設計的 8 位浮點格式(FP8) 的特定組態,由 DeepSeek-V3.1 模型首次採用,旨在顯著降低大模型推理階段的視訊記憶體佔用和計算成本,提升推理速度。1. 技術細節- UE8M0 的含義:- U:表示無符號(Unsigned),即不佔用符號位,適用於啟動值通常非負的場景。- E8M0:8 位全部用於指數(Exponent),尾數(Mantissa)位為 0。這並不是字面意義上的“0 位尾數”,而是指通過隱式歸一化或動態調整尾數精度實現靈活性。- 動態尾數策略:實際實現中,可能採用動態尾數分配(如根據指數範圍動態調整尾數有效位),或默認尾數為 1,值的範圍為 \(2^{-128}\) 至 \(2^{127}\)。- FP8 Scale:- 指在量化過程中用於縮放數值的因子(Scale),確保數值在 FP8 的表示範圍內。- 塊級縮放:將張量劃分為固定大小的塊(如 128×128 的 tile),每個塊共用一個縮放因子。這種塊級縮放(而非整個張量級)在保留 8 位位寬的同時,將可用動態範圍擴展數十倍。2. 優勢與應用- 硬體效率提升:- 視訊記憶體節省:權重視訊記憶體佔用降低約 50%,例如 680B 模型權重檔案從 1.3-1.5TB 降至約 680GB。- 計算加速:由於 UE8M0 不含尾數與符號位,處理器在根據縮放因子對資料復原時,僅需乘以對應的 2 的冪(即指數位移操作),無需浮點乘法、規格化或舍入邏輯,縮短了時鐘關鍵路徑。- 國產晶片適配:- 寒武紀:思元 590 晶片明確支援 FP8 精度,算力密度較前代提升 40%。- 摩爾執行緒:首個支援原生 FP8 的國產 GPU 廠商,基於 MUSA Compute Capability 3.1 計算架構。- 海光資訊:DCU(深算系列)通過 FP8 最佳化技術降低 30% 視訊記憶體佔用並提升 20% 運算效率。3. 行業影響- 技術突破:DeepSeek-V3.1 是國內首個成功使用 FP8 完成大模型訓練的案例,證明了FP8 在超大規模模型訓練中的可行性。- 生態閉環:UE8M0 FP8 助力國產 AI 晶片-國產開源模型-下游應用形成完整生態閉環,推動國產 AI 晶片加速追趕國際先進水平。UE8M0 FP8 是 DeepSeek-V3.1 採用的一種創新 8 位浮點格式組態,通過無符號設計、全指數位分配和塊級縮放策略,顯著提升國產 AI 晶片在推理和訓練中的效率與性能,標誌著國產 AI 晶片技術的重要突破。 壹號講獅)
突破封鎖!華為新技術繞開HBM,終結HBM暴利時代?
國產AI晶片,除了製程工藝方面的差距之外,發展最大的障礙就是HBM(高頻寬記憶體),當前HBM作為高端AI晶片的關鍵元件,目前由三星(38%)、SK海力士(53%)和美光(10%)壟斷,且HBM3價格年內暴漲300%。雖然根據業內人士透露,國產儲存巨頭已經突破HBM2相關技術及產業鏈問題,但客觀而言,國產HBM要在短期內追上並不現實。於是,華為選擇了一條全新的技術路徑繞過HBM。根據華為官方消息,其在8月12日召開的“2025金融AI推理應用落地與發展論壇”上發佈一項AI推理領域的突破性技術成果。該技術旨在降低中國AI推理對HBM(高頻寬記憶體)的依賴,提升大模型推理性能,完善國內AI推理生態。那華為發佈的突破性技術是什麼呢?華為將光通訊的矽光晶片和昇騰AI算力晶片綁在一起,直接繞過HBM通道。具體來說,就是華為將矽光互聯與昇騰AI算力結合,形成“光-算一體化”方案,其用矽光模組的高速光鏈路(1.6Tbps)替代傳統HBM的電氣互連,通過物理層高頻寬傳輸緩解記憶體頻寬壓。硬體創新之餘,在算力也上進行了相應的最佳化;華為與北大合作開發的DeepSeek全端開源推理框架,結合自研SCOW超算平台與CraneSched調度系統,最佳化Ascend晶片在低HBM環境下的計算效率。也就是說,8月12日公佈的AI推理新技術,通過軟硬體協同設計,“減少對HBM的依賴”並提升大模型推理性能,當然具體的應用資料需要等待進一步核實再行公佈。但無疑,正式華為技術上的突破,通過光互聯在此承擔晶片間高速資料交換,部分抵消單晶片HBM不足的劣勢。對於國產晶片產業而言,這是一條全新之路。據瞭解,此次華為矽光晶片是基於成熟8英吋SOI工藝製造,100%國產供應鏈,從而有效規避了制裁風險。例如,2024年12月美國將HBM2E列入禁售清單,給國產AI產業鏈造成了不小的損失。另外,由於光互聯功耗低於電氣互聯,1.6T模組的部署將降低資料中心總TCO,這也意味著光互聯具有成本和能效上的優勢。同時,由於此次華為新技術突破IEEE 802.3dj規範因色散限制放棄CWDM的困境,這進一步推動中國主導高速光通訊標準。目前,根據產業鏈消息,華為新技術將率先在金融行業進行應用,恆生電子作為金融AI系統服務商,華為長期合作夥伴,有望首批接入新技術最佳化資管、交易系統。當然,作為華為昇騰伺服器核心合作夥伴,承擔AI伺服器產能擴張的神州數位;以及為華為提供昇騰平台開發及模型最佳化服務,深度參與金融AI解決方案的軟通動力也必將受益良多。在全球AI產業蓬勃發展之時,國內AI訓練市場的需求也正在急劇膨脹。根據IDC預測到2027年,中國人工智慧算力市場規模將達到357億美元,年均增長超過20%。如果記憶體性能瓶頸不解決,這個市場預期就是空中樓閣;華為的突破,或將是國產AI產業解套的最好方式。因此,華為以“矽光×昇騰”繫結,本質是用光通訊的物理層創新彌補儲存層缺陷。短期來看,通過光互聯高頻寬+分佈式算力堆疊以維持國產AI競爭力;但長期而言,1.6T光模組+自適應色散晶片推動算力網路化,逐步擺脫對HBM的物理依賴。這一路徑不僅回應了封禁,更可能重塑AI硬體架構——從“拼單晶片HBM頻寬”轉向“拼光互聯效率與系統級最佳化”,為中國AI算力開闢新戰場。 (飆叔科技洞察)