#Gemini
中美AI算力中盤博弈:開放與封閉之爭
近日,GoogleTPU攜Gemini3逆襲之勢大幅拓寬增量前景,Meta考慮斥資數十億美元為其買單,機構將TPU產量預期上調67%至500萬塊。基於“晶片-光交換網路-大模型-雲服務”全鏈閉環,Google智算體系重回AI賽道前沿梯隊,標誌著美式封閉壟斷路線更進一步。與此同時,以DeepSeek為代表的開源模型緊追不捨。月初,DeepSeek V3.2及其長思考增強版模型出爐,前者在性能測試中打平ChatGPT,後者直接對標閉源模型頂流Gemini。這也預示著中國開源開放路線漸入佳境,國產智算體系在應用層展現出良好的生態協同潛力。至此,中美AI產業博弈棋至中盤,“開放協同”與“封閉壟斷”對位格局愈發清晰。尤其在智算生態佈局中,兩大陣營或正醞釀著一場體系化能力的巔峰較量。從Gemini 3到TPU v7,軟硬一體閉環臻至極境毋庸置疑,GoogleTPU的突然走紅,很大程度得益於Gemini3的模型能力驗證。作為專為GoogleTensorFlow框架而生的ASIC晶片,TPU憑藉軟硬體一體化設計為其全端閉環完成奠基,同時也在上層應用高位突破時俘獲外部使用者市場,甚至一度被視為輝達GPU的最強平替。所謂“軟硬一體化”,即硬體的設計完全服務於上層的軟體和演算法需求。如Gemini 3訓練和推理過程高度適配TPU叢集,而這種定製化專用模式也在功耗能效方面展現出極高價值——TPU v5e的功耗僅為NVIDIA H100的20%-30%,TPU v7每瓦性能較前代產品翻倍增長。目前,Google通過“晶片+模型+框架+雲服務”的垂直整合,形成了一個封閉且高效的循環。一方面極大地提升了自身AI研發和應用開發效率,另一方面也在NV主流體系下裂土而治,奪得又一智算賽道主導權,Meta對TPU的採購意向則將這一體系熱度推向了高點。業內有觀點指出,從蘋果到Google,美式的垂直封閉玩法幾乎臻至極境,表現出科技巨頭為鞏固和擴張利益版圖,在產業鏈層面泛在的壟斷慾望。但從生態發展角度來看,封閉模式缺乏長期主義精神,極易導致產業長下游喪失創新活性,並形成單一主體高度集權的格局。另外,從TPU的應用場景來看,軟硬一體閉環儼然是專屬於巨頭的遊戲。某分析人士稱,Google的叢集化設計和“軟體黑盒”,需要使用者重新配置一整套異構基礎設施。如果沒有兆參數模型訓練需求,根本填不滿TPU的脈動陣列,省下的電費可能都抵消不了遷移成本。同時,由於TPU技術路線極為封閉,與主流開發環境無法相容,使用者還需要一支專業的工程團隊駕馭其XLA編譯器,重構底層程式碼。也就是說,只有像Google、Meta這種等級的企業才有資格轉向TPU路線,也只有算力規模達到一定程度才能發揮出定製化產物的能效優勢。不可否認,Google等頭部企業通過垂直整合自建閉環,在局部賽道快速實現單點突破,同時也造就了美國科技巨頭林立的蔚然氣象。但在中美AI博弈背景下,美式封閉壟斷路線憑藉先發優勢提前完成了賽道卡位,被動的追隨式趕超已很難滿足中國智算產業的發展需要。“小院高牆”之外,如何充分發揮舉國體制優勢,團結一切力量拆牆修路,成為拉近中美AI體系差距的關鍵。多元異構生態協同,開放路徑通往下一賽點相較於美式寡頭壟斷模式,中國智算產業正基於多元異構體系層層解耦,重塑開放式生態系統。從頂層設計到產業落地,“開源開放+協同創新”已然成為國產軟硬體全端共識。在政策層面,《算力基礎設施高品質發展行動計畫》提出建構佈局合理、泛在連接、靈活高效的算力網際網路,增強異構算力與網路的融合能力,實現多元異構算力跨域調度編排。並且,相關部門多次強調,鼓勵各方主體創新探索智能計算中心建設營運模式和多方協同合作機制。延伸到AI應用層,《關於深入實施“人工智慧+”行動的意見》同樣要求深化人工智慧領域高水平開放,推動技術開源可及......不難看出,國家在人工智慧和智算領域給出了截然不同的中國方案——不在封閉路線中盲目追趕封閉,要在開放格局下謀求錯位趕超。事實上,頂層設計完全基於產業現實需要。在美方科技封鎖下,中國智算產業主要面臨兩大挑戰:單卡算力性能瓶頸、算力成本高。除了在晶片、模型、基礎軟體等核心技術領域持續攻堅外,當前更有效的途徑是發展更大規模、更多元高效的智算叢集,突破AI算力瓶頸。業內調研結果顯示,國內宣佈擁有千卡規模的算力叢集不少於100個,但其中大部分是異構晶片。可以想像,假如不同硬體系統相互封閉,標準介面不統一,軟體棧互不相容,將導致難以實現智算資源的有效整合利用,更無法滿足大規模參數模型的應用需求。根據行業主流觀點,國產AI算力存在多元化、碎片化特徵,同時又具備相當的規模化優勢。當務之急並不是各自埋頭推進單一技術路線,更首要的是盡快打通“技術牆”、“生態牆”,實現產業鏈開放跨層協作,真正釋放總體算力生態潛能,從單點突破邁向整合創新。具體來看,所謂開放路線旨在基於開放的計算架構推動產業生態協同創新。比如通過制定統一的介面規範,聯動晶片、計算系統、大模型等產業鏈上下游企業共同參與生態建設,減少重複性研發和適配投入,共享技術攻關和協同創新效益。同時,隨著開放架構中的協作標準趨於統一,可以進一步打造出商品化的軟硬體技術,用以代替定製化、專有化的系統,進而降低計算產品應用成本,實現覆蓋產業全端的算力普惠。顯然,在中國式開放體系下,國產AI算力正打破GoogleTPU的泛化普及困境,將智算生態系統與各方開發者使用者廣泛連結,最終形成體系化協同戰力,更靈活高效賦能人工智慧+落地。屆時,中美AI博弈也將走出單卡競爭和單一模型比拚,全面迎來生態體系能力的終極對壘。 (伯虎財經)
OpenAI真急了!Google這波後發制人,真的要命
OpenAI也開始慌了!據 The Information 報導,本周一奧特曼在內部下達了“紅色警報”(Red Alert)。這個內部用語在 OpenAI 體系裡並不常見,它帶來的緊迫感卻異常明確:暫停一切非核心項目,把能調動的資源全部押注在同一件事上——繼續拉開ChatGPT與其他產品的差距。觸發警報的直接因素,是 Gemini 3上線後的使用者增長。自 Menlo Ventures 合夥人 Deedy 的追蹤資料顯示,Gemini 發佈後的兩周時間裡,ChatGPT 的 7 日獨立日活下降了約 6%,而 Gemini與ChatGPT的訪問量比值佔比從此前的22%上升至 31%。對 OpenAI 來說,這不是簡單的競爭壓力,而是一種結構性的威脅。作為網際網路時代最優秀的產品公司,Google建立了極為龐大的分發體系:從手機作業系統,到瀏覽器、搜尋、地圖以及YouTube。這讓Google擁有極強的“後發”能力。回顧Android與Chrome的歷史,Google從不是最早的入局者,卻往往總能在最後的競爭裡脫穎而出。如今,當大模型的技術代被差逐漸填平,OpenAI也不得不面臨Google後發優勢的考驗了。/ 01 / 放棄廣告,死磕模型上一次矽谷出現這種等級的動靜,還是ChatGPT剛問世的時候。被嚇壞了的GoogleCEO桑達爾,直接按下了“紅色警報”。這是Google的最高等級危機模式,這意味著公司需要立即採取“全體總動員”(all-hands-on-deck)的應對措施。風水輪流轉,這一次輪到OpenAI慌了。為了應對危機,奧特曼甚至打算推遲包括電商代理以及廣告在內的其他計畫,把所有資源都集中起來,只幹一件事—— 死磕ChatGPT,改進模型。不光如此,OpenAI⾸席研究官 Mark Chen還特地站了出來安撫市場,並提到OpenAI有一款名為Garlic 的新模型,據說該模型在公司評估中表現良好,⾄少在涉及編碼和推理的任務中,與 Gemini 3 和 Anthropic 的Opus 4.5 相⽐表現出⾊。奧特曼之所以這麼緊張,是因為這次Google真的砍到了OpenAI的命門:使用者流量。我們先看一組很引人注目的資料:據外 Google 公開資料顯示,Gemini 使用者規模已從 2024 年7 月報告的4.5 億月活躍使用者,迅速增長至 2025 年10 月 6.5億月活躍使用者。ChatGPT 當前的公開資料是 8 億周活,仍然絕對領先。而隨著Gemini 3的上線,這個差距正在被快速縮小。根據Menlo 的合夥人Deedy的資料,自 Gemini3上線以來的兩周內,ChatGPT 的獨立日活躍使用者(7 天平均)下降了 6%。同時,Gemini 的流量在兩周內從 ChatGPT 流量的 22% 增長到了 31%。看到這裡,你可能會問,為什麼Gemini的流量增長會對OpenAI 造成這麼大的衝擊?原因很簡單,OpenAI 幾乎就是一家依賴完全C端業務的公司。目前,OpenAI 的大部分收入來自其消費者業務。換句話說,它的天價估值,完全是建立在一個假設上的: 未來全世界的人,會有更多的人給 ChatGPT 充值會員。按照 OpenAI 的 PPT 畫的大餅:他們指 5 年後,有 2.2 億人(約佔周活的 8.5%)每個月乖乖掏錢訂閱 Plus。到了時候,光是這一篇,一年就能望進帳870 億了吧。除了訂閱,他們還指望著搞 AI 導購,搞廣告,從每一筆交易裡抽佣金。OpenAI計畫到 2030 年,約有五分之一的收入將來自新產品,如購物或廣告相關功能。所以,使用者就是OpenAI的血條。 使用者不僅要多,還得願意停下來,願意付費。這下好了,OpenAI商業化的路子才剛剛開始,廣告和電商蓄勢待發,結果使用者心智的故事卻開始了鬆動。/ 02 / 當最強心智遇上最強入口,終極一戰才真正開始OpenAI 贏在使用者心智。正如奧特曼所說,10 億使用者比 SOTA 模型更有吸引力。即便外界質疑不斷,在所有玩家裡,OpenAI 仍然是短板最少、長板最長的那一個:最強的免費模型、最順手的介面、最牢固的品牌。它的優勢來自一個最樸素的判斷:最先成為使用者每天都會來的地方。從最早引入 RLHF、推出聊天機器人起,奧特曼早就把自己放在了“成為最理解使用者的AI”的位置上。在一次採訪裡,奧特曼曾經過描繪ChatGPT服務不同代際使用者的美好願景:年長者更多將其作為資訊檢索工具,替代傳統的搜尋引擎二三十歲的青壯年則傾向於將其視為生活顧問,尋求決策參考和情感支援而在更年輕的大學生群體中,ChatGPT 甚至扮演起個人作業系統的角色,深度融入他們的學習與日常在過去很長時間裡,OpenAI的策略取得了巨大的成功,地位無人可以撼動。直到Google來了。Google衝擊OpenAI的方式不僅僅是模型,而是強大的分發體系。作為網際網路產品能力最優秀的公司,Google擁有著大量的使用者分銷管道。這樣的優勢曾經讓Google無往不利。從智能⼿機(Android)到瀏覽器(Chrome),再到電子郵件(Gmail),Google從來不是先行者,卻往往總能在最後的競爭裡脫穎而出。對任何競爭者而言,這種後發優勢反而更難應對。這也是 OpenAI 今天要面對的最大難題。過去,ChatGPT 像唯一選擇;現在,它成了多個助手中的一個。多元化的選擇,很容易讓使用者的忠誠度下降,留存變脆,付費也更猶豫。訂閱收入之所以能持續增長,靠的不是“好一點”,而是“不可替代”。一旦替代品足夠好,訂閱就會從必需變成可選,而可選品類的結局往往是降價、捆綁、套餐化。商業化的更大難題在後面。廣告與交易業務,都需要極高的信任作為支撐。但AI越貼近交易,使用者越容易懷疑推薦的中立性。答案從“為我服務”變成“為轉化服務”,心智就會開始鬆動。信任一旦打折,留存和付費會一起下滑。令人尷尬的是,2025 年的廣告產品還沒來得及推出,OpenAI的心智已經開始出現鬆動了。真正的問題可能不在 Gemini 做得多好,而在 ChatGPT 沒能在對手變強之前,率先建立起一個能支撐廣告場景的穩固模型。OpenAI 贏在心智,但人心是流動的;Google贏在入口,而入口自帶慣性。入口會重寫心智,心智也會反過來塑造入口。這場競爭,才剛剛開始。 (硅基觀察Pro)
Google IMO金牌級Gemini 3深夜上線!華人大神掛帥,OpenAI無力反擊
Gemini 3 Deep Think用2.5倍的暴力性能把GPT-5.1踩在腳下,OpenAI若再不發新模型,這「推理之王」的寶座今天就正式換人了!太勁爆了!不過半月,GoogleDeepMind終於放出了IMO最強金牌模型——Gemini 3 Deep Think。今年夏天,Gemini 2.5 Deep Think分別在IMO、ICPC國際大賽中,拿下了金牌的戰績。這一次,Google為其注入了全新的血液——Gemini 3。憑藉著「平行思考」能力,Gemini 3 Deep Think可以搞定超高難度的數學、科學難題!在基準測試中,Deep Think全面碾壓Gemini 3 Pro,尤其是在HLE上,未用工具拿下了41%高分。同時在ARC-AGI-2上,以45.1%成績領跑全球。下面實例中,同一個指令,讓Gemini 3 Pro和Deep Think版基於一張博物館展館屋頂的草圖,建立一個精確的互動式3D場景。顯然,後者在還原度上,與原圖幾乎是1:1復刻,並在互動上,光影變化符合物理邏輯。今天,Gemini 3 Deep Think已在Gemini App上線,所有Ultra使用者即可體驗。最強IMO金牌模型來了Gemini 3 Deep Think正式開啟了「深度思考」新紀元,讓智能的邊界再次拓展。Gemini 3 Deep Think基於上一代Gemini 2.5 Deep Think迭代而來,在推理能力上實現了質的飛躍。它專門用於攻克那些連當今最頂尖模型,都感到棘手的複雜數學、科學和邏輯難題。在多項基準測試中,Gemini 3 Deep Think都拿下了行業領先成績。在Humanity’s Last Exam(無工具輔助)上刷爆41%,並在ARC-AGI-2(配合程式碼執行),創下45.1%新紀錄。在ARC-AGI-1和ARC-AGI-2上,Gemini 3 Deep Think實力堪稱無「模」能敵。之所以這麼強,是因為Deep Think採用了「平行推理」來同時思考,能夠同時探索多種假設。在GoogleDeepMind放出的更多demo中,可以看出Gemini 3 Deep Think強大之處。如下,讓它打造一款3D版多米諾骨牌遊戲。在關卡設定中,Deep Think兼具創意與驚喜,而且還模擬出了真實的碰撞物理效果。這個例子,是要求Gemini 3 Pro和Deep Think分別在單個HTML檔案中建立程序化生成的地球類行星。左右對比一眼即可看出,Deep Think更加有創造力。另有開發者實測驚嘆道,Gemini 3 Deep Think具備驚人的能力。上傳一張玻璃瓶的照片,讓它生成一個軟橡膠同款掉在地上的3D動畫。有網友激動地表示,按照這個速度,我們將在2026年真正實現AGI!華人科學家領銜,AGI王牌隊衝刺同在今天,GoogleDeepMind官宣,將在新加坡組建一支全新的精英團隊。它將由華人科學家Yi Tay率隊,專攻高級推理、LLM/RL,以及推進Gemini、Gemini Deep Think等最前沿SOTA模型的發展。Yi Tay將向位於山景城由Quoc Le(GoogleFellow級大佬)領導的團隊匯報。恰好,這一團隊正是Gemini Deep Think在國際競賽中奪下金牌的核心力量之一,同時也在Gemini上取得重要進展。Yi Tay表示,我們會從一支人不多但超強的小團隊開始。因為在大模型的時代,「人才密度」比什麼都關鍵。關鍵是,這個團隊還能與AI領域傳奇大神聯動研究,其中就包括「推理之王」Denny Zhou、「香蕉」背後的男人Mostafa Dehghani、AI界的「GOAT」Noam Shazeer。同時,還有很多「神仙隊友」一起加入研究,包括生成式檢索的發明人Vinh Q. Tran、IMO金牌項目總負責人Thang Luong、思維鏈開創者Xuezhi、日本頂尖AI大神Shane Gu等人。過去幾個月,GoogleDeepMind便開始秘密招募全球頂尖人才。這一項目得到了Demis Hassabis、Jeff Dean等內部高層的大力支援。如今,他們繼續發出英雄招募帖,有機會站上通往AGI的關鍵賽道。用不了多久,這支新加坡團隊很快就會成為一支戰鬥力爆表的隊伍。Gemini 3爆沖15%流量隨著Gemini 3 Pro的強勢發佈,其網頁端的市佔率再創新高,突破15%大關。與此同時,Grok也憑藉著4.1版本的發佈持續增長。ChatGPT在流量上依然斷崖式領先,但份額卻在持續下降。Gemini延續增長勢頭,訪問量達到13.51億次,較10月增長14.3%。ChatGPT跌破60億次大關,網站存取量降至58.44億次。這是繼7月之後,ChatGPT 在 2025 年出現的第二次環比下滑。儘管在11月18日(Cloudflare當機當天),ChatGPT創下了單日2.33億次訪問的歷史紀錄,但這並未扭轉整體流量的跌勢。此外,Grok網站存取量達到2.344億次,創下歷史新高,較10月增長14.7%。這也是該網站自啟用當前域名以來,首次實現連續兩個月的流量增長。(新智元)
Gemini 網頁版大更新,還帶來了兩個非常實用的功能...
今早打開電腦,習慣性地點開 Gemini 準備幹活,結果螢幕一閃——咦?我是不是進錯網站了?定睛一看,原來是Google悄悄給 Gemini 的網頁版(gemini.google.com)搞了一次“裝修”!不得不說,雖然這一波不是模型能力的升級,但介面的變化真的太。舒。服。了。如果說之前的介面像個還沒完工的“工程測試版”,那現在終於有點“旗艦產品”該有的高級感了。我稍微試用了一下,發現這次改版不光是變好看了,還有幾個特別順手的效率小細節。來,帶大家盤點一下,看看有沒有戳中你的那個點。01|顏值大變樣:更黑、更酷、更有人味 ✨第一眼最直觀的感受就是:變乾淨了。Google這次似乎是有意在做“減法”。最明顯的變化就是那個歡迎語。以前每次打開,它都是那句乾巴巴、公事公辦的標準 “Hello”。現在換成了更隨意的“Hi”,左邊還配上了那個標誌性的Gemini 彩色小火花。圖:Gemini 新的介面雖然只是改了兩個字母,加了一個小圖示,但感覺 AI 一下子沒那麼高冷了,像個隨時待命的小助理在跟你打招呼:“嗨,今天搞點什麼?”👉 給“夜貓子”的福利:真正的暗黑模式如果你和我一樣是“暗黑模式”的死忠粉,你會愛死這次更新。之前的深色模式其實是深灰色(Dark Gray),看著總有點霧濛濛的感覺。而新版背景直接變成了純黑(True Black)。圖:Gemini 更新後的深色模式這不僅僅是酷的問題,如果你用的是 OLED 螢幕,這種高對比度的黑底白字,看起來清晰度更高,而且更有沉浸感。更有意思的是,它的輸入框和左側導覽列依然保留了灰色調。這種“黑灰分層”的設計,讓介面看起來非常有層次感,不再是糊成一團。02| 強迫症狂喜:“我的素材”終於有家了 📂這絕對是這次更新裡最實用的功能之一,也是我最喜歡的!不知道大家有沒有這種痛苦:上周讓 Gemini 生成了一張圖,今天想用,結果死活找不到在那段對話裡,只能在一堆歷史記錄裡瘋狂翻找……現在,Google終於在左側導覽列裡加了一個「My Stuff」(我的內容)專區。不管是你生成的圖片,還是做出來的視訊,或者是 Canvas 畫板裡的創作,統統都會自動歸檔到這裡。圖:Gemini 新上線”我的內容”功能這簡直就是個自動化倉庫!再也不用在聊天記錄的大海裡撈針了,對於經常用 AI 做圖的朋友來說,絕對是生產力的大解放。03|聊天管理,終於不用切菜單了 💬以前想重新命名一個對話,或者刪除、置頂某個聊天,得專門跑到左邊欄去操作,有時候還得把側邊欄展開,這就很斷節奏。現在,你直接點選當前對話頂部的標題,就會彈出一個下拉菜單。圖:更新後的聊天管理分享、置頂、重新命名、刪除——所有操作一步到位。雖然是個小改動,但這種“順手”的感覺,真的能讓人心情變好。04| 一個隱藏的“殺手級”功能:相簿直連 🖼️雖然這個不屬於今天的視覺更新,但我必須得再安利一遍,因為很多人可能還沒發現。現在的輸入框那個“+”號菜單裡,已經直接整合了 Google Photos(Google相簿)。圖:直連 Google Photos這意味著什麼?意味著當你需要 AI 分析照片時,再也不用“下載到本地 -> 再上傳給 AI”了!直接點一下,從雲端相簿里拉取,秒開。總的來說,這次 Gemini 的網頁版更新,雖然沒有發佈新模型那麼轟動,但處處都透著一種“打磨產品”的誠意。可以看得出來,現在Google已經比較從容了,之前都在一路追趕,現在終於騰出手來最佳化產品體驗了。 (AI范兒)
兆豪賭:年底AI大戰背後的三個趨勢
今天我們要關注的重點是AI。不知道你發現一件事沒有,每到年底,各路AI大廠的動作都特別密集。11月12日,李飛飛發佈了新的世界模型Marble。11月13日,OpenAI宣佈推出GPT-5.1。11月18日,Google發佈了Gemini 3,號稱是目前為止測試評分最高的大模型之一。從10月初到11月中旬,中國多家AI企業也在密集發佈模型更新。螞蟻、阿里、科大訊飛、字節、百度,幾乎是排著隊發佈。在年底的這一輪“AI熱點大爆發”裡,有那些消息特別值得留意呢?接下來,咱們就展開說說。01 AI的技術在分化回顧去年這個時候,山姆·奧特曼宣佈,OpenAI要連續12天發佈新品。12月也成了OpenAI一年中火力最猛的時期。而且幾乎是同時,Google發佈Gemini2,號稱是“專為智能體而生”。還有,李飛飛的第一個AI系統,World Labs也是在這個時間發佈的。而今年呢,情況與去年驚人地押韻。只不過,整體提早了大概一個月。我們大致給這些AI界的消息分了分類,可以用三個關鍵詞概括。分別是,技術的分化、資源的分化,以及“賭注”的極端化。第一,AI的技術分化。今天的AI公司看起來很多,怎麼快速瞭解它們的技術走向呢?關於這個問題,喻穎正老師做過一個分類。世界上的AI流派,大概可以分成三種:湧現派、訓鳥派、飛機派。湧現派,代表人物是奧特曼。他們相信“規模化就是一切”。只要喂足夠多的資料,AI就會自發“湧現”出智能。就像天才兒童看了足夠多關於鳥和飛機的視訊,就能自己發明空氣動力學一樣。目前的多數AI公司,包括Google在內,也都屬於這一派。訓鳥派,代表人物就是李飛飛。她認為AI需要“身體”,需要在物理世界中學習。所有抽象概念都源於身體與物理世界的互動經驗,沒有身體,就沒有真正的理解。所以AI需要的不是被動的視訊資料,而是通過機器人主動互動收集到的“動作資料”。飛機派,代表人物是楊立昆。他認為大模型只是“鸚鵡學舌”,AI需要先天架構才能組織經驗。人類不是通過模仿鳥學會飛行的,而是通過理解空氣動力學原理造出了飛機。AI必須通過一個全新設計的、非生成式的“世界模型”來學習抽象規則和因果。我們今天看到的多數AI技術的進展,在底層模型這個層面,都可以歸類到前面三者中的某一個。比如,李飛飛發佈Marble,是“訓鳥派”的實踐。她在為AI建構一個可以“練習飛行”的高保真模擬器。而Google發佈了Gemini 3。這個模型在評測平台LMArena上以1501分的歷史最高分登頂,成為首個突破1500分的模型。這是“湧現派”的延續,繼續在規模化的道路上狂奔。前面三個流派,都只是在基礎模型這個維度上的分類。而在基礎模型之上,目前AI領域還有另一個關鍵維度,應用層。現在有大量的公司,都把精力聚焦在了應用層。比如,從10月初到11月中旬,中國多家AI企業陸續發佈了大模型更新。10月9日,螞蟻集團推出兆參數通用模型,主打金融場景。10月15日,阿里巴巴開源支援256K超長上下文的視覺語言模型,主打視覺理解。11月初,科大訊飛發佈星火大模型X1.5版本,強調醫療領域優勢。這些模型的差異化,不再是參數規模,而是垂直領域的能力。大家都在強調自己在特定場景的優勢,而不是單純地比拚模型大小。當然,不只是AI的技術在分化,它背後的資本也在分化。02 AI背後資本的分化第二個關鍵詞,資本的分化。一邊是持續押注,另一邊是看衰做空。最近,關於AI泡沫的討論一直很激烈。11月19日,在美國—沙烏地阿拉伯投資論壇上,主持人直接向黃仁勳和馬斯克提問:“我們正在面臨一場AI泡沫嗎?”這個問題不是空穴來風。看幾個數字你就明白了。輝達從1兆美元市值漲到5兆美元,用時不到兩年半,漲幅400%。《經濟學人》統計顯示,自2022年11月ChatGPT發佈以來,AI概念股累計貢獻了美股標普500指數3/4的漲幅。整個2024年,美國家庭新增財富接近一半由AI概念股創造。更驚人的資料是,2025年上半年,美國有92%的GDP增長是AI產業支出貢獻的。但問題在於,這些投入能換來多少回報?OpenAI單周活躍使用者超8億人,但付費使用者比例僅5%。2024年營收不到40億美元,虧損卻超50億美元,但未來五年投資承諾高達1.4兆美元。摩根大通研報估計:到2030年,美國AI企業承諾的軟硬體投資額度,可能逼近每年7兆美元,即使只要求10%的資本回報率,每年也得尋求至少6500億美元營收。但整個2024年,美國AI產業實際營收僅500億美元,只有目標的一個零頭。麥肯錫調研顯示,近80%部署AI的企業沒能實現淨利潤提升,95%的生成式AI試點項目沒有帶來直接財務回報。比爾·蓋茲、IMF總裁格奧爾基耶娃都警告,美國當前正處於類似上世紀90年代末“網際網路泡沫”的AI投資熱潮,許多當下投資最終可能成為壞帳。前段時間,著名的“大空頭”麥可·貝瑞,還把13.5%的投資組合用於做空輝達。但是,與此同時,也有大量資本對AI依然充滿熱情。比如,巴菲特在今年11月建倉Google,這算是個直接訊號。當然,巴菲特對Google的投資並不完全是出於AI的考量,我們在這裡就不細說了。再比如,還有個值得留意的消息,只不過這個消息有點迂迴,需要多解釋兩句。前段時間,亞馬遜宣佈裁員1.4萬人。裁員消息公佈當天,亞馬遜股價不跌反漲1%。財報發佈後,股價更是暴漲13%,市值單日增加3000億美元。你看,華爾街不但不擔心亞馬遜裁員,反而覺得這是好事。因為外界對這件事的普遍解讀是,亞馬遜在通過裁員留出更多的預算,並且把這些預算用來投資伺服器與資料中心。說白了,這更像是在為AI投資騰出預算。外界看好亞馬遜,本質是在某種程度上看好AI。有人在瘋狂押注AI,有人在質疑泡沫,有人在調整結構為AI騰空間。這就是我們所說的,資本的分化。03 賭注的極端化第三個關鍵詞,賭注的極端化。技術在分化,資本在分化,但有一件事情是一致的:這個行業裡的賭注,正在變得越來越極端。11月6日,特斯拉股東大會上,超過76%的股東批准了馬斯克的新薪酬方案。假如目標達成,馬斯克將獲得最高1兆美元市值的特斯拉股票。但注意,馬斯克要拿到這筆錢,需要完成幾個極具挑戰性的目標:特斯拉的市值從1.5兆增長到8.5兆美元,同時實現累計交付2000萬輛汽車、100萬台人形機器人商用、100萬輛自動駕駛計程車上路。這幾個目標與AI的關聯度很高。換句話說,這筆錢不是在獎勵馬斯克過去的貢獻,而是在為特斯拉的未來下注,而且是個極端的賭注。賭對了,馬斯克拿走1兆美元,股東的財富也會暴漲。賭錯了,這個薪酬方案就是一張廢紙。再看人才市場。11月12日,被稱為“AI天才少女”的羅福莉在朋友圈官宣加入小米。根據相關報導,羅福莉的年薪在千萬等級。字節跳動最近也啟動了針對AI核心人才的激勵實驗。據說他們還為旗下Seed部門發放了每月10萬元左右的津貼,面向大模型方向的技術員工。根據中國獵頭機構的資料,AI相關崗位的薪資今年明顯上漲。很多演算法工程師在跳槽的過程中,年薪漲了一倍不止。而像清華、北大、浙大、上交這些頂尖高校出來的AI博士,頂尖人才的年薪可以達到200萬到400萬元之間。根據中國國務院發展研究中心預測,中國具身智能產業的市場規模,2030年將達到4000億元,2035年預計突破兆元。從馬斯克的兆薪酬,到AI人才的千萬年薪,再到兆級的產業預測,這些數字背後也許是一個共同的邏輯:AI不再是一個可以慢慢試錯的領域,而是一場必須全力以赴的豪賭。前面這些新聞乍一看好像很分散,但是,假如放在一起看,我們或許會產生一個總體的感受。這就是,AI正在從一個技術話題,變成一個關於選擇和押注的話題。技術路線在分化,沒人知道湧現派、訓鳥派、飛機派誰會贏。資本在分化,有人瘋狂進場,有人質疑泡沫。賭注在極端化,從兆薪酬到千萬年薪,每個數字背後都是一個關於未來的押注。李飛飛在《世界模型宣言》中說過一句話,講的是關於AI未來的可能性,我們放在最後,作為今天的結尾吧。這句話是這麼說的,“我語言的極限,意味著我世界的極限。我不是哲學家,但我深知,至少對AI而言,世界遠不止於文字。” (羅輯思維)
V3.2逼近Gemini 3,DeepSeek硬氣喊話:接下來我要堆算力了
就在上周,OpenAI前首席科學家、現SSI CEO Ilya Sutskever在最新播客訪談中拋出一個重磅觀點,過去五年的“age of scaling”正在走到頭,預訓練數據是有限的,單純用更多GPU堆更大模型,那怕再放大100 倍,也未必能帶來質變。所以我們又回到了以研究為核心的時代,只不過這次有了巨大的算力”,這一表態被視作對Scaling Law撞牆論的強力佐證。然而僅過了幾天,12月1日,DeepSeek用V3.2和V3.2-Speciale的發布,給了一個不同的答案。模型發布後,DeepSeek研究員Zhibin Gou在X上發文:「如果Gemini-3證明了持續擴展預訓練的可能性,DeepSeek-V3.2-Speciale則證明了​​在大規模上下文環境中強化學習的可擴展性。我們花了一年時間將DeepSeek-V3推向極限,得出的經驗是:訓練後的瓶頸需通過優化方法和數據來解決,而不是僅等待更好的基礎模型。」他還補了一句:“持續擴大模型規模、數據量、上下文和強化學習。別讓那些'遭遇瓶頸'的雜音阻擋你前進。”這是DeepSeek團隊少有的發聲,而這一幕頗有意味,當業界在討論Scaling Law是否撞牆時,DeepSeek用實打實的模型喊話,想證明Scaling沒死,只是換了戰場。雖然業界普遍認同後訓練的重要性,但敢把相當於預訓練成本10%以上的算力預算砸在RL上的企業仍屬少數。 DeepSeek是真正把這條路線工程化、規模化的代表。這次發布的兩個模型正是這條路線的產物,V3.2定位日常主力,對標GPT-5;Speciale定位極限推理,對標Gemini 3.0 Pro,並拿下四枚國際競賽金牌。技術報告Introduction部分有句話值得注意,「過去幾個月,開源社群雖然在持續進步,但閉源模型的性能軌跡正在以更陡峭的速度加速。差距不是在縮小,而是在擴大。」同時點出了當前開源模型的三個核心短板:過度依賴普通注意力機制導致長序列效率低、後訓練算力投入不足、Agent場景下的泛化能力差。但DeepSeek的態度很明確,問題有解,而V3.2就是他們給的答案。1V3.2:高效主力,把自我進化用在通用效率上V3.2是9月發布的實驗版V3.2-Exp的正式繼任者,目標是平衡推理能力與輸出成本。在推理類Benchmark測驗中,V3.2達到了GPT-5水準:AIME 2025數學競賽93.1%(GPT-5為94.6%),HMMT 2025二月賽92.5%(GPT-5為88.3%),LiveCodeBench二月評測83.3%(GPT-5為88.3%),LiveCodeBench二月評測83.3%(GPT-5%)。相較於Kimi-K2-Thinking,V3.2在保持相近性能的同時,輸出Token量大幅降低-嚴格的Token約束和長度懲罰讓它更省、更快、更便宜。V3.2在架構上的核心改變是引入了DeepSeek Sparse Attention(DSA)。這項技術在9月的V3.2-Exp中首次亮相,用稀疏注意力取代傳統的全量注意力,將計算複雜度從O(L²)降到O(Lk)。V3.2-Exp上線兩個月後,DeepSeek透過多個維度確認了DSA的有效性:標準Benchmark與V3.1-Terminus基本持平,ChatbotArena的Elo評分接近,第三方長上下文評測反而高出4分。這意味著DeepSeek在底層架構創新上走對了路,稀疏注意力可以在不損失效能的前提下大幅提升效率。V3.2還有一個重要突破,這是DeepSeek首個將「思考」與「工具調用」融合的模型。先前的推理模型(包括OpenAI的o系列)在思考模式下無法調用工具,V3.2打破了這個限制,同時支持思考模式和非思考模式的工具調用。技術報告中篇幅最大的部分是Agent能力的訓練方法。 DeepSeek建構了一套大規模的Agent任務合成管線,涵蓋1800+環境和85000+複雜指令。這套流水線的核心設計哲學是「難解答,容易驗證」。以報告中的旅行規劃任務為例:複雜限制組合讓搜尋空間龐大,但驗證方案是否符合限制卻很簡單。這種特性天然適合強化學習,模型可以透過大量嘗試獲得明確的對錯回饋,不需要人工標註。效果驗證很有說服力,只用合成資料做RL的模型,在Tau2Bench、MCP-Mark等Agent基準上顯著提升,而只在真實環境做RL的模型,這些指標幾乎沒有變化。值得注意的是,官方特別強調,V3.2並沒有針對這些測試集的工具進行特殊訓練,但在Agent評測中仍達到開源最高水準。這說明模型的泛化能力是真實的,不是靠刷榜優化出來的。2V3.2-Speciale:極限推理,把自我驗證用在高階邏輯上Speciale是V3.2的"長思考增強版"。如果說V3.2透過嚴格的Token約束來優化效率,Speciale則反其道而行-放寬長度限制,鼓勵模型進行更深度的推理。技術報告中的Table 3很有趣:同樣的任務,Speciale的輸出Token量顯著高於其他模型。例如在AIME 2025上,GPT-5 High輸出13k tokens,Gemini 3.0 Pro輸出15k,而Speciale輸出23k;在Codeforces上差距更大,Speciale輸出77k tokens,是Gemini的3.5倍。雖然Speciale的Token輸出量極大,但得益於DeepSeek的定價策略和DSA帶來的效率提升,即便算上這些額外的"思考過程",其最終使用成本依然碾壓對手:比GPT-5便宜約25倍($0.4 vs $10),比Gemini 3.0 Propus Pro30約25倍($0.4 vs $10),比Gemini 3.0 Propus Pro30約30 月($25454545)。Speciale的意義不只是“讓模型想更久”,而是驗證了一個重要的假設,對推理“過程”的監督,能否從數學證明泛化到更廣泛的領域?上周剛發布的DeepSeekMath-V2提出了「生成器-驗證器」雙模型架構,生成器負責產出證明,驗證器評估證明的嚴謹性和完整性,驗證結果作為reward訊號回饋給生成器。這套機制的關鍵創新在於如何保持“生成-驗證差距”,當生成器變強後,驗證器也需要同步提升。 DeepSeek的解決方案是動態擴展驗證計算,以更多計算資源自動標註「難以驗證」的證明,持續合成高難度訓練數據,實現模型的可持續自我進化。Speciale整合了Math-V2的資料集和獎勵方法,不僅追求最終答案正確,更追求推理過程的嚴謹性和完整性。它將這套原本用於數學定理證明的“過程監督”,成功地遷移到了程式碼生成和通用邏輯任務。 這意味著「自我驗證」不是數學領域的特例,而是一種可泛化的能力提升範式。結果也相當不錯:3不缺算力的DeepSeek會帶來什麼?有網友評論說,每篇DeepSeek論文最重要的部分永遠是「結論、限制與未來工作」部分。這次的技術報告也不例外,他們說:“首先,由於總訓練FLOPs較少,DeepSeek-V3.2 的世界知識廣度仍落後於領先的閉源模型。我們計劃在後續版本中,通過擴大預訓練算力來彌補這一知識差距。”報告中承認,由於總訓練FLOPs 較少,V3.2 的世界知識廣度仍落後於Gemini 3.0 Pro。但DeepSeek 的選擇並不是等待一個更大的基礎模型,而是先把方法論打磨到極致,用一年時間,透過合成資料、自我驗證和大規模RL,把後訓練的上限真正跑出來。從這次的發布也能看出這條路線的成果:V3.2 將「自我進化式工程」(高RL 預算、合成資料閉環)應用在通用效率上;Speciale 則把過程獎勵與自我驗證機制推向高階邏輯推理。兩者共同指向同一個方向:未來的模型不再依賴人力堆砌,而是依靠自我博弈來實現持續演進。下一步就是擴大預訓練算力來彌補知識差距。這也讓人聯想,一是DeepSeek真把算力補上來,會發生什麼事?二是,這些新的算力資源從那裡來?回頭看過去一年的技術路徑,Janus的多模態統一架構、OCR的視覺壓縮記憶、NSA的長上下文效率、Math-V2的自我驗證……這些創新都是在V3這個基座上迭代出來的。那麼,一個參數更大、訓練FLOPs 更多的V4,再疊加這些已經驗證有效的方法論,會出現怎樣的化學反應?一個合理、甚至是大膽的預期是,當V4 或R2 到來時,我們看到的可能已經不是傳統意義上的“更強語言模型”,而是一個能夠感知多模態環境、具備更長期記憶、並能在真實交互中持續進化的系統。如今發生在合成環境中的自我博弈,未來可能會延伸到真實環境的線上學習。而在算力上,在今天輝達頻繁形容其中國市場份額已經歸零的背景下,繼續scaling需要的算力資源看起來不太能夠靠H800們提供,下一代模型會用什麼樣的更大的算力資源訓練,如果這些算力缺口可以被補齊,完全形態的DeepSeek下一代模型會是什麼樣?這些顯然更重要,也更讓人產生聯想。(矽星人PRO)
硬剛Gemini 3.0 Pro! DeepSeek V3.2實測性能確實猛,但這三個「硬傷「不得不防
矽谷早晨驚醒,發現追兵已至。當中國對手拿出了旗鼓相當的產品,卻打出「完全免費」的底牌時,這場仗該怎麼打?12月1日,DeepSeek帶著他們的全新“雙子星”—— DeepSeek-V3.2正式版(日常推理的“打工仔”)和DeepSeek-V3.2-Speciale(專攻推理的“頂流學霸”)殺回來了:奧賽金牌手軟,推理能力比肩,直接開啟了AIAI客戶時代的“谷歌免費”。「人們以為DeepSeek只是一次性突破,但我們以更大規模回歸。」計畫貢獻者陳方在社群媒體上的這句「豪言」,無異於向全球AI圈下了一封「硬核戰書」。網路上瞬間“炸鍋”,無數用戶湧入評論區,甚至有人高呼:“ChatGPT安息吧!”YouTube知名SEO部落客朱利安·戈爾迪(Julian Goldie)在評測後直言,這款剛發布的模型,在幾乎每一項頂級推理和編程測試中,都對那些收費昂貴、壁壘森嚴的閉源巨頭發起了強有力的挑戰。DeepSeek-V3.2不僅在程式設計競賽中榮獲金牌,更輕鬆解決奧賽級數學難題。更瘋狂的是:它完全開源,支援直接本地運行,成本甚至僅為GPT-5的1/25。正如網友所驚呼:「有些人還沒意識到這次發布的分量有多重!」它不僅是一項技術突破,更是對「開源比閉源落後8個月」這一說法的當頭棒喝。現在,讓我們一起研讀「剛剛宣布」的白皮書和技術報告,看看這個V3.2究竟是如何成為「頂級AI時代的免費入場券」的。有網友評論認為:中國在頂尖模型應用層的「追趕窗口」已經基本關閉,中美AI競賽已進入「貼身肉搏」的白熱化階段。你還在支付昂貴的API費用?不好意思,別人已經開著免費的「頂配超跑」上路了。性能狂飆:頂級「學霸」Speciale的「奧賽金牌收割機」模式戈爾迪表示,這次發布的焦點無疑是DeepSeek-V3.2-Speciale。這個擁有6850億參數的“大聰明”,直接帶著一疊金光閃閃的“成績單”登場,讓所有閉源模型都感受到了來自“別人家孩子”的壓力。它在幹什麼?它在「收割金牌」中:· 2025年國際數學奧林匹克競賽(IMO):Speciale豪取35/42分,穩拿金牌· 國際資訊學奧林匹克競賽(IOI):拿下492/600分,再度拿下金牌· ICPC世界總決賽:一口氣解出10/12題,直接鎖定總排名第二有網友看到這串成績直接“原地起飛”:“IMO、CMO、ICPC金牌?🏅 DeepSeek的Speciale不僅僅是突破極限——它簡直是顛覆極限!這種競技成就足以引起整個領域的關注。絕對震撼!🚀”在與閉源巨頭的正面PK中,Speciale 更是打出了“王牌”,直接把GPT-5和Gemini 3.0 Pro“摁在地上摩擦”。它用事實證明:開源模型也能成為頂尖層次的代名詞。· 在美國數學競賽AIME 2025上:Speciale 變體通過率達96.0% ,高於GPT-5-High 的94.6% 和Gemini-3.0-Pro 的95.0%· 在哈佛-麻省理工HMMT 數學競賽:Speciale 得分99.2%,超越Gemini 的97.5%同時,標準版V3.2模型在AIME 和HMMT 分別得分93.1% 和92.5%,雖略低於前沿模型,但在計算資源消耗上顯著較少。在程式設計基準測試中,DeepSeek-V3.2在SWE-Verified 上成功解決了73.1% 的真實軟體錯誤,與GPT-5-High 的74.9%旗鼓相當。在衡量複雜編碼工作流程的Terminal Bench 2.0上,其得分為 46.4%,顯著高於GPT-5-High 的35.2%。這意味著它在處理實際複雜程式碼工作流程時,思路更清晰、效率更高,簡直就是程式設計師的「頂級外掛」。有網友評論道,DeepSeek 的新模型非常強大,性能已經能和GPT-5、Gemini 3.0這些頂級閉源模型正面競爭了。尤其是它在數學競賽等推理任務上的表現,標誌著開源模型達到了新高度。既然免費開源的模型已經這麼好,再花錢用閉源API 就不划算了,這宣告了開源時代的全面到來。科技白皮書「大揭密」:打破性能魔咒的三大突破DeepSeek 團隊在白皮書中坦誠了一個核心痛點:儘管開源社群在努力,但閉源專有模型(如Anthropic、OpenAI)的效能提升速度更快,二者之間的效能差距非但沒有縮小,反而看似在擴大。但V3.2就是來終結這個「魔咒」的。它的成功並非靠簡單堆疊算力,而是基於三大革命性的技術突破。戈爾迪對此進行了總結:1. 更聰明的注意力機制傳統大模型在閱讀長文件時之所以“慢且貴”,是因為它們必須採用更複雜的注意力機制,時刻關注所有內容,導致成本呈指數級暴增。 DeepSeek 的解決方案是稀疏注意力(DSA)配合“閃電索引器”。DSA 不再掃描所有Token,而是透過「閃電索引器」快速檢索並只挑選最重要的部分進行聚焦。這就像是AI 快速瀏覽一本厚書,只抓住精華要點,而不是逐字閱讀。因此,即使在處理128K 的超長上下文時,推理速度也提升了約3.5倍,記憶體佔用減少70%,同時Token 消耗量顯著降低,大大提升了成本效益。2. 「砸錢」後訓練大多數AI 公司在模型主訓練(預訓練)完成後,只會投入一小部分預算進行後訓練(微調)。而DeepSeek 直接「財大氣粗」地將其預訓練總預算的10% 以上,全部投入了基於強化學習的後訓練中。這種大規模的投入和專門的強化學習技術,大大提升了模型的穩定性和最終能力。他們不再滿足於“能用”,而是追求“專家級性能”。3. 智能體合成訓練:拒絕“金魚記憶”V3.2的Speciale 模型是專為智能體(Agent)能力而生的。它的核心優勢是「思考鏈」方法,可以多次呼叫工具而不必重新開始。這種訓練的目的是消除傳統AI 在跨工具調用時「丟失思路」的頑疾。為了實現目標,DeepSeek 創建了一個專門的合成訓練流程,旨在改善工具使用能力。這使得V3.2原生支援「推理加工具使用」,完美適用於複雜的多步驟工作流程。親身體驗:免費跑「金牌模型」的誘惑與現實戈爾迪認為,最瘋狂的部分在於,你完全可以在當地運行它。DeepSeek V3.2在託管網站Hugging Face 上已經完整開源,模型權重、聊天模板、本地運行指南一應俱全。對於文件助理建構者、智能體系統開發者和長上下文聊天機器人設計師來說,這簡直是天降橫福。極客硬派可以直接去Hugging Face 或GitHub,使用VLLM、Kaggle、Google Colab 或Transformers 函式庫,動手折騰程式碼,本地運行。嚐鮮體驗派則可造訪DeepSeek 官網,直接在網頁端體驗V3.2的「深度思考」與「非深度思考」模式。然而,我們也要保持清醒:如實測所見,目前V3.2還沒完全整合到像Ollama 或Open Router 這樣方便的第三方平台。如果你不是“代碼狂魔”,你必須經歷“複雜的編碼工作”才能本地部署,那麼它的便利性確實打了折扣。戈爾迪吐槽道:“老實說,對我來說,如果使用起來不那麼方便——比如必須去Hugging Face,然後折騰代碼等等——我可能不會經常使用,因為這會耗費我大量時間。”但如果它能直接整合在聊天介面裡,戈爾迪表示會很有興趣測試並看看它的表現。優勢與限制:五大爽點與三大局限當然,再強的模型也有其「成長的煩惱」。戈爾迪總結了DeepSeek V3.2的五大優勢(爽點):能夠處理超大上下文(DSA 機制紅利)、推理高效(速度快如閃電),在推理和工具使用方面表現卓越(Agent 能力強大),具備專家級性能(基準測試中擊敗付費模型),並且完全開源。不過,它也有三大限制:在近期世界知識方面仍有滯後(需要外部檢索RAG 來「補課」),標記效率不夠優化,且在極其複雜的推理上仍需打磨。在戈爾迪看來,V3.2應該被視為“推理和工作流引擎”,而不是知識問答機。如果你是文件助理建構者、智能體系統開發者或長上下文聊天機器人設計師,它就是你苦候多時的「神兵利器」!DeepSeek V3.2的發布,不僅是一個新模型,更是一個歷史性的轉捩點。它用實打實的效能數據和慷慨的開源策略,宣告了:開源與閉源之間的效能差距正在迅速抹平。(網易科技)
重磅!DeepSeek V3.2 特別版發佈:性能超越GPT-5,硬剛Gemini 3.0「IOI/IMO金牌」
DeepSeek-V3.2系列模型正式上線作為“為Agent建構的推理優先模型”,DeepSeek-V3.2包含兩個版本:DeepSeek-V3.2:V3.2-Exp的官方繼任者,平衡了推理能力與生成長度,性能對標GPT-5,現已上線App、Web端及APIDeepSeek-V3.2-Speciale:專攻深度推理能力的極限版本,性能超越GPT-5,比肩Gemini-3.0-Pro,目前僅通過API提供技術報告顯示,DeepSeek-V3.2-Speciale在2025年國際數學奧林匹克(IMO)、國際資訊學奧林匹克(IOI)、ICPC世界總決賽及CMO中均取得了金牌級成績官方已公開上述競賽的最終提交結果,社區可通過assets/olympiad_cases進行二次驗證技術報告:https://huggingface.co/deepseek-ai/DeepSeek-V3.2/blob/main/assets/paper.pdf以下是詳細資訊核心能力與技術突破DeepSeek-V3.2基於三大技術突破,實現了高計算效率與卓越推理、Agent性能的統一:1.DeepSeek Sparse Attention (DSA):引入高效注意力機制,大幅降低計算複雜度,並針對長上下文場景進行了最佳化2.可擴展強化學習框架:通過穩健的RL協議與後訓練(post-training)算力擴展,實現了高性能表現3.大規模Agent任務合成管線:涵蓋1800+環境及8.5萬+複雜指令這一合成管線不僅提升了模型在複雜互動環境中的遵循度和泛化能力,更讓DeepSeek-V3.2將“思考”直接整合進工具使用(Tool-Use)的模型,同時支援在思考和非思考模式下使用工具API更新與Speciale版限制DeepSeek-V3.2:API使用模式與V3.2-Exp保持一致,作為日常主力模型(Daily Driver),提供GPT-5等級的性能DeepSeek-V3.2-Speciale:該版本專為解決複雜任務設計,消耗更多Token,目前僅作為API提供,具體限制如下:臨時端點:需使用base_url="https://api.deepseek.com/v3.2_speciale_expires_on_20251215"服務期限:該端點服務至2025年12月15日 15:59 (UTC) 截止功能限制:不支援工具呼叫(Tool Calls),僅用於支援社區評估與研究。定價:與DeepSeek-V3.2保持一致聊天範本重大調整DeepSeek-V3.2不再提供Jinja格式範本,並引入了“帶工具思考”及新角色設定。Python指令碼編碼:官方提供了encoding資料夾,包含Python指令碼(encoding_dsv32.py),用於將OpenAI相容格式消息編碼為模型輸入字串及解析輸出Developer角色:範本新增developer角色,專門用於搜尋Agent場景,官方API不接受分配給該角色的消息輸出解析注意:提供的解析函數僅處理格式良好的字串,生產環境需自行增加穩健的錯誤處理機制。程式碼示例如下:import transformersfrom encoding_dsv32 import encode_messagestokenizer = transformers.AutoTokenizer.from_pretrained("deepseek-ai/DeepSeek-V3.2")messages = [    {"role": "user", "content": "hello"},    {"role": "assistant", "content": "Hello! I am DeepSeek.", "reasoning_content": "thinking..."},    {"role": "user", "content": "1+1=?"}]# 思考模式配置encode_config = dict(thinking_mode="thinking", drop_thinking=True, add_default_bos_token=True)prompt = encode_messages(messages, **encode_config)tokens = tokenizer.encode(prompt)本地部署建議模型結構與DeepSeek-V3.2-Exp相同。採樣參數:建議設定 temperature = 1.0,top_p = 0.95。Speciale版提示:本地部署Speciale版本時,同樣不支援工具呼叫功能開源與協議倉庫及模型權重均採用 MIT License 授權。 (AI寒武紀)