#DeepSeek
澤平宏觀—輝達之路:四次進化與AI未來
摘要“抓住風口”並非簡單的運氣,而是技術在長期積累後達到奇點,並與市場需求爆發形成的共振。輝達完美詮釋了這一規律。自ChatGPT問世後,其股價上漲10倍以上。在人工智慧的數千家企業中,輝達之所以能一騎絕塵,源於其在早期逆境中形成的深刻憂患意識、扁平化的高效管理文化,以及通過全端模式形成的強大市場心智。這使其在AI時代的浪潮中歷經四次關鍵進化,牢牢抓住了機遇。第一次進化始於2008年金融危機,在巨大的經營壓力和質疑下,力排眾議投入研發CUDA。這建構了輝達最核心的護城河,為其日後成為AI生態基石奠定了基礎。第二次進化以2012年AlexNet模型的成功為標誌,輝達敏銳地捕捉到GPU在AI訓練中的巨大潛力,果斷“All in AI”。第三次進化由2022年ChatGPT的發佈引爆,大模型領域的算力需求呈指數級增長,輝達成為這場“算力軍備競賽”中獨家的“賣鏟人”。第四次進化發生在2025年初,DeepSeek等低成本、高效率AI模型的出現一度引發市場對輝達邏輯的質疑。然而,訓練成本的降低反而促進了AI的普及和部署,最終擴大了對算力的總需求。解讀輝達的崛起之路,是為了尋找大牛股的底層邏輯:唯有那些能參透技術本質、勇於開拓市場、擁抱科技進步的企業,才能立於浪潮之巔。在AI時代,中國力量——國產替代與產業鏈自主化正成為中國市場的核心趨勢。建立獨立自主、安全可控的國產算力體系已成為必然選擇,以華為昇騰等為代表的核心晶片層正在突破,同時帶動了從高規格晶圓代工到AI伺服器等整個配套產業鏈的重構。未來,具身智能、AI超級應用以及由AI賦能的醫藥等領域科研是潛力最大的三大領域。1 為什麼是輝達?2024年6月18日,輝達市值超越微軟成為全球市值最高公司。2025年7月28日,輝達成為第一家市值超4.3兆美元公司,自1999年IPO以來復合年均增長率超過37%。輝達的成功和人工智慧密不可分,但AI產業上下游企業千余家,為什麼跑出來的是輝達?許多投資者認為輝達勝在技術。從技術的角度看,AI訓練投入資源越多效果就會更強,這是大模型發展的定律Scaling Law(縮放定律),而要支撐起海量的運算就離不開算力。輝達恰好是世界上最大的GPU廠家和算力硬體裝置供應商。但另一方面,顯示卡並非輝達獨有。ChatGPT爆發後自研算力晶片也成趨勢,特斯拉(Tesla)一直在推進 D1 晶片和 Dojo 超算平台的研發, Google的 TPU(張量處理單元)在 AI 訓練領域是輝達最強勁的競爭對手之一,許多大型模型(包括Google自己的 Gemini)都是在 TPU 上訓練。這樣看來,輝達的技術優勢只是成功的結果,但不是成功的核心。輝達的成功和一個人的成功一樣,除了技能一流,更關鍵是具備一些獨特的“品質”。在經營哲學上,輝達極為強調憂患意識。由於險些在30天內破產的早期經歷,“被對手超越只是瞬息之間”,這樣的意識促使員工無法安於現狀,CEO也不斷自我鞭策和學習,避免陷入“創新者窘境”。在管理上,輝達非常扁平化。這確保了員工在自己的工作上有極大的自主權和獨立性,但同時,CEO又以最嚴格、最快速、和最高品質的標準要求員工,強調每個人都追求極致,展現出超人的努力和韌性。輝達的市場策略和蘋果相似,重視客戶的心智建設,採用“全端”銷售模式,最佳化配套的各方面來提升體驗。輝達深知低成本競爭對手是最大威脅,因此從高端旗艦到中低端衍生產品全部覆蓋,防止競爭對手復刻輝達的翻身之路,以“老黃刀法”的精準定價鎖住市場需求。輝達獨特的經營哲學、管理文化、市場策略將其打造成一艘“堅船”,在時代的浪潮中,輝達歷經四次進化,牢牢把握住了人工智慧革命兆市場的機遇。2 輝達的四次進化大多投資者瞭解到輝達這家公司是在2022年ChatGPT興起之初,其股價一路高歌在三年內登上三兆美元。如果將投資視角拉長,站在價值增長的角度看,輝達嶄露頭角則可以追溯到2008年,一共經歷了四次“進化”。通過復盤其四大歷史性投資機遇,輝達為我們詮釋了價值演變的黃金法則。2.1 金融危機價值窪地,CUDA技術穿越周期2008年11月,輝達的投資者迎來了“最黑暗”的時刻,股價跌破6美元,在一年內下跌近80%。彼時正值美國次貸危機爆發,市場處於極度恐慌,輝達這類科技股作為高風險資產被大量拋售。對於輝達而言,雖然財務上最艱難的時期已經度過,台積電也與輝達聯手,但還面臨著兩大新的危機。一是美國次貸危機演變為全球金融危機,抑制了消費者對高端電子產品的需求,輝達的營收端面臨未知的挑戰。真正讓輝達倍感壓力的是一項名為CUDA的新任務,2007年6月輝達發佈第一款CUDA程式設計模型,隨後投入了大量資源,成本端的壓力增加,三年內毛利率下降了10%,大多數投資者也轉向悲觀,股價一路下行。而輝達低谷期研發的CUDA,也正好是今天造就輝達帝國最核心的壁壘。CUDA全稱“統一計算裝置架構”,能夠讓GPU進行圖形以外的計算。1999年輝達推出了世界上首款GPU(圖形處理器),彼時的CPU(中央處理器)承擔了複雜的核心計算任務,而GPU只用於電腦圖形渲染。2002年,輝達的一位客戶另闢蹊徑,將氣象領域的問題通過程式設計“翻譯”成GPU可以理解的語言,再用GPU強大的平行計算能力模擬了氣象變化。這便是早期基於GPU的通用計算,採用軟體拓展GPU的能力邊界,讓GPU不再侷限於圖形計算,而是可以用於其他複雜領域的模擬。輝達看到了這種嘗試的潛力,並聘用了這位客戶,進一步開發了讓GPU更容易訪問非圖形應用的程式設計軟體,將其命名為CUDA。CUDA的出現讓圖形程式設計之外的領域也能最大程度利用GPU——比如科研、金融、工程領域用GPU高效運算CPU難以獨立完成的任務,由此GPU具備瞭解決現實世界問題的潛力。當時輝達面臨兩種選擇:一是讓CUDA聚焦於服務高端科學和技術的工作站,他們的需求是清晰存在的,且價格承受能力也高,CUDA為公司帶來盈利的路徑明朗。二是讓CUDA對所有人可用,這樣做的風險極大,不僅是提供軟體支援的成本會驟增,還有定價過高導致的付費意願降低、市場需求不清晰等多種因素都可能讓輝達血本無歸。2006年,在GPU計算市場幾乎是零的背景下,CEO黃仁勳確立了“將CUDA技術推向所有領域,成為基礎性技術”的方針。推行該計畫的成本巨大。同年11月推出的G80晶片為了支援CUDA功能,研發成本佔到了輝達研發總預算的1/3,開發周期比以往晶片多出了三倍,而這還只是一款產品。G80發佈後華爾街幾乎一致認為輝達誤判了市場,走上了不歸路。在巨大的壓力下,輝達從零開拓起新市場,在時代助力和自身的堅持下完成了CUDA三步走變革。第一步,輝達早期先和高校達成特定捐贈的合作,提供顯示卡和財務支援來換取學校支援GPU程式設計教學,預先培養了輝達的潛在使用者和未來的開發者生態。第二步,在學術界建立起CUDA的灘頭陣地後,輝達繼續推動CUDA在消費市場的普及,老本行——電腦遊戲。個人電腦的興起和遊戲行業爆發讓GPU的通用能力嶄露頭角,從越來越逼真的物理現象、到光影細節的表現、複雜粒子效果等,遊戲消費升級的需求和複雜科研的演算法原理不謀而合,CUDA在消費級市場迎來了用武之地。第三步是2012年的深度學習革命,AlexNet團隊用四塊輝達GPU訓練的AI模型擊敗了16,000塊CPU訓練的Google貓,轟動學術界的同時,也標誌著歷時三十年的深度學習“冰河期”結束,人工智慧研究復甦,而輝達GPU和CUDA軟體也成了AI工作者的不二之選。截至今日,CUDA生態已有超過500萬開發者,服務於全球85%以上的資料中心,90%的AI框架基於CUDA開發,95%的AI訓練任務依賴CUDA工具鏈。誕生於20年前的CUDA儘管面臨巨大的市場壓力和投資者質疑,但先發優勢讓輝達打造了成功的第一印象,使用者黏性快速形成、並呈指數級增長。開發者一旦依賴CUDA工具鏈平台,遷移成本極高,從而形成輝達的核心護城河。2007-2009年的下跌構成了輝達投資的最佳窪地,但少有投資者抓住這一波機會,一方面是對金融危機的恐慌,另一方面是忽視了這家上市9年卻“業績平平”的科技公司正在推動的技術變革。輝達在CUDA技術上的堅持可謂最重要的決策,CUDA不僅是輝達的護城河,稱其為AI發展的生態基石也不為過。2.2 深度學習復興,輝達打造AI引擎輝達並非“天生贏家”,黃仁勳意識到AI機遇來自一場偶然。1956年達特茅斯會議首次提出人工智慧概念,但在經歷短暫的黃金期後發展陷入停滯。1982年,約翰·霍普菲爾德提出新的深度學習網路,可以模擬人類的學習、記憶和資訊處理方式,但卻受限於當時的算力條件,AI發展再次進入冰河期。直到20年後,深度學習和輝達走向交集,AI發展迎來了轉折點。2012年,傑佛瑞·辛頓牽頭訓練的AlexNet模型打破了第三屆電腦視覺挑戰賽記錄。挑戰賽規則很簡單,參賽團隊訓練的視覺識別模型要對來自資料庫隨機輸入的圖片進行分類。前兩屆的冠軍精準率不到75%,而AlexNet模型精準率高達84%,比第二名“Google貓”高出近十個點,後者是實力雄厚的Google團隊投入16,000塊CPU訓練的大規模神經網路,而前者只有三個人和四張輝達遊戲顯示卡。這一顛覆式的結果震動了AI界,讓沉寂20年的深度學習領域逐漸復甦。AlexNet的勝出帶來了三項影響後世的改變:一是產業界掀起了人工智慧的技術競賽,AI進入提速發展期。科技大廠Google、微軟、百度、DeepMind圍繞傑佛瑞·辛頓教授團隊展開競標。辛頓加入Google,剩下三家也擴大AI研究陣容。辛頓團隊中的一位學生伊利亞更是成為了後來OpenAI的首席技術官和ChatGPT的締造者。二是算力在AI三要素中脫穎而出,GPU成為了算力代名詞。2007年前,深度學習普遍認為演算法越優秀結果越準確,而李飛飛團隊提出了資料集是訓練關鍵,並贊助了電腦視覺挑戰賽。辛頓團隊在此之上驗證了GPU高效運算能讓精準率再上一個高度,GPU掀起了AI革命浪潮。三是輝達走上“All in AI”,專注於支援AI發展。AlexNet的成功是輝達的最好的商業宣傳,GPU從此和人工智慧訓練深度繫結。黃仁勳和辛頓團隊多次交談後認為GPU驅動深度學習的潛力巨大,雖然多位核心高管認為AI前景不明、反對大力投入,但黃仁勳力排眾議,促成輝達轉向全面支援AI研究。股價方面,輝達在AI領域的先登也被一些投資者敏銳地捕捉到,2012~2015年底輝達股價從14.3美元到33美元,復合年均增長率達到24.18%,同期標普500回報率是12.84%,納斯達克綜指是17.8%。三年翻倍的股價在美股並不算是大新聞,許多投資者會就此滿足,畢竟AlexNet的影響力還只是在AI圈內,輝達的真正潛力還未被市場發掘。2016年3月,AlphaGo以4:1的成績擊敗李世石,標誌著人類最後的棋類運動被AI攻克。對於許多人而言,這也是AI首次進入大眾視野。AlphaGo由Google旗下的DeepMind團隊開發,是深度學習復甦後的劃時代產物。此前,IBM的“深藍”超級電腦在1997年擊敗國際象棋冠軍,其算力相當於每秒110億次的計算能力,而AlphaGo的算力是前者的三萬倍,達到每秒3.386千兆次。賦予AlphaGo跨時代算力的正是280塊輝達GPU。深度學習訓練幾乎完全依賴GPU,再加上CUDA生態和硬體性能的極高壁壘,輝達成為毋庸置疑的AI算力領導者。人工智慧前景明朗、加密貨幣的興起、遊戲市場的繁榮,三重利多因素使得輝達股價在2016年迎來了首次大爆發。從1月的33美元漲到292美元僅用時兩年半,即便2018年10月加密貨幣泡沫破滅,輝達新款顯示卡的定價過高導致股價回呼,結果看,投資輝達的收益仍十分可觀,年化回報率達92.5%,三年漲幅達到540%。2.3 ChatGPT橫空出世,大模型領域需求爆發人工智慧的機遇是意識到AI大模型的通用潛能及其對算力的海量需求。而捕捉到這一投資機遇,就是挖掘輝達的估值根本從一家遊戲顯示卡龍頭轉變為“AI淘金獨家賣鏟人”的時刻。2022年3月,輝達發佈了革命性的Hopper架構(H100 GPU)和Ada Lovelace架構(RTX 40系列),用於AI訓練和遊戲的顯示卡性能都實現了飛躍。但這沒能阻止投資者繼續拋售輝達,由於加密貨幣暴跌和遊戲市場疲軟,年初至9月,輝達的跌幅達到62.8%。誰也不會想到,兩個月後輝達的估值邏輯將徹底改變,促成科技股載入史冊的投資機會。同年11月30日,OpenAI發佈了世上第一款大語言模型ChatGPT。這是人們可以用到的第一款聊天AI,和6年前的AlphaGo相比,前者只是下棋的演算法,而後者更像是具有智慧的個體。僅一年時間,ChatGPT的每周活躍使用者(WAU)就達到1億人,達到2億又用了9個月,到2024年12月,ChatGPT的周活躍使用者已經有3億人。OpenAI是AI浪潮的主角,但市場很快發現輝達才是最大贏家。輝達股價一路反彈,率創新高,一年漲幅達到246.73%。相比之下,OpenAI最大出資方——微軟的股價在這段時間上漲僅為65.14%。這是因為,ChatGPT成功的核心在於大規模訓練。它基於的3.0版本參數量高達1750億,是2019年GPT2.0的110多倍,進行如此大規模訓練需要足夠的算力支援。分析師測算下來OpenAI訓練用了至少一萬塊輝達A100顯示卡。ChatGPT打開了前景廣闊的AI藍海,一方面是上千家初創公司加入戰局,另一方面是科技大廠鞏固陣地,一場“算力軍備競賽”不可避免。2023年,輝達H100全球出貨規模達到500億美元,微軟、Meta、Google、亞馬遜、甲骨文、特斯拉、沙烏地阿拉伯主權基金、CoreWeave採購佔比超80%。2024年,AI算力競賽升級,科技巨頭以近乎不計成本的方式加大投入,輝達新的BlackWell架構一上市就得到微軟、Meta、Google價值百億級訂單。據測算,輝達全年H100/H200出貨量約400萬張,A100等其他產品出貨月200萬張,BlackWell架構因良率低出貨僅10萬張,台積電將80%產能分配給輝達而市場仍供不應求。只是提供“鏟子”還不夠,輝達全方位精準把控了市場需求。在ChatGPT發佈的三年前,黃仁勳就預見了人工智慧發展下資料中心負載和性能提升的巨大需求。2019年3月,輝達以69億美元收購了網路互聯裝置市場第一梯隊公司邁絡思。四年後,數以千計的AI公司加入大模型領域,它們不僅需要輝達顯示卡,還離不開邁絡思的InfiniBnad技術來高效地拓展計算能力。在 2024-2025 年,輝達成功將其護城河從單一的‘計算晶片’延伸到了‘叢集連接’。當成千上萬顆 GPU 協同工作時,通訊效率成為了系統的真瓶頸。通過 NVLink 和 InfiniBand 這種‘卡與卡、櫃與櫃’的超強連接,輝達實際上定義了‘叢集即電腦’(Cluster as a Computer)的行業標準,使得競爭對手即便能造出單顆性能相近的晶片,也無法在萬卡叢集的效率上與其抗衡。AI訓練的需求爆發讓輝達估值邏輯徹底轉變,抓住這一投資機遇的關鍵節點在2023年初。2022年12月,市場起初對ChatGPT維持將信將疑的態度,在發佈後的45天內,輝達漲幅僅25%,還經歷了25%的最大回撤。但在2023年1月底,形勢開始反轉,輝達發佈2023財年業績(2022年),其智算業務收入首次超過了遊戲顯示卡成為第一大營收來源,達到150億美元,這意味著ChatGPT發佈前智算訂單就大幅增長,外部AI需求前景已經明朗,而輝達作為GPU領域龍頭,未來業績極有可能迎來爆發。果然,2023年,輝達營收同比增長125.85%,2024年同比增長114.2%,營收突破1300億美元。在市場主力猶豫時,勇於買入輝達的投資者也收穫了驚人的回報,兩年內,輝達的股價上漲925.24%,年化收益率達到205.63%。2.4 DeepSeek衝擊估值回呼,產業擴容再創新高2024年末,輝達被買成了全球最受歡迎的公司,不僅市值超越微軟成為第一,兩年來的總成交額也達到14.13兆美元,相當於同年的日本、德國、英國、法國GDP之和。市值屢創新高的同時,輝達面對的質疑也越來越多,主要來自三方面:一是輝達業績高速增長的可持續性存疑。2023到2024年,主要科技大廠都完成算力基建部署,2025年之後訂單實現翻倍式增長很難。二是輝達的技術壁壘可能在鬆動。算力軍備競賽也掀起了自研AI晶片的趨勢,輝達的市場份額可能在未來被後發者蠶食。三是輝達估值的整體想像空間或已見頂。從常規的企業發展周期來看,“成功者困境”無法避免,許多龍頭企業在到達巔峰後都面臨著成長困境,輝達的進步空間似乎不多了。2025年1月20日,DeepSeek R1模型開源,引發美國科技股震動,一度跌去一兆美元。其中,輝達股價跌去近17%,市值蒸發近6000億美元,創下美股史上最大單日市值下跌紀錄。DeepSeek的出現似乎印證了投資者對輝達的質疑。為何市場擔心這會撼動輝達的市場根基?DeepSeek出現前算力是第一要素。AI能力的提高依賴於參數量的增加,而更大參數量的訓練則需要匹配的算力規模。在2023~2024年,AI巨頭通過堆算力來堆大模型性能,形成了“打造比GPT更好的AI等同於比OpenAI有更多算力”的共識,比如,馬斯克為了xAI彎道超車,建構了全球最大的20萬張GPU算力群。DeepSeek跨越了算力壁壘,實踐了以低成本達成高效率的全新架構。其V3模型與GPT-4o和Llama-3.1表現不相上下;而R1模型達到了ChatGPT-o1級的表現,但訓練成卻僅相當於後者的十分之一。DeepSeek在GPU數量和質量上都落後於美國企業,卻通過演算法最佳化、架構創新打造了實力相當的模型,顛覆了“AI訓練必依賴強大算力”的認知。這場AI訓練變革削弱了算力的重要性。當AI訓練不再需要高成本、大規模的算力投入,輝達GPU需求預期減少,資本市場也快速改變了對輝達的估值,在歷史高點的輝達股價十分脆弱。“擊敗”輝達的不是業績減速,也不是更先進的GPU,而是AI訓練的變革,但變革自身也在發展中變化。舊的壁壘被瓦解,新的藍海在湧現。從長期維度看,DeepSeek出現是對輝達的一次空前利多。一是訓練變革會帶來AI部署降本,市場總量擴容。AI的訓練成本下降會在短期內造成上游的營收下降,但也意味著AI部署和使用成本同步下降,更多的廠商加入賽道,促進AI技術迭代。同時,更多使用者能以低成本使用AI服務,訪問增加推動需求總量增加,加速AI商業化和大規模普及處理程序,這是產業生態迎來爆發的前兆。二是訓練變革只是降低現階段成本,無法提高上限。DeepSeek模型在性能和當代主流模型不相上下,但沒有突破現有邊界。換言之,“再造一個GPT”對算力的需求大幅下降,但超越GPT在根本上還是離不開更強大的算力支援。因此,那些希望掌握行業主導權的AI科技巨頭對輝達GPU的需求依然會穩定增長。事實也確實如此,DeepSeek的火爆後,雲端和本地部署需求激增,推理服務的火爆引發了對輝達GPU的更大需求。同時,科技巨頭一邊效仿DeepSeek開源和最佳化,另一邊卻並未停止算力軍備競賽。DeepSeek 的邏輯在於:它證明了‘重演算法、輕訓練’的可行性,這標誌著 AI 產業正式從‘算力密集型訓練階段’轉向‘規模化推理應用階段’。雖然單次訓練成本降低了,但隨著 AI Agent(智能體)和超級應用的普及,全社會對推理算力的總需求量呈幾何級數增長。輝達通過推出專為推理最佳化的晶片和軟體棧(如 TensorRT-LLM),精準吃掉了這一增量市場。市場對輝達的判斷很快迎來反轉。2025年1~4月輝達跌去18.9%,5~7月反彈漲幅達到64.13%,市值突破了2024年底來到4.3兆美元,超過特斯拉、AMD、英特爾和帕蘭提爾四家市值的總和。輝達的這次逆境反轉是重要的一課:投資是動態的過程,對行業和公司投資邏輯的推導不能停留在短期事件的後果上。2025年初,許多分析師將DeepSeek描述成輝達的“掘墓人”,但卻忽視了訓練效率的提升是行業進化的催化劑,輝達從估值瓦解到登上新高不過半年。3 AI浪潮:未來十年有那些機會?3.1 AI時代的關鍵能力AI在許多領域的工作效率已經遠超人類,直覺上,人工智慧似乎必定會勝任各種職業和場景,逐漸取代人類。事實上,淘汰與否的關鍵在於“主動價值原則”:一個人產出價值的過程越主動,意味著自主決策佔比高、思考多、創造性強,越難以被新工具所替代。歷史上,雖然每次技術進步的方向不同,但無一例外都遵循這一原則。第一次工業革命,船伕被蒸汽機替代,但舵手卻保留了下來。即便在今天,舵手也無法被AI取代,AI可以協助觀測等任務,但決策核心仍在船長(首席舵手)手中。技術革命中,最容易被淘汰的是價值創造被動的人。在AI時代,價值創造被動的人無法主導決策,使用AI越多就會越依賴AI系統,逐漸失去自主思考能力。而那先原本就擅長思考、創新、自主判斷的人,只會因為使用AI變得思維更迅捷、效率更高。黃仁勳本人也分享:他用AI不是讓AI替自己思考,而是用AI教會他新東西。這也引出了一項AI時代的重要能力——提問和引導的能力。人和AI互動靠的是幾行提示語、提問句還有後續的引導詞。雖然AI能快速寫文案、做視訊、編程式碼,但產出的質量高低完全取決於人的水平。同樣一類AI畫作,在業餘愛好者和專業畫師的提示詞下生成的作品差距極大,AI實際上是折射了不同人的想像力和對藝術理解深度。換言之,人要擁抱“建構想法的創造力”,放下“把事情做出來的能力”。AI時代,人們要更多的閱讀、學習技能、深度思考,以此拓寬創造力邊界。因為向AI提要求,本質上也是對自身能力深淺的檢驗。比如,AI程式設計的出現讓一些初級程式設計師如獲至寶,但隨即而來的是面臨失業。與此同時,成熟的軟體工程師卻在新鮮感後抱怨AI程式設計的“愚蠢”,因為AI程式設計的能力十分基礎,遠達不到成熟開發的要求。由此可見,AI篩選的不是崗位,而是人。同一崗位、同一工作,也存在價值創造的主動和被動之分。有的人主動學習,提升自己,參透了規律和本質,善於向AI提問,充分發揮AI的效率優勢。還有的被動依賴AI投喂答案,缺乏自主思考,雖然短期產出提升,但也終將被淘汰。在瞬息萬變的AI時代,投資者抓住風口的核心也是在於學習,否則只會在時代的篩選中退場。3.2 國產替代和產業鏈自主化潛力對於晶片這個特殊行業,必須注重外部供應的特殊性和產業本土化安全性權衡。比如美方或通過試圖在出口晶片中加入“追蹤定位”和“遠端關閉”等功能,這未來對資料安全是一種威脅。另一方面,H20確實作為“特供版”晶片,有性能被削弱的問題,從技術和經濟效益角度看,無法支撐中國兆級大模型訓練的長遠需求。這雙重壓力共同將一條路清晰地擺在了所有中國科技企業和投資者的面前:建立獨立自主、安全可控的國產算力體系。這也正是未來幾年中國最重要的產業趨勢和投資機遇。機會一:國產替代國產替代已是在中國晶片領域的“必答題”。這不僅是政策驅動,更是市場求生的內在需求。圍繞國產晶片的生態正在加速形成:比如在核心晶片層,以華為昇騰、寒武紀、海光資訊等為代表的ASIC和GPU廠商,正在從不同技術路線進行突破。特別是華為昇騰910B在部分場景下據稱已達到輝達A100的80%性能,並正通過全端的軟硬體生態CANN、MindSpore等建構護城河。在配套產業鏈方方面,從中芯國際的晶圓代工,浪潮資訊的AI伺服器,到兆易創新等的儲存環節,整個產業鏈條正在圍繞國產核心進行重構。關注國產替代,就是要尋找那些技術領先、生態建構能力強、且已經獲得頭部廠商驗證的。機會二:尋找“下一個輝達”必須客觀認識到,輝達的護城河不僅僅是一塊GPU晶片,而是其耗費十餘年心血打造的CUDA生態系統。全球絕大多數AI開發者、深度學習框架如TensorFlow, PyTorch都深度繫結CUDA。這是一個贏者通吃的網路效應。中國公司想要突圍,不能僅僅是硬體性能的追趕,更關鍵在於軟體生態的建構。目前來看,華為昇騰是中國最有可能率先突圍的。正建構從底層硬體、晶片使能、AI框架到應用使能的全端解決方案。通過與國內高校、科研機構和企業的合作,昇騰正在努力擴大其“朋友圈”,培養開發者習慣,這是追趕CUDA生態最現實的路徑。在後摩爾定律時代,通過Chiplet芯粒結構、存內計算等新架構創新,有可能在特定領域實現對傳統GPU架構的性能超越。這是技術驅動型的顛覆機會。尋找“下一個輝達”的邏輯,要求具備更長遠的眼光和對技術生態更深刻的理解。3.3 AI潛力最大的三大領域從第一性原理來出發:人工智慧是資料驅動的機率關聯,目標是完成對自然法則和因果規律的掌握。理論上AI適用於所有行業和領域。但在不同領域存在落地先後之分。將AI應用潛力最大的領域分為三大類:一是具身智能,讓AI擁有感知世界能力的路線。從多模態大模型、到自動駕駛、人形機器人和無人機等,賦予AI物理形態和感知學習能力的具身智能會加速落地。長期看,具身智能的商業化鋪開需要多方面技術進步來實現,主要是資料訓練演算法的周期長、硬體成本高、工程設計的難度大。當下智能駕駛的技術離成熟應用最接近,在監管適配的過程中大規模普及只是時間問題。人形機器人在2025年概念火熱,但受限於續航、靈巧手、環境資料等因素還難以滿足大規模落地條件。二是超級應用,在C端開啟新互動革命,在B端打造高效率工具。比如,消費電子端的AI眼鏡、AI手機、AI PC等升級成為互動載體。在此基礎上,AI Agent、AI作圖、AI助力等原生AI應用構成AI生態,AI功能融入日常生活。在B端也賦能專業領域,AI教育上實現遠端教學,AI醫療輔助手術,工程領域協助設計搭建等,比如B端AI賦能的半導體設計行業。晶片工程師在AI的幫助下可以僅用高級抽象概念來設計和模擬晶片。三是AI科研,解決傳統科研處理程序中的瓶頸。相比於傳統科研,AI在探索廣度、計算深度、實驗速度、跨學科能力四個方面都更強,因此在科研上極具優勢。比如AI用於對環境要求嚴苛的氣象領域,研究耗時長的分子領域;成本高、涉及跨學科多的生物醫學、以及人類還在攻堅的量子系統領域。黃仁勳也曾在2023年預測數字生物學是未來方向。AI使得人類可以首次對生物學進行數位化設計,科學界可以更深入地模擬生物系統的結構,開發非自然形成的新分子結構和蛋白質藥物。此外,AI上游的關聯產業也充滿機遇。比如半導體製造,中國的自主化處理程序在加快,而國際上先進製程也在2025年迎來了2nm突破,新一輪半導體革命未來可期。再比如能源領域,全球資料中心增長正面臨供需錯配問題,一方面擴大綠電體系建設為AI基建保駕護航,同時提高能源利用率,降低能耗成為共識。輝達的崛起是一場長達 20 年的“非對稱競爭”的勝利——用全端的軟體生態鎖死硬體競爭,用極度的憂患意識跑贏摩爾定律。在大航海時代,財富流向了擁有指南針和堅船的一方;在 AI 時代,財富正流向那些能定義算力標準、並不斷突破自然科學邊界的企業。對於我們,國產替代不是為了重複造輪子,而是為了在新的技術高地上,拿回屬於我們的數字主權。 (澤平宏觀展望)
150家上榜!中國獨角獸霸屏全球500強,AI賽道成最大增長引擎
近日,中國獨角獸企業研究機構獨角獸工程院聯合中國人民大學、清華大學重磅發佈《2025年世界獨角獸企業500強榜單》,這份聚焦全球高價值新興企業的權威排名,再次印證了中國新經濟的強勁活力——中國共有150家企業成功上榜,以12.83兆元人民幣的總估值穩居全球第二,僅次於美國的224家,而人工智慧賽道的爆發式增長,成為中國獨角獸突圍的核心推力。01全球獨角獸版圖中美領跑,總估值飆升30.7%獨角獸企業,作為估值超10億美元(約70億元人民幣)、成立時間較短的高成長性新興企業,是衡量一個國家或地區創新活力與產業潛力的核心指標。本次上榜的500家全球獨角獸,總估值同比大幅增長30.7%,達到39.14兆元人民幣,彰顯了全球新經濟領域的旺盛生命力。從國家與地區分佈來看,中美兩國依然佔據絕對主導地位:美國以224家企業、18.97兆元估值蟬聯第一;中國則憑藉150家企業、12.83兆元估值牢牢鎖定第二,兩國合計上榜數量佔全球500強的74.8%,總估值佔比超76%,形成了全球獨角獸市場“雙雄並立”的格局。這種格局背後,是兩國在新興產業賽道上的持續投入與創新突破,也折射出全球新經濟發展的核心動力來源。02中國4強躋身全球TOP10硬核實力閃耀全球在競爭最為激烈的全球前10強榜單中,全球頂尖企業各展所長,其中美國太空探索公司、特斯拉母公司SpaceX以2.8兆元人民幣的估值成為全球第一獨角獸,憑藉在太空探索與新能源領域的雙重佈局,馬斯克旗下企業持續領跑全球新經濟賽道。全球獨角獸Top10中國企業在TOP10中強勢佔據4席,涵蓋AI、雲端運算、金融科技等核心賽道,展現了中國新經濟在關鍵領域的技術沉澱與市場競爭力:字節跳動(ByteDance)以2.21兆元人民幣的估值位列全球第二,作為全球使用者規模最大的網際網路科技巨頭之一,其旗下 TikTok、抖音等產品風靡全球,AI 驅動的內容推薦技術持續引領行業,商業化邊界不斷拓展至企業服務、雲端運算等領域,成為跨賽道創新的典範。DeepSeek(杭州深度求索)首次躋身全球第六,估值達1.05兆元人民幣,這家專注於人工智慧基礎技術研究的企業,在大模型訓練、推理最佳化等核心領域取得突破,短短幾年內實現估值飛躍,成為中國AI硬核派代表,彰顯了中國在通用人工智慧賽道的趕超實力。阿里雲(Alibaba Cloud)以8050億元人民幣估值排名第七,作為全球領先的雲端運算服務商,阿里雲憑藉自主研發的飛天作業系統,在企業級雲服務、巨量資料、人工智慧基礎設施等領域佔據全球市場重要地位,為全球數百萬企業提供技術支撐,成為數字經濟時代的 “基礎設施搭建者”。螞蟻集團(Ant Group)以6138億元人民幣估值位居第十,作為金融科技領域的標竿企業,其在移動支付、數字金融、區塊鏈技術應用等方面的創新,不僅改變了中國的金融服務生態,讓普惠金融觸達更多群體,也在全球範圍內輸出成熟的金融科技解決方案。03AI賽道成最大黑馬中國企業增速領跑全球本次榜單最引人注目的亮點,莫過於AI賽道的爆發式增長。全球範圍內,AI相關獨角獸企業較上年增加16家,總數達到36家;而中國AI獨角獸企業更是實現逆勢增長,較上年新增7家,共有9家企業上榜,增速遠超全球平均水平,成為中國獨角獸軍團的“增長先鋒”。從全球頭部玩家來看,排名第三的美國OpenAI以2.1兆元估值彰顯了對話式AI的巨大商業價值;而中國的 DeepSeek、字節跳動等企業,則在大模型技術落地、產業 AI 賦能等方面形成差異化優勢——沒有盲目跟風,而是結合國內產業需求,將AI技術深度融入智能製造、醫療健康、金融服務等實體領域,讓技術真正產生產業價值,推動AI從“實驗室”走向“產業場”,成為驅動經濟高品質發展的新動能。04中國獨角獸的突圍密碼創新+生態+全球化中國獨角獸企業能夠在全球競爭中脫穎而出,並非偶然,背後離不開三大核心支撐:一是技術創新驅動。從AI大模型、雲端運算到金融科技,中國獨角獸企業持續加大研發投入,在關鍵核心技術領域打破國外壟斷,形成自主智慧財產權體系。這種“硬創新”不是短期炒作,而是長期深耕的結果,讓企業在全球競爭中擁有核心話語權。二是完善的產業生態。中國龐大的消費市場提供了豐富的使用者需求反饋,完整的產業鏈供應鏈支撐了技術從研發到落地的全流程,加上網際網路、巨量資料等基礎設施的普及,為獨角獸企業提供了得天獨厚的成長土壤,助力企業快速實現技術迭代與商業化驗證。三是全球化佈局。字節跳動、阿里雲等企業通過全球化營運,將中國技術與商業模式輸出至全球,在國際市場中搶佔份額的同時,也吸收了全球的創新資源,形成“本土創新+全球落地”的良性循環,不斷提升品牌國際影響力。2025全球獨角獸企業500強中國入榜企業名單(咫尺研學)
中國 DeepSeek AI 預測:XRP、Solana、Dogecoin 到2025年底的目標價會到哪?
被稱為「ChatGPT 殺手」的中國頭部 AI——DeepSeek,發布了對 XRP、Solana(SOL) 和 Dogecoin(DOGE) 的 12 月價格展望,並提醒交易者:這三者本月都可能迎來更高的波動率,行情容易出現急拉急砸。隨著加密市場即將結束“最慘月份之一”,臨近聖誕節,整體盤面正在出現修復反彈。但從年度表現來看,2025 年對比特幣並不友善:截至撰稿時,BTC 年內(YTD)跌幅已超過 7%,年初價格接近 9.9 萬美元,如今大概率會以低於該水平的價格收官。即便如此,放大週期來看,市場的大結構仍偏向正面。分析師仍認為 XRP、SOL、DOGE 這類相對「能活下來」的強勢山寨/優質山寨,長期仍具備表現空間。在市場情緒和流動性逐步穩定後,各項目可望重新獲得向上行動能-以下是 DeepSeek AI 對其趨勢的預期推演。XRP(XRP):DeepSeek AI 認為要麼“全面崩盤”,要麼衝到 5 美元DeepSeek AI 的偏空劇本顯示:如果市場情緒持續疲軟、資金風險偏好不回升,Ripple 的 XRP 可能會從當前約 2.07 美元 出現深度回撤/瀑布式下跌,跌幅高達 91%,一路砸到接近 1 美元,並可能在 2026 年 前後維持在該低位附近。來源: Deepseek從 2025 年 XRP 的整體價格走勢來看,多頭劇本反而更佔優。不少人把 Ripple 稱為「年度進步最大幣」。因為在 2025 年 8 月,與 SEC 的訴訟最終塵埃落定,帶來了徹底的監管清晰度,進而解鎖了 11 億美元+ 的機構資金淨流入,同時 RLUSD 穩定幣 也順利上線落地。在這些利好加持下,XRP 一直守在 2 美元上方,並且還有 現貨 XRP ETF的持續資金流入提供支撐,市場信心被進一步抬升。部分分析師因此認為,XRP 接下來有機會向 3 美元 發起衝擊。來源: XRPUSD / TradingView只要 XRP 能穩守 2.00 美元上方,刷新 歷史新高(ATH) 的可能性仍然存在。圖表上曾有一次價格跌破 2 美元,當時對多頭來說就很不妙,盤面明顯轉弱。目前的關鍵突破門檻/頸線位在 2.70 美元:這裡先前是非常強的支撐位,但最近已經發生支撐轉阻力(S/R flip)。如果價格能重新收復並站穩該區域,就可能確認突破,打開上行空間,目標指向 3.70 美元 左右,對應約 80% 的上行幅度。Solana(SOL):DeepSeek AI 預測或將出現 700% 等級的突破Solana 依舊被視為本輪週期的“週期之王/強勢主線”,過去 7 天 在市場波動持續的情況下仍保持強勢,漲幅超過 2%,體現出較強的抗跌與相對強勢。DeepSeek AI 認為,Solana 可能會在 可擴展的 C 端應用 賽道進一步“加速開掛”,隨著生態持續擴張、機構採用度提升,有機會在 2026 年初 前後打出一波約 700% 級別的主升浪/突破行情。如果多頭敘事走不出來,空頭劇本其實也不會比當下更慘太多:DeepSeek 預期 SOL 可能回撤到 100 美元 附近的強支撐/心理關口,作為下一道防線。此外,光是 Solana ETF 這條線就可能為 SOL 打開通往 400 美元 的想像空間——因為目前已經吸引到明顯的機構關注,並且連續多日出現淨流入,資金面表現偏強。來源: SOLUSD / TradingView不過,SOL 眼下有個關鍵任務:必須突破並站穩 144 美元 這道強壓/套牢密集區。如果衝不過去,SOL 可能會在聖誕節前先走一波回踩/下探,然後再擇機二次衝關。要維持多頭劇本不崩,價格必須守住圖表標示的那段需求區/承接帶。一旦該區域失守,DeepSeek 預測的 100 美元 回撤目標就可能被觸發。DeepSeek:狗狗幣(DOGE)或再次衝擊 1 美元「Meme 幣市場已經涼了。」這是 CryptoQuant CEO Ki Young Ju 最近的表態,也不難理解他為什麼這麼說。從山寨盤裡 meme 幣的市佔比來看,已經快跌到新的歷史低點(ATL)。這基本說明了:曾經最能帶動散戶熱情的主線之一,現在熱度和資金都明顯退潮了——可憐的 meme 幣。來源: CryptoQuant儘管如此,DeepSeek 仍認為 meme 板塊存在修復反彈的可能性,並指出:如果 DOGE 未來能在像 X(原 Twitter) 這類大平台上被整合為支付手段,很可能會重新點燃市場情緒,觸發一波拋物線式拉升。但就目前來看,DeepSeek 更偏向空頭劇本:一旦市場風險偏好下滑、資金從 meme 敘事資產撤離,DOGE 可能出現一波深度回撤/大幅回調,甚至有概率回到 0.08 美元 附近。DOGE 現貨 ETF 的成交額已降到 14.2 萬美元,創下這些產品上線以來的最低水準。根據 SoSoValue 數據,成交量自 11 月下旬 起明顯走弱——當時日成交額還曾多次衝到 323 萬美元+。不過,DOGE 目前仍算有點抗跌:價格一直守在 0.14 美元上方。如果後續能突破並收盤站上 0.18–0.20 美元 這一段強阻力/套牢區,就能進一步確認強勢,打開上行空間,目標區間有望看向 0.24–0.26 美元。來源: DOGEUSD / TradingViewMaxi Doge:高風險高報酬的 Meme 幣押注,交易員正緊盯不放儘管 DeepSeek 等 AI 模型警告 meme 幣市場仍在承壓,但不少交易員已經在為下一輪板塊輪動提前埋伏。在這輪「重置期/洗牌期」裡,一個正在獲得關注的項目是 Maxi Doge——一個受 Dogecoin 啟發的新 meme 代幣,主打純投機敘事、高槓桿文化 和社區動能驅動。Maxi Doge 完全吃透 meme 能量:核心形像是一隻「練成大塊頭、開高槓桿的健身房老哥」Doge,象徵 risk-on 的交易心態。這裡沒有硬凹的「實用性」故事,專案定位很明確——面向懂週期、想在 meme 幣重新回到主流視野前就先拿到早期敞口的交易者。即便在市場相對冷清的階段上線,Maxi Doge 也已經募資超過 429 萬美元,說明在整體 meme 情緒偏弱的背景下,仍然出現了早期需求。代幣分配同樣是賣點之一:大約 40% 的供應量直接給到公開預售,且沒有私募/VC 輪,從而降低了「內幕盤/機構砸盤」帶來的潛在拋壓風險。此外,專案還上線了質押,為早期參與者提供最高約 72% 的年化收益(APY),讓 MAXI 持有人在等待下一波投機浪潮期間也能“邊拿幣邊吃利息”,而不是在震盪整理裡乾等。透過關注 Maxi Doge 官方 X(推特) 和 Telegram 電報群/頻道,隨時取得專案最新動態與公告。如何購買Maxi Doge($MAXI)?按此瀏覽原文免責聲明加密貨幣投資風險高,價格波動大,可能導致資金損失。本文僅供參考,不構成投資建議。請自行研究(DYOR)並謹慎決策。
從DeepSeek到豆包手機助手:中國AI下一程何去何從?
在中國AI發展史上,2025年註定會是里程碑式的一年。1月27日,DeepSeek憑藉發佈僅一周的開源推理大模型DeepSeek-R1,在蘋果應用程式商店中國區和美國區的免費榜上雙雙獲得第一,震驚世界。儘管隨著千問、豆包等大模型的崛起,DeepSeek在很多排名中不再名列前茅,但其貢獻將永載史冊。12月5日,張亞勤教授在人文清華講壇演講時說,DeepSeek在演算法、技術、系統架構上都有創新,它用1%的算力就可以達到和美國前沿大模型相似的能力。“DeepSeek出來之後,咱們和美國的差距可能就從之前的2~3年縮短到2~3個月,而且在有些應用方面,我們可能做得更好”。中國網際網路從1995年左右起步,先後經歷了PC網際網路、移動網際網路和物聯網時代。張亞勤認為,現在進入了智能體網際網路(Internet of Agents)的新時代。所謂智能體(Agent),就是具備自主智能的系統——你只需要給它設定一個目標,它就能自主規劃任務、不斷迭代,甚至自我試錯,最終達成目標。這非常像人類的行為:有個目標,自己就會去規劃路徑,依靠各種記憶和判斷去實現。未來已來。12月1日,字節跳動豆包團隊發佈了“豆包手機助手技術預覽版”,通過和中興通訊努比亞手機合作,展示了一系列驚豔表現——豆包手機助手根據使用者指令,可以在多款App應用之間自動跳轉,完成查票訂票、商品多平台比價下單、定製出行攻略、批次下載檔案等任務,完全自動化執行。智能體網際網路真的來了?毫無疑問,是的。智能體網際網路的“Aha moment”手機助手本身並非新生事物。2011年蘋果就發佈了siri,使用者可通過語音指令完成資訊查詢、電話撥打、消息傳送、裝置尋找等功能。但這樣的助手只能呼叫單個App應用,比如你要它“打開微信”它就給你打開微信。而當你提出一些跨應用、多步驟的複雜指令,如“對比一下淘寶閃購、美團、京東同款麥辣雞翅的價格,選個最低價,下單到指定地址,然後截圖發給指定聯絡人”,又如“下周我要出差,先去北京再去廣州,幫我訂一下機票和酒店,最後生成一張清單”,等等,它就一籌莫展了。這樣的多步驟複雜任務,恰好是豆包手機助手的用武之地。你只要說一聲,它就會在你手機所有的購物App裡搜尋同款商品,對比價格和規格,自動領券,選擇最低價,最後通知你“接管操作完成支付下單”;當你準備出差,它會按你的吩咐,在公司辦公軟體上向經理提交出差申請,然後訂好機票酒店;當你想給女兒推薦幾個禮物放進購物車時,如果你設定開啟的記憶中已儲存有女兒的年齡、興趣等資訊,它可直接查詢符合女兒年齡、偏好的方案,無須你再逐一交代細節……這些前所未有的新體驗,讓豆包手機助手初出茅廬就成為智能體網際網路的一個“Aha moment”,也為2025年的中國AI發展貢獻了一部“收官之作”。一石激起千層浪然而,和年初DeepSeek發佈時贏得的普遍都是掌聲相比,豆包手機助手發佈後,則是一石激起千層浪。有人盛讚,AI操作手機、AI助手一定會遍地開花,我們的生活也會完全離不開它,將來的人們會記住這歷史性的一天;有人評價,豆包和中興通訊做的這件事,是通過跟系統、跟硬體廠深度綁在一起,讓豆包獲得系統級權限,可以橫跨所有App看通知、讀頁面、點按鈕,從一個App升級成手機系統內常駐的大腦,成為作業系統的一部分而不是普通的第三方軟體,這是AI時代的手機新入口;有人擔心,AI手機助手依賴高等級的系統權限,能在執行使用者指令的操作過程中讀取到螢幕內容——包括銀行卡資訊和聊天記錄,會帶來安全隱患;也有一些國民級應用App、金融機構App迅速截停了豆包手機助手,使用者在手機上無法呼叫,或遭遇異常退出、無法再次登錄。更深層次的討論也開始了——若使用者習慣將操作完全交由AI助手代理,各種App都將被“管道化”,以流量分發為核心的網際網路商業模式將會被顛覆;而對手機廠商來說,將從“硬體製造商”變為“AI服務分發商”,其賣點不再是硬體參數的堆積,而是能否接入最強AI能力,提供最豐富和高效的場景服務。豆包手機助手到底是什麼?其實,它是在豆包App的基礎上,和手機廠商在作業系統層面合作的AI助手軟體。目前還只有一款和中興通訊合作的工程樣機,也只面向開發者和科技愛好者少量發售。在官方視訊的結尾,豆包手機助手特別提示,“儘管演示內容均為真實錄製,但受限於大模型技術的不確定性,相關場景無法保證百分百復現。當前產品實際可用性與團隊預期仍有差距,未來仍將持續迭代最佳化”。可見,它還是剛剛起步。但沒想到,發佈當日,中興通訊A股漲停,在行業和社會迅速引起巨大波瀾。在被一些App截停後,豆包手機助手發佈了《關於微信登錄異常的情況》《關於調整AI操作手機能力的說明》等公告,澄清了所謂“未經授權獲取系統權限”的謠言,指出豆包手機助手在努比亞手機上擁有系統級的INJECT_EVENTS權限,所以其相關產品才能跨屏、跨應用模擬點選事件,完成使用者操作手機的任務需求,它也不會代替使用者進行相關授權和敏感操作。關於使用者隱私,豆包手機助手表示,不會在雲端儲存任何使用者螢幕內容。“當使用者給助手指令,要求操作手機時,助手確實需要讀取螢幕,否則無法完成使用者任務,但螢幕和操作過程都不會在伺服器端留下儲存,且所有的相關內容也都不會進入模型訓練,確保使用者隱私安全。”豆包助手再次強調,此次發佈的是“技術預覽版”,是面向行業、AI技術愛好者的探索產品,提示普通消費者謹慎選擇。豆包助手還表示,計畫在接下來的一段時間,在部分場景對AI操作手機的能力做一些規範化調整,如限制刷分、刷激勵的使用場景,進一步限制金融類應用的使用,限制部分遊戲類使用場景等。顯然,豆包手機助手的社會影響大大超出了團隊預想,因此團隊開始採取一種“退”的姿態。退一步,進行調整,並努力和App們以及手機廠商達成共識,找到合作模式。一場技術上的顛覆式創新,開始步入社會化共識與服務規則的形成期,以及新舊利益如何分配的磨合期。但無論如何,因為豆包手機助手的發佈,中國的網際網路服務掀開了新的一頁,即從App主導到智能體驅動。這一頁既已掀開,就不可能再倒回去。為什麼是豆包?豆包手機助手和中興通訊合作的AI手機,顯示出“大模型+手機廠商”的清晰趨勢。在國內,華為、vivo、小米、OPPO、榮耀等手機廠商都在佈局AI智能體賽道,都有自己的AI助手,都在個性化互動、跨應用執行方面探索。大模型初創公司智譜去年10月也曾官宣推出了端側AI智能體,可以訂外賣、訂票、回覆微信,智譜還與三星在AI手機領域達成戰略合作;在國際上,蘋果去年6月發佈了Apple Intelligence,定位為系統級AI助手,但直到iPhone 17系列仍未完全落地。GoogleGemini也在與三星深度合作,強化其語音助手Bixby。大家都在做AI手機助手,為何唯有豆包一鳴驚人,真正讓使用者眼前一亮?單從技術實現路徑看,豆包助手和別的助手採用的都是圖形使用者介面智能體(GUI Agent)技術。該技術通過多模態大模型,即時解析手機螢幕截圖,識別出按鈕、文字、圖示等UI元素,然後呼叫作業系統提供的服務,模擬人的手指動作。只要人在螢幕上可以手動完成的操作,從理論上說,GUI Agent都能代勞。在過去,使用者必須通過手動方式在不同App間切換,才能完成複雜任務。這是因為,如果使用者想讓AI與App互動,App開發者必須主動開放資料和功能介面,而基於安全、商業利益等考慮,App們並不會開放。GUI Agent的邏輯不是請求App們的許可,而是直接模仿人的點選、滑動、輸入等動作,跨應用完成操作。當然,這裡有一個前提,就是與手機作業系統在系統層面深度整合,獲得系統級權限來呼叫各種App。那麼,是不是有了GUI Agent,再加上擁有系統級權限、避免了APP的“玻璃牆”限制,就能做好AI手機助手呢?也不是。否則,手機廠商已經先發先至了。其實,在手機助手跨應用自動執行任務的背後,涉及到多種技術能力,如通過自然語言精準理解使用者的複雜、多步驟指令,將使用者需求拆解成多個子任務,知道呼叫什麼App去執行什麼任務,以及在自動完成操作後根據結果進行反饋調整、持續改善。並不只是獲得系統級權限去呼叫App那麼簡單。AI手機助手的本質,是基於大模型技術,通過模擬人類點選和圖形處理實現智能互動。其關鍵在於預訓練模型的研發,以及在預訓練、後訓練和業務理解這三個環節上是否有突破,有創新。在中國網際網路公司中,字節跳動是對AI技術投入最大、時間最久的之一。除了眾所周知的推薦技術,在大模型之前,字節跳動也在量子化學、AI蛋白質設計等領域有諸多投入。為了發展大模型業務,字節跳動單獨設定了“豆包股”長期激勵,鼓勵內部創新,鼓勵開展有技術高度的創新,以建立壁壘。雖然字節跳動的大模型業務不是全球最早,但轉型迅速,在基礎設施如萬卡叢集訓練等方面投入巨大,且穩定性很好,為技術實現奠定了基礎。豆包手機助手一出生就與眾不同,極大刷新了使用者體驗,和豆包大模型在視覺理解、推理、GUI(圖形介面)識別等方面均處於國際第一梯隊是分不開的。在中國大模型公司中,豆包對“蒸餾”的限制最嚴格,這也避免了依賴他人的模型導致“屋下架屋”、效果受限等問題。“通過模擬人類點選進行圖形處理”,這個概念早就有人提出,並不新鮮,其他手機廠商和App廠商也都在做,但從豆包手機助手的實測和使用看,字節跳動是國內首個從技術能力上能把這一技術真正做到可用程度的企業。當有些廠商還在為“如何讓助手生成更流暢的文字”努力時,豆包手機助手已經能自主絲滑地完成複雜操作,這就是技術優勢所拉開的代際差距。所以,豆包手機助手的超常表現,歸根結底在於技術領域的硬核創新。這和之前DeepSeek在混合專家模型(MoE)架構和多頭潛在注意力機制(MLA)等方面的自主創新頗為相似,都是先站上技術的高地,接著才有出眾的產品。AI手機助手的下一步儘管豆包手機助手展現出了新互動模式的巨大潛力,但它要真正進入千家萬戶,還有很長路要走。除了自身的產品迭代最佳化,以及讓使用者更加放心(比如爭取在不久的將來,在本地端側模型上實現和雲端同樣的效果),它還需要和行業各方有更充分溝通,以共建更清晰、可預期的規則。就眼前遭遇的被一些App封禁的問題,豆包手機助手需要將心比心,和它們坦誠協商,以解決在技術預覽版手機上的使用限制問題。長期而言,則要努力探索合作與分享的具體機制安排。豆包手機助手已明確“無自研手機計畫”,而是希望通過生態合作模式,嵌入不同品牌的手機機型。這是一種開放的態度,將有利於合作的達成。有專家預測,在智能體網際網路時代,有可能形成“使用者付費+廠商分成”的模式:使用者為智能助手的便捷服務支付少量費用,豆包與合作的App廠商按一定比例分配收益;對於免費的App應用,則可通過流量導流、資料共享等方式實現共贏。在這個過程中,最難跨越的關隘,還是現有App生態的流量與利益格局。同時,手機大廠是否願意合作,以何種方式合作,也存在大量博弈空間。可以設想的是,不管豆包手機助手有多麼強大,未來都不可能只有一個AI手機助手。既然是大勢所趨,必然會引來多個參與者。就像電商App,有淘寶,也有拼多多,有京東,有抖音電商,等等。當然,因為手機助手更像“大腦”,使用者在使用、比較之後,大機率會選擇某一個可信賴的助手,長期使用,越用越習慣,而不太可能像電商App一樣,同時使用幾個。騰訊總裁劉熾平在2025Q3財報電話會上表態,微信最終將推出自研AI智能體,讓使用者在微信生態內即可利用AI完成多項任務。當豆包手機助手點亮了一盞燈,一定會帶動和加速更多盞燈亮起來。這對於廣大使用者一定是好事。就此而言,無論怎樣的超級App,都應該避免簡單基於商業競爭的考量,用“一刀切”的方式否定使用者合理使用AI的權利。因為當它們將來要推出手機助手的時候,也會面臨和今天豆包類似的問題。無論最終模式如何,豆包手機助手的創新都值得鼓勵。App時代的“多應用切換”是使用者的痛點,誰能更好地解決這個痛點,誰就會得到使用者的認同。使用者也將成為這場智能化變革的最大受益者。從生成式AI到智能體AI,從移動網際網路到智能體網際網路,從App林立到AI手機助手統籌,豆包手機助手用一個個具象化的場景,讓使用者感受到大模型等技術帶來的便利。它雖然還沒有正式發佈,卻已讓人們看到,智能體AI將徹底改變我們與手機的互動方式,讓科技真正服務於生活本身。人工智慧時代的新黎明正在降臨。不管還有多少挑戰和難題,新質生產力都將穿越,也必將穿越。 (秦朔朋友圈)
估值破兆,1845億梁文鋒和他的DeepSeek近況如何?
“我們不是有意成為一條鯰魚,只是不小心成了一條鯰魚。”在近日公佈的《2025全球獨角獸企業500強報告》中,DeepSeek憑藉1.05兆元的估值,力壓阿里雲、螞蟻集團等一眾企業,成為了僅次於字節跳動的中國第二大、全球第六大獨角獸企業。早在今年初,就有外媒曾預測DeepSeek的估值最高可達1500億美元,雖然DeepSeek目前的收入可能不高,但考慮到其未來增長和研究實力,其值得高估值。回看DeepSeek的出圈之路,對於AI行業來說,DeepSeek頗像一條鯰魚,其用“開源+高性價比”的組合拳,進一步推動了整個行業的快速發展。值得一提的是,年初爆紅出圈後,DeepSeek的月活隨即在一眾國產AIGC App中強勢登頂,但DeepSeek的優勢地位並不穩固,其月活一度被豆包反超。不過,11月中旬,在全球生成式AI工具中,DeepSeek的網路流量份額有所回升。而近日DeepSeek發佈的DeepSeek-V3.2,其推理能力更是達到GPT-5水平,並與Gemini-3.0-Pro接近。事實上,DeepSeek的成功,離不開其創始人梁文鋒的卓越領導。梁文鋒身上濃厚的“極客”屬性,更為DeepSeek賦予了“創新”“技術為先”的獨特基因。得益於DeepSeek超高的估值表現,梁文鋒的身家也隨之暴漲。在此前公佈的《2025新財富雜誌500創富榜》上,梁文鋒首次入榜便以1846.2億元的身家傲居榜單第10位。01估值破兆躋身全球第六大獨角獸據公眾號“全球獨角獸企業500強”消息,12月3日,在2025全球獨角獸企業500強大會上,獨角獸工程院院長、全球獨角獸企業500強大會秘書長解樹江發佈了《2025全球獨角獸企業500強報告》。我們注意到,在該榜單排名前十的企業中,有四家中國企業上榜,它們分別是字節跳動、DeepSeek、阿里雲和螞蟻集團。讓人眼前一亮的是,以大模型研發、智能基礎設施為核心業務的DeepSeek,憑藉高達1.05兆元的估值其躋身全球第六大獨角獸企業。而在中國企業中,其更是成為了僅次於字節跳動的第二大中國獨角獸。▲資料來源/全球獨角獸企業資料庫(Unicorn500)天眼查顯示,DeepSeek關聯的杭州深度求索人工智慧基礎技術研究有限公司,成立於2023年7月。而以黑馬之姿從大模型賽道殺出重圍的AI助手——DeepSeek,則問世於今年1月。換言之,DeepSeek估值破兆,距離其公司正式成立不過短短兩年多時間,甚至其核心產品的推出至今都還未滿一年。事實上,早在今年年初DeepSeek爆火之時,多家外媒就討論過DeepSeek的估值以及其創始人梁文鋒的財富。據彭博社2月消息,根據七位創業公司創始人及人工智慧專家估算,DeepSeek的估值在10億美元到1500億美元以上不等。根據彭博億萬富翁指數,按區間中間值計算,DeepSeek估值在20億美元到300億美元之間,而梁文鋒持有的84%股份價值介於16.8億美元到252億美元,這將使其躍居亞洲最富有科技大亨行列。美國風投公司Glasswing Ventures的創始人Rudina Seseri表示,“即使保守估算,DeepSeek憑藉現有的僅僅幾百萬美元收入就能輕鬆獲得數十億美元的估值,更不用說再考慮未來成長空間了。”加拿大電信公司Sweat Free Telecom的創始人Chanakya Ramdev則更為樂觀,他當時就認為DeepSeek的估值能達到1500億美元。據此估算,梁文鋒持有的股份價值將達到1260億美元。D.A. Davidson分析師Alexander Platt認為,DeepSeek可以說是“目前全球排名前五的人工智慧實驗室”之一,考慮到其強大的研發實力(這些實力未必能轉化為實際收益),其價值應該更高。在今年6月揭曉的《2025新財富雜誌500創富榜》上,憑藉DeepSeek的卓越表現,梁文鋒以1846.2億元的身家首次上榜,且初次亮相其在該榜單上便闖進第10名的高位。02行業競爭愈發激烈月活曾短期出現下滑DeepSeek的爆火始於2025年初。當時,這個一度“出口轉內銷”的AI模型,成了許多國人接觸生成式AI的“初體驗”。據QuestMobile資料,在今年2月的AIGC App行業月活躍使用者規模TOP10榜單中,DeepSeek App好似一匹黑馬,上線次月便勢如破竹,月活躍使用者規模一舉突破1.8億。同時,在DeepSeek大模型的加持下,騰訊元寶、奈米AI搜尋的日活躍使用者規模也顯著提升,躋身TOP5行列。進入3月,DeepSeek繼續保持領先優勢,憑藉1.94億的月活躍使用者數,在AI原生App使用者規模TOP榜中再度稱雄,緊隨其後的是1.16億月活躍使用者的豆包和4164萬月活躍使用者的騰訊元寶。不過,在火爆出圈後,DeepSeek的月活一度出現下滑:今年5月,其月活使用者縮水至1.69億。9月,DeepSeek月活躍使用者規模再度降至1.45億,排名被月活1.72億的豆包反超。事實上,前述變化的背後,是國內AI行業日益白熱化的競爭。豆包、千問背後的網際網路巨頭們,正不斷加大在AI領域的投入,試圖在這片充滿機遇的賽道中搶佔更多份額。其中,此前在大模型新機遇面前一度“掉隊”的字節跳動,近來勢頭十分迅猛。據浙商證券報告,字節跳動2024年在AI上的資本開支高達800億元,接近百度、阿里巴巴和騰訊三巨頭的總和(約1000億元)。浙商證券預測,2025年,字節跳動在AI上的投入預計將翻倍至1500-1600億元,其中900億元用於AI算力卡採購,700億元投向資料中心基礎設施建設及配套硬體。在9月的雲棲大會上,阿里巴巴的掌門人吳泳銘也重申了公司發力AI的決心:阿里正在積極推進三年3800億的AI基礎設施建設計畫,並將會持續追加更大的投入。而放眼國外,美國的AI巨頭們也動作頻頻。據媒體報導,微軟、Google和Meta在第三季度合計投入780億美元用於資本支出,同比增長89%。據悉,其中大部分資金用於建設資料中心,以及採購圖形處理器(GPU)和相關硬體裝置。同時,三家公司還均上調了對未來支出的預測。而Google近期發佈的多模態大模型Gemini 3和圖像生成模型Nano Ba-nana Pro等重磅產品,也吸引了外界無數目光。面對同行發起的猛烈攻勢,DeepSeek也做出了“反擊”。12月1日,DeepSeek同步發佈兩款正式版模型——DeepSeek-V3.2與DeepSeek-V3.2-Speciale。其中,前者在推理測試中達到GPT-5水平,僅略低於Gemini-3.0-Pro,而後者在IMO 2025等四項國際頂級競賽中斬獲金牌。值得注意的是,據資料分析公司Similar Web發佈的最新報告,在全球範圍內,DeepSeek的訪問量正在回暖,在全球生成式AI工具流量佔比中,DeepSeek的份額從10月中旬的3.7%回升至11月中旬的4.2%。03“極客”梁文鋒化身AI賽道“鯰魚”據36kr,多位行業人士和DeepSeek研究員這麼描述梁文鋒——他是當下中國AI界非常罕見的“兼具強大的infra工程能力和模型研究能力,又能調動資源”,擁有“令人恐怖的學習能力”,同時又“完全不像一個老闆,而更像一個極客”。天眼查顯示,梁文鋒是杭州深度求索人工智慧基礎技術研究有限公司的實際控制人,其通過直接、間接形式持有公司約84%的股份。這意味著梁文鋒是這家兆估值AI公司的絕對靈魂,而其身上的“極客”屬性也深深影響著DeepSeek。據公開資料,梁文鋒1985年生於廣東湛江,從小成績便十分優異。2002年,17歲的梁文鋒以吳川一中高考狀元的成績考上浙大本科電子資訊工程專業,之後又繼續攻讀浙大資訊與通訊工程專業研究生。2008年,全球金融危機肆虐,許多人紛紛逃離市場。彼時,還在讀研的梁文鋒看到了隱藏的機遇,開始研究如何使用機器學習等技術探索全自動量化交易。2013年,梁文鋒和浙江大學校友徐進等人創立了以德國數學家卡爾·雅可比命名的投資公司——杭州雅克比投資管理有限公司。兩年後,梁文鋒又創立了幻方量化,致力於通過數學和人工智慧進行量化投資。2016年10月,幻方第一個由深度學習演算法模型生成的股票倉位上線實盤交易,使用GPU進行計算。至2017年底,公司幾乎所有的量化策略都已經採用AI模型計算。2018年,幻方確立以AI為公司的主要發展方向。2019年,幻方AI(幻方人工智慧基礎研究有限公司)註冊成立,致力於AI的演算法與基礎應用研究。同年,幻方量化管理規模突破百億。2020年,總投資近2億元、搭載1100加速卡的“螢火一號”正式投用,為幻方的AI研究提供算力支援。2023年7月,幻方量化宣佈成立大模型公司DeepSeek,正式進軍通用人工智慧領域。次年5月,DeepSeek發佈DeepSeekV2。據悉,DeepSeek V2的開源模型擁有超高性價比:其推理成本被降到每百萬token僅1塊錢,約等於Llama3 70B的七分之一,GPT-4 Turbo的七十分之一。同年12月末,DeepSeek-V3面世。在DeepSeek-V3的定價上,API定價為輸入每百萬tokens 0.5元(快取命中)/2元(快取未命中),輸出每百萬tokens 8元,與字節Doubao-pro-256k定價輸入每百萬tokens 5元,輸出每百萬tokens 9元的水平相當,在國產模型中性價比較高。緊接著,DeepSeek於今年1月正式發佈DeepSeek-R1模型,一經問世便在行業內引發廣泛熱議。憑藉“開源”、“極致性價比”等特色,DeepSeek更是化身為一條鯰魚,攪動著整個AI行業。對此,梁文鋒在與媒體對話時表示,“我們不是有意成為一條鯰魚,只是不小心成了一條鯰魚”。梁文鋒坦言,“沒想到價格讓大家這麼敏感。我們只是按照自己的步調來做事,然後核算成本定價。我們的原則是不貼錢,也不賺取暴利。這個價格也是在成本之上稍微有點利潤。”而對於DeepSeek的全面開源和創新,梁文鋒有自己的理解,“在顛覆性的技術面前,閉源形成的護城河是短暫的。即使OpenAI閉源,也無法阻止被別人趕超。”在梁文鋒看來,把價值沉澱在團隊上,員工在這個過程中得到成長,積累更多經驗和知識,形成可以創新的組織和文化,這才是他們的護城河。在瞬息萬變的AI大戰中,梁文鋒後續能否再創財富新高?我們將持續關注。 (快刀財經)
DeepSeek 與 Google 的暗戰:誰會最先找到通往 AGI 的鑰匙?
自從 2022 年 ChatGPT 3.5 橫空出世,讓世人領略到 AI 的非凡魅力;再到 2024 年底 DeepSeek 驚豔登場,給國人帶來了巨大的驚喜與自信。如今,各類大模型(LLM)及 AI 應用已經深刻地改變了我們的生活。AI 每天都在增強功能。昨天做不到的事,今天已經能做;前天做不好的題,今天已經可以輕鬆解決。我們彷彿回到了蒸汽機投入實用後的那段時間——新技術、新發明以肉眼可見的速度狂飆突進。然而,在這波 AI 浪潮的狂歡背後,科技界仍存爭議:LLM 真的是通往 AGI(通用人工智慧)的正確方向嗎? 或者說,僅靠當前的 LLM 就足夠了嗎?答案其實很清晰:不夠。Transformer 是一次偉大的突破,但要讓機器真正“理解世界”,我們仍需要更多類似 Transformer 等級的全新核心技術。凍結的知識快照不是智能我們知道,當前大模型的訓練方法,本質是讓 Transformer 在大量文字裡尋找“詞與詞的關係”,並基於這些統計關係預測下一個詞。訓練完成後,所有知識都被壓縮排最終的權重檔案裡,像一張凝固的“知識快照”。 但之後它不會自動學習新知識,除非重新訓練或微調。明天產生的新知識無法自動融入,換言之,LLM 本身沒有即時的學習能力。從上面你很快能就發現當前基於LLM的AI的兩個“死穴”:其一,LLM只是一個機率模型,它知道“E=mc²”後面大機率跟著“愛因斯坦”,也知道怎麼用這句話造句,但它不知道這公式是怎麼推匯出來的,也不知道如果光速改變了世界會怎樣。它學到的是知識的“投影”(文字),而不是知識的“本體”(邏輯與因果)。其二,它的知識是靜態的。正因為它沒有一個知識的生產過程,所以它不知道這些知識是如何產生的,為什麼會形成這個知識,這些知識為什麼對,為什麼錯。正如X上有某位大佬所言:“當前 AI 水平離真正的 AGI 還差好幾個 Transformer 等級的創新。” 但遺憾的是,現在還沒有可以取代Transformer的新架構。在這一點上,中美其實“站在同一片荒原上”,未來怎麼走,大家都在摸索。理解知識的積累過程,是智能的前提嗎?回想一下人類的學習方式:從小到大,知識是一點一滴積累的,對同一個知識點的理解也是層層遞進的。相比之下,LLM 生成即“凍結”,缺失了進化的過程,所以它“知道”,但它不“理解”。那麼,將知識的積累過程保留下來,會不會是通往 AGI 的一個方向?如果 AI 能復現人類對某個現象的認識過程,是否就能理解其背後的原理,從而舉一反三?至少,可以將這個認識過程當作一種“元模式”記錄下來,在處理新問題時按部就班地套用。當然,這個觀點也存在爭議。因為許多科學突破是“斷層式”的——先是天才的“靈光一閃”,後人再通過邏輯去填補證據。不過,從人類的普適經驗來看,模擬知識的積累過程,肯定有助於 AI 達到人類智能的平均水準。我們不指望 AI 頓悟成愛因斯坦,但達到專家的水平是完全可期的。這個過程可以從兩個角度來分析一是知識的層級性,高階知識依賴並建立在前導知識(基礎概念、技能)之上。比如說,一個人學習流體力學前,需掌握微積分與線性代數。二是學習的漸進性,對具體知識的理解和記憶,是一個從模糊、具體到清晰、抽象的動態過程。對於個人來說,對新概念的掌握,會從最初的生硬記憶,逐漸內化為可靈活運用的直覺。Google的思考:結構化與記憶針對第一個維度(層級性),Google 試圖將模型的知識結構化為不同時間尺度、相互巢狀的層級,提出了“巢狀學習”(Nested Learning)與記憶框架。(參見論文:https://abehrouz.github.io/files/NL.pdf)。“巢狀學習”的核心是將一個複雜的AI模型,視為一系列相互巢狀的最佳化問題。簡單來說,模型的不同部分可以像人的不同記憶一樣,以不同的“速度”學習和更新。簡單舉例,一般的LLM訓練,對於一個文字來說,可以理解成一個平面,從上而下,流式分佈。然後訓練過程相當於找出每個字之間的關係機率,因為處理窗口的關係,如果算到了後面的內容,往往與前面的文字關係就小了,計算時用的權重也就低了。如同一篇小說,即使作者費盡心機在結尾時回應了開頭處的一個梗,填了開始的一個坑,對於AI來說,也是拋媚眼給瞎子看。AI早就忘記了。而Google的巢狀學習,則是對同一篇文章,除正常的訓練方式外,還對文章先在不同的層次上進行預處理。比如先做一個文章梗概,先過一遍文章,把所有作者預埋的“坑”提取出來……,這樣一篇文字就變成了n篇不同維度文字,然後在訓練時,這些文字都參與訓練,可以平行處理,只是訓練參數和訓練方法不同。能根據性質選擇不同精度和速度的計算,而且訓練出的成果是可以疊加的,不再是單一固定的權重檔案。上面的圖就是一個例子,左邊是普通的深度學習訓練過程,而右邊則是巢狀學習的例子,你能看出對於同一個內容,根據進行多次訓練,只是廣度和精度各不相同。此外,Google 的 ReasoningBank 記憶框架(相關論文:https://arxiv.org/abs/2509.25140 )則更進一步。它的思路是讓AI智能體從以往的成功與失敗經驗中,主動提煉出結構化的“記憶項”。每個“記憶項”包含策略標題、描述和推理內容,本質上是對低級經驗的抽象總結。當面對新任務時,AI會檢索並應用這些抽象原則來指導行動,這模擬了人類專家運用已有知識框架去解決新問題的過程。DeepSeek的嘗試:多維感知與自驗證推理針對第二個維度(漸進性),DeepSeek 在感知與推理兩個層面都展現了對人類思維模式的深度模擬。首先在視覺感知層面,以 DeepSeek-OCR 為例,他們採用了一種獨特的“多解析度訓練”思路:不僅僅是對圖像進行簡單的向量化,而是試圖模擬人類的視覺認知過程——即 “從模糊到清晰” 的動態掃描。對同一張圖片(場景),模型會同時學習其低解析度的宏觀輪廓與高解析度的微觀細節(相關技術細節可參看此前的公眾號文章)。這種策略暗合了人類大腦處理視覺資訊的生物學模式:先建立全域印象,再填充局部細節。不僅在感知上發力,DeepSeek 更試圖在推理層面重現人類的“反思”能力。DeepSeek 不僅在基礎大模型上發力,向各個專家模型演進(如 DeepSeekMath-V2),更在某些領域嘗試模擬人類的“記憶狀態”。在 2025 年 11 月 27 日剛剛發佈的 DeepSeekMath-V2(論文:https://arxiv.org/pdf/2511.22570 )中,DeepSeek 引入了突破性的 “自驗證”(Self-Verification) 機制。這相當於讓 AI 進化出了“自我監考”的能力。傳統的模型像是一個只顧填答題卡的考生,只在乎最終答案是否命中;而 DeepSeekMath-V2 則像是一個嚴格的老師,它不僅檢查答案的對錯,更會一步步審視 解題過程(Process) 的邏輯鏈條。通過這種方式,模型不再是“蒙”對了一個答案,而是真正確信自己“理解”了這道題。這種從“結果導向”向“過程導向”的轉變,是 AI 邁向深度邏輯推理的關鍵一步。DeepSeek 的“自驗證”機制構成了一個自我完善的智能閉環:它不僅能評估解題過程,更能主動生成推理步驟並對其驗證。這模仿了人類的元認知與自我學習能力。古人倡導“吾日三省吾身”,而 AI 則可實現瞬時、高頻的自我審視與迭代最佳化。如下圖(論文中的附圖)所示,隨著驗證次數(最高達7次)的增加,模型解決問題的能力顯著提升,充分體現了通過“反覆自學”實現能力進化的潛力。雖然上述分別列舉了兩家公司的例子,但在技術演進的洪流中,它們並非孤立存在。Google 的巢狀學習涉及不同清晰度資料的處理,而 DeepSeek 的多專家系統(MoE)及多層次資料訓練,本質上也是在對知識進行結構化拆解。結尾:AGI的未來方向,也許正在悄悄顯現從 Google 到 DeepSeek,我們正在看到一個趨勢越來越明確:真正的智能,不是更大的模型,而是更“結構化”的學習過程。未來的 AI,可能會具備:能分層理解知識結構的能力能保持多時間尺度記憶的能力能自主總結“經驗規則”的能力能在模糊與清晰之間漸進切換的能力能記錄“知識的進化史”而不是只記錄結論這些能力加在一起,不是“下一代更大的 Transformer”,而是:一種能夠像人一樣“成長”的架構。我們或許距離 AGI 仍有數個重要突破,但路徑正在變得越來越清晰:不是簡單堆算力、堆資料,而是讓模型獲得“理解知識如何生成”的能力。或許,真正的智能不是一夜之間的奇蹟,而是一次又一次讓機器“重走人類認知之路”的漫長積累。而現在,我們正在走在這條路的最前面。 (亍雲旁觀)
開源和閉源模型的差距在拉大:這是 DeepSeek 論文揭示的殘酷真相
12月2日,DeepSeek 發佈了 V3.2 技術報告。在這篇論文裡,他們做了一件罕見的事:明確指出開源大模型與閉源模型的性能差距不是在縮小,而是在擴大。這是基於大量實測資料的冷靜判斷。差距正在拉大,這是事實2024年,當 DeepSeek、Qwen、GLM 等開源模型接連發佈時,社區充滿樂觀情緒。"8個月時間差"的說法廣為流傳,許多人相信開源正在追上閉源。但進入2025年,情況發生了變化。DeepSeek 在論文引言部分直言不諱地寫道:“過去幾個月出現了明顯的分化。雖然開源社區持續進步,但閉源專有模型的性能提升速度顯著更快。結果是,兩者的差距非但沒有縮小,反而在擴大,閉源系統在複雜任務上展現出越來越強的優勢。”這個觀察有資料支撐。論文對比了 DeepSeek V3.2 與 GPT-5、Gemini 3.0 Pro 在多個基準測試上的表現。在 MMLU-Pro(多學科知識測試)中,DeepSeek V3.2 得分 85.0,GPT-5 是 87.5,而 Gemini 3.0 Pro 達到了 90.1。在 GPQA Diamond(研究生等級科學問題)測試中,三者的得分分別是 82.4、85.7 和 91.9。更明顯的差距體現在 HLE(Human Last Exam,極難的文字推理測試)中。DeepSeek V3.2 的得分是 25.1,GPT-5 是 26.3,而 Gemini 3.0 Pro 高達 37.7——這個差距已經不是"接近"能形容的了。值得注意的是,DeepSeek V3.2 已經是目前最強的開源模型,在大部分開源模型的對比中都處於領先位置。但即便如此,它與頂級閉源模型之間仍然存在明顯差距,尤其是在需要深度推理和複雜任務處理的場景中。差距為何在拉大?三個結構性問題論文通過系統分析,識別出限制開源模型在複雜任務上能力的三個關鍵缺陷。這些不是表面問題,而是深層次的結構性困境。第一個問題在於架構層面。開源模型普遍依賴傳統的 vanilla attention 機制,這種機制在處理長序列時效率極低。論文指出,這種架構上的依賴"嚴重限制了長序列的效率,對可擴展部署和有效的後訓練構成了實質性障礙"。當閉源模型已經在探索更高效的注意力機制時,開源模型還在用五年前的技術架構,這本身就是一個巨大的劣勢。第二個問題是資源投入的鴻溝,尤其體現在後訓練階段。後訓練是讓模型從"會說話"變成"會思考"的關鍵環節,需要通過強化學習讓模型學會推理、工具使用和遵循複雜指令。論文透露,DeepSeek V3.2 的後訓練計算預算超過了預訓練成本的 10%。要知道,預訓練本身就是天價投入,而大部分開源模型的後訓練預算可能連 1% 都不到。這種資源投入上的差距,直接導致了性能上的代際差異。第三個問題是 AI Agent 能力的滯後。在真實應用場景中,開源模型的泛化能力和指令理解能力明顯落後。論文引用了三個關鍵的 Agent 測評基準:在 MCP-Mark 中,DeepSeek V3.2 得分 45.9,Gemini 3.0 Pro 是 51.0;在 MCP-Universe 中,前者是 80.3,後者是 87.9;在 Tool-Decathlon 中,差距更加明顯。這些數字背後反映的是開源模型在複雜多輪互動、工具呼叫、長期規劃等場景下的能力不足。論文總結道:"開源模型在泛化能力和指令跟隨能力方面展現出明顯滯後,這阻礙了它們在實際部署中的有效性。"這是一個誠實且殘酷的判斷。DeepSeek 的應對:技術路線的根本性改變認識到問題後,DeepSeek 沒有選擇簡單地堆砌參數或增加資料量,而是在三個核心維度上進行了根本性的技術創新。在架構層面,DeepSeek 引入了 DSA(DeepSeek Sparse Attention)機制。傳統注意力機制的計算複雜度是 O(L²),序列長度翻倍,計算量就要翻四倍。DSA 通過"閃電索引器"(Lightning Indexer)快速計算每個 token 的重要性評分,然後只選擇 top-k 個最重要的 token 參與注意力計算(論文中 k=2048),將複雜度從 O(L²) 降至 O(L×k)。這個改進不僅僅是理論上的最佳化。論文通過實測資料表明,在 128K 上下文長度下,DSA 大幅降低了推理成本,而性能幾乎沒有損失。更令人意外的是,在 AA-LCR(長文字推理基準)和 Fiction.liveBench(小說理解測試)中,V3.2 的表現甚至優於使用傳統注意力機制的 V3.1。這證明 DSA 不僅更快,在某些場景下質量還更好。在資源投入層面,DeepSeek 做出了超常規的決定。論文明確寫道:"近幾個月來,性能提升與擴展的 RL 訓練預算持續相關,該預算已超過預訓練成本的 10%。"這個數字在開源界極為罕見。具體來說,DeepSeek 為數學、程式設計、推理、Agent 等六大領域分別訓練了專家模型,每個都單獨進行大規模強化學習訓練。在持續預訓練階段,模型經歷了 943.7B tokens 的訓練(在 128K 上下文長度下),然後採用 GRPO(Group Relative Policy Optimization)演算法進行混合訓練,整合推理、Agent 和人類對齊三類任務。在 Agent 能力強化方面,DeepSeek 開發了系統化的任務合成流程。他們合成了超過 1800 個多樣化環境和 85,000 條複雜提示,涵蓋各種真實場景。具體包括 24,667 個程式碼 Agent 任務、50,275 個搜尋 Agent 任務、4,417 個通用 Agent 任務和 5,908 個程式碼直譯器任務。這些合成資料不是隨機生成的,而是通過冷啟動階段學習推理與工具使用的統一模式,然後在規模化階段系統地生成高品質訓練場景。效果是顯著的。在 Agent 相關的測試中,DeepSeek V3.2 顯著縮小了與閉源模型的差距,在 MCP-Universe 上達到了 80.3% 的成功率,雖然仍低於 Gemini 的 87.9%,但已經是開源模型中的最佳表現。論文總結說:“DeepSeek V3.2 成為 Agent 場景中極具成本效益的選擇,顯著縮小了開源與前沿閉源模型之間的性能差距。”論文最後寫了一句耐人尋味的話:"如果 Gemini 3.0 證明了持續擴展預訓練的潛力,DeepSeek V3.2-Speciale 則證明了在大規模上下文環境中強化學習的可擴展性。"言下之意很明顯:閉源巨頭有資源堆預訓練,但開源可以找到自己的路——通過更高效的架構和更科學的後訓練,用更少的資源實現接近的效果。這或許是開源 AI 唯一的生存之道:不是硬碰硬拚資源,而是拼技術路線的創新。至少在這一次,DeepSeek 證明了這條路是走得通的。 (矽星人Pro)