#Deepseek
DeepSeek 元旦扔出王炸!CEO 梁文鋒親自署名,要動 AI 用了 10 年的“承重牆”?
DeepSeek 又扔了個王炸。本來準備躺平過節(嗯,是真的躺著了),結果睜眼發現一篇新論文 mHC(流形約束超連接)突然刷屏。我看了一眼作者列表,直接“垂死病中驚坐起”——最後一位赫然寫著:Wenfeng Liang(梁文鋒)。圖:DeepSeek CEO 梁文鋒署名熟悉 DeepSeek 的都知道,這位 CEO 極少在技術論文上親自署名。老闆親自掛帥,還選在新年第一天發,說明這事兒絕對不簡單。讀完我才發現,他們這次竟然要革深度學習祖師爺 ResNet 的命。聽起來很狂?但我研究了一下原理,發現這幫人是真有東西。01|從何愷明的“神來之筆”說起要看懂 DeepSeek 的操作,我們得先回看一眼歷史。2016年,大神何愷明(Kaiming He) 團隊提出了 ResNet,徹底解決了深層網路訓練不動的難題。其中的核心設計叫“恆等對應”。圖:何愷明,深度殘差網路(ResNet)的主要發明者打個比方,這就像在迷宮裡修了一條“直通車道”。訊號可以無腦地從這一層傳到下一層,不被中間商賺差價。正是因為有了這條路,今天的 ChatGPT、DeepSeek 這些結構極深的龐然大物才跑得起來。但問題是,對於現在胃口越來越大的模型來說,這一條“單車道”漸漸不夠用了。於是,學術界搞出了一個叫 HC(Hyper-Connections,超連接) 的東西。(主要來自字節跳動 2024 年發表的論文)HC 的想法很美好:既然單車道不夠,那我就擴建成多車道唄!它把殘差流變寬(n倍),讓資訊在不同車道間亂竄、混合,以此來提升模型的能力。圖:三代架構進化史:(a) 是經典的“單車道” ResNet; (b) 是路修寬了但沒紅綠燈的 HC(容易撞車); (c) 是 DeepSeek 加了“交通管制”的 mHC。但問題來了,這一擴建,出事了。原來的 ResNet 是“直通車”,很穩。現在的 HC 變成了“無紅綠燈的超級路口”。論文裡的資料特別嚇人:在 HC 的架構下,訊號在網路裡傳著傳著,就會因為缺乏管束而瘋狂膨脹。看原論文裡的資料,HC 的訊號增益幅度峰值直接幹到了 3000!(下圖右側)圖:HC 的訊號增益幅度峰值直接幹到了 3000這意味著啥?意味著訊號被放大了 3000 倍。這就像早高峰的十字路口沒有紅綠燈,車全撞在一塊了,這就是典型的“訊號爆炸”。結果就是:模型訓練極其不穩定,錯誤率(Loss) 說炸就炸,根本沒法在大規模模型上用。02|DeepSeek 的解法:數學暴力美學面對這種“車禍現場”,一般人的思路可能是:“那我就少修兩條路吧。”但 DeepSeek 的思路是:路我要修,但我要請一個懂數學的交警。這就是 mHC(流形約束超連接)的核心邏輯。他們發現,只要把那些負責指揮交通的矩陣,強行按在一個叫“雙隨機矩陣”的數學規則裡,問題就解決了。別被這個數學名詞嚇跑,它的原理其實也挺簡單,就像“能量守恆定律”:不管你在路口怎麼變道、怎麼混合,進來的流量總和,必須嚴格等於出去的流量總和。既不允許車子憑空消失(訊號衰減),也不允許憑空變出車來(訊號爆炸)。為了做到這一點,DeepSeek 用了一個叫 Sinkhorn-Knopp 的演算法,像是給矩陣戴上了“緊箍咒”。不管這矩陣原來長啥樣,經過這個演算法一處理,它就必須變得老老實實,行和列的加和都得等於1。這就很漂亮了。它保留了多車道互聯帶來的資訊豐富度(性能提升),又把訊號嚴格限制在了一個安全的範圍內(穩定性),完美致敬了何愷明當年追求的“恆等對應”精神。03. 效果怎麼樣?直接看療效理論吹得再好,還得看實驗。還記得剛才說 HC 的訊號增益飆到了 3000 嗎?用了 mHC 之後,這個數字被死死按在了 1.6 左右。從 3000 到 1.6,這是直接降低了三個數量級!這也直接體現在了訓練曲線上:穩如老狗: mHC 的訓練 Loss 曲線(藍線)極其平滑,跟基線模型幾乎一樣穩。圖:mHC 的訓練 Loss 曲線極其平滑性能更強: 在 27B 參數的模型上,mHC 不僅穩,效果還比標準版更好。特別是在比較難的 BBH(邏輯推理)和 DROP 任務上,提升非常明顯。圖:在 27B 參數的模型上,mHC 不僅穩,效果還比標準版更好。04. 不止是數學,更是工程上的“摳門”讀 DeepSeek 的論文,你永遠能感覺到他們那種“把算力榨乾到最後一滴”的執著。因為把路修寬,本來是一件非常費視訊記憶體、費時間的事。如果不做最佳化,記憶體訪問成本(I/O)會增加好幾倍,這誰受得了?所以 mHC 不僅僅是一個數學創新,還是一套工程最佳化方案。算子融合(Kernel Fusion): 他們手寫了底層的 Kernel,把好幾步計算合併成一步,減少 GPU 讀寫記憶體的次數。重計算(Recomputing): 為了省視訊記憶體,他們選擇在反向傳播時重新計算中間結果,而不是一直存著。通訊重疊: 利用 DualPipe 策略,把額外的通訊時間“藏”在計算時間裡。結果就是:在擴展率為 4 的情況下,mHC 帶來的額外訓練時間開銷,僅僅只有 6.7%。用極小的代價,換來了模型性能和穩定性的雙重提升。這種“又好又省”的風格,確實很 DeepSeek。寫在最後說實話,每次讀 DeepSeek 的論文都讓人挺佩服的,不是那些牛逼的技術,而是他們“死磕底層”的態度。特別是在現在,大家都忙著卷應用、卷 Agents 的時候,他們願意回過頭去修補 AI 的“地基”。ResNet 已經統治了深度學習這麼多年,大家都覺得它是完美的。但 mHC 告訴我們:只要你不迷信權威,那怕是地基,也有重修的可能。mHC 這種架構,或許不會馬上改變你的生活,但它可能會讓下一代的 DeepSeek、GPT 跑得更穩、更快。 (AI范兒)
DeepSeek新年第一天硬核論文上線:Transformer殘差連接迎來十年來最大升級「梁文鋒署名」
自大神何愷明的ResNet誕生以來,“殘差連接”(Residual Connection)就已成為深度學習架構的基石,貫穿了從摺積網路到如今大行其道的Transformer。這一簡潔的設計通過“恆等對應”(identity mapping)特性,保證了資訊在深層網路中的穩定傳遞,有效緩解了梯度消失問題然而,十年來,儘管殘差連接內部的計算模組(如注意力、FFN)日新月異,其“A+B”式的拓撲結構本身卻鮮有變化。最近,一項名為 超連接(Hyper-Connections, HC) 的研究試圖打破這一常規。通過將單通道的殘差流擴展為多通道,並引入可學習的連接模式,HC在不顯著增加計算量(FLOPs)的前提下,提升了模型的拓撲複雜度和性能潛力。但這種自由度的提升也帶來了一把雙刃劍:不受約束的連接方式從根本上破壞了殘差連接賴以成功的恆等對應屬性。這導致了嚴重的訓練不穩定、模型難以擴展,並帶來了巨大的記憶體訪問開銷,限制了其在真實大規模訓練中的應用。現在DeepSeek的研究團隊提出了一個全新的解決方案:流形約束超連接(Manifold-Constrained Hyper-Connections, mHC)。核心思路是把 Transformer 裡原本只有一條“殘差高速路”的結構,升級成多條平行通道,讓每一層都能在通道之間重新分配資訊,並用“雙隨機矩陣”約束,避免梯度爆炸或消失。更重要的是,團隊通過一系列嚴謹的底層架構最佳化,使其在真實的大規模訓練中高效可行實驗證明,mHC不僅解決了HC的訓練穩定性問題,還表現出更強的性能和擴展性,為基礎模型的架構設計提供了新的思路。論文名稱:mHC: Manifold-Constrained Hyper-Connections論文地址:arXiv:2512.24880v1超連接要理解mHC的創新,我們首先需要回顧一下殘差連接的演進。1. 標準殘差連接 (a)其結構可以表示為 x_l+1 = x_l + F(x_l,w_l。x_l是輸入,F是計算層(如Transformer Block)。核心在於x_l這一項,它確保了無論F如何變化,總有一條“高速公路”能讓資訊無損地從淺層傳遞到深層。當把這個公式遞迴展開時,深層特徵x_L總是包含了淺層特徵x_l的原始資訊2. 超連接 (HC) (b)HC將殘差流的維度從C擴展到了n x C,相當於建立了n條平行的殘差“車道”。同時,它引入了三個可學習的矩陣來控制資訊流動:H_pre: 從n條車道中“讀出”資訊,匯聚後送入計算層F。H_post: 將計算層F的輸出“寫入”回n條車道。H_res: 在n條車道之間直接進行資訊互動和更新。初步消融實驗表明,在三個矩陣中,負責殘差流內部資訊交換的H_res對性能提升的貢獻最大。然而,問題也恰恰出在這個H_res上。由於H_res是一個不受約束的可學習矩陣,當網路層數加深時,訊號在殘差流中的傳播由多個H_res矩陣的連乘(Π H_res)決定。這個連乘積會嚴重偏離恆等矩陣,導致訊號在傳播過程中被無限放大或衰減,最終造成訓練崩潰27B模型的實驗資料清晰地揭示了這一問題。與mHC相比,HC的損失在訓練約12k步時出現了異常飆升。其梯度范數也極不穩定。進一步分析訊號傳播的增益幅度(Amax Gain Magnitude),可以發現HC的復合對應(多層H_res連乘)增益峰值達到了驚人的3000,而理想值應為1。這證實了殘差流中存在嚴重的訊號爆炸除了數值不穩定,HC還帶來了巨大的系統開銷。擴寬的殘差流(n倍寬度)意味著記憶體讀寫(I/O)成本急劇增加,這在現代GPU架構中是主要的性能瓶頸。此外,在流水線平行訓練中,通訊開銷也增加了n倍,嚴重影響訓練效率。mHC:用“流形約束”馴服超連接為瞭解決上述挑戰,DeepSeek-AI團隊提出了mHC框架,其核心思想是:對H_res施加流形約束。具體來說,mHC將H_res約束為一個雙隨機矩陣這是一種特殊的非負矩陣,其每行之和與每列之和均為1。這種約束帶來了三個關鍵的理論優勢:保范性:雙隨機矩陣的譜范數有界(小於等於1),這意味著對應是非擴張的,從根本上杜絕了梯度爆炸的風險。復合閉包性:兩個雙隨機矩陣的乘積仍然是雙隨機矩陣。這保證了無論網路多深,Π H_res的復合對應始終保持穩定。幾何解釋:所有n x n雙隨機矩陣構成的集合是一個“伯克霍夫多面體”(Birkhoff Polytope),它是所有n x n置換矩陣的凸包。這意味著H_res的作用可以被看作是不同流之間特徵的一種“柔性”置換和融合。為了實現這一約束,mHC採用了經典的Sinkhorn-Knopp演算法。該演算法通過對矩陣進行交替的行、列歸一化迭代,可以有效地將任意一個正矩陣投影到雙隨機矩陣流形上。對於H_pre和H_post,mHC也施加了非負性約束,以防止正負係數的組合導致訊號抵消。高效的系統工程實現一個好的架構思想,離不開高效的工程實現。為了讓mHC能夠在大規模訓練中真正落地,研究團隊進行了三項關鍵的底層最佳化:1. Kernel Fusion(核函數融合)針對mHC引入的額外操作(如RMSNorm、矩陣變換、啟動函數等)會帶來大量小規模、高延遲的GPU Kernel呼叫和記憶體讀寫,團隊開發了高度最佳化的融合核函數。例如,將多個對共享資料進行的操作合併到一個CUDA Kernel中,並利用TileLang等工具高效開發,極大地減少了記憶體頻寬瓶頸和Kernel啟動開銷。2. Recomputing(重計算)擴寬的殘差流會佔用大量視訊記憶體來儲存中間啟動值,以備反向傳播使用。為緩解這一問題,mHC採用了一種選擇性的重計算策略。在前向傳播後,只保留每個重計算塊的初始輸入x_l0,而塊內的其他中間啟動值則被丟棄。在反向傳播時,利用已儲存的x_l0即時重新計算這些值。團隊還推匯出了最優重計算塊大小的公式,以最小化總視訊記憶體佔用3. Overlapping Communication in DualPipe(在DualPipe中重疊通訊)在大規模流水線平行訓練中,mHC引入的通訊和重計算開銷可能阻塞訓練流程。團隊擴展了現有的DualPipe調度策略,通過設定高優先順序計算流和解耦重計算與通訊依賴,實現了計算、通訊和重計算的深度重疊,最大限度地隱藏了額外開銷。通過這一系列最佳化,mHC(當n=4時)帶來的額外訓練時間開銷被控制在了 6.7% 以內,使其成為一個既強大又實用的架構。實驗效果:穩定、高效、可擴展團隊在3B、9B和27B等不同規模的MoE模型上,對基線模型、HC和mHC進行了全面的對比實驗。穩定性驗證27B模型訓練過程中的損失差距和梯度范數。mHC成功地解決了HC的訓練不穩定性,最終取得了比基線模型低0.021的損失。其梯度范數曲線也與基線模型一樣平滑穩定對訊號傳播的分析也證實了mHC的有效性。其單層和復合對應的增益幅度都穩定在1附近(最大約1.6),相比HC的~3000,穩定性提升了三個數量級HC中出現大量絕對值很大的元素,而mHC的矩陣則非常穩定,接近於一個柔性的置換。下游任務性能在涵蓋了常識推理、程式碼、數學等多個領域的8個下游基準測試中,27B的mHC模型性能全面領先。它不僅顯著優於基線模型,並且在大多數任務上超越了原始的HC模型。特別是在BBH和DROP等考驗推理能力的任務上,mHC相比HC分別取得了2.1%和2.3%的提升擴展性分析擴展性是衡量一個架構是否有潛力的關鍵。計算擴展曲線顯示,從3B到27B模型,mHC相較於基線模型的性能優勢一直穩定保持。Token擴展曲線則展示了在單次訓練中,mHC的優勢隨著訓練的進行而持續存在這些結果共同證明,mHC是一個在各種規模下都穩定有效、且具備良好擴展性的架構設計寫在最後deepseek 這項工作指出了超連接(HC)在擴展殘差連接範式時,因破壞恆等對應而導致的內在不穩定性。通過引入流形約束超連接(mHC),研究團隊成功地將訊號傳播轉化為一種穩定的凸組合,恢復了訓練的穩定性與可擴展性。更重要的是,通過精細的系統級最佳化,mHC在實現了性能提升的同時,保持了極低的計算開銷mHC框架的提出,不僅為超連接這一新興方向提供了實用的解決方案,也為宏觀架構設計開闢了新的可能性。未來,研究人員可以探索除雙隨機矩陣外的其他流形約束,以適應不同的學習目標,在模型的可塑性與穩定性之間找到更優的平衡點。這項工作或許將重新激發社區對網路拓撲結構設計的興趣。總的來說,本文的真正亮點並非在於證明超連接能夠大規模運行,而在於:DeepSeek擁有內部能力,可以圍繞高度實驗性的研究理念,在各個層面(核心、記憶體管理、節點間通訊)重構整個訓練環境 (AI寒武紀)
2025年AI十大事件:DeepSeek開源炸場,Google絕地反擊,獨角獸扎堆IPO
卡帕西還點讚了AI Coding。智東西12月31日消息,昨晚,外媒The Information做了2025年度AI十大關鍵事件總結,細數了DeepSeek開源引爆整個大模型產業、Google強勢回歸、Meta優勢不再及小扎狂挖人等產業發展的重要節點。今年開年,DeepSeek攜開源模型炸場,一舉驚動全球。隨著DeepSeek的應用實踐,強化學習引起了行業內關注。今年,OpenAI在AI聊天機器人市場的領先優勢已大幅縮小,與此同時,Google強勢回歸,正帶著Gemini 3.0迎頭趕上;Meta則處於失寵的境地,花式挖人、巨額投資均未見成效。今年,AI應用開始實現真實營收,有超過25家AI應用創企實現了至少1億美元(約合人民幣6.99億元)的年化收入。晶片廠商、雲廠商與AI公司們形成了利益共同體,“循環融資交易”(circular funding deals)可能是AI熱潮中延續性最強的趨勢之一。此外,國外的OpenAI、Anthropic以及國內的智譜、MiniMax等AI獨角獸都將目光瞄準了IPO。The Information提到,在即將到來的2026年,以下事件值得重點關注:AI應用能否實現盈利,Google能否維持復甦態勢以及機器人和持續學習能力瓶頸能否突破,此外,Meta也正準備在明年發佈新的文字、圖像和視訊模型。值得一提的是,前特斯拉AI總監、OpenAI聯合創始人安德烈·卡帕西(Andrej Karpathy)對大模型的態度,尤其是在程式設計能力上,從表示懷疑發生了180度急轉,卡帕西稱:“如果能將過去一年左右出現的工具有效整合,我的工作效率可能提升十倍。”站在一年的末尾回望這一年,以下關於2025年AI的十大關鍵事件令人難忘:01. DeepSeek突襲Meta巨額投資AI,Google找回節奏1、一月的DeepSeek時刻2025年剛剛拉開帷幕,DeepSeek拋出重磅開源炸彈,宣佈開源DeepSeek-R1模型,並聲稱其性能足以比肩甚至超越OpenAI、Anthropic和Meta的頂尖AI模型,同時訓練成本卻低得多。一時間,矽谷驚呼四起,認為AI開發者、風投機構、輝達乃至雲服務提供商都將面臨巨大衝擊,驚呼中國已在AI競賽中超越美國。無論DeepSeek後續發展如何,這一事件已然動搖了許多開發者對美國AI技術的絕對信心,而國內開源模型持續受到歡迎和關注,也真切地證明了其在AI領域有著不容小覷的競爭實力。2、強化學習的興起強化學習(RL,Reinforcement Learning)正隨著DeepSeek的應用實踐,在AI行業的其他領域迅速流行開來。該技術的核心在於,通過獎勵模型達成特定目標、懲罰其他行為的方式來訓練模型。此後,包括程式設計、製作Excel表格乃至提供醫療建議在內的多種任務中,各大主流AI實驗室紛紛開始借助RL技術提升模型表現。這一趨勢還推動了RL環境(RL environments)的興起,即為AI模型建立可模擬真實應用的副本環境,供其練習與學習。例如,Anthropic的負責人就曾提到,公司計畫在未來一年中投入高達100億美元(約合人民幣698.72億元),用於開發和建構此類RL環境。3、AI應用開始實現真實營收過去一年,業內始終存在一個核心疑問:除了AI模型企業、雲服務提供商和輝達之外,是否還有其他企業能夠真正從AI中獲利?今年,答案似乎逐漸明朗。據The Information報導,目前有超過25家AI應用創企實現了至少1億美元(約合人民幣6.99億元)的年化收入,這絕不是小數目,2026年的問題將會是,這些公司中是否有能實現盈利的。4、Meta的失寵對Meta而言,2025年是艱難的一年。四月,Meta發佈的Llama 4模型在開發者社區中反響平平;隨後在六月,Meta創始人兼首席執行長馬克·祖克柏(Mark Zuckerberg)開啟挖人大戰,向AI資料標註創企Scale AI投資143億美元(約合人民幣999.17億元),以聘請其首席執行長汪滔(Alexandr Wang)及其核心團隊,以重整公司的AI業務佈局。然而這筆巨額投資至今未見明顯成效。自此之後,Meta新組建的AI團隊僅推出了一款令人失望的AI視訊應用Vibes,隨之而來的則是內部數次重組與人才持續流失。有報導稱,Meta正準備在明年發佈新的文字、圖像和視訊模型。5、Google的強勢回歸自2022年被OpenAI推出的ChatGPT突襲而一度措手不及,並在此後多年被貼上“AI落後者”標籤的Google,終於在2025年找回了自己的節奏。今年,公司接連推出一系列備受市場好評的模型,並於11月壓軸發佈了廣受讚譽的Gemini 3.0。這一模型在程式碼生成領域取得突破性進展,成為首批突破預訓練縮放瓶頸的例證之一。Gemini 3.0觸動了OpenAI,在這一模型發佈後,OpenAI首席執行長薩姆·阿爾特曼(Sam Altman)迅速宣佈公司進入“紅色警戒”狀態。儘管目前Gemini聊天機器人在使用者規模上仍顯著落後於ChatGPT,但它正在迎頭趕上。2026年,Google能否延續這一復甦態勢,將會是行業關注的重點。02. OpenAI、Anthropic瞄準上市機器人、AI持續學習能力存疑6、AI資金進入循環如果一家AI實驗室未能從微軟、輝達或亞馬遜這類巨頭獲得資金,用於支付向其採購晶片與算力的費用,那麼它的經營模式恐怕需要重新審視了。“循環融資交易”可能是AI熱潮中延續性最強的趨勢之一,其源頭甚至能追溯至2019年微軟對OpenAI的首輪融資。對於OpenAI、Anthropic這類創企而言,這已成為一種高效的融資手段,能直接支撐它們最大的開支項:計算資源。7、川普成為AI產業的盟友自今年年初上任以來,美國總統唐納德·約翰·川普(Donald John Trump)推行了一系列被視為對AI產業利多的政策舉措,例如,簽署行政命令限制各州對AI的監管權限,加速資料中心建設的審批流程等。考慮到眾多科技公司此前投入大量時間與資金進行政治鋪墊,此類政策傾斜並不令人意外。不過,Anthropic等公司對川普政府採取了相對謹慎的態度。8、AI機器人發展不及預期去年,風險投資家們向機器人初創公司注資數十億美元,這些公司當時宣稱大模型將幫助他們開發出真正實用的機器人。然而這一願景至今未能實現,甚至許多機器人仍在犯基礎性錯誤。此外,AI機器人似乎仍需要人類遠端操控,如近期特斯拉Optimus機器人在摔倒前做出“摘頭顯”動作,挪威人形機器人公司1X Technologies推出的家務機器人Neo也需要遠端操作員人工輔助。9、AI持續學習能力存疑儘管AI實驗室已創造數百億美元的收入,但頂尖研究人員對現有技術能否通向通用人工智慧(AGI)的疑慮卻日益加深。OpenAI聯合創始人、前首席科學家伊利亞·蘇茨克弗(Ilya Sutskever)稱,要實現真正的AGI,AI必須像人類一樣,能夠從現實經驗中持續、即時地學習,也就是持續學習的能力。這類AI目前尚未成為現實,但幾乎可以斷言,每個AI實驗室都已在此方向上展開佈局。倘若持續學習技術最終取得突破,其影響將輻射至整個AI產業,由於這類方法對資料和算力的需求可能遠低於當前模型,長期以來依賴算力擴張的行業生態或將面臨重構,這對輝達等算力巨頭而言,恐怕不是一個好消息。10、各大AI創企紛紛準備上市2025年,OpenAI、Anthropic與xAI等AI創企仍以令人矚目的高估值持續融資。近期,OpenAI和Anthropic相繼釋放訊號,正積極籌備在未來幾年內推動上市;與此同時,今年12月,智譜和MiniMax先後通過港交所聆訊並遞交招股書。它們的上市意願背後存在清晰的商業邏輯:作為資本密集型的行業代表,它們希望借助當前市場對AI類股的樂觀情緒,打通可持續的融資管道。如果它們上市成功,可能為個人投資者提供從AI浪潮中受益的機會,當然,也須同時承擔泡沫可能破裂所帶來的風險。03. AI大牛卡帕西評價模型程式設計能力稱工作效率能提升10倍此外,以下是其他正在發生的事情,對於大模型的能力,卡帕西的態度在今年發生了180度大轉彎。去年10月,卡帕西曾公開批評當前的大模型,尤其指出它們在程式碼生成這類被高度宣傳的場景中實用性有限。他在一次播客訪談中提到,AI程式設計工具只能在他需要自動補全單行程式碼或編寫範本程式碼時才有效。不過,情況似乎已悄然改變。上周,卡帕西在社交平台X上發表了截然不同的看法:“‘軟體工程’這個職業正在被重構,程式設計師編寫的程式碼片段正變得越來越少且處於輔助地位。”他進一步感慨:“我有種強烈的預感,如果能將過去一年左右出現的工具有效整合,我的工作效率可能提升十倍;而如果沒有這一工作,簡直像是一種能力缺失。”雖然不清楚卡帕西具體所指的程式設計工具或模型是那一款,不過,他曾發文對Anthropic的AI程式設計工具Claude Code讚不絕口。卡帕西特別提到,Anthropic於11月推出的旗艦模型Opus 4.5及近期其他新模型,在程式碼生成能力上取得了巨大進步。04. 結語:從2025到2026:迎接AI行業的持續變革今天是2025年的最後一天,這一年,技術狂飆從未停歇,我們目睹了DeepSeek突襲矽谷、Gemini 3的反擊;也見證了Meta略帶沮喪的一年、AI機器人能力不及預期的問題。2025年,全球AI競賽打得火熱。2026年的帷幕即將拉開,關於AI技術本質、AGI等終極問題的討論仍在持續進行中,以OpenAI、Anthropic為代表的AI公司背後的高估值和狂歡,能否平穩上市扶搖而上,抑或難逃泡沫破裂的結局,這些有待2026年乃至更久之後驗證。來源:The Information (智東西)
澤平宏觀—輝達之路:四次進化與AI未來
摘要“抓住風口”並非簡單的運氣,而是技術在長期積累後達到奇點,並與市場需求爆發形成的共振。輝達完美詮釋了這一規律。自ChatGPT問世後,其股價上漲10倍以上。在人工智慧的數千家企業中,輝達之所以能一騎絕塵,源於其在早期逆境中形成的深刻憂患意識、扁平化的高效管理文化,以及通過全端模式形成的強大市場心智。這使其在AI時代的浪潮中歷經四次關鍵進化,牢牢抓住了機遇。第一次進化始於2008年金融危機,在巨大的經營壓力和質疑下,力排眾議投入研發CUDA。這建構了輝達最核心的護城河,為其日後成為AI生態基石奠定了基礎。第二次進化以2012年AlexNet模型的成功為標誌,輝達敏銳地捕捉到GPU在AI訓練中的巨大潛力,果斷“All in AI”。第三次進化由2022年ChatGPT的發佈引爆,大模型領域的算力需求呈指數級增長,輝達成為這場“算力軍備競賽”中獨家的“賣鏟人”。第四次進化發生在2025年初,DeepSeek等低成本、高效率AI模型的出現一度引發市場對輝達邏輯的質疑。然而,訓練成本的降低反而促進了AI的普及和部署,最終擴大了對算力的總需求。解讀輝達的崛起之路,是為了尋找大牛股的底層邏輯:唯有那些能參透技術本質、勇於開拓市場、擁抱科技進步的企業,才能立於浪潮之巔。在AI時代,中國力量——國產替代與產業鏈自主化正成為中國市場的核心趨勢。建立獨立自主、安全可控的國產算力體系已成為必然選擇,以華為昇騰等為代表的核心晶片層正在突破,同時帶動了從高規格晶圓代工到AI伺服器等整個配套產業鏈的重構。未來,具身智能、AI超級應用以及由AI賦能的醫藥等領域科研是潛力最大的三大領域。1 為什麼是輝達?2024年6月18日,輝達市值超越微軟成為全球市值最高公司。2025年7月28日,輝達成為第一家市值超4.3兆美元公司,自1999年IPO以來復合年均增長率超過37%。輝達的成功和人工智慧密不可分,但AI產業上下游企業千余家,為什麼跑出來的是輝達?許多投資者認為輝達勝在技術。從技術的角度看,AI訓練投入資源越多效果就會更強,這是大模型發展的定律Scaling Law(縮放定律),而要支撐起海量的運算就離不開算力。輝達恰好是世界上最大的GPU廠家和算力硬體裝置供應商。但另一方面,顯示卡並非輝達獨有。ChatGPT爆發後自研算力晶片也成趨勢,特斯拉(Tesla)一直在推進 D1 晶片和 Dojo 超算平台的研發, Google的 TPU(張量處理單元)在 AI 訓練領域是輝達最強勁的競爭對手之一,許多大型模型(包括Google自己的 Gemini)都是在 TPU 上訓練。這樣看來,輝達的技術優勢只是成功的結果,但不是成功的核心。輝達的成功和一個人的成功一樣,除了技能一流,更關鍵是具備一些獨特的“品質”。在經營哲學上,輝達極為強調憂患意識。由於險些在30天內破產的早期經歷,“被對手超越只是瞬息之間”,這樣的意識促使員工無法安於現狀,CEO也不斷自我鞭策和學習,避免陷入“創新者窘境”。在管理上,輝達非常扁平化。這確保了員工在自己的工作上有極大的自主權和獨立性,但同時,CEO又以最嚴格、最快速、和最高品質的標準要求員工,強調每個人都追求極致,展現出超人的努力和韌性。輝達的市場策略和蘋果相似,重視客戶的心智建設,採用“全端”銷售模式,最佳化配套的各方面來提升體驗。輝達深知低成本競爭對手是最大威脅,因此從高端旗艦到中低端衍生產品全部覆蓋,防止競爭對手復刻輝達的翻身之路,以“老黃刀法”的精準定價鎖住市場需求。輝達獨特的經營哲學、管理文化、市場策略將其打造成一艘“堅船”,在時代的浪潮中,輝達歷經四次進化,牢牢把握住了人工智慧革命兆市場的機遇。2 輝達的四次進化大多投資者瞭解到輝達這家公司是在2022年ChatGPT興起之初,其股價一路高歌在三年內登上三兆美元。如果將投資視角拉長,站在價值增長的角度看,輝達嶄露頭角則可以追溯到2008年,一共經歷了四次“進化”。通過復盤其四大歷史性投資機遇,輝達為我們詮釋了價值演變的黃金法則。2.1 金融危機價值窪地,CUDA技術穿越周期2008年11月,輝達的投資者迎來了“最黑暗”的時刻,股價跌破6美元,在一年內下跌近80%。彼時正值美國次貸危機爆發,市場處於極度恐慌,輝達這類科技股作為高風險資產被大量拋售。對於輝達而言,雖然財務上最艱難的時期已經度過,台積電也與輝達聯手,但還面臨著兩大新的危機。一是美國次貸危機演變為全球金融危機,抑制了消費者對高端電子產品的需求,輝達的營收端面臨未知的挑戰。真正讓輝達倍感壓力的是一項名為CUDA的新任務,2007年6月輝達發佈第一款CUDA程式設計模型,隨後投入了大量資源,成本端的壓力增加,三年內毛利率下降了10%,大多數投資者也轉向悲觀,股價一路下行。而輝達低谷期研發的CUDA,也正好是今天造就輝達帝國最核心的壁壘。CUDA全稱“統一計算裝置架構”,能夠讓GPU進行圖形以外的計算。1999年輝達推出了世界上首款GPU(圖形處理器),彼時的CPU(中央處理器)承擔了複雜的核心計算任務,而GPU只用於電腦圖形渲染。2002年,輝達的一位客戶另闢蹊徑,將氣象領域的問題通過程式設計“翻譯”成GPU可以理解的語言,再用GPU強大的平行計算能力模擬了氣象變化。這便是早期基於GPU的通用計算,採用軟體拓展GPU的能力邊界,讓GPU不再侷限於圖形計算,而是可以用於其他複雜領域的模擬。輝達看到了這種嘗試的潛力,並聘用了這位客戶,進一步開發了讓GPU更容易訪問非圖形應用的程式設計軟體,將其命名為CUDA。CUDA的出現讓圖形程式設計之外的領域也能最大程度利用GPU——比如科研、金融、工程領域用GPU高效運算CPU難以獨立完成的任務,由此GPU具備瞭解決現實世界問題的潛力。當時輝達面臨兩種選擇:一是讓CUDA聚焦於服務高端科學和技術的工作站,他們的需求是清晰存在的,且價格承受能力也高,CUDA為公司帶來盈利的路徑明朗。二是讓CUDA對所有人可用,這樣做的風險極大,不僅是提供軟體支援的成本會驟增,還有定價過高導致的付費意願降低、市場需求不清晰等多種因素都可能讓輝達血本無歸。2006年,在GPU計算市場幾乎是零的背景下,CEO黃仁勳確立了“將CUDA技術推向所有領域,成為基礎性技術”的方針。推行該計畫的成本巨大。同年11月推出的G80晶片為了支援CUDA功能,研發成本佔到了輝達研發總預算的1/3,開發周期比以往晶片多出了三倍,而這還只是一款產品。G80發佈後華爾街幾乎一致認為輝達誤判了市場,走上了不歸路。在巨大的壓力下,輝達從零開拓起新市場,在時代助力和自身的堅持下完成了CUDA三步走變革。第一步,輝達早期先和高校達成特定捐贈的合作,提供顯示卡和財務支援來換取學校支援GPU程式設計教學,預先培養了輝達的潛在使用者和未來的開發者生態。第二步,在學術界建立起CUDA的灘頭陣地後,輝達繼續推動CUDA在消費市場的普及,老本行——電腦遊戲。個人電腦的興起和遊戲行業爆發讓GPU的通用能力嶄露頭角,從越來越逼真的物理現象、到光影細節的表現、複雜粒子效果等,遊戲消費升級的需求和複雜科研的演算法原理不謀而合,CUDA在消費級市場迎來了用武之地。第三步是2012年的深度學習革命,AlexNet團隊用四塊輝達GPU訓練的AI模型擊敗了16,000塊CPU訓練的Google貓,轟動學術界的同時,也標誌著歷時三十年的深度學習“冰河期”結束,人工智慧研究復甦,而輝達GPU和CUDA軟體也成了AI工作者的不二之選。截至今日,CUDA生態已有超過500萬開發者,服務於全球85%以上的資料中心,90%的AI框架基於CUDA開發,95%的AI訓練任務依賴CUDA工具鏈。誕生於20年前的CUDA儘管面臨巨大的市場壓力和投資者質疑,但先發優勢讓輝達打造了成功的第一印象,使用者黏性快速形成、並呈指數級增長。開發者一旦依賴CUDA工具鏈平台,遷移成本極高,從而形成輝達的核心護城河。2007-2009年的下跌構成了輝達投資的最佳窪地,但少有投資者抓住這一波機會,一方面是對金融危機的恐慌,另一方面是忽視了這家上市9年卻“業績平平”的科技公司正在推動的技術變革。輝達在CUDA技術上的堅持可謂最重要的決策,CUDA不僅是輝達的護城河,稱其為AI發展的生態基石也不為過。2.2 深度學習復興,輝達打造AI引擎輝達並非“天生贏家”,黃仁勳意識到AI機遇來自一場偶然。1956年達特茅斯會議首次提出人工智慧概念,但在經歷短暫的黃金期後發展陷入停滯。1982年,約翰·霍普菲爾德提出新的深度學習網路,可以模擬人類的學習、記憶和資訊處理方式,但卻受限於當時的算力條件,AI發展再次進入冰河期。直到20年後,深度學習和輝達走向交集,AI發展迎來了轉折點。2012年,傑佛瑞·辛頓牽頭訓練的AlexNet模型打破了第三屆電腦視覺挑戰賽記錄。挑戰賽規則很簡單,參賽團隊訓練的視覺識別模型要對來自資料庫隨機輸入的圖片進行分類。前兩屆的冠軍精準率不到75%,而AlexNet模型精準率高達84%,比第二名“Google貓”高出近十個點,後者是實力雄厚的Google團隊投入16,000塊CPU訓練的大規模神經網路,而前者只有三個人和四張輝達遊戲顯示卡。這一顛覆式的結果震動了AI界,讓沉寂20年的深度學習領域逐漸復甦。AlexNet的勝出帶來了三項影響後世的改變:一是產業界掀起了人工智慧的技術競賽,AI進入提速發展期。科技大廠Google、微軟、百度、DeepMind圍繞傑佛瑞·辛頓教授團隊展開競標。辛頓加入Google,剩下三家也擴大AI研究陣容。辛頓團隊中的一位學生伊利亞更是成為了後來OpenAI的首席技術官和ChatGPT的締造者。二是算力在AI三要素中脫穎而出,GPU成為了算力代名詞。2007年前,深度學習普遍認為演算法越優秀結果越準確,而李飛飛團隊提出了資料集是訓練關鍵,並贊助了電腦視覺挑戰賽。辛頓團隊在此之上驗證了GPU高效運算能讓精準率再上一個高度,GPU掀起了AI革命浪潮。三是輝達走上“All in AI”,專注於支援AI發展。AlexNet的成功是輝達的最好的商業宣傳,GPU從此和人工智慧訓練深度繫結。黃仁勳和辛頓團隊多次交談後認為GPU驅動深度學習的潛力巨大,雖然多位核心高管認為AI前景不明、反對大力投入,但黃仁勳力排眾議,促成輝達轉向全面支援AI研究。股價方面,輝達在AI領域的先登也被一些投資者敏銳地捕捉到,2012~2015年底輝達股價從14.3美元到33美元,復合年均增長率達到24.18%,同期標普500回報率是12.84%,納斯達克綜指是17.8%。三年翻倍的股價在美股並不算是大新聞,許多投資者會就此滿足,畢竟AlexNet的影響力還只是在AI圈內,輝達的真正潛力還未被市場發掘。2016年3月,AlphaGo以4:1的成績擊敗李世石,標誌著人類最後的棋類運動被AI攻克。對於許多人而言,這也是AI首次進入大眾視野。AlphaGo由Google旗下的DeepMind團隊開發,是深度學習復甦後的劃時代產物。此前,IBM的“深藍”超級電腦在1997年擊敗國際象棋冠軍,其算力相當於每秒110億次的計算能力,而AlphaGo的算力是前者的三萬倍,達到每秒3.386千兆次。賦予AlphaGo跨時代算力的正是280塊輝達GPU。深度學習訓練幾乎完全依賴GPU,再加上CUDA生態和硬體性能的極高壁壘,輝達成為毋庸置疑的AI算力領導者。人工智慧前景明朗、加密貨幣的興起、遊戲市場的繁榮,三重利多因素使得輝達股價在2016年迎來了首次大爆發。從1月的33美元漲到292美元僅用時兩年半,即便2018年10月加密貨幣泡沫破滅,輝達新款顯示卡的定價過高導致股價回呼,結果看,投資輝達的收益仍十分可觀,年化回報率達92.5%,三年漲幅達到540%。2.3 ChatGPT橫空出世,大模型領域需求爆發人工智慧的機遇是意識到AI大模型的通用潛能及其對算力的海量需求。而捕捉到這一投資機遇,就是挖掘輝達的估值根本從一家遊戲顯示卡龍頭轉變為“AI淘金獨家賣鏟人”的時刻。2022年3月,輝達發佈了革命性的Hopper架構(H100 GPU)和Ada Lovelace架構(RTX 40系列),用於AI訓練和遊戲的顯示卡性能都實現了飛躍。但這沒能阻止投資者繼續拋售輝達,由於加密貨幣暴跌和遊戲市場疲軟,年初至9月,輝達的跌幅達到62.8%。誰也不會想到,兩個月後輝達的估值邏輯將徹底改變,促成科技股載入史冊的投資機會。同年11月30日,OpenAI發佈了世上第一款大語言模型ChatGPT。這是人們可以用到的第一款聊天AI,和6年前的AlphaGo相比,前者只是下棋的演算法,而後者更像是具有智慧的個體。僅一年時間,ChatGPT的每周活躍使用者(WAU)就達到1億人,達到2億又用了9個月,到2024年12月,ChatGPT的周活躍使用者已經有3億人。OpenAI是AI浪潮的主角,但市場很快發現輝達才是最大贏家。輝達股價一路反彈,率創新高,一年漲幅達到246.73%。相比之下,OpenAI最大出資方——微軟的股價在這段時間上漲僅為65.14%。這是因為,ChatGPT成功的核心在於大規模訓練。它基於的3.0版本參數量高達1750億,是2019年GPT2.0的110多倍,進行如此大規模訓練需要足夠的算力支援。分析師測算下來OpenAI訓練用了至少一萬塊輝達A100顯示卡。ChatGPT打開了前景廣闊的AI藍海,一方面是上千家初創公司加入戰局,另一方面是科技大廠鞏固陣地,一場“算力軍備競賽”不可避免。2023年,輝達H100全球出貨規模達到500億美元,微軟、Meta、Google、亞馬遜、甲骨文、特斯拉、沙烏地阿拉伯主權基金、CoreWeave採購佔比超80%。2024年,AI算力競賽升級,科技巨頭以近乎不計成本的方式加大投入,輝達新的BlackWell架構一上市就得到微軟、Meta、Google價值百億級訂單。據測算,輝達全年H100/H200出貨量約400萬張,A100等其他產品出貨月200萬張,BlackWell架構因良率低出貨僅10萬張,台積電將80%產能分配給輝達而市場仍供不應求。只是提供“鏟子”還不夠,輝達全方位精準把控了市場需求。在ChatGPT發佈的三年前,黃仁勳就預見了人工智慧發展下資料中心負載和性能提升的巨大需求。2019年3月,輝達以69億美元收購了網路互聯裝置市場第一梯隊公司邁絡思。四年後,數以千計的AI公司加入大模型領域,它們不僅需要輝達顯示卡,還離不開邁絡思的InfiniBnad技術來高效地拓展計算能力。在 2024-2025 年,輝達成功將其護城河從單一的‘計算晶片’延伸到了‘叢集連接’。當成千上萬顆 GPU 協同工作時,通訊效率成為了系統的真瓶頸。通過 NVLink 和 InfiniBand 這種‘卡與卡、櫃與櫃’的超強連接,輝達實際上定義了‘叢集即電腦’(Cluster as a Computer)的行業標準,使得競爭對手即便能造出單顆性能相近的晶片,也無法在萬卡叢集的效率上與其抗衡。AI訓練的需求爆發讓輝達估值邏輯徹底轉變,抓住這一投資機遇的關鍵節點在2023年初。2022年12月,市場起初對ChatGPT維持將信將疑的態度,在發佈後的45天內,輝達漲幅僅25%,還經歷了25%的最大回撤。但在2023年1月底,形勢開始反轉,輝達發佈2023財年業績(2022年),其智算業務收入首次超過了遊戲顯示卡成為第一大營收來源,達到150億美元,這意味著ChatGPT發佈前智算訂單就大幅增長,外部AI需求前景已經明朗,而輝達作為GPU領域龍頭,未來業績極有可能迎來爆發。果然,2023年,輝達營收同比增長125.85%,2024年同比增長114.2%,營收突破1300億美元。在市場主力猶豫時,勇於買入輝達的投資者也收穫了驚人的回報,兩年內,輝達的股價上漲925.24%,年化收益率達到205.63%。2.4 DeepSeek衝擊估值回呼,產業擴容再創新高2024年末,輝達被買成了全球最受歡迎的公司,不僅市值超越微軟成為第一,兩年來的總成交額也達到14.13兆美元,相當於同年的日本、德國、英國、法國GDP之和。市值屢創新高的同時,輝達面對的質疑也越來越多,主要來自三方面:一是輝達業績高速增長的可持續性存疑。2023到2024年,主要科技大廠都完成算力基建部署,2025年之後訂單實現翻倍式增長很難。二是輝達的技術壁壘可能在鬆動。算力軍備競賽也掀起了自研AI晶片的趨勢,輝達的市場份額可能在未來被後發者蠶食。三是輝達估值的整體想像空間或已見頂。從常規的企業發展周期來看,“成功者困境”無法避免,許多龍頭企業在到達巔峰後都面臨著成長困境,輝達的進步空間似乎不多了。2025年1月20日,DeepSeek R1模型開源,引發美國科技股震動,一度跌去一兆美元。其中,輝達股價跌去近17%,市值蒸發近6000億美元,創下美股史上最大單日市值下跌紀錄。DeepSeek的出現似乎印證了投資者對輝達的質疑。為何市場擔心這會撼動輝達的市場根基?DeepSeek出現前算力是第一要素。AI能力的提高依賴於參數量的增加,而更大參數量的訓練則需要匹配的算力規模。在2023~2024年,AI巨頭通過堆算力來堆大模型性能,形成了“打造比GPT更好的AI等同於比OpenAI有更多算力”的共識,比如,馬斯克為了xAI彎道超車,建構了全球最大的20萬張GPU算力群。DeepSeek跨越了算力壁壘,實踐了以低成本達成高效率的全新架構。其V3模型與GPT-4o和Llama-3.1表現不相上下;而R1模型達到了ChatGPT-o1級的表現,但訓練成卻僅相當於後者的十分之一。DeepSeek在GPU數量和質量上都落後於美國企業,卻通過演算法最佳化、架構創新打造了實力相當的模型,顛覆了“AI訓練必依賴強大算力”的認知。這場AI訓練變革削弱了算力的重要性。當AI訓練不再需要高成本、大規模的算力投入,輝達GPU需求預期減少,資本市場也快速改變了對輝達的估值,在歷史高點的輝達股價十分脆弱。“擊敗”輝達的不是業績減速,也不是更先進的GPU,而是AI訓練的變革,但變革自身也在發展中變化。舊的壁壘被瓦解,新的藍海在湧現。從長期維度看,DeepSeek出現是對輝達的一次空前利多。一是訓練變革會帶來AI部署降本,市場總量擴容。AI的訓練成本下降會在短期內造成上游的營收下降,但也意味著AI部署和使用成本同步下降,更多的廠商加入賽道,促進AI技術迭代。同時,更多使用者能以低成本使用AI服務,訪問增加推動需求總量增加,加速AI商業化和大規模普及處理程序,這是產業生態迎來爆發的前兆。二是訓練變革只是降低現階段成本,無法提高上限。DeepSeek模型在性能和當代主流模型不相上下,但沒有突破現有邊界。換言之,“再造一個GPT”對算力的需求大幅下降,但超越GPT在根本上還是離不開更強大的算力支援。因此,那些希望掌握行業主導權的AI科技巨頭對輝達GPU的需求依然會穩定增長。事實也確實如此,DeepSeek的火爆後,雲端和本地部署需求激增,推理服務的火爆引發了對輝達GPU的更大需求。同時,科技巨頭一邊效仿DeepSeek開源和最佳化,另一邊卻並未停止算力軍備競賽。DeepSeek 的邏輯在於:它證明了‘重演算法、輕訓練’的可行性,這標誌著 AI 產業正式從‘算力密集型訓練階段’轉向‘規模化推理應用階段’。雖然單次訓練成本降低了,但隨著 AI Agent(智能體)和超級應用的普及,全社會對推理算力的總需求量呈幾何級數增長。輝達通過推出專為推理最佳化的晶片和軟體棧(如 TensorRT-LLM),精準吃掉了這一增量市場。市場對輝達的判斷很快迎來反轉。2025年1~4月輝達跌去18.9%,5~7月反彈漲幅達到64.13%,市值突破了2024年底來到4.3兆美元,超過特斯拉、AMD、英特爾和帕蘭提爾四家市值的總和。輝達的這次逆境反轉是重要的一課:投資是動態的過程,對行業和公司投資邏輯的推導不能停留在短期事件的後果上。2025年初,許多分析師將DeepSeek描述成輝達的“掘墓人”,但卻忽視了訓練效率的提升是行業進化的催化劑,輝達從估值瓦解到登上新高不過半年。3 AI浪潮:未來十年有那些機會?3.1 AI時代的關鍵能力AI在許多領域的工作效率已經遠超人類,直覺上,人工智慧似乎必定會勝任各種職業和場景,逐漸取代人類。事實上,淘汰與否的關鍵在於“主動價值原則”:一個人產出價值的過程越主動,意味著自主決策佔比高、思考多、創造性強,越難以被新工具所替代。歷史上,雖然每次技術進步的方向不同,但無一例外都遵循這一原則。第一次工業革命,船伕被蒸汽機替代,但舵手卻保留了下來。即便在今天,舵手也無法被AI取代,AI可以協助觀測等任務,但決策核心仍在船長(首席舵手)手中。技術革命中,最容易被淘汰的是價值創造被動的人。在AI時代,價值創造被動的人無法主導決策,使用AI越多就會越依賴AI系統,逐漸失去自主思考能力。而那先原本就擅長思考、創新、自主判斷的人,只會因為使用AI變得思維更迅捷、效率更高。黃仁勳本人也分享:他用AI不是讓AI替自己思考,而是用AI教會他新東西。這也引出了一項AI時代的重要能力——提問和引導的能力。人和AI互動靠的是幾行提示語、提問句還有後續的引導詞。雖然AI能快速寫文案、做視訊、編程式碼,但產出的質量高低完全取決於人的水平。同樣一類AI畫作,在業餘愛好者和專業畫師的提示詞下生成的作品差距極大,AI實際上是折射了不同人的想像力和對藝術理解深度。換言之,人要擁抱“建構想法的創造力”,放下“把事情做出來的能力”。AI時代,人們要更多的閱讀、學習技能、深度思考,以此拓寬創造力邊界。因為向AI提要求,本質上也是對自身能力深淺的檢驗。比如,AI程式設計的出現讓一些初級程式設計師如獲至寶,但隨即而來的是面臨失業。與此同時,成熟的軟體工程師卻在新鮮感後抱怨AI程式設計的“愚蠢”,因為AI程式設計的能力十分基礎,遠達不到成熟開發的要求。由此可見,AI篩選的不是崗位,而是人。同一崗位、同一工作,也存在價值創造的主動和被動之分。有的人主動學習,提升自己,參透了規律和本質,善於向AI提問,充分發揮AI的效率優勢。還有的被動依賴AI投喂答案,缺乏自主思考,雖然短期產出提升,但也終將被淘汰。在瞬息萬變的AI時代,投資者抓住風口的核心也是在於學習,否則只會在時代的篩選中退場。3.2 國產替代和產業鏈自主化潛力對於晶片這個特殊行業,必須注重外部供應的特殊性和產業本土化安全性權衡。比如美方或通過試圖在出口晶片中加入“追蹤定位”和“遠端關閉”等功能,這未來對資料安全是一種威脅。另一方面,H20確實作為“特供版”晶片,有性能被削弱的問題,從技術和經濟效益角度看,無法支撐中國兆級大模型訓練的長遠需求。這雙重壓力共同將一條路清晰地擺在了所有中國科技企業和投資者的面前:建立獨立自主、安全可控的國產算力體系。這也正是未來幾年中國最重要的產業趨勢和投資機遇。機會一:國產替代國產替代已是在中國晶片領域的“必答題”。這不僅是政策驅動,更是市場求生的內在需求。圍繞國產晶片的生態正在加速形成:比如在核心晶片層,以華為昇騰、寒武紀、海光資訊等為代表的ASIC和GPU廠商,正在從不同技術路線進行突破。特別是華為昇騰910B在部分場景下據稱已達到輝達A100的80%性能,並正通過全端的軟硬體生態CANN、MindSpore等建構護城河。在配套產業鏈方方面,從中芯國際的晶圓代工,浪潮資訊的AI伺服器,到兆易創新等的儲存環節,整個產業鏈條正在圍繞國產核心進行重構。關注國產替代,就是要尋找那些技術領先、生態建構能力強、且已經獲得頭部廠商驗證的。機會二:尋找“下一個輝達”必須客觀認識到,輝達的護城河不僅僅是一塊GPU晶片,而是其耗費十餘年心血打造的CUDA生態系統。全球絕大多數AI開發者、深度學習框架如TensorFlow, PyTorch都深度繫結CUDA。這是一個贏者通吃的網路效應。中國公司想要突圍,不能僅僅是硬體性能的追趕,更關鍵在於軟體生態的建構。目前來看,華為昇騰是中國最有可能率先突圍的。正建構從底層硬體、晶片使能、AI框架到應用使能的全端解決方案。通過與國內高校、科研機構和企業的合作,昇騰正在努力擴大其“朋友圈”,培養開發者習慣,這是追趕CUDA生態最現實的路徑。在後摩爾定律時代,通過Chiplet芯粒結構、存內計算等新架構創新,有可能在特定領域實現對傳統GPU架構的性能超越。這是技術驅動型的顛覆機會。尋找“下一個輝達”的邏輯,要求具備更長遠的眼光和對技術生態更深刻的理解。3.3 AI潛力最大的三大領域從第一性原理來出發:人工智慧是資料驅動的機率關聯,目標是完成對自然法則和因果規律的掌握。理論上AI適用於所有行業和領域。但在不同領域存在落地先後之分。將AI應用潛力最大的領域分為三大類:一是具身智能,讓AI擁有感知世界能力的路線。從多模態大模型、到自動駕駛、人形機器人和無人機等,賦予AI物理形態和感知學習能力的具身智能會加速落地。長期看,具身智能的商業化鋪開需要多方面技術進步來實現,主要是資料訓練演算法的周期長、硬體成本高、工程設計的難度大。當下智能駕駛的技術離成熟應用最接近,在監管適配的過程中大規模普及只是時間問題。人形機器人在2025年概念火熱,但受限於續航、靈巧手、環境資料等因素還難以滿足大規模落地條件。二是超級應用,在C端開啟新互動革命,在B端打造高效率工具。比如,消費電子端的AI眼鏡、AI手機、AI PC等升級成為互動載體。在此基礎上,AI Agent、AI作圖、AI助力等原生AI應用構成AI生態,AI功能融入日常生活。在B端也賦能專業領域,AI教育上實現遠端教學,AI醫療輔助手術,工程領域協助設計搭建等,比如B端AI賦能的半導體設計行業。晶片工程師在AI的幫助下可以僅用高級抽象概念來設計和模擬晶片。三是AI科研,解決傳統科研處理程序中的瓶頸。相比於傳統科研,AI在探索廣度、計算深度、實驗速度、跨學科能力四個方面都更強,因此在科研上極具優勢。比如AI用於對環境要求嚴苛的氣象領域,研究耗時長的分子領域;成本高、涉及跨學科多的生物醫學、以及人類還在攻堅的量子系統領域。黃仁勳也曾在2023年預測數字生物學是未來方向。AI使得人類可以首次對生物學進行數位化設計,科學界可以更深入地模擬生物系統的結構,開發非自然形成的新分子結構和蛋白質藥物。此外,AI上游的關聯產業也充滿機遇。比如半導體製造,中國的自主化處理程序在加快,而國際上先進製程也在2025年迎來了2nm突破,新一輪半導體革命未來可期。再比如能源領域,全球資料中心增長正面臨供需錯配問題,一方面擴大綠電體系建設為AI基建保駕護航,同時提高能源利用率,降低能耗成為共識。輝達的崛起是一場長達 20 年的“非對稱競爭”的勝利——用全端的軟體生態鎖死硬體競爭,用極度的憂患意識跑贏摩爾定律。在大航海時代,財富流向了擁有指南針和堅船的一方;在 AI 時代,財富正流向那些能定義算力標準、並不斷突破自然科學邊界的企業。對於我們,國產替代不是為了重複造輪子,而是為了在新的技術高地上,拿回屬於我們的數字主權。 (澤平宏觀展望)
150家上榜!中國獨角獸霸屏全球500強,AI賽道成最大增長引擎
近日,中國獨角獸企業研究機構獨角獸工程院聯合中國人民大學、清華大學重磅發佈《2025年世界獨角獸企業500強榜單》,這份聚焦全球高價值新興企業的權威排名,再次印證了中國新經濟的強勁活力——中國共有150家企業成功上榜,以12.83兆元人民幣的總估值穩居全球第二,僅次於美國的224家,而人工智慧賽道的爆發式增長,成為中國獨角獸突圍的核心推力。01全球獨角獸版圖中美領跑,總估值飆升30.7%獨角獸企業,作為估值超10億美元(約70億元人民幣)、成立時間較短的高成長性新興企業,是衡量一個國家或地區創新活力與產業潛力的核心指標。本次上榜的500家全球獨角獸,總估值同比大幅增長30.7%,達到39.14兆元人民幣,彰顯了全球新經濟領域的旺盛生命力。從國家與地區分佈來看,中美兩國依然佔據絕對主導地位:美國以224家企業、18.97兆元估值蟬聯第一;中國則憑藉150家企業、12.83兆元估值牢牢鎖定第二,兩國合計上榜數量佔全球500強的74.8%,總估值佔比超76%,形成了全球獨角獸市場“雙雄並立”的格局。這種格局背後,是兩國在新興產業賽道上的持續投入與創新突破,也折射出全球新經濟發展的核心動力來源。02中國4強躋身全球TOP10硬核實力閃耀全球在競爭最為激烈的全球前10強榜單中,全球頂尖企業各展所長,其中美國太空探索公司、特斯拉母公司SpaceX以2.8兆元人民幣的估值成為全球第一獨角獸,憑藉在太空探索與新能源領域的雙重佈局,馬斯克旗下企業持續領跑全球新經濟賽道。全球獨角獸Top10中國企業在TOP10中強勢佔據4席,涵蓋AI、雲端運算、金融科技等核心賽道,展現了中國新經濟在關鍵領域的技術沉澱與市場競爭力:字節跳動(ByteDance)以2.21兆元人民幣的估值位列全球第二,作為全球使用者規模最大的網際網路科技巨頭之一,其旗下 TikTok、抖音等產品風靡全球,AI 驅動的內容推薦技術持續引領行業,商業化邊界不斷拓展至企業服務、雲端運算等領域,成為跨賽道創新的典範。DeepSeek(杭州深度求索)首次躋身全球第六,估值達1.05兆元人民幣,這家專注於人工智慧基礎技術研究的企業,在大模型訓練、推理最佳化等核心領域取得突破,短短幾年內實現估值飛躍,成為中國AI硬核派代表,彰顯了中國在通用人工智慧賽道的趕超實力。阿里雲(Alibaba Cloud)以8050億元人民幣估值排名第七,作為全球領先的雲端運算服務商,阿里雲憑藉自主研發的飛天作業系統,在企業級雲服務、巨量資料、人工智慧基礎設施等領域佔據全球市場重要地位,為全球數百萬企業提供技術支撐,成為數字經濟時代的 “基礎設施搭建者”。螞蟻集團(Ant Group)以6138億元人民幣估值位居第十,作為金融科技領域的標竿企業,其在移動支付、數字金融、區塊鏈技術應用等方面的創新,不僅改變了中國的金融服務生態,讓普惠金融觸達更多群體,也在全球範圍內輸出成熟的金融科技解決方案。03AI賽道成最大黑馬中國企業增速領跑全球本次榜單最引人注目的亮點,莫過於AI賽道的爆發式增長。全球範圍內,AI相關獨角獸企業較上年增加16家,總數達到36家;而中國AI獨角獸企業更是實現逆勢增長,較上年新增7家,共有9家企業上榜,增速遠超全球平均水平,成為中國獨角獸軍團的“增長先鋒”。從全球頭部玩家來看,排名第三的美國OpenAI以2.1兆元估值彰顯了對話式AI的巨大商業價值;而中國的 DeepSeek、字節跳動等企業,則在大模型技術落地、產業 AI 賦能等方面形成差異化優勢——沒有盲目跟風,而是結合國內產業需求,將AI技術深度融入智能製造、醫療健康、金融服務等實體領域,讓技術真正產生產業價值,推動AI從“實驗室”走向“產業場”,成為驅動經濟高品質發展的新動能。04中國獨角獸的突圍密碼創新+生態+全球化中國獨角獸企業能夠在全球競爭中脫穎而出,並非偶然,背後離不開三大核心支撐:一是技術創新驅動。從AI大模型、雲端運算到金融科技,中國獨角獸企業持續加大研發投入,在關鍵核心技術領域打破國外壟斷,形成自主智慧財產權體系。這種“硬創新”不是短期炒作,而是長期深耕的結果,讓企業在全球競爭中擁有核心話語權。二是完善的產業生態。中國龐大的消費市場提供了豐富的使用者需求反饋,完整的產業鏈供應鏈支撐了技術從研發到落地的全流程,加上網際網路、巨量資料等基礎設施的普及,為獨角獸企業提供了得天獨厚的成長土壤,助力企業快速實現技術迭代與商業化驗證。三是全球化佈局。字節跳動、阿里雲等企業通過全球化營運,將中國技術與商業模式輸出至全球,在國際市場中搶佔份額的同時,也吸收了全球的創新資源,形成“本土創新+全球落地”的良性循環,不斷提升品牌國際影響力。2025全球獨角獸企業500強中國入榜企業名單(咫尺研學)
中國 DeepSeek AI 預測:XRP、Solana、Dogecoin 到2025年底的目標價會到哪?
被稱為「ChatGPT 殺手」的中國頭部 AI——DeepSeek,發布了對 XRP、Solana(SOL) 和 Dogecoin(DOGE) 的 12 月價格展望,並提醒交易者:這三者本月都可能迎來更高的波動率,行情容易出現急拉急砸。隨著加密市場即將結束“最慘月份之一”,臨近聖誕節,整體盤面正在出現修復反彈。但從年度表現來看,2025 年對比特幣並不友善:截至撰稿時,BTC 年內(YTD)跌幅已超過 7%,年初價格接近 9.9 萬美元,如今大概率會以低於該水平的價格收官。即便如此,放大週期來看,市場的大結構仍偏向正面。分析師仍認為 XRP、SOL、DOGE 這類相對「能活下來」的強勢山寨/優質山寨,長期仍具備表現空間。在市場情緒和流動性逐步穩定後,各項目可望重新獲得向上行動能-以下是 DeepSeek AI 對其趨勢的預期推演。XRP(XRP):DeepSeek AI 認為要麼“全面崩盤”,要麼衝到 5 美元DeepSeek AI 的偏空劇本顯示:如果市場情緒持續疲軟、資金風險偏好不回升,Ripple 的 XRP 可能會從當前約 2.07 美元 出現深度回撤/瀑布式下跌,跌幅高達 91%,一路砸到接近 1 美元,並可能在 2026 年 前後維持在該低位附近。來源: Deepseek從 2025 年 XRP 的整體價格走勢來看,多頭劇本反而更佔優。不少人把 Ripple 稱為「年度進步最大幣」。因為在 2025 年 8 月,與 SEC 的訴訟最終塵埃落定,帶來了徹底的監管清晰度,進而解鎖了 11 億美元+ 的機構資金淨流入,同時 RLUSD 穩定幣 也順利上線落地。在這些利好加持下,XRP 一直守在 2 美元上方,並且還有 現貨 XRP ETF的持續資金流入提供支撐,市場信心被進一步抬升。部分分析師因此認為,XRP 接下來有機會向 3 美元 發起衝擊。來源: XRPUSD / TradingView只要 XRP 能穩守 2.00 美元上方,刷新 歷史新高(ATH) 的可能性仍然存在。圖表上曾有一次價格跌破 2 美元,當時對多頭來說就很不妙,盤面明顯轉弱。目前的關鍵突破門檻/頸線位在 2.70 美元:這裡先前是非常強的支撐位,但最近已經發生支撐轉阻力(S/R flip)。如果價格能重新收復並站穩該區域,就可能確認突破,打開上行空間,目標指向 3.70 美元 左右,對應約 80% 的上行幅度。Solana(SOL):DeepSeek AI 預測或將出現 700% 等級的突破Solana 依舊被視為本輪週期的“週期之王/強勢主線”,過去 7 天 在市場波動持續的情況下仍保持強勢,漲幅超過 2%,體現出較強的抗跌與相對強勢。DeepSeek AI 認為,Solana 可能會在 可擴展的 C 端應用 賽道進一步“加速開掛”,隨著生態持續擴張、機構採用度提升,有機會在 2026 年初 前後打出一波約 700% 級別的主升浪/突破行情。如果多頭敘事走不出來,空頭劇本其實也不會比當下更慘太多:DeepSeek 預期 SOL 可能回撤到 100 美元 附近的強支撐/心理關口,作為下一道防線。此外,光是 Solana ETF 這條線就可能為 SOL 打開通往 400 美元 的想像空間——因為目前已經吸引到明顯的機構關注,並且連續多日出現淨流入,資金面表現偏強。來源: SOLUSD / TradingView不過,SOL 眼下有個關鍵任務:必須突破並站穩 144 美元 這道強壓/套牢密集區。如果衝不過去,SOL 可能會在聖誕節前先走一波回踩/下探,然後再擇機二次衝關。要維持多頭劇本不崩,價格必須守住圖表標示的那段需求區/承接帶。一旦該區域失守,DeepSeek 預測的 100 美元 回撤目標就可能被觸發。DeepSeek:狗狗幣(DOGE)或再次衝擊 1 美元「Meme 幣市場已經涼了。」這是 CryptoQuant CEO Ki Young Ju 最近的表態,也不難理解他為什麼這麼說。從山寨盤裡 meme 幣的市佔比來看,已經快跌到新的歷史低點(ATL)。這基本說明了:曾經最能帶動散戶熱情的主線之一,現在熱度和資金都明顯退潮了——可憐的 meme 幣。來源: CryptoQuant儘管如此,DeepSeek 仍認為 meme 板塊存在修復反彈的可能性,並指出:如果 DOGE 未來能在像 X(原 Twitter) 這類大平台上被整合為支付手段,很可能會重新點燃市場情緒,觸發一波拋物線式拉升。但就目前來看,DeepSeek 更偏向空頭劇本:一旦市場風險偏好下滑、資金從 meme 敘事資產撤離,DOGE 可能出現一波深度回撤/大幅回調,甚至有概率回到 0.08 美元 附近。DOGE 現貨 ETF 的成交額已降到 14.2 萬美元,創下這些產品上線以來的最低水準。根據 SoSoValue 數據,成交量自 11 月下旬 起明顯走弱——當時日成交額還曾多次衝到 323 萬美元+。不過,DOGE 目前仍算有點抗跌:價格一直守在 0.14 美元上方。如果後續能突破並收盤站上 0.18–0.20 美元 這一段強阻力/套牢區,就能進一步確認強勢,打開上行空間,目標區間有望看向 0.24–0.26 美元。來源: DOGEUSD / TradingViewMaxi Doge:高風險高報酬的 Meme 幣押注,交易員正緊盯不放儘管 DeepSeek 等 AI 模型警告 meme 幣市場仍在承壓,但不少交易員已經在為下一輪板塊輪動提前埋伏。在這輪「重置期/洗牌期」裡,一個正在獲得關注的項目是 Maxi Doge——一個受 Dogecoin 啟發的新 meme 代幣,主打純投機敘事、高槓桿文化 和社區動能驅動。Maxi Doge 完全吃透 meme 能量:核心形像是一隻「練成大塊頭、開高槓桿的健身房老哥」Doge,象徵 risk-on 的交易心態。這裡沒有硬凹的「實用性」故事,專案定位很明確——面向懂週期、想在 meme 幣重新回到主流視野前就先拿到早期敞口的交易者。即便在市場相對冷清的階段上線,Maxi Doge 也已經募資超過 429 萬美元,說明在整體 meme 情緒偏弱的背景下,仍然出現了早期需求。代幣分配同樣是賣點之一:大約 40% 的供應量直接給到公開預售,且沒有私募/VC 輪,從而降低了「內幕盤/機構砸盤」帶來的潛在拋壓風險。此外,專案還上線了質押,為早期參與者提供最高約 72% 的年化收益(APY),讓 MAXI 持有人在等待下一波投機浪潮期間也能“邊拿幣邊吃利息”,而不是在震盪整理裡乾等。透過關注 Maxi Doge 官方 X(推特) 和 Telegram 電報群/頻道,隨時取得專案最新動態與公告。如何購買Maxi Doge($MAXI)?按此瀏覽原文免責聲明加密貨幣投資風險高,價格波動大,可能導致資金損失。本文僅供參考,不構成投資建議。請自行研究(DYOR)並謹慎決策。
從DeepSeek到豆包手機助手:中國AI下一程何去何從?
在中國AI發展史上,2025年註定會是里程碑式的一年。1月27日,DeepSeek憑藉發佈僅一周的開源推理大模型DeepSeek-R1,在蘋果應用程式商店中國區和美國區的免費榜上雙雙獲得第一,震驚世界。儘管隨著千問、豆包等大模型的崛起,DeepSeek在很多排名中不再名列前茅,但其貢獻將永載史冊。12月5日,張亞勤教授在人文清華講壇演講時說,DeepSeek在演算法、技術、系統架構上都有創新,它用1%的算力就可以達到和美國前沿大模型相似的能力。“DeepSeek出來之後,咱們和美國的差距可能就從之前的2~3年縮短到2~3個月,而且在有些應用方面,我們可能做得更好”。中國網際網路從1995年左右起步,先後經歷了PC網際網路、移動網際網路和物聯網時代。張亞勤認為,現在進入了智能體網際網路(Internet of Agents)的新時代。所謂智能體(Agent),就是具備自主智能的系統——你只需要給它設定一個目標,它就能自主規劃任務、不斷迭代,甚至自我試錯,最終達成目標。這非常像人類的行為:有個目標,自己就會去規劃路徑,依靠各種記憶和判斷去實現。未來已來。12月1日,字節跳動豆包團隊發佈了“豆包手機助手技術預覽版”,通過和中興通訊努比亞手機合作,展示了一系列驚豔表現——豆包手機助手根據使用者指令,可以在多款App應用之間自動跳轉,完成查票訂票、商品多平台比價下單、定製出行攻略、批次下載檔案等任務,完全自動化執行。智能體網際網路真的來了?毫無疑問,是的。智能體網際網路的“Aha moment”手機助手本身並非新生事物。2011年蘋果就發佈了siri,使用者可通過語音指令完成資訊查詢、電話撥打、消息傳送、裝置尋找等功能。但這樣的助手只能呼叫單個App應用,比如你要它“打開微信”它就給你打開微信。而當你提出一些跨應用、多步驟的複雜指令,如“對比一下淘寶閃購、美團、京東同款麥辣雞翅的價格,選個最低價,下單到指定地址,然後截圖發給指定聯絡人”,又如“下周我要出差,先去北京再去廣州,幫我訂一下機票和酒店,最後生成一張清單”,等等,它就一籌莫展了。這樣的多步驟複雜任務,恰好是豆包手機助手的用武之地。你只要說一聲,它就會在你手機所有的購物App裡搜尋同款商品,對比價格和規格,自動領券,選擇最低價,最後通知你“接管操作完成支付下單”;當你準備出差,它會按你的吩咐,在公司辦公軟體上向經理提交出差申請,然後訂好機票酒店;當你想給女兒推薦幾個禮物放進購物車時,如果你設定開啟的記憶中已儲存有女兒的年齡、興趣等資訊,它可直接查詢符合女兒年齡、偏好的方案,無須你再逐一交代細節……這些前所未有的新體驗,讓豆包手機助手初出茅廬就成為智能體網際網路的一個“Aha moment”,也為2025年的中國AI發展貢獻了一部“收官之作”。一石激起千層浪然而,和年初DeepSeek發佈時贏得的普遍都是掌聲相比,豆包手機助手發佈後,則是一石激起千層浪。有人盛讚,AI操作手機、AI助手一定會遍地開花,我們的生活也會完全離不開它,將來的人們會記住這歷史性的一天;有人評價,豆包和中興通訊做的這件事,是通過跟系統、跟硬體廠深度綁在一起,讓豆包獲得系統級權限,可以橫跨所有App看通知、讀頁面、點按鈕,從一個App升級成手機系統內常駐的大腦,成為作業系統的一部分而不是普通的第三方軟體,這是AI時代的手機新入口;有人擔心,AI手機助手依賴高等級的系統權限,能在執行使用者指令的操作過程中讀取到螢幕內容——包括銀行卡資訊和聊天記錄,會帶來安全隱患;也有一些國民級應用App、金融機構App迅速截停了豆包手機助手,使用者在手機上無法呼叫,或遭遇異常退出、無法再次登錄。更深層次的討論也開始了——若使用者習慣將操作完全交由AI助手代理,各種App都將被“管道化”,以流量分發為核心的網際網路商業模式將會被顛覆;而對手機廠商來說,將從“硬體製造商”變為“AI服務分發商”,其賣點不再是硬體參數的堆積,而是能否接入最強AI能力,提供最豐富和高效的場景服務。豆包手機助手到底是什麼?其實,它是在豆包App的基礎上,和手機廠商在作業系統層面合作的AI助手軟體。目前還只有一款和中興通訊合作的工程樣機,也只面向開發者和科技愛好者少量發售。在官方視訊的結尾,豆包手機助手特別提示,“儘管演示內容均為真實錄製,但受限於大模型技術的不確定性,相關場景無法保證百分百復現。當前產品實際可用性與團隊預期仍有差距,未來仍將持續迭代最佳化”。可見,它還是剛剛起步。但沒想到,發佈當日,中興通訊A股漲停,在行業和社會迅速引起巨大波瀾。在被一些App截停後,豆包手機助手發佈了《關於微信登錄異常的情況》《關於調整AI操作手機能力的說明》等公告,澄清了所謂“未經授權獲取系統權限”的謠言,指出豆包手機助手在努比亞手機上擁有系統級的INJECT_EVENTS權限,所以其相關產品才能跨屏、跨應用模擬點選事件,完成使用者操作手機的任務需求,它也不會代替使用者進行相關授權和敏感操作。關於使用者隱私,豆包手機助手表示,不會在雲端儲存任何使用者螢幕內容。“當使用者給助手指令,要求操作手機時,助手確實需要讀取螢幕,否則無法完成使用者任務,但螢幕和操作過程都不會在伺服器端留下儲存,且所有的相關內容也都不會進入模型訓練,確保使用者隱私安全。”豆包助手再次強調,此次發佈的是“技術預覽版”,是面向行業、AI技術愛好者的探索產品,提示普通消費者謹慎選擇。豆包助手還表示,計畫在接下來的一段時間,在部分場景對AI操作手機的能力做一些規範化調整,如限制刷分、刷激勵的使用場景,進一步限制金融類應用的使用,限制部分遊戲類使用場景等。顯然,豆包手機助手的社會影響大大超出了團隊預想,因此團隊開始採取一種“退”的姿態。退一步,進行調整,並努力和App們以及手機廠商達成共識,找到合作模式。一場技術上的顛覆式創新,開始步入社會化共識與服務規則的形成期,以及新舊利益如何分配的磨合期。但無論如何,因為豆包手機助手的發佈,中國的網際網路服務掀開了新的一頁,即從App主導到智能體驅動。這一頁既已掀開,就不可能再倒回去。為什麼是豆包?豆包手機助手和中興通訊合作的AI手機,顯示出“大模型+手機廠商”的清晰趨勢。在國內,華為、vivo、小米、OPPO、榮耀等手機廠商都在佈局AI智能體賽道,都有自己的AI助手,都在個性化互動、跨應用執行方面探索。大模型初創公司智譜去年10月也曾官宣推出了端側AI智能體,可以訂外賣、訂票、回覆微信,智譜還與三星在AI手機領域達成戰略合作;在國際上,蘋果去年6月發佈了Apple Intelligence,定位為系統級AI助手,但直到iPhone 17系列仍未完全落地。GoogleGemini也在與三星深度合作,強化其語音助手Bixby。大家都在做AI手機助手,為何唯有豆包一鳴驚人,真正讓使用者眼前一亮?單從技術實現路徑看,豆包助手和別的助手採用的都是圖形使用者介面智能體(GUI Agent)技術。該技術通過多模態大模型,即時解析手機螢幕截圖,識別出按鈕、文字、圖示等UI元素,然後呼叫作業系統提供的服務,模擬人的手指動作。只要人在螢幕上可以手動完成的操作,從理論上說,GUI Agent都能代勞。在過去,使用者必須通過手動方式在不同App間切換,才能完成複雜任務。這是因為,如果使用者想讓AI與App互動,App開發者必須主動開放資料和功能介面,而基於安全、商業利益等考慮,App們並不會開放。GUI Agent的邏輯不是請求App們的許可,而是直接模仿人的點選、滑動、輸入等動作,跨應用完成操作。當然,這裡有一個前提,就是與手機作業系統在系統層面深度整合,獲得系統級權限來呼叫各種App。那麼,是不是有了GUI Agent,再加上擁有系統級權限、避免了APP的“玻璃牆”限制,就能做好AI手機助手呢?也不是。否則,手機廠商已經先發先至了。其實,在手機助手跨應用自動執行任務的背後,涉及到多種技術能力,如通過自然語言精準理解使用者的複雜、多步驟指令,將使用者需求拆解成多個子任務,知道呼叫什麼App去執行什麼任務,以及在自動完成操作後根據結果進行反饋調整、持續改善。並不只是獲得系統級權限去呼叫App那麼簡單。AI手機助手的本質,是基於大模型技術,通過模擬人類點選和圖形處理實現智能互動。其關鍵在於預訓練模型的研發,以及在預訓練、後訓練和業務理解這三個環節上是否有突破,有創新。在中國網際網路公司中,字節跳動是對AI技術投入最大、時間最久的之一。除了眾所周知的推薦技術,在大模型之前,字節跳動也在量子化學、AI蛋白質設計等領域有諸多投入。為了發展大模型業務,字節跳動單獨設定了“豆包股”長期激勵,鼓勵內部創新,鼓勵開展有技術高度的創新,以建立壁壘。雖然字節跳動的大模型業務不是全球最早,但轉型迅速,在基礎設施如萬卡叢集訓練等方面投入巨大,且穩定性很好,為技術實現奠定了基礎。豆包手機助手一出生就與眾不同,極大刷新了使用者體驗,和豆包大模型在視覺理解、推理、GUI(圖形介面)識別等方面均處於國際第一梯隊是分不開的。在中國大模型公司中,豆包對“蒸餾”的限制最嚴格,這也避免了依賴他人的模型導致“屋下架屋”、效果受限等問題。“通過模擬人類點選進行圖形處理”,這個概念早就有人提出,並不新鮮,其他手機廠商和App廠商也都在做,但從豆包手機助手的實測和使用看,字節跳動是國內首個從技術能力上能把這一技術真正做到可用程度的企業。當有些廠商還在為“如何讓助手生成更流暢的文字”努力時,豆包手機助手已經能自主絲滑地完成複雜操作,這就是技術優勢所拉開的代際差距。所以,豆包手機助手的超常表現,歸根結底在於技術領域的硬核創新。這和之前DeepSeek在混合專家模型(MoE)架構和多頭潛在注意力機制(MLA)等方面的自主創新頗為相似,都是先站上技術的高地,接著才有出眾的產品。AI手機助手的下一步儘管豆包手機助手展現出了新互動模式的巨大潛力,但它要真正進入千家萬戶,還有很長路要走。除了自身的產品迭代最佳化,以及讓使用者更加放心(比如爭取在不久的將來,在本地端側模型上實現和雲端同樣的效果),它還需要和行業各方有更充分溝通,以共建更清晰、可預期的規則。就眼前遭遇的被一些App封禁的問題,豆包手機助手需要將心比心,和它們坦誠協商,以解決在技術預覽版手機上的使用限制問題。長期而言,則要努力探索合作與分享的具體機制安排。豆包手機助手已明確“無自研手機計畫”,而是希望通過生態合作模式,嵌入不同品牌的手機機型。這是一種開放的態度,將有利於合作的達成。有專家預測,在智能體網際網路時代,有可能形成“使用者付費+廠商分成”的模式:使用者為智能助手的便捷服務支付少量費用,豆包與合作的App廠商按一定比例分配收益;對於免費的App應用,則可通過流量導流、資料共享等方式實現共贏。在這個過程中,最難跨越的關隘,還是現有App生態的流量與利益格局。同時,手機大廠是否願意合作,以何種方式合作,也存在大量博弈空間。可以設想的是,不管豆包手機助手有多麼強大,未來都不可能只有一個AI手機助手。既然是大勢所趨,必然會引來多個參與者。就像電商App,有淘寶,也有拼多多,有京東,有抖音電商,等等。當然,因為手機助手更像“大腦”,使用者在使用、比較之後,大機率會選擇某一個可信賴的助手,長期使用,越用越習慣,而不太可能像電商App一樣,同時使用幾個。騰訊總裁劉熾平在2025Q3財報電話會上表態,微信最終將推出自研AI智能體,讓使用者在微信生態內即可利用AI完成多項任務。當豆包手機助手點亮了一盞燈,一定會帶動和加速更多盞燈亮起來。這對於廣大使用者一定是好事。就此而言,無論怎樣的超級App,都應該避免簡單基於商業競爭的考量,用“一刀切”的方式否定使用者合理使用AI的權利。因為當它們將來要推出手機助手的時候,也會面臨和今天豆包類似的問題。無論最終模式如何,豆包手機助手的創新都值得鼓勵。App時代的“多應用切換”是使用者的痛點,誰能更好地解決這個痛點,誰就會得到使用者的認同。使用者也將成為這場智能化變革的最大受益者。從生成式AI到智能體AI,從移動網際網路到智能體網際網路,從App林立到AI手機助手統籌,豆包手機助手用一個個具象化的場景,讓使用者感受到大模型等技術帶來的便利。它雖然還沒有正式發佈,卻已讓人們看到,智能體AI將徹底改變我們與手機的互動方式,讓科技真正服務於生活本身。人工智慧時代的新黎明正在降臨。不管還有多少挑戰和難題,新質生產力都將穿越,也必將穿越。 (秦朔朋友圈)