梳理下過去一段對AI敘事影響最大的問題,試圖定位下我們現在處於什麼階段。
1. 微軟在capex上的態度轉向了嗎?
這可能是capex敘事轉向謹慎的開端。就此也請教了多個西雅圖朋友,側面都印證了一點,的確satya在公開場合的態度就是最真實的態度,甚至可能更保守一點。但更準確定義,應該是減少訓練投入,增加推理投入。從預算角度二者有本質區別,推理是應用為先,投入在後。驗證一步,再投資一步。不會有FOMO導致的過度建設或者提前,應用到什麼量級就對應多少投入。因此基於目前看到的應用,微軟整體投入的增速二階導就下去了。但不排除某年應用爆發重新加速的可能。
2. OpenAI祛魅了嗎?可能要把研究和商業分開看
DeepSeek這次主導的開源“偷襲”,的確扭轉了中長期AI堆疊的價值量分配。閉源模型本身的長期利潤水平大幅縮水。看到廣密總朋友圈說的,今天Nvidia/AWS/基礎模型的利潤分配是:90%/30%/-20%。之前認為投入階段結束後,閉源模型可以扭虧且大幅盈利(就是OpenAI募資材料的財務預測),但開放原始碼的拐點可能會將模型層本身利潤壓制在接近於0。
這的確可能影響了一些資本市場情緒,但沒有改變產業對AGI的預期。最近很多朋友都在灣區,包括最近北美一些AI領袖的發言,其實很多人對AGI的時間表反而越來越篤定。包括國內相信DeepSeek對此也很堅定。
另一方面,ChatGPT過去2個月卻實現了使用者量歷史最快增長。如下圖:23年增長1億周活用了9個月,o1推出用了4個月,最近一次只用了2個月。
說明什麼?AI應用的使用者滲透率在快速提升。可能OpenAI昂貴的定價的確抑制了用量,但每一代模型的更新,都能看到活躍使用者基數的增加。而這一點在中國也同樣上演,不僅模型在迭代、價格也在快速下降,這也是為什麼我們說:中國自上而下的方式,可能會上演全世界最快的AI滲透率提升。
3. 預訓練真的證偽了嗎?不絕對
最近組織了一些矽谷調研,最前沿實驗室有些交流,20萬卡的確試過了,也就是目前Grok3或者GPT-4.5表現出的邊際提升,的確差強人意。但今天你依然看到,比如Google剛發的分佈式scaling、Anthropic在pre train階段本身就加入大量RL工作、以及最可能被低估的DeepSeek下一代基座模型V4。之前NSA論文的當天我們寫過:基於NSA,DS基座還會有一次能力顯著提升,且不是來自於傳統chinchilla定律,而是來自對Infra層面的最佳化。
說明什麼?chinchilla是個經驗定律,後驗結果,因此各家不是就此停下了pre train,而是優先投入ROI更高的post-train,同時重新回到research去嘗試突破和延續pre-train。畢竟基座模型依然是核心,如果基座能帶來代差,20%的收益也會被盡力squeeze。何況創新還在繼續,B卡剛部署,還有很多嘗試機會。
某家行就此做了些量化,撞牆不撞牆的算力需求差別(其中假設也很多,大概看看)
4. 中國AI敘事可以接力美國嗎?
算力上,可能無法為北美3-4000億美金貢獻多少二階導數,但對比我們自己生態已經是一大步。就好比下周騰訊財報上調capex已經板上釘釘,但別忘了下周業績還有移動聯通,所謂8大節點和三大營運商的算力投入可能一點不比BAT少。
就算比北美更少的算力投入,卻以更高ROI支撐更大user base使用者體量的AI應用普及和滲透率提升,這可能是中國AI敘事對全世界更大的意義。
這也讓中國可能成為最大的“傑文斯悖論”觀察實驗,平鋪算力+猛懟應用(估計都看到了元寶農村刷牆...)情況下,同時DeepSeek繼續迭代模型,能否撬動更大用量和新的價值創造?
5. 應用敘事能無縫銜接嗎?
可能再過段時間回看,Manus就是一個小小的拐點。ChatBot形態的價值天花板(甚至算力消耗)基本到頂,就好比ChatGPT都已經靠頭部品牌效應進入自然增長階段。但Agent可能剛剛實現了0到1或者保守點:0到0.1。
從chatbot到agent,使用者與AI互動的方式、呼叫工具的範圍、解鎖功能的光譜,都是質變。此外,AI整體迭代進步的堆疊多了一個layer層級,從pre-train基座模型、到post train出推理模型、到多模型或多agent組成的系統,中間每一個layer比如獲得20%進步,疊加起來是2倍提升。這也是最早satya說的模型商品化後基於小模型的agent應用依然可以快速進步。總之,讓最終AI應用和普及速度多了一個引擎。
因此並不是沒有“殺手級應用”,實際上無論傳統chatbot還是新的agent都在加速。一個完成了0-1正在1-10到100的快速滲透率提升,一個剛剛0-0.1但能力上限和算力消耗上限都拔了幾個數量級。