開年重磅萬字長文範式復盤:我們身在AI奇點之中

引言:2026年2月20日,又一個行業的崩塌時刻

AI生成

2026年2月20日,Anthropic發佈Claude Code Security,美股網路安全類股集體暴跌。CrowdStrike跌7.95%、Cloudflare跌8.05%、Okta跌9.18%,單日市值蒸發超100億美元。Global X網路安全ETF創2023年11月以來新低。

這是繼2月3-4日"SaaSpocalypse"(SaaS崩塌)之後,48小時內第二次行業級崩塌。

兩次崩塌的共同特徵是:AI不再是“輔助工具”,而是直接替代了整個職業類別的核心價值。Claude Code Security在內部測試中發現500+潛伏多年的高危漏洞,包括Ghostscript、OpenSC等開放原始碼專案,部分漏洞存在超十年未被人類安全專家發現。

這是範式崩塌的訊號。

當一個AI工具能夠超越整個行業數十年的專家積累,因為中間有段時間我沒有緊密fellow,參見前文《用AI,不AI:一個AI異化者的重生手記》,所以我特別想搞清楚的是:範式是如何演進到這一步的?

第一階段:模型能力的指數級躍遷(2018-2024)

A. 核心特徵:Scaling Law(縮放定律)的勝利

從GPT-3到GPT-4,從Claude到Gemini,這一階段的主旋律是模型能力的指數級增長。LLM在軟體任務上的時間跨度每7個月翻倍,Claude Opus 4.6在METR軟體任務上達到14.7小時,相比前代提升了近3倍。

這個階段的關鍵信念是:

  • 更大的模型 = 更強的能力
  • 更多的資料 = 更好的泛化
  • 更長的上下文 = 更複雜的推理

直到網際網路資料被用完,蒸餾資料會引發崩潰。AI訓練的瓶頸從模型參數夠不夠大,到是新鮮、可靠的資料從那裡來。這預示著第一階段的天花板。

B. 範式的內在矛盾

這一階段暴露出三個核心矛盾:

1.資料枯竭:網際網路公開資料已被“反覆嚼舊料”,模型開始“嚼自己的尾巴”;

2.能力泛化 vs. 落地應用:模型越抽象越泛化,但缺乏與真實任務的有效對接;

3.Speech-act的空轉:大量對話停留在“數字空間空轉”,未能進入“speech-cognition的高價值空間”。

第二階段:從In-Context Learning到Scaffolding(2024-2025)

A.Anthropic的雙重路徑

Anthropic的戰略核心:“in-context learning和Scaffolding演化的雙重作用下的模型進展。”

In-Context Learning(上下文學習)的深化:

  • 不再是簡單的few-shot prompting;
  • 演變為Context Engineering——Anthropic在2025年9月正式提出這一概念;
  • 核心轉變:從“寫好提示詞”到“策展最優token集合”;
  • 關鍵技術:Compaction(壓縮)、Structured Note-taking(結構化記憶)、Sub-agent Architectures(子代理架構)。

Scaffolding(腳手架)的戰略意義:這裡的“腳手架”指的是:人類經驗進入LLM的管道和結構。

Anthropic的工程部落格揭示了一個關鍵洞察:

> "Context engineering represents a fundamental shift in how we build with LLMs. As models become more capable, the challenge isn't just crafting the perfect prompt—it's thoughtfully curating what information enters the model's limited attention budget at each step."

“上下文工程代表著我們利用大型語言模型進行開發的根本性轉變。隨著模型能力的增強,挑戰已不再僅僅是精心設計完美的提示,而是要審慎地在每一步中篩選出那些資訊能進入模型有限的注意力預算。”

那麼,LLM平台戰爭的本質已經從模型轉移到腳手架。誰定義了人類具身經驗進入LLM的管道形態,誰就定義了speech symbiosis的拓撲結構。

這意味著:

  • 腳手架(Scaffolding)成為模型能力的放大器;
  • 戰場從“模型訓練”轉移到“執行階段編排”;
  • 人類經驗的輸入方式,決定了AI的輸出質量。

B. 關鍵技術突破

1.Context Window的辯證法:

  • 更長的上下文 ≠ 更好的性能;
  • Context Rot現象:隨著token數量增加,模型檢索精準性下降;
  • 解決方案:Just-in-time retrieval + Agentic Search。

2.從Pre-retrieval到Runtime Exploration:

  • 傳統:預先檢索所有相關資料;
  • 新範式:維護輕量級識別碼,動態載入資料;
  • Claude Code的實踐:用glob、grep等工具導航環境,繞過陳舊索引。

3.Multi-agent Architecture的崛起:

  • 主代理維護高層計畫;
  • 子代理處理深度技術工作;
  • 每個子代理可能消耗數萬token,但只返回1000-2000 token的精煉摘要。

C. 遞迴自我改進(RSI)時代的到來

2025年底,一個只有行業少數人能察覺的拐點出現了:模型開始幫助創造模型。(參見前文:《AI自主進化前的窗口期:12個月!》)

研發速度首次實現遞迴式增長,單個研究者的產出被成倍放大。Alexandr Wang將這個階段命名為遞迴自我改進(RSI,Recursive Self-Improvement)時代。

過去五年的規律:AI進步靠堆資源。投入更多資料和算力,模型就變得更強。

現在的質變:模型不再被動等待投喂,它開始能幫忙做研究,能參與訓練下一代模型。它能整理資料、生成實驗程式碼、做架構搜尋,而且速度更快。

從外部看,所有頭部LLM廠家的發佈頻率突然變高了。但這只是表象。在內部,研發流程正在發生質變:

  • 研究被切分成更小的步驟;
  • 模型能夠即時給出方案並進行對比;
  • 許多過去依賴人工試錯的路徑,現在直接在模型內部就能跑通;
  • 下一代模型的迭代速度實現了量級躍升。

競爭邏輯的改變:在RSI時代,競爭的焦點已經從單純的“資源規模”轉向了“迭代速度”。

現在的優勢,取決於誰能更快地生成實驗方案、更快地清洗資料、更快地測試不同路徑,並以最快速度將這些成果反哺給下一代模型。所以你會看到,掌握了這套打法的頭部實驗室,產品發佈節奏明顯提速了。

AI已經進入了能夠自我推動的階段。短期內,你或許感知不到劇烈變化,但在未來三到五年,這種自我加速能力會在產品迭代、組織更新和行業地位上拉開巨大差距。

第三階段:腳手架重構與行業崩塌(2026年2月)

A. 腳手架戰爭的本質

LLM平台戰爭的本質已經從模型轉移到腳手架。誰定義了人類具身經驗進入LLM的管道形態,誰就定義了speech symbiosis的拓撲結構。

這意味著:

  • 模型能力趨於同質化:(OpenAI、Anthropic、Google的頂級模型差距縮小);
  • 差異化在於編排能力:如何讓人類經驗有效輸入、如何讓模型與真實任務對接;
  • 價值捕獲點轉移:從“訓練最強模型”到“建構最佳管道”。

B. 腳手架重構的領域,就是商業模式崩塌的領域

第一次崩塌:SaaS的48小時(2月3-4日)。

市值蒸發:

  • 納斯達克雲指數蒸發近3000億美元;
  • 這不是宏觀回呼,而是底層商業邏輯的崩塌。

三個關鍵指標的失速:

1. NRR(淨收入留存率)中位數跌至101%——接近危險線;

2. GRR(總收入留存率)跌破90%——客戶流失加速;

3. CAC回本周期拉長至24個月以上——單位經濟模型失效。

Forbes的深度報導指出:這不是“增長變慢”,而是“單位經濟模型正在失效”。

資本的三個逃逸方向:

資金流向呈現出令人窒息的極化:

1.Service-as-Software(結果導向革命):

  • 從“出售工具訪問權”到“出售可驗證的商業結果”;
  • 無法把計費模型與交付價值硬繫結的軟體→淪為“可替換元件”。

2.物理基礎設施:

  • 固態變壓器、推理ASIC、矽光收發器;
  • 掌控變壓器架構與光通訊模組→建立“物理主權”;
  • “資本只願意為‘物理控制權’和‘原生數字主權’下注”。

3.機器身份與硬核推理:

  • 安全層面:從“防人越權”到“約束自治機器代理”;
  • 硬體層面:通用晶片在低延遲推理的能效比被挑戰。

第二次崩塌:網路安全的黑色星期四(2月20日)

觸發事件:Anthropic發佈Claude Code Security

技術突破的顛覆性:

  • 採用AI模型Claude Opus 4.6;
  • 可像人類安全專家般理解程式碼邏輯;
  • 發現傳統工具易遺漏的複雜漏洞(業務邏輯缺陷、權限繞過問題);
  • 內建多階段驗證機制,自動生成修復建議但保留人工稽核環節。

實戰表現:

  • 內部測試發現500+潛伏多年的高危漏洞;
  • 包括Ghostscript、OpenSC等開放原始碼專案;
  • 部分漏洞存在超十年未被人類專家發現。

市場反應:

  • CrowdStrike跌7.95%、Cloudflare跌8.05%、Okta跌9.18%;
  • 類股單日市值蒸發超100億美元;
  • Global X網路安全ETF創2023年11月以來新低。

行業影響:

  • 該工具定位程式碼審計環節,直接衝擊應用安全測試市場;
  • 儘管仍處限量研究預覽階段,但加劇市場對AI顛覆傳統安全商業模式的焦慮。

兩次崩塌的共同邏輯

這兩次崩塌揭示了一個殘酷的事實:當AI的腳手架能夠有效對接某個垂直領域時,該領域的傳統商業模式就會在48小時內崩塌。

當AI能夠:

1.超越人類專家的多年積累(網路安全);

2.以更低成本交付相同結果(SaaS);

3.持續學習和進化(而人類專家的知識更新速度有限)。

傳統商業模式的護城河就會瞬間蒸發。

腳手架重構的本質:

傳統軟體時代:

  • 人類經驗 → 程式設計師編碼 → 軟體產品 → 使用者使用;
  • 瓶頸:程式設計師的編碼能力和時間。

腳手架時代:

  • 人類經驗 → 腳手架管道 → LLM理解 → 輸出結果;
  • 瓶頸:腳手架的設計質量。

誰定義了“人類經驗→LLM輸入”的管道形態:

  • 就定義了AI能理解什麼、不能理解什麼;
  • 就定義了AI能做什麼、不能做什麼;
  • 就定義了價值如何流動。

這就是“speech symbiosis的拓撲結構”——人機共生的互動拓撲。

第四階段:Agentic AI的大規模落地(2025年底-2026年)

A. 從“概念”到“可用”的跨越

如果說前一階段講的是技術為什麼變快,這一階段則更貼近普通人和企業:AI為什麼終於能把事情辦成了。

過去兩年,智能體(Agents)這個詞被提及了無數次。從2023年開始,它就被大肆宣傳,但在很長一段時間裡,它更像是一個被炒作的流行詞,始終沒有達到預期。

到了2025年下半年,情況變了。智能體第一次真正開始運轉,能夠承擔真實任務,而不再僅僅是Demo。

從會回答到會執行:

智能體開始處理完整的任務鏈:

  • 連續呼叫工具;
  • 在後台長時間運行;
  • 根據突發情況自動調整執行步驟。

從這一刻起,AI能力邊界擴大了。以前的AI只能回答問題,現在的AI能推進進度。對企業而言,多了一個7x24線上的“數字員工”;對個人而言,則多了一個能主動幫你成事的“超級助理”。

B. 軟體工程的統治地位

資料顯示:軟體工程佔所有AI代理工具呼叫量的近50%,而醫療、法律、金融等垂直領域各佔比不足5%。(見下圖)

這揭示了兩個事實:

1.通用能力的優先順序:程式碼理解、檔案操作、系統呼叫是最基礎的“管道能力”;

2.垂直領域的巨大空白:有上百個AI獨角獸企業等待被打造。

馬斯克的第一性原理預測:

馬斯克預測:到今年年底,AI將完全繞過編碼,直接建立二進制檔案。

當AI能夠:

  • 理解使用者意圖;
  • 設計系統架構;
  • 生成最佳化的機器碼;
  • 直接輸出可執行檔案。

中間的“編碼”環節就成了冗餘。這是第一性原理的極致體現——直接從需求到結果,跳過所有中間層。

不愧是第一性原理宗主。

C. 三個方向同步爆發

1. 程式設計智能體正在重塑研發流程

它們能讀懂、生成並修改程式碼,讓工程師的工作效率實現躍升。在Meta內部,有工程師利用AI將生產力提高了10到100倍。這些案例一個接一個出現後,組織裡的其他人突然意識到,工作方式真的在改變。

2. 個人智能體(Personal Super Intelligence)

能幫你規劃任務、安排日程、拆解目標,真正滲透進日常生活。

如果你想改善健康:它能幫你量身定製並嚴格落地一套包含飲食、運動和作息的完整方案。

如果你要籌辦一場活動:它能自動跟進進度、對接場地、傳送邀請,甚至替你查漏補缺。

如果你想享受生活:它能幫你接管繁雜的日常瑣事,把你釋放出來,把時間留給釣魚、畫畫、旅行,或者任何真正有價值的事。

3. 公共服務智能體

在印度提供了範本:民眾直接在WhatsApp上就能獲取政府服務、查詢資訊、提交申請,效率發生了質變。

智能體不再是某個前沿行業的專屬,它正成為一種通用的工作方式。

D. 從不放心到放心

智能體為什麼能在現在跨越“概念”走向“可用”?Alexandr Wang將其歸結為四點質變:

1. 模型的推理能力大幅躍升;

2. 工具呼叫變得更加穩定;

3. 與現實場景的連接更加順暢;

4. 經過海量應用測試後,可靠性得到了驗證。

智能體從讓人“不放心”,變成了“可以放心託付”。這正是其能夠被規模化部署的核心前提。

一旦信任建立並放心部署,價值就會快速釋放。它們不知疲倦、可無限複製、能同時處理多項任務。它們不僅能將人類從重複性勞動中解放出來,更能加快整個組織的運轉速度。

企業的運轉效率、國家的公共服務質量,都將因此拉開差距。這些差距將在2026年變得清晰可見。按照Wang的判斷,在整個2026年,智能體會在全球諸多經濟領域和地區實現大規模部署。用他的話說:“AI帶來的經濟價值將呈指數級增長。”

智能體已經成為一種新的生產方式。越早將其納入業務流程的組織,就能越早進入新的增長軌道。

E. Claude vs. OpenClaw:兩種腳手架哲學

有人這樣說:“Claude Code是精英專家同事,OpenClaw是知道你全部經歷、凌晨兩點還給你發語音的室友。”

這代表了兩種腳手架設計哲學:

Claude的“專家協作”模式:

強調Context Engineering的精細化;

多階段驗證機制;

保留人工稽核環節;

適合高風險、高價值場景(如程式碼安全審計)。

OpenClaw的“親密室友”模式:

持續上下文感知;

低摩擦互動;

更激進的自主權;

適合個人生產力場景。

兩種模式的核心差異在於:如何平衡“人類經驗輸入的連續性”與“AI自主決策的邊界”。

F. 資料生產關係的重構:Perceptron Network案例

Perceptron Network代表了範式演進的另一個維度:資料生產從封閉平台壟斷轉向分佈式共建。

核心洞察:“AI訓練的瓶頸從來不是模型參數夠不夠大,而是新鮮、可靠的資料從那裡來。”

Perceptron的思路:

  • 把資料生產從封閉的平台壟斷,轉向分佈式共建;
  • 讓真實人類訊號成為AI持續進化的燃料,而不是反覆嚼舊料;
  • 未來勝出的不是誰算力最猛,而是誰能拿到源源不斷的、可驗證的即時行為資料。

機制設計:

  • 節點捕捉公開互動和上下文訊號(避開隱私雷區);
  • 經過驗證結構化後供給AI代理;
  • 貢獻者通過$PERC獎勵參與價值閉環。

網路效應:

  • 節點越多→覆蓋越廣→訊號越豐富→資料質量越高;
  • 形成正反饋循環;
  • 資料從“平台護城河”變成“可循環授權的公共資產”。

這是AI生產關係的重塑:從“少數巨頭囤積”到“網路共建共享”。

第五階段:Speech-Cognition的終局(未來)

A. 人人管理天才團隊的時代

AI時代本質上就是“人人管理天才團隊”。每個人手裡的chatgpt、claude,就是博士團隊、甚至諾獎級專家組合。

但關鍵前提是:管理天才團隊的能力本身就是稀缺資源。

但有個關鍵前提:管理天才團隊的能力本身就是稀缺資源。AI確實降低了技術門檻,但“提出好問題、設計驗證流程、判斷輸出質量”這套能力反而在放大。就像人人都能開法拉利,但不是人人都能跑出F1圈速。工具平權了,但能力差距反而更大了。

這導致了新的能力分層:

  • 工具平權了:人人都能訪問Claude、GPT;
  • 能力差距放大了:“提出好問題、設計驗證流程、判斷輸出質量”成為核心競爭力;
  • 腳手架能力成為新的護城河:誰能更好地建構“人類經驗→AI輸出”的管道。

B. 供應端的指數級挑戰

The advancement of AI technology is not linear but exponential.The task duration doubles every seven months.人工智慧技術的發展並非呈線性增長,而是呈指數增長。任務消耗時長每七個月就會翻一番。

這帶來一個反直覺的擔憂:與其擔心AI泡沫,本猿更擔心的是——供應端是否跟得上指數級的需求爆發。

馬斯克的供應鏈洞察:2023年,業界最擔心的是GPU短缺。經過3年的生產,GPU已經過剩了,真正的瓶頸是電力。

這意味著:

  • 算力瓶頸:從GPU算力轉移到光互連的納秒級延遲和兆瓦級電力調度;
  • 資料瓶頸:新鮮、可靠、可驗證的即時行為資料(Perceptron Network試圖解決的問題);
  • 編排瓶頸:能夠駕馭複雜agent系統的工程師(腳手架能力)。

供應鏈的瓶頸正在從“計算”轉向“能源”和“編排”。一旦解決瓶頸,就是意味著實現了黃仁勳的觀點:智能的0關稅、0延遲出口全球,本質上是能源出口。

C. 從Speech-act到Speech-cognition

agent擺脫speech-act的數字空間空轉,進入到speech-cognition的高價值空間。

這是範式演進的終極目標:

  • Speech-act:對話本身是目的(聊天機器人時代);
  • Speech-cognition:對話是認知工具,連接思考與行動;
  • Aha moment:類似Hassabis說的Einstein Test——科學理論發現的突破。

因為是個神經網路黑盒。這個感覺基於大量互動經驗。模糊摸一下,就是意圖解析穿透力很強,長邏輯鏈的收斂,動態對齊(真正的互動)。有一起往前走的協作感。

這種“協作感”的特徵:

  • 意圖解析穿透力很強:AI能理解深層意圖,而非表面指令;
  • 長邏輯鏈的收斂:能在複雜任務中保持方向感;
  • 動態對齊:真正的互動,而非單向執行;
  • 一起往前走的協作感:人機共生,而非工具使用。

D. 由抽象到具象

和AI互動是一個高資訊密度智能體在向下相容我們,所以不論怎麼聊,都會有所收穫。AI是越抽象越泛化,怪不得現在年輕人越來越抽象。

這揭示了當前階段的特徵:

  • AI的能力是“抽象泛化”的;
  • 人類的需求是“具體情境”的;
  • 腳手架的作用就是在兩者之間建立橋樑。

範式演進的脈絡總結

A. 五個階段的遞進邏輯

1.模型競賽期(2018-2024):

- 核心:Scaling Law

- 瓶頸:資料枯竭、落地應用缺失

- 代表:GPT-3/4, Claude 1/2

2.腳手架覺醒期(2024-2025):

- 核心:In-Context Learning + Scaffolding + RSI

- 突破:Context Engineering, 模型幫助創造模型

- 代表:Claude 3.5 Sonnet, Anthropic工程實踐

3.腳手架重構與行業崩塌期(2026年2月-持續):

- 核心:腳手架重構的領域,商業模式就崩塌

- 訊號:兩次48小時崩塌(SaaS + 網路安全)

- 觸發:Claude Code Security等垂直突破

4.Agentic AI大規模落地期(2025年底-2026年):

- 核心:從“概念”到“可用”的跨越

- 戰場:程式設計、個人助理、公共服務三個方向爆發

- 代表:Meta 10-100倍生產力提升、印度WhatsApp政務

5.Speech-Cognition期(未來):

- 核心:互動作為認知工具

- 目標:AI作為認知放大器,而非工具

- 特徵:動態對齊、長邏輯鏈收斂、協作感

B. 兩條主線的交織

第一條主線:技術提速

模型能力 → Context Engineering → RSI(模型創造模型)→ 迭代速度指數級增長

第二條主線:應用落地

Speech-act空轉 → Agentic Orchestration → 大規模部署 → Speech-Cognition

第一條主線決定天花板有多高,第二條主線決定落地有多快。而競爭的終局,取決於誰能讓更多人更早用上智能體。

還有一條資料主線,目前共識還不確定。

C. 關鍵轉折點

1.Anthropic的Context Engineering論文(2025年9月):

- 標誌著從"prompt engineering"到"context engineering"的官方確認

- 腳手架從隱性知識變為顯性方法論

2.RSI時代的到來(2025年底):

- 模型開始幫助創造模型

- 研發速度首次實現遞迴式增長

3.第一次崩塌:SaaSpocalypse(2026年2月3-4日):

- 傳統SaaS商業模式的結構性崩塌

- 資本從"軟體"逃向"物理基礎設施"和"結果交付"

4.第二次崩塌:網路安全類股黑色星期四(2026年2月20日):

- Claude Code Security發佈

- AI超越人類專家多年積累的標誌性事件

智能體從“不放心”到“放心”(2025年底-2026年)

- 可靠性驗證完成

- 大規模部署開始

- 新的生產方式確立

D. 深層思考:範式演進的哲學

從“工具”到“同事”再到“共生體”三個階段的隱喻:

1.工具時代:人使用AI(GPT-3時代)

2.同事時代:人與AI協作(Claude Code時代)

3.共生時代:人AI一體化(Speech-cognition時代)

從“attention is all you need”到“context is all you need”

Transformer的核心是attention機制,但Anthropic的洞察是: “Context, therefore, must be treated as a finite resource with diminishing marginal returns.”

因此,上下文資訊必須被視為一種有限的資源,其邊際效益會逐漸遞減。

這意味著:

-Attention的稀缺性:每個新token都消耗“注意力預算”;

-Context Engineering的本質:在有限注意力預算下,策展最高訊號密度的token集合;

-腳手架的價值:不是增加模型能力,而是最佳化模型注意力的分配效率。

2026年2月20日之後

A. 三個確定性趨勢

1.模型能力繼續指數級增長:

- 任務時長每7個月翻倍

- RSI加速這一處理程序

2.腳手架生態成為主戰場:

- 誰定義管道,誰控制價值流

- 腳手架重構的領域,商業模式就崩塌

3.資料生產關係重構:

- 從平台壟斷到分佈式共建

-即時行為訊號成為新石油

B. 三個開放性問題

1.供應端能否跟上需求爆發?

- 從GPU短缺到電力短缺

- 物理瓶頸可能成為下一個限制因素

2.垂直領域的AI獨角獸何時爆發?

- 軟體工程已佔50%

- 醫療、法律、金融的5%佔比意味著巨大空白

3.人類能力分層會如何演化?

- 工具平權 vs. 能力差距放大

- “管理天才團隊”的能力如何培養?

C.最後的隱喻:Einstein Test與三個時間維度

Hassabis提出了“Einstein Test”(愛因斯坦測試)——AI發現科學理論的能力,回到1905年AI能不能發現狹義相對論。這或許是範式演進的終極目標。

要到達那裡,我們需要穿越三個時間維度:

現在:這是一個工程問題。我們需要建構更好的腳手架,讓人類經驗有效進入LLM,讓智能體可靠執行。

未來:這是一個管理問題。當人人都能訪問天才團隊(AI agents),真正的差距在於誰能更好地管理它們——提出好問題、設計驗證流程、判斷輸出質量。

更遠的未來:這是一個共生的問題。不是AI替代人類科學家,而是AI與人類科學家共生,在Speech-Cognition的高價值空間中,一起往前走,發現下一個aha moment。

2026年2月20日,當Claude Code Security發現了人類專家十年未發現的漏洞,我們或許已經看到了這個未來的一角。

這種“意圖解析的穿透力”,這種“長邏輯鏈的收斂”,這種“一起往前走的協作感”——正是我們正在經歷的範式演進的最深刻特徵。

答案正在2026年的每一天被書寫。 (虎嗅APP)