Anthropic 頂級研究員:AI 進入指數增長,你需要看懂這三件事
2025 年 10 月 25 日,一位鮮少公開露面的 AI 頂級研究員在播客中給出判斷
AI 沒有任何放緩的跡象。每三四個月,模型就能完成兩倍長的任務。
說這話的是Julian Schrittwieser, Anthropic 核心研究員,他曾在GoogleDeepMind 領導了AlphaGo Zero 和 MuZero 的研發。
這不是科普訪談。他來自最前沿的實驗室,正目睹一個大多數人還沒意識到的現實:
- 大眾看到的:回答對了幾個問題
- 他看到的:模型開始完成一整天的工作
為什麼察覺不到?
Julian 給出的答案是:人類直覺無法理解指數級變化。
就像疫情初期人們低估傳播速度,AI 正在走同樣的路徑。當模型每三、四個月能力翻倍,關鍵不在於它有多強,而在於你看不看得懂正在發生的三件事。
第一節|模型能跑多久,才是關鍵
Julian Schrittwieser 的職業軌跡,幾乎串起了這十年人工智慧的主線。
他曾讓 AlphaGo 擊敗李世石,是 MuZero 的第一作者,如今在 Anthropic 負責Claude 模型的推理研究。
“AI 的關鍵,不在於能答多少題,而在於能連續完成多長時間的任務。”
在他眼中,AI 的進步不是一連串“功能升級”,而是任務持續時間的延長。從幾秒、幾分鐘,到現在能處理幾個小時、甚至幾天的連續任務。
Julian 在訪談中解釋,這個指標叫 task length(任務長度),是他們在 Anthropic 內部用來衡量模型“生產力水平”的核心標準。他們發現,每隔三四個月,任務長度就會翻倍。模型不像人類那樣受疲勞影響,能持續思考、持續執行,而且出錯率在長任務中反而下降。
他舉了一個例子: 以前的模型寫一段程序,需要人類不斷提示; 現在,Claude 已經能獨立寫完一個完整的應用模組, 包括規劃結構、呼叫介面、測試和修復。
這不是更聰明,而是能幹更久、更穩。
就像馬拉松選手,關鍵不是衝刺速度,而是跑完全程的耐力。
Julian 認為,這種“任務耐力”的提升,比參數量更值得關注。因為這意味著模型從工具,開始變成執行者。當模型能獨立工作一整天,它就能像同事一樣被分配任務、被追蹤進度、被驗證成果。
Anthropic 內部對 Claude 的連續任務評估顯示,模型能在無人干預的情況下,連續工作 6 到 8 小時,完成從寫程式碼到總結文件的一整套流程。
Julian 強調:
“我們沒在等‘超級智能’來,只是看著任務長度從一分鐘變成一整天。”
當外界還在討論 AI 會不會替代人,實驗室裡已經在問: 它今天能幹多長時間?
第二節|Claude 的底層能力,不是記得多
“不是每個模型都能獨立完成任務,更不是每個模型都能連續工作一整天。 ”
Julian 解釋,Claude 能力的本質,不只是語言模型更大,而是多了一種“預演未來”的能力。
“Claude 背後的關鍵不是參數量,而是它內部有一個‘世界模型’,能模擬未來幾步可能會發生什麼。”
這個“世界模型”(world model),不是在記住資料,也不是預測詞。 它更像是人在腦子裡想像:我如果說這句話,對方可能怎麼反應?那我接下來該怎麼辦?
Julian 說,這種模型已經不是在“回答”,而是在“思考”。
這種能力,其實是他在 MuZero 時期就開始探索的技術路線。
MuZero 是 DeepMind 在 2020 年提出的強化學習模型,最大的突破在於:它不需要知道完整的規則或環境,只靠經驗就能學會在腦中預測接下來的幾步,並不斷修正。
Julian 總結這套方法時,說:
人類不會事先記住整個世界,而是通過想像下一步的結果,來決定行動。AI也應該這樣。
這就是 Claude 不同的地方:它不再是一個生成句子的工具,而是一個能夠模擬因果、進行試探、修正路徑的行動者。
要實現這種“預演”,靠的不是單一的預訓練,而是訓練之後的強化學習。強化學習的過程,就像讓模型反覆練習,直到它學會自己做判斷、走對流程。
預訓練讓模型掌握知識,強化學習讓它學會執行任務。
換句話說,一個是“知道答案”,一個是“找到通往答案的路徑”。沒有強化學習,模型即使知道答案,也無法自己找到那條通往答案的路徑。
他提到 Claude 的一個實驗:給模型一個複雜任務,比如寫一段帶測試的 API 程式碼,要求它:
- 自己規劃寫法;
- 判斷什麼時候用那個函數;
- 在出錯時自己偵錯;
- 最後輸出一段可運行的程式碼。
Claude 做到了,而且中間幾次糾錯都是它自己意識到問題並重寫的。
這種能力來自世界模型與強化學習的結合:模型不再只是回答問題,而是能在內部推演路徑、拆解任務、預判結果、修正錯誤。
它已經從語言模型,進化成了行動模型。
第三節|從回答到接活:Claude 能幹事了
Claude 和以往的語言模型有什麼不同?
Julian 的回答非常簡單:
Claude 不是聊天機器人了,而是你可以交任務給它做的執行者。
他說,在Anthropic內部,他們早已不再用 Claude 做“答題器”,而是讓它處理真實任務,比如:
- 寫一段可運行的 API 程式碼
- 閱讀上千字的PDF檔案,總結並列出關鍵要點
- 執行一整套文件處理流程,包括改寫、格式化、生成摘要
更重要的是,這些任務由Claude分階段自主完成,無需人工干預。
Julian 指出,過去幾年行業裡流行的“提示工程”(prompt engineering),本質上是人類給模型設好路,讓它照著走。 但今天,Claude 的核心能力是 “承接任務”:你不需要一步步指揮它,而是給出目標,它會自己拆分、執行、複查、完成。
這正是智能體(agent)開始成型的關鍵特徵。
它不是靠記憶做題,而是靠連續思考和行動完成任務。
他舉了 Claude Code 和 Claude Agent SDK 的例子。 這是 Anthropic 最近內部重構的兩項重點模組,目標就是:讓模型能像數字員工一樣處理長流程、多步驟任務。
Claude Code 能做到:
- 在你沒有寫完整需求文件的情況下,推理出應該怎麼搭建功能
- 自己在程式碼中加入偵錯語句,定位 bug
- 寫完程式碼後,為你生成測試樣例
- 根據測試結果,再自動改寫邏輯
而 Claude Agent SDK 更進一步,它能執行更複雜的多步任務,比如:
- 打開工具 → 尋找資料 → 寫入文件 → 檢查輸出 → 清理中間結果
- 如果流程中途失敗,會自動記錄失敗原因並嘗試重試
Julian 這樣描述:你現在給 Claude 的不是一句話的問題,而是一張任務清單。
而這正是 Claude 與傳統模型之間最本質的區別:傳統模型只負責回答問題,依賴提示指令,完成單輪互動;而 Claude 已經能自主分解任務、多輪執行、自我糾錯。
它已經從工具,變成了能交付成果的合作者。
第四節|做對一遍容易,做對十遍難
如果說 Claude 已經能幹活,那接下來的問題就是:它每次都能順利做完嗎?
Julian 給出的答案是:不一定。
他說,這正是今天做智能體最現實的挑戰:
我們並不是擔心模型不夠聰明,而是它能不能穩定地把任務做完、不出錯、不走偏。
AI 不是沒有能力,而是太容易被小問題打斷。
比如:
- 在一個文件流程中,模型前半段處理得很好,但後半段突然格式錯亂;
- 在執行某個程式碼改寫任務時,模型一開始理解正確,後來卻忘記了最初的目標;
- 或者某個環節失敗了,模型沒有判斷出錯在那裡,繼續錯下去。
核心癥結在於:預訓練學到的知識很多,但它不會告訴你“什麼時候要停下來”,也不會告訴你“這一步走得對不對”。
也就是說,模型並不是真的知道自己在做什麼。
這時,Anthropic 的做法,是引入“強化學習”和“行為獎勵”,讓模型在每一步執行中有反饋、有方向感。
但這件事比想像中難得多。
強化學習有一個“反饋回路”:你訓練出的模型,會用來產生新的訓練資料,如果某個環節出了偏差,整個鏈條就會跑偏。
這和預訓練完全不同。預訓練像是在填空,目標是確定的;強化學習更像是在走一條不斷修正方向的迷宮,每一步走錯,都可能讓模型偏離軌道。
所以 Anthropic 開始嘗試幾種解決方式。
第一種叫過程獎勵(process-based reward),
不只是看最終結果對不對,而是給模型每一步都設一個參考點。
與其只獎勵模型最後做出好答案,不如在它每一次推理、每一個中間步驟上,給出反饋。這就像老師不僅看你做出對的答案,還看你解題的過程。
第二種方法是自我驗證。
Anthropic 在一些數學任務和程式碼任務中,讓模型生成答案之後,自己反過來驗證一遍。比如寫一段證明,模型必須能自己檢查邏輯有沒有漏洞,才能得分。
這樣能大大減少模型表面做對、實際做錯的情況。
第三種,是在模型的“行為鏈”裡加入錯誤修正機制。
“一個模型真正厲害的標誌,不是它不會犯錯,而是它知道自己錯了,並主動改正。”
Anthropic 讓 Claude 在任務中途,如果出現異常結果,能主動暫停、記錄失敗原因、重試流程。有點像你工作中一邊做一邊留備份,出錯了能回退。
Julian 坦言,這些嘗試仍然在早期:我們還在探索如何讓這些方法更穩定、可規模化。這就是所以智能體要跨過去的一道檻,關鍵不在能力,而在可靠性和執行的穩定性。
今天的挑戰不是模型太笨,而是它太容易因失誤而偏離軌道。
第五節|節奏在加快,窗口期已經開始
在這場深度對話中,Julian反覆強調三件關鍵事實:
- 任務在變長 - 每三四個月,模型能獨立完成的任務長度就翻倍
- 模型在幹活 - AI已經從回答問題進化到執行任務
- 節奏在加快 - 不是十年後才改變,而是現在就要重構工作方式
那麼,我們該如何判斷這個趨勢?他的回答是:
不要靠情緒、熱度、感覺來判斷 AI 發展到了那一步。看任務,看資料,看它到底做了什麼。
在他看來,現在市場上對 AI 的討論,很多都停留在“是不是泡沫”“是不是突破”這些模糊話題上。但前沿實驗室看的是:
- 模型能不能完成真實任務?
- 完成得有沒有提高?
- 交給它之後有沒有人持續使用?
這就是 Anthropic、OpenAI 和 Google 當前內部真正關注的評估維度。
比如 OpenAI 推出的 GDP-Val,就是讓真實行業專家設計任務,讓模型來完成,然後和真人的成果對比。不是看模型“答題得分”,而是看它是否具備實際完成工作的能力。
Julian 特別指出兩個指標,是當前最有參考價值的:
一是 任務長度
AI 能連續工作多久?是 10 分鐘,還是一整天?
模型完成任務的時間越長,就代表你可以託付的範圍越大,節省的人工就越多。
二是 使用者留存與復用
不是模型能不能用,而是大家願不願意持續用、是不是開始形成依賴。
你發佈一個新模型,幾天後使用者就不再用了,那這個模型可能只是看起來強大,真正能持續產生生產力的 AI,一定會有使用量和留存增長。
當任務長度越來越長,使用者使用頻次越來越高,那說明 AI 不再是“功能”,而是開始成為“勞動力”。
那麼,你該怎麼辦?
不是要做判斷,而是去做實驗。
把一項你平常要做 4 小時的任務交給 AI,試試看它能做多少,做得多好。連續做幾次,你自然知道現在 AI 到那了。
他說,自己每天都在做這樣的嘗試,每次的表現都在提升:完成得更多,失敗更少。
也正因如此,他認為:2025年,不是超級智能來了,而是我們終於可以重構任務。把原來需要人一步步完成的流程,交給模型切塊處理;把以前要人工推進的工作,設計成可以交代給 AI 的清單。
不是替代,而是重構“怎麼完成任務”的方式。
結語|不是“AI 超人類”,而是“AI 搭成員”
在 AlphaGo“第37手”到今天的 Claude,Julian 見證了 AI 能力的指數級增長。
但他的建議始終務實:
“不要只看發佈會和排行榜,要看模型能不能連續工作八小時不出錯。不要期待一次性替代,要練習把任務清單交給 AI。”
更重要的是:不是等待突破,而是現在就開始搭建“AI+人”的協作團隊。
因為當任務在變長,當模型在幹活,當窗口期已經打開,
改變不在未來,就在當下。 (AI深度研究員)