我們買的算力規模,是在“即便是第 10 百分位的悲觀情景下”,大機率依然付得起帳。YOLO式下注,風險旋鈕擰的太狠了。我認為勝率會在我們這邊。幾個小時前,素有“華爾街、矽谷超級提問者”的DealBook 創始人、紐約時報首席財經記者Andrew Ross Sorkin,與 Anthropic 的 創始人 Dario Amodei 展開了一場年末對話。這次採訪背景一方面是大洋彼岸已經處於聖誕前夕,但更重要的一面是,昨天,Anthropic被曝出已經啟動IPO籌備工作,計畫最快2026年上市,估值或達3000億-3500億美元。在此之前,則是 Transformer 架構和 Scaling Law 終結的爭議,以及 Gemini 3 Pro 模型的爆火,OpenAI 內部拉響紅色警報。這些事件的接連發生,讓此前甚囂塵上的“泡沫爭議”和接下來AI模型的發展走向帶來了新一輪的不確定性。Dario在爆出了自家的算力財務模型,他們內部稱之為一個不確定性圓錐。如果我有 80% 的毛利率,我花 200 億美金買算力,可以支撐 1000 億美金收入。但問題在於,這個“不確定性圓錐”實在太寬了,很難避免在某一側犯錯。此前,Dario 就曾表示,Anthropic 計畫在 2028 年實現盈虧平衡。而對於 AGI 的實現路徑,Dario 對於 Transformer 架構依舊保持樂觀:我仍然認為是 “規模化 + 偶爾的小修小補” 就足夠了。對於業界一直擔心的GPU晶片的折舊周期,Dario 回應道:舊晶片的價值會快速下滑。我們在建模時,已經默認舊晶片價值會快速下滑,同時也假設晶片效率曲線會持續高速演進。對於自己經常發出警告這件事,Dario對美國AI監管隱隱表達了不滿:現在美國監管已經分成了兩個世界,應該讓真正最接近AI技術的人來發聲。對於自己曾說過的“90%的工作會被AI替代”言論,Dario說,那只是半句話,下半句則是——那怕 AI 完成了 90% 的工作,而不是 100%,人類的“剩餘 10%”反而會被放大 10 倍,有時候甚至需要 10 倍的人,去完成原來 100 倍產出的事情。問題不在“會不會替代”,而在“企業願不願意更多選擇創造新價值,而不是只做極致降本”。以下是這次採訪的整理內容,大家enjoy!泡沫存在:接下來速度一定會放緩 但有些公司卻在YOLO 式下注主持人(Andrew Ross Sorkin):今天下午的重頭戲從 Dario 開始。他是當今人工智慧領域最具影響力的人物之一,是 Anthropic 的聯合創始人和 CEO,這家公司以 Claude 模型聞名,是歷史上增長最快的科技公司之一,現在更是同時獲得了三大科技巨頭——亞馬遜、微軟和Google的支援。他比大多數人更早進入這個領域,早年在 BYU 做研究,後來加入Google,又成為 OpenAI 的早期成員,主導了 GPT-2 和 GPT-3 的研發。歡迎你來到現場。Dario Amodei: 謝謝邀請。今天可以聊的話題很多,包括——我們是不是正處在一個 AI 泡沫中?但我保證,我們會慢慢談到那個問題。主持人: 那我就直接問那個一開始提到的問題吧。你也承認,2014 年沒人想到 2025 年會走到今天這個程度。現在這個行業吸納的資金規模,幾乎代表了美國當前 GDP 增長的主要來源之一。我們是不是正處在某種泡沫中?是不是在過度投資?Dario: 這是一個非常複雜的問題,我必須把“技術本身”和“經濟層面”分開來看。從技術角度看,我非常堅定,我可能是最樂觀的那一類人之一。 但從經濟層面看,我確實有擔憂。即便技術真的兌現了承諾,生態裡如果有人在節奏上稍微踩錯一步,後果會非常嚴重。先說技術這部分。之所以我對技術進展並不太驚訝,是因為我和幾位後來成為聯合創始人的同事,最早系統性地總結過 AI 的“Scaling Law”——也就是只要你不斷加算力、加資料,在少量結構微調下,模型能力就會持續提升。像推理模型、測試時算力,本質上都是非常小的改動。我已經跟蹤這個趨勢 12 年了。最震撼的是:你用這樣極其簡單的方式訓練模型,它會在幾乎所有領域同步變強——程式設計、科學、生物醫藥、法律、金融、材料、製造業,這些正是整個經濟的核心價值來源。只看 Anthropic 自身,因為我們更偏企業級市場,我覺得更像一個“純粹的溫度計”。我們過去三年,收入每年 10 倍增長:2023 年從 0 到 1 億美元,2024 年從 1 億到 10 億,今年會落在 80 到 100 億之間。未來還會不會這樣漲?我不知道。但技術確實在推動價值,經濟回報也正在兌現。 它一定會放緩,但依然會非常快。所以我對“長期終局的經濟價值”是有信心的。主持人: 但問題在於,現在有公司每年要燒掉上千億美元,你們也計畫投 500 億。Sam Altman 去年的規劃數字同樣驚人。這是一次超級昂貴的下注。這個帳到底能不能算清,還是更多是一種“直覺賭注”?Dario: 這就進入我剛才說的第二部分——真正的困境來自於:“經濟價值增長速度”的不確定性,與“資料中心建設周期”的滯後性之間,存在巨大張力。 這是擺在所有公司面前的真實兩難。我認為有些參與者是在“YOLO 式下注”,把風險旋鈕擰得太狠了,對此我非常擔憂。主持人: 誰在 YOLO?Dario: 這個我不回答(笑)。但你可以換個視角想:如果你站在我這個位置,連續三年收入 10 倍增長,很自然會去問:明年會怎樣?如果你非常粗暴地外推,下一年可能是千億美元等級——我必須強調,我完全不相信這個數字。但它是數學上的上限之一。如果你從更理性的企業客戶、具體場景、銷售路徑去拆,可能是 200 億、300 億。所以我內部把它稱為一個“不確定性圓錐”——一年後是 200 億,還是 500 億,極其不確定。 我只能按最保守的一側去做規劃,但這種不確定性本身就足夠令人不安。算力財務模型 不確定性圓錐實在太寬了Dario : 還要疊加一個現實因素:資料中心建設有很長的滯後周期,通常是一到兩年。這意味著我必須在“現在”,甚至幾個月前,就決定:在 2024 年初要買多少算力,去服務 2027 年初那個收入規模下的模型。這中間存在兩個強耦合風險:第一,如果我買少了算力,我就沒法服務所有客戶,只能把他們推給競爭對手;第二,如果我買多了算力,而收入又沒跟上,我就付不起這些算力的成本,極端情況下甚至會面臨破產風險。這個“安全緩衝”本質上取決於我的利潤率。如果我有 80% 的毛利率,我花 200 億美金買算力,可以支撐 1000 億美金收入。但問題在於,這個“不確定性圓錐”實在太寬了,很難避免在某一側犯錯。Dario: 我們自認為是一家相對克制、負責的公司。因為我們主做企業市場,我覺得我們的商業模式更健康,利潤更穩,也更謹慎。但如果你換成另一種模式,比如純消費者業務,收入來源沒那麼確定、毛利也不穩定,再加上企業家本身就是那種“偏愛 YOLO、偏愛大數字”的性格,那風險旋鈕就可能被擰得非常狠。只要存在不確定性,就必然存在過度擴張的系統性風險。 我們每家公司都面臨這個問題,再加上彼此之間的競爭壓力,甚至還疊加了與威權國家“國家層面的技術競爭”,整個系統都會被推著往前走。這種風險是不可消除的,只能被管理。 但我確實認為,有些參與者並沒有管理好這種風險,而是在進行不明智的下注。主持人: 你說到這裡,其實大家心裡大概也知道你在暗指誰。你曾對投資人私下說過,Anthropic 計畫在 2028 年實現盈虧平衡;而 Sam Altman 說的是 2030 年。我暫且按他的演算法來算:他需要在兩年內從 740 億美元等級的虧損,轉為兩年後實現盈利。這個在你看來合理嗎?Dario: 說實話,我不瞭解任何其他公司的內部財務情況,也不可能評價別人。我只能回到我們自己的計算邏輯,也就是那個“圓錐式不確定性”:我們買的算力規模,是在“即便是第 10 百分位的悲觀情景下”,大機率依然付得起帳。再糟也會存在“尾部風險”,這從來不可能為零,但我們在盡力把風險控制在可承受範圍內,同時又要確保我們在競爭中不被甩開。我們在訓練和推理上都很高效,利潤結構也不錯。我認為勝率在我們這邊。主持人: 現在市場上很多人開始討論所謂的“循環交易”,以前我們管這叫“廠商融資”。尤其是輝達,以及其他一些公司,直接入股 AI 公司,而這些公司隨後又用這筆錢去買輝達的晶片,相當於形成了資金閉環。你怎麼看?Dario: 我們也做過類似的交易,只是不是某些玩家那樣的大規模操作。我不講具體案例,只講一個“標準化結構”的例子,解釋為什麼它在邏輯上成立:假設你要建 1GW 的算力規模,買晶片、建機房,總資本開支大概是 500 億美元,使用周期可能是 5 年,也就是每年攤 100 億。如果你是一家年收入 80—100 億、處在快速增長期的公司,現在就讓你一次性掏 500 億,現實中根本不可能。那怎麼辦?大型廠商站出來說:“我先投你 100 億,佔 20%,你先用這 100 億覆蓋第一年,其餘的慢慢按收入滾動支付。” 如果你已經接近 100 億年收入,那這並不是一個瘋狂的賭局。資料中心一年建成,第一年融資覆蓋,意味著你只要在兩年後做到 100 億等級收入,就能跑得通這套邏輯。從結構上看,這並不違背商業邏輯。Dario: 真正的危險只發生在一個場景:如果你一層層疊加這種結構,最後變成“到 2027 或 2028 年,我必須做到 2000 億美元年收入”,那你就一定是在過度擴張。規模,決定了一切的風險邊界。一批晶片到底能撐過幾年?舊晶片的價值會快速下滑 保守押注者會活下來主持人: 這裡還有一個關鍵變數,幾乎決定了整個行業的“投資算不算得過帳”——晶片的折舊周期。你買一批新晶片,它到底是有效四年、五年,還是八年、十年?這個假設不同,整個行業的財務模型就完全不同。你怎麼看?Dario: 我們在內部做的是非常保守的假設。嚴格來說,並不存在一個固定、統一的“折舊年限”。晶片本身可以跑很多年,真正的問題不是“它還能不能用”,而是有沒有更快、更便宜的新晶片出現,並且你的競爭對手已經在用它了。 一旦出現這種情況,老晶片的相對價值就會迅速下降,甚至一年之內就會發生。現在不止是輝達,各家都在推新一代 TPU、GPU。我們在建模時,已經默認舊晶片價值會快速下滑,同時也假設晶片效率曲線會持續高速演進。我們在 Anthropic 的所有假設,基本都站在極端保守的一側。 結果是:在“幾乎所有世界線”裡,我們都可以活下來。當然,極端尾部世界線一定存在,但我只能為我們負責,不能替別人背書。我也完全可以想像,有些公司正在“自我欺騙”,建立在過度樂觀假設之上。主持人: 所以,市場上真正理性克制的,其實就你們兩家?Dario: 我不知道你在指誰(笑)。我真的不知道。ps:這裡小編猜測,所謂市場上真正保持克制的這兩家,一家自然是Anthropic,另一家90%的機率是指的 Amazon。(同樣瞄準的是企業市場,而且沒有過度囤卡。用排除法的話,只剩下 Amazon 和 Apple 了。然而Apple 算是大模型玩家嗎???不大會。)不卷C端!GoogleGemini強歸強,Claude清風拂山崗主持人: 那我們換個話題,聊聊模型本身的競爭格局。就在過去一周,矽谷內部幾乎“情緒失控”,因為某位你我都認識的人發佈了新模型,引發了巨大震動。Saraparay 去年也來過這裡,現在大家突然意識到,原本被認為“資料天生佔優、理應贏麻了”的 Google,可能真的開始發力了。 Sam Altman 內部甚至發了“紅色警報”郵件,讓所有人回到工位衝刺下一輪突破。在你看來,現在這些模型的真實排序是怎樣的?以及,這種“當下時刻的領先”,到底有多重要?Dario : 這是少有的幾個時刻之一,我真心覺得 Anthropic 選擇了一條不同的道路,是一件值得慶幸的事。 我們走的是企業市場路線。你剛剛提到的另外兩位玩家,本質上都還是以 消費者市場為核心,雖然也在做企業業務,但主戰場仍在 C 端。這也是為什麼會出現“Code Red”那種等級的內卷——Google 要守住搜尋壟斷,而 OpenAI 的核心陣地也在消費者端,這兩家是在正面肉搏。對他們而言,企業只是“第二戰場”。而我們過去幾年一直在 圍繞企業真實需求反向打磨模型能力,最先爆發的是程式設計,現在已經開始延伸到金融、生物醫藥、零售、能源、製造等領域。模型戰爭當然重要,比如我們上周剛發佈的 Opus 4.5,在程式設計能力上幾乎被公認為目前行業最強模型。但我們真正走的是“不同維度”的競爭路線,所以對這種你來我往的短期廝殺,依賴反而更低。某種意義上,我們處在一個相對“優越”的位置:可以持續增長、持續迭代模型,而不用天天發“紅色警報”。企業級AI很挑模型,遷移成本很高 專精能力會和AGI長期並存主持人: 那這些公司真正的“護城河”到底是什麼?如果有一天真的到了 AGI 等級,所有模型是不是都會趨同?誰還會在乎你用的是那家?是“記憶能力”嗎?還是人格差異?很多人現在就是那個新就用那個。Dario: 我只能從企業側講我的結論。為企業打造的模型,和為消費者打造的模型,在“性格”和“能力結構”上差異非常大。 企業模型更少追求“黏性與娛樂感”,更強調編碼能力、高階智力活動、科學推理能力。我也不認同“只要到了 AGI,所有東西都會收斂成一個形態”。你看看在座的所有人,都具備“通用智能”,但我們沒有變成同一種人。專精能力會和通用智能長期並存。 再加上企業側的現實因素:公司會形成使用習慣,會和某個模型建立長期關係。即便是在 API 這種“賣裸模型”的業務裡,遷移成本也極高。下遊客戶適應了某個模型的“脾氣”,提示詞、互動方式都深度繫結,切換代價很大。這意味著企業級 AI 具備長期穩定的商業粘性。通往AGI,“規模化+小修小補”足夠了主持人: 一個純技術問題:你認為,現在這種基於 Transformer 的架構,加上純算力規模化,本身就足以通向 AGI 嗎?還是說還缺“某個關鍵成分”?Dario: 我仍然認為是 “規模化 + 偶爾的小修小補” 就足夠了。這些修改之小,小到外界可能根本不會注意到,只是實驗室裡的技術迭代。我已經觀察這些 scaling laws 超過 10 年了。主持人: 那你的時間判斷呢?AGI 在什麼時候?Dario: 我其實不太喜歡“AGI”“超人工智慧”這些詞,因為沒有清晰定義。它更像 晶片摩爾定律式的指數曲線——模型會在所有維度持續變強:新模型比上一代程式設計更強、科研更強,現在已經常態化拿下高中數學競賽,正在沖大學數學,甚至開始 首次產生“全新數學發現”。Anthropic 內部已經有人對我說:“我現在已經不寫程式碼了,我只是讓 Claude Code 先打草稿,我負責修改。” 這種狀態,在過去從未真正出現過。 這個節奏只會繼續加快,沒有所謂“質變奇點”,只是能力持續外推,模型的智力不斷抬升,收入曲線不斷往後面加零。美國AI監管已經分成了兩個世界主持人: 你在(美)監管、就業衝擊這些問題上也相當激進。白宮的 David Sacks 曾公開指控 Anthropic 正在通過“製造恐慌”推動監管,從而進行“高階版的監管俘獲”,並且已經傷害了創業生態。你怎麼回應?Dario: 我還是那句話:不要把這場討論變成對個人或單一機構的攻擊。 我從 2016 年起就開始公開寫 AI 風險和治理的論文,那時候 Anthropic 這個公司根本還不存在,更談不上什麼“監管俘獲”。而且我們支援的幾乎所有監管法案,都明確為中小型創業公司設立了豁免條款。 比如我們支援的 SB53 法案,年營收低於 5 億美元的公司根本不在適用範圍內。 我們在這件事上非常謹慎。真正該討論的,不是立場對立,而是具體政策是否合理。Dario: 你可以拋出各種指控,但這些說法和現實完全不符,無論是和我們實際支援過的法律條文,還是和真實情況,都對不上。現在其實存在兩個世界:一邊是 Andreessen Horowitz 等人,他們支援一個超級政治行動委員會;你們這邊也在建構另一個超級 PAC,試圖用完全不同的方式去影響這個行業的監管。問題是,為什麼?你們看到了什麼,是他們沒有看到的?我還是想把討論維持在政策層面。我對這項技術的看法是:我能理解一些人的樂觀來源,但我確實擔心,有一部分人把 AI 視為類似網際網路、通訊技術那樣的技術革命,覺得市場自然會解決一切問題。放在過去那些技術浪潮裡,這種看法也許是成立的。但真正最接近 AI 技術的人,並不這麼看。如果你去問那些真正做 AI 研究、真正建構模型的人——不是投資某些 AI 應用的投資人,也不是自以為懂 AI 的技術評論員——你會發現,他們一方面對潛力感到興奮,另一方面也非常擔憂。他們擔心國家安全風險,擔心模型對齊問題,擔心 AI 對經濟結構的衝擊。 舉個例子,有人曾提出要在十年內凍結所有監管,或者凍結州一級監管,而聯邦層面又沒有統一框架。這種提案去年夏天就出現過,上周又嘗試了一次,結果再次失敗,因為它極不受歡迎。連普通大眾都清楚,這是一個全新而且極具力量的技術。我可能是對 AI 正面效果最樂觀的那一類人之一。 我寫過一整篇文章《Machines of Loving Grace》,我在裡面說,AI 甚至可能把人類的壽命延長到 150 歲。再往後推,當資料中心裡真的出現“天才之國”,我們將擁有一個比任何人類都更快做出生物學發現的虛擬生物學家;它可能把經濟增速推到 5% 甚至 10%。老實說,我對這項技術的樂觀程度,可能比很多自稱“技術布道者”的人還要高。 但一切如此強大的東西,都不可能沒有巨大的副作用。作為一個社會,我們必須提前思考這些代價。 如果你說未來十年都不去監管這種技術,這就好比你在高速路上開車,然後決定把方向盤拆掉,因為“未來十年我都不需要轉向”——這在邏輯上是說不通的。老闆們不應該只做極致降本,而忽視創造新價值 90%的工作被AI替代,但剩下的10%會被放大10倍主持人: 那我們就談談其中一個最具體、最現實的風險——就業。除了駭客攻擊這些問題,你最近在《60 Minutes》裡也談到過工作崗位。我想知道的不是“有沒有可能”,而是,如果真的出現大量入門級崗位被替代,你認為應該怎麼應對?Dario: 我之所以不斷髮出這些警告,並不是為了當什麼末日預言家,而是因為“發出警告本身,就是解決問題的第一步”。如果我們不提醒自己風險的存在,就相當於在雷區裡閉著眼睛往前走;如果我們看見了地雷,就可以繞開它。我這段時間在認真思考這些問題,在 Anthropic 內部也是一樣。現在 Claude 已經開始為我們寫大量程式碼,我們也在親身經歷“工作如何發生變化”。我把應對方式分成三個層級,從短期到長期,也對應從企業就能推動,到需要整個社會投入更多資源。第一層,是企業自身與客戶層面的調整。 每一家客戶都會面臨同樣的權衡,這不是簡單的“取代或不取代”。一部分場景中,AI 會直接完成原本由人類完成的工作,比如保險理賠流程、KYC 全流程自動化,這些都可以端到端由 AI 完成。結果就是:更高效率、更低成本、更少人力。但還有另一種路徑——那怕 AI 完成了 90% 的工作,而不是 100%,人類的“剩餘 10%”反而會被放大 10 倍,有時候甚至需要 10 倍的人,去完成原來 100 倍產出的事情。問題不在“會不會替代”,而在“企業願不願意更多選擇創造新價值,而不是只做極致降本”。 前一種他們一定會做,我們也不打算攔;但如果他們願意更多做第二種,新增崗位也可能超過被替代的崗位。第二層,是政府的介入。 我並不把“再培訓”視為萬能解法,但它一定是必要選項的一部分。企業會做,企業也必須和政府一起做。但從財政層面看,我認為政府遲早要介入。我不確定具體是稅收工具,還是其他政策工具。但在一個高速增長的世界裡,我們曾做過一份報告,即便是今天這些模型,也已經能讓生產率每年提高 1.6%。這幾乎意味著生產率的翻倍,而且模型還在不斷變強。我認為未來有可能到 5%,甚至 10%。 這是一塊極其巨大的“蛋糕”。如果財富過度集中,這塊蛋糕本身也足夠大,大到我們完全有條件照顧到那些並未直接從 AI 中受益的人。第三層,是更長期的社會結構問題。 如果一個社會真正建構出了強大的 AI,它的運行方式必然會發生變化。回到凱恩斯在《我們後代的經濟前景》中提出的“技術性失業”,他設想他的孫輩也許每周只需要工作 15 到 20 個小時。這是一種完全不同的社會結構。當然,總有人會選擇拚命工作,但是否可能出現這樣一個世界:對很多人來說,工作不再是生活的絕對中心,意義的來源發生轉移,工作不再只是為了生存,更偏向於實現感?這種可能性真實存在。 我不是在提任何自上而下的規劃,我只是認為,社會終究會在後 AGI 時代,自己找到新的運行方式。這三層變化,從企業層面最容易、最快發生,到政府層面需要共識,再到社會結構層面最慢、最難推進。但未來很多年裡,我們三件事都必須一起做。主持人: Dario,我真心希望你還能再回來,和我們繼續討論這三件事該怎樣一步一步落地。非常感謝今天這場精彩的對話。Dario: 謝謝你,Andrew。謝謝大家。 (51CTO技術堆疊)