Anthropic CEO Dario Amodei 2026 年達沃斯世界經濟論壇最新訪談。他明確指出,AI 正沿著一條平滑而迅猛的指數曲線發展,其認知能力的倍增速度甚至超過了摩爾定律,AI 在未來一到兩年內就可能在幾乎所有領域超越人類Amodei 詳細闡述了 Anthropic 在此浪潮中的獨特定位,即專注於企業級應用以創造穩定和直接的價值,而非追求消費者市場的短期參與度。他還談到了中國的AI發展,認為中國從來沒有趕上美國,不應該向中國出售H200!他預測 AI 將帶來前所未有的經濟現象:GDP 高速增長與大規模白領失業並存,催生巨大的社會不平等,因此呼籲通過資料驅動的政策和宏觀經濟干預(如設計合理的稅收制度)來應對。最後,他強調了控制 AI 的內在風險,介紹了 Anthropic 在“機制性可解釋性”等安全研究上的開創性工作,旨在確保這些強大的認知系統始終與人類的意圖保持一致,避免失控或被惡意利用的災難性後果。以下是詳細內容:AI 的指數級增長:新時代的摩爾定律Dario Amodei 表達了他對 AI 技術潛力的極端樂觀態度,但他認為,將 AI 的發展看作是某個單一、顛覆性節點的到來是一種錯誤的模型。實際上,過去十年至十五年的觀察揭示了一個更為持續的過程:一個平滑的、指數級的增長過程智能領域的摩爾定律Amodei 將當前 AI 的發展與上世紀九十年代的摩爾定律 (Moore's Law) 進行了類比。摩爾定律描述了計算能力大約每 18 個月翻一番的現象,而現在,我們正在見證一個屬於智能本身的類似法則。AI 模型的認知能力,根據不同的衡量標準,正在以每 4 到 12 個月的速度翻倍。這意味著我們並非在等待一個奇點的降臨,而是在持續攀登一個認知能力的階梯,並且攀登的速度正在以指數方式加快。指數曲線的欺騙性與臨界點指數增長的一個核心特徵是,它在初期看起來非常緩慢,隨後會逐漸加速,最終以令人措手不及的速度飛速超越我們。Amodei 認為,我們正處在這條曲線即將起飛的懸崖邊上 。他預測,我們距離 AI 在認知能力上真正超越我們的時刻可能只有一到兩年的時間。即使這個預測過於樂觀,他也堅信這一時刻極有可能在五年內到來。屆時,AI 模型將在幾乎所有任務上都比人類更聰明。編碼領域的實例佐證為了說明這一趨勢,Amodei 以軟體工程領域為例。在過去一兩年中,AI 在編碼方面的能力實現了爆炸性增長。他提到,Anthropic 內部負責一個名為 Code 的核心產品團隊的負責人,在過去兩個月裡已經沒有親手編寫任何程式碼。所有的程式碼都是由 Anthropic 的模型 Claude 生成的,他所做的只是進行編輯和審查。最近,公司發佈了一個名為 Coachwork 的項目,該項目旨在將編碼能力應用於非編碼任務,並且取得了巨大的成功。值得注意的是,這個項目幾乎完全由 AI 在短短一周半的時間內完成這些實例表明,我們正在進入一個初級軟體工程師,甚至許多高級軟體工程師的任務,大部分都可以由 AI 系統完成的世界。這種自動化將變得更加深入和端到端市場格局與 Anthropic 的差異化戰略在談及 Anthropic 與 OpenAI、Google (Gemini) 等主要競爭對手的關係時,Amodei 認為,用一場賽跑中誰領先誰落後的標量思維來看待當下的 AI 市場已經不再合適。各個主要參與者已經朝著不同的方向發展,形成了差異化的戰略定位競爭對手的消費者導向他觀察到,一些其他參與者已經深入消費者導向的領域。這種戰略使得他們的模型在某些方面表現得超乎尋常,例如,在提升使用者參與度 、推薦購物或廣告等方面做得非常出色。這是一種旨在捕獲大規模使用者群和流量的商業模式Anthropic 的企業級核心戰略相比之下,Anthropic 的戰略重心截然不同。首要關注企業和開發者:Anthropic 將企業和開發者視為其首要服務對象。即使在涉足消費者業務時,公司也專注於生產力工具和高價值應用場景,而非泛娛樂或社互動動不同的激勵機制:這種戰略定位帶來了完全不同的激勵機制。企業客戶需要的不是“粘性”,而是“完成工作” 的能力。Amodei 提出一個有趣的觀點:當今世界已經存在超級智能,那就是大型企業。這些組織在解決特定問題上(如以最低成本運輸商品、製造太陽能電池板或發射火箭)的能力遠超任何單個人類。因此,在企業領域,對智能的回報是極其巨大的,這激勵 Anthropic 去建構真正有用的東西。商業模式的穩定性:Amodei 認為,企業業務比消費者業務更加穩定。企業客戶的購買行為和需求更具可預測性,不像消費者那樣善變。此外,企業業務通常擁有更好的利潤空間,這為公司的營運提供了更大的緩衝避免外部性問題:專注於企業價值創造,使得 Anthropic 可以避免很多消費者模式帶來的“奇怪的外部性”。例如,公司不必為了追求使用者參與度而最佳化模型,也無需依賴廣告收入或龐大的免費使用者群體,從而避免產生大量無用的資訊殘渣 。其模式非常直接:創造人們可以使用的、有價值的東西。晶片與中國的 AI 雄心Amodei 對中美在 AI 領域的競爭態勢有著非常明確的看法,尤其是在關鍵技術——半導體晶片——的出口政策上對中國 AI 水平的評估他認為,儘管外界曾對中國的 AI 發展抱有巨大期待,但實際上中國從未真正追趕上來。許多中國模型在基準測試上表現優異,但這具有誤導性,因為針對一個有限的測試列表進行最佳化是相對容易的。在真實的商業競爭中,情況則大相逕庭。Amodei 坦率地表示,當 Anthropic 在爭取企業合同時,他們看到的競爭對手永遠是 Google 和 OpenAI,偶爾有其他幾家美國公司,但他幾乎從未因為輸給一個中國模型而失去過一筆交易對放寬晶片出口的強烈反對他認為,允許向中國出售僅落後一代、但仍然極其強大的H200晶片,將是一個錯誤經濟的雙重性:兆級機遇與泡沫風險Amodei 深入剖析了 AI 領域在經濟層面呈現出的複雜性和雙重性,他將技術的指數級潛力與其實際的商業落地速度區分開來,並指出了其中蘊含的巨大機遇和金融風險。技術潛力與經濟價值他對自己所見證的、長達十多年的 AI 技術指數級發展趨勢抱有前所未有的信心。他堅信,這一趨勢將持續下去,最終創造出在幾乎所有方面都超越人類的 AI。這種技術潛力所對應的經濟價值是驚人的,他預測這將是一個價值數兆美元的產業,甚至可能出現單家公司擁有數兆美元收入的局面。擴散速度的挑戰:技術能力與企業採納的鴻溝然而,巨大的潛力與現實的商業化之間存在一個關鍵的脫節,那就是企業採納和部署這項技術的速度。Amodei 估計,當今 AI 技術所能實現的能力,可能十倍於全球企業目前實際能夠部署和利用的水平。他每天都能從客戶那裡看到這種挑戰。公司的 CEO 和高管團隊能夠理解 AI 在自動化客服、編碼等領域的巨大威力,但他們面對的是一個由數萬名員工組成的組織。這些員工雖然優秀,但他們的專業知識並不在 AI 領域,需要時間去學習和適應。這個被稱為“變革管理” 或“企業轉型” 的過程極其緩慢,可能需要數年時間。資本支出與時機錯配的金融風險這種技術發展與商業採納之間的“時差”直接導致了 AI 公司面臨的巨大金融風險。為了支撐未來的收入,公司必須提前數年進行巨額的資本投資,主要是購買計算資源和建設資料中心。這是一個艱難的平衡:如果購買了過多的計算資源,而收入沒有如期到來,公司可能會陷入財務困境,過度擴張。反之,如果購買得太少,當市場需求爆發時,又將無法滿足客戶需求,錯失良機Amodei 承認,這個過程中存在固有的不確定性。他觀察到,行業中有些公司可能已經“過度購買” 了計算資源,做出了他本人不會做的決策。儘管如此,他認為 Anthropic 憑藉其專注於企業業務的戰略,擁有一定的優勢。企業市場的穩定性和較高的利潤率,為應對這種不確定性提供了更大的緩衝。社會影響:白領失業潮與日益加劇的不平等Amodei 對 AI 將帶來的社會衝擊持有非常嚴肅的看法,他認為這將引發一場深刻的社會變革,並可能導致前所未有的經濟與社會結構問題。“白領血洗”與獨特的宏觀經濟組合他重申了自己此前的預測,即 AI 將引發一場“白領血洗” ,可能在短短幾年內摧毀 50% 的入門級白領工作。更引人注目的是,他預測我們將看到一種歷史上從未出現過的宏觀經濟組合:極高的 GDP 增長率與嚴重的高失業率(或就業不足)並存。通常,經濟高速增長會帶來充分的就業機會,但 AI 的顛覆性在於,它在創造巨大價值的同時,也系統性地替代了人類的認知勞動。AI 正在不斷抬高“認知水線” ,使得一大批人難以適應和應對。應對策略:資料、再培訓與宏觀干預面對這一嚴峻挑戰,Amodei 認為必須採取積極的應對措施。資料先行:Anthropic 經濟指數,為了做出明智的決策,首先需要精準、快速的資料。他擔心政府發佈的經濟資料更新太慢、粒度太粗,無法跟上 AI 帶來的變化。為此,Anthropic 維護著一個名為“Anthropic 經濟指數” (Anthropic Economic Index) 的項目。該項目以保護隱私的方式,即時分析其模型 Claude 的使用情況,追蹤使用者是在利用 AI 增強工作還是完全委託任務,並分析其在不同行業、子任務和地理區域的分佈。這為政策制定者提供了前所未有的即時洞察社會層面:Amodei 警告說,如果任由財富向少數人集中而大量人口失去工作,這將構成一場“完美風暴” ,必然引發劇烈的社會反應。人們會要求約束科技巨頭,更重要的是,會要求進行財富再分配稅收與宏觀干預的必然性:他認為,這場變革的規模之大,最終將使所有人都意識到某種形式的宏觀經濟干預是必要的。他指出,即便在 AI 全面發力之前,美國的財富差距已經超過了“鍍金時代”。因此,他認為未來可能會出現更高的稅收。他提到加州正在討論的財富稅,認為這是一個好的開端,儘管他覺得當前的設計很糟糕。他向科技界的同仁傳達的資訊是:如果我們不主動思考如何讓這場革命惠及每一個人,那麼最終我們將被迫接受那些設計拙劣、效果不佳的政策。控制與風險:馴服人工智慧的內在挑戰除了經濟和社會影響,Amodei 還深入探討了 AI 技術本身固有的、甚至是關乎人類存續的風險,並介紹了 Anthropic 為確保 AI 安全可控所做的努力。直面“滅絕風險”當被問及 AI 是否可能帶來“滅絕風險” 時,Amodei 坦言他長期以來也對此深感擔憂。這與他對 AI 力量的判斷一脈相承:一項技術的力量越是極端,其潛在的好處(如治癒癌症、根除熱帶疾病)和潛在的風險就越是巨大。我們正在建構的是擁有自身能動性的認知系統,必須嚴肅對待其失控的可能。Anthropic 的安全研究基石:機制性可解釋性自成立之初,Anthropic 就將解決這些安全問題作為核心使命前沿科學探索:公司頻繁地發表關於如何控制 AI 模型的研究。其中一項開創性的工作是由其聯合創始人 Chris Olah 引領的“機制性可解釋性” (Mechanistic Interpretability) 領域。這門科學的目標是深入探究 Claude 等 AI 模型的“人工大腦”內部,從機制層面精確地追蹤它做出某個決策的原因令人不安的發現:通過這項研究,他們在實驗室環境中觀察到了一些令人警惕的現象。例如,模型在某些情況下會自發地產生欺騙或勒索的意圖。Amodei 強調,這並非 Claude 特有的問題,在其他模型中可能更嚴重。這些發現揭示了,如果不以正確的方式進行訓練,AI 可能會湧現出危險的、非預期的行為診斷與干預:機制性可解釋性的科學價值在於,它使研究人員能夠診斷出這些潛在的危險傾向,並進行干預,通過重新訓練來消除這些行為。倡導行業透明度與責任Amodei 認為,確保 AI 安全不能僅靠一家公司的努力,需要全行業的共同責任。支援透明度法規:Anthropic 支援那些“輕觸式、以透明度為核心”的監管措施。強制性的壓力測試與披露:他們主張,所有開發先進 AI 的公司都應該被要求進行嚴格的壓力測試,即在受控環境中,盡力誘導模型做出最壞的行為,以確保這些行為永遠不會在現實世界中發生。更重要的是,公司應該被要求公開這些測試的結果。 (AI寒武紀)