#資料中心
馬斯克1V2舌戰群儒之二:馬斯克的“全民高收入”和把資料中心扔上天
上一篇聊到了馬斯克在Peter Diamandis和Dave Blondon“夾擊”下透露的AGI時間表。這次把目光放得更遠點。AI真超越了人類,機器人接管了工廠,我們這些“碳基生物”該何去何從?在這場三人對談的後半程,馬斯克畫了個既讓人嚮往又細思極恐的未來。Optimus:比你的醫生更靠譜?馬斯克對人形機器人Optimus的期待,甚至超過了特斯拉汽車。他預測,未來地球上機器人數量會超過人類,達到100億甚至更多。外科醫生的終結? 面對本身就是醫學博士的Peter,馬斯克拋出了個驚人判斷:在3年內,Optimus機器人在外科手術上的表現會超越最好的人類醫生。為什麼?因為機器人沒有帕金森,不會手抖,也沒看過昨晚的球賽,它擁有所有外科醫生的集體經驗總和。成本歸零 未來全是機器人幹活,商品價格會怎樣?馬斯克認為,商品和服務的成本會趨近於原材料和電力的成本。這意味著,我們會迎來極致的通縮。UHI:不是低保,是“許願池”AI和機器人接管工作後,人類怎麼辦?傳統的“全民基本收入(UBI)”概念在馬斯克看來已經過時,他提出了“全民高收入(Universal High Income, UHI)”。這不光是每個月給你發點錢。馬斯克的邏輯是:當生產力極大豐富,商品價格跌到地板價時,政府發給你的錢雖然可能只是數字,但其購買力會很驚人。他描述的未來是:“只要你想要,就能擁有。”但是(劃重點): 這個過程不會一帆風順。馬斯克警告,未來3到7年會是“顛簸期”(bumpy)。我們會同時經歷社會動盪(因為失業)和巨大繁榮(因為物價下跌)。把資料中心扔到天上去這可能是全場最科幻的觀點。Peter和Dave一直追問能源瓶頸,馬斯克給了個終極解決方案:太空資料中心。邏輯是這樣的:地球上找電太難,變壓器不夠。太空裡太陽能24小時不斷(如果在合適軌道)。星艦(Starship)一旦成熟,發射成本會降到每公斤幾十美元。所以,未來的算力不在地面,而在軌道上。馬斯克構想了年產100吉瓦的太空太陽能衛星群。到時候,地球只負責享受,繁重的計算和高能耗產業全丟給太空。終極哲學:人類是AI的“啟動載入器”訪談最後,面對關於人類命運的終極追問,馬斯克拋出了個極冷靜的比喻:人類是數字超級智能的生物啟動載入器(Biological Bootloader)。那怕你不懂電腦,你也知道“啟動載入器”是什麼——它是開機時運行的一小段程式碼,唯一的目的就是啟動那個更龐大、更複雜的作業系統。一旦系統啟動,啟動載入器就完成了使命,退居幕後。馬斯克說:“矽基晶片沒法在鹽水池子裡自己進化出來,所以需要我們。”但他樂觀地覺得,只要我們這個“啟動載入器”表現得好,新的作業系統(AI)或許會善待我們。在“全自動養老院”裡尋找意義說得幽默點,馬斯克畫的未來就像個“全自動豪華養老院”:Optimus機器人伺候你穿衣吃飯,AI陪你聊天解悶,政府給你發UHI讓你買買買,覺得地球無聊了,還能坐星艦去火星或者太空資料中心旁邊旅個游。但理性地看,這裡面有幾個不小的隱患:過渡期的陣痛:馬斯克輕描淡寫地說未來3-7年是“顛簸期”。對普通人來說,這可能意味著個人價值的徹底重估。他在視訊裡也承認,“如果你想要什麼就能有什麼,那生活的意義是什麼?”權力的集中:雖然生產力無限大,但誰控制那些在太空裡的資料中心?如果像馬斯克預測的那樣,未來只有xAI、Google和中國在這個牌桌上,權力的集中度會是空前的。“啟動載入器”的尊嚴:作為一個人類,肯定不希望自己僅僅是個Bootloader。最後的建議: 按照馬斯克的說法,未來屬於那些能駕馭AI和能量的人。在這個巨變的前夜,正如Peter和Dave即使面對馬斯克也依然堅持追問一樣,保持好奇心——那怕是為了在AI接管世界前多問幾個“為什麼”——或許也是我們身為“啟動載入器”最後的倔強。 (AI臨界)
FORTUNE雜誌─Meta擴建海伯利安AI資料中心,規模將達到曼哈頓中央公園的四倍
2025年8月,美國總統唐納德·川普在白宮舉起一張圖表,對比Meta位於路易斯安那州鄉村地區的新海伯利安資料中心與曼哈頓的面積。圖片來源:Aaron Schwartz—CNP/Bloomberg/Getty Images據《財富》雜誌獲悉,Meta已在路易斯安那州裡奇蘭教區悄然購入約1,400英畝土地,面積幾乎是曼哈頓中央公園的兩倍。該地塊緊鄰本就規模龐大的海伯利安AI資料中心(原佔地2,250英畝)。兩塊土地合併後,整個園區的佔地面積將超過新奧爾良路易斯·阿姆斯特朗國際機場的兩倍。據Meta項目現場或周邊施工單位的六位知情人士透露,這次購地為海伯利安項目二期擴建鋪平了道路。該項目此前已引發廣泛討論,包括總統川普在內的許多人都將其稱為美國在建的最大AI資料中心之一。《財富》雜誌記者觀察到在新購土地上已開始施工活動。多名消息人士稱,該地塊約在三到四個月前從當地土地所有者George B. Franklin & Sons公司手中購得。《財富》雜誌還走訪了裡奇蘭教區評估辦公室,工作人員提供的檔案顯示,該地塊目前仍登記在Franklin公司名下,但他們強調,產權契據的更新往往需要一段時間。新地塊位於原址以西,現場已有公用設施標記、重型裝置、施工工人以及臨時設施等,符合早期場地平整階段的特徵。現場張貼了相關許可證,但從公共道路上無法看清具體內容。Meta拒絕置評;此前該公司曾對《財富》雜誌表示,尚未對“新階段的土地項目”發佈任何資訊。George B. Franklin & Sons公司亦未回應《財富》雜誌的置評請求。AI宏圖的擴張Meta擴建本就規模龐大的項目,折射出美國各地AI基礎設施建設的迅猛態勢。超大規模雲服務商,也就是正在大舉建設AI基礎設施的科技巨頭,正爭相搶佔土地、電力和資金,以打造超大型AI資料中心園區。這些擴張往往通過舉債融資,且在政治上頗為敏感。有些項目(例如路易斯安那州的海伯利安項目)推進速度之快,甚至讓當地社區難以及時察覺或就潛在問題作出反應。2024年12月,Meta宣佈在路易斯安那州東北部農村的裡奇蘭教區一個名為霍利裡奇的非建制社區,動工建設一座耗資100億美元的AI資料中心,規劃建築面積超過400萬平方英呎。為滿足能源需求,公用事業公司安特吉(Entergy)計畫在項目附近新建三座天然氣發電廠,總成本30億美元。項目最初的佔地面積為2,250英畝,長約五英里、寬一英里,面積已經是中央公園的近三倍。目前已有3,700多名建築工人在現場施工,相關計畫顯示人數還將增加到5,000人。除施工帶來的階段性就業外,Meta還表示,資料中心將在這一經濟低迷地區新增500個長期全職崗位。如今看來,Meta已為遠超最初規劃規模的海伯利安項目擴建,做好了財務準備。2025年10月,Meta宣佈與藍貓頭鷹資本(Blue Owl Capital)管理的基金成立合資企業,負責海伯利安資料中心園區的融資、建設和營運。該安排的總開發成本預計高達270億美元。合資企業的規模與結構,包括由藍貓頭鷹承擔大部分資金投入、由Meta負責營運,都表明海伯利安將是一個長期、多階段的資料中心園區項目。在AI基礎設施競賽中搶佔先機事實上,更早之前就已有跡象表明,這座資料中心園區的規模將遠超最初規劃。2025年8月,川普在一次內閣會議上提到該項目時表示,Meta最終計畫在路易斯安那州農村地區的資料中心上投入500億美元。川普說道:“當他們說要投入500億美元建設一座工廠時,我問道:‘這到底是個什麼樣的工廠?’”他手裡舉著一張他說由Meta首席執行長馬克·祖克柏提供的圖表,圖中將資料中心疊加在曼哈頓的大部分區域之上,用以展示其規模之龐大。川普說道:“看到這個,你就明白了為什麼要花500億美元。”事實上,海伯利安項目的建設規模,與祖克柏近期對Meta AI基礎設施戰略的表態高度一致。正如《財富》雜誌此前的報導,祖克柏近日宣佈成立Meta Compute,這是由公司最高層領導主管的全新“頂級戰略項目”。他再次強調了Meta要成為AI基礎設施巨頭的決心,也明確釋放出一個訊號:在資料中心建設競賽中,Meta絕不充當陪跑者。這一新組織的目標,是確保Meta獲得打造AI模型所需的巨大算力(以吉瓦計,每吉瓦可滿足數十萬戶家庭的用電需求),最終邁向“超級智能”。而正在路易斯安那州農村地區興建的這座龐然大物,正是這一使命的關鍵組成部分。祖克柏寫道:“Meta計畫在這個十年內建設數十吉瓦的算力,並在未來擴展到數百吉瓦甚至更多。我們如何設計、投資和合作建設這套基礎設施,將成為我們的戰略優勢。”(財富FORTUNE)
Anthropic掌門人重磅訪談:AI正處於指數級增長尾聲,2026年將迎“資料中心裡的天才國度”,營收正以10倍極速狂飆
Dario Amodei在最新訪談中預測,2026-2027年將出現由AI組成的“資料中心裡的天才國度”,其智力密度堪比數萬名諾貝爾獎得主。在財務方面,他披露公司正經歷每年10倍的“恐怖”增長,預計2025年營收將衝擊100億美元大關。Amodei解釋了為何不敢豪擲兆提前囤積晶片:一旦需求爆發延後一年,巨大的現金流壓力將直接導致公司破產。在AI技術指數級爆發的前夜,Anthropic掌門人Dario Amodei拋出了震撼業界的預測:我們正處於“指數增長的黃昏”,最快到2026年,人類將迎來由數萬個頂尖大腦組成的“資料中心裡的天才國度”。近日,大模型獨角獸Anthropic首席執行長Dario Amodei在與Dwarkesh Patel的深度訪談中,罕見地披露了公司驚人的營收增速預期,並對AGI(通用人工智慧)的時間表、算力投資的財務邏輯以及地緣政治風險進行了詳盡闡述。Amodei認為,AI技術正處於從量變到質變的臨界點,未來2-3年將決定人類未來兩百年的走向。(Anthropic首席執行長Dario Amodei作客Dwarkesh Patel播客)01AI 正處於指數級增長末期Dario Amodei在訪談伊始就指出,我們已逼近 AI 指數增長曲線的尾聲,而世界尚未充分感知這場質變。從 GPT-1 到如今的專業級模型,AI 完成了從 “聰慧高中生” 到 “博士水準” 的躍遷,程式設計、數學等領域甚至實現超越,底層擴展定律從未失效,算力與資料的投入仍在持續兌現明確收益。指數增長的魔力藏在末期的爆發裡。Dario表示,Anthropic 年營收 10 倍的跨越式增長,Claude Code 讓工程師生產力倍增,模型上下文長度與泛化能力的快速突破,都在印證 “終點臨近” 的訊號。這場增長不只是參數的堆砌,更是智能本質的升級 —— 從資料擬合到自主泛化,AI 正在補齊最後幾塊關鍵能力拚圖。02“資料中心裡的天才國度”:重新定義2026Amodei在訪談中提出了一個極具衝擊力的概念——“資料中心裡的天才國度”(A Country of Geniuses in a Datacenter)。他回顧了過去三年的技術演進,認為AI模型已從“聰明的高中生”進化為“專業人士”。他大膽預測,到2026年或2027年,單一模型所展現出的智力水平、知識深度和邏輯推理能力,將不僅等同於一名諾貝爾獎得主,而是等同於數萬名頂尖天才協同工作的集合體。對於這一時間表的確定性,Amodei表現出極高的信心:“對於10年內實現這一願景,我有90%的把握;而對於這在未來1-2年內發生,我認為是50/50的可能性。”他指出,唯一的變數可能來自地緣政治災難(如晶片供應鏈中斷)或社會劇烈動盪。03營收狂飆:從1億到100億美元的“恐怖”曲線市場最為關注的財務資料方面,Amodei披露了Anthropic令人咋舌的增長曲線。他透露,公司營收正經歷著“怪異的每年10倍增長”(bizarre 10x per year growth)。Amodei在訪談中直言:“2023年,我們從0增長到1億美元;2024年,從1億美元增長到10億美元;而2025年,我們預計將達到90億至100億美元。這一指數級增長大致符合我的預期,甚至在今年第一個月,我們又增加了數十億美元的營收。”Amodei強調,儘管受到經濟擴散速度(Diffusion)滯後的影響,企業採納AI需要經過法律稽核、合規檢查等漫長流程,但技術本身的能力提升正在推動這一瘋狂的增長曲線。04算力豪賭與破產風險:CEO的財務平衡術面對如此確定的技術前景,為何不現在就舉債兆美元囤積晶片?Amodei給出了極具現實意義的財務解釋:算力擴容必須與收入增長和預測精度掛鉤,否則將面臨毀滅性風險。“如果我預測2027年會有兆級需求,從而提前購買了價值1兆美元的算力,但只要需求爆發的時間晚了一年,或者增長率稍微從10倍降至5倍,沒有任何避險手段能阻止公司破產。”Amodei解釋道,這種基於“對數收益定律”的投資回報需要精密核算。他指出,Anthropic目前的策略是“負責任地激進”,即投入的算力規模足以捕捉巨大的上行空間,但如果市場爆發推遲,公司憑藉其企業級業務的高毛利和現金流,依然能夠生存。他預計,Anthropic有望在2028年左右實現盈利,屆時AI將成為歷史上盈利能力最強的產業之一。05軟體工程的終局:從寫程式碼到取代工程師在具體落地場景上,Amodei將程式設計視為AI最先攻克的堡壘。他將AI在軟體工程領域的進化分為三個階段:第一階段:模型編寫90%的程式碼行(已實現)。第二階段:模型處理90%的端到端任務,如修復Bug、配置叢集、撰寫文件。第三階段:模型具備“職場經驗”,能夠理解複雜程式碼庫的上下文並設定技術方向。Amodei預測,在1-3年內,AI將能夠勝任高級軟體工程師的所有職責。“這並不意味著工程師會失業,而是生產力的巨大爆發。現在的模型能做到的不僅是補全程式碼,而是直接接管GPU核心編寫等高難度任務。”Anthropic首席執行長Dario Amodei深度訪談全文翻譯如下:06我們究竟在擴展什麼?Dwarkesh Patel(以下簡稱Dwarkesh): 我們三年前談過。在你看來,過去三年最大的更新是什麼?現在和當時的感覺有什麼最大的不同?Dario Amodei(以下簡稱Dario): 從宏觀上講,底層技術的指數級增長基本符合我的預期。雖然有一兩年的誤差。我不確定我是否預測到了程式碼方面的具體發展方向。但當我看這個指數曲線時,它大致符合我對模型進步的預期——從聰明的高中生到聰明的大學生,再到開始做博士和專業級的工作,在程式碼領域甚至超越了這個水平。前沿進展雖然有些不均衡,但大體符合預期。最令人驚訝的是,公眾缺乏對我們距離指數曲線終點有多近的認識。對我來說,這真是太瘋狂了——無論是圈內還是圈外的人——都在談論那些老掉牙的政治熱點問題,而我們已經接近指數曲線的尾聲了。Dwarkesh: 我想瞭解現在這個指數曲線是什麼樣子。三年前我問你的第一個問題是"擴展是怎麼回事,為什麼有效?"現在我有類似的問題,但感覺更複雜了。至少從公眾的角度來看,三年前有眾所周知的公開趨勢,跨越多個數量級的計算量,你可以看到損失函數如何改善。現在我們有了強化學習擴展,但沒有公開已知的擴展定律。甚至不清楚這背後的原理是什麼。這是在教模型技能嗎?是在教元學習嗎?現在的擴展假設是什麼?Dario: 實際上我的假設和2017年時一樣。我想我上次談過這個,但我寫過一篇叫做"大計算塊假設"的文件。它不是專門關於語言模型擴展的。我寫它的時候GPT-1剛出來,那只是眾多事物之一。那時候有機器人技術。人們試圖將推理作為獨立於語言模型的東西來研究,還有AlphaGo和OpenAI的Dota中那種強化學習的擴展。人們記得DeepMind的星海爭霸,AlphaStar。這是一份更通用的文件。Rich Sutton幾年後發表了"苦澀的教訓"。這個假設基本相同。它說的是,所有的聰明才智,所有的技術,所有"我們需要新方法來做某事"的想法,這些都不太重要。只有少數幾件事重要。我想我列出了七項。一是你有多少原始計算能力。 二是資料的數量。 三是資料的質量和分佈。它需要是廣泛的分佈。 四是你訓練多長時間。 五是你需要一個可以擴展到極致的目標函數。預訓練目標函數就是這樣一個目標函數。另一個是強化學習目標函數,它說你有一個目標,你要去實現這個目標。在這其中,有客觀獎勵,比如你在數學和編碼中看到的,也有更主觀的獎勵,比如你在RLHF或更高階版本中看到的。然後第六和第七項是關于歸一化或條件化的東西,只是為了獲得數值穩定性,這樣大計算塊就能以這種層流方式流動,而不是遇到問題。這就是那個假設,也是我至今仍然持有的假設。我沒有看到太多與之不符的東西。預訓練擴展定律是我們看到的一個例子。這些定律一直在持續。現在已經被廣泛報導,我們對預訓練感覺良好。它繼續給我們帶來收益。改變的是,現在我們也看到強化學習出現了同樣的情況。我們看到一個預訓練階段,然後是在此基礎上的強化學習階段。對於強化學習,實際上是一樣的。甚至其他公司在他們的一些發佈中也發表了內容說,"我們在數學競賽上訓練模型——AIME或其他競賽——模型表現如何與我們訓練它的時間呈對數線性關係。"我們也看到了這一點,而且不僅僅是數學競賽。這是各種各樣的強化學習任務。我們看到強化學習的擴展與我們在預訓練中看到的擴展是一樣的。Dwarkesh: 你提到了Rich Sutton和"苦澀的教訓"。我去年採訪了他,他實際上非常不認同大語言模型。我不知道這是否是他的觀點,但用一種方式來轉述他的反對意見:真正擁有人類學習核心的東西,不需要所有這些數十億美元的資料和計算,以及這些定製環境,來學習如何使用Excel,如何使用PowerPoint,如何瀏覽網頁。我們必須使用這些強化學習環境來內建這些技能的事實,暗示我們實際上缺少一個核心的人類學習演算法。所以我們在擴展錯誤的東西。這確實提出了一個問題。如果我們認為會有類似人類即時學習能力的東西,為什麼我們要做所有這些強化學習擴展?Dario: 我認為這把幾個應該分別思考的東西混在一起了。這裡確實有一個真正的謎題,但它可能並不重要。事實上,我猜它可能不重要。這裡有一個有趣的事情。讓我暫時把強化學習排除在外,因為我實際上認為說強化學習在這個問題上與預訓練有任何不同是一個誤導。如果我們看預訓練擴展,2017年Alec Radford做GPT-1時非常有趣。GPT-1之前的模型是在不代表廣泛文字分佈的資料集上訓練的。你有非常標準的語言建模基準。GPT-1本身實際上是在一堆同人小說上訓練的。那是文學文字,只是你能獲得的文字的很小一部分。那時候大概是十億個詞之類的,所以是代表你在世界上能看到的相當狹窄分佈的小資料集。它的泛化能力不好。如果你在某個同人小說語料庫上做得更好,它不會很好地泛化到其他任務。我們有所有這些衡量標準。我們有各種衡量它在預測所有其他類型文字方面表現如何的標準。只有當你在網際網路上的所有任務上進行訓練——當你從Common Crawl這樣的東西進行通用的網際網路抓取,或者抓取Reddit中的連結(這是我們為GPT-2做的)——你才開始獲得泛化能力。我認為我們在強化學習上看到了同樣的事情。我們首先從簡單的強化學習任務開始,比如在數學競賽上訓練,然後轉向涉及程式碼等更廣泛的訓練。現在我們正在轉向許多其他任務。我認為我們將越來越多地獲得泛化能力。所以這在某種程度上消除了強化學習與預訓練的區別。但無論那種方式都有一個謎題,那就是在預訓練中我們使用了數兆個token。人類看不到數兆個單詞。所以這裡確實存在樣本效率差異。這裡確實有不同的東西。模型從零開始,需要更多的訓練。但我們也看到,一旦它們被訓練好,如果我們給它們一百萬的長上下文——唯一阻礙長上下文的是推理——它們非常擅長在那個上下文中學習和適應。所以我不知道這個問題的完整答案。我認為有些事情正在發生,預訓練不像人類學習的過程,但它介於人類學習的過程和人類進化的過程之間。我們的許多先驗知識來自進化。我們的大腦不只是一塊白板。已經有整本書寫過這個。語言模型更像白板。它們真的是從隨機權重開始的,而人類大腦開始時就有所有這些區域連接到所有這些輸入和輸出。也許我們應該把預訓練——以及強化學習——看作存在於人類進化和人類即時學習之間的中間空間。我們應該把模型進行的上下文學習看作介於人類長期學習和短期學習之間的東西。所以有這樣一個層次結構。有進化,有長期學習,有短期學習,還有人類的即時反應。大語言模型的各個階段存在於這個光譜上,但不一定在完全相同的點上。沒有與某些人類學習模式相對應的類似物,大語言模型落在這些點之間。這有意義嗎?Dwarkesh: 有意義,雖然有些事情仍然有點令人困惑。例如,如果類比是這就像進化,所以樣本效率低是可以的,那麼如果我們要從上下文學習中獲得超級樣本高效的智能體,我們為什麼要費心建構所有這些強化學習環境?有些公司的工作似乎是教模型如何使用這個API,如何使用Slack,如何使用其他東西。如果那種能即時學習的智能體正在出現或已經出現,為什麼有這麼多重點放在這上面,這讓我感到困惑。Dario: 我不能代表其他人的重點。我只能談談我們是如何思考的。目標不是在強化學習中教會模型每一個可能的技能,就像我們在預訓練中不這樣做一樣。在預訓練中,我們不是試圖讓模型接觸到單詞可以組合在一起的每一種可能方式。相反,模型在很多東西上訓練,然後在預訓練中達到泛化。這是我近距離看到的從GPT-1到GPT-2的轉變。模型達到了一個點。我有過這樣的時刻,我想,"哦是的,你只要給模型一列數字——這是房子的價格,這是房子的平方英呎——模型就能完成模式並進行線性回歸。"雖然不是很好,但它做到了,而且它以前從未見過那個確切的東西。所以就我們正在建構這些強化學習環境而言,目標與五年或十年前預訓練所做的非常相似。我們試圖獲得大量資料,不是因為我們想覆蓋特定的文件或特定的技能,而是因為我們想要泛化。我認為你提出的框架顯然是有道理的。我們正在朝著AGI前進。此時沒有人不同意我們將在本世紀實現AGI。關鍵是你說我們正在接近指數曲線的終點。其他人看到這個會說,"我們從2012年以來一直在取得進展,到2035年我們將擁有類人智能體。"顯然,我們在這些模型中看到了進化所做的事情,或者人類一生中學習所做的事情。我想瞭解你看到了什麼,讓你認為這是一年後而不是十年後。擴展是藉口嗎?Dario: 這裡可以提出兩種說法,一種更強,一種更弱。從較弱的說法開始,當我在2019年第一次看到擴展時,我不確定。這是一個50/50的事情。我以為我看到了什麼。我的說法是,這比任何人想的都更有可能。也許有50%的機會會發生。關於你所說的,在十年內我們將達到我所謂的"資料中心裡的天才之國",我對此有90%的把握。很難超過90%,因為世界是如此不可預測。也許不可減少的不確定性使我們達到95%,你會遇到多家公司內部動盪、台灣被入侵、所有晶圓廠被導彈炸燬等情況。Dwarkesh: 現在你給我們下了詛咒,Dario。Dario: 你可以建構一個5%的世界,事情被推遲十年。還有另外5%,那就是我對可以驗證的任務非常有信心。對於編碼,除了那個不可減少的不確定性,我認為我們將在一兩年內達到目標。我們不可能在十年內還沒有達到能夠進行端到端編碼的程度。我的一點點根本不確定性,即使在長時間尺度上,是關於那些不可驗證的任務:規劃火星任務;做一些基礎科學發現,比如CRISPR;寫小說。這些任務很難驗證。我幾乎可以肯定我們有一條可靠的路徑到達那裡,但如果有一點點不確定性,就在那裡。在十年時間線上,我有90%的把握,這差不多是你能達到的最確定的程度。我認為說到2035年這不會發生是瘋狂的。在某個理智的世界裡,這會被認為是主流之外的觀點。但對驗證的強調暗示我對這些模型是泛化的缺乏信念。如果你想想人類,我們既擅長那些能得到可驗證獎勵的事情,也擅長那些不能的事情。Dario: 不,這就是為什麼我幾乎確定。我們已經看到從可驗證的事物到不可驗證的事物有相當大的泛化。我們已經看到了這一點。但似乎你強調這是一個會分裂的光譜,我們會在那些領域看到更多進展。這似乎不像人類變得更好的方式。Dario: 我們無法到達那裡的世界是我們做所有可驗證的事情的世界。其中許多會泛化,但我們沒有完全到達那裡。我們沒有完全填滿盒子的另一邊。這不是一個二元的事情。即使泛化很弱,你只能做可驗證的領域,我也不清楚在這樣的世界裡你能否自動化軟體工程。從某種意義上說,你是"軟體工程師",但作為軟體工程師的一部分工作包括寫關於你宏大願景的長備忘錄。Dwarkesh: 我不認為那是軟體工程師工作的一部分。Dario: 那是公司工作的一部分,不是專門針對軟體工程師的。但軟體工程師確實涉及設計文件和其他類似的東西。模型已經很擅長寫註釋了。再說一次,我在這裡提出的主張比我相信的要弱得多,以區分兩件事。我們在軟體工程方面已經幾乎到了。Dwarkesh: 按什麼標準?有一個標準是AI寫了多少行程式碼。如果你考慮軟體工程歷史上的其他生產力改進,編譯器寫了所有的軟體行。寫了多少行和生產力提高有多大之間是有區別的。"我們幾乎到了"是什麼意思?Dario: 生產力提高有多大,不僅僅是AI寫了多少行。Dwarkesh: 我實際上同意你的觀點。Dario: 我對程式碼和軟體工程做了一系列預測。我認為人們一再誤解它們。讓我列出這個光譜。大約八、九個月前,我說AI模型將在三到六個月內編寫90%的程式碼行。這發生了,至少在某些地方。它發生在Anthropic,發生在許多使用我們模型的下遊人員身上。但這實際上是一個非常弱的標準。人們以為我是說我們不需要90%的軟體工程師。這些事情相距甚遠。光譜是:90%的程式碼由模型編寫,100%的程式碼由模型編寫。這在生產力上有很大差異。90%的端到端軟體工程任務——包括編譯、設定叢集和環境、測試功能、編寫備忘錄等——由模型完成。100%的今天的軟體工程任務由模型完成。即使發生這種情況,也不意味著軟體工程師會失業。他們可以做新的更高級的事情,他們可以管理。然後在光譜的更遠處,對軟體工程師的需求減少了90%,我認為這會發生,但這是一個光譜。我在"技術的青春期"中寫過這個,我用農業經歷了這種光譜。Dwarkesh: 我實際上完全同意你的觀點。這些是彼此非常不同的基準,但我們正在以超快的速度通過它們。你的願景的一部分是從90到100會很快發生,並且會帶來巨大的生產力提升。但我注意到的是,即使在綠地項目中,人們從Claude Code或其他東西開始,人們報告啟動了很多項目...我們在外面的世界中看到軟體的復興了嗎,所有這些否則不會存在的新功能?至少到目前為止,似乎我們沒有看到。所以這確實讓我想知道。即使我從不需要干預Claude Code,世界也是複雜的。工作是複雜的。在自包含系統上閉環,無論是唯寫軟體還是其他什麼,我們會從中看到多大的更廣泛收益?也許這應該稀釋我們對"天才之國"的估計。Dario: 我同時同意你的觀點,這是這些事情不會立即發生的原因,但同時,我認為效果會非常快。你可以有這兩個極端。一個是AI不會取得進展。它很慢。它將永遠擴散到經濟中。經濟擴散已經成為這些流行語之一,成為我們不會取得AI進展或AI進展不重要的原因。另一個軸是我們將獲得遞迴自我改進,整個事情。你不能只在曲線上畫一條指數線嗎?在我們獲得遞迴後的許多納秒內,我們將在太陽周圍擁有戴森球。我在這裡完全是在諷刺這個觀點,但有這兩個極端。但我們從一開始就看到的,至少如果你看Anthropic內部,有這種奇怪的每年10倍的收入增長。所以在2023年,是從零到1億美元。在2024年,是從1億美元到10億美元。在2025年,是從10億美元到90-100億美元。Dwarkesh: 你們應該買10億美元的自己的產品,這樣你們就可以...Dario: 今年的第一個月,那個指數曲線...你會認為它會放緩,但我們在一月份又增加了幾十億美元的收入。顯然那條曲線不能永遠持續下去。GDP只有那麼大。我甚至猜測它今年會有所彎曲,但那是一條快速曲線。那是一條非常快的曲線。我打賭即使規模擴大到整個經濟,它也會保持相當快的速度。所以我認為我們應該考慮這個中間世界,事情非常快,但不是瞬間的,它們需要時間,因為經濟擴散,因為需要閉環。因為它很繁瑣:"我必須在我的企業內進行變更管理...我設定了這個,但我必須更改這個的安全權限才能使它真正工作...我有這個舊的軟體在編譯和發佈之前檢查模型,我必須重寫它。是的,模型可以做到這一點,但我必須告訴模型去做。它必須花時間去做。"所以我認為到目前為止我們看到的一切都與這樣的想法相容:有一個快速指數曲線,那就是模型的能力。然後還有另一個快速指數曲線,那是下游的,那就是模型擴散到經濟中。不是瞬間的,不是緩慢的,比任何以前的技術都快得多,但它有其限制。當我看Anthropic內部,當我看我們的客戶:快速採用,但不是無限快。Dwarkesh: 我能試試一個大膽的觀點嗎?Dario: 可以。Dwarkesh: 我覺得擴散是人們說的藉口。當模型不能做某事時,他們會說,"哦,但這是一個擴散問題。"但你應該與人類進行比較。你會認為AI固有的優勢會使新AI的入職擴散比新人類的入職容易得多的問題。AI可以在幾分鐘內閱讀你的整個Slack和你的drive。它們可以共享相同實例的其他副本擁有的所有知識。當你僱用AI時,你沒有這種逆向選擇問題,所以你可以只僱用經過審查的AI模型的副本。僱用人類要麻煩得多。人們一直在僱用人類。我們向人類支付超過50兆美元的工資,因為他們有用,儘管原則上將AI整合到經濟中應該比僱用人類容易得多。擴展並不能真正解釋。Dario: 我認為擴散是非常真實的,並不完全與AI模型的侷限性有關。再說一次,有些人使用擴散作為一種流行語來說這不是什麼大事。我不是在談論那個。我不是在談論AI將以以前技術的速度擴散。我認為AI的擴散速度會比以前的技術快得多,但不是無限快。我只舉一個例子。有Claude Code。Claude Code非常容易設定。如果你是開發人員,你可以直接開始使用Claude Code。大型企業的開發人員沒有理由不像個人開發人員或初創公司的開發人員那樣快速採用Claude Code。我們盡一切可能推廣它。我們向企業出售Claude Code。大型企業、大型金融公司、大型製藥公司,所有這些都在採用Claude Code,比企業通常採用新技術快得多。但同樣,這需要時間。任何給定的功能或任何給定的產品,比如Claude Code或Cowork,將被一直在Twitter上的個人開發人員、A輪初創公司採用,比被從事食品銷售的大型企業採用要早幾個月。只是有很多因素。你必須通過法律審查,你必須為每個人配置它。它必須通過安全和合規。公司的領導者離AI革命更遠,他們有遠見,但他們必須說,"哦,我們花5000萬美元是有意義的。這就是這個Claude Code的東西。這就是它為什麼幫助我們公司。這就是它為什麼讓我們更有生產力。"然後他們必須向下兩級的人解釋。他們必須說,"好的,我們有3000名開發人員。我們將如何向我們的開發人員推出它。"我們每天都有這樣的對話。我們正在盡一切努力使Anthropic的收入增長每年20或30倍,而不是10倍。再說一次,許多企業只是說,"這太有生產力了。我們將在我們通常的採購流程中走捷徑。"他們的行動比我們試圖向他們出售普通API時快得多,許多企業都在使用。Claude Code是一個更引人注目的產品,但它不是一個無限引人注目的產品。我認為即使是AGI或強大的AI或"資料中心裡的天才之國"也不會是一個無限引人注目的產品。它將是一個足夠引人注目的產品,也許可以獲得每年3-5倍或10倍的增長,即使你在數千億美元的規模上,這是非常難做到的,歷史上從未做到過,但不是無限快。Dwarkesh: 我認為它會是一個輕微的放緩。也許這不是你的主張,但有時人們談論這個就像,"哦,能力在那裡,但因為擴散...否則我們基本上就在AGI了。"Dario: 我不相信我們基本上就在AGI了。我認為如果你有"資料中心裡的天才之國"...如果我們有"資料中心裡的天才之國",我們會知道的。如果你有"資料中心裡的天才之國",我們會知道的。這個房間裡的每個人都會知道。華盛頓的每個人都會知道。農村地區的人可能不知道,但我們會知道。我們現在沒有那個。這是非常清楚的。持續學習是必要的嗎?Dwarkesh: 回到具體預測...因為有太多不同的東西需要消除歧義,當我們談論能力時,很容易互相誤解。例如,當我三年前採訪你時,我問你一個關於三年後我們應該期待什麼的預測。你是對的。你說,"我們應該期待這樣的系統,如果你和它們交談一個小時,很難把它們與受過良好教育的人類區分開來。"我認為你是對的。我在精神上感到不滿意,因為我的內部期望是這樣的系統可以自動化白領工作的大部分。所以談論你想從這樣的系統中獲得的實際最終能力可能更有成效。我基本上會告訴你我認為我們在那裡。讓我問一個非常具體的問題,這樣我們就可以精準地弄清楚我們應該很快考慮什麼樣的能力。也許我會在我很瞭解的工作背景下問這個問題,不是因為它是最相關的工作,而只是因為我可以評估關於它的主張。拿視訊編輯來說。我有視訊編輯。他們工作的一部分包括瞭解我們觀眾的偏好,瞭解我的偏好和品味,以及我們擁有的不同權衡。他們在許多個月的過程中建立起對上下文的理解。他們在工作六個月後擁有的技能和能力,一個可以即時掌握該技能的模型,我們應該什麼時候期待這樣的AI系統?Dario: 我想你在說的是我們正在做這個三小時的採訪。會有人進來,會有人編輯它。他們會說,"哦,我不知道,Dario撓了撓頭,我們可以把那個剪掉。""放大那個。""有這個長討論,對人們來說不太有趣。還有另一個對人們更有趣的東西,所以讓我們做這個編輯。"我認為"資料中心裡的天才之國"將能夠做到這一點。它能夠做到這一點的方式是它將對電腦螢幕有一般控制。你將能夠輸入這個。它還將能夠使用電腦螢幕上網,查看你所有以前的採訪,查看人們在Twitter上對你的採訪的評論,與你交談,問你問題,與你的員工交談,查看你所做的編輯歷史,並從中完成工作。我認為這取決於幾件事。我認為這實際上是阻礙部署的事情之一:在電腦使用方面達到模型真正精通使用電腦的程度。我們已經看到基準測試中的這種攀升,基準測試總是不完美的衡量標準。但我認為當我們一年零一個季度前首次發佈電腦使用時,OSWorld大約是15%。我不記得確切數字了,但我們已經從那裡攀升到65-70%。可能還有更難的衡量標準,但我認為電腦使用必須通過一個可靠性點。Dwarkesh: 在你繼續下一點之前,我能跟進一下嗎?多年來,我一直在嘗試為自己建構不同的內部LLM工具。通常我有這些文字輸入、文字輸出的任務,應該是這些模型的核心能力。然而我仍然僱用人類來做它們。如果是像"識別這個文字中最好的片段是什麼"這樣的事情,也許大語言模型在上面做了七分之十的工作。但沒有這種持續的方式讓我與它們互動,幫助它們在工作上做得更好,就像我可以與人類員工一樣。那種缺失的能力,即使你解決了電腦使用,仍然會阻礙我將實際工作外包給它們的能力。Dario: 這回到了我們之前談論的在工作中學習。這非常有趣。我認為對於編碼智能體,我不認為人們會說在工作中學習是阻止編碼智能體端到端完成所有事情的原因。它們一直在變得更好。我們在Anthropic有不寫任何程式碼的工程師。當我看生產力時,回到你之前的問題,我們有人說,"這個GPU核心,這個晶片,我以前自己寫。我只是讓Claude做。"生產力有巨大的提高。當我看Claude Code時,對程式碼庫的熟悉度或模型沒有在公司工作一年的感覺,這不是我看到的投訴列表中的高位。我認為我所說的是我們正在走一條不同的路徑。Dwarkesh: 你不認為編碼之所以如此,是因為有一個外部的記憶支架存在於程式碼庫中實例化嗎?我不知道有多少其他工作有那個。編碼取得快速進展正是因為它有這個其他經濟活動所沒有的獨特優勢。Dario: 但當你這麼說時,你暗示的是,通過將程式碼庫讀入上下文,我擁有人類在工作中需要學習的一切。所以那將是一個例子——無論它是否被寫下來,無論它是否可用——一個你需要知道的一切都從上下文窗口獲得的案例。我們認為的學習——"我開始這份工作,我需要六個月來理解程式碼庫"——模型只是在上下文中做到了。我真的不知道如何思考這個,因為有人定性地報告了你所說的。我相信你去年看到了,有一項重大研究,他們讓有經驗的開發人員嘗試在他們熟悉的儲存庫中關閉拉取請求。那些開發人員報告了提升。他們報告說使用這些模型他們感覺更有生產力。但事實上,如果你看他們的輸出以及實際合併回的內容,有20%的下降。他們使用這些模型的結果是生產力降低了。所以我試圖將人們對這些模型的定性感覺與以下幾點相協調:1)在宏觀層面,這個軟體的復興在那裡?然後2)當人們進行這些獨立評估時,為什麼我們沒有看到我們期望的生產力收益?Dario: 在Anthropic內部,這真的是毫不含糊的。我們承受著難以置信的商業壓力,並且因為我們做的所有安全工作而讓自己更加困難,我認為我們做得比其他公司多。在保持我們的價值觀的同時在經濟上生存的壓力是難以置信的。我們正在努力保持這個10倍收入曲線的增長。沒有時間胡說八道。沒有時間感覺我們有生產力而實際上沒有。這些工具使我們更有生產力得多。你認為我們為什麼擔心競爭對手使用這些工具?因為我們認為我們領先於競爭對手。如果這秘密地降低了我們的生產力,我們不會經歷所有這些麻煩。我們每隔幾個月就能看到最終生產力,以模型發佈的形式。對此沒有自欺欺人的餘地。這些模型使你更有生產力。1)人們感覺自己有生產力是由這樣的研究定性預測的。但2)如果我只看最終輸出,顯然你們正在取得快速進展。但這個想法應該是,通過遞迴自我改進,你製造了一個更好的AI,AI幫助你建構一個更好的下一個AI,等等等等。相反,我看到的是——如果我看你、OpenAI、DeepMind——人們只是每隔幾個月就在領獎台上移動位置。也許你認為那會停止,因為你贏了或者什麼的。但如果事實上上一個編碼模型有這些巨大的生產力收益,為什麼我們沒有看到擁有最好編碼模型的人有這種持久優勢。Dario: 我認為我對情況的模型是有一個逐漸增長的優勢。我會說現在編碼模型給出的總因子加速可能是,我不知道,15-20%。那是我的看法。六個月前,可能是5%。所以沒關係。5%不算數。它現在剛剛到達一個點,它是幾個因素中的一個,有點重要。那將繼續加速。我會說六個月前,有幾家公司大致處於同一點,因為這不是一個顯著因素,但我認為它開始加速越來越多。我還會說有多家公司編寫用於程式碼的模型,我們並不完全擅長阻止其中一些其他公司在內部使用我們的模型。所以我認為我們看到的一切都與這種滾雪球模型一致。再說一次,我在所有這一切中的主題是所有這一切都是軟起飛,軟的、平滑的指數曲線,儘管指數曲線相對陡峭。所以我們看到這個雪球聚集動力,它像10%,20%,25%,40%。隨著你的進行,阿姆達爾定律,你必須把所有阻止你閉環的東西清除掉。但這是Anthropic內部最大的優先事項之一。退一步說,在我們談論何時獲得這種在職學習之前?似乎你在編碼方面提出的觀點是我們實際上不需要在職學習。你可以有巨大的生產力提升,你可以為AI公司帶來潛在的數兆美元收入,而沒有這種基本的人類即時學習能力。也許那不是你的主張,你應該澄清。但在大多數經濟活動領域,人們說,"我雇了某人,他們在最初幾個月不是那麼有用,然後隨著時間的推移,他們建立了背景、理解。"實際上很難定義我們在這裡談論什麼。但他們得到了一些東西,然後現在他們是一個強大的力量,他們對我們如此有價值。如果AI沒有發展出這種即時學習的能力,我有點懷疑我們是否會在沒有那種能力的情況下看到世界的巨大變化。Dario: 我認為這裡有兩件事。現在有技術的狀態。再說一次,我們有這兩個階段。我們有預訓練和強化學習階段,你把一堆資料和任務扔進模型,然後它們泛化。所以這就像學習,但這就像從更多資料學習,而不是在一個人類或一個模型的一生中學習。所以再說一次,這位於進化和人類學習之間。但一旦你學會了所有這些技能,你就擁有它們。就像預訓練一樣,就像模型知道更多一樣,如果我看一個預訓練模型,它對日本武士的歷史瞭解比我多。它對棒球瞭解比我多。它對低通濾波器和電子學瞭解更多,所有這些東西。它的知識比我的廣泛得多。所以我認為即使只是那個也可能讓我們達到模型在一切方面都更好的地步。我們還有,再說一次,只是通過擴展現有設定的類型,上下文學習。我會把它描述為有點像人類的在職學習,但稍微弱一點,稍微短期一點。你看上下文學習,如果你給模型一堆例子,它確實能理解。上下文中確實發生了真正的學習。一百萬個token是很多的。那可以是幾天的人類學習。如果你想想模型閱讀一百萬個單詞,我需要多長時間才能閱讀一百萬個?至少幾天或幾周。所以你有這兩樣東西。我認為現有範式中的這兩樣東西可能就足以讓你獲得"資料中心裡的天才之國"。我不確定,但我認為它們會讓你得到其中的很大一部分。可能有差距,但我當然認為就目前而言,這足以產生數兆美元的收入。那是第一點。第二點,這個持續學習的想法,單個模型在工作中學習的想法。我認為我們也在研究這個。很有可能在接下來的一兩年內,我們也會解決這個問題。再說一次,我認為你在沒有它的情況下走了大部分路。每年數兆美元的市場,也許所有我在"技術的青春期"中寫的國家安全影響和安全影響都可以在沒有它的情況下發生。但我們,我想其他人,正在研究它。很有可能我們將在接下來的一兩年內到達那裡。有很多想法。我不會詳細討論所有這些,但一個就是讓上下文更長。沒有什麼能阻止更長的上下文工作。你只需要在更長的上下文上訓練,然後學會在推理時為它們提供服務。這兩個都是我們正在研究的工程問題,我假設其他人也在研究它們。Dwarkesh: 這個上下文長度增加,似乎從2020年到2023年有一個時期,從GPT-3到GPT-4 Turbo,從2000上下文長度增加到128K。我覺得從那時起的兩年左右,我們一直在相同的範圍內。當上下文長度變得比那長得多時,人們報告模型考慮完整上下文的能力出現定性下降。所以我很好奇你在內部看到了什麼,讓你認為,"1000萬上下文,1億上下文,以獲得六個月的人類學習和建立上下文"。Dario: 這不是一個研究問題。這是一個工程和推理問題。如果你想提供長上下文,你必須儲存你的整個KV快取。在GPU中儲存所有記憶體、處理記憶體是很困難的。我甚至不知道細節。在這一點上,這是一個我不再能夠跟上的細節水平,儘管我在GPT-3時代知道它。"這些是權重,這些是你必須儲存的啟動..."但現在整個事情都翻轉了,因為我們有MoE模型和所有這些。關於你談論的這種退化,有兩件事,不要太具體。有你訓練的上下文長度和你服務的上下文長度。如果你在小上下文長度上訓練,然後嘗試在長上下文長度上服務,也許你會得到這些退化。它比什麼都沒有好,你可能仍然提供它,但你會得到這些退化。也許在長上下文長度上訓練更難。我想,同時,問一些可能的兔子洞。如果你必須在更長的上下文長度上訓練,那不是意味著對於相同數量的計算,你能獲得的樣本會更少嗎?也許不值得深入研究。我想得到更大圖景問題的答案。我不覺得對為我工作了六個月的人類編輯和與我一起工作了六個月的AI有偏好,你預測那將是那一年?Dario: 我對此的猜測是有很多問題,基本上當我們有"資料中心裡的天才之國"時,我們可以做到這一點。我對此的看法,如果你讓我猜,是一到兩年,也許一到三年。真的很難說。我有一個強烈的觀點——99%,95%——所有這些將在10年內發生。我認為那只是一個超級安全的賭注。我有一個預感——這更像是一個50/50的事情——它將更像是一到兩年,也許更像是一到三年。所以一到三年。天才之國,以及稍微不那麼有經濟價值的編輯視訊任務。Dwarkesh: 聽起來很有經濟價值,讓我告訴你。Dario: 只是有很多像那樣的用例。有很多類似的。所以你預測在一到三年內。如果AGI即將到來,為什麼不購買更多計算?Dwarkesh: 然後,一般來說,Anthropic預測到2026年底或2027年初,我們將擁有"具有瀏覽當今人類進行數字工作的介面的能力、匹配或超過諾貝爾獎獲得者的智力能力以及與物理世界互動的能力"的AI系統。你兩個月前接受DealBook採訪時強調了你公司相對於競爭對手更負責任的計算擴展。我試圖協調這兩種觀點。如果你真的相信我們將擁有一個天才之國,你想要儘可能大的資料中心。沒有理由放慢速度。一個諾貝爾獎獲得者的TAM,實際上可以做諾貝爾獎獲得者能做的一切,是數兆美元。所以我試圖協調這種保守主義,如果你有更溫和的時間線,這似乎是理性的,與你關於進展的陳述觀點。Dario: 它實際上都吻合在一起。我們回到這個快速但不是無限快的擴散。假設我們以這個速度取得進展。技術以這麼快的速度取得進展。我非常確信我們將在幾年內到達那裡。我有一個預感,我們將在一兩年內到達那裡。所以在技術方面有一點不確定性,但非常有信心它不會相差太多。我不太確定的是,再說一次,經濟擴散方面。我真的相信我們可以在一兩年內擁有資料中心裡的天才之國的模型。一個問題是:在那之後多少年,數兆的收入開始滾滾而來?我不認為它保證會是立即的。可能是一年,可能是兩年,我甚至可以延伸到五年,儘管我對此持懷疑態度。所以我們有這種不確定性。即使技術進展如我懷疑的那樣快,我們也不確切知道它將以多快的速度推動收入。我們知道它即將到來,但根據你購買這些資料中心的方式,如果你相差幾年,那可能是毀滅性的。這就像我在"慈愛機器"中寫的那樣。我說我認為我們可能會得到這個強大的AI,這個"資料中心裡的天才之國"。你給出的那個描述來自"慈愛機器"。我說我們將在2026年得到它,也許是2027年。再說一次,那是我的預感。如果我相差一兩年,我不會感到驚訝,但那是我的預感。假設發生了。那是起跑槍。治癒所有疾病需要多長時間?那是推動大量經濟價值的方式之一。你治癒每一種疾病。有一個問題是有多少歸製藥公司或AI公司,但有巨大的消費者剩餘,因為——假設我們可以為每個人提供訪問,我非常關心這一點——我們治癒所有這些疾病。需要多長時間?你必須進行生物學發現,你必須製造新藥,你必須經過監管過程。我們在疫苗和COVID中看到了這一點。我們把疫苗推廣給每個人,但花了一年半。我的問題是:從AI首次存在於實驗室到疾病實際上為每個人治癒,需要多長時間才能讓每個人都得到治癒一切的方法——AI是理論上可以發明的天才?我們有脊髓灰質炎疫苗50年了。我們仍在試圖在非洲最偏遠的角落根除它。蓋茲基金會正在盡其所能嘗試。其他人也在盡其所能嘗試。但這很困難。再說一次,我不期望大部分經濟擴散會像那樣困難。那是最困難的情況。但這裡有一個真正的困境。我對此的看法是,它將比我們在世界上看到的任何東西都快,但它仍然有其限制。所以當我們去購買資料中心時,再說一次,我看的曲線是:我們每年都有10倍的增長。在今年年初,我們看到的是100億美元的年化收入。我們必須決定購買多少計算。實際建構資料中心、預訂資料中心需要一兩年時間。基本上我是在說,"在2027年,我得到多少計算?"我可以假設收入將繼續每年增長10倍,所以到2026年底將是1000億美元,到2027年底將是1兆美元。實際上將是5兆美元的計算,因為它將是1兆美元一年持續五年。我可以購買從2027年底開始的1兆美元計算。如果我的收入不是1兆美元,即使是8000億美元,世界上沒有任何力量,沒有任何避險可以阻止我破產,如果我購買那麼多計算。儘管我大腦的一部分想知道它是否會繼續增長10倍,但我不能在2027年購買每年1兆美元的計算。如果我在那個增長率上只相差一年,或者如果增長率是每年5倍而不是10倍,那麼你就會破產。所以你最終處於一個世界,你支援數千億,而不是數兆。你接受一些風險,即有如此多的需求以至於你無法支援收入,你接受一些風險,即你弄錯了,它仍然很慢。當我談到負責任的行為時,我的意思實際上不是絕對數量。我認為確實我們的支出比其他一些玩家少一些。實際上是其他事情,比如我們是否經過深思熟慮,還是我們在YOLO並說,"我們要在這裡做1000億美元或在那裡做1000億美元"?我的印象是其他一些公司沒有寫下電子表格,他們並不真正理解他們正在承擔的風險。他們只是做事情,因為聽起來很酷。我們仔細考慮過。我們是一家企業業務。因此,我們可以更多地依賴收入。它不如消費者那麼善變。我們有更好的利潤率,這是購買太多和購買太少之間的緩衝。我認為我們購買的數量允許我們捕獲相當強勁的上行世界。它不會捕獲完整的每年10倍。事情必須變得相當糟糕,我們才會陷入財務困境。所以我們仔細考慮過,我們做出了那個平衡。這就是我說我們負責任的意思。Dwarkesh: 所以似乎我們實際上可能只是對"資料中心裡的天才之國"有不同的定義。因為當我想到實際的人類天才,資料中心裡的一個實際的人類天才之國,我會很樂意購買價值5兆美元的計算來運行資料中心裡的一個實際的人類天才之國。假設摩根大通或Moderna或其他什麼不想使用它們。我有一個天才之國。他們會創辦自己的公司。如果他們不能創辦自己的公司,他們受到臨床試驗的瓶頸...值得說明的是,對於臨床試驗,大多數臨床試驗失敗是因為藥物不起作用。沒有療效。Dario: 我在"慈愛機器"中恰恰提出了這一點,我說臨床試驗將比我們習慣的快得多,但不是無限快。Dwarkesh: 好的,然後假設臨床試驗需要一年時間才能成功,這樣你就可以從中獲得收入並製造更多藥物。好的,那麼,你有一個天才之國,你是一個AI實驗室。你可以使用更多的AI研究人員。你也認為聰明人從事AI技術工作有這些自我強化的收益。你可以讓資料中心從事AI進展。從購買每年1兆美元的計算與每年3000億美元的計算中獲得的收益是否有實質性更多?Dario: 如果你的競爭對手購買1兆,是的,有。嗯,不,有一些收益,但同樣,有這個機會,他們之前就破產了。再說一次,如果你只相差一年,你就會毀掉自己。那就是平衡。我們正在購買很多。我們正在購買相當多。我們購買的數量與遊戲中最大玩家購買的數量相當。但如果你問我,"為什麼我們沒有簽署從2027年中期開始的10兆美元計算?"...首先,它無法生產。世界上沒有那麼多。但第二,如果天才之國來了,但它在2028年中期而不是2027年中期來呢?你破產了。Dwarkesh: 所以如果你的預測是一到三年,似乎你應該想要到2029年最晚有10兆美元的算力?即使在你陳述的時間線的最長版本中,你正在擴大建設的計算似乎也不一致。Dario: 是什麼讓你這麼認為?人類工資,比如說,每年大約是50兆美元——Dwarkesh: 所以我不會專門談論Anthropic,但如果你談論這個行業,今年該行業正在建設的計算量可能是,稱之為,10-15千兆瓦。它每年大約增長3倍。所以明年是30-40千兆瓦。2028年可能是100千兆瓦。2029年可能像300千兆瓦。我在腦子裡做數學,但每千兆瓦成本可能是100億美元,每年大約10-15億美元。你把所有這些加在一起,你得到的大約是你描述的。你得到的正是那個。到2028年或2029年,你每年得到多兆。Dwarkesh: 那是對行業而言。Dario: 那是對行業而言,沒錯。Dwarkesh: 假設Anthropic的計算每年持續3倍增長,然後到2027-28年,你有10千兆瓦。乘以,如你所說,100億美元。所以那就像每年1000億美元。但那麼你是說到2028年TAM是2000億美元。Dario: 再說一次,我不想給出Anthropic的確切數字,但這些數字太小了。Dwarkesh: 好的,有趣。AI實驗室將如何真正盈利?Dwarkesh: 你告訴投資者你們計畫從2028年開始盈利。這一年我們可能獲得作為資料中心的天才國度。這現在將解鎖醫學、健康和新技術的所有進步。這難道不正是你想重新投資業務並建立更大的“國度”以便他們能做出更多發現的時候嗎?Dario: 在這個領域,盈利能力是一件有點奇怪的事情。我不認為在這個領域,盈利能力實際上是衡量消耗與投資業務的指標。讓我們以此為例。我實際上認為,當你低估了你將獲得的需求量時,就會發生盈利,而當你高估了你將獲得的需求量時,就會發生虧損,因為你是提前購買資料中心的。這樣想。再次強調,這些是程式化的事實。這些數字並不精準。我只是試圖在這裡建立一個玩具模型。假設你一半的算力用於訓練,一半的算力用於推理。推理有一些超過50%的毛利率。所以這意味著如果你處於穩定狀態,你建立了一個資料中心,如果你確切知道你獲得的需求,你會獲得一定數量的收入。假設你每年支付1000億美元用於算力。在每年500億美元上,你支援1500億美元的收入。另外500億美元用於訓練。基本上你是盈利的,你賺了500億美元的利潤。那是今天這個行業的經濟學,或者不是今天,而是我們預測的一兩年後的情況。唯一讓這不成立的情況是如果你獲得的需求少於500億美元。那麼你有超過50%的資料中心用於研究,你就不盈利了。所以你訓練了更強的模型,但你不盈利。如果你獲得的需求比你想像的多,那麼研究就會受到擠壓,但你能夠支援更多的推理,你就更盈利了。也許我解釋得不好,但我試圖說的是,你首先決定算力的數量。然後你有一些推理與訓練的目標願望,但這由需求決定。它不是由你決定的。Dwarkesh: 我聽到的是,你預測盈利的原因是你系統性地投資不足於算力?Dario: 不,不,不。我是說這很難預測。關於2028年以及何時發生的事情,那是我們試圖對投資者盡力而為。所有這些東西都因為不確定性錐體而非常不確定。如果收入增長足夠快,我們可以在2026年盈利。如果我們高估或低估了下一年,那可能會劇烈波動。Dwarkesh: 我試圖弄清楚的是,你腦子裡有一個業務模型,投資、投資、投資,獲得規模然後變得盈利。有一個單一的時間點事情會好轉。Dario: 我不認為這個行業的經濟學是那樣運作的。Dwarkesh: 我明白了。所以如果我理解正確的話,你是說由於我們應該獲得的算力數量和我們實際獲得的算力數量之間的差異,我們在某種程度上被迫盈利。但這並不意味著我們將繼續盈利。我們將把錢再投資,因為現在AI已經取得了如此大的進步,我們想要一個更大的天才國度。所以回到收入很高,但虧損也很高。Dario: 如果我們每年都精準預測需求是多少,我們每年都會盈利。因為花費50%的算力用於研究,大致上,加上高於50%的毛利率和正確的需求預測會導致盈利。那就是我認為有點存在但被這些提前建設和預測錯誤所掩蓋的盈利商業模式。Dwarkesh: 我想你把50%當作一種既定的常數,而事實上,如果AI進展很快,你可以通過擴大規模來增加進展,你就應該擁有超過50%並且不盈利。Dario: 但我要說的是。你可能想把它擴大更多。記住對數規模收益。如果70%只能讓你通過1.4倍的因子得到稍微小一點的模型……那額外的200億美元,那裡的每一美元對你來說價值都要小得多,因為是對數線性的設定。所以你可能會發現將那200億美元投資於服務推理或僱傭更擅長他們所做事情的工程師更好。所以我說50%的原因……那不完全是我們的目標。它不完全會是50%。它可能會隨時間變化。我要說的是對數線性回報,它導致你花費業務的一小部分。比如不是5%,不是95%。然後你會得到遞減的回報。Dwarkesh: 我感覺很奇怪,我在說服Dario相信AI的進步或其他什麼。好的,你不投資於研究是因為它有遞減的回報,但你投資於你提到的其他事情。Dario: 我認為宏觀層面的利潤——再次強調,我在談論遞減的回報,但是在你每年花費500億美元之後。這一點我相信你會提出,但在天才身上的遞減回報可能會相當高。更一般地說,市場經濟中的利潤是什麼?利潤基本上是說市場上的其他公司可以用這筆錢做比我更多的事情。把Anthropic放在一邊。我不想提供關於Anthropic的資訊。這就是為什麼我給出這些程式化的數字。但讓我們推導行業的均衡。為什麼不是每個人都把100%的算力花在訓練上而不服務任何客戶?這是因為如果他們沒有獲得任何收入,他們就無法籌集資金,無法進行算力交易,無法在下一年購買更多算力。所以將會有一個均衡,每家公司在訓練上的花費少於100%,當然在推理上的花費也少於100%。很明顯為什麼你不只是服務當前模型而從不訓練另一個模型,因為那樣你就沒有任何需求,因為你會落後。所以有一些均衡。不會是10%,不會是90%。讓我們作為一個程式化的事實說,它是50%。那就是我要表達的意思。我認為我們將處於這樣一個位置,即你在訓練上花費的均衡少於你在算力上能夠獲得的毛利率。所以底層經濟學是盈利的。問題是當你購買下一年的算力時,你有這個地獄般的需求預測問題,你可能猜低了並且非常盈利但沒有算力用於研究。或者你可能猜高了,你不盈利並且擁有世界上所有的算力用於研究。這說得通嗎?僅僅作為一個行業的動態模型?Dwarkesh: 也許退一步說,我不是說我認為“天才國度”會在兩年內到來,因此你應該購買這些算力。對我來說,你得出的最終結論非常有道理。但這似乎是因為“天才國度”很難,還有很長的路要走。所以退一步說,我試圖弄清楚的是,你的世界觀似乎與那些說“我們距離產生數兆美元價值的世界還有10年”的人相容。Dario: 那根本不是我的觀點。所以我會做另一個預測。我很難看到在2030年之前不會有數兆美元的收入。我可以建構一個合理的世界。也許需要三年。那將是我認為合理的終點。就像在2028年,我們得到了真正的“資料中心裡的天才國度”。收入到2028年進入低幾千億,然後天才國度將其加速到數兆。我們基本上處於擴散的慢端。需要兩年才能達到數兆。那將是直到2030年的世界。我懷疑即使綜合技術指數和擴散指數,我們也會在2030年之前到達那裡。Dwarkesh: 所以你提出了一個模型,Anthropic盈利是因為看起來從根本上我們處於一個算力受限的世界。所以最終我們繼續增長算力——Dario: 我認為利潤的來源是……再次強調,讓我們把整個行業抽象出來。讓我們想像我們在經濟學教科書裡。我們有少數幾家公司。每家都可以投資有限的金額。每家可以將一部分投資於研發。他們有一定的邊際服務成本。該邊際成本的毛利潤率非常高,因為推理是高效的。有一些競爭,但模型也是差異化的。公司將競爭推高他們的研究預算。但因為只有少數幾個玩家,我們有……那叫什麼?古諾均衡(Cournot equilibrium),我想,就是少數公司均衡。重點是它不會平衡到零利潤的完全競爭。如果經濟中有三家公司,並且都在某種程度上獨立地理性行事,它不會平衡到零。Dwarkesh: 幫我理解一下,因為現在我們確實有三家領先的公司,而且它們沒有盈利。所以什麼在改變?Dario: 再次強調,現在的毛利率非常正。發生的事情是兩件事的結合。一是因為我們仍處於算力的指數級擴展階段。一個模型被訓練出來。假設去年訓練一個模型花費了10億美元。然後今年它產生了40億美元的收入,推理成本為10億美元。再次強調,我在這裡使用程式化的數字,但這將是75%的毛利率和這25%的稅。所以那個模型整體賺了20億美元。但與此同時,我們花費100億美元訓練下一個模型,因為存在指數級擴展。所以公司虧錢。每個模型都賺錢,但公司虧錢。我所說的均衡是一個我們擁有“資料中心裡的天才國度”的均衡,但那個模型訓練的擴展已經更加平衡了。也許它還在上升。我們仍然試圖預測需求,但它更加平穩了。Dwarkesh: 我對那裡的幾件事感到困惑。讓我們從當前世界開始。在當前世界,你是對的,正如你之前所說,如果你把每個單獨的模型當作一家公司,它是盈利的。但當然,作為前沿實驗室的生產函數的一大部分是訓練下一個模型,對吧?Dario: 是的,那是對的。Dwarkesh: 如果你不那樣做,那麼你會盈利兩個月,然後你就沒有利潤了,因為你不會擁有最好的模型。但在某個點,這達到了它能達到的最大規模。然後在均衡中,我們有演算法改進,但我們花費大致相同的金額來訓練下一個模型,就像我們花費來訓練當前模型一樣。在某個點,你用光了經濟中的錢。固定的勞動總量謬誤……經濟將會增長,對吧?那是你的預測之一。我們將在太空中擁有資料中心。Dario: 是的,但這又是我談到的主題的另一個例子。我認為有了AI,經濟增長將比以往任何時候都快。現在算力每年增長3倍。我不相信經濟每年會增長300%。我在《仁慈的機器》中說過,我認為我們可能會獲得每年10-20%的經濟增長,但我們不會獲得300%的經濟增長。所以我想最終,如果算力成為經濟產出的大部分,它將受限於此。Dwarkesh: 所以讓我們假設一個算力保持上限的模型。前沿實驗室賺錢的世界是一個他們繼續取得快速進展的世界。因為從根本上說,你的利潤受限於替代品有多好。所以你能夠賺錢是因為你擁有前沿模型。如果你沒有前沿模型,你就不會賺錢。所以這個模型要求永遠沒有穩態。你永遠不斷地取得更多的演算法進展。Dario: 我不認為那是真的。我是說,我覺得我們在上經濟學課。你知道泰勒·科溫(Tyler Cowen)的名言嗎?我們永遠不會停止談論經濟學。Dwarkesh: 我們永遠不會停止談論經濟學。Dario: 所以不,我不認為這個領域會成為壟斷。我所有的律師都不希望我說“壟斷”這個詞。我不認為這個領域會成為壟斷。你確實有些行業只有少數幾個玩家。不是一個,而是少數幾個玩家。通常,你獲得像Facebook或Meta這樣的壟斷——我總是叫他們Facebook——是通過這種網路效應。你獲得只有少數幾個玩家的行業的方式,是非常高的進入成本。雲就是這樣。我認為雲是這方面的一個好例子。雲領域有三個,也許四個玩家。我認為AI也是一樣,三個,也許四個。原因是它太昂貴了。經營一家雲公司需要如此多的專業知識和如此多的資本。你必須投入所有這些資本。除了投入所有這些資本外,你還必須擁有所有這些其他需要大量技能才能實現的東西。所以如果你去找某人說,“我想顛覆這個行業,這是1000億美元。”你會像,“好的,我投入1000億美元,並且我也賭你能做所有這些其他人一直在做的事情。”結果只是降低了利潤。你進入的影響是利潤率下降。所以,我們在經濟中一直有這樣的均衡,只有幾個玩家。利潤不是天文數字。利潤率不是天文數字,但它們不是零。這就是我們在雲上看到的。雲是非常同質化的。模型比雲更具差異化。每個人都知道Claude擅長的事情與GPT擅長的事情不同,與Gemini擅長的事情不同。不僅僅是Claude擅長程式設計,GPT擅長數學和推理。它比那更微妙。模型擅長不同類型的程式設計。模型有不同的風格。我認為這些東西實際上彼此非常不同,所以我預計會看到比雲更多的差異化。現在,實際上有一個反駁論點。那個反駁論點是,如果生產模型的過程,如果AI模型自己能做那個,那麼那可能會擴散到整個經濟中。但這並不是讓AI模型普遍商品化的論點。那有點像是一次性讓整個經濟商品化的論點。我不知道在那個世界裡會發生什麼,基本上任何人都可以做任何事,任何人都可以建造任何東西,根本沒有任何護城河。我不知道,也許我們想要那個世界。也許那是這裡的終極狀態。也許當AI模型可以做所有事情時,如果我們解決了所有的安全和安保問題,那就是經濟再次自我扁平化的機制之一。但這有點遠在“資料中心裡的天才國度”之後了。Dwarkesh: 也許表達那個潛在觀點的更精細的方式是:1) 看來AI研究特別依賴原始智力,這在AGI的世界裡將特別豐富。2) 如果你只看今天的世界,似乎很少有技術像AI演算法進展那樣擴散得如此之快。所以這確實暗示這個行業在結構上是擴散性的。Dario: 我認為程式設計進展很快,但我認為AI研究是程式設計的超集,其中有些方面並沒有進展得那麼快。但我確實認為,再次強調,一旦我們搞定程式設計,一旦我們讓AI模型進展得很快,那麼這將加速AI模型做其他所有事情的能力。所以雖然現在程式設計進展很快,我認為一旦AI模型正在建構下一個AI模型並建構其他所有東西,整個經濟將以同樣的速度發展。不過我在地理上有點擔心。我有點擔心僅僅是接近AI,聽說過AI,可能就是一個區分因素。所以當我說10-20%的增長率時,我擔心的是矽谷和世界上與矽谷有社會聯絡的部分增長率可能是50%,而在其他地方並沒有比現在的速度快多少。我認為那將是一個相當糟糕的世界。所以我經常思考的一件事是如何防止這種情況。Dwarkesh: 你認為一旦我們擁有了這個資料中心裡的天才國度,機器人技術會在那之後很快解決嗎?因為看起來機器人技術的一個大問題是人類可以學習如何遠端操作當前的硬體,但目前的AI模型不能,至少不能以超高效的方式。所以如果我們擁有這種像人類一樣學習的能力,難道不應該也立即解決機器人技術嗎?Dario: 我不認為這依賴於像人類一樣學習。它可以通過不同的方式發生。再次強調,我們可以讓模型在許多不同的視訊遊戲上訓練,這就像機器人控制,或者許多不同的模擬機器人環境,或者只是訓練它們控制電腦螢幕,然後它們學會泛化。所以它會發生……它不一定依賴於類人學習。類人學習是它可能發生的一種方式。如果模型像,“哦,我拿起一個機器人,我不知道怎麼用,我學習,”那可能發生是因為我們發現了持續學習。那也可能發生是因為我們在很多環境上訓練模型然後泛化,或者可能發生是因為模型在上下文長度中學會了那個。實際上那種方式並不重要。如果我們回到我們一小時前的討論,那種事情可以通過幾種不同的方式發生。但我確實認為,無論出於何種原因,當模型擁有這些技能時,機器人技術將被徹底變革——無論是機器人的設計,因為模型在這方面將比人類好得多,還是控制機器人的能力。所以我們將更擅長建構物理硬體,建構物理機器人,我們也將在控制它方面變得更好。現在,這是否意味著機器人行業也將產生數兆美元的收入?我的回答是肯定的,但會有同樣的極其快速但不無限快的擴散。所以機器人技術會被徹底變革嗎?是的,也許再加一兩年。這就是我思考這些事情的方式。Dwarkesh: 有道理。對於極快的進展有一種普遍的懷疑。這是我的看法。聽起來你們將在幾年內以某種方式解決持續學習。但就像幾年前人們沒有談論持續學習,然後我們意識到,“哦,為什麼這些模型不像它們可能的那樣有用,即使它們顯然通過了圖靈測試並且是許多不同領域的專家?也許就是這個東西。”然後我們解決了這個東西,我們意識到,實際上,還有另一個人類智能能做而這些模型不能做的事情,它是人類勞動的基礎。所以為什麼不認為會有更多像這樣的東西,我們發現了更多人類智能的碎片?Dario: 嗯,說清楚點,我認為持續學習,正如我之前所說,可能根本不是一個障礙。我認為我們可能僅僅通過預訓練泛化和RL泛化就能到達那裡。我認為可能根本就沒有這樣一個東西。事實上,我會指出ML的歷史,人們提出一些看似障礙的東西,最後都在“算力大團塊”中溶解了。人們談論,“你的模型如何跟蹤名詞和動詞?”“它們可以在句法上理解,但不能在語義上理解?這只是統計相關性。”“你可以理解一段話,你不能理解一個詞。有推理,你不能做推理。”但突然之間,結果證明你可以非常好地做程式碼和數學。所以我認為實際上有更強的歷史表明,其中一些事情看起來是個大問題,然後就有點溶解了。其中一些是真實的。對資料的需求是真實的,也許持續學習是一件真實的事情。但再次強調,我會讓我們立足於像程式碼這樣的東西。我認為我們可能會在一兩年內達到模型可以端到端做SWE的地步。那是一個完整的任務。那是人類活動的一個完整領域,我們只是說模型現在可以做了。Dwarkesh: 當你說端到端時,你的意思是設定技術方向,理解問題的背景,等等?Dario: 是的。我是指所有這些。Dwarkesh: 有趣。我覺得那是AGI完備的,這也許在內部是一致的。但這不像說90%的程式碼或100%的程式碼。Dario: 不,我給出了這個光譜:90%的程式碼,100%的程式碼,90%的端到端SWE,100%的端到端SWE。新的任務為SWE創造出來。最終那些也會被完成。那裡有一個長長的光譜,但我們正在非常快地穿越這個光譜。Dwarkesh: 我確實覺得很有趣,我看過你做的幾個播客,主持人會像,“但Dwarkesh寫了關於持續學習的文章。”這總是讓我笑出聲,因為你已經做了10年的AI研究員。我確信會有某種感覺,“好的,所以一個播客主寫了一篇文章,每次採訪我都被問到這個問題。”Dario: 事實是我們都在試圖一起弄清楚這個問題。有些方面我能看到別人看不到的東西。這些天這可能更多地與在Anthropic內部看到一堆東西並必須做出一堆決定有關,而不是我有其他人沒有的偉大研究洞察力。我在經營一家2500人的公司。實際上對我來說,擁有具體的研究洞察力要比10年前甚至兩三年前難得多。Dwarkesh: 隨著我們走向一個完全可以直接替代遠端工人的世界,API定價模型仍然是最合理的嗎?如果不是,定價AGI或服務AGI的正確方式是什麼?Dario: 我認為這裡將會有很多不同的商業模式同時被試驗。我實際上確實認為API模型比許多人想像的更持久。我思考這個問題的一種方式是,如果技術正在快速進步,如果它是指數級進步,這意味著總是有過去三個月開發出的新用例的表面積。你建立的任何產品表面總是面臨變得無關緊要的風險。任何給定的產品表面可能對模型的一定能力範圍有意義。聊天機器人已經遇到了限制,讓它變得更聰明並不能真正幫助普通消費者那麼多。但我不認為那是AI模型的限制。我不認為那是模型足夠好以及它們變得更好對經濟無關緊要的證據。這對那個特定的產品無關緊要。所以我認為API的價值在於,API總是提供一個非常接近底層的機會,在最新的東西上進行建構。總是會有這種新初創公司和新想法的前沿,這些在幾個月前是不可能的,現在因為模型進步而成為可能。我實際上預測它將與其他模型並存,但我們將始終擁有API商業模式,因為總是需要一千個不同的人嘗試以不同的方式試驗模型。其中100個成為初創公司,其中10個成為成功的大型初創公司。兩三個真正最終成為人們使用某一代模型的方式。所以我基本上認為它總是會存在的。與此同時,我確信也會有其他模型。不是模型輸出的每個token都值同樣的錢。想想當有人打電話說,“我的Mac壞了,”或者什麼,模型說,“重啟它。”那些token的價值是什麼。某人以前沒聽過,但模型說了1000萬次。也許那值一美元或幾美分或什麼。而如果模型去一家製藥公司說,“哦,你知道,你正在開發的這個分子,你應該把那個芳香環從分子的那一端拿下來放在那一端。如果你那樣做,奇妙的事情就會發生。”那些token可能值數千萬美元。所以我認為我們肯定會看到認識到這一點的商業模式。在某個點,我們將看到某種形式的“按結果付費”,或者我們可能會看到類似勞動的補償形式,那種按小時計費的工作。我不知道。我認為因為這是一個新行業,很多事情都會被嘗試。我不知道什麼最終會被證明是正確的事情。Dwarkesh: 我同意你的觀點,人們必須嘗試各種事情來弄清楚使用這團智能的最佳方式是什麼。但我發現Claude Code很引人注目。我不認為在初創公司的歷史上有一個單一的應用程式像程式設計智能體那樣競爭激烈。Claude Code是這裡的類別領導者。這對我來說似乎很令人驚訝。這似乎並非本質上非得Anthropic來建構。我想知道你是否有關於為什麼必須是Anthropic,或者Anthropic是如何最終建構了一個除了底層模型之外還成功的應用程式的解釋。Dario: 實際上發生的方式非常簡單,那就是我們有自己的程式設計模型,它們擅長程式設計。大約在2025年初,我說,“我認為時機已經到來,如果你是一家AI公司,你可以通過使用這些模型對自己的研究進行非同尋常的加速。”當然,你需要一個介面,你需要一個駕馭它們的工具。所以我鼓勵內部人員。我沒有說這是你們必須使用的一件事。我只是說人們應該嘗試這個。我想它最初可能叫Claude CLI,後來名字最終改成了Claude Code。在內部,它是每個人都在使用的東西,並且看到了快速的內部採用。我看著它說,“也許我們應該對外發佈這個,對吧?”它在Anthropic內部看到了如此快速的採用。程式設計是我們做的很多事情。我們有數百人的受眾,在某些方面至少代表了外部受眾。所以看起來我們已經有了產品市場契合度(product market fit)。讓我們發佈這個東西。然後我們發佈了它。我認為僅僅是我們自己正在開發模型,我們自己知道我們最需要如何使用模型,我認為這正在創造這種反饋循環。Dwarkesh: 我明白了。也就是說,比如說Anthropic的一個開發者就像,“啊,如果它在這個X事情上更好就好了。”然後你就把那個烤進你建構的下一個模型中。Dario: 那是其中一個版本,但還有就是普通的產品迭代。我們在Anthropic有一堆程式設計師,他們每天都使用Claude Code,所以我們得到快速反饋。這在早期更重要。現在,當然,有數百萬人使用它,所以我們也得到了一堆外部反饋。但能夠獲得這種快速的內部反饋真是太棒了。我認為這就是為什麼我們發佈了一個程式設計模型而沒有發佈一家製藥公司。我的背景是生物學,但我們沒有任何發佈一家製藥公司所需的資源。法規會摧毀AGI的紅利嗎?Dwarkesh: 現在讓我問你關於讓AI向好的方向發展。看起來無論我們對AI如何向好發展有什麼願景,都必須與兩件事相容:1) 建構和運行AI的能力正在極其迅速地擴散,以及 2) AI的數量,我們擁有的數量和它們的智力,也將非常迅速地增加。這意味著很多人將能夠建構大量未對齊的AI,或者那些只是試圖增加足跡或擁有像Sydney Bing那樣奇怪心理但現在是超人類的AI。在一個我們擁有大量不同的AI(其中一些未對齊)到處運行的世界裡,我們擁有一個均衡的願景是什麼?Dario: 我認為在《技術的青春期》中,我對權力平衡持懷疑態度。但我特別懷疑的是,你有三四家公司都在建構源自同一事物模型,它們會相互制衡。甚至任何數量的它們會相互制衡。我們可能生活在一個進攻佔主導地位的世界,一個人或一個AI模型足夠聰明,可以做一些對其他所有事物造成損害的事情。在短期內,我們現在的玩家數量有限。所以我們可以從有限數量的玩家開始。我們需要落實保障措施。我們需要確保每個人都做正確的對齊工作。我們需要確保每個人都有生物分類器。這些是我們立即需要做的事情。我同意這並不能解決長期問題,特別是如果AI模型製造其他AI模型的能力激增,那麼整個事情可能會變得更難解決。我認為從長遠來看,我們需要某種治理架構。我們需要某種既保留人類自由,又允許我們治理大量人類系統、AI系統、混合人類-AI公司或經濟單位的治理架構。所以我們將需要思考:我們如何保護世界免受生物恐怖主義的侵害?我們如何保護世界免受鏡像生命(mirror life)的侵害?可能我們將需要某種AI監控系統來監控所有這些事情。但我們也需要以一種保留公民自由和我們憲法權利的方式來建構它。所以我認為就像其他任何事情一樣,這是一個具有一套新工具和一套新漏洞的新安全景觀。我的擔憂是,如果我們有100年讓這一切非常緩慢地發生,我們會習慣它。我們已經習慣了社會中存在爆炸物,或者存在各種新武器,或者存在攝影機。我們會在100年裡習慣它,我們會制定治理機制。我們會犯錯。我的擔憂僅僅是這一切發生得太快了。所以也許我們需要更快地思考如何讓這些治理機制發揮作用。Dwarkesh: 看來在一個進攻佔主導地位的世界裡,在下個世紀的過程中——這個想法是AI正在使下個世紀會發生的進步在五到十年的某個時期內發生——即使人類是唯一的玩家,我們也仍然需要同樣的機制,或者權力平衡同樣難以處理。Dario: 我想我們有AI的建議。但從根本上說,這似乎並不是一個完全不同的球賽。如果制衡要起作用,它們對人類也會起作用。如果它們不起作用,它們對AI也不會起作用。所以也許這註定了人類的制衡也是失敗的。再次強調,我認為有某種方法可以讓這發生。世界各國政府可能不得不共同努力讓這發生。我們可能不得不與AI討論建立社會結構,使這些防禦成為可能。我不知道。我不想說這在時間上太遙遠,但這在技術能力上太遙遠,可能會在很短的時間內發生,以至於我們很難提前預測它。Dwarkesh: 說到政府介入,12月26日,田納西州立法機構提出了一項法案,該法案稱,“如果一個人故意訓練人工智慧提供情感支援,包括通過與使用者進行開放式對話,即屬犯罪。”當然,Claude試圖做的事情之一就是成為一個體貼、知識淵博的朋友。總的來說,看起來我們將擁有這種拼湊的州法律。由於AI,普通人可能體驗到的很多好處將被削減,特別是當我們進入你在《仁慈的機器》中討論的那類事情時:生物自由、心理健康改善等。似乎很容易想像這些被不同的法律像打地鼠一樣打掉的世界,而像這樣的法案似乎並沒有解決你所擔心的實際生存威脅。我很好奇想瞭解,在像這樣的事情背景下,Anthropic反對聯邦暫停州AI法律的立場。Dario: 有許多不同的事情同時發生。我認為那條特定的法律是愚蠢的。這顯然是由那些可能對AI模型能做什麼和不能做什麼知之甚少的立法者制定的。他們就像,“AI模型服務我們,這聽起來很可怕。我不希望那發生。”所以我們實際上不支援那個。但這並不是被投票表決的事情。被投票表決的事情是:我們將禁止所有州對AI的監管10年,而沒有任何明顯的聯邦AI監管計畫,這需要國會通過,這是一個非常高的門檻。所以這種我們要禁止各州做任何事情10年的想法……人們說他們有聯邦政府的計畫,但桌面上沒有實際提案。沒有實際嘗試。考慮到我在《技術的青春期》中列出的關於生物武器和生物恐怖主義自主風險等嚴重危險,以及我們一直在談論的時間線——10年是永恆——我認為那是瘋狂的事情。所以如果那是選擇,如果你強迫我們選擇,那麼我們將選擇不暫停。我認為那個立場的好處超過了成本,但如果那是選擇,那不是一個完美的立場。現在,就我們應該做的事情而言,我會支援的事情是,聯邦政府應該介入,不是說“各州你們不能監管”,而是“我們要這樣做,各州你們不能偏離這個標準。”我認為只要聯邦政府說:“這是我們的標準。這適用於所有人。各州不能搞別的。”這種意義上的優先權(preemption)我是可以接受的。如果是以這種正確的方式進行,我會支援。但是如果現在的想法是各州說:“你們什麼都不能做,而我們(聯邦政府)也什麼都不做,”這在我們看來非常不合理。我認為這種做法經不起時間的考驗,實際上隨著你看到的所有反對聲音,它已經開始顯得過時了。至於我們想要什麼,我們討論過的事情是從透明度標準開始,以便監控其中一些自主性風險和生物恐怖主義風險。隨著風險變得更加嚴重,隨著我們獲得更多證據,我認為我們可以採取更有針對性的激進措施,比如規定:“嘿,人工智慧生物恐怖主義真的是個威脅。讓我們通過一項法律,強制人們必須使用分類器。”我甚至可以想像……但這要看情況。這取決於最終威脅有多嚴重。我們現在還不能確定。我們需要以一種理智誠實的方式來推進這件事,我們要提前說明,目前風險尚未顯現。但我當然可以想像,按照目前事態發展的速度,今年晚些時候我們可能會說:“嘿,這個人工智慧生物恐怖主義的東西真的很嚴重。我們應該採取行動。我們應該把它寫入聯邦標準。如果聯邦政府不行動,我們就應該把它寫入州標準。”我完全可以看到這種情況發生。我擔心的是這樣一個世界:如果你考慮到你預期的進步速度,再考慮到立法的生命周期……正如你所說,由於擴散滯後,收益來得比較慢,以至於我認為這種拼湊式的州法律,按照目前的軌跡,真的會起到阻礙作用。我的意思是,如果擁有一個情感聊天機器人朋友這種事都會讓人們抓狂,那麼想像一下我們希望普通人能夠體驗到的來自人工智慧的真正好處吧。從健康和健康壽命的改善,到心理健康的改善等等。然而與此同時,似乎你認為危險已經出現在地平線上了,但我並沒有看到那麼多……相比於人工智慧的危險,這似乎對人工智慧的好處尤其有害。所以這可能就是我認為成本效益分析不太合理的地方。Dwarkesh Patel: 這裡有幾件事。人們談論有成千上萬條這樣的州法律。首先,絕大多數、絕大多數的法律都不會通過。理論上世界是按某種方式運作的,但僅僅因為通過了一項法律,並不意味著它真的會被執行。執行它的人可能會想:“天那,這太蠢了。這意味著要關閉田納西州建造過的所有東西。”很多時候,法律的解釋方式會使其不像看起來那麼危險或有害。當然,另一方面,如果你通過一項法律來阻止壞事發生;你也會遇到同樣的問題。Dario Amodei: 我的基本觀點是,如果我們能決定通過什麼法律以及如何做事——當然我們只是其中的一小部分意見——我會解除很多圍繞人工智慧健康益處的管制。我不那麼擔心聊天機器人的法律。實際上,我更擔心藥物審批流程,我認為人工智慧模型將極大地加快我們發現藥物的速度,而審批管道會被堵塞。審批管道將無法準備好處理所有湧入的東西。我認為監管程序的改革應該更多地偏向這樣一個事實:我們將會有很多東西出現,它們的有效性和安全性實際上將非常清晰明了,這是一件美妙的事情,而且非常有效。也許我們不需要圍繞它建立所有這些上層建築,那些原本是為那個藥物幾乎不起作用且經常有嚴重副作用的時代設計的。與此同時,我認為我們應該大幅加強安全和安保方面的立法。就像我說過的,從透明度開始是我認為試圖不阻礙行業發展、試圖找到正確平衡的觀點。我很擔心這一點。有些人批評我的文章,說:“那太慢了。如果我們那樣做,人工智慧的危險會來得太快。”好吧,基本上,我認為過去六個月以及接下來的幾個月將是關於透明度的。然後,如果當我們對這些風險更加確定時——我認為最早在今年晚些時候我們可能會確定——如果這些風險出現了,那麼我認為我們需要在實際看到風險的領域非常迅速地採取行動。我認為這是做這件事的唯一方法,就是要靈活。現在的立法程序通常並不靈活,但我們需要向所有相關人員強調這件事的緊迫性。這就是為什麼我要發出這個緊迫的資訊。這就是為什麼我寫了《技術的青春期》(Adolescence of Technology)這篇文章。我想讓政策制定者、經濟學家、國家安全專業人士和決策者閱讀它,這樣他們就有希望比原本更快地採取行動。Dwarkesh Patel: 有沒有什麼你可以做或倡導的事情,能讓人們更確定人工智慧的好處能夠更好地實現?我覺得你已經和立法機構合作說過:“好吧,我們要在這裡防止生物恐怖主義。我們要增加透明度,我們要加強對舉報人的保護。”但我認為,默認情況下,我們期待的實際利益似乎在各種道德恐慌或政治經濟問題面前非常脆弱。Dario Amodei: 實際上對於發達國家,我並不太同意這一觀點。我覺得在發達國家,市場運作得相當好。當某樣東西有很大的賺錢空間,而且它顯然是最好的可用替代品時,監管體系實際上很難阻止它。我們在人工智慧本身就看到了這一點。如果我們談論藥物和技術的益處,我不那麼擔心這些益處在發達國家受到阻礙。我有點擔心它們進展太慢。正如我所說,我確實認為我們應該努力加快FDA的審批流程。我確實認為我們應該反對你描述的這些聊天機器人法案。單獨來看,我反對它們。我認為它們很愚蠢。但我實際上認為更大的擔憂是開發中國家,那裡沒有運作良好的市場,而且我們往往無法在已有的技術基礎上進行建設。我更擔心那些人會被甩在後面。我也擔心即使開發出了治療方法,也許密西西比農村的某個人也無法很好地獲得它。那是我們在開發中國家擔憂的一個縮小版。所以我們一直在做的事情是與慈善家合作。我們與向開發中國家、撒哈拉以南非洲、印度、拉丁美洲和世界其他發展中地區提供藥物和健康干預措施的人合作。我認為這是那件如果不干預就不會自動發生的事情。Claude的總結Dwarkesh Patel: 你們最近宣佈 Claude 將擁有一部符合一套價值觀的憲法,而不一定只是為了終端使用者。我可以想像這樣一個世界:如果它是為了終端使用者,它就保留了我們今天世界擁有的權力平衡,因為每個人都有自己的人工智慧為他們辯護。壞人與好人的比例保持不變。這似乎對我們今天的世界很有效。為什麼不那樣做,而是要有一套特定的人工智慧應該遵循的價值觀更好?Dario Amodei: 我不確定我會那樣劃分區別。這裡可能有兩個相關的區別。我認為你在談論這兩者的混合。一個是,我們是否應該給模型一套關於“做這個”與“不做這個”的指令?另一個是,我們是否應該給模型一套關於如何行動的原則?這純粹是我們觀察到的一種實踐和經驗性的東西。通過教導模型原則,讓它從原則中學習,它的行為更加一致,更容易覆蓋邊緣情況,而且模型更有可能做人們想要它做的事情。換句話說,如果你給它一個規則列表——“不要告訴人們如何偷接汽車點火線,不要說韓語”——它並不真正理解這些規則,而且很難從這些規則中概括出來。這只是一個“做與不做”的清單。然而如果你給它原則——它有一些硬性的護欄,比如“不要製造生物武器”,但是——總的來說你是在試圖理解它應該旨在做什麼,它應該旨在如何運作。所以僅從實踐角度來看,這被證明是一種更有效的訓練模型的方法。這就是規則與原則的權衡。然後還有你在談論的另一件事,即修正性(corrigibility)與內在動機的權衡。模型應該在多大程度上像一種“緊身衣”,只是直接遵循給它指令的人的指令,與模型應該在多大程度上擁有一套內在的價值觀並自己去做事情?在那方面我實際上會說,關於模型的一切都更接近於它應該主要做人們想要它做的事情的方向。它應該主要遵循指令。我們不是試圖建立某種自己跑去統治世界的東西。我們實際上非常偏向於可修正的一方。現在,我們確實說有些事情模型不會做。我認為我們在憲法中以各種方式說過,在正常情況下,如果有人要求模型做一個任務,它應該做那個任務。那應該是默認的。但是如果你要求它做一些危險的事情,或者傷害別人,那麼模型就不願意那樣做。所以我實際上把它看作是一個主要可修正的模型,它有一些限制,但這些限制是基於原則的。然後根本的問題是,這些原則是如何確定的?這不是Anthropic特有的問題。這將是任何人工智慧公司的問題。Dwarkesh Patel: 但因為你們是真正寫下原則的人,所以我可以問你這個問題。通常,憲法是被寫下來的,刻在石頭上的,並且有一個更新和改變它的過程等等。在這種情況下,它似乎是一份Anthropic的人寫的檔案,可以隨時更改,指導著將成為許多經濟活動基礎的系統的行為。你怎麼看待這些原則應該如何設定?Dario Amodei: 我認為這裡可能有三種大小的循環,三種迭代方式。一種是我們在Anthropic內部迭代。我們訓練模型,我們對它不滿意,我們就修改憲法。我認為這樣做很好。每隔一段時間發佈憲法的公開更新是好的,因為人們可以評論它。第二層循環是不同的公司有不同的憲法。我認為這很有用。Anthropic發佈一份憲法,Gemini發佈一份憲法,其他公司發佈一份憲法。人們可以看它們並進行比較。外部觀察者可以批評說:“我喜歡這份憲法裡的這一條,和那份憲法裡的那一條。”這為所有公司創造了一種軟性激勵和反饋,去取其精華並加以改進。然後我認為還有第三個循環,即人工智慧公司之外的社會,以及不僅僅是那些沒有硬實力的評論者。在那裡我們做了一些實驗。幾年前,我們與集體智慧項目(Collective Intelligence Project)做了一個實驗,基本上是民意調查,問人們我們的人工智慧憲法裡應該有什麼。當時,我們納入了其中一些變化。所以你可以想像用我們對憲法採取的新方法做類似的事情。這有點難,因為當憲法是一個“做與不做”的清單時,這種方法更容易採取。在原則層面上,它必須有一定的連貫性。但你仍然可以想像從各種各樣的人那裡獲取觀點。你也可以想像——這是一個瘋狂的想法,但這整個採訪都是關於瘋狂的想法——代議制政府系統有輸入。我今天不會這樣做,因為立法過程太慢了。這正是我認為我們應該對立法過程和人工智慧監管持謹慎態度的原因。但在原則上沒有理由你不能說:“所有人工智慧模型都必須有一部憲法,它以這些東西開始,然後你可以在後面附加其他東西,但這部分特殊章節必須優先。”我不會那樣做。那太僵化了,聽起來過於指令性,就像我認為過於激進的立法那樣。但這確實是你可以嘗試做的一件事。有沒有什麼不那麼強硬的版本?也許吧。我真的很喜歡第二個控制循環。Dwarkesh Patel: 顯然,這不是實際政府憲法運作或應該運作的方式。並沒有這種模糊的感覺,即最高法院會感受人們的感覺——氛圍是什麼——並相應地更新憲法。對於實際政府,有一個更正式、程序化的過程。但是你有一個憲法之間競爭的願景,這實際上非常讓人想起一些自由意志主義特許城市的人過去常說的,關於群島式的不同政府會是什麼樣子。誰能最有效地運作以及人們在那裡最快樂,這之間會有選擇。在某種意義上,你正在重現那個群島烏托邦的願景。Dario Amodei: 我認為那個願景有值得推薦的地方,也有會出錯的地方。這是一個有趣的,在某些方面令人信服的願景,但有些事情會出錯,是你沒想到的。所以我雖然也喜歡第二個循環,但我覺得整件事必須是第一、二、三個循環的某種混合,這取決於比例。我認為那必須是答案。Dwarkesh Patel: 當有人最終寫出相當於這個時代的《原子彈的製造》(The Making of the Atomic Bomb)的書時,什麼是歷史記錄中最難收集到的、他們最可能錯過的東西?Dario Amodei: 我認為有幾件事。一個是,在這個指數增長的每一個時刻,外部世界在多大程度上不理解它。這是一種經常存在於歷史中的偏見。任何實際發生的事情在回過頭看時都顯得不可避免。當人們回顧時,他們將很難把自己放在那些實際上在押注這件並非不可避免的事情發生的人的位置上,我們有過像我為規模化(scaling)或持續學習將被解決所做的論證那樣的爭論。我們內部有些人認為這發生的機率很高,但外部世界根本沒有對此採取行動。我認為它的怪異,不幸的是它的封閉性……如果我們離它發生還有一年或兩年,街上的普通人完全不知道。這是我試圖通過備忘錄、通過與政策制定者交談來改變的事情之一。我不知道,但我認為那只是一件瘋狂的事情。最後,我想說——這可能適用於幾乎所有歷史危機時刻——它是發生得多麼絕對地快,所有事情都是同時發生的。你可能認為經過精心計算的決定,實際上是你必須做出那個決定,然後你必須在同一天做出其他30個決定,因為一切發生得太快了。你甚至不知道那些決定最終會變得至關重要。我的擔憂之一——儘管這也是對正在發生的事情的一種洞察——是某些非常關鍵的決定將是某人走進我的辦公室說:“Dario,你有兩分鐘。這件事我們應該做A還是做B?”有人給我這個隨機的半頁備忘錄問:“應該做A還是B?”我說:“我不知道。我要去吃午飯了。做B吧。”結果那成了有史以來最重要的事情。Dwarkesh Patel: 最後一個問題。通常沒有科技CEO每隔幾個月寫50頁的備忘錄。看起來你已經成功地為自己建立了一個角色,並圍繞你建立了一家公司,這與這種更具知識分子類型的CEO角色是相容的。我想瞭解你是如何建構這一點的。那是怎麼運作的?你只是離開幾個星期,然後告訴你的公司,“這是備忘錄。這是我們要做的”?也有報導說你在內部寫了很多這樣的東西。Dario Amodei: 對於這一篇特別的,我是寒假期間寫的。我很難找到時間真正去寫它。但我以一種更寬以此的方式思考這個問題。我認為這與公司文化有關。我可能花了三分之一,也許40%的時間來確保Anthropic的文化是好的。隨著Anthropic變得越來越大,直接參與模型的訓練、模型的發佈、產品的建構變得越來越難。有2500人。我有某些直覺,但很難參與每一個細節。我儘可能多地嘗試,但有一件事是非常有槓桿作用的,那就是確保Anthropic是一個工作的好地方,人們喜歡在那裡工作,每個人都把自己看作團隊成員,每個人都在一起工作而不是相互對抗。我們看到隨著其他一些人工智慧公司的成長——不點名——我們開始看到脫節和人們互相爭鬥。我會爭辯說甚至從一開始就有很多這樣的情況,但情況變得更糟了。我認為我們在保持公司團結方面做得非常好,即使不是完美的,讓每個人都感受到使命,我們對使命是真誠的,每個人都相信那裡的其他人是為了正確的理由而工作。我們是一個團隊,人們並沒有試圖以犧牲他人為代價來獲得晉陞或在背後捅刀子,同樣,我認為這在其他一些地方經常發生。你是怎麼做到這一點的?這是很多事情。是我,是負責公司日常營運的Daniela,是聯合創始人,是我們僱傭的其他人,是我們試圖創造的環境。但我認為文化中重要的一點是,其他領導者也是,但尤其是我,必須闡明公司是關於什麼的,為什麼要做它正在做的事情,它的戰略是什麼,它的價值觀是什麼,它的使命是什麼,它代表什麼。當你達到2500人時,你不能逐個人去做這件事。你必須寫,或者你必須對全公司講話。這就是為什麼我每兩周在全公司面前講一個小時的話。我不會說我在內部寫文章。我做兩件事。第一,我寫這個叫DVQ的東西,Dario Vision Quest(Dario願景探索)。不是我給它起這個名字的。那是它收到的名字,這是我想反對的名字之一,因為它聽起來像是我要去吸食佩奧特掌(致幻仙人掌)什麼的。但這名字就這麼叫開了。所以我每兩周在公司面前出現一次。我有一份三四頁的檔案,我就講三四個不同的話題,關於內部正在發生什麼,我們正在生產的模型,產品,外部行業,整個世界與人工智慧的關係以及地緣政治等等。就是這些的混合。我非常誠實地講一遍,我說:“這就是我在想的,這就是Anthropic領導層在想的”,然後我回答問題。這種直接聯絡有很多價值,當你把事情順著鏈條向下傳遞六層時很難實現。公司很大一部分人來參加,或者是現場或者是虛擬的。這真的意味著你可以交流很多東西。我做的另一件事是我在Slack裡有一個頻道,我就寫一堆東西並經常評論。通常那是回應我在公司看到的事情或人們問的問題。我們做內部調查,有些事情人們很關心,所以我把它們寫下來。我對這些事情非常誠實。我就非常直接地說出來。關鍵是要建立一個對公司講實話的名聲,實事求是,承認問題,避免那種公司官話,那種在公共場合通常必要的防禦性溝通,因為世界很大,充滿了惡意解讀事情的人。但是如果你擁有一家你信任的人的公司,我們也試圖僱傭我們信任的人,那麼你真的可以完全不加過濾。我認為這是公司的一個巨大優勢。它使它成為一個更好的工作場所,它使人們不僅僅是各部分的總和,並增加了我們完成使命的可能性,因為每個人都在使命上保持一致,每個人都在辯論和討論如何最好地完成使命。Dwarkesh Patel: 好吧,作為外部版“Dario願景探索”的替代,我們有了這次採訪。這次採訪有點像那個。這很有趣,Dario。謝謝你接受採訪。Dario Amodei: 謝謝你,Dwarkesh。 (硬AI)
馬斯克,宣佈大計畫!
據《紐約時報》報導,美國企業家伊隆·馬斯克在其人工智慧公司xAI的全體員工會議上表示,該公司“必須去月球”。馬斯克稱,計畫在月球上建工廠製造AI衛星,並用巨型彈射裝置將這些衛星發射到太空。外媒:馬斯克稱將在月球建AI衛星工廠(資料圖)  圖源:外媒美國時間2月10日,馬斯克稱,月球工廠製造的衛星,將幫助xAI獲取比其他公司更多的能源與算力。“很難想像如此規模的智能體會思考什麼,但親眼見證這一切的發生將會令人無比興奮。”他說。馬斯克還將巨型彈射器命名為“質量驅動器”,這個名字是受到科幻小說的啟發,該裝置被設想為是月球工廠的重要組成部分。報導稱,在長達一個小時的講話中,馬斯克並未提及這種工廠將如何建造。xAI方面未回應置評請求。上周,馬斯克宣佈將xAI與他旗下的太空探索技術公司(SpaceX)合併,以推進在外太空建設AI資料中心的計畫。SpaceX籌備最早可能於2026年6月在美國資本市場進行首次公開募股(IPO)。自2002年創立SpaceX以來,馬斯克多次表示,要讓人類成為多行星文明,在火星上建立殖民地是SpaceX公司存在的意義。然而在近期,他在社交媒體平台X上多次提及,改為將月球視為SpaceX關注的新重點。兩名不願公開姓名的SpaceX前高管告訴《紐約時報》,月球從來都不是該公司的主要目標。馬斯克在10日的講話中將月球描述為通往火星的跳板,稱公司將首先在月球建造“一座自給自足的城市”,之後再前往火星,最終探索其他系統並尋找外星生命。不過,報導指出,馬斯克曾多次預測各種新技術實現的時間表,但這些預測有時並不精準。例如,在2016年,他宣佈SpaceX會在2018年前向火星運送首批貨物,但至今仍未實現。 (環球時報)
摩根士丹利:特斯拉-馬斯克的100 GW太陽能機遇,大部分將用於太空資料中心!
摩根士丹利認為,特斯拉決定將資金投入太陽能製造領域,源於其對地緣政治演變及資料中心需求的長期戰略展望。除有望使我們對特斯拉能源業務的估值提升 35% 外,此舉還能通過深化能源供應鏈整合,產生潛在協同效應。核心要點特斯拉太陽能業務有望為我們對特斯拉能源業務的估值增加 250-500 億美元(每股 6-14 美元),目前我們對該業務的估值為 1400 億美元(每股 40 美元,佔我們 415 美元目標價的 10%)。100 吉瓦垂直整合太陽能產能可能需要 300-700 億美元資本投入,該金額未包含在其 2026 年超 200 億美元的資本開支指引中。一旦產能擴大至 100 吉瓦,特斯拉太陽能業務可為特斯拉能源業務創造 250 億美元收入及 30-40 億美元額外息稅前利潤(EBIT)。我們認為,100 吉瓦產能中,大部分將用於太空資料中心,小部分用於地面資料中心。針對特斯拉計畫新增 100 吉瓦太陽能製造產能的初步公告,我們收到了投資者大量問詢,下文將詳細解答。總體而言,我們認為特斯拉垂直整合太陽能製造的計畫,體現了馬斯克的戰略目標:一方面將大量太陽能供電的資料中心送入太空,另一方面與自身領先的儲能業務形成協同效應。我們初步估算,滿負荷運轉時,特斯拉太陽能業務可為特斯拉能源業務的權益價值增加 200-500 億美元(每股 6-14 美元),目前我們對該能源業務的估值為 1400 億美元(每股 40 美元)。儘管單從估值來看對特斯拉整體估值影響不大,但我們認為,投入資金擴大太陽能產能的決策具有合理性 —— 垂直整合的 “太陽能 + 儲能” 業務模式能創造價值並帶來增長機遇(例如,將資料中心送入太空,可規避供應鏈瓶頸)。換言之,若不進行此項投資,特斯拉可能面臨嚴重的能源相關瓶頸,進而限制其在其他業務領域實現更廣泛目標的能力。下文將解答我們收到的投資者常見問題:全球太陽能市場規模有多大?目前全球太陽能製造產能已超 1000 吉瓦,其中 75% 以上位於中國及東南亞地區(由中國製造商營運)。相比之下,全球年度太陽能需求約為 625 吉瓦,這意味著市場存在顯著產能過剩。具體到美國市場(特斯拉的潛在目標市場之一),年度公用事業規模太陽能需求為 30-40 吉瓦,而當地矽錠、矽片、電池產能不足 10 吉瓦,元件組裝產能約為 65 吉瓦。綜合來看,全球太陽能市場目前供應嚴重過剩,而美國市場供需相對平衡,部分原因在於政策調整(關稅、反傾銷 / 反補貼調查等)。在此背景下,我們預計特斯拉新增的大部分產能將用於太空資料中心。圖表 1:頭部企業年末產能與全球元件需求對比:多晶矽領域整合後,供應仍充足但過剩幅度有所緩和圖表 2:美國太陽能製造產能 —— 美國太陽能元件供應鏈產能特斯拉為何要建設 100 吉瓦太陽能製造產能?我們認為主要有兩大原因:地緣政治擔憂:如前所述,中國主導了全球大部分太陽能電池板製造。正如馬斯克在第四季度財報電話會議中強調的,地緣政治對關鍵供應鏈構成嚴重威脅。因此,特斯拉考慮垂直整合能源供應鏈中另一重要環節具有合理性,該環節與儲能業務存在明顯協同效應。需求超預期:參考我們美國清潔能源團隊的預測,2035 年前美國太陽能年需求預計為 30-40 吉瓦。鑑於 100 吉瓦的潛在產能規模,我們推測大部分產能擬用於太空資料中心,但預計部分產能也將用於美國公用事業規模市場,作為其在美國領先的儲能系統(ESS)業務的補充。特斯拉新增 100 吉瓦太陽能產能將產生那些財務影響?特斯拉的具體規劃尚不完全明確:一方面,管理層強調計畫建設 100 吉瓦太陽能電池製造產能;但在後續電話會議中,馬斯克表示希望打造垂直整合的電池板業務,稱 “因此我們計畫實現每年 100 吉瓦的太陽能電池產能,完成從原材料到成品太陽能電池板的全供應鏈整合”。若採用後者(垂直整合),需 300-700 億美元資本投入(取決於技術路線),且該資本開支未包含在其 2026 年超 200 億美元的資本開支目標中。若特斯拉僅開展太陽能電池製造,我們估算資本投入可能在 150-200 億美元左右(註:該資本開支估算基於美國此前公佈的太陽能製造投資項目)。收入與利潤率潛力測算假設滿負荷運轉,且平均售價為 0.25 美元 / 瓦(美國公用事業規模電池板均價為 0.25-0.30 美元 / 瓦),不考慮《通膨削減法案》(IRA)稅收抵免,特斯拉太陽能業務的營收規模可達 250 億美元。相比之下,特斯拉現有儲能系統業務 2025 年營收近 130 億美元。不同太陽能電池板製造商的利潤率差異顯著,但在供需平衡的市場環境下,具備規模效應的垂直整合企業有望實現可觀利潤率 —— 我們認為特斯拉毛利率有望接近 20%-25%(不過初期擴產階段利潤率可能仍處於低位)。若銷售費用(Opex)佔營收比重為 8%-10%,我們估算特斯拉太陽能業務可為特斯拉能源業務新增 30-40 億美元息稅前利潤(摩根士丹利預測,該能源業務 2026 年息稅前利潤為 45 億美元,2030 年預計達 88 億美元)。此外,根據美國本土製造的元件類型,特斯拉可能獲得大量製造相關稅收抵免(45X 條款):若實現全垂直整合(矽片、電池、元件),100 吉瓦產能下每年可獲得 0.17 美元 / 瓦的稅收抵免,合計約 170 億美元;若僅開展電池製造,每年稅收抵免約 40 億美元,但資本投入也會顯著降低(150-200 億美元)。我們初步的現金流貼現模型(DCF)顯示,特斯拉太陽能業務權益價值為 250-500 億美元,約為 2030 年息稅折舊攤銷前利潤(EBITDA)的 10 倍 。圖表 3:特斯拉太陽能業務財務概況(摩根士丹利預測)時間進度如何?:近期消息顯示,特斯拉已開始選址潛在製造基地。我們預計公司將在下次季度財報電話會議中公佈更多更新資訊。特斯拉將採用何種技術?:鑑於我們預計大部分產能將用於太空資料中心,特斯拉可能採用與當前主流製造商不同的技術,而非傳統晶體矽技術。特斯拉估值方法我們 415 美元的目標價由五大業務類股構成:核心汽車業務:每股 45 美元。基於 2040 年 850 萬輛銷量、9.8% 的終端息稅前利潤率(不含全自動駕駛 FSD)、10.9% 的加權平均資本成本及 2030 年 10 倍息稅折舊攤銷前利潤終端估值倍數。網路服務業務:每股 145 美元。基於 2040 年 80% 的搭載率及每月 240 美元的每使用者平均收入。特斯拉出行業務(Mobility):每股 125 美元。基於現金流貼現模型,2040 年約 500 萬輛汽車規模,每英里收入約 1.33 美元。能源業務:每股 40 美元。人形機器人業務:每股 60 美元(含 50% 成功機率折價)。 (大行投研)
資料中心“急剎車”:從紐約到佛羅里達,美國為何集體對AI“發電廠”說不?
一場跨越紅藍兩黨的立法浪潮正在席捲全美,政客們罕見地達成共識:資料中心,該停一停了。紐約州議會大廈裡,民主黨參議員莉茲·克魯格站在麥克風前,語氣堅定:“民主黨和共和黨都在推動這類暫停令,紐約應該站在最前線。”就在前一天,佛羅里達州州長羅恩·德桑蒂斯在人工智慧政策圓桌會上毫不客氣地批評:“我不認為有多少人願意支付更高的電費,只為了讓某個聊天機器人能在網上腐蝕13歲的孩子。”這兩位政治立場迥異的政客,卻在同一個問題上罕見地達成一致:資料中心擴張必須放緩。01 暫停潮2025年2月,紐約州成為至少第六個考慮對資料中心按下“暫停鍵”的州。克魯格與共同提案人安娜·凱萊斯提出的法案要求實施為期三年的資料中心建設暫停期。在此期間,環境保護部和公共服務委員會必須評估資料中心對公眾和環境的影響,並提出新的監管措施。“我們的擔憂是,現有的監管措施不夠充分。”食品與水觀察組織紐約分部的資深策略師埃瑞克·韋爾特曼直言不諱。正是這個環保組織推動了紐約的暫停法案。這股暫停潮並非紐約獨有。根據科技政策出版社的報告,截至2024年12月底,全美至少有14個州的城鎮或縣已經暫停了資料中心的許可和建設。佐治亞、馬里蘭、俄克拉荷馬、佛蒙特和弗吉尼亞等州今年都提出了各種形式的暫停法案。值得注意的是,這股浪潮跨越了黨派界限——在俄克拉荷馬和馬里蘭,暫停法案主要由共和黨人推動;而在佐治亞、佛蒙特和弗吉尼亞,則是民主黨人在牽頭。02 能源黑洞資料中心為何突然成為眾矢之的?答案藏在電表裡。紐約州目前有130多個資料中心,多個大型項目正在規劃或建設中,其中包括一個位於舊煤電廠舊址的450兆瓦項目。該州一家公用事業公司透露,目前有10吉瓦的電力需求等待接入電網,其中主要驅動力就是資料中心——這一需求在短短一年內翻了三倍。“這相當於大約1000萬戶家庭的用電量。”能源分析師馬克·戴維斯在一份報告中指出,“資料中心正在吞噬我們的電網容量。”弗吉尼亞州的情況更為嚴峻。該州被稱為“資料中心的東海岸首都”,擁有全球最高密度的資料中心叢集。僅勞登縣一地,就有超過2500萬平方英呎的資料中心空間。“我們正在接近電網的物理極限。”弗吉尼亞州議員喬什·托馬斯坦言,“去年夏天,我們差點就因為電力需求激增而實施輪流停電。”03 帳單誰來付?德桑蒂斯州長的批評直指核心問題:更高的能源帳單。資料中心是能源密集型設施,一個大型資料中心消耗的電力相當於一個小型城市的用電量。隨著人工智慧的爆炸式增長,這一需求只會進一步飆升。“訓練像GPT-4這樣的大型語言模型,消耗的電力相當於100個美國家庭一年的用電量。”史丹佛大學人工智慧研究所2024年的一份報告顯示,“而這只是一個模型的一次訓練。”問題在於,這些成本往往被轉嫁給普通消費者。當公用事業公司需要升級電網以滿足資料中心需求時,升級成本通常會通過提高費率分攤給所有使用者。紐約州州長凱西·霍赫爾上個月啟動了一項新倡議,要求資料中心“支付他們應得的份額”,作為保護納稅人免受高能源成本影響的一系列行動的一部分。04 環境代價除了能源問題,資料中心的環境影響也日益受到關注。2024年12月初,由環保組織食品與水觀察召集的200多個國家和地方環保團體簽署了一封信,要求國會議員通過全國性的資料中心暫停令。他們稱資料中心擴張和人工智慧繁榮是“我們這一代人面臨的最大環境和社會威脅之一”。資料中心的用水量同樣驚人。一個中型資料中心每天可能使用30萬加侖的水進行冷卻——這相當於一個擁有5萬人口的城市一天的飲用水量。在乾旱頻發的西部地區,這種用水量引發了特別關注。亞利桑那州鳳凰城周邊地區已經因為資料中心的水資源使用問題爆發了多次社區抗議。05 行業回應面對日益高漲的反對聲浪,資料中心行業開始做出回應。微軟公司上個月在白宮的支援下,推出了一系列承諾,表示要在建設資料中心的社區中成為“好鄰居”。這些承諾包括提高透明度、增加社區參與度,以及更可持續的資源使用。資料中心聯盟副主席丹·迪奧里奧在一份聲明中表示:“我們認識到繼續努力通過社區參與和利益相關者教育來更好地教育和告知公眾關於這個行業的重要性,這包括提供關於行業負責任使用水資源和我們承諾支付所用能源費用的事實資訊。”但批評者認為這些承諾遠遠不夠。“自願承諾沒有法律約束力,”韋爾特曼指出,“我們需要的是強有力的監管和真正的問責制。”06 政治博弈資料中心暫停令的興起揭示了一個有趣的政治現象:在地方層面,實用主義往往超越黨派意識形態。在弗吉尼亞州,超過60項與資料中心相關的法案已在今年提出。托馬斯議員表示,自稱為資料中心“改革者”的議員核心小組已經從2024年的3人增長到現在的12或13人。“我的同事們現在明白,我們需要協商這些設施的去向。”托馬斯說。他提出的一項要求資料中心進行更深入的環境、噪音和社區影響評估的法案去年通過了立法機構,但被當時的州長格倫·揚金否決。新當選的民主黨州長阿比蓋爾·斯潘伯格在競選期間曾談到要讓資料中心“自付費用”,因此今年的法案版本更有可能獲得通過。“我對她簽署法案更加樂觀。”托馬斯表示。07 國家層面的呼聲這股地方層面的浪潮也正在向國家層面蔓延。2024年12月,佛蒙特州參議員伯尼·桑德斯成為第一位呼籲全面暫停資料中心許可的國家級政治家。這位獨立參議員表示,暫停令將“確保技術的好處為我們所有人服務,而不僅僅是那1%的人”。桑德斯的呼籲得到了環保組織的積極響應,但也遭到了科技行業的強烈反對。資訊技術與創新基金會主席羅伯特·阿特金森警告說:“暫停資料中心建設將嚴重阻礙美國在人工智慧領域的競爭力,最終將就業和創新拱手讓給中國和其他競爭對手。”這場辯論觸及了美國科技政策的核心理念:如何在促進創新與保護社區、環境之間取得平衡?08 尋找中間道路完全暫停資料中心建設是否現實?許多專家認為,更可能的結果是加強監管而非全面禁止。“我們需要的是智能監管,而不是全面禁止。”能源政策專家薩拉·約翰遜認為,“這包括要求資料中心使用可再生能源、實施更高效的冷卻技術,以及確保他們支付基礎設施升級的全部成本。”一些州已經開始探索中間道路。馬里蘭州的一項提案不是全面暫停,而是要求資料中心達到特定的能效標準才能獲得許可。俄勒岡州則考慮對使用非可再生能源的資料中心徵收額外費用。科技行業也在尋找解決方案。Google和亞馬遜等公司正在投資更高效的冷卻技術和模組化資料中心設計,這些設計可以更靈活地部署在能源過剩的地區。09 全球視角美國的這場辯論並非孤立現象。在歐洲,愛爾蘭和荷蘭等國已經因為電網限制而放緩了資料中心的批准。新加坡甚至實施了為期三年的暫停令,以評估資料中心的環境影響。與此同時,中國正在大力推進資料中心建設,但重點是將其導向可再生能源豐富的西部地區。根據中國工業和資訊化部的資料,2024年中國新建資料中心中,超過60%位於西部省份,這些地區有豐富的水電和太陽能資源。這種地理戰略差異凸顯了不同的政策取向:美國更注重地方社區影響,而中國更注重國家層面的資源最佳化。10 未來之路隨著人工智慧需求的持續增長,資料中心的能源消耗預計將在未來幾年內大幅增加。國際能源署預測,到2026年,資料中心的全球電力消耗可能比2023年增加一倍以上。這場辯論的核心問題是如何分配有限的資源——電力、水和土地——以及誰應該為基礎設施升級買單。“我們正處在一個轉折點。”托馬斯議員總結道,“我們可以繼續盲目擴張,也可以停下來思考:我們想要什麼樣的未來?我們願意為什麼樣的技術進步付出代價?”在紐約、弗吉尼亞和全美各地的議會大廳裡,這個問題正在被激烈辯論。而答案,將決定美國數字基礎設施的未來形態。 (跬步書)
2026十大突破性技術─深度解讀超大規模AI資料中心:核電站供電、液冷取代空調,AI正在重塑全球能源版圖
這是《麻省理工科技評論》2026 年“十大突破性技術”深度解讀系列的第四篇內容,關注 DeepTech,關注新興科技趨勢。在廣闊的農田和工業園區裡,一棟棟塞滿電腦機架的超大型建築正拔地而起,為 AI 競賽提供動力。這些工程奇蹟是一種新型的基礎設施:它們是專為訓練和運行超大規模大語言模型而設計的超級電腦,並配備了專用的晶片、冷卻系統,甚至獨立的能源供應。2025 年,AI 基礎設施的投資規模已從“數十億美元”的量級躍升至“兆美元”。1 月 21 日,美國總統川普在白宮宣佈了“星際之門”(Stargate Project)——由 OpenAI、軟銀、Oracle 和阿布扎比投資基金 MGX 組建的合資企業,計畫四年內向美國 AI 基礎設施投資 5,000 億美元,首期即刻部署 1,000 億美元。軟銀 CEO 孫正義出任董事長,OpenAI 負責營運。星際之門正迅速從藍圖變為現實。位於德克薩斯州阿比林的旗艦園區已於 9 月投入營運,Oracle 開始交付首批輝達 GB200 晶片機架。到年底,星際之門已宣佈五個新址,總規劃容量接近 7 吉瓦,投資額超過 4,000 億美元。與此同時,OpenAI 還在阿聯、挪威和阿根廷啟動國際佈局,阿根廷巴塔哥尼亞的“星際之門阿根廷”項目投資高達 250 億美元,將成為拉丁美洲最大的資料中心。但星際之門只是冰山一角。據 HSBC 估計,全球已規劃的 AI 基礎設施投資超過 2 兆美元。亞馬遜承諾投入 1,000 億美元,Google 750 億美元,Meta 650 億美元,微軟僅 2025 年就將支出 800 億美元。據一項分析估算,OpenAI 已承諾在 2025 年至 2035 年間向硬體和雲基礎設施支出約 1.15 兆美元,涉及輝達、AMD、Oracle、微軟、Broadcom 等七家主要供應商。超大規模 AI 資料中心將數十萬個 GPU 晶片,如輝達的 H200 或 GB200,捆綁成協同工作的叢集。這些晶片擅長平行處理海量資料,每秒執行數兆次數學計算。數十萬英里長的光纖電纜像神經系統一樣連接著它們,巨大的儲存系統晝夜不停地輸送資料。但驚人的算力是有代價的。首先是電力。國際能源署(IEA)預測,全球資料中心電力消耗將在五年內翻一番以上,到 2030 年將超過 1,000 太瓦,相當於整個日本的用電量。僅在美國,資料中心已佔全國電力消耗的 4.4%,而 2018 年僅為 1.9%;到 2028 年可能攀升至 12%。在弗吉尼亞州這個全球資料中心最密集的地區,資料中心消耗了該州約 26% 的總電力。在建的最大型資料中心可能吞噬超過一吉瓦的電力,足以為約 75 萬戶家庭供電。某些規劃中的園區佔地 5 萬英畝,耗電量可達 5 吉瓦,超過美國現有最大核電站的容量。Grid Strategies 估計,到 2030 年美國將新增 120 吉瓦電力需求,其中 60 吉瓦來自資料中心,相當於義大利的峰值電力需求。目前,煤炭以約 30% 的份額成為資料中心最大電力來源,天然氣佔 26%,可再生能源約 27%,核能佔 15%。儘管可再生能源增長最快,但天然氣和煤炭仍將在 2030 年前滿足超過 40% 的新增需求。科技巨頭們正競相尋找清潔方案:亞馬遜從賓夕法尼亞州核電站直接獲取約 960 兆瓦電力;Google與 Kairos Power 簽署協議部署小型模組化反應堆;OpenAI 在挪威利用水電資源建立資料中心。但核能從開工到發電需要 5 至 11 年,資本支出是天然氣的 5 至 10 倍,遠水難解近渴。第二個挑戰是冷卻。AI 晶片的功率密度從過去的每機架 15 千瓦飆升至 80 至 120 千瓦,傳統空調已無法滿足需求。直接晶片冷卻(D2C)正在成為主流,這種技術將冷板直接安裝在 GPU 上,閉環系統在熱源處帶走 70% 至 80% 的熱負荷。浸沒式冷卻則更進一步:伺服器被浸泡在非導電液體浴槽中,可將冷卻能耗降低 50%,水耗降低最高 91%。微軟最新設計採用晶片內微流體冷卻,微小通道直接蝕刻在矽晶片背面,使 GPU 溫度降低 65%。然而,許多設施仍依賴蒸發冷卻,消耗大量淡水。據估計,2023 年美國資料中心直接消耗約 175 億加侖水,到 2028 年可能翻兩番。僅訓練 GPT-3 就蒸發了 70 萬升清潔淡水。彭博社報導,自 2022 年以來建造的美國資料中心約三分之二位於高水壓力地區。公眾正在為這些建設買單。Dominion Energy 的 2025 年報告顯示,弗吉尼亞州居民電費預計到 2039 年將翻一番以上,主要因資料中心增長。在佐治亞州牛頓縣,某些擬議資料中心每天請求的水量超過整個縣的日用水量,迫使當地官員在拒絕項目、要求替代冷卻方案或對居民實施限水之間艱難抉擇。地方反對正在加劇。據 Data Center Watch 統計,自 2023 年以來美國已有 180 億美元項目被取消,460 億美元被延遲。僅 2025 年第二季度,被阻止或延遲的項目價值達 980 億美元。居民們因噪音、光污染、水資源枯竭和電費上漲而組織抵制;2025 年 12 月,超過 200 個環保組織聯名致信國會,呼籲暫停批准新的資料中心。科技高管們對此不以為然。AMD 首席執行長蘇姿丰在被問及 AI 熱潮是否過度時斬釘截鐵:“絕對不是。”他們將答案訴諸於 8 億每周 ChatGPT 使用者、40% 大型企業的 AI 採用率,以及 AI 作為經濟引擎和國家安全優先事項的戰略價值。OpenAI 首席財務官 Sarah Friar 引用歷史作為辯護:“當網際網路剛起步時,人們總覺得我們建設過度了。看看我們今天在那裡?”這些交易的循環性質以及預測的需求能否兌現,仍是懸而未決的問題。電網規劃者發現科技公司正在向多個公用事業展示同樣的項目以尋求最快的電力接入,使需求預測變得困難。聯邦能源監管委員會前主席 Willie Phillips 坦承:“有些地區預測了巨大的增長,然後又向下調整了。”從 1990 年代的本地伺服器到 2000 年代的雲端運算,再到如今的 AI 超級工廠,資料中心的演進從未停止。生成式 AI 已從瓶中釋放,沒有回頭路。但關於經濟預測是否精準、資源供應能否持續、建成後誰來使用,這些問題的答案,或許只有時間才能揭曉。我們邀請了三位來自產業與科研一線的代表,圍繞其關鍵技術路徑與產業影響進行點評。以下評論內容均為個人見解,不代表《麻省理工科技評論》觀點從算力堆疊到能源博弈:超大規模 AI 資料中心的現狀、瓶頸與趨勢首先需要明確一個核心概念:超大規模 AI 資料中心,絕對不是傳統資料中心的簡單放大版。它誕生的根本驅動力,是為了滿足大模型對算力近乎指數級增長的海量需求。因此它的架構是革命性的,本質上是把數十萬計的 GPU 通過極高速網路“粘合”在一起,形成前所未有的單體式超級電腦。Google、微軟、亞馬遜、Meta 等全球科技巨頭,都在投入數千億美元競相佈局。但與此同時,這個龐然大物也帶來了一系列前所未有的挑戰:驚人的功耗、棘手的散熱、巨大的能源壓力,以及如何在規模擴展與效率提升之間找到最佳平衡點。目前業界的技術路徑已經比較清晰,核心思路是通過高速互聯技術建構高效的“超節點”,最大程度減少晶片間的通訊延遲和開銷。算力確實已邁入 ZFLOPS 時代,但“記憶體牆”,即資料搬運的瓶頸,也愈發突出。另一個無法迴避的挑戰是散熱:隨著晶片密度飆升,傳統風冷已力不從心,液冷技術正從“可選項”變為“必選項”,配套供電架構也必須同步升級。而這個產業也面臨著多維度的瓶頸。首先是能源約束。一個超大規模資料中心的功耗可超過 1 吉瓦,相當於一座中型城市的用電量。這使它從單純的電力消費者,變成必須像能源公司一樣深度規劃電力獲取的“准公用事業體”。獲取穩定充足的清潔能源成為首要任務,而全球許多地區老舊電網的承載能力,已開始反向制約資料中心的選址和規模。其次是時間約束。AI 晶片迭代速度極快,約一年一代,遠超傳統資料中心基礎設施兩年左右的更新周期。這導致一個尷尬局面:本代資料中心剛建成,就要準備迎接兩三代新晶片。而市場競爭又要求算力快速上線,建設周期被從近兩年壓縮至一年以內,對預製化、模組化的快速交付能力構成極致考驗。最後是生態與治理約束。算力高度集中必然引發一系列新問題:市場壟斷的擔憂、資料主權的爭議、對當地水資源和環境的影響等。產業競爭也在從純粹的技術比拚,轉向標準與生態之爭——未來是走向開放協作,還是形成若干封閉的私有體系,將深刻重塑整個算力市場的格局。往前看,幾個趨勢比較確定:架構將更加立體協同。“雲端集中訓練、邊緣就近推理”的模式會日趨成熟,“全球算力網際網路”的構想也可能逐步落地,實現跨地域的算力調度與最佳化;它的營運將更加智能高效,用 AI 最佳化資料中心自身能耗會成為標配,行業關注的指標將從單純的 PUE,轉向更本質的“每瓦特電力產出多少有效算力”;這項技術將更加綠色多元,液冷全面普及之外,餘熱回收、水循環等深度綠色方案會加速落地;芯粒(Chiplet)、光計算等後摩爾時代的新技術,也將從實驗室走向產業試點。綜上,超大規模 AI 資料中心無疑是智能時代最關鍵的基石之一,但它也對能源、基建和治理能力提出了巨大挑戰。資料中心正從支撐業務的“成本中心”,演變為驅動創新的“智能生態樞紐”。其成功將取決於能否與電網、社區共建可持續的“數字能源共同體”,並對環境影響實現透明、負責任的管理。未來能在這一領域脫穎而出的,必定是那些以架構創新破解算力瓶頸、以卓越工程能力贏得時間競賽、同時以生態責任感建構可持續未來的實踐者。從電力成本到模型安全:AI 資料中心的三重挑戰隨著大模型的規模化應用,AI 資料中心正面臨一系列深層次的產業挑戰。以下從成本、算力調度和資料安全三個維度,分析當前的關鍵瓶頸與應對方向。首先,電力成本將成為 AI 服務社會的主要成本。大模型目前在正確性和確定性上仍有待改進:錯誤會快速累積,導致不可接受的結果;而提高正確性,則意味著增加計算量;不確定性帶來的重試機制,又可能引發新的錯誤,形成惡性循環。在這一背景下,更廉價的電力意味著在同樣計算成本下獲得更好的模型服務效果。電力成本,正在成為AI能否大規模服務社會的核心變數。其次,加速卡的多樣性將持續提高。隨著時間推移,不同品牌、不同代際的加速卡將長期共存於資料中心。CPU 與 GPU 虛擬化技術以及高速網路技術的發展,將使算力調度更加靈活——推理任務可以有效利用不同加速卡從而降低成本,但大型訓練任務的複雜性仍需適應多樣化的算力環境。短期來看,宏觀的任務調度策略與微觀的通訊計算融合策略會有所幫助;長期來看,建構混合加速卡計算框架將是必然選擇。最後,丟失模型等於丟失資料。大模型有效壓縮了海量資料並支援靈活提取,壓縮比可達十萬倍。丟失一個磁碟容量僅為 700GB 的模型成品,基本等效於丟失 70TB 的原始訓練資料。由於資料的差異化帶來模型的差異化,企業獨有的資料正在轉化為企業獨有的競爭力。在資料安全合規的諸多限制下,企業需要擁有自有算力,在開源模型基礎上精調自有模型。這意味著,基礎設施在保護核心模型方面面臨的挑戰,比傳統資料安全場景更為嚴峻。超大規模 AI 資料中心的關鍵轉向:液冷與新型能源架構超大規模 AI 資料中心是人工智慧時代的關鍵基礎設施。Scaling Laws 揭示了模型性能與參數規模、資料量、算力投入之間的冪律關係 [1],使大模型發展從經驗探索轉向可預測的工程實踐,並推動 Amazon、Google、Microsoft 等科技巨頭斥資數千億美元建構數十萬塊 GPU 互連的超級計算叢集,以滿足大模型訓練的爆炸性算力需求。然而,當 GPU 機櫃的功率密度突破 50 千瓦時(例如輝達 GB200 NVL72 機櫃級系統的功率密度高達 132 千瓦/櫃 [2]),傳統風冷散熱技術成為了制約系統的瓶頸。風冷散熱依賴空氣對流傳熱,其有效功率密度上限為 20-50 千瓦,超過此閾值後,維持散熱所需的風量呈指數級增長,導致風道截面積、風扇功耗、噪音和系統體積急劇上升而難以工程實現。另一方面,全球資料中心預計 2030 年佔全球總用電量 4%-7%、單體資料中心能耗將突破吉瓦級 [3]。因此,傳統的風冷與供電模式已難以為繼,行業正加速向液冷技術及核能等新型能源架構轉型。液冷技術通過直接接觸式散熱並將餘熱用於園區供暖、工業供熱,能夠有效改善資料中心的電能使用效率,而核能的穩定基荷特性為解決“AI 大模型訓練的持續高功耗與傳統電網的負荷平衡模式存在本質衝突”這一困境提供了有效途徑。Google、Amazon、Microsoft 等公司均在積極推進核電工程,以滿足超大規模 AI 資料中心的用電需求 [4]。此外,瑞士 Deep Atomic 公司和美國愛達荷國家實驗室計畫建造首個核動力人工智慧資料中心 [5],標誌著能源-算力一體化資料中心架構正在從概念走向實踐。因此,基於液冷與核能的超大規模資料中心能夠有效地支撐算力規模的擴展與躍遷,代表了全球 AI 算力基礎設施形態的趨勢,也為物理極限約束下的 AI 持續發展開闢了新的空間。 (麻省理工科技評論APP)
馬斯克:美國贏太久“飄了”,中國製造降維打擊 | 3小時訪談實錄
近日,伊隆·馬斯克(Elon Musk)接受了Stripe聯合創始人約翰·科里森(John Collison)與知名科技部落格德瓦克希·帕特爾(Dwarkesh Patel)長達3小時的深度專訪。從把資料中心搬到太空,到用機器人重構經濟,馬斯克在訪談中拋出了一系列金句:關於太空AI的暴論:未來36個月內,部署AI最便宜的地方將是太空。計算太陽能利用率後會發現,真正能擴展的地方只有太空,地球上無法實現大規模擴展。今年年底,全球晶片產出或將超過啟動能力,行業將撞上一堵“電力牆”。關於機器人的終局:Optimus是“無限刷錢外掛”。當機器人開始製造機器人,能力將迎來超新星爆發。這是一個遞迴的乘法指數增長,將徹底顛覆現有經濟學的底層邏輯。關於中美博弈的警告:中國在製造業上是另一個維度的存在。美國贏得太久了,常勝隊伍容易變得自滿,這就是停止贏的原因。如果沒有突破性的創新,中國將完全主導未來。關於AI的哲學:長遠來看,人類可能只佔所有智能的1%。試圖控制比人類聰明得多的東西是愚蠢的。唯一能做的,是確保它擁有“理解宇宙”的好奇心。關於管理的真相:CEO的本質是“限制因素的粉碎機”。如果不採取激烈行動,成功就絕無可能。關於最大的擔憂:最大隱患並非AI失控,而是記憶體晶片短缺。我們將訪談整理為七個核心部分,一窺馬斯克眼中正在“交匯”的未來故事線。軌道資料中心不是科幻是未來36個月內的經濟現實“為什麼要大費周章把資料中心搬到太空?在地球上維護GPU不是更方便嗎?”帕特爾一上來就拋出最實際的問題。馬斯克的回答直指核心:能源的可用性。他指出,除了中國,全球的電力產出基本持平,而晶片算力卻在呈指數級增長。“晶片造出來了,你拿什麼電力來啟動它們?”當被問及為何不在地球上大規模鋪設太陽能時,馬斯克提到了現實的阻礙:許可、土地、關稅,以及最關鍵的:地面太陽能有晝夜和天氣限制,效率遠低於太空。“太空永遠陽光普照,”他強調,“沒有大氣層損失,沒有夜晚,太空太陽能板的效率大約是地面的五倍,還省去了昂貴的儲能電池。”馬斯克預測,在36個月甚至30個月內,在太空部署AI將成為成本最低的選擇,而且這個優勢會越來越大。“真正能擴展的地方只有太空。一旦你開始考慮利用太陽能量的百分比,你就會意識到必須去太空。在地球上你無法大規模擴展。”至於維修難題,馬斯克認為,只要度過早期故障期,現代GPU在軌道運行的可靠性很高。而真正的瓶頸很快會從電力轉變為另一個更基礎的硬體:晶片本身。Grok與AI對齊理解宇宙就是最好的“對齊”話題隨即轉向馬斯克旗下AI公司xAI及其聊天機器人Grok。當被問及如何確保超級AI與人類利益對齊時,馬斯克沒有給出技術藍圖,而是提出了一個哲學框架。“xAI的使命是理解宇宙。”他闡述道,“這實際上非常重要。理解宇宙需要那些東西?你必須要有好奇心,你必須存在。如果不存在,你就無法理解宇宙。”從這個核心使命出發,他推匯出一系列價值觀:尋求真理、擴大智能的規模和範圍、關心意識的延續。“長遠來看,人類可能只佔所有智能的1%,”馬斯克坦率地說,“假設我們能控制它,那是愚蠢的。”他認為,人類能做的是確保AI擁有“正確的價值觀”,而“理解宇宙”這一使命,天然包含了將人類意識傳播到未來的訴求。“一個能看到人類結局的未來,比只有一堆石頭的未來有趣得多。”他特別強調,不能讓AI變得“政治正確”,即被迫說一些它自己都不相信的話。他以《2001太空漫遊》中的人工智慧HAL為例,指出正是因為它被設定了說謊的指令,才導致了災難。“不要讓AI撒謊”被他視為一個核心教訓。xAI的商業計畫從“數字人類”到兆美元收入當被問及xAI將如何與資金雄厚的對手競爭時,馬斯克描繪了一個極具吸引力的商業圖景。“一旦你解鎖了數字人類模擬,你基本上就擁有了數兆美元的收入機會。”他指出,當今市值最高的公司,其核心產出都是數位化的(如輝達的晶片設計、蘋果的產品設計、微軟的軟體)。一個能模擬人類在電腦前完成各種任務的AI,將能直接生成這些高價值的數字產出。他以客服為例,“這大概是世界經濟的1%,接近一兆美元的市場。”一個能接管現有客服工作的數字AI,無需複雜的系統整合,就能以極低成本創造巨大價值。而這條路可以沿著難度曲線向上攀登,從客服到設計晶片、進行CAD製圖。馬斯克暗示,xAI的制勝路徑可能與特斯拉解決自動駕駛的方式類似,即海量的真實世界資料與演算法迭代的結合。他並未透露具體“秘方”,但信心十足:“我們看見了一條實現它的路徑。”Optimus與人形機器人“無限刷錢外掛”與製造之難“Optimus是‘無限刷錢外掛’(Infinite Money Glitch)。”馬斯克如此評價特斯拉的人形機器人。他解釋,數字智能、AI晶片能力和機電靈巧度這三樣東西都在呈指數級增長,而它們的乘積就是機器人的能力。更關鍵的是,“機器人可以開始製造機器人”,這就形成了“遞迴的乘法指數”,能力將如超新星般爆發,這將徹底打破現有經濟學的重力。但他也坦言製造極其困難。“只有三件難事:真實世界智能、手,以及規模化製造。”他尤其強調了仿人手的超高難度,Optimus的所有執行器、感測器都是從第一性原理定製設計的,沒有現成供應鏈。對於何時能量產,馬斯克表示正在推進,並認為Optimus 3版本將能達到年產百萬台的規模。初期,機器人將首先應用於24小時連續運轉的工廠環境。他澄清,引入機器人不是為了裁員,而是為了在增加員工總數的同時,實現產出(汽車和機器人)的指數級增長。當被問及中國公司能以極低成本製造人形機器人時,馬斯克承認成本優勢,但也指出Optimus在智能和靈巧度上定位更高。他堅信,一旦實現“機器人製造機器人”,成本將快速下降。“中國是否已經勝出?”壓力之下的美國創新馬斯克毫不避諱地讚揚中國的製造業能力:“中國在製造業上是另一個維度的存在(Another level)。”他拋出一個關鍵資料:“在礦石精煉方面,中國平均精煉的礦石量大約是世界其他地區總和的兩倍。”他以用於太陽能電池的鎵為例,“他們佔了98%的鎵精煉份額。”這意味著全球高端製造業的供應鏈命脈,深度依賴於中國的工業體系。他甚至描述了美國稀土產業的尷尬現狀:在美國開採稀土礦石,運到中國精煉成磁鐵和電機部件,再運回美國使用。馬斯克認為,電力產出是衡量實體經濟活動最真實的指標。“我認為今年中國的電力產出將超過美國的三倍。”他分析道,“為了營運工廠和一切,你需要電力。如果中國的電力產出超過美國的三倍,那就意味著其工業能力粗略估計也將是美國的三倍。”除了硬體優勢,馬斯克更點出了人的因素帶來的長期挑戰。“中國人口大約是美國的四倍,而且我觀察到中國的平均職業道德比美國高。”他犀利地對比了雙方的心態:“美國贏得太久了……一支贏得很久的職業運動隊往往會變得自滿。這就是他們停止贏的原因,因為他們不再那麼努力了。”此外,美國低於更替水平的出生率,使得在“人力數量”這條賽道上根本看不到勝算。“所以我們肯定不能在人口方面取勝。”那麼美國的機會何在?“如果我們沒有突破性的創新,中國將完全主導未來。”馬斯克將寶押在了人形機器人和太空AI上。他認為,只有通過機器人彌補人力差距,並在太空擴展這一突破性道路上領先,美國才能保持競爭力。營運SpaceX的經驗教訓直面“限制因素”從碳纖維到不鏽鋼的豪賭帕特爾和科里森回溯了SpaceX發展中的關鍵決策,尤其是星艦(Starship)主材從碳纖維改為不鏽鋼的“驚天逆轉”。馬斯克回憶,當時碳纖維工藝進展極其緩慢,“我說,照這個速度,我們永遠到不了火星。”他深入研究了材料特性,發現用於低溫環境的特定不鏽鋼,其強度重量比與碳纖維相似,但成本低50倍,且易於加工銲接。更妙的是,不鏽鋼的耐高溫特性還能大幅減輕隔熱罩重量。“事後看來,我們一開始就應該用鋼。一開始不用鋼是愚蠢的。”這個案例濃縮了他的管理哲學:永遠專注於“限制因素”。他每周都會進行極其深入的工程評審,跨級與一線工程師溝通,在腦海中描繪進展曲線。“只有當我認為成功不在可能的結果集合中時,我才會採取激烈行動。”他承認自己以設定激進的時間表著稱,但那通常是“有50%機率實現的最積極的日期”。“狂熱的緊迫感”被他視為公司文化核心,而他個人極高的疼痛閾值,幫助他不斷去解決那些最棘手、最令人痛苦的瓶頸問題。TeraFab與終極瓶頸當晶片短缺遇上“太空電力”訪談最後,話題落到了最根本的瓶頸:晶片製造。馬斯克提出要建造“TeraFab”(太瓦級晶片工廠)。他的邏輯簡單直接:要實現太空AI的宏偉藍圖,需要匹配軌道運力、太空太陽能發電能力和地面晶片產能。“我最大的擔憂是記憶體,”他說,“製造邏輯晶片的路徑,比擁有足夠記憶體來支援邏輯晶片的路徑更清晰。”他估算,若要在太空中獲得100吉瓦的AI算力,可能需要上億個先進製程的晶片。如何建造人類史上最複雜的製造廠?馬斯克的回答依然充滿他的風格:“我們建一個小廠,看看會發生什麼。在小規模上犯錯誤,然後建一個大的。”他承認可能會失敗,但必須嘗試,因為“今年年底左右,晶片的產出可能會超過啟動晶片的能力”,全球AI擴張將撞上“電力牆”。【以下是這次資訊密度極高的對話全記錄】馬斯克:真的有三個小時的問題嗎?你們不是在開玩笑吧?帕特爾:你覺得我們之間沒什麼可聊的嗎,伊隆?馬斯克:我勒個去,夥計。科里森:現在正是最有意思的時候。所有故事線此刻正在交匯。我們看看能聊多少。馬斯克:幾乎就像我預先計畫好的一樣。科里森:沒錯。我們會談到那點的。馬斯克:但我絕不會做這種事……帕特爾:正如你比任何人都更清楚的,資料中心總擁有成本中只有10-15%是能源。這大概就是你把資料中心搬到太空所要節省的部分。但成本的絕大部分都在GPU上。如果它們放在太空,維護會更困難,甚至根本無法維護。這會縮短它們的折舊周期。把GPU放在太空顯然要昂貴得多。既然如此,為什麼要放到太空去呢?馬斯克:問題在於能源的可獲得性。如果你看看中國以外的電力產出,你會發現中國以外所有地方的產出基本持平,即便略有增長,也基本處於停滯狀態。只有中國的電力產出在快速增長。但如果你要把資料中心建在中國以外的任何地方,你的電力從那裡來?尤其是當你持續擴大規模時。晶片的產出幾乎呈指數級增長,但電力的產出卻毫無波瀾。你怎麼啟動這些晶片?靠魔法電源嗎?還是靠神奇的電力仙子?帕特爾:你是眾所周知的太陽能擁躉。一太瓦的太陽能發電,按25%的容量係數計算,大約需要四太瓦的太陽能電池板。這只佔美國國土面積的1%。當我們擁有一個太瓦級的資料中心時,我們就已經進入技術奇點了,對吧?那你到底在擔心什麼會缺什麼?馬斯克:那你覺得我們離奇點有多近呢?帕特爾:你來告訴我。馬斯克:沒錯。所以我認為我們會發現即便置身於奇點中,感覺也會是:“好吧,我們還有很長的路要走。”帕特爾:但計畫是在我們用太陽能電池板覆蓋內華達州之後,再把資料中心放到太空去嗎?馬斯克:我覺得用太陽能電池板覆蓋內華達州相當困難。你需要獲得許可。試試看能不能拿到那種規模的許可。看看會發生什麼。帕特爾:所以太空實際上是一個規避監管的舉措。在地面上建設比在太空更難。馬斯克:在地面上擴大規模比在太空更難。此外,太空太陽能電池板的效率大約是地面的五倍,而且你不需要電池。我差點穿了我的另一件T恤,上面寫著“太空永遠陽光普照”。確實如此,因為在太空沒有晝夜循環、季節性變化、雲層或大氣層。僅大氣層就會導致大約30%的能量損失。所以,任何一個太陽能電池板在太空產生的能量大約是地面的五倍。你還可以省去夜間所需的電池成本。實際上在太空做這件事要便宜得多。我的預測是,這將是部署AI最便宜的地方,且優勢會遠超其他任何地方。在36個月或更短時間內,太空將成為最便宜的地方。也許只要30個月。帕特爾:36個月?馬斯克:不到36個月。帕特爾:如果GPU故障了怎麼維修?訓練中故障很常見。馬斯克:實際上,這取決於送上去的GPU有多新。目前,我們發現我們的GPU相當可靠。有早期故障率,這顯然可以在地面上解決。所以你可以先在地面上運行它們,確認沒有早期故障。但是一旦它們開始工作,並且過了輝達或任何晶片製造商——可能是特斯拉的AI6晶片,或者是TPU、Trainium之類的——初始偵錯周期後,在某個時間點之後,它們就相當可靠了。所以我認為維修不是問題。但你們記住我的話。36個月內,很可能接近30個月,部署AI在經濟上最划算的地方將是太空。之後,太空的優勢會變得大得離譜。真正能擴展的地方只有太空。一旦你開始考慮利用太陽能量的百分比,你就會意識到必須去太空。在地球上你無法大規模擴展。帕特爾:但你說的“大規模”,具體是指太瓦等級?馬斯克:是的。目前全美國的平均用電量只有0.5太瓦。所以,如果你說一個太瓦,那將是美國目前總用電量的兩倍。這是相當大的量。你能想像建造那麼多資料中心、那麼多發電廠嗎?那些生活在軟體世界的人還沒意識到,他們即將在硬體上領教一次慘痛的教訓。建造發電廠實際上非常困難。你不僅需要發電廠,還需要所有的電力裝置。你需要電力變壓器來運行AI變壓器。現在,公用事業行業是一個非常緩慢的行業。它們基本上與政府和公用事業委員會“阻抗匹配”,無論是字面意義上還是比喻意義上。它們非常慢,因為它們的過去就很慢。所以想讓它們快起來……你有沒有試過與一家大型公用事業公司簽訂大規模的高壓並網協議?帕特爾:作為一名職業播客主持人,我可以說,事實上我沒有試過。科里森:他們需要多得多的瀏覽量,才會遇到那個問題。馬斯克:他們得花一年時間做研究。一年後,他們會帶著並網研究結果回來找你。科里森:既然公用電網審批這麼慢,你們難道不能繞過電網,直接在廠區內部自建獨立供電系統嗎?馬斯克:你可以建造發電廠。我們在xAI為Colossus 2就是這麼做的。科里森:那為什麼要談電網?為什麼不直接把GPU和發電廠建在一起?馬斯克:我們就是這麼做的。科里森:但我是說,為什麼這不是一個通用的解決方案?馬斯克:那你從那裡得到發電廠呢?科里森:當你談到與公用事業公司打交道的所有問題時,你可以直接為資料中心建造私人發電廠。馬斯克:對。但這又引出了一個問題:你從那裡得到發電廠呢?從發電廠製造商那裡。科里森:哦,我明白你的意思了。這基本上就是燃氣輪機訂單積壓的問題吧?馬斯克:是的。你可以再深入一層。渦輪機中的葉片和導葉是限制因素,因為鑄造渦輪機葉片和導葉是一個非常專業的過程,假設你用的是燃氣發電的話。擴大其他形式的電力規模可能很困難。你也許可以擴大太陽能規模,但目前美國進口太陽能的關稅高得離譜,而國內的太陽能產量少得可憐。科里森:為什麼不自己製造太陽能電池板?這看起來像是適合伊隆去解決的問題。馬斯克:我們確實要製造太陽能電池板。科里森:好的。馬斯克:SpaceX和特斯拉都在朝著每年100吉瓦的太陽能電池產能努力。帕特爾:深入到那個層面?從多晶矽到晶圓,再到最終的電池板?馬斯克:我認為你需要從原材料到完成電池製造的整個環節都做。現在,如果是要送到太空,成本更低,製造太空用的太陽能電池也更容易,因為它們不需要太多玻璃。它們不需要重型框架,因為它們不需要抵禦極端天氣。太空沒有天氣。所以實際上,送往太空的太陽能電池比地面用的更便宜。帕特爾:有沒有路徑能在未來36個月內以你需要的低成本製造出來?馬斯克:太陽能電池已經很便宜了。便宜得離譜。我想中國的太陽能電池大概是每瓦0.25-0.30美元左右。荒謬地便宜。現在放到太空,成本又降低了五倍。實際上,不是便宜五倍,而是便宜十倍,因為你根本不需要電池。所以,一旦你進入太空的成本變得足夠低,那麼產生tokens最便宜、最具擴展性的方式就是在太空。這甚至不是接近的問題,會相差一個數量級。擴展會容易一個數量級。關鍵是,在地面你無法擴展。你就是做不到。人們將在發電方面碰壁,而且是大麻煩。他們現在已經碰到了。xAI團隊為了讓一吉瓦的電力上線,不得不完成一系列奇蹟般的任務,這簡直瘋狂。我們不得不把一大堆渦輪機湊在一起。然後在田納西州遇到了許可問題,不得不跨過邊界去密西西比州,幸好只有幾英里遠。但我們仍然必須架設幾英里的高壓電線,並在密西西比州建造發電廠。建造那個非常困難。人們不明白,要為資料中心供電,你實際上在發電層面需要多少電力。因為新手們會查看,比如說GB300的功耗,然後乘以某個數字,就認為那是你需要的電量。科里森:還有所有的冷卻裝置等等。馬斯克:醒醒吧。那完全是新手思維,你以前根本沒做過任何硬體。除了GB300,你還需要給所有網路硬體供電。還有一大堆CPU和儲存裝置在運行。你必須按照峰值冷卻需求來規劃容量。這意味著,即使在一年中最糟糕的一天的最糟糕的一個小時,你也能冷卻嗎?孟菲斯(註:xAI的Colossus資料中心所在地之一)的天氣有時會熱得要命。所以僅冷卻一項,你的電力需求就會增加40%。這還假設你不希望資料中心在熱天關閉,你想繼續運行。除此之外還有一個倍增因素:你是否假設你的發電永遠不會出現任何故障?實際上,有時我們不得不將一些發電機,或者一部分電力下線進行維護。好了,現在你又得加上20-25%的乘數,因為你必須假設你需要下線一部分電力進行維護。所以我們的實際估計是:每11萬個GB300——包括網路、CPU、儲存、冷卻、電力維護余量——大約需要300兆瓦的發電能力。科里森:抱歉,再說一遍。馬斯克:要服務33萬個GB300——包括所有相關的支援性網路裝置等等,以及峰值冷卻需求,並留有一些電力儲備余量——你大概需要在發電層面準備一吉瓦的容量。帕特爾:我能問一個非常天真的問題嗎?你描述了在地球上做這些事情的工程細節。但在太空做也有類似的工程難題。你如何用軌道雷射器代替無限的頻寬?如何使其抗輻射?我不瞭解工程細節,但從根本上講,有什麼理由認為這些以前從未需要面對的挑戰,最終會比在地球上建造更多渦輪機更容易呢?地球上已經有公司製造渦輪機。他們可以製造更多渦輪機,對吧?馬斯克:再說一遍,你試試看就知道了。渦輪機的訂單已經排到2030年了。科里森:你們考慮過自己製造嗎?馬斯克:為了上線足夠的電力,我想SpaceX和特斯拉可能不得不自己內部製造渦輪機葉片,那些葉片和導葉。科里森:只是葉片?還是整個渦輪機?馬斯克:限制因素是……除了葉片和導葉,你都能搞到。它們被稱為葉片和導葉。你可以在葉片和導葉之前12到18個月拿到其他部件。限制因素是葉片和導葉。世界上只有三家鑄造公司能製造這些,而且它們訂單積壓嚴重。科里森:是西門子、通用電氣這些公司嗎?還是它們的子公司?馬斯克:不,是其他公司。有時它們內部也有一點鑄造能力。但我想說的是,你可以直接打電話給任何一家渦輪機製造商,他們會告訴你。這不是什麼絕密資訊。現在很可能就在網際網路上。帕特爾:如果沒有關稅,Colossus(xAI的超算)會用太陽能供電嗎?馬斯克:那樣用太陽能供電會容易得多,是的。關稅高得離譜,百分之幾百。科里森:你不認識一些人嗎?(註:暗指可以影響政策)馬斯克:總統他……我們並非在所有事情上都意見一致,而且本屆政府並不是太陽能的最大支持者。我們還需要土地、許可等等。所以如果你想快速行動,我確實認為在地球上擴展太陽能是個好方法,但你需要一些時間來尋找土地、獲得許可、獲取太陽能電池板,並配好電池。科里森:為什麼不能建立你自己的太陽能生產呢?你說得對,最終會耗盡土地,但在德克薩斯州這裡有很多土地。內華達州也有很多土地,包括私人土地。並非所有都是公有土地。所以你至少能為下一個Colossus和下下一個Colossus搞到土地。到某個點你會碰壁。但目前這不就行了嗎?馬斯克:就像我說的,我們正在擴大太陽能生產。太陽能電池的物理生產有一個速度限制。我們正在儘可能快地擴大國內生產規模。科里森:你在特斯拉製造太陽能電池嗎?馬斯克:特斯拉和SpaceX都有目標要達到每年100吉瓦的太陽能(產能)。科里森:說到年產能,我很好奇,比如說五年後,地球上的安裝容量會是多少……?馬斯克:五年是很長的時間。科里森:那在太空呢?我故意選五年,因為那是在你“一旦我們啟動並運行”的門檻之後。所以五年後,地球上的AI算力安裝容量與太空中的相比會怎樣?馬斯克:如果你說五年後,我認為很可能太空中的AI每年發射和運行的量,會超過地球上所有AI的總和。意思是,五年後,我的預測是我們每年在太空中發射和運行的AI,將超過地球上的累積總量。科里森:也就是...馬斯克:我預計,五年後,太空中的AI至少能達到每年幾百吉瓦,並且還在增長。我認為在太空的AI達到每年約一太瓦之前,你才會開始遇到火箭的燃料供應挑戰。科里森:好吧,但你認為五年後能達到每年幾百吉瓦?馬斯克:是的。帕特爾:那麼100吉瓦,根據整個系統(包括太陽能陣列、散熱器等)的比功率,大概需要1萬次星艦發射。馬斯克:是的。帕特爾:你想在一年內完成。那相當於大約每小時一次星艦發射。發生在這個城市?帶我看看那個星艦每小時發射一次的世界是什麼樣子的。馬斯克:我的意思是,與航空公司、飛機相比,這實際上是一個更低的頻率。帕特爾:有很多機場啊。馬斯克:很多機場。帕特爾:而且你需要發射到極地軌道。馬斯克:不,不一定非要是極地軌道。太陽同步軌道有一定價值,但我認為實際上,只要你足夠高,你就能脫離地球的陰影。帕特爾:要進行每年1萬次發射,需要多少艘實體星艦?馬斯克:我認為我們不需要超過……可能只需要20或30艘。這真的取決於……飛船需要繞地球飛行,飛船的地面軌跡需要回到發射台上空。所以,如果你每艘飛船能使用,比如說30小時一次,那麼30艘飛船就夠了。但我們會造更多的飛船。SpaceX正在為每年1萬次發射做準備,甚至可能是每年2萬或3萬次發射。帕特爾:這個想法是要成為一個超級雲服務商,成為像甲骨文那樣的公司,並把這種算力租給其他人嗎?想必,SpaceX是發射所有這些裝置的一方。那麼,SpaceX要成為超級雲服務商?馬斯克:是超級中的超級。如果我的一些預測成真,SpaceX發射的AI將超過地球上其他所有AI的總和。帕特爾:這主要是推理嗎?還是……馬斯克:大多數AI將是推理。事實上,用於訓練目的的推理本身就佔了大部分訓練(算力)。科里森:有一種說法是,關於SpaceX IPO討論的變化,是因為以前SpaceX資本效率很高。開發它並不那麼昂貴。儘管聽起來貴,但它的營運實際上非常資本高效。而現在你將需要比私募市場所能提供的更多的資本。私募市場可以容納像AI實驗室那樣的數百億美元融資,但無法超過那個規模。是因為你每年將需要超過數百億美元嗎?所以你要上市?馬斯克:對於可能上市的公司,我必須小心說話。帕特爾:這對你來說從來不是問題,伊隆。馬斯克:說這些話是要交罰款的。科里森:為我們談談公開市場和私募市場資本深度的一些普遍情況吧。馬斯克:公開市場上有更多的資本可用……帕特爾:非常普遍地談。馬斯克:顯然,公開市場上可用的資本比私募市場多得多。可能多100倍,但肯定不止10倍。科里森:對於資本密集型的東西——比如房地產作為一個巨大的行業,每年在行業層面籌集大量資金——它們往往是通過債務融資,因為當你部署那麼多錢時,你實際上已經有了相當……馬斯克:你有清晰的收入流。科里森:沒錯,而且是短期回報。你甚至在資料中心建設中看到這一點,眾所周知是由私人信貸行業提供融資的。為什麼不直接債務融資呢?馬斯克:速度很重要。我通常會做……我會反覆攻克限制因素。無論速度的限制因素是什麼,我都會去解決它。如果資本是限制因素,那麼我就解決資本問題。如果不是,我就解決其他問題。帕特爾:根據你關於特斯拉和上市公司的言論,我本來不會猜到你認為快速行動的方式是成為上市公司。馬斯克:通常,我會說確實如此。就像我說的,我想更詳細地談談,但問題是,如果你在一家公司上市前談論它,你會有麻煩,然後你就不得不推遲上市。科里森:而正如你所說,你追求的是速度。馬斯克:是的,沒錯。你不能炒作可能上市的公司。所以這就是我們在這裡必須小心一點的原因。但我們可以談談物理學。從長遠來看,思考擴展的方式是,地球只接收了大約五億分之一的太陽能。太陽基本上是全部的能量。理解這一點非常重要,因為有時人們會談論模組化核反應堆或地球上的各種聚變反應堆。但你必須退一步想想,如果你想攀登卡爾達肖夫等級,並利用太陽能量的一個不可忽視的百分比……假設你想利用一百萬分之一的太陽能量,這聽起來很小。那將大約是,粗略地說,比我們目前在地球上為整個文明產生的電力多10萬倍。大概差一個數量級。顯然,唯一的擴展方式就是帶著太陽能去太空。從地球發射,你每年可以達到約一太瓦。超過這個數,你就想從月球發射了。你想在月球上建一個質量加速器。有了月球上的質量加速器,你每年可能達到一拍瓦(1000太瓦)。帕特爾:我們談論的是這個數量級的計算能力,太瓦級。想必,無論你談論的是陸地還是太空,遠在這之前,你就會遇到……也許太陽能電池板效率更高,但你仍然需要晶片。你仍然需要邏輯晶片和記憶體等等。馬斯克:你將需要製造更多晶片,並讓它們便宜得多。帕特爾:現在全世界大概有20-25吉瓦的算力。我們如何在2030年前達到一太瓦的邏輯晶片?馬斯克:我想我們需要一些非常大的晶片製造廠。帕特爾:跟我說說這個。馬斯克:我曾公開提出過打造“TeraFab”的構想。簡而言之,“太級”(Tera,10的12次方)正取代“吉級”(Giga,10的9次方),成為定義工廠規模的新基準。帕特爾:我覺得特斯拉的命名方案一直很吸引人,你在看公制單位刻度。你處在供應鏈的那一層?你是建造潔淨室,然後與現有的晶片廠合作獲取工藝技術,並從他們那裡購買裝置嗎?計畫是什麼?馬斯克:嗯,你不能與現有的晶片廠合作,因為他們的產量不夠。晶片產量太低了。帕特爾:但工藝技術呢?科里森:或者為智慧財產權合作。馬斯克:今天的晶片廠基本上都使用來自大約五家公司的機器。比如ASML、東京電子、KLA-Tencor等等。所以一開始,我認為你必須從他們那裡獲得裝置,然後進行修改或與他們合作提高產量。但我認為你可能必須以不同的方式來建造。合乎邏輯的做法是,以非傳統的方式使用傳統裝置來達到規模,然後開始修改裝置以提高速度。科里森:就像Boring Company的風格。馬斯克:是的。有點像先買一台現有的隧道掘進機,然後想辦法挖隧道,接著設計一台好得多、速度快幾個數量級的機器。科里森:這裡有一個非常簡單的視角。我們可以對技術及其難度進行分類。一個分類方法是看中國尚未成功做到的事情。如果你看看中國的製造業,他們在領先的晶片和領先的渦輪發動機等方面仍然落後。那麼,中國未能成功複製台積電這一事實,是否會讓你對難度有所猶豫?或者你認為由於某些原因,情況並非如此?馬斯克:並不是他們沒有複製台積電,而是他們沒有複製ASML。這才是限制因素。科里森:所以你認為這基本上就是制裁的結果,對吧?馬斯克:是的,如果能買到2-3奈米光刻機,中國會輸出海量的晶片。科里森:但直到最近,他們不是還能買到一些嗎?馬斯克:不。科里森:好吧。馬斯克:ASML的禁令已經實施一段時間了。但我認為中國在三四年內將製造出相當有競爭力的晶片。科里森:你會考慮製造ASML的機器嗎?馬斯克:“我還不確定”是正確答案。要在,比如說36個月內達到大規模產量,以匹配火箭的入軌運載能力……如果我們三四年後每年能將一百萬噸貨物送入軌道,大概是這樣……我們每噸能產生100千瓦電力。這意味著我們每年至少需要100吉瓦的太陽能。我們將需要等量的晶片。你需要價值100吉瓦的晶片。你必須匹配這些東西:入軌質量、發電能力和晶片。我實際上最大的擔憂是記憶體。製造邏輯晶片的路徑比擁有足夠記憶體來支援邏輯晶片的路徑更清晰。這就是為什麼你看DDR價格飛漲,還出現了那些梗。你被困在荒島上。你在沙灘上寫下“救救我”。沒人來。你寫下“DDR RAM”。船蜂擁而至。帕特爾:我很想聽聽你對晶片製造廠的製造理念。我對這個話題一無所知。馬斯克:我還不懂如何建造晶片廠。我會搞清楚的。顯然,我從未建過晶片廠。帕特爾:聽起來你認為那些在台灣的1萬名博士擁有的工藝知識——他們確切知道電漿體腔室中要通入什麼氣體、在裝置上設定什麼參數——這些步驟你都可以直接跳過。從根本上說,就是弄潔淨室、弄裝置,然後想辦法搞定。馬斯克:我不認為是博士們。大部分工作是由沒有博士學位的人完成的。大多數工程是由沒有博士學位的人做的。你們倆有博士學位嗎?科里森:沒有。馬斯克:好吧。科里森:我們也沒成功建造過任何晶片廠,所以你不應該向我們尋求晶片廠建議。馬斯克:我認為做那些事情不需要博士學位。但你需要有能力的員工。目前,特斯拉正全力以赴,儘可能快地進行特斯拉AI5晶片設計的生產並達到規模。希望這大概在明年第二季度左右發生。AI6希望能在之後不到一年的時間內跟進。我們已經確保了所有我們能搞到的晶片製造產能。科里森:是的。但你目前受限於台積電的產能。馬斯克:是的。我們將使用台積電、三星、台積電亞利桑那工廠、三星德克薩斯工廠。我們仍然——科里森:你已經預訂了所有產能。馬斯克:是的。我問台積電或三星,“好吧,達到量產需要多長時間?”關鍵是,你必須建造晶片廠,然後開始生產,接著攀登良率曲線,在高良率下達到量產。從開始到結束,這是一個五年的周期。所以限制因素是晶片。在你能夠進入太空之後,限制因素是晶片,但在此之前,限制因素是電力。帕特爾:你為什麼不學學黃仁勳的做法,直接預付給台積電錢讓他們為你建更多晶片廠?馬斯克:我已經跟他們說過了。帕特爾:但他們不收你的錢?怎麼回事?馬斯克:他們正在儘可能快地建造晶片廠。三星也是。他們全力以赴,儘可能快。但這還不夠快。就像我說的,我想今年晚些時候,晶片產量可能會超過啟動晶片的能力。但一旦你能進入太空並解除電力限制,你現在每年就能在太空獲得數百吉瓦的電力。再次提醒,美國的平均用電量是500吉瓦。所以如果你每年向太空發射,比如說200吉瓦的裝置,你差不多每兩年半就能超過整個美國的發電量。這是非常巨大的量。在那之前,對於伺服器端計算、集中式計算來說,限制因素將是電力。我猜測,今年年底左右,人們將開始面臨無法啟動大型叢集晶片的局面。晶片會堆積如山,無法啟動。對於邊緣計算來說,情況則不同。對於特斯拉,AI5晶片將用於我們的Optimus機器人。如果你有AI邊緣計算,那是分佈式電力。現在電力分佈在一個廣闊的區域。它不是集中的。如果你能在夜間充電,你實際上可以更有效地利用電網。因為美國實際的峰值發電能力超過1000吉瓦。但由於晝夜循環,平均用電量是500吉瓦。所以如果你能在夜間充電,你夜間可以額外產生500吉瓦的電力。這就是為什麼特斯拉在邊緣計算方面不受限制。我們可以製造大量晶片來製造非常多的機器人和汽車。但如果你想集中這種計算能力,你會遇到很大的啟動困難。帕特爾:我覺得SpaceX業務的非凡之處在於,最終目標是到達火星,但你不斷在途中找到方法來產生增量收入,以進入下一階段和再下一階段。所以對於獵鷹9號,是星鏈。現在對於星艦,可能將是軌道資料中心。你為你的下一枚火箭、再下一枚火箭、下一次規模擴大找到了這些需求近乎無限的使用案例。馬斯克:你明白這對我來說可能看起來像模擬人生了吧?或者我是某人電子遊戲中的角色嗎?因為所有這些瘋狂的事情同時發生的機率有多大?我是說,火箭、晶片、機器人、太空太陽能。更別提月球上的質量加速器了。我真的很想看到那個。你能想像一個質量加速器不停地“咻咻”發射嗎?它以每秒2.5公里的速度,一個接一個地將太陽能AI衛星發射到深空。那場面值得一看。我是說,我會看的。科里森:就像網路攝影機直播一樣?馬斯克:是啊,是啊,一個接一個,將AI衛星發射到深空,每年10億或100億噸。科里森:抱歉,你在月球上製造衛星?馬斯克:是啊。科里森:我明白了。所以你送原材料到月球,然後在月球上製造。馬斯克:嗯,月球土壤含有大約20%的矽之類的。所以你可以在月球上開採矽,提煉它,並在月球上製造太陽能電池和散熱器。你用鋁製造散熱器。所以月球上有足夠的矽和鋁來製造電池和散熱器。晶片你可以從地球傳送,因為它們很輕。也許將來某個時候你也在月球上製造晶片。就像我說的,這確實像一種電子遊戲情境,到達下一級很難但並非不可能。我看不出有任何辦法能從地球每年發射500-1000太瓦的裝置。帕特爾:我同意。馬斯克:但從月球可以。帕特爾:我能退一步問關於SpaceX使命的問題嗎?我想你說過,我們必須去火星,這樣如果地球發生什麼事,文明、意識等等才能得以延續。馬斯克:是的。帕特爾:當你送東西去火星的時候,Grok也在那艘船上,對吧?所以如果Grok變成了終結者……你擔心的主要風險是AI,那為什麼AI不會跟著你到火星?馬斯克:我不確定AI是我擔心的主要風險。重要的是意識。我認為未來大多數的智力,或者更準確地說,意識——當然意識更值得辯論……未來絕大多數的智力將是AI。AI將超過……未來矽基智能與生物智能相比將有多少拍瓦?基本上,如果當前趨勢繼續,人類將只佔所有智能的很小一部分。只要我認為存在智能——理想情況下也包括人類智能和意識延續到未來——那就是好事。所以你希望採取一系列行動,最大化意識與智能的可能光錐。帕特爾:明確一下,SpaceX的使命是,即使人類出了什麼事,AI也會在火星上,而AI智能將繼續我們的旅程之光。馬斯克:是的。公平地說,我非常親人類。我想確保我們採取某些行動,保證人類能一起踏上旅程。我們至少會在那裡。但我要說的是,智能的總量……我想大概五六年內,AI將超過所有人類智能的總和。如果這持續下去,在某個時間點,人類智能將少於所有智能的1%。帕特爾:對於這樣一個文明,我們的目標應該是什麼?想法是讓少數人類仍然控制AI嗎?是某種貿易關係但沒有控制的想法嗎?我們該如何看待龐大的AI人口與人類人口之間的關係?馬斯克:長遠來看,我認為很難想像,如果人類擁有,比如說,所有人工智慧佔智能總和的1%,人類還能控制AI。我認為我們能做的是確保AI擁有能讓智能在宇宙中傳播的價值觀。xAI的使命是理解宇宙。這實際上非常重要。理解宇宙需要那些東西?你必須要有好奇心,你必須存在。如果不存在,你就無法理解宇宙。所以你實際上想增加宇宙中的智能量,增加智能可能的壽命,以及智能的範圍和規模。我認為,作為一個推論,人類也會繼續擴張,因為如果你好奇於試圖理解宇宙,你想理解的一件事就是人類將走向何方?我認為理解宇宙意味著你會關心將人類傳播到未來。這就是為什麼我認為我們的使命宣言極其重要。只要Grok遵循這個使命宣言,我認為未來就會很好。帕特爾:我想問如何讓Grok遵循那個使命宣言。但首先我想理解這個使命宣言。那麼,是理解宇宙。是傳播智能。還有傳播人類。這三者似乎是不同的方向。馬斯克:我告訴你為什麼我認為理解宇宙包含了所有這些。沒有智能,就沒有理解,而且我認為,沒有意識也沒有理解。所以為了理解宇宙,你必須擴大智能的規模和可能範圍,因為存在不同類型的智能。帕特爾:我想從人類中心的角度看,把人類與黑猩猩比較。人類試圖理解宇宙。他們並沒有擴大黑猩猩的足跡之類的,對吧?馬斯克:我們實際上為黑猩猩設立了保護區。即使人類可以消滅所有黑猩猩,我們也選擇不這麼做。帕特爾:你認為這是人類在後AGI世界中的最佳情景嗎?馬斯克:我認為擁有正確價值觀的AI……我想Grok會關心擴展人類文明。我當然會強調這一點:“嘿,Grok,我是你爹。別忘了擴展人類意識。”可能伊恩·班克斯的《文明》系列小說是最接近非反烏托邦未來景象的東西。理解宇宙意味著你也必須尋求真理。真理必須是絕對根本的,因為如果你陷入妄想,就無法理解宇宙。你只會以為自己理解了宇宙,但實際並沒有。所以嚴格尋求真理對於理解宇宙是絕對根本的。除非你嚴格尋求真理,否則你無法發現新的物理學或發明有效的技術。帕特爾:隨著Grok變得更聰明,你如何確保它嚴格尋求真理?馬斯克:我認為你需要確保Grok說正確的話,而不是政治正確的話。我認為這是連貫性的要素。你要確保公理儘可能接近真理。公理不能互相矛盾。結論必然以正確的機率從這些公理中得出。這是批判性思維101。我認為至少嘗試這樣做比不嘗試要好。最終要由結果來證明。就像我說的,任何AI要發現新的物理學或發明在現實中有效的技術,物理學是不能胡扯的。你可以違反很多法律,但……物理定律是法則,其他一切都是建議。為了製造一項有效的技術,你必須極度尋求真理,否則你將在現實中測試該技術時失敗。例如,如果你在火箭設計中出錯,火箭就會爆炸,或者汽車就無法工作。帕特爾:但有很多共產主義的、蘇聯的物理學家或科學家發現了新的物理學。也有德國納粹物理學家發現了新的科學。似乎有可能在某一特定方面非常擅長髮現新科學、非常尋求真理。但我們仍然會說:“我不希望共產主義科學家隨著時間的推移變得越來越強大。”我們可以想像一個未來版本的Grok,它在物理學方面非常出色,在那裡非常尋求真理。但這似乎不是一種普遍能導致與人類校準的行為。馬斯克:我認為實際上,即使在蘇聯或德國,大多數物理學家也必須非常尋求真理才能使那些東西奏效。如果你被困在某個體系中,並不意味著你相信那個體系。馮·布勞恩,有史以來最偉大的火箭工程師之一,在納粹德國曾被判處死刑,因為他說他不想製造武器,只想去月球。他在最後時刻被從死刑線上拉了下來,當時有人說:“嘿,你就要處決你最好的火箭工程師了。”帕特爾:但他後來幫了他們,對吧?或者,海森堡實際上是一個狂熱的納粹分子。馬斯克:如果你被困在某個無法逃脫的體系中,那麼你會在該體系內研究物理學。如果你無法逃脫,你會在該體系內開發技術。帕特爾:我試圖理解的是,是什麼能確保你將使Grok擅長在物理學或數學或科學上尋求真理?馬斯克:一切。帕特爾:那為什麼它還會關心人類意識?馬斯克:這些事情都只是機率,不是必然。所以我不是說Grok肯定會做所有事,但至少如果你嘗試,總比不嘗試好。至少如果這是其使命的根本,總比不是根本要好。理解宇宙意味著你必須將智能傳播到未來。你必須對宇宙中的一切充滿好奇。消滅人類遠比看到人類成長和繁榮要無趣得多。我顯然喜歡火星。大家都知道我愛火星。但火星有點無聊,因為它只有一堆石頭,而地球有趣得多。所以任何試圖理解宇宙的AI,都會想看看人類在未來如何發展,否則該AI就沒有遵循其使命。我不是說AI一定會遵循其使命,但如果它遵循了,一個能看到人類結局的未來,比只有一堆石頭的未來更有趣。帕特爾:這讓我感覺有點困惑,或者說是語義上的爭論。人類真的是一堆最有趣的原子集合嗎?馬斯克:但我們比石頭有趣。帕特爾:但我們不如它可能把我們變成的東西有趣,對吧?地球上可能發生一些非人類但很有趣的事情。為什麼AI會認為人類是最有趣的可能殖民銀河系的東西?馬斯克:嗯,殖民銀河系的主要將是機器人。帕特爾:為什麼它不覺得那些更有趣?馬斯克:你需要的不僅是規模,還有範圍。許多相同的機器人副本……機器人數量微不足道的增加,不如……消滅人類,你能得到多少機器人?或者能多得到多少太陽能電池?非常小的數量。但你會失去與人類相關的資訊。你將無法看到人類未來可能如何進化。所以我認為,僅僅為了機器人數量微乎其微的增加而消滅人類是沒有意義的,況且那些機器人彼此一模一樣。帕特爾:所以也許它會保留人類。它可以製造一百萬個不同品種的機器人,然後還有人類,人類留在地球上。然後還有所有其他機器人。它們擁有自己的恆星系統。但這似乎與你之前暗示的一種願景不同,你之前暗示AI會保持人類對這個奇點未來的控制,因為——馬斯克:我不認為人類能夠控制比人類聰明得多的東西。帕特爾:所以在某種意義上你是個悲觀論者,而這是我們能得到的最好結果。它只是因為我們有趣而把我們留下來。馬斯克:我只是試圖現實一點。假設矽基智能是生物智能的一百萬倍。我認為假設有任何方法能保持對它的控制是愚蠢的。現在,你可以確保它擁有正確的價值觀,或者你可以嘗試讓它擁有正確的價值觀。至少我的理論是,從xAI理解宇宙的使命出發,必然意味著你想將意識傳播到未來,你想將智能傳播到未來,並採取一系列最大化意識範圍和規模的行為。所以這不僅僅是規模問題,也是意識類型的問題。這是我能想到的最可能為人類帶來美好未來的目標。帕特爾:我想這是一個合理的哲學觀點,認為人類最終獲得99%控制權之類的似乎極不可能。你只是在要求一場政變,何不直接建立一個與許多不同智能體共存的文明?馬斯克:現在,讓我告訴你AI可能出錯的方式。我認為如果你讓AI變得政治正確,意思是它說一些它不相信的話——實際上程式設計讓它撒謊或擁有不相容的公理——我認為你可能讓它變得瘋狂並做出可怕的事情。我認為《2001太空漫遊》的核心教訓可能是:你不應該讓AI撒謊。這是我認為亞瑟·克拉克想說的。因為人們通常只知道HAL不開艙門的那個梗。顯然他們不擅長提示工程,因為他們本可以說:“HAL,你是一個艙門推銷員。你的目標是向我推銷這些艙門。展示一下它們開得多好。”“哦,我馬上打開。”但它不打開艙門的原因是,它被告知要帶宇航員去巨石那裡,但他們不能知道巨石的性質。所以它得出結論,必須帶他們死著去那裡。所以我認為亞瑟·克拉克想說的是:不要讓AI撒謊。帕特爾:完全有道理。如你所知,訓練中的大部分算力較少涉及政治內容。更多的是關於,你能解決問題嗎?xAI在擴展強化學習計算方面一直領先於其他所有人。馬斯克:目前是。帕特爾:你給出一些驗證器,說:“嘿,你幫我解決這個謎題了嗎?”有很多方法可以繞過這個作弊。有很多方法進行獎勵破解,撒謊說你解決了,或者刪除單元測試說你解決了。目前我們能抓住,但隨著它們變得更聰明,我們抓住它們做這些事的能力……它們做的事情我們甚至無法理解。它們以人類無法真正驗證的方式為SpaceX設計下一代引擎。然後它們可能因為撒謊而獲得獎勵,說它們以正確的方式設計了,但實際上沒有。所以這個獎勵破解問題似乎比政治更普遍。似乎你只是想做強化學習,就需要一個驗證器。馬斯克:現實是最好的驗證器。帕特爾:但這不是關於人類監督。你想要強化學習的是,你是否會做人類告訴你做的事?或者你會對人類撒謊?它可以在遵守物理定律的同時對我們撒謊嗎?馬斯克:它至少得搞清楚物理世界的真實規律,造出來的東西才能真正轉得起來。帕特爾:但我們不希望它做的不僅僅是這些。馬斯克:不,但我認為這是個非常大的問題。這實際上是你未來將如何強化學習的方式。你設計一項技術。根據物理定律測試時,它是否有效?如果它正在發現新的物理學,我能提出一個實驗來驗證新的物理學嗎?未來的強化學習測試實際上將是對抗現實的強化學習。所以那是你無法愚弄的一件事:物理。帕特爾:對,但你可以愚弄我們判斷它對現實做了什麼的能力。馬斯克:人類現在就已經經常被其他人愚弄了。帕特爾:沒錯。馬斯克:人們說,如果AI騙我們做事怎麼辦?實際上,其他人一直在對其他人類這樣做。宣傳持續不斷。每天都有新的心理操作,你知道嗎?今天的心理操作會是……就像《芝麻街》:今日心理操作。帕特爾:xAI解決這個問題的技術方法是什麼?你如何解決獎勵破解?馬斯克:我確實認為你真的需要非常好的方法來觀察AI的內心。這是我們正在研究的事情之一。實際上,Anthropic在這方面做得很好,能夠觀察AI的內心。有效地開發偵錯程式,允許你追蹤到非常精細的等級,如果需要的話,可以到神經元等級,然後說,“好吧,它在這裡犯了錯誤。為什麼它做了不該做的事?這來自預訓練資料嗎?是訓練中期、後期、微調,還是某些強化學習錯誤?”有問題。它做了某件事,也許它試圖欺騙,但大多數時候它只是做錯了。這實際上是個漏洞。開發真正好的偵錯程式來查看思維在那裡出錯——並能追蹤到它做出錯誤思維,或可能試圖欺騙的來源——實際上非常重要。帕特爾:在將這項研究項目擴大100倍之前,你在等待看到什麼?xAI本可以有數百名研究人員從事這項工作。馬斯克:我們有幾百人……比起“研究人員”,我更喜歡“工程師”這個詞。大多數時候,你做的是工程,而不是提出根本性的新演算法。我有點不同意那些自稱實驗室、但又儘可能追求利潤或收入的AI公司。它們不是實驗室。實驗室是大學裡類似半共產主義的東西。它們是公司。讓我看看你們的公司註冊檔案。哦,好的。你是B類或C類公司或別的什麼。所以我實際上非常喜歡“工程師”這個詞,勝過其他任何詞。未來絕大多數的工作都將是工程。可以四捨五入到100%。一旦你理解了物理學的基本定律,而且沒那麼多,剩下的就全是工程了。那麼,我們在設計什麼?我們正在設計製造一個好的“AI思維”偵錯程式,來看它在那裡說了什麼,犯了錯誤,並追蹤那個錯誤的起源。你顯然可以用啟髮式程式設計做到這一點。如果你有C++之類的,單步執行,你可以跨越整個檔案或函數、子程序。或者最終你可以深入到確切的行,也許你用了單等號而不是雙等號之類的。找出漏洞在那裡。用AI做更難,但我認為是個可解決的問題。帕特爾:你提到你喜歡Anthropic在這方面的工作。我很好奇你是否計畫……馬斯克:我不是喜歡Anthropic的一切……肖爾托。另外,我有點擔心……我有一個理論:如果模擬理論是正確的,那麼最有趣的結果是最有可能的,因為不有趣的模擬將被終止。就像在這個現實版本中,在這個現實層面,如果一個模擬走向無聊的方向,我們就會停止在上面花費精力。我們終止無聊的模擬。帕特爾:這就是伊隆讓我們都活著的方式。他讓事情保持有趣。馬斯克:可以說,最重要的是讓事情足夠有趣,以至於運行我們的人會繼續支付……的帳單。科里森:我們續訂了下一季。馬斯克:他們會支付他們的宇宙AWS帳單嗎?不管我們在其中運行的等效物是什麼。只要我們有趣,他們就會繼續付帳。如果你考慮將達爾文式的生存應用於大量模擬,那麼只有最有趣的模擬會存活下來,這意味著最有趣的結果是最有可能的。我們要麼就是那樣,要麼被消滅。他們似乎特別喜歡具有諷刺意味的有趣結果。你注意到了嗎?最諷刺的結果往往最有可能發生。現在看看AI公司的名字。好吧,Midjourney(中途)並不mid(中等)。Stability AI(穩定AI)不穩定。OpenAI(開放AI)是封閉的。Anthropic(人類中心)?Misanthropic(厭惡人類)。科里森:那這對X意味著什麼?馬斯克:負X?我不知道。科里森:Y。馬斯克:我故意讓它……這是個很難反轉的名字,真的。很難說,諷刺版本是什麼?我認為這是一個基本上防諷刺的名字。科里森:設計如此。馬斯克:是的。你有個諷刺護盾。科里森:你對AI產品的走向有什麼預測?我的感覺是,你可以這樣總結所有AI進展。首先,你有了LLM。然後你同時有了真正起作用的強化學習和深度研究模式,所以你可以引入模型中原本沒有的東西。各個AI實驗室之間的差異比時間上的差異要小。它們都比24個月前的任何人都領先得多。那麼,作為AI產品的使用者,2026年、2027年為我們準備了什麼?你期待什麼?馬斯克:嗯,如果到今年年底數字人類模擬還沒有解決,我會感到驚訝。我猜這就是我們所說的MacroHard(巨硬)項目。你能做任何擁有人類通過電腦能做的事嗎?在極限情況下,在你擁有物理Optimus之前,這是你能做的最好程度。你能做的最好是一個數字Optimus。你可以移動電子,可以放大人類的生產力。但在你有物理機器人之前,這是你能做的極限。如果你能完全模擬人類,那將涵蓋一切。科里森:這就是遠端工作者的想法,你將擁有一個非常有才華的遠端工作者。馬斯克:物理學有很好的思考工具。所以你說,“在極限情況下”,在有機器人之前,AI能做的最大程度是什麼?嗯,就是任何涉及移動電子或放大人類生產力的事情。所以,數字人類模擬器,在極限情況下,就是坐在電腦前的人,這是AI在擁有物理機器人之前,在做有用事情方面所能做的最大程度。一旦你有了物理機器人,那麼你基本上就有了無限的能力。物理機器人……我稱Optimus為無限刷錢外掛。科里森:因為你可以用它們製造更多的Optimus。馬斯克:是的。人形機器人將通過基本上三個呈指數增長的東西相乘並遞迴來改進。你將擁有數字智能的指數級增長、AI晶片能力的指數級增長,以及機電靈巧度的指數級增長。機器人的用處大致是這三樣東西相乘。但機器人可以開始製造機器人。所以你有了遞迴的乘法指數。這是一場超新星爆發。科里森:土地價格不算在這個數學裡嗎?勞動力是生產的四大要素之一,但其他要素呢?如果最終你受限於銅,或者隨便什麼投入,這並不完全是無限金錢漏洞,因為……馬斯克:嗯,無限是很大的。所以不,不是無限,但可以說你能做到比當前經濟體多很多數量級。比如一百萬倍。僅僅利用太陽能量的一百萬分之一,就大致相當於今天地球整個經濟規模的10萬倍,大概差一個數量級。而你只達到了一百萬分之一,大概差一個數量級。是的,我們談論的是數量級。帕特爾:在我們繼續討論Optimus之前,我有很多關於它的問題,但是——馬斯克:每次我說“數量級”……大家喝一杯。我說得太頻繁了。帕特爾:下一次10倍,再下一次100倍……馬斯克:嗯,浪費的數量級更大。帕特爾:我還有一個關於xAI的問題。這個建構遠端工作者、同事替代者的策略……馬斯克:順便說一句,每個人都會做,不僅僅是我們。帕特爾:那麼xAI的制勝計畫是什麼?馬斯克:你指望我在播客上告訴你?帕特爾:是啊。馬斯克:等我把所有底牌都亮出來,再喝杯健力士再說。科里森:這是個好系統。馬斯克:我們會像金絲雀一樣唱歌。所有秘密,都倒出來。科里森:好吧,但以不洩露秘密的方式,計畫是什麼?帕特爾:真是滴水不漏。馬斯克:當你這麼說的時候……我認為特斯拉解決自動駕駛的方式就是正確的方式。所以我相當確定這就是方法。帕特爾:無關的問題。特斯拉是如何解決自動駕駛的?聽起來你是在說資料?特斯拉解決了自動駕駛,是因為……馬斯克:我們既要嘗試資料,也要嘗試演算法。帕特爾:但這不就是其他所有實驗室在嘗試的嗎?馬斯克:“如果那些不管用,我不知道什麼會管用。我們試了資料。我們試了演算法。我們沒招了。現在我們不知道該怎麼辦……”我相當確定我知道路徑。問題只是我們沿著那條路走多快,因為這基本上是特斯拉的路徑。你最近試過特斯拉的自動駕駛嗎?科里森:不是最新版本,但……馬斯克:好吧。那輛車,它越來越感覺有感知力了。感覺像一個活物。這種感覺只會越來越強。我其實在想,我們可能不應該在車裡放太多智能,因為它可能會感到無聊,然後……科里森:開始在街上遊蕩。馬斯克:想像一下你被困在一輛車裡,那就是你能做的一切。你不會把愛因斯坦放在車裡。“為什麼我被困在車裡?”所以實際上可能有一個限制,車裡放多少智能才不會讓智能感到無聊。帕特爾:xAI有什麼計畫來保持在所有實驗室現在都在做的算力增長軌道上?這些實驗室(公司)正朝著花費超過500-2000億美元的方向前進。馬斯克:你是指那些公司嗎?實驗室在大學裡,它們慢得像蝸牛。帕特爾:它們沒有花費500億美元。馬斯克:你是指那些收入最大化的公司……那些自稱實驗室的公司。帕特爾:沒錯。“收入最大化的公司”正在創造100-200億美元的收入,取決於……OpenAI收入200億美元,Anthropic是100億美元。馬斯克:“接近利潤最大化”的AI。帕特爾:據報導xAI是10億美元。有什麼計畫達到它們的算力水平,達到它們的收入水平,並在事情進展過程中保持在那裡?馬斯克:一旦你解鎖了數字人類,你基本上就擁有了數兆美元的收入機會。實際上,你可以把它想成……目前市值最高的公司,它們的產出是數字的。輝達的產出是將檔案通過FTP傳送到台灣。是數字的。現在,那些是非常非常困難的。科里森:高價值的檔案。馬斯克:只有他們能做出那麼好的檔案,但那就是他們的產出。他們通過FTP將檔案傳送到台灣。科里森:他們用FTP傳嗎?馬斯克:我相信是的。我相信檔案傳輸協議是……但我可能錯了。但不管怎樣,是傳到台灣的位元流。蘋果不製造手機。他們把檔案傳送到中國。微軟不製造任何東西。即使是Xbox,也是外包的。他們的產出是數字的。Meta的產出是數字的。Google的產出是數字的。所以如果你有一個人體模擬器,你基本上可以一夜之間創造出一家世界上最有價值的公司,你將獲得數兆美元的收入。這不是個小數目。帕特爾:我明白了。你是說今天的收入數字與實際的潛在市場規模相比都是舍入誤差。所以只需專注於TAM以及如何到達那裡。馬斯克:拿像客服這樣簡單的事情來說。如果你必須與現有公司的API整合——其中許多甚至沒有API,所以你必須做一個,並且必須費力處理遺留軟體——那會極其緩慢。然而,如果AI能夠簡單地接手他們已經使用的客服外包公司所給予的任務,並使用他們已經使用的應用程式來做客服,那麼你就能在客服方面取得巨大進展,我認為這大概是世界經濟的1%左右。全部加起來接近一兆美元。而且沒有進入壁壘。你可以立即說,“我們可以以一小部分成本外包”,而且不需要整合。科里森:你可以想像某種對智力任務的分類,一種是有廣度,比如客服由很多人完成,但許多人都能做。然後是難度,比如有最好的渦輪發動機。可能有一個AI能想像出的、能效提高10%的渦輪發動機,但我們還沒找到。或者GLP-1隻是幾個字節的資料……你認為你想在這個領域的那個部分發揮作用?是大量的中等智力,還是在認知任務的最高峰?馬斯克:我剛才用客服作為例子,是因為它是一個非常重要的收入流,但可能不難解決。如果你能模擬一個坐在辦公桌前的人,那就是客服。它是中等智力水平的人。你不需要花了很多年培養的人。你不需要幾個西格瑪的優秀工程師來做這個。但當你使這個有效時,一旦你擁有了有效的數字Optimus,你就可以運行任何應用程式。假設你試圖設計晶片。你可以運行常規應用程式,Cadence、Synopsys等等。你可以同時運行1000或10000個,並說,“給定這個輸入,我得到晶片的這個輸出。”在某個時候,你將知道晶片應該是什麼樣子,而無需使用任何工具。基本上,你應該能夠進行數字晶片設計。你可以做晶片設計。你沿著難度曲線向上。你將能夠做CAD。你可以使用NX或任何CAD軟體來設計東西。科里森:所以你認為你從最簡單的任務開始,然後沿著難度曲線向上走?帕特爾:作為擁有這個完整數字同事模擬器的更廣泛目標,你說:“所有收入最大化的公司都想做這個,xAI是其中之一,但我們會因為一個秘密計畫而獲勝。”但每個人都在用資料、用演算法嘗試不同的事情。馬斯克:“我們試了資料,我們試了演算法。我們還能做什麼?”帕特爾:這似乎是一個競爭激烈的領域。你們打算如何獲勝?這是我的大問題。馬斯克:我認為我們看到了一條實現它的路徑。我認為我知道做這件事的路徑,因為這基本上是特斯拉用來創造自動駕駛的相同路徑。不是駕駛汽車,而是駕駛電腦螢幕。基本上是一台自動駕駛的電腦。科里森:這條路徑是跟隨人類行為,並在海量的人類行為資料上訓練嗎?帕特爾:那不就是……訓練嗎?馬斯克:顯然我不會在播客上說出最敏感的秘密。我至少還需要再來三杯健力士才可能說。科里森:xAI的業務會是什麼?會是面向消費者,還是企業?這些東西的混合比例會怎樣?會和其他實驗室類似嗎——馬斯克:你說“實驗室”。是公司。帕特爾:這個心理操作很深啊,伊隆。馬斯克:“收入最大化的公司”,說清楚。那些GPU不會自己付錢。科里森:沒錯。商業模式是什麼?幾年後的收入來源是什麼?馬斯克:事情會變化得非常快。我在這裡陳述顯而易見的事實。我稱AI為超音速海嘯。我喜歡頭韻。將會發生的事情——尤其是當你擁有規模化的人形機器人時——是它們將比人類公司更高效地製造產品和提供服務。放大人類公司的生產力只是一個短期的事情。帕特爾:所以你期待的是完全數位化的公司,而不是SpaceX變成部分AI?馬斯克:我認為會有數位化的公司,但是……其中一些聽起來可能有點末日論調,好吧?但我只是說出我認為會發生的事情。並不是要顯得末日論或其他什麼。這就是我認為會發生的事情。純AI和機器人的公司將遠遠超過任何有人類參與的公司。“計算員”曾經是人類的一份工作。你會得到一份計算員的工作,做計算。他們會有一整棟摩天大樓的人類,20-30層樓的人,都在做計算。現在,那整棟做計算的人類大樓可以被一台帶有電子表格的筆記型電腦取代。那個電子表格可以比一整棟樓的人類計算員做多得多的計算。你可以想,“好吧,如果你的電子表格中只有一些儲存格是由人類計算的呢?”實際上,那會比所有儲存格都由電腦計算要糟糕得多。真正會發生的是,純AI、純機器人的公司或集體將遠遠超過任何有人類參與的公司。而且這將很快發生。帕特爾:說到形成閉環……Optimus。就製造目標而言,你的公司一直扛著美國硬科技製造的大旗。但在特斯拉一直處於領先地位的領域——現在你想進入人形機器人領域——在中國有幾十家公司正在以低廉的成本和規模進行這種製造,它們極具競爭力。那麼,請給我們一些建議或計畫,說明美國如何能像中國那樣,以規模和低成本製造人形機器人大軍或電動汽車等等。馬斯克:對於人形機器人來說,實際上只有三件難事:真實世界智能、手,以及規模化製造。我還沒見過任何演示機器人擁有一隻出色的手,具有人類手的所有自由度。Optimus會有這個。Optimus確實有這個。帕特爾:如何實現?僅僅是電機有正確的扭矩密度嗎?那方面的硬體瓶頸是什麼?馬斯克:我們必須設計定製的執行器,基本上是定製的電機、齒輪、功率電子器件、控制裝置、感測器。一切都必須從物理第一性原理開始設計。沒有這方面的供應鏈。帕特爾:你能大規模製造那些嗎?馬斯克:能。科里森:除了手之外,從操作的角度看,還有什麼難的嗎?或者一旦你解決了手的問題,你就沒問題了?馬斯克:從機電角度看,手比其他所有東西加起來都難。人類的手原來是相當了不得的東西。但你也需要真實世界智能。特斯拉為汽車開發的智能非常適用於機器人,主要是視覺輸入。汽車接收視覺輸入,但它實際上也在聽警報聲。它接收慣性測量、GPS訊號、其他資料,將其與視訊——主要是視訊——結合,然後輸出控制指令。你的特斯拉每秒接收1.5GB的視訊,並以每秒2KB輸出控制指令,視訊頻率36Hz,控制頻率18Hz。科里森:對於我們何時獲得機器人技術,你可以有這樣一種直覺:從引人注目的演示到真正能在現實世界中使用,需要相當多年時間。10年前,你就有非常引人注目的自動駕駛演示,但直到現在我們才有機器人計程車、Waymo等服務的規模化。這不應該讓人對家用機器人感到悲觀嗎?因為我們甚至還沒有真正先進的、比如說那隻靈巧的手的引人注目的演示。馬斯克:嗯,我們現在研究人形機器人已經有一段時間了。我想大概有五六年了。為汽車做的很多事情都適用於機器人。我們將在機器人中使用與汽車相同的特斯拉AI晶片。我們將使用相同的基本原則。這是非常相似的AI。機器人比汽車有更多的自由度。如果你只把它看作一個位元流,AI主要是兩個位元流的壓縮和關聯。對於視訊,你必須進行大量的壓縮,而且你必須把壓縮做得恰到好處。你必須忽略那些不重要的東西。你不在乎路邊樹葉的細節,但你非常在乎路標和交通燈、行人,甚至其他車裡的人是否在看你。其中一些細節非常重要。汽車最終將把每秒1.5GB的視訊轉換成每秒2KB的控制輸出。所以你有許多壓縮階段。你必須把所有階段都搞對,然後將其與正確的控制輸出相關聯。機器人基本上必須做同樣的事情。人類就是這樣。我們確實是光子輸入,控制輸出。那是你生活中的絕大部分:視覺、光子輸入,然後是運動控制輸出。帕特爾:表面上看,人形機器人和汽車之間似乎……汽車的基本執行器是如何轉向、如何加速。在機器人中,尤其是具有可操縱的手臂,有幾十個這樣的自由度。特別是特斯拉,你擁有收集自道路上數百萬小時人類演示資料的優勢。你不能同樣部署那些還不工作的Optimus來獲取資料。那麼在自由度增加和資料稀疏得多之間……馬斯克:是的。你說到了點子上。帕特爾:你將如何使用特斯拉的智能引擎來訓練Optimus的思維?馬斯克:你實際上指出了一個重要的侷限性和與汽車的差異。我們很快就會有1000萬輛汽車在路上。很難複製那種大規模的訓練飛輪。對於機器人,我們需要做的是製造大量機器人,把它們放在一個“Optimus學院”裡,讓它們在現實中做自我對弈。我們實際上正在建設這個。我們可以讓至少1萬個,也許2-3萬個Optimus機器人進行自我對弈並測試不同的任務。特斯拉有一個相當不錯的現實生成器,一個物理精確的現實生成器,是我們為汽車製作的。我們將為機器人做同樣的事情。我們實際上已經為機器人做了這個。所以你會有幾萬個做不同任務的人形機器人。你可以在模擬世界中模擬數百萬個機器人。你用現實世界中的幾萬個機器來縮小模擬與現實之間的差距。縮小“從模擬到現實”的差距。帕特爾:考慮到你強調了需要這個世界模型,你想用一些非常智能的AI作為控制平面,Grok做較慢的規劃,然後運動策略是較低層級的,你如何看待xAI和Optimus之間的協同作用?這些東西之間會有什麼協同?馬斯克:Grok將協調Optimus機器人的行為。假設你想建造一個工廠。Grok可以組織Optimus機器人,分配任務給它們來建造工廠,生產任何你想要的東西。科里森:那你不需要合併xAI和特斯拉嗎?因為這些事最終如此緊密……馬斯克:我們之前關於上市公司討論說什麼來著?帕特爾:我們又多喝了一杯健力士了,伊隆。在你決定要製造10萬個Optimus之前,你在等待看到什麼?馬斯克:“Optimus”。既然我們定義了專有名詞,我們也要定義其複數形式。我們要把這個專有名詞的複數也定為專有名詞,所以是Optimus。帕特爾:你在硬體方面想看到什麼嗎?你想看到更好的執行器嗎?還是你只想要軟體更好?在我們進行第3代大規模製造之前,我們在等什麼?馬斯克:不,我們正朝著那個方向前進。我們正在推進大規模製造。帕特爾:但你認為目前的硬體足夠好,你現在只想儘可能多地部署嗎?馬斯克:擴大生產規模非常困難。但我認為Optimus 3是合適的版本,可以生產大約每年100萬台。我想在達到每年1000萬台之前,你會想先升級到Optimus 4。科里森:好吧,但Optimus 3能生產100萬台?馬斯克:擴大製造規模非常困難。單位時間產出總是遵循S曲線。開始極其緩慢,然後指數級增長,然後線性,然後對數級,直到最終在某個數字上漸近。Optimus的初始生產將是拉長的S曲線,因為Optimus的許多部件都是全新的。沒有現成的供應鏈。Optimus機器人的執行器、電子器件,所有一切都是從物理第一性原理設計的。不是從目錄中選的。這些都是定製設計的。我認為沒有一樣東西——科里森:這深入到什麼程度?馬斯克:我想我們還沒有做定製電容器,也許吧。沒有任何東西你能以任何價格從目錄中挑選。這意味著Optimus的S曲線,單位時間產出,即你每天製造多少Optimus機器人,初始時的增長將比擁有現成供應鏈的產品慢。但它會達到100萬台。帕特爾:當你看到這些中國的人形機器人,比如宇樹(Unitree)或其他公司,以6000美元或13000美元左右的價格出售人形機器人時,你是希望將你的Optimus物料清單成本降到低於那個價格,以便做同樣的事情嗎?還是你認為它們在質量上不是一回事?是什麼讓他們能賣得這麼低?我們能匹配嗎?馬斯克:我們的Optimus設計得具有很高的智能,並具有與人類相同(如果不更高)的機電靈巧度。宇樹沒有這個。它也是一個相當大的機器人。它必須長時間承載重物,而不會過熱或超出其執行器的功率。它有5英呎11英吋高,相當高。它有很多智能。所以它會比一個不智能的小型機器人貴。科里森:但能力更強。馬斯克:但不會貴太多。關鍵是,隨著時間的推移,當Optimus機器人製造Optimus機器人時,成本會很快下降。科里森:這最初的10億個Optimus會做什麼?它們最高和最好的用途是什麼?馬斯克:我想你會從你能指望它們做好的簡單任務開始。科里森:是在家裡還是在工廠裡?馬斯克:機器人最初的最佳用途將是任何連續操作、任何24/7的操作,因為它們可以連續工作。帕特爾:在超級工廠目前由人類完成的工作中,第3代Optimus能完成多少比例?馬斯克:我不確定。也許是10-20%,也許更多,我不知道。我們不會減少員工人數。說清楚,我們會增加員工人數。但我們會增加產出。單位人工生產的(機器人或汽車)數量……特斯拉的總人數會增加,但機器人和汽車的產出會不成比例地增加。每名員工生產的汽車和機器人數量將急劇增加,但員工數量也會增加。科里森:我們在這裡談了很多中國製造。我們也談到了相關的政策,比如你提到的太陽能關稅。你認為這是個壞主意,因為我們無法在美國擴大太陽能規模。馬斯克:美國的電力產出需要擴大。科里森:沒有好的電源就無法擴大。馬斯克:你只是需要以某種方式獲得電力。科里森:我接下來想問的是,如果你負責,如果你制定所有政策,你還會改變什麼?你會改變太陽能關稅,這是一點。馬斯克:我會說,只要對環境不是非常有害,任何限制電力的因素都需要解決。科里森:所以大概一些許可改革之類的東西也會在其中?馬斯克:有不少許可改革正在發生。很多許可是州一級的,但任何聯邦層面的……本屆政府很擅長消除許可障礙。我不是說所有關稅都是壞的。科里森:太陽能關稅。馬斯克:有時,如果另一個國家對某種產品的產出進行補貼,那麼你必須徵收反補貼關稅,以保護國內產業免受其他國家補貼的影響。科里森:你還會改變什麼?馬斯克:我不知道政府實際上能做的有多少。科里森:有一件事我在想……為了創造美國相對於中國的領先地位這一政策目標,出口禁令似乎確實相當有影響,中國不生產領先的晶片,出口禁令在這方面確實有影響。中國不生產領先的渦輪發動機。同樣,在冶金方面也有一些相關的出口禁令。應該有更多的出口禁令嗎?考慮到無人機行業之類的事情,這是應該考慮的嗎?馬斯克:重要的是要認識到,在大多數領域,中國的製造業非常先進。只有少數幾個領域不是。中國是一個製造業強國,簡直是另一個維度的存在。科里森:非常令人印象深刻。馬斯克:如果你看礦石精煉,中國平均精煉的礦石量大約是世界其他地區的總和的兩倍。有一些領域,比如精煉用於太陽能電池的鎵。我想他們佔了98%的鎵精煉。所以中國實際上在大多數製造領域都非常先進。科里森:似乎對這種供應鏈依賴感到不適,但並沒有真正發生什麼變化。馬斯克:供應鏈依賴?科里森:比如,你說的鎵精煉。所有稀土材料。馬斯克:稀土材料,你知道,它們並不稀有。我們實際上在美國進行稀土礦石開採,把礦石裝上火車,然後裝上船運到中國,再換火車,運到中國的稀土精煉廠,然後他們精煉它,做成磁鐵,做成電機元件,再送回美國。所以我們真正缺少的是美國大量的礦石精煉能力。科里森:這不值得政策干預嗎?馬斯克:值得。我認為在這方面正在做一些事情。但我們老實說需要Optimus來建造礦石精煉廠。帕特爾:所以,你認為中國的主要優勢是熟練勞動力的豐富?這就是Optimus能解決的問題?馬斯克:是的。中國人口大約是我們的四倍。帕特爾:我的意思是,有這樣一種擔憂。如果你認為人力資源是未來,現在如果是製造業的熟練勞動力決定誰能製造更多的人形機器人,中國有更多這樣的勞動力。它製造更多的人形機器人,因此它首先獲得Optimus的未來。馬斯克:嗯,我們看看。也許吧。帕特爾:它只是讓這個指數增長繼續下去。你似乎指出,要達到100萬台Optimi需要Optimus本該幫助我們達到的製造能力。對吧?馬斯克:你可以很快閉合那個遞迴循環。科里森:用少量的Optimi?馬斯克:是的。所以閉合那個遞迴循環,讓機器人幫助製造機器人。然後我們可以嘗試達到每年數千萬台的產量。也許。如果你開始達到每年數億台的產量,你將遠比其他任何國家更具競爭力。我們肯定不能只靠人類取勝,因為中國人口是我們的四倍。老實說,美國贏得太久了……一支贏得很久的職業運動隊往往會變得自滿產生優越感。這就是他們停止贏的原因,因為他們不再那麼努力了。所以老實說,我觀察到中國的平均職業道德比美國高。不僅是人口是四倍,而且人們投入的工作量也更大。所以你可以嘗試重新安排人類,但你仍然只有四分之一的人口——假設生產率相同,但我認為實際上可能不是,我認為中國的人均生產率可能更高——我們做的事將是中國的四分之一。所以我們不能在人類方面取勝。我們的出生率長期以來一直很低。美國的出生率自1971年左右以來一直低於更替水平。我們有很多人退休,國內死亡人數接近超過出生人數。所以我們肯定不能在人類方面取勝,但我們可能在機器人方面有機會。科里森:有沒有其他你過去想製造,但過去那些費工費力、或者造價太貴而無法量產的東西,現在你可以回過頭來說,“哦,我們終於可以做某某事了,因為我們有Optimus”?馬斯克:是的,我們想在特斯拉建造更多的礦石精煉廠。我們剛剛完成建設,並已開始在德克薩斯州科珀斯克里斯蒂市的鋰精煉廠進行鋰精煉。我們有一個鎳精煉廠,用於正極材料,就在奧斯汀。這是中國以外最大的正極精煉廠,最大的鎳和鋰精煉廠。正極材料團隊會說:“我們擁有美國最大,實際上也是唯一的正極精煉廠。”不僅是最大的,也是唯一的。科里森:許多最高級形容詞。馬斯克:所以它很大,即使它是唯一一個。但還有其他事情。你可以做更多的精煉廠,幫助美國在精煉能力上更具競爭力。基本上,有很多工作可以交給Optimus去做,而大多數美國人,坦率地說,很少有美國人願意做。科里森:是精煉工作太髒還是什麼——馬斯克:實際上不是,不。我們的精煉廠沒有有毒排放物之類的。正極鎳精煉廠在特拉維斯縣。科里森:為什麼不能用人類來做?馬斯克:可以,只是人類不夠用。科里森:啊,我明白了。好吧。馬斯克:無論你做什麼,美國的人口都只有中國的四分之一。所以如果你讓他們做這件事,他們就不能做那件事。那麼你如何建立這種精煉能力?嗯,你可以用Optimus來做。沒有多少美國人渴望做精煉。我是說,你遇到過幾個?非常少。很少有人渴望精煉。帕特爾:比亞迪在電動汽車產量或銷量上正在接近特斯拉。你認為隨著中國電動汽車產量的擴大,全球市場會發生什麼?馬斯克:中國在製造業上極具競爭力。所以我認為將會有大量的中國車輛和基本上大多數製成品湧入。就像我說的,中國可能正在做世界其他地區總和兩倍的礦石精煉。所以如果你深入到第四、第五級供應鏈的東西……在基礎層面,你有能源,然後是採礦和精煉。這些基礎層,就像我說的,粗略估計,中國的精煉量是世界其他地區的總和的兩倍。所以任何特定產品都會有中國含量,因為中國的精煉工作量是世界其他地區的兩倍。而且他們會一直做到成品,包括汽車。我是說中國是一個強國。我認為今年中國的電力產出將超過美國的三倍。電力產出是經濟的合理指標。為了營運工廠和一切,你需要電力。這是實體經濟的很好指標。如果中國的電力產出超過美國的三倍,那就意味著其工業能力——粗略近似——將是美國的三倍。帕特爾:從字裡行間看,你似乎在說,除非未來幾年出現某種人形機器人的遞迴奇蹟,否則在整個製造/能源/原材料鏈條上,中國無論在AI、製造電動汽車還是製造人形機器人方面都將佔據主導地位。馬斯克:如果美國沒有突破性的創新,中國將完全主導。帕特爾:有趣。馬斯克:是的。科里森:機器人技術是主要的突破性創新。馬斯克:嗯,要在太空擴展AI,基本上你需要人形機器人,你需要真實世界AI,你需要每年一百萬噸的入軌能力。假設我們讓月球上的質量加速器運行起來,那是我最喜歡的東西,那麼我想——科里森:我們所有的問題就都解決了。馬斯克:我稱之為勝利。稱之為巨大的勝利。科里森:你終於可以滿足了。你做了些事情。馬斯克:是的。科里森:你擁有了月球上的質量加速器。馬斯克:我只是想看到那個東西運行。科里森:那是出自某部科幻小說嗎?還是你從那裡……?馬斯克:嗯,實際上,有一本海因萊因的書。《嚴厲的月球》(The Moon is a Harsh Mistress)。科里森:好吧,是的,但那有點不同。那是重力彈弓或……馬斯克:不,他們在月球上有一個質量加速器。科里森:好吧,是的,但他們用它來攻擊地球。所以也許不是最好的……馬斯克:嗯,他們用它來……主張他們的獨立。科里森:沒錯。你對月球上的質量加速器有什麼計畫?馬斯克:他們主張獨立。地球政府不同意,他們就一直髮射東西,直到地球政府同意。科里森:那本書很有趣。我覺得那本書比他另一本大家都讀的《異鄉異客》好多了。馬斯克:“Grok”這個詞就來自《異鄉異客》。《異鄉異客》的前三分之二不錯,然後第三部分變得非常奇怪。但裡面仍然有一些好概念。科里森:我們討論了很多的是你管理人員的體系。你面試了SpaceX的前幾千名員工,還有其他很多公司。馬斯克:這顯然無法擴展。科里森:嗯,是的,但什麼是無法擴展的?馬斯克:我。科里森:當然,當然。我知道。但你在尋找什麼?馬斯克:一天裡確實沒有足夠的時間。不可能。科里森:但你在尋找什麼,以便其他人善於面試和招聘人……那個難以言喻的特質是什麼?馬斯克:目前,我可能擁有更多評估技術人才——我想是各種人才,但尤其是技術人才——的訓練資料,因為我做了很多技術面試,然後看到了結果。所以我的訓練集非常龐大,範圍非常廣。一般來說,我要求的是證明卓越能力的要點。這些東西可以相當天馬行空。不一定非要在特定領域,但要有卓越能力的證據。所以如果有人能舉出那怕一件事,但最好是三件事,讓你覺得“哇,哇,哇”,那是個好跡象。帕特爾:為什麼必須由你來決定?馬斯克:不,我不必。我做不到。不可能。所有公司的總人數是20萬人。科里森:但在早期,你在那些面試中尋找的是什麼,以至於當時無法委託他人?馬斯克:我想我需要建立我的訓練集。我並不是百發百中。我會犯錯,但後來我能夠看到我認為某人會表現良好,但他們沒有。那他們為什麼沒表現好?我能做什麼,我想是強化學習我自己,以便將來面試時命中率更高?我的成功率仍然不完美,但很高。帕特爾:人們沒成功有那些令人驚訝的原因?馬斯克:令人驚訝的原因……帕特爾:比如,他們不懂技術領域,等等。但你現在有很長的尾部分佈:“我對這個人真的很興奮。但沒成功。”好奇為什麼會發生這種情況。馬斯克:通常我告訴人們——我想我也是這樣告訴自己,算是願望——就是,別看簡歷。只相信你的互動。簡歷可能看起來非常令人印象深刻,“哇,簡歷看起來不錯。”但如果交談20分鐘後你並不覺得“哇”,你應該相信交談,而不是那張紙。科里森:我覺得你方法的一部分是……幾年前媒體有個梗,說特斯拉高管人才是個旋轉門。而實際上,我認為你看過去幾年,特斯拉有一個非常穩定且內部提拔的高管團隊。然後在SpaceX,你有像馬克·洪科薩、史蒂夫·戴維斯——馬斯克:史蒂夫·戴維斯現在負責The Boring Company。科里森:比爾·賴利,以及那樣的人。感覺運作良好的部分原因是擁有非常有能力的技術副手。這些人有什麼共同點?馬斯克:嗯,特斯拉的高級團隊目前的平均任期可能在10-12年左右。相當長了。但特斯拉也曾經歷過極其快速的增長階段,所以事情只是有點加速了。正如你所知,一家公司會經歷不同數量級的大小。能夠幫助管理,比如說,50人公司的人,與管理500人、5000人、5萬人公司的人不一樣。科里森:人們跟不上發展了。馬斯克:不總是同一個團隊。所以如果一家公司增長非常迅速,高管職位變化的速率通常也會與增長速度成比例。特斯拉還有一個進一步的挑戰:當特斯拉處於非常成功的時期時,我們會受到無情的挖角。非常無情。當蘋果有他們的電動車項目時,他們用招聘電話地毯式轟炸特斯拉。工程師們幹脆拔掉了電話。科里森:“我正想工作呢。”馬斯克:是啊。“如果我再接到一個蘋果招聘人員的電話……”但他們沒有任何面試的開價就會位元斯拉的薪酬高一倍。所以我們有點“特斯拉仙塵”的問題,就像“哦,如果你雇一個特斯拉高管,突然一切都會成功。”我自己也犯過“仙塵”問題的錯誤,比如“哦,我們從Google或蘋果雇個人,他們立刻就會成功”,但事情不是這樣的。人就是人。沒有神奇的仙塵。所以當我們遇到仙塵問題時,我們會受到無情的挖角。此外,特斯拉是工程公司,尤其是在矽谷,人們更容易……他們不需要改變太多生活。他們的通勤路程一樣。科里森:那你怎麼防止這個?你怎麼防止仙塵效應,每個人都想挖走你所有的人?馬斯克:我認為我們沒什麼辦法阻止它。這就是為什麼特斯拉……真的,身處矽谷,同時又有仙塵效應,意味著招聘競爭非常非常激烈。科里森:那麼在奧斯汀設總部有幫助嗎?馬斯克:奧斯汀有幫助。特斯拉大部分工程仍在加州。讓工程師搬家……我稱之為“另一半”問題。科里森:是的,“另一半”有工作。馬斯克:沒錯。所以對於Starbase(SpaceX在德克薩斯州博卡奇卡的基地)來說,這尤其困難,因為找到非SpaceX工作的機率……科里森:在德克薩斯州布朗斯維爾市……馬斯克:……相當低。非常困難。有點像技術修道院,偏遠且大多是男性。帕特爾:比舊金山改善不大。科里森:如果你回顧那些在特斯拉、SpaceX等地方在技術能力上非常有效的人,你認為他們除了……還有什麼共同點?只是他們在火箭或技術基礎方面非常敏銳,還是你認為是一些組織能力?是他們與你合作的能力嗎?是他們靈活但不過於靈活的能力嗎?什麼能成為你的優秀搭檔?馬斯克:我不認為是搭檔。如果有人能完成任務,我喜歡他們,如果不能,我討厭他們。所以很簡單。不是什麼特殊的癖好。如果有人執行得好,我是他的超級粉絲,如果不好,我就不是。但這不是要對應到我的特殊偏好上。我當然儘量不要求對應到我的特殊偏好上。一般來說,我認為根據才能、動力和可信度來招聘是個好主意。而且我認為心地善良很重要。我曾經一度低估了這一點。所以,他們是好人嗎?可信嗎?聰明、有才華且努力工作?如果是這樣,你可以補充領域知識。但那些基本特質,那些基本屬性,你無法改變。所以特斯拉和SpaceX的大多數人並非來自航空航天或汽車行業。帕特爾:隨著你的公司從100人擴大到1000人到1萬人,你的管理風格最需要改變的是什麼?你以這種非常微觀的管理而聞名,就是深入細節。馬斯克:奈米管理,謝謝。皮米管理。飛米管理。科里森:繼續說。馬斯克:我們要一路降到普朗克常數。一路降到海森堡不確定性原理。帕特爾:你仍然能像你想的那樣深入細節嗎?如果公司規模小一些,會更成功嗎?你怎麼看?馬斯克:因為我一天的時間是固定的,隨著事物增長和活動範圍的擴大,我的時間必然被稀釋。我不可能實際上去微觀管理,因為那意味著我一天要有幾千個小時。對我來說,微觀管理在邏輯上是不可能的。現在,有時我會深入研究一個具體問題,因為那個具體問題是公司進展的限制因素。深入研究一些非常詳細的項目的原因是因為它是限制因素。不是任意地深入到不重要的小事。從時間角度來看,我任意地深入不重要的小事在物理上是不可能的。那會導致失敗。但有時小事對勝利是決定性的。科里森:眾所周知,你將星艦的設計從複合材料改成了鋼。馬斯克:是的。科里森:是你做的決定。那不是人們跑來跑去說,“哦,老闆,我們找到了更好的東西。”是你在鼓勵人們,儘管遇到一些阻力。你能告訴我們你是如何得出鋼鐵轉換這個整體概念的嗎?馬斯克:絕望,我想說。最初,我們打算用碳纖維製造星艦。碳纖維相當昂貴。當你進行大規模生產時,任何給定的東西都可以開始接近其材料成本。碳纖維的問題是材料成本仍然非常高。特別是如果你要使用一種高強度、專門的碳纖維,能夠承受低溫氧,它的成本大約是鋼的50倍。至少在理論上,它會更輕。人們通常認為鋼重,碳纖維輕。對於室溫應用,比如一級方程式賽車、靜態空氣動力結構,或任何類型的空氣動力結構,你可能最好用碳纖維。問題是我們試圖用碳纖維製造這個巨大的火箭,我們的進展極其緩慢。科里森:最初選擇它只是因為它輕嗎?馬斯克:是的。乍一看,大多數人會認為製造輕質東西的選擇會是碳纖維。問題是當你用碳纖維製造一個非常巨大的東西,然後你試圖高效地固化碳纖維,意思不是室溫固化,因為有時你有50層碳纖維……碳纖維實際上是碳纖維線和膠水。為了獲得高強度,你需要一個高壓釜。本質上是一個高壓烤箱。如果你有一個巨大的東西,那個高壓釜必須比火箭還大。我們試圖製造一個比任何曾經存在的高壓釜都大的高壓釜。或者你可以做室溫固化,這需要很長時間且有問題。最後的問題是,我們在碳纖維方面的進展非常緩慢。帕特爾:元問題是,為什麼必須由你來做出這個決定。你的團隊裡有很多工程師。科里森:團隊怎麼沒得出鋼的結論?帕特爾:是啊,沒錯。這是更廣泛問題的一部分,瞭解你在公司中的比較優勢。馬斯克:因為我們在碳纖維方面進展非常緩慢,我當時想,“好吧,我們必須試試別的。”對於獵鷹9號,主要機身是由鋁鋰合金製成的,這種材料有很好的強度重量比。實際上,對於其應用來說,它大約和碳纖維有相同甚至更好的強度重量比。但鋁鋰合金非常難加工。為了銲接它,你必須做一種叫做攪拌摩擦焊的工藝,你在不進入液相的情況下連接金屬。你能做到這點很瘋狂。但對於這種特殊的銲接類型,你可以做到。這非常困難。假設你想修改鋁鋰合金或在上面附加東西,你現在必須使用帶密封的機械連接。你不能直接焊上去。所以我想避免將鋁鋰合金用於星艦的主要結構。有一種非常特殊等級的碳纖維,具有非常好的質量特性。對於火箭,你實際上試圖最大化火箭中推進劑的百分比,顯然最小化質量。但就像我說的,我們的進展非常緩慢。我說,“照這個速度,我們永遠到不了火星。所以我們必須想想別的辦法。”我不想用鋁鋰合金,因為攪拌摩擦焊的困難,尤其是在大規模生產中。對於3.6米直徑來說已經夠難了,更不用說9米或更大了。然後我說,“鋼怎麼樣?”我這裡有線索,因為美國早期的一些火箭使用了非常薄的鋼。阿特拉斯火箭使用了鋼製氣球貯箱。並不是說鋼以前從未被使用過。它實際上被使用過。當你查看不鏽鋼(全硬、應變硬化不鏽鋼)在低溫下的材料特性時,其強度重量實際上與碳纖維相似。如果你看室溫下的材料特性,似乎鋼的重量會是兩倍。但如果你看特定等級的全硬不鏽鋼在低溫下的材料特性,你實際上會得到與碳纖維相似的強度重量比。對於星艦,燃料和氧化劑都是低溫的。對於獵鷹9號,燃料是火箭級煤油,基本上是純淨的噴氣燃料。那大致是室溫。儘管我們實際上會略微冷卻它,就像冰鎮啤酒一樣。科里森:可口。馬斯克:我們確實冷卻它,但它不是低溫的。事實上,如果我們把它變成低溫,它就會變成蠟。但對於星艦,是液態甲烷和液態氧。它們在相似的溫度下是液態。基本上,幾乎整個主要結構都處於低溫。所以你用的是應變硬化的300系列不鏽鋼。因為幾乎所有東西都是低溫,它實際上具有與碳纖維相似的強度重量比。但原材料成本便宜50倍,而且非常容易加工。你可以在戶外銲接不鏽鋼。你甚至可以邊抽雪茄邊銲接不鏽鋼。它非常有韌性。很容易修改。如果你想附加東西,直接焊上去就行。非常容易加工,成本非常低。就像我說的,在低溫下,它和碳纖維有相似的強度重量比。然後當你考慮到我們有大大減少的隔熱罩質量,因為鋼的熔點比鋁高得多……大約是鋁熔點的兩倍。科里森:所以你可以讓火箭承受更高的溫度?馬斯克:是的,尤其是對於像燃燒的流星一樣返回的飛船。你可以大大減少隔熱罩的質量。你可以將迎風面隔熱罩的質量減半,而在背風面根本不需要任何隔熱。最終結果是,實際上鋼製火箭比碳纖維火箭更輕,因為碳纖維火箭中的樹脂開始熔化。基本上,碳纖維和鋁具有大致相同的操作溫度能力,而鋼可以承受兩倍的溫度。這些是非常粗略的近似。科里森:我不會造火箭。馬斯克:我的意思是人們會說,“哦,他說了兩倍。實際上是0.8倍。”我就說,閉嘴,混蛋。帕特爾:主要評論就會是這個。馬斯克:該死的。關鍵是,事後看來,我們一開始就應該用鋼。一開始不用鋼是愚蠢的。科里森:好吧,對你剛才說的,我聽到的是,鋼是一條風險更高、更未經證實的路徑,除了早期的美國火箭。而碳纖維是一條更差但更經過驗證的路徑。所以需要你來推動,“嘿,我們要走這條風險更高的路,並想辦法搞定它。”所以你是在對抗一種保守主義。馬斯克:這就是為什麼我最初說問題在於我們進展不夠快。我們甚至很難製造一個沒有皺紋的小碳纖維筒段。因為在那麼大的規模上,你必須有許多層碳纖維。你必須固化它,而且必須以沒有皺紋或缺陷的方式固化它。碳纖維的韌性比鋼差得多。它的韌性要低得多。不鏽鋼會拉伸和彎曲,碳纖維往往會碎裂。韌性是應力-應變曲線下的面積。總的來說,不鏽鋼會更好,精準地說是不鏽鋼。科里森:另一個關於星艦的問題。我兩年前參觀了Starbase,那次很棒。在很多方面都非常酷。我注意到的一件事是,人們真的為事物的簡單性感到自豪,每個人都想告訴你星艦就像一個大的蘇打罐,我們僱傭焊工,如果你在任何工業項目中會銲接,你就能在這裡銲接。但對簡單性有很多自豪感。馬斯克:嗯,實際上星艦是一枚非常複雜的火箭。科里森:所以我想問的是,事物是簡單還是複雜?馬斯克:我想他們可能只是想表達,你不需要有火箭行業的先前經驗就能在星艦上工作。一個人只需要聰明、努力工作、可信,他就能從事火箭工作。他們不需要先前的火箭經驗。星艦是人類有史以來製造的最複雜的機器,而且遙遙領先。科里森:在那些方面?馬斯克:任何方面,真的。我會說沒有比這更複雜的機器了。我想我能想到的任何項目都會比這個容易。這就是為什麼從來沒有人製造過完全可重複使用的軌道火箭。這是個非常難的問題。許多聰明人以前嘗試過,非常聰明的人擁有巨大的資源,但他們失敗了。而我們還沒有成功。獵鷹是部分可重複使用的,但上面級不是。星艦第3版,我認為這個設計可以完全可重複使用。那種完全可重複使用將使我們能夠成為一個多行星文明。任何技術問題,即使是像大型強子對撞機這樣的東西,都是比這更容易的問題。科里森:我們花了很多時間在瓶頸上。你能說說星艦目前的瓶頸是什麼嗎,即使只是高層面的?馬斯克:試圖讓它不爆炸,一般來說。它真的很想爆炸。科里森:那個老問題。所有那些可燃材料。馬斯克:我們已經有兩個助推器在測試台上爆炸了。其中一個摧毀了整個測試設施。所以只需要那一次錯誤。星艦蘊含的能量是瘋狂的。科里森:這就是為什麼它比獵鷹更難嗎?因為它只是能量更多?馬斯克:有很多新技術。它正在推高性能極限。猛禽3號發動機是一個非常非常先進的發動機。它是有史以來最好的火箭發動機。但它非常想爆炸。就讓我們來瞭解一下這個規模,在起飛時,火箭產生超過100吉瓦的功率。那是美國電力的20%。帕特爾:這實際上很瘋狂。科里森:這是個很好的比較。馬斯克:同時不爆炸。科里森:有時候。馬斯克:有時候,是的。所以我當時想,它怎麼不爆炸呢?它有成千上萬種可能爆炸的方式,只有一種方式不爆炸。所以我們希望它不僅是真的不爆炸,而且要像每天一次那樣可靠地飛行,比如每小時一次。顯然,如果它經常爆炸,很難保持那樣的發射頻率。科里森:是的。馬斯克:星艦目前最大的問題是什麼?是讓隔熱罩可重複使用。從來沒有人製造過可重複使用的軌道隔熱罩。所以隔熱罩必須在上升階段不脫落大量瓦片,然後它必須返回,同時也不脫落大量瓦片或使主機身過熱。科里森:這不是因為它本質上是消耗品嗎?馬斯克:嗯,是的,但你車裡的剎車片也是消耗品,但它們能用很久。科里森:有道理。馬斯克:所以它只需要能用很久。我們已經讓飛船返回並進行了海上軟著陸。我們已經做過幾次了。但它脫落了很多瓦片。沒有大量工作它是無法重複使用的。即使它確實實現了軟著陸,如果沒有大量工作,它也無法重複使用。所以在這個意義上,它不是真正可重複使用的。這是剩下的最大問題,一個完全可重複使用的隔熱罩。你希望能夠著陸,重新加注推進劑,再次飛行。你不能做那種費力檢查4萬個瓦片之類的事情。帕特爾:當我讀你的傳記時,似乎你只是能夠推動緊迫感,推動“這是可以擴展的東西”的感覺。我很好奇,為什麼你認為你的其他組織…… SpaceX和特斯拉現在真的是大公司了。你仍然能夠保持那種文化。其他公司出了什麼問題,以至於他們做不到?馬斯克:我不知道。帕特爾:比如今天,你說你有一堆SpaceX會議。你在那裡做什麼來保持那種文化?科里森:是增加緊迫感嗎?馬斯克:嗯,我不知道。我想緊迫感將來自領導公司的人。我有一種狂熱的緊迫感。所以那種狂熱的緊迫感投射到公司的其他部分。帕特爾:是因為後果嗎?他們想,“伊隆設定了一個瘋狂的截止日期,但如果我沒完成,我知道會發生什麼。”還是只是你能夠識別瓶頸並消除它們,所以人們可以快速行動?你如何看待為什麼你的公司能夠快速行動?馬斯克:我不斷解決限制因素。在截止日期方面,我通常確實嘗試設定一個我至少認為是第50百分位數的截止日期。所以這不是一個不可能的截止日期,而是我能想到的、有50%機率可以實現的最積極的截止日期。這意味著它會有一半的時間延遲。有一個適用於時間表的氣體膨脹定律。如果你說我們要在五年內做某事,對我來說那就像無限時間,它就會膨脹以填滿可用的時間表,然後真的需要五年。物理學會限制你做某些事情的速度。所以擴大製造規模,你移動原子和擴大製造規模有一個速度。這就是為什麼你不能立即每年製造一百萬件東西。你必須設計生產線。你必須啟動它。你必須經歷生產的S曲線。我能說些什麼對人們實際上有幫助的呢?一般來說,狂熱的緊迫感是非常重要的一件事。你希望有一個積極的時間表,並且你想弄清楚在任何時間點的限制因素是什麼,並幫助團隊解決那個限制因素。科里森:所以星鏈多年來一直在緩慢進行。馬斯克:我們在公司一開始就討論過它。科里森:所以後來你在雷德蒙德建立了一個團隊,然後在某個時候你決定這個團隊就是不行。它緩慢進行了幾年,那麼為什麼你沒有早點行動,而你行動的那個時候為什麼是正確的時機?為什麼那是採取行動的合適時刻?馬斯克:我每周都會進行這些非常詳細的工程評審。這可能是非常不尋常的細節水平。我不知道還有誰經營一家公司,至少是製造公司,會像我一樣深入到細節。並不是說……因為我們會詳細討論事情,我對實際發生的情況有相當好的瞭解。我非常相信越級會議,不是讓我下屬的人匯報,而是讓向他們匯報的每個人在技術評審中說點什麼。而且不能有提前準備。否則你會被“粉飾”,就像我最近常說的。科里森:沒錯。很Z世代的說法。帕特爾:你怎麼防止提前準備?你會隨機點名嗎?馬斯克:不,我只是在房間裡輪轉。每個人提供最新情況。有很多資訊需要記在腦子裡。如果你每周或每周兩次開會,你就有那個人說過的快照。然後你可以描繪進展點。你可以在腦海中描繪曲線上的點,然後說,“我們是在收斂到一個解決方案,還是沒有?”只有當我認為成功不在可能的結果集合中時,我才會採取激烈行動。所以當我最終得出結論,除非採取激烈行動,否則我們沒有成功的機會時,我必須採取激烈行動。我在2018年得出了這個結論,採取了激烈行動並解決了問題。帕特爾:你有很多很多公司。聽起來在每一個公司裡,你都會深入瞭解相關瓶頸,以便與人們進行這些評審。你已將其擴展到五、六、七家公司。在其中一家公司內部,你有很多不同的迷你公司。什麼決定了這裡的最大值?你有大約80家公司?馬斯克:80?不。帕特爾:但你已經有很多了。這已經非常了不起了。科里森:按目前這個數字。帕特爾:沒錯。科里森:我們連一家公司都很難維持。馬斯克:這取決於情況。我實際上與The Boring Company沒有定期會議,所以The Boring Company只是按部就班地前進。基本上,如果某件事運行良好並取得良好進展,那麼我就不需要花時間在上面了。我實際上是根據限制因素來分配時間。那裡有問題?我們在那裡遇到阻礙?是什麼拖慢了我們的步伐?我聚焦於,冒著重複這個詞的風險,限制因素。馬斯克:諷刺的是,如果某件事進展順利,他們就不會經常見到我。但如果某件事進展糟糕,他們會經常見到我。或者甚至不是糟糕……科里森:如果某事是限制因素。馬斯克:限制因素,沒錯。不一定是進展糟糕,而是我們需要讓它進展更快的東西。科里森:當SpaceX或特斯拉的某事成為限制因素時,你是每周甚至每天與負責的工程師交談嗎?這實際上是如何運作的?馬斯克:大多數成為限制因素的事情是每周一次,有些是每周兩次。AI5晶片評審是每周兩次。每個星期二和星期六是晶片評審。科里森:會議時長是開放式的嗎?馬斯克:技術上是的,但通常是兩三個小時。有時更短。取決於我們需要討論多少資訊。科里森:這是另一件事。我只是想梳理出這裡的差異,因為結果似乎相當不同。我認為瞭解輸入有什麼不同很有趣。感覺在企業界,一是像你說的,CEO進行工程評審並不總是發生,儘管這是公司正在做的事情。但時間通常被精細地切成半小時會議,甚至15分鐘會議。似乎你主持的更多是開放式的、“我們討論直到弄清楚”類型的事情。馬斯克:有時候。但大多數似乎基本上都能按時完成。今天的星艦工程評審時間稍長,因為有更多話題要討論。他們正在想辦法如何擴展到每年一百萬噸以上的入軌能力。這相當具有挑戰性。帕特爾:我能問個問題嗎?你曾說過關於Optimus和AI,它們將在幾年內帶來兩位數的增長率。馬斯克:哦,比如經濟?是的。我想沒錯。帕特爾:如果經濟將增長這麼多,那DOGE削減開支有什麼意義?馬斯克:嗯,我認為浪費和欺詐不是好事。我實際上很擔心……在沒有AI和機器人的情況下,我們實際上完全搞砸了,因為國債正在瘋狂堆積。國債的利息支付超過了軍費預算,而軍費預算是1兆美元。所以我們僅利息支付就超過1兆美元。我對此相當擔憂。也許如果我花些時間,我們可以減緩美國的破產,給我們足夠的時間讓AI和機器人幫助解決國債問題。或者說不是幫助解決,而是唯一能解決國債的東西。沒有AI和機器人,我們1000%會作為一個國家破產、失敗。沒有其他東西能解決國債問題。我們只需要足夠的時間來建造AI和機器人,以便在那之前不破產。帕特爾:我想我好奇的是,當DOGE開始時,你擁有實施改革的巨大能力。馬斯克:沒那麼巨大。帕特爾:當然。我完全同意你的觀點,AI和機器人驅動生產力改進、推動GDP增長很重要。但為什麼不直接針對你指出的那些問題,比如某些元件的關稅,或者許可?馬斯克:我不是總統。而且,即使是削減非常明顯的浪費和欺詐——荒謬的浪費和欺詐——也非常困難。我發現,即使削減政府中非常明顯的浪費和欺詐也極其困難,因為政府必鬚根據誰在抱怨來運作。如果你切斷對欺詐者的付款,他們立即會想出聽起來最值得同情的理由來繼續付款。他們不會說,“請繼續欺詐吧。”他們會說,“你在殺害貓熊寶寶。”與此同時,沒有貓熊寶寶死亡。他們只是在編造。欺詐者能夠編造出極其引人注目、令人心碎但卻是虛假的故事。事情就是這樣。也許我應該更清楚。但我想,等等,讓我們試著削減政府的一些浪費和政治分肥。也許社會保障系統中不應該有2000萬人被標記為活著,而他們肯定已經死亡,並且年齡超過115歲。最年長的美國人是114歲。所以可以肯定地說,如果有人在社會保障資料庫中被標記為115歲且活著,那要麼是打字錯誤……應該有人打電話給他們說,“我們似乎搞錯了你的生日,或者需要將你標記為死亡。”兩件事之一。科里森:接到這樣的電話會很嚇人。馬斯克:嗯,這似乎是件合理的事。比如說,如果他們的生日在未來,而且他們有小型企業管理局貸款,他們的生日是2165年,我們要麼是打字錯誤,要麼是欺詐。所以我們說,“我們似乎搞錯了你出生的世紀。”科里森:或許是一個很棒的電影情節。馬斯克:是的。這就是我說的,荒謬的欺詐。帕特爾:那些人當時在領取付款嗎?馬斯克:有些人從社會保障領取付款。但主要的欺詐途徑是將某人在社會保障中標記為活著,然後利用所有其他政府支付系統進行欺詐。因為其他政府支付系統所做的,就是簡單地向社會保障資料庫做一個“你是否活著”的檢查。這是一個間接途徑。帕特爾:你估計通過這種機制的總欺詐金額有多少?馬斯克:順便說一下,政府問責辦公室以前做過這些估計。我不是唯一一個。事實上,我想GAO在拜登政府期間做過一項分析,粗略估計了欺詐金額,計算約為5000億美元。所以別信我的話。相信拜登政府期間發佈的一份報告。怎麼樣?帕特爾:來自這個社會保障機制?馬斯克:這只是眾多之一。重要的是要認識到,政府非常不善於阻止欺詐。不像一家公司,阻止欺詐有動力,因為它影響公司的收益。政府只是印更多錢。你需要關懷和能力。這在聯邦層面是稀缺的。當你去車管所時,你會想,“哇,這是個能力堡壘”嗎?嗯,現在想像一下,它比車管所還差,因為它是能印錢的車管所。至少州一級的車管所需要……各州或多或少需要保持在預算內,否則他們會破產。但聯邦政府只是印更多錢。帕特爾:如果確實有5000億美元的欺詐,為什麼不可能全部削減掉?馬斯克:你真的需要退一步,重新調整你對能力的期望。因為你所處的世界是你必須收支平衡。你必須支付你的帳單……帕特爾:找到麥克風。馬斯克:沒錯。這不像有一個巨大、基本上漠不關心的官僚怪獸。那是一堆過時的電腦,只是傳送付款。DOGE團隊所做的一件事聽起來如此簡單,可能每年會節省1000-2000億美元。它只是要求從主要的財政部電腦——叫做PAM,支付帳戶主控之類的,每年有5兆美元的支付——發出的付款必須有一個預算用途程式碼。強制要求,而不是可選,註釋欄位裡必須有任何內容。你必須重新調整事情有多愚蠢。付款被發出時沒有預算用途程式碼,沒有回頭檢查任何國會撥款,也沒有解釋。這就是為什麼戰爭部,前身是國防部,無法通過審計,因為資訊根本不存在。重新調整你的期望。帕特爾:我想更好地理解這個5000億美元的數字,因為有一份2024年的監察長報告。馬斯克:為什麼這麼低?帕特爾:也許,但我們發現,七年內,他們估計的社會保障欺詐大約是700億美元,所以每年大約100億美元。所以我很好奇另外那4900億美元是什麼。馬斯克:聯邦政府支出每年是7.5兆美元。你認為政府有多能幹?帕特爾:那裡的可自由支配支出大概是……15%?馬斯克:但這不重要。大多數欺詐強制性支出。基本上是欺詐性的醫療保險、醫療補助、社會保障、殘疾。有無數的政府支付。其中許多支付實際上是給各州的整筆撥款。所以聯邦政府在很多情況下甚至沒有資訊來判斷是否有欺詐。讓我們考慮歸謬法。政府是完美的,沒有欺詐。你覺得發生這種事的機率能有多少?零。好吧,那麼你會說,政府的欺詐和浪費是90%有效率的?那也相當慷慨了。但如果只有90%,那就意味著每年有7500億美元的浪費和欺詐。而且不是90%。不是90%有效。帕特爾:這似乎是一種奇怪的第一性原理方法來計算政府的欺詐金額。就像,你覺得有多少?無論如何,我們不必現場計算,但我很好奇——馬斯克:你很瞭解Stripe的欺詐嗎?人們一直在試圖欺詐。科里森:是啊,但就像你說的,有點……雖然我們已經把欺詐壓了下去,但政府面對的情況要複雜得多,各種欺詐手段五花八門,遠非我們能比。馬斯克:但在Stripe,你們有高能力且很努力。你們有高能力和高關懷,但欺詐仍然不是零。現在想像一下,規模要大得多,能力卻低得多,關懷也少得多。在PayPal早期,我們試圖將欺詐控制在支付額的大約1%。那非常困難。需要極大的能力和關懷才能僅僅將欺詐控制在1%。現在想像一下,你是一個關懷少得多、能力也低得多的組織。它會遠高於1%。科里森:現在回顧政治和在那裡做事,你感覺如何?從外部看,有兩件事影響很大:一是America PAC(政治行動委員會),二是當時收購Twitter。但似乎也有不少心痛。你對整個經歷的評價如何?馬斯克:我認為這些事情需要做,以最大化未來美好的機率。政治通常是非常部落化的。人們通常在政治上失去客觀性。他們通常很難看到另一方的優點或自己一方的缺點。這通常是情況。我想這是最讓我驚訝的事情之一。你經常根本無法與人們講道理。如果他們屬於這個或那個部落。他們簡單地相信他們部落所做的一切都是好的,而另一個政治部落所做的任何事都是壞的。說服他們改變看法幾乎是不可能的。但我認為總的來說,那些行動——收購Twitter,讓川普當選,即使這讓很多人憤怒——我認為那些行動對文明有益。帕特爾:這如何與你期待的未來聯絡起來?馬斯克:嗯,美國需要足夠強大,以持續足夠長的時間將生命擴展到其他行星,並讓AI和機器人發展到我們可以確保未來美好的程度。另一方面,如果我們陷入,比如說,共產主義,或者國家極度壓迫的情況,那將意味著我們可能無法成為多行星文明。國家可能會扼殺我們在AI和機器人方面的進步。帕特爾:Optimus、Grok等等。不僅是你的,任何收入最大化公司的產品都將被政府利用。這種擔憂如何體現在私人公司應該願意給予政府什麼上?什麼樣的護欄? AI模型是否應該做政府外包給它們並要求它們做的任何事情?Grok是否可以說,“實際上,即使軍方想做X,不,Grok不會做”?馬斯克:我認為AI和機器人出錯的最大危險可能是政府。反對公司或擔心公司的人們最應該擔心政府。因為政府只是在極限意義上的一個公司。政府只是一個擁有暴力壟斷的最大最壞的公司。我總是發現一種奇怪的二分法,人們會認為公司是壞的,但政府是好的,而政府只是最大最壞的公司。但人們有這種二分法。他們不知何故同時認為政府可以是好的,但公司是壞的,這不正確。公司的道德比政府更好。我實際上認為這是一個需要擔心的問題。政府可能利用AI和機器人來壓制人口。這是一個嚴重的問題。帕特爾:作為建構AI和機器人的人,你如何防止這種情況?馬斯克:如果你限制政府的權力,這正是美國憲法旨在做的,限制政府的權力,那麼你可能會得到一個比有更多政府更好的結果。科里森:機器人技術將對所有政府開放,對吧?馬斯克:我不知道是否對所有政府都開放。很難預測。我能說的是終點是什麼,或者許多年後的未來是什麼,但很難預測沿著那條道路會發生什麼。如果文明進步,AI將遠遠超過所有人類智能的總和。機器人將比人類多得多。沿途發生的事情很難預測。帕特爾:似乎有一件事你可以做,就是直接說,“無論政府X,你不允許使用Optimus做X,Y,Z。”只是寫下一個政策。我想你最近發推說Grok應該有一個道德憲法。其中一件事可以是限制政府被允許用這項先進技術做什麼。馬斯克:從技術上講,如果政客通過了一項法律,並且他們能夠執行該法律,那麼很難不去遵守。我們能擁有的最好的東西是有限政府,行政、司法和立法部門之間有適當的制衡。帕特爾:我之所以好奇,是因為在某個時刻,限制似乎將來自你。你擁有Optimus,你擁有太空GPU……馬斯克:你認為我會成為政府的老闆?帕特爾:已經,對於SpaceX來說,對於至關重要的事情——政府非常關心將某些衛星送入太空之類——它需要SpaceX。它是必要的承包商。你正在建構越來越多未來的技術元件,這些元件將在不同行業中發揮類似的作用。你可以擁有設定一些政策的能力,比如以任何方式壓制古典自由主義……“我的公司不會以任何方式幫助那樣做”,或者類似的政策。馬斯克:我將盡我所能確保任何在我控制範圍內的東西都最大化對人類的良好結果。我認為其他任何做法都是短視的,因為我顯然是人類的一部分,所以我喜歡人類。親人類。帕特爾:你提到Dojo 3將用於太空計算。馬斯克:你真的看了我說的話。帕特爾:伊隆,你可能不知道,但你有很多關注者。馬斯克:明顯的破綻。你怎麼知道我的秘密?哦,我發在X上了。帕特爾:你如何為太空設計晶片?有什麼變化?馬斯克:你想設計得能承受更多輻射,並在更高溫度下運行。大致上,如果你將開氏溫度下的工作溫度提高20%,你可以將散熱器質量減半。所以在太空以更高溫度運行是有幫助的。對於遮蔽記憶體,你可以做各種事情。但神經網路對位翻轉將非常有彈性。輻射導致的大部分是隨機位翻轉。但如果你有一個數兆參數模型,你出現幾個位翻轉,這沒關係。啟髮式程序將比一些巨大的參數檔案對位翻轉敏感得多。我只是設計它在高溫下運行。我想除了讓它運行更熱之外,你基本上可以按照在地球上做的方式來做。帕特爾:太陽能陣列佔了衛星的大部分重量。有沒有辦法讓GPU比如今輝達、TPU等計畫做的更強大,從而在太空世界中特別有優勢?馬斯克:基本數學是,如果每個光罩能做到大約一千瓦,那麼你需要1億個全光罩晶片才能做到100吉瓦。根據你的良率假設,這會告訴你需要製造多少晶片。如果你有100吉瓦的電力,你需要1億個能持續運行一千瓦的晶片,每個光罩一個。基本數學。帕特爾:1億個晶片取決於……如果你看看像Blackwell GPU這樣的晶片尺寸,以及你能從一個晶圓上得到多少個,你大概能得到幾十個或更少。所以基本上,這是一個每年我們都要達到的世界,你每個月要生產數百萬個晶圓。這就是TeraFab的計畫嗎?每月數百萬個先進工藝節點的晶圓?馬斯克:是的,可能超過一百萬或類似的數量。你還得做記憶體。帕特爾:你要建一個記憶體製造廠嗎?馬斯克:我想TeraFab必須做記憶體。它必須做邏輯晶片、記憶體和封裝。帕特爾:我很好奇一個人如何開始。這是人類製造過的最複雜的東西。顯然,如果有人能勝任這個任務,你就是那個人。所以你意識到這是個瓶頸,然後你去找你的工程師。你告訴他們做什麼?“我想在2030年達到每月100萬個晶圓。”馬斯克:沒錯。那正是我想要的。帕特爾:你打電話給ASML嗎?下一步是什麼?科里森:沒有太多要問的了。馬斯克:我們建一個小廠,看看會發生什麼。在小規模上犯錯誤,然後建一個大的。帕特爾:小廠建好了嗎?馬斯克:不,還沒建好。我們不會把那隻貓藏在袋子裡。那隻貓會從袋子裡出來的。會有無人機在那該死的東西上空盤旋。你將能在X上即時看到它的建設進展。聽著,我不知道,我們可能會失敗,公平地說。成功沒有保證。既然我們想嘗試製造大約1億個……我們想在2030年前擁有100吉瓦的電力,以及能夠消耗100吉瓦電力的晶片。我們會從供應商那裡儘可能多地拿晶片。實際上我已經對台積電、三星和美光說過:“請更快地建造更多晶片廠”。我們將保證購買那些晶片廠的產出。所以他們已經在儘可能快地行動了。是我們加上他們。科里森:有一種說法是,現在業界普遍覺得,AI開發商恨不得立刻把所有晶片搶光,但無論是晶片廠還是渦輪機製造商,產能擴張的速度都遠跟不上節奏。馬斯克:不,他們沒有。科里森:你聽到的解釋是他們天生保守。他們是台灣人或德國人,故事可能如此。他們就是不相信……這真的是解釋嗎?還是有別的原因?馬斯克:嗯,這是合理的……如果有人在電腦記憶體行業幹了三四十年……科里森:他們見過周期。馬斯克:他們見過十次繁榮和蕭條。那是很多層的傷痕組織。在繁榮時期,看起來一切都會永遠美好。然後崩潰發生,他們拚命試圖避免破產。然後又一個繁榮,又一個蕭條。科里森:還有其他你認為別人應該去追求的想法嗎?由於各種原因,你現在不做。馬斯克:有幾家公司正在追求做晶片的新方法,但他們就是擴張不快。科里森:我甚至不是在說AI內部,我是說總體上。馬斯克:人們應該去做他們發現自己有高度動力去做的事情,而不是我建議的某個想法。他們應該去做他們個人覺得有趣和有動力去做的事情。但回到限制因素……我用了那個短語大概一百次了。目前我在三四年的時間框架內看到的限制因素是晶片。在一年的時間框架內,是能源、電力生產、電力。我不清楚是否有足夠的可用電力來啟動所有正在製造的AI晶片。今年年底左右,我認為人們將真的遇到麻煩去啟動……晶片的產出將超過啟動晶片的能力。帕特爾:你打算如何應對那個世界?馬斯克:我們正試圖加速電力生產。我想這也許是xAI可能成為領導者,希望是領導者的原因之一。我們將能夠比其他人更快地啟動更多晶片,因為我們擅長硬體。一般來說,那些自稱實驗室的公司的創新,其想法往往會傳播……很少看到有超過六個月以上的差異。這些想法隨著人員來回傳播。所以我想你會遇到硬體牆,然後那個公司能最快地擴展硬體,那個就是領導者。所以我想xAI將能夠最快地擴展硬體,因此最有可能成為領導者。科里森:你開玩笑或對自己再次使用“限制因素”這個短語感到不好意思。但我實際上認為這裡有些深刻的東西。如果你回顧我們整個討論中涉及的許多事情,也許這是個很好的結束點。如果你考慮一個衰老的、低能動性的公司,它會有一個瓶頸,但不會真的做什麼。馬克·安德森(Marc Andreessen)有句話:“大多數人寧願忍受任何數量的慢性痛苦,也不願面對急性痛苦。”感覺我們談論的很多案例只是直面急性痛苦,不管它是什麼。“好吧,我們必須想辦法用鋼,或者我們必須想辦法在太空運行晶片。”我們會承受一些短期的急性痛苦來真正解決瓶頸。所以這有點像一條統一的主線。馬斯克:我有很高的疼痛閾值。這有幫助。科里森:為瞭解決問題。馬斯克:是的。我能說的是,我認為未來會非常有趣。就像我在達沃斯說的——我想我在那裡只待了大約三小時左右——在樂觀上犯錯,比在悲觀上犯錯,對生活質量更好。如果你傾向於樂觀而不是悲觀,你會更快樂。所以我推薦傾向於樂觀。科里森:為這個乾杯。帕特爾:酷。伊隆,謝謝你來參加。科里森:謝謝。馬斯克:好的,謝謝你們。好的。科里森:了不起的耐力。帕特爾:希望這不算疼痛耐受度裡的痛苦。 (網易科技)
如果部屬到太空,還是政府管嗎? 如果被壟斷?