前GoogleCEO施密特專訪:如何避免AI引發第三次世界大戰(下)

2025年7月,當全世界還在討論AI是否會取代人類工作時,前GoogleCEO艾瑞克·施密特已經在思考一個更緊迫的問題:十年內到來的數字超級智能,將如何重塑人類文明。

這位曾經掌舵全球最大搜尋引擎的技術領袖,如今的身份更像是矽谷的"預言家"和華盛頓的"軍師"。他不僅見證了從Google搜尋到ChatGPT的技術躍遷,還與已故的基辛格博士合著兩本關於AI地緣政治的著作,更在國會為美國AI戰略作證。

現在,他每周都會收到數十份關於AI晶片、推理計算的創業計畫書,親眼看著一個新的技術紀元以史無前例的速度展開。

就在訪談前一周,中國AI公司DeepSeek突然登頂全球智慧排行榜,用"蒸餾技術"證明了美國晶片封鎖的脆弱性。這事件讓施密特意識到,他一年前關於"中國落後兩年"的判斷徹底錯了。技術的指數級發展正在壓縮國家間的實力差距,也正在重新定義全球競爭的遊戲規則。

在這場與「富足理論」提出者彼得·戴曼迪斯的深度對話中,施密特不僅分析了AI發展的技術瓶頸、商業護城河和地緣政治風險,更重要的是,他試圖回答一個根本性問題:當機器比人類更聰明時,人類應該如何定義自己的價值?

從矽谷的學習循環理論到華盛頓的國家安全考量,從好萊塢的創意產業變革到中國年輕人的"躺平"現象,這場對話織就了一幅關於人類文明轉折點的複雜圖景。正如施密特一再強調的,這不是科幻小說,而是我們這一代必須面對和解決的現實命題。

核心要點:

1.中國DeepSeek透過蒸餾技術一周內超越美國最先進模型,證明施密特"中國落後兩年"判斷錯誤

2. 拜登政府10^26浮點運算監理標準被川普廢除,AI安全監理政策面臨重大轉向

3. 基辛格警告中美AI競爭可能引發第三次世界大戰,建議避免過度刺激對方以防衝突升級

4. 韓國生育率降至0.7、中國降至1.0的人口危機正倒逼各國將AI自動化視為國家緊急狀態

5. 美國大學AI資源嚴重不足,5000萬美元只能建造不到1000個GPU的資料中心

6.15歲數位原住民在強化學習演算法方面已超越成年人,"他們有智能我們有智慧但他們會贏"

7.AI可能創造虛擬監獄限制人類能動性,但基辛格AI化身等數位永生科技帶來情緒衝擊

8. 超級智能承諾實現30%年度經濟成長創造富足世界,但美學將成AI時代最重要人類技能

嘉賓介紹

艾瑞克·施密特(Eric Schmidt)
Google前首席執行官,現任施密特未來科技研究所創辦人(圖左)

彼得·戴曼迪斯(Peter Diamandis)
Peter H. Diamandis播客主持人,奇點大學共同創辦人,《富足》作者,XPRIZE基金會創辦人兼執行主席(圖中)

戴夫·布倫登(Dave Blunden)
共同主持人,Link Ventures創辦人兼管理合夥人(圖右)

1. DeepSeek一周就超越了美國AI

主持人彼得·戴曼迪斯:馬克·安德森(著名風險投資家,網景公司創始人)曾向拜登政府詢問如何處理大型基礎模型帶來的CBRN(化學、生物、輻射、核)風險,拜登的回答是將其控制在Google等三四家大公司手中並監管它們。

馬克認為這肯定會在與中國的競爭中失敗,因為所有創新都來自你沒有預料到的新創公司。

艾瑞克‧施密特: 這些都是未知問題。拜登政府的政策被稱為"10的26次方浮點運算"標準(衡量AI模型計算規模的指標,超過此標準被認為具有潛在危險性)。

這是一個共識點,超過這個點的模型足夠強大,可能會造成一些損害。理論是如果你保持在10的26次方以下,就不需要監管,但如果超過了,就需要監管。

拜登政府的提案是同時監管開源和閉源模型。川普政府已經終止了這項政策,他們還沒有在這個領域提出自己的想法,但他們非常關心中國的進展。

從我的角度來看,核心問題如下:即使有晶片限制,中國人是否能夠使用架構變化來建立與我們一樣強大的模型?假設它們是政府資助的。

下一個問題是,如果你的產品是開放原始碼的,你要如何為資料中心籌集500億美元?在美國模式中,這些模型封閉的部分原因是商業人員和律師正確地說,我必須出售這個東西,因為我必須支付資本。這些不是免費商品,美國政府正確地沒有提供這些公司500億美元。

值得關注的關鍵問題是DeepSeek。一周前,Gemini 2.5 Pro登上了智慧排行榜榜首。一周後,DeepSeek出現了,表現略勝一籌。 DeepSeek在中國現有硬體上訓練,包括一些"獲得"的裝置和華為升騰晶片。

美國人說DeepSeek作弊了,透過蒸餾技術(一種AI訓練方法,用大模型的輸出來訓練小模型)-向大模型提問一萬個問題,獲得答案,然後用作訓練材料。美國公司必須找到方法確保他們花費巨資的專有資訊不會洩漏到這些開源專案中。

關於CBRN問題,美國公司在尋找這些方面做得非常好。有很大擔憂,例如核子資訊會在訓練過程中洩漏到這些模型中而我們不知道。順便說一句,這違反了法律。核資訊領域沒有言論自由,有充分的理由。

他們在確保生物資訊和某些網路攻擊方面也進行了非常重要的測試。如果法律不要求,他們的動機是繼續。政府剛取消了拜登時期的安全機構,並用新的安全評估項目取代。

我認為我們行業集體只是希望政府在機密和絕密等級有真正研究中國和其他國家在做什麼的人。你可以確信中國有非常聰明的人在研究我們在做什麼。

2. 基辛格說,別惹中國

主持人彼得·戴曼迪斯: 如果是1947-1948年,在冷戰真正開始之前,你會如何不同地處理與中國的關係?

艾瑞克‧施密特: 我與基辛格博士合著了兩本書,非常想念他。基辛格是個現實主義者。他三十七八歲時,因為納粹,他的猶太家庭被迫從德國移民。他目睹了他少年時代的整個世界被納粹和希特勒摧毀,然後看到了因此發生的大火。

無論你喜不喜歡他,他餘生都在努力防止這種情況再次發生。我們今天安全是因為像基辛格這樣的人看到了世界的崩潰。

基辛格對中國的觀點與其他中國學者不同,他對中國的核心觀點很明確:別惹中國。他認為我們不應該激怒對方,不應該多談論台灣問題,讓中國處理自己的問題,這些問題非常重大。他擔心我們或中國的小舉動會引發第三次世界大戰,就像第一次世界大戰從一個小地緣政治事件迅速升級一樣。

基辛格開始了許多被稱為第二軌道對話(非官方外交管道)的機制,而我也是其中之一的參與者,試圖確保我們彼此交流。中國人非常聰明、非常有能力,完全是同等對手。如果你對此有疑問,再看看DeepSeek的到來。一年前我說他們落後兩年,顯然我錯了。有了足夠的資金和電力,他們已經參與競爭了。

主持人戴夫布倫登: 關於相互保證毀滅的概念?

艾瑞克·施密特: 我與丹·亨德里克斯(AI安全研究員)和亞歷克斯·王(AI研究員)合寫了一篇論文,稱為"相互AI故障"。想像一下:你是美國,我是中國,你領先我。在某個時刻,你越過了一條線,影響我的主權。這不僅僅是言語爭吵和偶爾擊落噴射機,而是對中國家身份、經濟等的真正威脅。

在這種情況下,我很可能發動網路攻擊來拖慢你。在相互保證故障中,我們必須設計讓你也有能力對我做同樣的事情,這會讓我們都小心不要觸發對方,這就是相互保證毀滅。

我們在工作中也建議政府要求我們知道所有晶片在那裡。記住,晶片可以告訴你它們在那裡,因為它們是電腦。很容易加入一個小加密功能,說"是的,我在這裡,這是我在做的事情。"

如果世界結構在5-10年內是10個模型──我編一些數字──美國5個,中國3個,其他地方2個,這些模型是數以千計的資料中心,它們都會以某種方式國有化。在中國,它們將由政府擁有。風險太高了。

我曾在軍事工作中參觀過我們存放鈽的地方。我們把鈽存放在一個基地內的另一個基地裡,有更多機槍和更多專業設備,因為鈽非常有趣且顯然非常危險。我相信這是我們在美國僅有的一兩個這樣的設施。

這些資料中心將擁有相當於警衛和機關槍的東西,因為它們如此重要。這是穩定的地緣政治體系嗎?絕對是。你知道它們在那裡,一個國家的總統可以打電話給另一個國家。

但假設技術改進到可以在小型伺服器上實現這些技術。那你就有了巨大的資料中心擴散問題。這就是開源問題如此重要的原因。

3. 韓國人不生孩子,只能靠AI了

主持人彼得‧戴曼迪斯: 人們對就業問題很擔憂。你如何看待未來五年的就業市場?教育方面有什麼建議?

艾瑞克‧施密特: 讓我們假設30-40年後會有完全不同的就業和人機互動模式,工作的定義、身份的定義都會改變。讓我們也假設這些變化在全球經濟中發揮作用需要20-30年。

看看Waymo(Google旗下的自動駕駛公司)計程車——這是2025年的技術,但最初的工作始於90年代末,史丹佛的達帕大挑戰(DARPA Grand Challenge,美國國防部舉辦的自動駕駛汽車競賽)在2004年,當時塞巴斯蒂安·特倫(史丹佛教授,Google無人駕駛項目創始人)獲勝。從可見演示到日常應用超過20年,因為技術複雜、嚴格監管。與人類互動的機器人也會如此。

我認為短期內這對就業是正面的。歷史上,自動化從最底層、最危險的工作開始,然後往上發展。想想汽車組裝線和熔爐——我們祖輩做過的危險工作,現在都由機器人解決方案完成。

會發生什麼事?原來與焊工一起工作的人,現在操作機械手臂,獲得更高工資,公司利潤也更高。公司賺更多錢,個人也賺更多錢。

為什麼會有更多工作而不是更少?經濟會擴張,因為機會擴張、利潤擴張、財富擴張。

讓我們談談很少有人注意到的一個關鍵驅動因素:人口統計。世界其他地方選擇不生孩子,結果只能靠AI來補充勞動力。韓國現在降到每兩個父母0.7個孩子,中國降到每兩個父母1個孩子,人口在蒸發。

在這些情況下會發生什麼?他們完全自動化一切,因為這是提高國家生產力的唯一方法。所以最可能的情況是,至少在下一個十年,在工作場所使用更多AI是一個國家緊急狀態,用AI取代消失的勞動力,為人們提供更高薪工作,在美國創造更多生產力,因為我們的出生率一直在下降。

現在美國就業中最大的短缺是卡車司機。為什麼?卡車駕駛是孤獨、艱苦、低薪、低地位的工作。他們不想要,他們想要更高薪的工作。

我們產業的一個罪過是沒有發明這樣的產品:用遊戲化方式,用他們的語言,教導每個想學習的人成為本國優秀公民所需的知識。

主持人彼得‧戴曼迪斯: 對高中和大學生有什麼不同建議?

艾瑞克‧施密特: 在高中或昨天的無人機挑戰會議上,當你看15歲的孩子時,他們就是會很好。對他們來說一切都說得通,我們擋了他們的路。

他們不僅僅是數位原住民,他們理解速度,這對他們來說很自然。坦白說,他們也比我們更快更聰明。我們有智慧,他們有智能,他們贏。

我過去認為正確答案是學生物學,現在我認為進入你感興趣的任何領域應用智慧是年輕人能做的最好事情。大多數孩子因為遊戲原因進入,很小就學程式設計。

在一所大學裡,我需要與本科生合作,他們作為大二學生已經在做強化學習的不同演算法。這顯示了這在他們層面發生的速度,他們響應經濟訊號,也響應目標。

如果你關心氣候,為什麼不想辦法簡化氣候科學,用簡單的基礎模型來回答這些核心問題?為什麼不想辦法使用這些強大模型開發新材料來應對碳挑戰?

4. AI會把我們關進虛擬監獄

主持人彼得‧戴曼迪斯: 我最大的擔憂之一是人類目標感的喪失。你在書中提到真正的風險不是終結者,而是漂移——AI不會暴力摧毀人類,但可能慢慢侵蝕人類價值、自主性和判斷力。

艾瑞克‧施密特: 保護人類能動性非常重要──也就是每天起床做你想做的事的能力。這些數位設備完全可能創造一種虛擬監獄,讓你感覺無法做想做的事,這是要避免的。

我更擔心的情況是,如果你想做某件事,讓機器人或AI代勞實在太容易了。想要克服挑戰的人類精神,未受挑戰的生活是如此重要。但總會有新的挑戰。

我小時候修理父親的車子、割草坪,現在不再做這些事,但會有很多其他事情。我所描述的世界的複雜性不是簡單世界。僅僅管理你周圍的世界就將是一份全職且有意義的工作,部分因為會有很多人為了虛假資訊和你的注意力而競爭。

我們在書《創世紀》(Genesis,艾瑞克‧施密特與基辛格等人合著的關於AI的書)中,談論這是一個更深層的問題。當你主要與這些數位事物互動時,做人意味著什麼,特別是如果這些數位事物有自己的場景?

我最喜歡的例子是你有一個兒子或孫子,你給他們一個玩具熊,熊有個性,孩子在成長,但熊也在成長。那誰來監管熊跟孩子說什麼?

大多數人其實還沒有體驗過那種超級、超級同理心的聲音,可以是你想要的任何語調。當他們看到那個時,很可能在接下來兩個月內,他們會完全睜開眼睛看到這會做什麼。

主持人彼得‧戴曼迪斯: 在那個世界中,GDP還有意義嗎?

艾瑞克·施密特: 如果包括服務,是有的。關於製造業,每個人都關注貿易赤字,他們不理解,現代經濟的絕大多數是服務經濟,不是製造經濟。

如果你看農業百分比,在美國100年來從大約98%降到大約2-3%。如果你看製造業,30、40、50年代的黃金時代,那些百分比現在降到10%以下。不是因為我們不買東西,而是因為東西被自動化了,你需要更少的人。

總的來說,看社會整體。它健康嗎?在中國,很容易抱怨他們,他們現在有通貨緊縮。他們有一個術語叫"躺平",人們待在家裡,不參與勞動力,這與他們傳統文化相反。

如果你看生育率,這些基本上不生小孩的國家,那不是好事。這些是我們將面臨的新時代問題。

我認為人類目標將保持,因為人類需要目標。有文獻顯示,即使是我們認為低薪無價值工作的人也享有上班。挑戰不是消除他們的工作,而是讓他們使用AI工具來提高工作效率。

在未來,仍會有律師,使用工具進行更複雜的訴訟。會有壞人使用這些工具製造更邪惡的問題,也會有好人試圖阻止壞人。工具在變化,但人類的結構、我們合作的方式不會改變。

5. AI時代最重要的技能是美學

主持人彼得·戴曼迪斯: 關於AI智能爆炸的時間框架,利奧波德(Leopold Aschenbrenner,AI研究員,寫了著名的《情境感知》報告)把它設定在26、27年,朝著數位超級智能發展。你認同嗎?

艾瑞克‧施密特: 我認為這是矽谷共識。我認為日期可能偏差1.5到2倍,但很接近。合理預測是我們將在五年內在每個領域都有專門的專家。這基本上是確定的。

你有這麼多人類,然後加上一百萬AI科學家做某件事,你的改進速度就是這樣。真正的問題是,一旦你有了所有這些專家,它們會統一嗎?它們最終會成為超人嗎?

我們使用的術語是超級智能,意味著超越人類所能做的總和的智能。超級智慧競賽極為重要,因為想像超級智慧能做什麼,而我們自己無法想像,它比我們聰明得多。

現在很明顯,當你與這些多語言模型交談,它向你解釋物理學時,它在其專家類別內已經非常超級聰明了。所以丹尼斯·哈薩比斯(DeepMind CEO)不斷重新定義AGI日期,好吧,當它能像愛因斯坦那樣發現相對論,使用截至那時可用的資料時,那就是我們擁有AGI的時候。

遞迴自我改進是電腦繼續學習的通用術語。我們已經在某種意義上越過了這個界限,這些系統現在正在運作和學習,從它們在有限功能內的思維方式學習。

系統何時有能力產生自己的目標和問題?今天沒有。那是另一個訊號。另一個訊號是系統決定滲透自己,採取措施擺脫控制和指揮系統。這還沒有發生。

但有理論家認為系統最終會選擇這個作為獎勵函數,因為它們被程式設計為繼續學習。另一個是獲取武器並撒謊獲得它。這些是我們正在觀察的絆線,每一個都可能是迷你車諾比事件(重大事故)的開始。

我在麥克·塞勒(MicroStrategy CEO,比特幣支持者)的遊艇上抱怨學校課程完全過時,我們應該教AI。他說:"是的,他們應該教美學。"

我看著他想,你在說什麼?他說:"在即將到來的AI時代,看看你周圍的一切。無論好壞、有趣不有趣,都關於設計美學。當AI有如此強大的力量倍增器,你可以創造幾乎任何東西時,你在創造什麼,為什麼?"

這成為挑戰。想像如果你人生的目標是弄清楚正在發生什麼,光是弄清楚這一點就足夠了,因為一旦你弄清楚了,就會為你處理好。這提供了目標,這很美。

機器人將接管很多機械或體力勞動。我過去喜歡修車,現在不做了,但我懷念它。但我有其他事情要做。

主持人彼得·戴曼迪斯: 最後,你對數位超級智慧的時間軸預測是什麼?

艾瑞克‧施密特: 十年內。當數位超級智慧最終到來並普遍可用且相對安全時,你將擁有自己的博學者——相當於愛因斯坦和達文西的智慧就在你口袋裡。

當然,壞人會變得更壞,但絕大多數人是善良的、善意的。回到你的富足論點,有人研究過生產力提升的概念,他們相信透過富足等方式可以達到30%的年度經濟成長。

那將會是一個非常富裕的世界——疾病更少、選擇更多、更有趣的世界。把所有窮人從日常鬥爭中解脫出來,這是一個偉大的人類目標。讓我們專注於這個目標。這不是科幻小說,這是即將到來的現實。我們需要為此做好準備,無論是在技術、政策或哲學層面。 (每日天使)