2025 年12月2日,前GoogleCEO埃裡克·施密特與哈佛教授格雷厄姆·艾利森在哈佛甘迺迪學院進行了一場對話,深刻揭示了人工智慧對人類社會、地緣政治和個人自由的顛覆性影響。1. AI進化與“超級智能”的臨近。施密特指出,AI正經歷從語言模型到“智能體”(任務自動化),再到“推理”(更高階人類功能)的演進,這被稱為“舊金山共識”。他認為,這種遞迴式自我改進的“超級智能”(AGI)突破迫在眉睫,可能在兩到四年內實現。他強調,AI的顛覆性被嚴重低估,它不是泡沫,而是對商業、醫學和科學的根本性自動化。2. 中美AI戰略的二元分岔。中美兩國在AI領域的競爭呈現出不同的戰略路徑:•美國(矽谷):專注於追求AGI的突破和閉源模型,這由巨大的資本投入和財務回報需求驅動。•中國:專注於將AI廣泛應用於“萬物”(智能產品、業務流程)和開源生態。施密特警告,由於中國在應用層面的不懈努力,美國在AI應用普及上正“輸給中國”。他認為,中國政府可能通過開源策略,利用免費模型實現技術的廣泛傳播,從而輸出其價值觀和偏見。3. 核心挑戰:人類能動性與自由。對話的核心議題是維護人類能動性(Human Agency)。施密特引用了自動駕駛汽車的“例外按鈕”思想實驗:如果系統完全最佳化交通,但無法為緊急情況提供例外,這將是“電腦對人類的支配”,人類必將反抗。他認為,AI的普及必須與人類經驗和需求相結合,否則將侵犯人類自由。4. 民主與真相的危機。AI對民主社會構成嚴峻威脅。它能輕易生成令人信服的虛假資訊,並利用人類的“錨定偏見”,通過無情的複製和重複來壓倒對真相的信念。施密特擔心,這種“增強的言論”或“演算法言論”將使民主的未來充滿不確定性。5. 工作與尊嚴的社會危機。施密特認為,儘管AI自動化了大量低端工作,但工作崗位的流失不僅是財務問題,更是一場情感和意義感的危機,因為人類的尊嚴與目標緊密相連。他呼籲社會必須解決這一問題,以更好地工具和新的社會結構來應對。對話全文如下:主持人:晚上好,歡迎來到政治學院的約翰·F·甘迺迪青年論壇。今晚,我們聚集在可以說是人類歷史上最關鍵的時刻之一。人工智慧已從一個未來主義的概念演變為我們日常生活中不可或缺的一部分,它在悄然但深刻地重塑著經濟、戰爭乃至人類社會的結構本身。自核時代的黎明以來,全球穩定首次可能不僅僅取決於軍事實力或經濟權重,還取決於為在這項新技術智能領域中爭奪競爭優勢而展開的角逐。總而言之,人工智慧體現了我們以前從未見過的事物。知識產生方式的轉變,決策方式的轉變,以及最終人類看待自身在世界中地位的轉變。20年後的社會會是什麼樣子?更重要的是,人工智慧將如何塑造它?現在,為了評論這些觀點,我很高興地向大家介紹今晚的演講嘉賓。埃裡克·施密特曾在2001年至2011年間擔任Google的董事長兼首席執行長。今天,他擔任相對空間公司(Relativity Space)的主席兼首席執行長。他是“創新實業”(Innovation Endeavors)的創始合夥人,並且是美國乃至全球人工智慧和國家安全領域的主要聲音。格雷厄姆·艾利森是哈佛大學甘迺迪學院的道格拉斯·迪倫政府學教授,他曾擔任該學院創始院長兼貝爾弗中心(Belfare Center)科學與國際事務主任。他還曾在第一屆克林頓政府中擔任國防部長助理,並榮獲國防部傑出公共服務獎章。現在,話不多說,請大家與我一起開啟今晚的討論,並歡迎我們尊敬的嘉賓登台。01 緬懷亨利·基辛格與跨代友誼格雷厄姆:非常榮幸地歡迎我們的同事和朋友埃裡克·施密特再次回到甘迺迪青年論壇,共同探討亨利·基辛格、人工智慧和未來。正如你們在這裡看到的,這張埃裡克和亨利的照片,他們是最好的朋友,這段友誼發展得比較晚,但變得非常深厚。在這段友誼中,埃裡克慷慨地充當了95歲的亨利·基辛格的導師。亨利是在他講完一個講座的尾聲時,聽到德米斯·哈薩比斯(Demis Haseeb)開始談論人工智慧後,才發現人工智慧的,他決定需要學習相關知識。他給我打電話,我告訴他,亨利,別想了,你知道你沒有任何科學和技術的背景。我告訴他,事實上,你都分不清晶片和薯片(potato chip)的區別。他說,那倒是真的,但是埃裡克答應教我。所以我們非常高興他能來到這裡。他去年來過這裡。這可能已經成為一種年度傳統了。亨利在上周去世了,距今兩年了。施密特:所以他享年100歲,回想這一百年真是度過了多麼精彩的一生。格雷厄姆:他是一個對美國國家安全和世界產生巨大影響的人,也對許多許多人的生活產生了巨大影響,其中一些人曾是他的學生,一些人曾是他的輔導老師,還有許多其他人。因此,埃裡克已經介紹了。我想提醒大家幾件事。首先,我想說,埃裡克是那位首席執行長,他帶領Google從一個理念發展成為世界上的偉大公司之一,這真是一件了不起的事情。其次,他很早就將人工智慧(AI)確定為未來的一個領域,並且Google實際上買下了他能找到的全世界所有的頂尖人才,包括深度思維公司(DeepMind),該公司隨後為Google帶來了德米特裡·卡茨金(Demetri Katsim),他因在Google關於蛋白質方面的研究而獲得了去年的諾貝爾獎。穆斯塔法·蘇萊曼(Mustafa Suleiman),他現在負責微軟的消費者人工智慧業務,是這次收購的另一部分,還有許多許多其他人。關於埃裡克的另一件事,以及為什麼很高興他在這裡,是因為人們試圖理解所有關於人工智慧的說法。大多數聲音最大的人都在推銷自己的觀點。所以當我聽山姆·奧特曼(Sam Altman)或Anthropic的人,甚至現在的穆斯塔法在微軟談論時,他們必須談論他們公司的立場。格雷厄姆:但你拿的是我的書。他們必須談論他們公司的業務,談論他們的未來。他們正在追逐他們認為是前所未有的、彩虹盡頭最大的金礦。因此,很難判斷他們實際上的想法是什麼,以及他們正在說什麼。埃裡克在這個領域已經可以說是晉陞為政治家了,因為他曾在這個領域有重大的投入,但現在他退居幕後,尤其是在與亨利合作之後,他基本上是試圖儘可能清晰、儘可能如實地表達他的看法。因此,我認為他是關於正在發生的事情更有價值的線索來源,勝過聽取那些只顧推銷自己的人的大部分言論。我們先從亨利開始,然後我們將轉向人工智慧,之後我們將聽取現場觀眾的提問。格雷厄姆:埃裡克,你在亨利的追思會上精彩地談到了亨利對你個人生活產生了多大的影響,甚至影響了你提出的問題,那些你認為重要的事情。所以請多告訴我們一些亨利在這段關係中意味著什麼。另外,對於那些沒有機會認識他的人,他們如何才能領略到他的一點點魔力呢?施密特:當我第一次見到,謝謝你,格雷厄姆,一如既往,很高興來到這裡。我認識亨利的時候,他已經八十出頭了。通常情況下,八十出頭的男士會變得有點不太對勁。他有多麼睿智,給我留下了深刻的印象。所以我對自己說,他參加了第二次世界大戰。他獲得了銅星勛章,因為他們是猶太家庭,所以從德國移民或逃了出來。並且參加了戰爭,然後利用《退伍軍人權利法案》來到哈佛,完成了本科和研究生學習,最終成為了這裡的教授。我試圖弄明白,當他處於你這個年紀時,他一定非常聰明。並不是說當時那個建築就存在了。所以這是他在哈佛讀本科時的一段引文。引文是:在每個人的生命中,都會有一個時刻,他意識到,在他青年時代所有看似無限的可能性中,他實際上已經變成了一種現實。生活不再是一片廣闊的原野,四處是森林、高山和誘人的景象,而是變得很明顯,一個人穿過草地的旅程確實遵循了一條固定的道路。他再也不能往這邊或那邊去了,而是方向已經確定,界限也已劃定。這就是他寫下你這個年齡時所寫的內容。當他還是這裡的本科生時,他保持著學院有史以來最長本科論文的記錄。在他提交了關於康德和世界意義的本科論文後,他們制定了一條至今仍適用於你的新規定,即你的論文不得超過350頁。供您參考。這是真的。所以他顯然是一位非凡的博學天才。對於亨利,除了,我真的非常關心他之外,我自己的解釋是,看著他的家人,特別是他的父親——我們對此進行了很多討論——目睹納粹掌權時,德國周圍世界的毀滅。當他們逃離時,他看到了對他父親和父親思想的傷害。等等,亨利在戰後決定盡他所能,避免未來的戰爭。現在,你可以對他的所作所為提出異議或激烈爭論,但你不能否認他的目標不是我剛才所說的。資料支援所有歷史學家都同意這一點。你可以不同意具體的策略。但歸根結底,他尋求的是一個沒有第三次世界大戰的世界。並思考他在20世紀50年代和60年代所面臨的問題。他過去常跟我說起這個小組,他一直認為最有趣的政策問題都發生在小團體中,這是麻省理工學院、哈佛大學和蘭德公司之間的一次合作,他們在20世紀50年代初期發明了“相互確保摧毀”(mutuallyassureddestruction)。我說,我不知道,這個小組裡都有誰?奧本海默,拜託,所有最有名的人。所以他很幸運生在那個對的時代。他顯然是當時在世的最聰明的人之一。他很幸運在家人和自己被殺害之前離開了德國。他很幸運能夠享受到《退伍軍人法案》(GIBill)。他有很多有趣的故事。我最喜歡的一段是,有一天我告訴他,你得去看醫生。他年紀大了。他說,好的。我說,我想讓你去梅奧診所。我說,好的。他是個紐約人。而梅奧診所的人就像中西部人一樣。說話輕聲細語,和藹可親,不像那種很強勢的紐約人。他去了梅奧診所,回來後我說,我很喜歡那裡。我說,你為什麼會喜歡明尼蘇達州羅切斯特市中心的梅奧診所呢?他說,讓我想起了戰爭。我說,什麼?他說,他剛到這個國家的時候,是不會說英語的。他曾在一家製造剃鬚刷的工廠工作。正如所有人預料的那樣,他被徵兵入伍,然後上了戰場。他和一支來自威斯康星州的美籍團體一起。所以他將自己的身份歸於那個群體,他幾乎不會說英語,而且反正也沒人能聽懂他的英語,他將自己歸類到那個群體中。所以他有很多這樣感人至深的小故事。我有很多關於他是如何成為美國人,以及他當然成為美國公民的類似故事。接下來的歷史你們也都知道了。格雷厄姆:嗯,我會說他是一個了不起的人。我有幸在這裡選修了一門課程。作為一名學生。施密特:那是什麼樣的情景?格雷厄姆:1965年,天那,由亨利教導,此後便一直是他的隨行人員之一。我認為關於他最讓我印象深刻的是那種戰略敏銳度,即有能力將一個問題提升到其360度戰略挑戰的整體層面來審視,然後找到政策處理程序可以被影響的切入點。我曾為他的百歲誕辰寫過一些東西,當時每個人都被要求寫一點,一些東西,埃裡克寫了一些,我也寫了一些,我說,真正思考亨利,他並非是,如果你想想,他經常因其現實主義,或者無情的現實主義或赤裸的現實政治而受到批評。但如果你看看他所做的事情,那並非是僅僅為了一個國家的利益而推行的赤裸裸的現實政治。他始終致力於建構一個可行的秩序,以防止災難性的戰爭。他親身經歷了猶太大屠殺和歷史上最致命的戰爭。他預見到了一場可能真正將地球生命滅絕的核戰爭的前景。他身處於冷戰之中,那是當時美國和蘇聯之間所見過的最激烈的對抗。他一直試圖超越這一切,為美國找到一種生存之道。以及對美國而言。為了全人類同胞。所以我想這就是他如何以一種間接的方式觸及人工智慧問題,對他而言,這只是另一代在某種程度上類似的問題。施密特:嗯,他寫過關於康德和意義的含義的本科畢業論文,當他去聽德馬斯(Demas)講話時,他立刻就明白了。他立刻對自己說,這對人類存在意味著什麼?我們今天正在努力解決他在我們首次開始這項工作時20年前就預見到的問題。在人工智慧時代,做人意味著什麼?做孩子、做成年人、做領導者意味著什麼?這對經濟學意味著什麼?這對工作意味著什麼?所有這些。但他核心的論點是,這是一個史詩般的變革,意味著它類似於我們過去在科學革命等領域所經歷的各種重大變革,因為我們人類從未有過一個非人類的、但智力水平與我們相當或更高的競爭者。而我們人類將採取什麼行動是不可預測的。他過去常說,在魔法中會發生的情況是,當人們不理解某事時,他們要麼認為那是一種新的宗教,要麼就會拿起武器。武器。所以你會說,我們是要對人工智慧拿起武器,還是要把它變成一種新的宗教?我說,我希望是宗教。因為我想我能從宗教中受益。02 舊金山共識與技術奇點格雷厄姆:因此,在去年出版的、名為《創世紀》(Genesis)的書——那是埃裡克(Eric)、亨利(Henry)和克雷格·邦迪(CraigBundy)在他去世前所做的工作——其中有一段話明確是亨利寫的,書中說,引述,談到美國和中國,如果雙方都希望最大化其在人工智慧領域的單方面地位,那麼將出現人類前所未見的、由敵對軍事力量和情報機構之間的競爭所構成的局面。今天,在首個超級智能到來之前的幾周、幾個月和幾天裡,一場關乎生存的“安全困境”正等待著我們。所以你已經將這種超級智能視為一種超乎我們想像的生存威脅。請多說一些。施密特:我稱之為舊金山共識。我稱之為舊金山共識的原因是,舊金山的每個人都相信這一點。這可能為真,也可能不為真,但如果你去舊金山,相信除了他們通常的舊金山娛樂活動之外,他們都在做這件事。基本建構是,我們已經經歷了一場語言革命。你明白,語言聊天,GPT,這裡的每個人都知道那是什麼。現在正處於地平線上的智能體(Agents),這些智能體能讓你基本上實現任務自動化。理解智能體的關鍵在於它們可以被串聯起來。所以你可以做這個,然後做這個,再做這個,然後它們都被整合在一起。我為什麼談論智能體?因為我剛才描述了工作流程。而這正是企業所做的、大學所做的、政府所做的,等等等等。然後下一個是推理。現在,推理是人類更高階的功能,而推理革命才剛剛開始。截至今日,可以說適用於人工智慧的規模法則尚未放緩。規模法則基本上說明了,如果你投入更多的資料、更多的電力和更多的晶片,你就會接二連三地看到這種湧現行為。你可以看到這一點,例如,剛剛發佈的Gemini3擊敗了剛剛發佈的OpenAI5,後者擊敗了剛剛發佈的Claude4.5,後者擊敗了DeepSeek,因為他們反正都抄襲了,諸如此類。所以它……以防你們沒注意到,Jim和我三(指代Gemini3)來自Google。是的。我很高興地說,在下一次到來之前,我們重新掌握了主導權。這是非常、非常具有競爭性的。正在發生的是,這些大規模的資料中心建設,順便說一句,它們是美國經濟的關鍵驅動力之一,不僅幫助提升了我們的經濟,它們也在建構這類東西。與我全部的經驗相比,這是一個全新的世界。所以問題是,隨著時間的推移會發生什麼?所以你擁有語言、智能體和推理。嗯,這不是我們所做的嗎?我們做事、我們交流、我們執行動作。因此,舊金山的共識是,在某個時間點,這些東西會彙集在一起,你會得到所謂的遞迴式自我改進。而遞迴式自我改進是指它在自行學習。今天,這已不再屬實。今天,當你建立其中一個龐大的資料中心時,你知道它們是什麼樣子的,你必須告訴它要學習什麼。但人們相信,讓電腦編寫程序、生成數學猜想、發現新事實的能力正在到來,並且有大量證據表明它正在到來。看起來這非常非常近了。許多人相信,在未來一年內,將會出現用於設計的新數學、新的數學家,即人工智慧數學家,供人們喜愛。因此,我們作為一個行業,共同相信這很快就會發生。如果你問舊金山的人,他們會說兩年,這真的很快了。如果你問我把它加倍到四年,這真的很快,所以它正在發生,而且發生得非常快。我希望,亨利當然希望,我們希望它能以美國的價值觀和人類的價值觀來建構。在我看來,有一個臨界點,我們對此進行了大量討論,即某人需要站出來說,我們做得太過火了。這裡的危險太大了。我們不希望將該年齡(權限)賦予電腦,我們希望人類負責管理它。關於那個臨界點在那裡尚未達成一致,但我們的書花了大量時間討論那個點可能在那裡。另一個例子是,你發現電腦已自行決定獲取武器的存取權。這顯然是一個,就像每個人都會同意的那樣,不是一個好主意,人類擁有武器已經夠糟糕了。想像一下如果電腦擁有武器,以及其遵循的標準是什麼,你可以想到許多其他此類例子。根本上,是關於人類能動性的問題。我們也花了大量時間討論這對兒童的影響。我們正在對人類發展進行一項大規模實驗,向那些可能還沒有自我認同的年輕人(當然不是成年人),部署了這些極度令人上癮的系統,無論是在iPad上、手機上還是其他裝置上,他們很容易被操縱。那麼,一個最好的朋友是非人類的兒童意味著什麼呢,除了可能成為一個超級書呆子?但我不知道。這意味著什麼?我們沒有任何資料。我們不知道這對年輕的男孩和女孩意味著什麼,對他們的發展意味著什麼,對他們的人際交往能力意味著什麼。他們最終會反叛,然後說,我只愛人嗎?我討厭電腦嗎?孩子們會反叛的。我們只是不知道。格雷厄姆:那麼,你能切換到下一張幻燈片嗎?對不起,我有遙控器,但我把它留下了。你們能讓下一張幻燈片放出來嗎?好的,謝謝。所以在這裡,就是所謂的“基辛格挑戰”。這是亨利,1969年,尼克松在1968年當選,於1969年1月就任總統,任命時任哈佛大學教授的亨利為他的國家安全事務助理。正如你們在這裡看到的,亨利寫道,任何在60年代末上任的人,都無法不對和平所面臨的空前嚴峻的挑戰感到敬畏。然後到最後一點,沒有什麼比防止核戰爭的災難更重要的職責了。因此,隨著核武器的不斷發展,這成為了他在冷戰中面臨的一個決定性的挑戰,但正如引文所說,沒有比防止核戰爭更高的職責了。03 美中競爭與戰略分岔施密特:那麼,當我們試圖思考美國、中國和人工智慧時,這在當前如何適用呢?嗯,我想說,沒有什麼比維護人類的能動性和人類自由更重要的職責了,我們集體最為珍視的事物。我想這對你們所有即將畢業的人來說將是一個核心挑戰。你們所有人都將面臨這些問題,它們是複雜而微妙的。想像一下,如果網際網路是由中國發明,並且它沒有今天網際網路所具有的那種開放性,而是處於中國的網際網路之下。看起來中國正在推行與我所談論的不同戰略。在我最近一次訪問中國時,我的行事方式是,我向工程師提出技術性問題,因為他們不會對你撒謊,而我對其他所有人則不那麼確定。我最終弄清楚了中國人在做什麼,他們真的非常專注於將人工智慧應用於他們的業務。他們將比我們更具競爭力。我們將輸給中國,因為他們在每種產品中都驚人地採用了人工智慧,他們只是不懈努力,工作非常刻苦。這被稱為“996”,即晚上9點到,每周工作6天。順便說一句,在中國是非法的。在美國也是非法的,但實踐得卻不少。他們來了!它們似乎沒有像舊金山共識那樣專注於超級智能和我在描述的路徑,當然,這可能會改變。所以看來這兩者正在追求不同的道路。對於你們在研究生甚至本科生(考慮到這是哈佛)階段的人來說,一個問題是開始弄清楚當這些分岔的道路遇到障礙時會發生什麼,因為兩者都有。一個例子是,在美國,我們基本上沒有生產新的電力,因為提供電力非常困難。中國擁有無限的電力,這要歸功於他們在可再生能源等方面的巨大投資。他們在過去五年中建造了大約120吉瓦的新可再生能源,大概是這個數字。格雷厄姆:在中國,每天,每天,電網都新增了一個吉瓦的電力,全年都是如此。施密特:這相當驚人。在這裡,每一天,所以我的觀點是,順便說一句,舉個例子,一個核電站大約有多大,1.5吉瓦?再次使用這些數字,這就是中國正在發生的電力革命的規模。我們在美國建了多少這樣的電站?零!而且我們肯定正在因為這裡所有人都知道的原因,在可再生能源競賽中輸給中國。所以他們擁有很大的電力,我們沒有。我們有很多晶片,他們沒有。這為競爭奠定了基礎,而每方都會追求不同的道路。其中一個技術問題,有一種叫做“擴散”的東西,你所做的就是拿一個非常強大的模型,我們以目前的頂尖模型Gemini3為例,你向它提出一萬個問題,然後取其答案,系統就可以從這些問題和答案中學習到足以模仿的程度,而無需承擔進行大規模訓練的開銷。那個大模型。再次思考中國將要採取的戰略以及美國可行的戰略,可能非常重要。有趣的是,這兩個國家都依賴私營部門來完成這項工作。在亨利那個時代,你可能會認為會動用政府的力量。但事實上,我們的政府無法這麼快地推進,補償制度等等也是如此。事實證明,這對中國人來說可能也是如此。我不確定在安全層面這是否屬實,但我沒有在中國發現任何大型、奇怪的曼哈頓計畫式項目,儘管許多私營公司的人員都在為國家安全而努力。格雷厄姆:那麼就人工智慧這個總體話題,請告訴我們,花一兩分鐘時間,最讓您興奮的、在未來一、兩年、三年的可見範圍內,有那些積極的方面?施密特:嗯,第一個問題是,為什麼會出現這種瘋狂?這一定是泡沫,而且它將會破裂。不,這不是泡沫。恰恰相反,它被低估了,因為你正在從根本上實現業務的自動化。人們投入這筆巨額資金的原因是為了自動化他們業務中無聊的部分,或者他們認為重要的部分。無論是帳單、會計、產品設計、交付、庫存、管理還是其他任何方面,人們都在對其進行自動化。那裡有很多東西。想想醫學。想想氣候變化、工程學、新科學。這很非凡。格雷厄姆:那麼,在你看來,那些是你能預見到而我們其他人可能看不到的事情最讓你興奮呢?我們都能在自己的想像中看到我們對它的看法。然後我們會聽聽埃裡克怎麼說,是的。施密特:當我開始時,在我上高中的時候,我是個早期程式設計師,我喜歡編寫程式碼。當我上大學和研究生院時,我那時只想做那件事。我忽略了所有這些歷史方面和類似的事情。那時我就是書呆子的代名詞。而我在20多歲時所做的一切,那些讓我走到今天的位置的事情,現在已經完全自動化了。我所做的程式設計的方方面面,設計的方方面面,現在都由電腦完成了。我最近讓它為我編寫了一個完整的程序,我坐在那裡看著它生成類和互動的細節等等,心想天啊,我的時代結束了。我想,我從事程式設計已經55年了,親眼目睹一個從開始到結束的過程發生在自己眼前,而自己還活著,這真的非常深刻。我現在可以說,電腦科學不會消失,電腦科學家——至少在他們被取代之前——將負責監督這一切。但是,這些系統所能做到的程式碼生成能力是革命性的。這意味著你們每一個人口袋裡都有一台超級電腦和一個超級程式設計師。現在,這裡沒有人是恐怖分子,使用負面例子總是更容易。有很多,我用一個刻板印象來說,就是一些住在地下室的年輕人,他們的母親給他們送食物,然後他們就沉浸在相當於加密貨幣、4chan、偏執狂,隨便什麼,任你選擇的環境中。他們都有能力使用這些工具來建構極其強大的系統,網路攻擊,其他事情,隨便他們關心什麼。有一些證據表明,我認為是曼喬內(Mangione),那個殺了保險高管的傢伙,對這些東西很著迷。有些人正在研究他的一些著作,當然他現在在監獄裡,但表明他受到了某種影響。現在,我不是在證明因果關係。但這正是人性中最黑暗的一些角落的寫照。你把這類工具交給那些人。我們必須做好準備。現在,業界對此非常清楚,我們正在努力解決這個問題。防禦系統能夠正常運作這一點非常重要。順便說一句,人工智慧的最終解決方案是人工智慧對抗人工智慧,即好的對抗壞的。這就是它(解決之道)的全部意義所在。04 開源、閉源與未來戰略格雷厄姆:好的,請能放下一張幻燈片嗎?我想問一下您如何看待中美在人工智慧領域的競爭。如果幻燈片不夠清晰,我深表歉意,但它表明,如果我們看一系列指標,你會發現24年1月的表現差距比現在要大得多。我們如何解讀這一點,以及我們如何解讀可能的未來走向?施密特:所以圖表是正確的,但受此影響的人聲稱這種情況不會持續太久,因為推理革命需要大量的晶片以及舊金山那些人所發明的許多“魔法”(此處“魔法”指核心技術),並以此為代號,他們認為差距將會擴大。我自己的觀點是差距會擴大,但原因不同。我認為中國的主要關注點,如我所提到的,是將人工智慧嵌入到萬物之中,如智能烤面包機、汽車等等。他們的進展速度比我們快得多。我認為絕大多數人形機器人將由中國人工智慧提供動力和製造,原因很簡單,因為他們知道如何降低成本。他們的供應鏈令人難以置信。他們的成本控制,他們工作非常努力,諸如此類,所有這些都算在內。所以我的猜測是,差距可能會擴大,但這才是真正的問題,作為消費者,你最終會因為一個中國產品而不是美國產品獲得更好的體驗嗎?答案是,從裝配和光潔度來看,可能中國的產品會更好,這一點令人擔憂。格雷厄姆:所以讓我再深入探討一下這個問題。所以人們正在就半打左右的問題下注,而你已經對此進行了深入的思考。一個問題是,我們是會押注於電腦晶片、堆疊還是大腦?另一個問題是,我們是會押注於封閉系統還是開放系統?還有一個問題是,我們是會押注於在通用人工智慧(AGI)還是擴散模型和應用方面努力?施密特:所以如果你看看這個光譜,如果我看中國的那一部分,DeepSeek認為,200個有頭腦的人就可以擁有一個成本僅為OpenAI千分之一的推理機器。現在,來自同一領域還有其他六條小龍正在出現。所以這一點讓我感到擔憂。關於封閉與開放,如果我沒記錯我們上次談話的內容,你幾乎得出結論,開放最終會變成封閉,但我們所有的公司都是……大多數是封閉的。那關於這一點呢?第三,也許如果出現了這種通用人工智慧(AGI)的突破,所有其他事情都將不再重要。但如果擴散和應用已經在其他領域發揮作用,那麼這只會讓我們在競爭中再進一步。擴散指的是,我回顧一下,擴散本質上是指許多對(資料)進行學習,並像我們討論的那樣進行學習。我個人的看法是,我不太確定,但我認為,那些大公司最終不會發佈它們最大的模型。這樣做太危險了,所以它們會對其進行子集化。我就會這麼做。現在,我假設他們會做出那個決定。我認為最有趣的問題是開源與閉源。對於那些沒有這方面背景的人來說,開源,開放權重。開源是我幾十年來一直從事的工作,當你使用任何形式的電腦時,你使用的許多軟體都是由開源開發的,這意味著原始碼被公開發佈,人們會共同推動其發展。圍繞此有一個完整的運動,我就是其中一員。因此,在我看來,我堅定地支援開源。大型公司大多出於經濟原因而採用閉源模式。基本上,如果你從金融市場借款500億美元,他們希望收回本金,而你卻告訴他們,‘順便說一句,我們要免費發放所有模型’,你可能無法獲得回報,這可能不是一個很好的法律或財務策略。因此,美國的模式似乎演變成了閉源模式。奇怪的是,中國的模型是完全開放的,權重開放,原始碼開放。為什麼?我不知道。一種可能的解釋是,中國政府已經意識到他們在閉源競爭中處於劣勢。得不到硬體。而開源,因為它免費,可以實現技術的廣泛傳播。因此,開源和權重開放的後果之一是,地球上絕大多數人將使用中國的模型。為什麼?因為它們是免費的,而且大多數國家負擔不起計算能力和資料中心等等。他們只會免費獲取中國的模型並將其嵌入使用。現在,這算是一個問題嗎?絕對是。因為它帶有中國的價值觀、中國的培訓、中國的偏見等等。我們更希望它是美國的。我們將拭目以待。在美國有一些開放原始碼專案是我支援的,但它們無法從公開市場籌集到所需的100億美元才能達到它們的目標。所以它們是瑰寶,但尚未達到規模。我主張美國政府應該幫助資助它們。我主張慈善家應該幫助資助它們,但我真的不確定。格雷厄姆:好的,這非常有幫助。那麼最後一個問題,然後我們將聽取觀眾的提問。如果你要挑選兩到三個問題,供對人工智慧和地緣政治這一領域感興趣的研究生或本科生思考,你能否給出兩到三個問題,以便你下次來時,我們能請到一位對這些問題有所解答或部分解答的人來談談?施密特:所以有幾個,嗯,再次說明,我們這裡面對的是世界上一些最聰明的人。那麼第一個問題是,在人工智慧時代,成為人類意味著什麼?這是一個可以寫多篇博士論文的問題。所以基本上,研究歷史,研究哲學,研究人們如何工作,研究經濟學,然後弄清楚這項新技術將要做什麼。在我的行業裡,因為我們沒有上過這些課程,我們總是忽略這些事情,你們有能力以某些方式回答這些問題,如果我們偏離了軌道,也許可以用這些來提醒我們。第二個問題與中美之間的競爭有關。為什麼是中美?只有這兩個國家會產生影響。原因在於你需要巨額的資金和龐大的人口。儘管我很喜歡歐洲,但歐洲沒有組織起來,沒有足夠的人口,沒有足夠的資金來做到這一點。印度目前還沒有足夠的組織能力來做到這一點,儘管他們正在努力。而且大多數其他國家沒有足夠的資金,沒有足夠的人才,沒有合適的大學,等等。那麼第三個問題更多地與衝突有關。在一個擁有人工智慧的恐怖分子,以及擁有人工智慧的政府的世界裡,衝突會是什麼樣子?針對一個大國的恐怖襲擊會是什麼樣子?顯然,我不是在提倡或支援這種行為。這是一件可怕的事情。我們如何防範它?中國與美國的衝突也是如此。但俄羅斯與烏克蘭呢?歐洲與某方的衝突呢?試圖理解在人工智慧驅動一切的演算法戰爭中衝突是如何展開的,這是一個非常、非常富有成效的研究和新思想領域。這只是剛剛開始。格雷厄姆:這是大家在此期間可以著手研究的好課題。我們從這裡開始。請做個自我介紹並提一個簡短的問題。05 觀眾互動與深入問答觀眾:大家好,我叫特蕾莎。我是加拿大這所學校的二年級學生,正在上艾莉森教授的國家安全課。我們在一堂課上討論了網路安全,以及支撐美國國土安全部的大部分技術。都是由私營企業掌握的。那麼,您認為那種治理模式能真正幫助協調政府和私營公司,尤其是在發生類似人工智慧類型的緊急情況時?鑑於我們經常談論美中競爭,儘管存在技術和投資方面的競爭,但政府模式也存在巨大差異。那麼,您認為這兩種治理模式在那些方面會產生影響呢?在國土安全網路危機方面。施密特:嗯,首先,我認為在川普政府的領導下,我們不會看到對人工智慧進行太多監管。這一點相當明確。在中國,似乎是允許這些公司為所欲為。儘管他們有關於各種事務的法律,但他們似乎沒有在執行。所以看起來這是一場全面爆發的商業衝突。我最大的擔憂是網路攻擊。如果你能像我所見到的那樣編寫程式碼,而且我的世界裡的每家公司現在都將程式設計師和人工智慧程式設計師結合起來使用。這非常非同尋常。這發生得非常快。看看ClaudeCode,比如最新的它目前處於領先地位,來自Anthropic公司,還有其他一些正在趕上。當然,Gemini聲稱它有競爭對手,但目前來看,ClaudeCode略勝一籌。如果你會寫程式碼,你也可以編寫網路攻擊,因為目標函數很簡單。就是不斷地寫程式碼,直到你把某樣東西搞壞為止。如果你有足夠的硬體和足夠的能源,你就可以一直這樣做下去。我認為未來將會有更多更多的網路攻擊。而且,這不一定來自政府。也可能來自恐怖分子和邪惡組織。我認為為這種情況做好準備將是我的首要關切。觀眾:感謝您的到來。我是大衛·魏德曼。我是MPP2。您提到了當前閉源模型的強大之處。如果我說錯了,您可以告訴我。我認為開源模型比當前的閉源模型落後大約半代。將開源與閉源的對抗定性為美國與中國之間的問題,可能有點危險。我的擔憂是,您提到的那些矽谷人士正在尋求監管俘獲,這就是他們想圍繞開源模型散佈恐慌的原因。如果我們尋求對閉源模型實施禁令,在全球範圍內建立這項禁令需要做些什麼?施密特:我想我不同意您的問題,我很抱歉。我看不到美國在開源方面的領導地位,而我只看到了中國在開源方面的領導地位。我認為那是事實。所以我認為在開源方面不存在監管俘獲。而且我認為,再說一遍,在川普政府的領導下,你不太可能看到對閉源公司進行重大監管。但如果你理解我的意思,我認為閉源決策在很大程度上是由經濟驅動的,而非政策驅動的。從字面上講,你根本做不到,想想這些東西的成本。我們談論的是100億、200億美元。如果沒有這個(資金),你將如何籌集這筆錢?格雷厄姆:而且我認為,埃裡克,這回到了,如果我們正在列出我們要問的問題清單,我會補充一點:融資考慮因素如何影響戰略選擇?因為如果這僅僅是由於財務結構上的一個偶然巧合,那並不一定能反映國家利益。那將僅僅反映現有的資本市場。施密特:我認為重要的是要承認,美國擁有迄今為止世界上最非凡的資本市場金融體系。我認為,交易量的60%和價值美元的90%等都在美元計價。因此,那些非美元計價的國家確實畏懼這個金融市場的力量。我們在籌集資金的能力上看到了這一點。當我訪問中國時,與我的朋友交談時,這一點非常清楚。他們無法接觸到如此深度的金融市場。他們實際上拿不到資金。三年前相比,中國的風險投資融資額減少了五倍。現在有很多原因,不只是我們世界,也不只是美國。但如果沒有這種資本獲取管道,開發這些大型模型將非常困難。需要進行複雜的訓練。現在,你可以想像我所說的一切都會隨著底層演算法的改變而改變。有人正在研究新的、成本更低的非Transformer模型。許多人對人腦的能源效率與這些資料中心的成本進行了比較。相信我們的大腦很複雜,但它們並不耗費太多能源。可能又會出現一項突破,從而改變我們正在討論的這種計算模式。請說。觀眾:我叫法瓊·塞邁亞庫(FationSemayaku),是哈佛甘迺迪學院的MCMPA學生,來自阿爾巴尼亞。在人工智慧時代,您和基辛格博士描述了一個人工智慧系統開始為我們解釋現實的世界。如果人類的戰略判斷,那怕是微妙地,被機器生成的框架所塑造,那麼全球事務中的責任之錨又將落在何處?換句話說,當一個受人工智慧影響的決策產生現實世界的後果時,誰來承擔道德責任——是採取行動的人類、部署該系統並影響了認知的機構,還是演算法本身?而且,民主國家應該如何在這種模糊性成為地緣政治弱點之前重塑其制度?施密特:一個措辭非常精妙的觀點。所以我擔心民主的未來是不確定的,僅僅因為,或者舉一個美國的例子,我們相信言論自由,我當然支援美國絕對的言論自由,但我不支援增強的言論或演算法言論。那麼界限在那裡呢?如果我說了一些錯誤的話,然後演算法因為我的主張很離譜而決定將其廣泛傳播,這在民主社會中是恰當的嗎?你可以想像,我再說一遍,我不是在搞黨派之爭。我認為政治體系中的任何一方都可以利用這一點達到任何效果。現在生成人們深信不疑的虛假資訊的能力變得如此簡單,我希望答案是人類能夠接受更好的教育和批判性思維。但你可以想像,如果我是一個邪惡的人,我希望我不是,我坐下來開始向每個人灌輸我特定的、獨特的資訊,我可以通過無情的複製和重複來壓倒你對真相的信念。我們知道存在一種所謂的錨定偏見。如果你先聽到某個資訊,你就會以此為基準進行判斷,所以如果我設法先讓你知道大樓著火了,儘管它沒有著火,我也不是在犯罪。如果我能先讓你接收到這個資訊,你就會從那個點開始錨定。你看到了這裡的危險。這是非常真實的。我認為,回答你的問題是,每個民主國家都會面臨這個問題,而且我認為民主國家將根據文化價值觀和對威脅的理解做出不同的決定。你不會看到民主國家有一個統一的答案。觀眾:非常感謝您今晚蒞臨此處。我叫埃莉諾·克蘭(EleanorCrane),是貝爾福中心的研究員。所以我想問,首先,您能否就像您我這樣的普通人在人工智慧的非常長遠發展中的作用發表評論?我們的作用將變成什麼?而且,我們經常因為價值體系的原因,將中美之間的爭論定性為一種競爭。但從協作的角度來思考這件事是否有價值呢?也許更有趣的是,您提到歐洲可能有些雜亂無章,但他們也擁有巨大的實力和巨大的人才。比如法國的明斯特拉(Mistral)等等。在那方面與他們進行協作是否有所作為?施密特:所以有幾點評論。關於歐洲,我是Mistral的第一位投資者,所以我非常看好Mistral。Mistral無法像美國那樣籌集資金。他們有同樣的問題,並且正在努力尋找解決方案。關於美國和中國,因為亨利的原因,我花了大約五年時間研究中國的同業競爭。我曾認為有可能與中國走得更近。後來,通過他的工作以及其他人的努力,我發現中國人比我們更害怕與我們競爭或合作。舞蹈需要雙方配合,我認為這是極不可能的。我希望在你們有生之年能明白我們必須共存,但由於顯而易見的原因,這兩個體系極不可能成為最好的夥伴。我想談談關於人類在非常長遠來看有什麼用處這個問題。非常非常清楚的是,人類是社會性動物,希望和其他人在一起。同樣非常清楚的是,我們有一些必需品,比如醫療護理等等,將由人類提供。我認為,用一種比較粗略的方式來說,大多數其他職能都可以由電腦來完成。我們會允許它們這樣做嗎?那是你的研究要解決的問題,那條界限在那裡?我以前的例子是這樣的。那時候我在Google建構Waymo。所以這個思想實驗是,紐約市除了Waymo和競爭對手的自動駕駛汽車之外什麼都沒有。而Google和其他公司的工程師已經找到了完全最佳化交通的方法。那些街道是不會改變的。你擁有每條街道上絕對數學上真實的最高負載,而且它是無縫的。然後你有一個緊急情況,一個孕婦,隨便什麼,她必須去醫院,需要一個例外。車裡是否有例外按鈕,上面寫著你必須違反所有規則,因為發生了什麼事情?施密特:現在,如果車裡沒有例外按鈕,那就是電腦對人類的支配。而人類將會反抗。如果我回到鎬頭與宗教的對比,人類會反抗的。這將被視為政府的壓迫,在這種情況下,是紐約市的市長,無論你想用什麼比喻,以及電腦公司本身。如果系統另一方面能夠適應人類的需求,並說,啊,我們有實際的醫療緊急情況,而不是有人吸毒或者隨便什麼人在胡鬧,或者某個孩子在玩弄按鈕,它會進行推理,然後說,我的天那,我必須盡一切努力將這個人送到醫院。那麼它就會被更廣泛地接受。因此,這很大程度上取決於它是否能與我們的人類經驗和需求相結合。它會限制我們的自由,還是會增加自由?我已經得出了一個看法。我現在年紀大了,相信維護我們的自由,我們思想、行動、集會、聚集的自由,所有這些事情,真的,真的非常重要。如果它們侵犯了我們的自由,那麼它們必將遭到反抗。而我將領導這場鬥爭。觀眾:我叫伊爾瑪·阿夫羅斯,我來自印度。你在談話中提到了印度。我很幸運能成為埃裡森教授的學生,並向他學習。我的問題是如何將美國和印度結合起來。印度擁有一些非常優秀的人才。我們如何才能將我們兩國聯合起來,以創造一個民主蓬勃發展的世界,並且這對我們兩國都是一個雙贏的夥伴關係。施密特:我非常同意。我在印度待了很長時間,而且確實,由於印度的資訊技術人才(IATs)和人才質量,印度的天賦深度是非凡的。然而,計算能力的深度卻不是。去年,我們做了一個估算。對於10億人口的整個國家來說,只有大約1000個圖形處理器(GPU)。因此,我和其他人已經組織起來試圖解決這個問題。所以我對最近的貿易戰感到警惕,我認為那次貿易戰讓印度和美國都倒退了,這個問題需要得到解決。我不理解貿易戰,我的立場是這正在傷害我們。印度是我們的天然夥伴,它是一個民主國家。它是一個混亂的民主國家,但我們也是。在矽谷,與我共事的多數人都是。基本上是南亞血統,來自印度或一些其他國家。所以至少在矽谷,印度人正在蓬勃發展,我希望與他們實現最緊密的融合。格雷厄姆:謝謝。觀眾:請說。我叫喬希。我是甘迺迪學院的一名MPP2(二年級公共政策碩士)。埃裡克,您早些時候概述了兩種國家戰略:推進前沿技術或推行應用普及,但理想情況下您希望兩者兼顧。那麼,我們來談談在美國的採納情況。目前,企業採納的主要障礙有那些?這會因行業而異嗎?政府應該做些什麼來幫助解決這些障礙,如果有的話?施密特:政府通常在這方面做得不太好。業界認為存在一種叫做“技術積壓”(technologyoverhang)的現象,即我們——你們友好的業界——已經開發了比你們使用更多的工具。這是我們的看法,它是否屬實可以再討論。而且很多問題似乎是技術採納的準備度,以及大部分這些東西都是軟體,很抱歉這麼說,但大多數公司都沒有很好的人才,還有內部所需進行的變革。我個人相信,這項技術的採納問題只是一個暫時性的問題,隨著新首席執行長的上任和贏家的出現,美國非常高的競爭壓力將促成這種採納。在受監管的行業中,你很少看到技術被採納,因為監管被用作不創新的藉口。但在那些硬核的、具有創新性的行業中,我認為這個問題會得到解決。但總的來說,我的觀點是,我不希望政府做太多事情,因為我不認為那會有幫助。有幫助的將是讓每家企業都明白,如果它們想要賺錢(這是資本主義的願景),就需要更深入地使用人工智慧。請記住,你可以通過人工智慧來定位你的客戶、服務他們、瞭解他們、與他們交流等等。這其中有很多負面問題,例如,它可能導致公司裁員。有很多低端工作崗位被電腦取代的例子,這顯然是工作崗位流失。這是一個社會問題。但從採納的角度來看,答案只是時間問題。觀眾:我是電腦科學專業的一名三年級博士生,研究方向是人工智慧。我的問題是關於您剛才提到的中國對企業人工智慧自動化的強烈關注。我猜在矽谷,似乎每天都有新的初創公司出現。都是大型種子輪融資,目標是針對工作流程的某種自動化。我們也有那種朝九晚九到朝九晚六的潮流。您認為中國人工智慧自動化業務中有一個關鍵的區別點是什麼,是您認為美國需要迎頭趕上,或者至少是現在的矽谷初創公司需要追趕的方面嗎?施密特:您的博士課題是什麼?觀眾:我研究的是大型語言模型的推理能力。施密特:太棒了。觀眾:那麼您對通用人工智慧(AGI)的時間預期是多久?我估計大概需要六到七年。施密特:您看,這不是舊金山的共識,而是東海岸的共識。很好。我們拭目以待。您可能是對的。我認為那個……我想,這與這些夢想的宏偉有關。當我在中國時,我聽到的言論與在加利福尼亞聽到的不同。在加利福尼亞,人們說兩年內世界就會改變,沒人準備好,事情發展如此迅速,諸如此類,正是這種言論在驅動,而且是自我複製的,它是一種信仰體系,就像一種宗教。現在,它總是比夢想家們說的要花費更長的時間。我在中國聽不到這種說法。這有明顯的不同。施密特:舉個例子,關於推理能力,你知道Deepseek在R3上做了什麼。他們做了一項了不起的工作。他們發明了一種新的有監督的微調方法。真是非常非常聰明的做法。你只是在國家層面上聽不到這種聲音。順便說一句,DeepSeek是中國的國家級佼佼者。他們現在確實,他們已名列著名公司名單之列。他們正在獲得巨額資金。上次我和他們會面時,他們說,我們已經解決了我們的硬體問題,而“硬體問題”的暗語就是政府。他們只是會給他們大量的晶片。沒錯。歡迎來到一個共產主義國家。格雷厄姆:好的。那麼,這位女士,請到這個頻道來。觀眾:你好,非常感謝你的到來。我是索尼婭。我是工商管理碩士和政策學院的雙學位學生。這可能是一個稍微更離奇和開放性的問題,但你談了很多關於成為人類意味著什麼,我認為其中很大一部分就是意識。我很好奇,當我想到意識理論時——這些理論顯然定義得非常模糊不清——人工智慧正越來越多地觸及這些理論的邊界。因此,如果說有什麼需要,那就是我們需要一場關於我們如何思考意識的革命。施密特:但我很想知道,您如何看待人工智慧中的意識,以及您是否認為人工智慧有可能已經或將會變得有意識,那會是什麼樣子,以及在這種情況下,模型的福祉會是什麼樣子?讓我問,讓我問你一個簡單的問題:我們假設,我將把格雷厄姆算作有意識,作為回報,他似乎有意識,作為回報,格雷厄姆會把它給我。為了論證的目的,電腦就在桌子上,我們問電腦:“你有意識嗎?”它回答:“是的。”那麼,你這位哈佛聰明的研究生,請想出一系列問題。它能正確回答所有問題。我們怎麼知道的?你怎麼能知道這台電腦是有意識的?你如何理解它的內部推理狀態?現在,你可以探查它推理工作的方式,人們現在正在這麼做。他們所做的是觀察權重結構中所謂的超級節點,以觀察它是如何實際做出這個決定的。所以也許你可以通過檢查來發現意識,但這只是推測。所以我與一些神經科學家坐下來,因為我不知道這個問題的答案。我問,意識是如何演化的?他們的理論,也僅僅是一個理論,是當異構系統協同工作並不斷發展,並對彼此產生感知時,意識就會演化,人類意識之所以演化,是因為我們需要理解我們是某種存在,本我(id)、自我認同(identity)等的產生,對於控制這個系統是必要的。現在,這沒有辦法證明。所以答案是,我不知道。但這向在場的各位提出了第四個需要思考的問題。這裡有兩個問題。第一個,它是如何運作的?第二個,你如何驗證它?格雷厄姆:我不幸地肩負著宣佈我們已到最後時刻的責任了。你想再待五分鐘嗎?再待五分鐘。我答應過你的,我答應過給你安排日程的人,我會讓你脫身的。所以請。簡短的問題和簡短的回答。觀眾:好的,謝謝你,埃裡克。我是來自哈佛商學院的索恩,一名二年級學生,在攻讀工商管理碩士之前,我也有國際關係背景。您是否確信需要一個國際原子能機構(IAEA)等級的國際人工智慧機構?所以我的問題是,美國國務院、五角大樓以及類似機構需要如何調整自身,為即將到來的超級智能時代做好準備?我的第二個稍微帶點風險的問題是,如果您今年夏天或冬天正在尋找人來協助您研究這個課題,我將非常樂意效勞。施密特:我喜歡有勇氣的人。那麼關於國際能源署(IEA)的問題。有一群非常親近我的人得出的結論是,我正在回答的這些問題的唯一解決方案是建立一個相當於歐洲核子研究中心(CERN)的機構。這個想法是,我們所有人,包括中國,包括每個人,都聚集在一起,把所有資源都投入其中,彙集所有頂尖的頭腦,共同致力於此事,從而建立一個偉大的未來,因為這對人類的好處是如此巨大。開始考慮消除所有疾病,解決我們面臨的真正棘手的問題。我們有梅根在這裡,她專精於能源問題,以及所有這類事情。我認為這可能相當……你可能會說,這可能相當不可能發生。然後下一組人說,那麼我們需要一個國際原子能機構(IEA),它本質上是一個針對核能的強制性檢查小組。進入這種情景,你需要去,這個小組將訪問每個國家每家公司的資料中心和演算法。現在,請記住,維也納小組是在經過15年的談判(包括像亨利這樣的人)以及在廣島和長崎投下兩枚原子彈之後才發生的,這兩次事件的恐怖性我們都可以同意。我們還沒有遇到過這樣的例子。我知道有些人會說以下這些話,他們說這話並非出於惡意。他們說,我們不會,我們將發生一個事件,迫使實行這個國際原子能機構的事情,而我們希望那是一個車諾比等級的事件。我說,那意味著什麼?他們說,沒有那麼多人死亡,與核攻擊相比。因此,在我所處的圈子裡,存在一種與此一致的思維傾向。但我認為,首先,我認為沒有人知道。而且,在出現真正的危機之前,各國不太可能容忍這種情況。我以前說過,在氣候被破壞、地球融化、海平面上升的20年後,將會召開一個所有大國齊聚的會議,人們會在會上說,我們真的把事情搞砸了,現在我們必須修復它。所以我想,對於一個全球性的挑戰和解決方案來說,是存在先例的,但過程非常混亂。它不是理性地完成的。它不是像你我雙方達成一致那樣。必須存在某種危機和某種政治動態,而且情況可能會相當嚴峻。格雷厄姆:讓我們為下一代創造一個機會。讓我們趕緊把這件事辦完。要問那三個問題嗎?只問你的簡短問題。我們請埃裡克來總結陳詞。觀眾:您好,感謝您抽出額外的時間。我叫凱文。我是法學院二年級的學生。我的問題是關於自動化和就業的。幾個月前,薩姆·奧特曼接受採訪時說,他暗示如果某件事可以被自動化,那麼它可能從一開始就不是一份真正的工作。我想聽聽您對這個說法的看法,以及您是否同意這個前提,即如果某件事可以被自動化,它是否應該被自動化?另外一個相關的問題是,如果您不同意,我們社會有那些方式可以決定我們應該自動化什麼、不應該自動化什麼?格雷厄姆:好的。請講,菲茨。觀眾:晚上好。我叫格里斯亞姆。我是中級職員,公共事務碩士。而且我曾是Google的員工,所以很高興見到您。我的問題是關於演算法外交的。就像基辛格博士過去常說的那樣,建設性的模糊性和人類的停頓是絕對必要的,但是當人工智慧是二元的,我們是否正走向一個衝突升級在計算上變得不可能的世界?這是否會推動一種我們可以更加努力推進的新演算法外交?觀眾:謝謝。我叫卡尼什。我來自哈佛商學院。我的問題是關於倫理超級智能的。首先,你為什麼不相信如果美國開發出超級智能,其他國家(比如中國Deepseek上做的那樣)也會跟隨並能夠複製它?其次,如果我們試圖為其注入倫理,那麼如果其他人提出了一個不講倫理的超級智能,它難道不會比美國試圖開發的受約束的超級智能模型更自由、能力更強嗎?施密特:抱歉,你剛才對你的問題再說一遍好嗎?觀眾:我想問你對薩姆·奧特曼(Sam Altman)引言的看法。謝謝。施密特:是的。處於這個層面的人們常常忘記的一點是,人的尊嚴包含著目標。而大量的職業為許許多多的人提供了目標。這些職位的消失是一場巨大的危機,不是在財務上,而是在情感上,在意義感方面。因此,為了讓我們度過難關,我們將不得不解決這個問題,我們將不得不真正做正確的事情。而正確的事情將是更好的工具等等的某種組合。我對就業問題沒有那麼擔心,因為我們正在製造更少的人類,而我認為這是一場重大的危機。總的來說,你們這一代人生的孩子比我這一代少,而我這一代人生的孩子又比我父母那一代少,以此類推。我們需要更多的人口。部分原因是我是個商人,所以你需要更多的顧客。但重點是我們現在需要更多的人力。如果我們的人力減少,那麼就會出現空缺的職位,沒有人來填補它們。人工智慧可以幫助那些尚未準備好從事某項工作的人,讓他們做好準備。觀眾:你對未來Google員工(Googler)的寄語是什麼?不,是演算法、外交、演算法外交和計算。施密特:在你問題的預設前提中,你將演算法描述為二元的。如果你想到1971年基辛格提出“戰略模糊”時,你認為一兩年內電腦能否發明“戰略外交模糊”,考慮到它已經被實踐過了?我認為答案是肯定的。我認為演算法正變得越來越智能,只要這是一個過去就存在的概念,它可能就能想出應用它的方法。我不同意你的看法,認為它像你的問題所暗示的那樣是二元的。超級智能。我認為是一樣的。回答,某種形式的超級智能將會出現。我自己的觀點,這可能與共識不同,是我們將會開發出傑出的人工智慧物理學家、傑出的人工智慧生物學家、傑出的人工智慧化學家、傑出的人工智慧作家、傑出的人工智慧歷史學家。但是那個概念,以及將驅動它們的系統,如果你在1902年是愛因斯坦,擁有當時可用的數學知識量,你是否會有那種智慧去利用今天的演算法發明狹義相對論,這一點也遠非顯而易見。在業界有一種觀點認為,這是下一個真正難題。對此有各種各樣的理論。一個答案是你可以只做重複。你可以不斷地提問,就像猴子敲擊鍵盤那種方式,最終你會做到的。另一種方式是你可以將最佳化函數設定為好奇心,如果你等待足夠長的時間,它就會發現狹義相對論。但愛因斯坦不是這麼做的。愛因斯坦在17、18歲時,點著燈,拿著他的小筆和紙,想出了這個理論。我們還沒有達到那個階段。我個人的看法是,那將是一個非常難以踰越的界限。換句話說,我們將達到超人行為的水平,這與超級智能不同,而後者,我會說愛因斯坦以及其他一些人已經實現了。等等,他們確實做到了。格雷厄姆,能和您在一起是我的榮幸。格雷厄姆:非常高興您能來這裡,我們期待您再次光臨。讓我們一起說聲謝謝吧。感謝大家。 (藍血研究)