#AI戰略
前Google CEO施密特:我們將輸給中國,他們把AI用在了所有產品裡
2025 年12月2日,前GoogleCEO埃裡克·施密特與哈佛教授格雷厄姆·艾利森在哈佛甘迺迪學院進行了一場對話,深刻揭示了人工智慧對人類社會、地緣政治和個人自由的顛覆性影響。1. AI進化與“超級智能”的臨近。施密特指出,AI正經歷從語言模型到“智能體”(任務自動化),再到“推理”(更高階人類功能)的演進,這被稱為“舊金山共識”。他認為,這種遞迴式自我改進的“超級智能”(AGI)突破迫在眉睫,可能在兩到四年內實現。他強調,AI的顛覆性被嚴重低估,它不是泡沫,而是對商業、醫學和科學的根本性自動化。2. 中美AI戰略的二元分岔。中美兩國在AI領域的競爭呈現出不同的戰略路徑:•美國(矽谷):專注於追求AGI的突破和閉源模型,這由巨大的資本投入和財務回報需求驅動。•中國:專注於將AI廣泛應用於“萬物”(智能產品、業務流程)和開源生態。施密特警告,由於中國在應用層面的不懈努力,美國在AI應用普及上正“輸給中國”。他認為,中國政府可能通過開源策略,利用免費模型實現技術的廣泛傳播,從而輸出其價值觀和偏見。3. 核心挑戰:人類能動性與自由。對話的核心議題是維護人類能動性(Human Agency)。施密特引用了自動駕駛汽車的“例外按鈕”思想實驗:如果系統完全最佳化交通,但無法為緊急情況提供例外,這將是“電腦對人類的支配”,人類必將反抗。他認為,AI的普及必須與人類經驗和需求相結合,否則將侵犯人類自由。4. 民主與真相的危機。AI對民主社會構成嚴峻威脅。它能輕易生成令人信服的虛假資訊,並利用人類的“錨定偏見”,通過無情的複製和重複來壓倒對真相的信念。施密特擔心,這種“增強的言論”或“演算法言論”將使民主的未來充滿不確定性。5. 工作與尊嚴的社會危機。施密特認為,儘管AI自動化了大量低端工作,但工作崗位的流失不僅是財務問題,更是一場情感和意義感的危機,因為人類的尊嚴與目標緊密相連。他呼籲社會必須解決這一問題,以更好地工具和新的社會結構來應對。對話全文如下:主持人:晚上好,歡迎來到政治學院的約翰·F·甘迺迪青年論壇。今晚,我們聚集在可以說是人類歷史上最關鍵的時刻之一。人工智慧已從一個未來主義的概念演變為我們日常生活中不可或缺的一部分,它在悄然但深刻地重塑著經濟、戰爭乃至人類社會的結構本身。自核時代的黎明以來,全球穩定首次可能不僅僅取決於軍事實力或經濟權重,還取決於為在這項新技術智能領域中爭奪競爭優勢而展開的角逐。總而言之,人工智慧體現了我們以前從未見過的事物。知識產生方式的轉變,決策方式的轉變,以及最終人類看待自身在世界中地位的轉變。20年後的社會會是什麼樣子?更重要的是,人工智慧將如何塑造它?現在,為了評論這些觀點,我很高興地向大家介紹今晚的演講嘉賓。埃裡克·施密特曾在2001年至2011年間擔任Google的董事長兼首席執行長。今天,他擔任相對空間公司(Relativity Space)的主席兼首席執行長。他是“創新實業”(Innovation Endeavors)的創始合夥人,並且是美國乃至全球人工智慧和國家安全領域的主要聲音。格雷厄姆·艾利森是哈佛大學甘迺迪學院的道格拉斯·迪倫政府學教授,他曾擔任該學院創始院長兼貝爾弗中心(Belfare Center)科學與國際事務主任。他還曾在第一屆克林頓政府中擔任國防部長助理,並榮獲國防部傑出公共服務獎章。現在,話不多說,請大家與我一起開啟今晚的討論,並歡迎我們尊敬的嘉賓登台。01 緬懷亨利·基辛格與跨代友誼格雷厄姆:非常榮幸地歡迎我們的同事和朋友埃裡克·施密特再次回到甘迺迪青年論壇,共同探討亨利·基辛格、人工智慧和未來。正如你們在這裡看到的,這張埃裡克和亨利的照片,他們是最好的朋友,這段友誼發展得比較晚,但變得非常深厚。在這段友誼中,埃裡克慷慨地充當了95歲的亨利·基辛格的導師。亨利是在他講完一個講座的尾聲時,聽到德米斯·哈薩比斯(Demis Haseeb)開始談論人工智慧後,才發現人工智慧的,他決定需要學習相關知識。他給我打電話,我告訴他,亨利,別想了,你知道你沒有任何科學和技術的背景。我告訴他,事實上,你都分不清晶片和薯片(potato chip)的區別。他說,那倒是真的,但是埃裡克答應教我。所以我們非常高興他能來到這裡。他去年來過這裡。這可能已經成為一種年度傳統了。亨利在上周去世了,距今兩年了。施密特:所以他享年100歲,回想這一百年真是度過了多麼精彩的一生。格雷厄姆:他是一個對美國國家安全和世界產生巨大影響的人,也對許多許多人的生活產生了巨大影響,其中一些人曾是他的學生,一些人曾是他的輔導老師,還有許多其他人。因此,埃裡克已經介紹了。我想提醒大家幾件事。首先,我想說,埃裡克是那位首席執行長,他帶領Google從一個理念發展成為世界上的偉大公司之一,這真是一件了不起的事情。其次,他很早就將人工智慧(AI)確定為未來的一個領域,並且Google實際上買下了他能找到的全世界所有的頂尖人才,包括深度思維公司(DeepMind),該公司隨後為Google帶來了德米特裡·卡茨金(Demetri Katsim),他因在Google關於蛋白質方面的研究而獲得了去年的諾貝爾獎。穆斯塔法·蘇萊曼(Mustafa Suleiman),他現在負責微軟的消費者人工智慧業務,是這次收購的另一部分,還有許多許多其他人。關於埃裡克的另一件事,以及為什麼很高興他在這裡,是因為人們試圖理解所有關於人工智慧的說法。大多數聲音最大的人都在推銷自己的觀點。所以當我聽山姆·奧特曼(Sam Altman)或Anthropic的人,甚至現在的穆斯塔法在微軟談論時,他們必須談論他們公司的立場。格雷厄姆:但你拿的是我的書。他們必須談論他們公司的業務,談論他們的未來。他們正在追逐他們認為是前所未有的、彩虹盡頭最大的金礦。因此,很難判斷他們實際上的想法是什麼,以及他們正在說什麼。埃裡克在這個領域已經可以說是晉陞為政治家了,因為他曾在這個領域有重大的投入,但現在他退居幕後,尤其是在與亨利合作之後,他基本上是試圖儘可能清晰、儘可能如實地表達他的看法。因此,我認為他是關於正在發生的事情更有價值的線索來源,勝過聽取那些只顧推銷自己的人的大部分言論。我們先從亨利開始,然後我們將轉向人工智慧,之後我們將聽取現場觀眾的提問。格雷厄姆:埃裡克,你在亨利的追思會上精彩地談到了亨利對你個人生活產生了多大的影響,甚至影響了你提出的問題,那些你認為重要的事情。所以請多告訴我們一些亨利在這段關係中意味著什麼。另外,對於那些沒有機會認識他的人,他們如何才能領略到他的一點點魔力呢?施密特:當我第一次見到,謝謝你,格雷厄姆,一如既往,很高興來到這裡。我認識亨利的時候,他已經八十出頭了。通常情況下,八十出頭的男士會變得有點不太對勁。他有多麼睿智,給我留下了深刻的印象。所以我對自己說,他參加了第二次世界大戰。他獲得了銅星勛章,因為他們是猶太家庭,所以從德國移民或逃了出來。並且參加了戰爭,然後利用《退伍軍人權利法案》來到哈佛,完成了本科和研究生學習,最終成為了這裡的教授。我試圖弄明白,當他處於你這個年紀時,他一定非常聰明。並不是說當時那個建築就存在了。所以這是他在哈佛讀本科時的一段引文。引文是:在每個人的生命中,都會有一個時刻,他意識到,在他青年時代所有看似無限的可能性中,他實際上已經變成了一種現實。生活不再是一片廣闊的原野,四處是森林、高山和誘人的景象,而是變得很明顯,一個人穿過草地的旅程確實遵循了一條固定的道路。他再也不能往這邊或那邊去了,而是方向已經確定,界限也已劃定。這就是他寫下你這個年齡時所寫的內容。當他還是這裡的本科生時,他保持著學院有史以來最長本科論文的記錄。在他提交了關於康德和世界意義的本科論文後,他們制定了一條至今仍適用於你的新規定,即你的論文不得超過350頁。供您參考。這是真的。所以他顯然是一位非凡的博學天才。對於亨利,除了,我真的非常關心他之外,我自己的解釋是,看著他的家人,特別是他的父親——我們對此進行了很多討論——目睹納粹掌權時,德國周圍世界的毀滅。當他們逃離時,他看到了對他父親和父親思想的傷害。等等,亨利在戰後決定盡他所能,避免未來的戰爭。現在,你可以對他的所作所為提出異議或激烈爭論,但你不能否認他的目標不是我剛才所說的。資料支援所有歷史學家都同意這一點。你可以不同意具體的策略。但歸根結底,他尋求的是一個沒有第三次世界大戰的世界。並思考他在20世紀50年代和60年代所面臨的問題。他過去常跟我說起這個小組,他一直認為最有趣的政策問題都發生在小團體中,這是麻省理工學院、哈佛大學和蘭德公司之間的一次合作,他們在20世紀50年代初期發明了“相互確保摧毀”(mutuallyassureddestruction)。我說,我不知道,這個小組裡都有誰?奧本海默,拜託,所有最有名的人。所以他很幸運生在那個對的時代。他顯然是當時在世的最聰明的人之一。他很幸運在家人和自己被殺害之前離開了德國。他很幸運能夠享受到《退伍軍人法案》(GIBill)。他有很多有趣的故事。我最喜歡的一段是,有一天我告訴他,你得去看醫生。他年紀大了。他說,好的。我說,我想讓你去梅奧診所。我說,好的。他是個紐約人。而梅奧診所的人就像中西部人一樣。說話輕聲細語,和藹可親,不像那種很強勢的紐約人。他去了梅奧診所,回來後我說,我很喜歡那裡。我說,你為什麼會喜歡明尼蘇達州羅切斯特市中心的梅奧診所呢?他說,讓我想起了戰爭。我說,什麼?他說,他剛到這個國家的時候,是不會說英語的。他曾在一家製造剃鬚刷的工廠工作。正如所有人預料的那樣,他被徵兵入伍,然後上了戰場。他和一支來自威斯康星州的美籍團體一起。所以他將自己的身份歸於那個群體,他幾乎不會說英語,而且反正也沒人能聽懂他的英語,他將自己歸類到那個群體中。所以他有很多這樣感人至深的小故事。我有很多關於他是如何成為美國人,以及他當然成為美國公民的類似故事。接下來的歷史你們也都知道了。格雷厄姆:嗯,我會說他是一個了不起的人。我有幸在這裡選修了一門課程。作為一名學生。施密特:那是什麼樣的情景?格雷厄姆:1965年,天那,由亨利教導,此後便一直是他的隨行人員之一。我認為關於他最讓我印象深刻的是那種戰略敏銳度,即有能力將一個問題提升到其360度戰略挑戰的整體層面來審視,然後找到政策處理程序可以被影響的切入點。我曾為他的百歲誕辰寫過一些東西,當時每個人都被要求寫一點,一些東西,埃裡克寫了一些,我也寫了一些,我說,真正思考亨利,他並非是,如果你想想,他經常因其現實主義,或者無情的現實主義或赤裸的現實政治而受到批評。但如果你看看他所做的事情,那並非是僅僅為了一個國家的利益而推行的赤裸裸的現實政治。他始終致力於建構一個可行的秩序,以防止災難性的戰爭。他親身經歷了猶太大屠殺和歷史上最致命的戰爭。他預見到了一場可能真正將地球生命滅絕的核戰爭的前景。他身處於冷戰之中,那是當時美國和蘇聯之間所見過的最激烈的對抗。他一直試圖超越這一切,為美國找到一種生存之道。以及對美國而言。為了全人類同胞。所以我想這就是他如何以一種間接的方式觸及人工智慧問題,對他而言,這只是另一代在某種程度上類似的問題。施密特:嗯,他寫過關於康德和意義的含義的本科畢業論文,當他去聽德馬斯(Demas)講話時,他立刻就明白了。他立刻對自己說,這對人類存在意味著什麼?我們今天正在努力解決他在我們首次開始這項工作時20年前就預見到的問題。在人工智慧時代,做人意味著什麼?做孩子、做成年人、做領導者意味著什麼?這對經濟學意味著什麼?這對工作意味著什麼?所有這些。但他核心的論點是,這是一個史詩般的變革,意味著它類似於我們過去在科學革命等領域所經歷的各種重大變革,因為我們人類從未有過一個非人類的、但智力水平與我們相當或更高的競爭者。而我們人類將採取什麼行動是不可預測的。他過去常說,在魔法中會發生的情況是,當人們不理解某事時,他們要麼認為那是一種新的宗教,要麼就會拿起武器。武器。所以你會說,我們是要對人工智慧拿起武器,還是要把它變成一種新的宗教?我說,我希望是宗教。因為我想我能從宗教中受益。02 舊金山共識與技術奇點格雷厄姆:因此,在去年出版的、名為《創世紀》(Genesis)的書——那是埃裡克(Eric)、亨利(Henry)和克雷格·邦迪(CraigBundy)在他去世前所做的工作——其中有一段話明確是亨利寫的,書中說,引述,談到美國和中國,如果雙方都希望最大化其在人工智慧領域的單方面地位,那麼將出現人類前所未見的、由敵對軍事力量和情報機構之間的競爭所構成的局面。今天,在首個超級智能到來之前的幾周、幾個月和幾天裡,一場關乎生存的“安全困境”正等待著我們。所以你已經將這種超級智能視為一種超乎我們想像的生存威脅。請多說一些。施密特:我稱之為舊金山共識。我稱之為舊金山共識的原因是,舊金山的每個人都相信這一點。這可能為真,也可能不為真,但如果你去舊金山,相信除了他們通常的舊金山娛樂活動之外,他們都在做這件事。基本建構是,我們已經經歷了一場語言革命。你明白,語言聊天,GPT,這裡的每個人都知道那是什麼。現在正處於地平線上的智能體(Agents),這些智能體能讓你基本上實現任務自動化。理解智能體的關鍵在於它們可以被串聯起來。所以你可以做這個,然後做這個,再做這個,然後它們都被整合在一起。我為什麼談論智能體?因為我剛才描述了工作流程。而這正是企業所做的、大學所做的、政府所做的,等等等等。然後下一個是推理。現在,推理是人類更高階的功能,而推理革命才剛剛開始。截至今日,可以說適用於人工智慧的規模法則尚未放緩。規模法則基本上說明了,如果你投入更多的資料、更多的電力和更多的晶片,你就會接二連三地看到這種湧現行為。你可以看到這一點,例如,剛剛發佈的Gemini3擊敗了剛剛發佈的OpenAI5,後者擊敗了剛剛發佈的Claude4.5,後者擊敗了DeepSeek,因為他們反正都抄襲了,諸如此類。所以它……以防你們沒注意到,Jim和我三(指代Gemini3)來自Google。是的。我很高興地說,在下一次到來之前,我們重新掌握了主導權。這是非常、非常具有競爭性的。正在發生的是,這些大規模的資料中心建設,順便說一句,它們是美國經濟的關鍵驅動力之一,不僅幫助提升了我們的經濟,它們也在建構這類東西。與我全部的經驗相比,這是一個全新的世界。所以問題是,隨著時間的推移會發生什麼?所以你擁有語言、智能體和推理。嗯,這不是我們所做的嗎?我們做事、我們交流、我們執行動作。因此,舊金山的共識是,在某個時間點,這些東西會彙集在一起,你會得到所謂的遞迴式自我改進。而遞迴式自我改進是指它在自行學習。今天,這已不再屬實。今天,當你建立其中一個龐大的資料中心時,你知道它們是什麼樣子的,你必須告訴它要學習什麼。但人們相信,讓電腦編寫程序、生成數學猜想、發現新事實的能力正在到來,並且有大量證據表明它正在到來。看起來這非常非常近了。許多人相信,在未來一年內,將會出現用於設計的新數學、新的數學家,即人工智慧數學家,供人們喜愛。因此,我們作為一個行業,共同相信這很快就會發生。如果你問舊金山的人,他們會說兩年,這真的很快了。如果你問我把它加倍到四年,這真的很快,所以它正在發生,而且發生得非常快。我希望,亨利當然希望,我們希望它能以美國的價值觀和人類的價值觀來建構。在我看來,有一個臨界點,我們對此進行了大量討論,即某人需要站出來說,我們做得太過火了。這裡的危險太大了。我們不希望將該年齡(權限)賦予電腦,我們希望人類負責管理它。關於那個臨界點在那裡尚未達成一致,但我們的書花了大量時間討論那個點可能在那裡。另一個例子是,你發現電腦已自行決定獲取武器的存取權。這顯然是一個,就像每個人都會同意的那樣,不是一個好主意,人類擁有武器已經夠糟糕了。想像一下如果電腦擁有武器,以及其遵循的標準是什麼,你可以想到許多其他此類例子。根本上,是關於人類能動性的問題。我們也花了大量時間討論這對兒童的影響。我們正在對人類發展進行一項大規模實驗,向那些可能還沒有自我認同的年輕人(當然不是成年人),部署了這些極度令人上癮的系統,無論是在iPad上、手機上還是其他裝置上,他們很容易被操縱。那麼,一個最好的朋友是非人類的兒童意味著什麼呢,除了可能成為一個超級書呆子?但我不知道。這意味著什麼?我們沒有任何資料。我們不知道這對年輕的男孩和女孩意味著什麼,對他們的發展意味著什麼,對他們的人際交往能力意味著什麼。他們最終會反叛,然後說,我只愛人嗎?我討厭電腦嗎?孩子們會反叛的。我們只是不知道。格雷厄姆:那麼,你能切換到下一張幻燈片嗎?對不起,我有遙控器,但我把它留下了。你們能讓下一張幻燈片放出來嗎?好的,謝謝。所以在這裡,就是所謂的“基辛格挑戰”。這是亨利,1969年,尼克松在1968年當選,於1969年1月就任總統,任命時任哈佛大學教授的亨利為他的國家安全事務助理。正如你們在這裡看到的,亨利寫道,任何在60年代末上任的人,都無法不對和平所面臨的空前嚴峻的挑戰感到敬畏。然後到最後一點,沒有什麼比防止核戰爭的災難更重要的職責了。因此,隨著核武器的不斷發展,這成為了他在冷戰中面臨的一個決定性的挑戰,但正如引文所說,沒有比防止核戰爭更高的職責了。03 美中競爭與戰略分岔施密特:那麼,當我們試圖思考美國、中國和人工智慧時,這在當前如何適用呢?嗯,我想說,沒有什麼比維護人類的能動性和人類自由更重要的職責了,我們集體最為珍視的事物。我想這對你們所有即將畢業的人來說將是一個核心挑戰。你們所有人都將面臨這些問題,它們是複雜而微妙的。想像一下,如果網際網路是由中國發明,並且它沒有今天網際網路所具有的那種開放性,而是處於中國的網際網路之下。看起來中國正在推行與我所談論的不同戰略。在我最近一次訪問中國時,我的行事方式是,我向工程師提出技術性問題,因為他們不會對你撒謊,而我對其他所有人則不那麼確定。我最終弄清楚了中國人在做什麼,他們真的非常專注於將人工智慧應用於他們的業務。他們將比我們更具競爭力。我們將輸給中國,因為他們在每種產品中都驚人地採用了人工智慧,他們只是不懈努力,工作非常刻苦。這被稱為“996”,即晚上9點到,每周工作6天。順便說一句,在中國是非法的。在美國也是非法的,但實踐得卻不少。他們來了!它們似乎沒有像舊金山共識那樣專注於超級智能和我在描述的路徑,當然,這可能會改變。所以看來這兩者正在追求不同的道路。對於你們在研究生甚至本科生(考慮到這是哈佛)階段的人來說,一個問題是開始弄清楚當這些分岔的道路遇到障礙時會發生什麼,因為兩者都有。一個例子是,在美國,我們基本上沒有生產新的電力,因為提供電力非常困難。中國擁有無限的電力,這要歸功於他們在可再生能源等方面的巨大投資。他們在過去五年中建造了大約120吉瓦的新可再生能源,大概是這個數字。格雷厄姆:在中國,每天,每天,電網都新增了一個吉瓦的電力,全年都是如此。施密特:這相當驚人。在這裡,每一天,所以我的觀點是,順便說一句,舉個例子,一個核電站大約有多大,1.5吉瓦?再次使用這些數字,這就是中國正在發生的電力革命的規模。我們在美國建了多少這樣的電站?零!而且我們肯定正在因為這裡所有人都知道的原因,在可再生能源競賽中輸給中國。所以他們擁有很大的電力,我們沒有。我們有很多晶片,他們沒有。這為競爭奠定了基礎,而每方都會追求不同的道路。其中一個技術問題,有一種叫做“擴散”的東西,你所做的就是拿一個非常強大的模型,我們以目前的頂尖模型Gemini3為例,你向它提出一萬個問題,然後取其答案,系統就可以從這些問題和答案中學習到足以模仿的程度,而無需承擔進行大規模訓練的開銷。那個大模型。再次思考中國將要採取的戰略以及美國可行的戰略,可能非常重要。有趣的是,這兩個國家都依賴私營部門來完成這項工作。在亨利那個時代,你可能會認為會動用政府的力量。但事實上,我們的政府無法這麼快地推進,補償制度等等也是如此。事實證明,這對中國人來說可能也是如此。我不確定在安全層面這是否屬實,但我沒有在中國發現任何大型、奇怪的曼哈頓計畫式項目,儘管許多私營公司的人員都在為國家安全而努力。格雷厄姆:那麼就人工智慧這個總體話題,請告訴我們,花一兩分鐘時間,最讓您興奮的、在未來一、兩年、三年的可見範圍內,有那些積極的方面?施密特:嗯,第一個問題是,為什麼會出現這種瘋狂?這一定是泡沫,而且它將會破裂。不,這不是泡沫。恰恰相反,它被低估了,因為你正在從根本上實現業務的自動化。人們投入這筆巨額資金的原因是為了自動化他們業務中無聊的部分,或者他們認為重要的部分。無論是帳單、會計、產品設計、交付、庫存、管理還是其他任何方面,人們都在對其進行自動化。那裡有很多東西。想想醫學。想想氣候變化、工程學、新科學。這很非凡。格雷厄姆:那麼,在你看來,那些是你能預見到而我們其他人可能看不到的事情最讓你興奮呢?我們都能在自己的想像中看到我們對它的看法。然後我們會聽聽埃裡克怎麼說,是的。施密特:當我開始時,在我上高中的時候,我是個早期程式設計師,我喜歡編寫程式碼。當我上大學和研究生院時,我那時只想做那件事。我忽略了所有這些歷史方面和類似的事情。那時我就是書呆子的代名詞。而我在20多歲時所做的一切,那些讓我走到今天的位置的事情,現在已經完全自動化了。我所做的程式設計的方方面面,設計的方方面面,現在都由電腦完成了。我最近讓它為我編寫了一個完整的程序,我坐在那裡看著它生成類和互動的細節等等,心想天啊,我的時代結束了。我想,我從事程式設計已經55年了,親眼目睹一個從開始到結束的過程發生在自己眼前,而自己還活著,這真的非常深刻。我現在可以說,電腦科學不會消失,電腦科學家——至少在他們被取代之前——將負責監督這一切。但是,這些系統所能做到的程式碼生成能力是革命性的。這意味著你們每一個人口袋裡都有一台超級電腦和一個超級程式設計師。現在,這裡沒有人是恐怖分子,使用負面例子總是更容易。有很多,我用一個刻板印象來說,就是一些住在地下室的年輕人,他們的母親給他們送食物,然後他們就沉浸在相當於加密貨幣、4chan、偏執狂,隨便什麼,任你選擇的環境中。他們都有能力使用這些工具來建構極其強大的系統,網路攻擊,其他事情,隨便他們關心什麼。有一些證據表明,我認為是曼喬內(Mangione),那個殺了保險高管的傢伙,對這些東西很著迷。有些人正在研究他的一些著作,當然他現在在監獄裡,但表明他受到了某種影響。現在,我不是在證明因果關係。但這正是人性中最黑暗的一些角落的寫照。你把這類工具交給那些人。我們必須做好準備。現在,業界對此非常清楚,我們正在努力解決這個問題。防禦系統能夠正常運作這一點非常重要。順便說一句,人工智慧的最終解決方案是人工智慧對抗人工智慧,即好的對抗壞的。這就是它(解決之道)的全部意義所在。04 開源、閉源與未來戰略格雷厄姆:好的,請能放下一張幻燈片嗎?我想問一下您如何看待中美在人工智慧領域的競爭。如果幻燈片不夠清晰,我深表歉意,但它表明,如果我們看一系列指標,你會發現24年1月的表現差距比現在要大得多。我們如何解讀這一點,以及我們如何解讀可能的未來走向?施密特:所以圖表是正確的,但受此影響的人聲稱這種情況不會持續太久,因為推理革命需要大量的晶片以及舊金山那些人所發明的許多“魔法”(此處“魔法”指核心技術),並以此為代號,他們認為差距將會擴大。我自己的觀點是差距會擴大,但原因不同。我認為中國的主要關注點,如我所提到的,是將人工智慧嵌入到萬物之中,如智能烤面包機、汽車等等。他們的進展速度比我們快得多。我認為絕大多數人形機器人將由中國人工智慧提供動力和製造,原因很簡單,因為他們知道如何降低成本。他們的供應鏈令人難以置信。他們的成本控制,他們工作非常努力,諸如此類,所有這些都算在內。所以我的猜測是,差距可能會擴大,但這才是真正的問題,作為消費者,你最終會因為一個中國產品而不是美國產品獲得更好的體驗嗎?答案是,從裝配和光潔度來看,可能中國的產品會更好,這一點令人擔憂。格雷厄姆:所以讓我再深入探討一下這個問題。所以人們正在就半打左右的問題下注,而你已經對此進行了深入的思考。一個問題是,我們是會押注於電腦晶片、堆疊還是大腦?另一個問題是,我們是會押注於封閉系統還是開放系統?還有一個問題是,我們是會押注於在通用人工智慧(AGI)還是擴散模型和應用方面努力?施密特:所以如果你看看這個光譜,如果我看中國的那一部分,DeepSeek認為,200個有頭腦的人就可以擁有一個成本僅為OpenAI千分之一的推理機器。現在,來自同一領域還有其他六條小龍正在出現。所以這一點讓我感到擔憂。關於封閉與開放,如果我沒記錯我們上次談話的內容,你幾乎得出結論,開放最終會變成封閉,但我們所有的公司都是……大多數是封閉的。那關於這一點呢?第三,也許如果出現了這種通用人工智慧(AGI)的突破,所有其他事情都將不再重要。但如果擴散和應用已經在其他領域發揮作用,那麼這只會讓我們在競爭中再進一步。擴散指的是,我回顧一下,擴散本質上是指許多對(資料)進行學習,並像我們討論的那樣進行學習。我個人的看法是,我不太確定,但我認為,那些大公司最終不會發佈它們最大的模型。這樣做太危險了,所以它們會對其進行子集化。我就會這麼做。現在,我假設他們會做出那個決定。我認為最有趣的問題是開源與閉源。對於那些沒有這方面背景的人來說,開源,開放權重。開源是我幾十年來一直從事的工作,當你使用任何形式的電腦時,你使用的許多軟體都是由開源開發的,這意味著原始碼被公開發佈,人們會共同推動其發展。圍繞此有一個完整的運動,我就是其中一員。因此,在我看來,我堅定地支援開源。大型公司大多出於經濟原因而採用閉源模式。基本上,如果你從金融市場借款500億美元,他們希望收回本金,而你卻告訴他們,‘順便說一句,我們要免費發放所有模型’,你可能無法獲得回報,這可能不是一個很好的法律或財務策略。因此,美國的模式似乎演變成了閉源模式。奇怪的是,中國的模型是完全開放的,權重開放,原始碼開放。為什麼?我不知道。一種可能的解釋是,中國政府已經意識到他們在閉源競爭中處於劣勢。得不到硬體。而開源,因為它免費,可以實現技術的廣泛傳播。因此,開源和權重開放的後果之一是,地球上絕大多數人將使用中國的模型。為什麼?因為它們是免費的,而且大多數國家負擔不起計算能力和資料中心等等。他們只會免費獲取中國的模型並將其嵌入使用。現在,這算是一個問題嗎?絕對是。因為它帶有中國的價值觀、中國的培訓、中國的偏見等等。我們更希望它是美國的。我們將拭目以待。在美國有一些開放原始碼專案是我支援的,但它們無法從公開市場籌集到所需的100億美元才能達到它們的目標。所以它們是瑰寶,但尚未達到規模。我主張美國政府應該幫助資助它們。我主張慈善家應該幫助資助它們,但我真的不確定。格雷厄姆:好的,這非常有幫助。那麼最後一個問題,然後我們將聽取觀眾的提問。如果你要挑選兩到三個問題,供對人工智慧和地緣政治這一領域感興趣的研究生或本科生思考,你能否給出兩到三個問題,以便你下次來時,我們能請到一位對這些問題有所解答或部分解答的人來談談?施密特:所以有幾個,嗯,再次說明,我們這裡面對的是世界上一些最聰明的人。那麼第一個問題是,在人工智慧時代,成為人類意味著什麼?這是一個可以寫多篇博士論文的問題。所以基本上,研究歷史,研究哲學,研究人們如何工作,研究經濟學,然後弄清楚這項新技術將要做什麼。在我的行業裡,因為我們沒有上過這些課程,我們總是忽略這些事情,你們有能力以某些方式回答這些問題,如果我們偏離了軌道,也許可以用這些來提醒我們。第二個問題與中美之間的競爭有關。為什麼是中美?只有這兩個國家會產生影響。原因在於你需要巨額的資金和龐大的人口。儘管我很喜歡歐洲,但歐洲沒有組織起來,沒有足夠的人口,沒有足夠的資金來做到這一點。印度目前還沒有足夠的組織能力來做到這一點,儘管他們正在努力。而且大多數其他國家沒有足夠的資金,沒有足夠的人才,沒有合適的大學,等等。那麼第三個問題更多地與衝突有關。在一個擁有人工智慧的恐怖分子,以及擁有人工智慧的政府的世界裡,衝突會是什麼樣子?針對一個大國的恐怖襲擊會是什麼樣子?顯然,我不是在提倡或支援這種行為。這是一件可怕的事情。我們如何防範它?中國與美國的衝突也是如此。但俄羅斯與烏克蘭呢?歐洲與某方的衝突呢?試圖理解在人工智慧驅動一切的演算法戰爭中衝突是如何展開的,這是一個非常、非常富有成效的研究和新思想領域。這只是剛剛開始。格雷厄姆:這是大家在此期間可以著手研究的好課題。我們從這裡開始。請做個自我介紹並提一個簡短的問題。05 觀眾互動與深入問答觀眾:大家好,我叫特蕾莎。我是加拿大這所學校的二年級學生,正在上艾莉森教授的國家安全課。我們在一堂課上討論了網路安全,以及支撐美國國土安全部的大部分技術。都是由私營企業掌握的。那麼,您認為那種治理模式能真正幫助協調政府和私營公司,尤其是在發生類似人工智慧類型的緊急情況時?鑑於我們經常談論美中競爭,儘管存在技術和投資方面的競爭,但政府模式也存在巨大差異。那麼,您認為這兩種治理模式在那些方面會產生影響呢?在國土安全網路危機方面。施密特:嗯,首先,我認為在川普政府的領導下,我們不會看到對人工智慧進行太多監管。這一點相當明確。在中國,似乎是允許這些公司為所欲為。儘管他們有關於各種事務的法律,但他們似乎沒有在執行。所以看起來這是一場全面爆發的商業衝突。我最大的擔憂是網路攻擊。如果你能像我所見到的那樣編寫程式碼,而且我的世界裡的每家公司現在都將程式設計師和人工智慧程式設計師結合起來使用。這非常非同尋常。這發生得非常快。看看ClaudeCode,比如最新的它目前處於領先地位,來自Anthropic公司,還有其他一些正在趕上。當然,Gemini聲稱它有競爭對手,但目前來看,ClaudeCode略勝一籌。如果你會寫程式碼,你也可以編寫網路攻擊,因為目標函數很簡單。就是不斷地寫程式碼,直到你把某樣東西搞壞為止。如果你有足夠的硬體和足夠的能源,你就可以一直這樣做下去。我認為未來將會有更多更多的網路攻擊。而且,這不一定來自政府。也可能來自恐怖分子和邪惡組織。我認為為這種情況做好準備將是我的首要關切。觀眾:感謝您的到來。我是大衛·魏德曼。我是MPP2。您提到了當前閉源模型的強大之處。如果我說錯了,您可以告訴我。我認為開源模型比當前的閉源模型落後大約半代。將開源與閉源的對抗定性為美國與中國之間的問題,可能有點危險。我的擔憂是,您提到的那些矽谷人士正在尋求監管俘獲,這就是他們想圍繞開源模型散佈恐慌的原因。如果我們尋求對閉源模型實施禁令,在全球範圍內建立這項禁令需要做些什麼?施密特:我想我不同意您的問題,我很抱歉。我看不到美國在開源方面的領導地位,而我只看到了中國在開源方面的領導地位。我認為那是事實。所以我認為在開源方面不存在監管俘獲。而且我認為,再說一遍,在川普政府的領導下,你不太可能看到對閉源公司進行重大監管。但如果你理解我的意思,我認為閉源決策在很大程度上是由經濟驅動的,而非政策驅動的。從字面上講,你根本做不到,想想這些東西的成本。我們談論的是100億、200億美元。如果沒有這個(資金),你將如何籌集這筆錢?格雷厄姆:而且我認為,埃裡克,這回到了,如果我們正在列出我們要問的問題清單,我會補充一點:融資考慮因素如何影響戰略選擇?因為如果這僅僅是由於財務結構上的一個偶然巧合,那並不一定能反映國家利益。那將僅僅反映現有的資本市場。施密特:我認為重要的是要承認,美國擁有迄今為止世界上最非凡的資本市場金融體系。我認為,交易量的60%和價值美元的90%等都在美元計價。因此,那些非美元計價的國家確實畏懼這個金融市場的力量。我們在籌集資金的能力上看到了這一點。當我訪問中國時,與我的朋友交談時,這一點非常清楚。他們無法接觸到如此深度的金融市場。他們實際上拿不到資金。三年前相比,中國的風險投資融資額減少了五倍。現在有很多原因,不只是我們世界,也不只是美國。但如果沒有這種資本獲取管道,開發這些大型模型將非常困難。需要進行複雜的訓練。現在,你可以想像我所說的一切都會隨著底層演算法的改變而改變。有人正在研究新的、成本更低的非Transformer模型。許多人對人腦的能源效率與這些資料中心的成本進行了比較。相信我們的大腦很複雜,但它們並不耗費太多能源。可能又會出現一項突破,從而改變我們正在討論的這種計算模式。請說。觀眾:我叫法瓊·塞邁亞庫(FationSemayaku),是哈佛甘迺迪學院的MCMPA學生,來自阿爾巴尼亞。在人工智慧時代,您和基辛格博士描述了一個人工智慧系統開始為我們解釋現實的世界。如果人類的戰略判斷,那怕是微妙地,被機器生成的框架所塑造,那麼全球事務中的責任之錨又將落在何處?換句話說,當一個受人工智慧影響的決策產生現實世界的後果時,誰來承擔道德責任——是採取行動的人類、部署該系統並影響了認知的機構,還是演算法本身?而且,民主國家應該如何在這種模糊性成為地緣政治弱點之前重塑其制度?施密特:一個措辭非常精妙的觀點。所以我擔心民主的未來是不確定的,僅僅因為,或者舉一個美國的例子,我們相信言論自由,我當然支援美國絕對的言論自由,但我不支援增強的言論或演算法言論。那麼界限在那裡呢?如果我說了一些錯誤的話,然後演算法因為我的主張很離譜而決定將其廣泛傳播,這在民主社會中是恰當的嗎?你可以想像,我再說一遍,我不是在搞黨派之爭。我認為政治體系中的任何一方都可以利用這一點達到任何效果。現在生成人們深信不疑的虛假資訊的能力變得如此簡單,我希望答案是人類能夠接受更好的教育和批判性思維。但你可以想像,如果我是一個邪惡的人,我希望我不是,我坐下來開始向每個人灌輸我特定的、獨特的資訊,我可以通過無情的複製和重複來壓倒你對真相的信念。我們知道存在一種所謂的錨定偏見。如果你先聽到某個資訊,你就會以此為基準進行判斷,所以如果我設法先讓你知道大樓著火了,儘管它沒有著火,我也不是在犯罪。如果我能先讓你接收到這個資訊,你就會從那個點開始錨定。你看到了這裡的危險。這是非常真實的。我認為,回答你的問題是,每個民主國家都會面臨這個問題,而且我認為民主國家將根據文化價值觀和對威脅的理解做出不同的決定。你不會看到民主國家有一個統一的答案。觀眾:非常感謝您今晚蒞臨此處。我叫埃莉諾·克蘭(EleanorCrane),是貝爾福中心的研究員。所以我想問,首先,您能否就像您我這樣的普通人在人工智慧的非常長遠發展中的作用發表評論?我們的作用將變成什麼?而且,我們經常因為價值體系的原因,將中美之間的爭論定性為一種競爭。但從協作的角度來思考這件事是否有價值呢?也許更有趣的是,您提到歐洲可能有些雜亂無章,但他們也擁有巨大的實力和巨大的人才。比如法國的明斯特拉(Mistral)等等。在那方面與他們進行協作是否有所作為?施密特:所以有幾點評論。關於歐洲,我是Mistral的第一位投資者,所以我非常看好Mistral。Mistral無法像美國那樣籌集資金。他們有同樣的問題,並且正在努力尋找解決方案。關於美國和中國,因為亨利的原因,我花了大約五年時間研究中國的同業競爭。我曾認為有可能與中國走得更近。後來,通過他的工作以及其他人的努力,我發現中國人比我們更害怕與我們競爭或合作。舞蹈需要雙方配合,我認為這是極不可能的。我希望在你們有生之年能明白我們必須共存,但由於顯而易見的原因,這兩個體系極不可能成為最好的夥伴。我想談談關於人類在非常長遠來看有什麼用處這個問題。非常非常清楚的是,人類是社會性動物,希望和其他人在一起。同樣非常清楚的是,我們有一些必需品,比如醫療護理等等,將由人類提供。我認為,用一種比較粗略的方式來說,大多數其他職能都可以由電腦來完成。我們會允許它們這樣做嗎?那是你的研究要解決的問題,那條界限在那裡?我以前的例子是這樣的。那時候我在Google建構Waymo。所以這個思想實驗是,紐約市除了Waymo和競爭對手的自動駕駛汽車之外什麼都沒有。而Google和其他公司的工程師已經找到了完全最佳化交通的方法。那些街道是不會改變的。你擁有每條街道上絕對數學上真實的最高負載,而且它是無縫的。然後你有一個緊急情況,一個孕婦,隨便什麼,她必須去醫院,需要一個例外。車裡是否有例外按鈕,上面寫著你必須違反所有規則,因為發生了什麼事情?施密特:現在,如果車裡沒有例外按鈕,那就是電腦對人類的支配。而人類將會反抗。如果我回到鎬頭與宗教的對比,人類會反抗的。這將被視為政府的壓迫,在這種情況下,是紐約市的市長,無論你想用什麼比喻,以及電腦公司本身。如果系統另一方面能夠適應人類的需求,並說,啊,我們有實際的醫療緊急情況,而不是有人吸毒或者隨便什麼人在胡鬧,或者某個孩子在玩弄按鈕,它會進行推理,然後說,我的天那,我必須盡一切努力將這個人送到醫院。那麼它就會被更廣泛地接受。因此,這很大程度上取決於它是否能與我們的人類經驗和需求相結合。它會限制我們的自由,還是會增加自由?我已經得出了一個看法。我現在年紀大了,相信維護我們的自由,我們思想、行動、集會、聚集的自由,所有這些事情,真的,真的非常重要。如果它們侵犯了我們的自由,那麼它們必將遭到反抗。而我將領導這場鬥爭。觀眾:我叫伊爾瑪·阿夫羅斯,我來自印度。你在談話中提到了印度。我很幸運能成為埃裡森教授的學生,並向他學習。我的問題是如何將美國和印度結合起來。印度擁有一些非常優秀的人才。我們如何才能將我們兩國聯合起來,以創造一個民主蓬勃發展的世界,並且這對我們兩國都是一個雙贏的夥伴關係。施密特:我非常同意。我在印度待了很長時間,而且確實,由於印度的資訊技術人才(IATs)和人才質量,印度的天賦深度是非凡的。然而,計算能力的深度卻不是。去年,我們做了一個估算。對於10億人口的整個國家來說,只有大約1000個圖形處理器(GPU)。因此,我和其他人已經組織起來試圖解決這個問題。所以我對最近的貿易戰感到警惕,我認為那次貿易戰讓印度和美國都倒退了,這個問題需要得到解決。我不理解貿易戰,我的立場是這正在傷害我們。印度是我們的天然夥伴,它是一個民主國家。它是一個混亂的民主國家,但我們也是。在矽谷,與我共事的多數人都是。基本上是南亞血統,來自印度或一些其他國家。所以至少在矽谷,印度人正在蓬勃發展,我希望與他們實現最緊密的融合。格雷厄姆:謝謝。觀眾:請說。我叫喬希。我是甘迺迪學院的一名MPP2(二年級公共政策碩士)。埃裡克,您早些時候概述了兩種國家戰略:推進前沿技術或推行應用普及,但理想情況下您希望兩者兼顧。那麼,我們來談談在美國的採納情況。目前,企業採納的主要障礙有那些?這會因行業而異嗎?政府應該做些什麼來幫助解決這些障礙,如果有的話?施密特:政府通常在這方面做得不太好。業界認為存在一種叫做“技術積壓”(technologyoverhang)的現象,即我們——你們友好的業界——已經開發了比你們使用更多的工具。這是我們的看法,它是否屬實可以再討論。而且很多問題似乎是技術採納的準備度,以及大部分這些東西都是軟體,很抱歉這麼說,但大多數公司都沒有很好的人才,還有內部所需進行的變革。我個人相信,這項技術的採納問題只是一個暫時性的問題,隨著新首席執行長的上任和贏家的出現,美國非常高的競爭壓力將促成這種採納。在受監管的行業中,你很少看到技術被採納,因為監管被用作不創新的藉口。但在那些硬核的、具有創新性的行業中,我認為這個問題會得到解決。但總的來說,我的觀點是,我不希望政府做太多事情,因為我不認為那會有幫助。有幫助的將是讓每家企業都明白,如果它們想要賺錢(這是資本主義的願景),就需要更深入地使用人工智慧。請記住,你可以通過人工智慧來定位你的客戶、服務他們、瞭解他們、與他們交流等等。這其中有很多負面問題,例如,它可能導致公司裁員。有很多低端工作崗位被電腦取代的例子,這顯然是工作崗位流失。這是一個社會問題。但從採納的角度來看,答案只是時間問題。觀眾:我是電腦科學專業的一名三年級博士生,研究方向是人工智慧。我的問題是關於您剛才提到的中國對企業人工智慧自動化的強烈關注。我猜在矽谷,似乎每天都有新的初創公司出現。都是大型種子輪融資,目標是針對工作流程的某種自動化。我們也有那種朝九晚九到朝九晚六的潮流。您認為中國人工智慧自動化業務中有一個關鍵的區別點是什麼,是您認為美國需要迎頭趕上,或者至少是現在的矽谷初創公司需要追趕的方面嗎?施密特:您的博士課題是什麼?觀眾:我研究的是大型語言模型的推理能力。施密特:太棒了。觀眾:那麼您對通用人工智慧(AGI)的時間預期是多久?我估計大概需要六到七年。施密特:您看,這不是舊金山的共識,而是東海岸的共識。很好。我們拭目以待。您可能是對的。我認為那個……我想,這與這些夢想的宏偉有關。當我在中國時,我聽到的言論與在加利福尼亞聽到的不同。在加利福尼亞,人們說兩年內世界就會改變,沒人準備好,事情發展如此迅速,諸如此類,正是這種言論在驅動,而且是自我複製的,它是一種信仰體系,就像一種宗教。現在,它總是比夢想家們說的要花費更長的時間。我在中國聽不到這種說法。這有明顯的不同。施密特:舉個例子,關於推理能力,你知道Deepseek在R3上做了什麼。他們做了一項了不起的工作。他們發明了一種新的有監督的微調方法。真是非常非常聰明的做法。你只是在國家層面上聽不到這種聲音。順便說一句,DeepSeek是中國的國家級佼佼者。他們現在確實,他們已名列著名公司名單之列。他們正在獲得巨額資金。上次我和他們會面時,他們說,我們已經解決了我們的硬體問題,而“硬體問題”的暗語就是政府。他們只是會給他們大量的晶片。沒錯。歡迎來到一個共產主義國家。格雷厄姆:好的。那麼,這位女士,請到這個頻道來。觀眾:你好,非常感謝你的到來。我是索尼婭。我是工商管理碩士和政策學院的雙學位學生。這可能是一個稍微更離奇和開放性的問題,但你談了很多關於成為人類意味著什麼,我認為其中很大一部分就是意識。我很好奇,當我想到意識理論時——這些理論顯然定義得非常模糊不清——人工智慧正越來越多地觸及這些理論的邊界。因此,如果說有什麼需要,那就是我們需要一場關於我們如何思考意識的革命。施密特:但我很想知道,您如何看待人工智慧中的意識,以及您是否認為人工智慧有可能已經或將會變得有意識,那會是什麼樣子,以及在這種情況下,模型的福祉會是什麼樣子?讓我問,讓我問你一個簡單的問題:我們假設,我將把格雷厄姆算作有意識,作為回報,他似乎有意識,作為回報,格雷厄姆會把它給我。為了論證的目的,電腦就在桌子上,我們問電腦:“你有意識嗎?”它回答:“是的。”那麼,你這位哈佛聰明的研究生,請想出一系列問題。它能正確回答所有問題。我們怎麼知道的?你怎麼能知道這台電腦是有意識的?你如何理解它的內部推理狀態?現在,你可以探查它推理工作的方式,人們現在正在這麼做。他們所做的是觀察權重結構中所謂的超級節點,以觀察它是如何實際做出這個決定的。所以也許你可以通過檢查來發現意識,但這只是推測。所以我與一些神經科學家坐下來,因為我不知道這個問題的答案。我問,意識是如何演化的?他們的理論,也僅僅是一個理論,是當異構系統協同工作並不斷發展,並對彼此產生感知時,意識就會演化,人類意識之所以演化,是因為我們需要理解我們是某種存在,本我(id)、自我認同(identity)等的產生,對於控制這個系統是必要的。現在,這沒有辦法證明。所以答案是,我不知道。但這向在場的各位提出了第四個需要思考的問題。這裡有兩個問題。第一個,它是如何運作的?第二個,你如何驗證它?格雷厄姆:我不幸地肩負著宣佈我們已到最後時刻的責任了。你想再待五分鐘嗎?再待五分鐘。我答應過你的,我答應過給你安排日程的人,我會讓你脫身的。所以請。簡短的問題和簡短的回答。觀眾:好的,謝謝你,埃裡克。我是來自哈佛商學院的索恩,一名二年級學生,在攻讀工商管理碩士之前,我也有國際關係背景。您是否確信需要一個國際原子能機構(IAEA)等級的國際人工智慧機構?所以我的問題是,美國國務院、五角大樓以及類似機構需要如何調整自身,為即將到來的超級智能時代做好準備?我的第二個稍微帶點風險的問題是,如果您今年夏天或冬天正在尋找人來協助您研究這個課題,我將非常樂意效勞。施密特:我喜歡有勇氣的人。那麼關於國際能源署(IEA)的問題。有一群非常親近我的人得出的結論是,我正在回答的這些問題的唯一解決方案是建立一個相當於歐洲核子研究中心(CERN)的機構。這個想法是,我們所有人,包括中國,包括每個人,都聚集在一起,把所有資源都投入其中,彙集所有頂尖的頭腦,共同致力於此事,從而建立一個偉大的未來,因為這對人類的好處是如此巨大。開始考慮消除所有疾病,解決我們面臨的真正棘手的問題。我們有梅根在這裡,她專精於能源問題,以及所有這類事情。我認為這可能相當……你可能會說,這可能相當不可能發生。然後下一組人說,那麼我們需要一個國際原子能機構(IEA),它本質上是一個針對核能的強制性檢查小組。進入這種情景,你需要去,這個小組將訪問每個國家每家公司的資料中心和演算法。現在,請記住,維也納小組是在經過15年的談判(包括像亨利這樣的人)以及在廣島和長崎投下兩枚原子彈之後才發生的,這兩次事件的恐怖性我們都可以同意。我們還沒有遇到過這樣的例子。我知道有些人會說以下這些話,他們說這話並非出於惡意。他們說,我們不會,我們將發生一個事件,迫使實行這個國際原子能機構的事情,而我們希望那是一個車諾比等級的事件。我說,那意味著什麼?他們說,沒有那麼多人死亡,與核攻擊相比。因此,在我所處的圈子裡,存在一種與此一致的思維傾向。但我認為,首先,我認為沒有人知道。而且,在出現真正的危機之前,各國不太可能容忍這種情況。我以前說過,在氣候被破壞、地球融化、海平面上升的20年後,將會召開一個所有大國齊聚的會議,人們會在會上說,我們真的把事情搞砸了,現在我們必須修復它。所以我想,對於一個全球性的挑戰和解決方案來說,是存在先例的,但過程非常混亂。它不是理性地完成的。它不是像你我雙方達成一致那樣。必須存在某種危機和某種政治動態,而且情況可能會相當嚴峻。格雷厄姆:讓我們為下一代創造一個機會。讓我們趕緊把這件事辦完。要問那三個問題嗎?只問你的簡短問題。我們請埃裡克來總結陳詞。觀眾:您好,感謝您抽出額外的時間。我叫凱文。我是法學院二年級的學生。我的問題是關於自動化和就業的。幾個月前,薩姆·奧特曼接受採訪時說,他暗示如果某件事可以被自動化,那麼它可能從一開始就不是一份真正的工作。我想聽聽您對這個說法的看法,以及您是否同意這個前提,即如果某件事可以被自動化,它是否應該被自動化?另外一個相關的問題是,如果您不同意,我們社會有那些方式可以決定我們應該自動化什麼、不應該自動化什麼?格雷厄姆:好的。請講,菲茨。觀眾:晚上好。我叫格里斯亞姆。我是中級職員,公共事務碩士。而且我曾是Google的員工,所以很高興見到您。我的問題是關於演算法外交的。就像基辛格博士過去常說的那樣,建設性的模糊性和人類的停頓是絕對必要的,但是當人工智慧是二元的,我們是否正走向一個衝突升級在計算上變得不可能的世界?這是否會推動一種我們可以更加努力推進的新演算法外交?觀眾:謝謝。我叫卡尼什。我來自哈佛商學院。我的問題是關於倫理超級智能的。首先,你為什麼不相信如果美國開發出超級智能,其他國家(比如中國Deepseek上做的那樣)也會跟隨並能夠複製它?其次,如果我們試圖為其注入倫理,那麼如果其他人提出了一個不講倫理的超級智能,它難道不會比美國試圖開發的受約束的超級智能模型更自由、能力更強嗎?施密特:抱歉,你剛才對你的問題再說一遍好嗎?觀眾:我想問你對薩姆·奧特曼(Sam Altman)引言的看法。謝謝。施密特:是的。處於這個層面的人們常常忘記的一點是,人的尊嚴包含著目標。而大量的職業為許許多多的人提供了目標。這些職位的消失是一場巨大的危機,不是在財務上,而是在情感上,在意義感方面。因此,為了讓我們度過難關,我們將不得不解決這個問題,我們將不得不真正做正確的事情。而正確的事情將是更好的工具等等的某種組合。我對就業問題沒有那麼擔心,因為我們正在製造更少的人類,而我認為這是一場重大的危機。總的來說,你們這一代人生的孩子比我這一代少,而我這一代人生的孩子又比我父母那一代少,以此類推。我們需要更多的人口。部分原因是我是個商人,所以你需要更多的顧客。但重點是我們現在需要更多的人力。如果我們的人力減少,那麼就會出現空缺的職位,沒有人來填補它們。人工智慧可以幫助那些尚未準備好從事某項工作的人,讓他們做好準備。觀眾:你對未來Google員工(Googler)的寄語是什麼?不,是演算法、外交、演算法外交和計算。施密特:在你問題的預設前提中,你將演算法描述為二元的。如果你想到1971年基辛格提出“戰略模糊”時,你認為一兩年內電腦能否發明“戰略外交模糊”,考慮到它已經被實踐過了?我認為答案是肯定的。我認為演算法正變得越來越智能,只要這是一個過去就存在的概念,它可能就能想出應用它的方法。我不同意你的看法,認為它像你的問題所暗示的那樣是二元的。超級智能。我認為是一樣的。回答,某種形式的超級智能將會出現。我自己的觀點,這可能與共識不同,是我們將會開發出傑出的人工智慧物理學家、傑出的人工智慧生物學家、傑出的人工智慧化學家、傑出的人工智慧作家、傑出的人工智慧歷史學家。但是那個概念,以及將驅動它們的系統,如果你在1902年是愛因斯坦,擁有當時可用的數學知識量,你是否會有那種智慧去利用今天的演算法發明狹義相對論,這一點也遠非顯而易見。在業界有一種觀點認為,這是下一個真正難題。對此有各種各樣的理論。一個答案是你可以只做重複。你可以不斷地提問,就像猴子敲擊鍵盤那種方式,最終你會做到的。另一種方式是你可以將最佳化函數設定為好奇心,如果你等待足夠長的時間,它就會發現狹義相對論。但愛因斯坦不是這麼做的。愛因斯坦在17、18歲時,點著燈,拿著他的小筆和紙,想出了這個理論。我們還沒有達到那個階段。我個人的看法是,那將是一個非常難以踰越的界限。換句話說,我們將達到超人行為的水平,這與超級智能不同,而後者,我會說愛因斯坦以及其他一些人已經實現了。等等,他們確實做到了。格雷厄姆,能和您在一起是我的榮幸。格雷厄姆:非常高興您能來這裡,我們期待您再次光臨。讓我們一起說聲謝謝吧。感謝大家。 (藍血研究)
一群白人優越主義的人聚在一起所説的還是霸權失落感下對抗壓制的論調,合作進步在西方白人血液裡根本是雙標假意和言語虛僞的下意識主觀堅定的態度,西方長期的主宰世界利益,所以白人見不得東方或南方的進步或超越,生活上過的和它們一樣好,怕美味蛋糕被分走而對方又壯大不敢正面欺凌,現在只能抹黑、雙標、謊言宣傳、聯合霸凌等歐美國老手段
1
吉姆·凱勒新作!性能最強RISC-V CPU來了,叫板輝達Arm
前蘋果晶片大神新作,專為高性能計算而生。芯東西12月4日報導,今日,美國AI晶片企業Tenstorrent推出高性能RISC-V CPU——TT-Ascalon,宣告其性能超越當下所有市場上已有RISC-V CPU。該CPU適用於伺服器、AI基礎設施、汽車高性能計算(HPC)及高級駕駛輔助系統(ADAS)等廣泛場景。Tenstorrent產品戰略副總裁Aniket Saha談道:“RISC-V核心幾乎覆蓋所有應用,但此前一直缺乏真正的高性能產品。Ascalon填補了這一空白,作為專為先進計算設計的RISC-V CPU,具備完整的出口合規性和全球可用性。”▲Tenstorrent產品戰略副總裁Aniket Saha在講解產品Tenstorrent於2016年創立於加拿大,於2023年將註冊地和總部遷往美國,2025年由晶片產業傳奇人物、前蘋果A系列及特斯拉自動駕駛晶片主導研發人吉姆・凱勒(Jim Keller)出任CEO,其於2025年剛剛憑藉開放式芯粒架構(OCA)成為RISC-V生態核心參與者。該公司近期剛剛被傳出推進至少8億美元的新融資,目前已完成多輪累計超10億美元融資,估值達32億美元。投資者對Tenstorrent的興趣源自其被認為是撕開輝達集中市場一條口子的重要潛力,其已通過大量開源技術避免了使用輝達成本較高的頻寬記憶體(HBM)。回到Tenstorrent今日的最新發佈來看,Ascalon的架構具有多方面創新,其通過業界標準SPEC CPU基準測試驗證,單核性能達到22 SPECint 2006/GHz、>2.3 SPECint 2017/GHz和>3.6 SPECfp 2017/GHz,並可在Samsung SF4X工藝節點下實現>2.5 GHz主頻,展現了其強大的設計和在先進工藝節點上的可擴展性。▲TT-Ascalon架構性能情況據Tenstorrent RISC-V核心副總裁Divyang Agrawal介紹,該產品的一大特徵是完全相容RISC-V RVA23規範。軟體生態決定了開發者能實現什麼。那麼Ascalon架構的生態系統在那裡?如何確保它能融入整個RISC-V生態?RVA23配置檔案標準化了應用級處理器需實現的功能集,這將直接整合到軟體工具鏈中。通過標準化,它不僅支援各類標準、安全擴展,還支援最新的RISC-V向量擴展,這正是其CPU與AI產品線共同採用的一大核心技術。並且,Ascalon整合高性能RVV1.0向量引擎,支援硬體虛擬化、先進記憶體管理和高級中斷架構。此外,Ascalon還具備安全性和RAS(可靠性、可用性和可維護性)特性,包括側通道攻擊防護。在推出Ascalon的同時,Tenstorrent還宣佈Ascalon全面支援GCC、LLVM和Qemu,並已完成上游合入,開發者和客戶可立即部署使用。通過本次發佈,Tenstorrent確保為RVA23建構的軟體能在Ascalon及任何符合RVA23規範的處理器上無縫運行,為開發者提供可靠保障。▲Ascalon全面支援GCC等軟體生態Divyang Agrawal補充道:“通過Ascalon,我們為客戶提供了集高性能核心、系統IP、RVA23相容工具鏈和完整技術資料於一體的整體解決方案。這為客戶開發從高性能計算到機器人等計算平台提供了關鍵建構模組,助力開發者拓展RISC-V生態。”Tenstorrent在產品設計時的一大原則是:一個設計方案的最終實現形態,取決於其目標應用領域。因此,他們從一開始就通盤考量了基礎設施、工具鏈、設計方法學以及設計本身。其架構被設計為高度可配置和參數化。Tenstorrent同時強調IP設計要有遠見。擁有IP、一套可配置的參數固然重要,但這還不夠。Tenstorrent認為其還需要提供一套能夠立即部署的完整方案,Tenstorrent團隊希望強調的是其可擴展性。Tenstorrent提供了從單連接埠到最多8連接埠的可配置性,從單一核心擴展至最多包含八個核心、共享快取的叢集,並會持續演進。Ascalon連接埠被認為是Arm的重要替代選項。▲Tenstorrent提供了從單連接埠到最多8連接埠的可配置性最後,當晶片流片之後,晶片偵錯能力至關重要。Tenstorrent認為,在設計中嵌入強大的偵錯能力,並控製成本,這再次成為其區別於普通IP供應商的一個關鍵。目前市面上已有的開發平台,大多不允許開發者在上面進行真正意義上的高性能軟體開發。但Tenstorrent使得從高性能計算(HPC)到嵌入式設計的軟體開發成為可能。正如Divyang Agrawal所說,將所有要素整合,Tenstorrent提供的是一個完整的解決方案。▲Tenstorrent提供的是一個完整的解決方案在生態合作方面,Tenstorrent通過其Innovation License(創新授權)計畫,為合作夥伴提供自主創新的路徑,該計畫使合作夥伴能夠基於Tenstorrent技術建構差異化且自主可控的解決方案。同時,Tenstorrent已與CoreLab建立合作夥伴關係,推動區域客戶支援和設計最佳化,幫助客戶高效採用並快速部署其IP。此外,Tenstorrent還在今日與知名軟體定義汽車平台供應商AutoCore.ai達成戰略合作。Ascalon RISC-V處理器為後者的AutoCore軟體平台提供強大的算力支援,加速RISC-V在汽車領域的應用落地。 (芯東西)
“大交易”:一場遲到的美國AI戰略自救
前不久,前白宮人工智慧特別顧問本·布坎南(Ben Buchanan)在《外交事務》雜誌上拋出了他的“大交易”設想,華盛頓的政策圈似乎又找到了一個新的敘事框架。這位在2021至2025年間負責協調拜登政府AI政策的核心人物,試圖為美國AI發展勾勒一幅宏大藍圖:科技行業必須要與政府達成戰略協議,前者獲得能源基礎設施、人才管道和國家安全保護,後者則將AI整合進國防體系並確保其不破壞所謂的民主價值。這個提議聽起來既務實又理想主義——問題恰恰在於,它可能過於理想主義了。更令人玩味的是,就在布坎南構想這份“大交易”之後不久,DeepSeek正在以一種近乎諷刺的方式,拆解著他所依賴的核心假設。這家被美國晶片出口管制嚴密封鎖的公司發佈了DeepSeek V3.2,實測在開源模型中達到全球最高水平,與海外頂級閉源模型的差距縮小至約一個季度。該模型分為普通版和特別版:普通版性能對標 GPT-5,特別版則媲美 Gemini 3.0 Pro,尤其在數學與推理能力上表現突出。這不僅是一次技術突破,更是對美國“晶片遏制”戰略的一記響亮耳光。晶片政策的分歧:遏制還是“上癮”?在理解布坎南“大交易”的困境之前,我們必須先釐清美國AI戰略界內部一個長期存在但鮮被公開討論的根本分歧——關於對華晶片政策,決策圈內實際上存在著兩種截然不同的哲學。本·布坎南(Ben Buchanan)第一派可稱為“技術依賴派”或“上癮派”。這派觀點認為,應當允許中國大陸在一定程度上獲取美國的先進AI晶片,使其AI生態系統建立在美國技術基礎之上,形成一種戰略性依賴。這種策略的邏輯類似於毒品販子的手法:先讓對方上癮,然後控制供應鏈就能控制對方的技術發展節奏。輝達最初對中國大陸市場的態度——不斷推出降級版晶片如H800、H20來規避出口管制——某種程度上體現了這種思路。這一派相信,只要中國大陸市場的AI產業離不開美國晶片,華盛頓就永遠掌握著關閘的權力。第二派則是布坎南所代表的“全面遏制派”。在他們看來,任何對中國大陸的技術滲透都是危險的,必須在製造端實施最嚴格的封鎖,不給中國大陸任何獲取先進算力的機會。這種觀點在2022年10月拜登政府大幅擴展晶片管制時達到高峰,不僅限制先進晶片出口,還限制晶片製造裝置,甚至禁止美國公民為中國大陸半導體公司提供技術支援。布坎南在文中對中國大陸“軍民融合”戰略的惡毒指控,都清晰地顯示出他屬於這一陣營。然而諷刺的是,DeepSeek的成功恰恰證明了兩種策略可能都已失效。“上癮派”的夢想破滅了——中國大陸AI企業並沒有因為依賴美國晶片而束手就擒,反而在被斷供後激發出了驚人的技術創新能力。而“遏制派”的策略同樣遭遇挫敗——即便在最嚴格的出口管制下,中國大陸企業仍通過演算法最佳化、架構創新和可能的走私管道,實現了技術突破。正如智庫Stimson Center的分析所言,出口管制的“卡脖子”假設本身就是一個謬誤——每一次限制都會留下縫隙和漏洞,而目標國家的適應和創新能力往往被嚴重低估。更值得警惕的是,這種封鎖正在催生一個危險的結果:“設計出去”(designing out)。當美國技術被完全排除在外時,中國大陸企業別無選擇,只能開發完全繞過美國技術的替代方案。華為用麒麟9000s晶片替代高通,導致高通2024年損失6000萬套晶片銷售,就是一個典型案例。長期來看,這種“設計出去”將永久性地侵蝕美國在全球半導體生態系統中的地位——當中國大陸建立起完整的國產替代體系後,即便美國日後放鬆管制,市場份額也難以奪回。布坎南的“大交易”建立在全面遏制戰略能夠成功的假設之上,但現實已經在反覆證明,這個假設正在崩塌。能源幻覺與基礎設施的政治死結“大交易”的第一個支柱是政府為AI產業提供充足的能源基礎設施。布坎南在文中引用的資料令人震撼:到2028年,美國AI產業僅新增電力需求就將達到500億瓦,相當於整個阿根廷的用電量,資料中心可能消耗美國電力產量的12%。與此形成鮮明對比的是,中國大陸每年新增電力容量達12%,而美國在2005至2020年間幾乎沒有新增淨電力。這個對比看似有力,實則掩蓋了一個更深層的問題:為什麼美國在過去二十年間幾乎沒有新增電力?答案並非技術能力不足,而是美國社會在能源政策上陷入了一個幾乎無解的政治死結。一方面,任何大規模的新建電廠項目——無論是傳統化石能源還是核電——都會面臨環保團體、地方社區和監管機構的多重阻撓。美國的環境影響評估流程可以讓一個電廠項目耗費十年以上時間仍無法開工。另一方面,即便是清潔能源項目,也面臨著“不要建在我家後院”(NIMBY)效應的困擾。加州在可再生能源方面走在全美前列,但其電網卻經常因為峰值負荷而陷入危機,而新建輸電線路的項目同樣被環保和土地糾紛困住。布坎南樂觀地認為,AI驅動的能源繁榮將創造就業、加速清潔能源開發,實現“無碳化營運”。但這種敘事忽略了一個殘酷現實:在美國當前的政治生態下,任何大規模基礎設施建設都會遭遇曠日持久的黨派爭鬥、司法訴訟和監管審批。川普政府宣佈的5000億美元Stargate項目看起來宏大,但如果我們回顧川普第一任期內承諾的基礎設施投資有多少真正落地,就不難理解這些承諾的可信度。美國電力短缺狀況(@華盛頓大學)更諷刺的是,當前美國政治氛圍下,對AI的態度本身就充滿分裂。一部分人將AI視為新的經濟引擎和國家安全工具,另一部分人則擔心AI導致失業、隱私侵犯和社會不平等。在這種背景下,要求政府為AI產業大規模投資能源基礎設施,本身就可能引發激烈的政治反彈。那些在鏽帶州失去工作的選民,那些被高房價和生活成本壓得喘不過氣的中產階級,憑什麼要為矽谷科技巨頭買單,幫助他們獲得更多電力來訓練AI模型?中國大陸的優勢恰恰在於其政治體制能夠快速調動資源實施大規模基礎設施建設。當決策者確定AI是戰略重點時,電廠、資料中心和配套設施能夠以驚人的速度上馬。這不是單純的技術問題,而是治理模式的差異。布坎南的“大交易”假設美國政府能夠提供類似的支援,但這個假設本身就忽視了美國政治體制的結構性制約。人才政策的內在矛盾“大交易”的第二個支柱是維持國際人才管道。布坎南正確地指出,70%的頂級在美AI研究人員出生在國外,65%的領先美國AI公司至少有一位移民聯合創始人。但他對人才政策面臨的困境卻語焉不詳。川普政府在移民政策上的立場與布坎南的設想存在根本衝突。將H-1B簽證費用提高到10萬美元,大幅收緊國際學生入學政策(2025年可能導致國際學生入學率下降30%-40%),這些措施的政治邏輯與“保持AI人才流入”完全相悖。但問題的關鍵在於:這些移民政策並非出於無知或短視,而是回應了美國社會中一股強大的民粹主義情緒。對許多美國選民而言,保護美國就業、防止移民搶走機會是比維持AI領先地位更直觀、更緊迫的關切。當布坎南談論引進更多外國AI人才時,政治現實是,這種政策會被解讀為“讓外國人來搶美國人的工作”。技術精英和政策制定者可以用國家安全和經濟競爭力來論證開放移民的必要性,但這套話語在政治市場上的說服力遠不如美國優先來得有力。更深層的矛盾在於,布坎南一方面希望政府幫助AI產業獲得更多國際人才,另一方面又主張將AI深度整合進國家安全體系。但任何有過安全審查經驗的人都知道,涉及國防和情報的項目對人員背景有極其嚴格的要求。當AI越來越多地被用於軍事和情報用途時,如何平衡人才開放性和安全審查的嚴格性?那些來自對手國家的研究人員——包括大量來自中國大陸的AI專家——是否還能參與最前沿的AI研發?布坎南似乎希望魚與熊掌兼得:既要保持美國作為全球AI人才磁石的地位,又要加強對AI技術的國家安全管控。但這兩個目標存在內在張力。中國大陸正在積極招募AI專家回國,而美國日益收緊的移民政策和日益政治化的科研環境,可能會加速這種人才回流。當美國大學裡的中國大陸留學生發現自己無論多麼優秀都難以獲得工作簽證,當他們的研究因為敏感性而受到限制時,選擇回國就成了理性選擇。而這正是布坎南所擔心的人才外流。政府-產業合作的結構性障礙“大交易”設想的核心是政府與科技行業建立深度合作關係。但這個設想面臨一個尷尬的現實:雙方之間存在著深刻的互不信任。從科技行業的角度看,政府意味著繁瑣的監管、緩慢的決策流程和對商業創新的束縛。矽谷文化崇尚“快速行動,打破陳規”(Move fast and break things),而政府系統的特點恰恰是謹慎、官僚和風險規避。更重要的是,科技公司擔心與政府深度合作會限制它們的商業自由。如果將AI系統深度整合進國家安全體系,這意味著更嚴格的出口管制、更多的安全審查、更少的國際市場機會。對那些在全球營運的科技巨頭而言,這是一個巨大的代價。從政府的角度看,科技公司則是一群難以管束、唯利是圖、不考慮國家安全的商業實體。OpenAI、Google、Meta這些公司都曾因為與軍方和情報機構的合作項目引發內部員工抗議。2018年,Google員工成功迫使公司退出了與國防部的Maven項目。這種企業內部對軍事合作的牴觸,讓政府對科技公司的可靠性深表懷疑。布坎南在白宮任職期間主導的一些政策,恰恰體現了這種張力。拜登的AI行政命令要求科技公司自願做出安全承諾,但這些承諾大多停留在原則層面,缺乏強制約束力。而當政府試圖實施更嚴格的監管時,科技公司又會動用強大的遊說力量來阻撓。這種貓捉老鼠的遊戲,很難想像能夠昇華為布坎南所設想的“大交易”式的戰略夥伴關係。更根本的問題在於,“大交易”假設政府和產業能夠就AI的發展方向達成一致。但實際上,雙方對許多核心問題存在嚴重分歧:AI應該多大程度上開放?誰應該控制最強大的AI系統?AI帶來的經濟收益應該如何分配?AI技術應該向那些國家和實體出口?在這些問題上,政府和科技公司的利益遠非完全一致,而且內部也存在嚴重分歧。要在這樣的基礎上達成一個覆蓋能源、人才、國家安全等多個維度的“大交易”,難度之大可想而知。時間的殘酷性與政策的惰性布坎南正確地指出,AI進步速度極快,政策制定者必須在極短時間內做出重大決策。但他的“大交易”卻要求完成一系列在美國政治體制下通常需要數年甚至數十年才能實現的任務:大規模能源基礎設施建設、移民政策根本性改革、政府-產業關係的深刻重構、國家安全體系的全面AI化。這裡存在一個根本性的時間錯配:AI技術的演進以月為單位,而美國政治體制的變革以年甚至十年為單位。在拜登任期內,布坎南主導的AI行政命令確實取得了一些進展,建立了AI安全研究所等機構,推動了一些自願承諾。但這些成就與“大交易”設想的宏大目標相比,幾乎微不足道。而現在,川普政府正在系統性地拆除拜登時期建立的許多AI治理框架,包括放鬆晶片出口管制——這正是布坎南最擔心的事情。政治周期的不穩定性使得任何長期戰略都難以為繼。一個政府費盡心力建立的政策框架,可能在下一個政府上台後被全盤推翻。在這種情況下,要求政府和產業就一個需要十年、二十年才能見效的“大交易”達成共識,無異於痴人說夢。中國大陸的體制優勢恰恰在於其政策的連續性和長期性——當中國大陸將AI確定為戰略重點時,這個戰略可以持續數十年不變,資源投入也能夠保持穩定。美國的民主制度有其獨特價值,但在需要長期戰略規劃的技術競爭中,這種制度的弱點暴露無遺。布坎南的“大交易”本質上是一個防禦性戰略,它的出發點是“防止失去領先地位”而非“創造新的突破”。這種心態本身就反映了一種焦慮和不自信。當一個國家的AI戰略主要由防止對手超越而非創造革命性創新驅動時,它實際上已經喪失了先機。中國大陸的AI戰略雖然也包含趕超美國的目標,但更重要的是建立自主創新能力和獨立的技術生態。DeepSeek的成功正是這種戰略思維的體現——與其被動等待美國放鬆封鎖,不如主動探索新的技術路徑。難以癒合的裂痕最終,“大交易”之所以難以實現,根源在於它試圖彌合的那些裂痕可能本就無法癒合。美國社會在AI問題上的分裂是深層次的。技術精英認為AI是下一個增長引擎,必須不惜一切代價保持領先;普通民眾擔心AI導致失業和不平等;環保主義者反對為AI建設消耗巨量資源的資料中心;民族主義者要求限制移民和技術出口;國際主義者強調開放合作的重要性。這些立場之間的矛盾,不是一個“大交易”就能調和的。政府和科技公司之間的不信任是結構性的。科技公司希望政府提供支援但不要干預,政府希望科技公司服從國家利益但又不完全信任它們。這種關係更像是一種脆弱的共生而非穩固的夥伴關係。美國和中國大陸的競爭是長期的、全方位的,不可能通過單一的技術封鎖或單一的政策框架來解決。中國大陸的制度優勢在於能夠集中資源和長期規劃,美國的制度優勢在於創新活力和市場機制。但當競爭進入到需要國家動員和長期規劃的階段時,美國的制度優勢可能反而成為劣勢。布坎南的“大交易”建立在一個過於樂觀的假設之上:只要政府和產業達成正確的協議,美國就能夠延續其在AI領域的領先地位。但現實可能更加殘酷——不是美國不夠努力,不是政策不夠好,而是歷史的鐘擺正在擺向另一邊。技術霸權從來不是永恆的,曾經的領先者往往會在新的技術範式轉換中失去優勢。AI可能正是這樣一次範式轉換,而“大交易”式的修補方案,或許只是延緩衰落而非逆轉趨勢。在DeepSeek證明封鎖無效、川普政府拆除拜登時期的AI治理框架、美國社會在移民和能源政策上陷入僵局的當下,布坎南的“大交易”更像是一個精緻的政策幻想,而非可行的戰略方案。這並非說布坎南的診斷不對——美國在AI領域確實面臨能源、人才、安全整合等多重挑戰。問題在於,他開出的藥方需要一個在當前美國政治現實中幾乎不存在的條件:高度共識、長期承諾、政府效率和超黨派合作。當這些前提條件都不具備時,“大交易”就只能停留在紙面上,成為又一個華盛頓政策圈裡的美好願景,而非能夠真正塑造現實的戰略行動。 (心智觀察所)
Google CEO:Google的AI戰略遠見和定力
“我們不是在追趕風口,而是在建造風。”——桑德爾·皮查伊(Sundar Pichai),2024年12月回望2022年底,ChatGPT驚豔四座,而Google緊接著的新品發佈會卻錯誤頻出。具有諷刺意味的是,ChatGPT的核心技術——Transformer架構,正是Google在2017年的研究成果。作為技術先驅,AI的第一波紅利卻被OpenAI端走。外界質疑Google已患上“大企業病”,甚至有投資人公開喊話:“皮查伊該下台了。”但很少有人看到,風暴中的皮查伊沒有慌亂辯解,而是悄悄拿起了一把手術刀——對內動刀,對外沉默。這是一場以“減法”為核心的組織革命。2024年,他將長期各自為戰的Google Brain與DeepMind正式合併,統一命名為DeepMind,並把面向消費者的Gemini App團隊也劃歸其下。研發與產品之間的高牆被推倒,曾經需要數月協調的模型迭代,如今兩周就能上線。與此同時,皮查伊砍掉了廣告、雲等核心業務中35%的中層管理崗。過去一個基層工程師要跨過三四層匯報才能推動一個小改動,現在可以直接對話業務負責人。決策鏈變短了,創新的速度就快了。更令人驚嘆的是那項被稱為“花園休假”(Garden Leave)的人才策略:核心AI研究員若提出離職,可選擇領取一年全額薪資,條件是12個月內不得加入任何競爭對手。在AI人才爭奪白熱化的今天,用一年薪水換對手一年時間差——這筆帳,怎麼算都划算。正是這些“看不見的改革”,讓Google在沉默中完成了最關鍵的轉身。當Gemini 3和Nano Banana Pro橫空出世時,人們才恍然:那個曾被嘲笑“反應遲鈍”的Google,早已脫胎換骨。一、從“AI First”到“Everything AI”:一場靜默的重構2015年,皮查伊剛接任CEO不久,就向全公司發出一封郵件:“從今天起,Google將轉向AI優先(AI First)。”當時沒人意識到這句話的份量。直到多年後回看,才明白這不僅是口號,而是一場系統性革命。Google沒有像其他公司那樣,在現有產品上“加個AI按鈕”。它選擇從底層開始重寫自己:自研TPU晶片,第七代Ironwood專為大規模推理最佳化;合併Google Brain與DeepMind,終結“兩個大腦”的內耗;把搜尋、YouTube、Android、Chrome全部接入統一的Gemini架構;甚至量子計算實驗室也納入AI基礎設施藍圖。這不是迭代,是重生。皮查伊在最近一次訪談中說得直白:“我們圍繞AI重構一切——從物理基礎設施,到研究方向,再到產品體驗。這不是某個部門的任務,而是整個公司的存在方式。”這種“全端式押注”,讓Google在短期內看起來“慢”:Gemini 1.0發佈晚於GPT-4,圖像生成工具Nano Banana Pro直到2025年才亮相。但正是這份“慢”,換來了今天的“快”。當Gemini 3和Nano Banana Pro同時支援即時圖像生成、長上下文推理、音訊輸出與瀏覽器代理操作時,行業才猛然發現:Google早已不在同一個賽道上競爭。二、定力之源:哈薩比斯的AGI遠見很多人不解:為什麼Google不學OpenAI,先靠一個驚豔功能引爆市場?答案藏在哈薩比斯的人生裡。這位曾是國際象棋神童、神經科學博士、遊戲公司CEO的天才,在創辦DeepMind時就立下目標:“建構能像人類一樣思考、學習、創造的智能體。”他堅信:真正的智能必須是多模態的。 你不能指望一個只會聊天的AI去駕駛汽車、設計藥物或理解一幅畫背後的情感。所以,當別人在卷“上下文長度”或“數學分數”時,Google在默默打通視覺、語言、動作、推理的壁壘。Gemini從1.0開始就是原生多模態;Genie世界模型能通過視訊預測物理互動;AlphaFold破解蛋白質結構,AlphaProof挑戰數學猜想……這些看似分散的項目,實則共享同一套認知架構。短期看,是資源分散;長期看,是能力融合。正如皮查伊所說:“當你看到機器人用Gemini理解環境並做出決策,或Astra通過手機鏡頭即時回答問題,你就明白——這些不是孤立的產品,而是一個智能生態的不同切面。”三、未來12個月:AI將從“問答機”變成“辦事員”皮查伊最近透露了一個關鍵訊號:“現在的AI還只是問答機器人。未來12個月,它要成為真正的智能體(Agent)。”什麼意思?不再是你問一句,它答一句;而是你給一個目標:“幫我給老婆選個生日禮物,預算2000元,她喜歡復古風格”,AI會自己查品牌、比價格、看評價、下單,甚至寫賀卡。這背後需要三大能力突破:任務分解與規劃(Plan)跨工具呼叫(Act)安全可靠的執行(Verify)Google已在內部測試Project Mariner——一個能在Chrome瀏覽器中自主操作網頁的AI代理。它不是幻覺驅動的“嘴炮”,而是能真實點選、填寫、提交的“數字員工”。這才是AI影響勞動力市場的真正起點。四、量子計算:Google的“第二曲線”當別人還在爭論AI是否泡沫時,Google已把目光投向更遠的地方。“量子計算就像五年前的AI。”皮查伊說,“很少人懂,但進展迅猛。”Google量子實驗室的Sycamore處理器已在特定任務上實現“量子優越性”。下一步,是將量子計算與AI結合——比如用量子演算法加速分子模擬,為新藥研發提速百倍。這不是科幻。這是Google正在鋪的路。結語:慢,是因為看得太遠巴菲特為何在95歲高齡首次建倉Google?不是因為Gemini 3多酷,而是因為他看懂了:Google正在成為AI時代的“水電煤”提供商。有搜尋、YouTube、Android提供現金流;有TPU、資料中心、量子計算構築護城河;有DeepMind團隊死磕AGI終局;更有皮查伊用“減法管理”重塑組織韌性。這盤棋,Google下了十年。現在,終於到了收子的時候。真正的戰略,不是跑得最快,而是方向最準。在這個追逐熱點的時代,Google用“慢”證明了:偉大的公司,從不迎合浪潮,而是定義浪潮。(全球領導力)
英特爾危!剛剛:CTO 跳槽、陳立武救火!
一、英特爾 CTO 跳槽:空降 OpenAI2025 年 11 月 11 日,科技圈突發顛覆性人事變動:英特爾首席技術官(CTO)、高級副總裁兼人工智慧官(AIO)薩欽・卡蒂官宣離職,閃電加盟 OpenAI 執掌基礎設施核心崗位,全力推進通用人工智慧(AGI)計算底座搭建,這場頂級人才跨界瞬間引爆行業關注。作為英特爾 AI 業務的 “定海神針”,薩欽・卡蒂身兼數職,不僅主導 AI 戰略制定與產品路線圖規劃,還統籌實驗室營運及全球開發者生態,同時手握網路和邊緣集團(NEX)管理權,是公司核心管理層的 “頂樑柱”。其硬核履歷堪稱行業標竿:孟買理工本科搭配麻省理工博士的頂尖學術背景,史丹佛任教期間在無線通訊領域創下開創性研究成果,斬獲 ACM 博士論文獎等多項權威榮譽;連續創業期間,創辦的 Kumu Networks 突破自干擾消除技術,Uhana 憑 AI 網路最佳化方案被 VMware 高價收購,更牽頭 O-RAN 聯盟推動全球開放網路革命,實現學術、商業、行業影響力三線封神。值得關注的是,OpenAI 正全力打造 AGI 基礎設施 “星際之門” 項目,此前已從特斯拉、xAI 等巨頭挖角四位核心工程師補強 Scaling 團隊。薩欽・卡蒂的加盟,將憑藉其在晶片架構、網路生態的深厚積累,為 OpenAI 超算叢集建設注入關鍵力量,這場人才遷徙被業內視為 AGI 基建賽道的 “神仙加碼”。而對英特爾而言,正值公司 AI 晶片戰略調整期,其 Gaudi 系列此前未達 5 億美元營收目標,核心大將的出走無疑讓其 AI 版圖遭遇重磅震盪。二、臨危受命:CEO 陳立武親自接管 AI 業務面對核心人才流失,英特爾緊急啟動 “救火” 方案,官宣 CEO 陳立武(Lip-Bu Tan)親自接管 AI 業務,確保戰略過渡平穩。這一決策凸顯了公司對 AI 賽道的重視,也折射出當前的戰略緊迫性。現年 65 歲的陳立武自 2025 年 3 月履新以來,始終以 “復興英特爾” 為核心目標,推動了剝離非核心業務、聚焦 AI 晶片、推進 18A 製程量產等一系列激進改革。中芯國際“幕後金主”!陳立武:從核工程棄子,到晶片帝國掌舵者,華裔傳奇進化!其上任後明確提出 “軟體優先” 理念,顛覆英特爾傳統 “硬體先行” 模式,全力衝刺雲端 AI 市場。此次親自接管 AI 業務,被解讀為對該戰略的強化落地 —— 依託其在半導體行業數十年的經驗,以及對 AI 晶片技術的深刻理解,陳立武將直接統籌資源,加速新一代資料中心 GPU “Crescent Island” 的研發處理程序,該產品預計 2026 年下半年提供測試樣品。當前英特爾正處於關鍵轉型期,Q3 財報雖實現營收轉正,但 AI 晶片市場仍面臨輝達 89%-92% 的份額壓制。陳立武的親自掛帥,一方面旨在穩定團隊軍心、延續 AI 戰略連貫性,另一方面也將進一步推動資源集中化,聚焦 18A 製程等核心技術突破,試圖在 AI 算力競爭中實現彎道超車。這場 “臨危受命” 能否化解人才流失危機,重塑英特爾 AI 競爭力,成為科技圈持續關注的焦點。 (深科技)
阿里官宣核爆級AI戰略,十大要點來了
9月24日,在2025雲棲大會上,阿里巴巴集團CEO吳泳銘明確闡述了AI時代下阿里雲的核心戰略。他表示大模型是下一代作業系統,而AI雲是下一代電腦。“大模型將取代傳統OS,成為連接使用者、軟體與AI計算資源的中間層。他宣佈,公司正積極推進3,800億元的AI基礎設施建設,並計畫追加更大投入。到2032年,阿里雲全球資料中心的能耗規模將比2022年提升10倍。這一目標預示著阿里雲算力投入將指數級增長,為迎接超級人工智慧(ASI)時代做準備。阿里巴巴集團CEO吳泳銘在雲棲大會現場演講(攝影 陶力)值得注意的是,阿里巴巴正式發佈了其迄今為止規模最大、能力最強的模型Qwen3-Max。該模型的性能表現引人注目,其預覽版在權威的LMArena文字排行榜上位列全球第三,超越了GPT-5-Chat。此前公佈的2025財年第二季度財報顯示,阿里雲智能集團收入同比增長26%,創下近三年最高增速。公司整體淨利潤同比增長76%,表明AI投入已開始產生實效。受到上述資訊的刺激,資本市場也給予了積極回應。9月24日,阿里巴巴港股全天大漲9.14%,股價創下2021年10月以來新高 ,市值一日暴增近3000億。本月該股已累計上漲超四成,年內漲幅接近翻倍。截至發稿,其總市值達到3.32兆港元。從美股層面來看,當地時間周一,華爾街明星基金經理“木頭姐”凱茜•伍德(Cathie Wood)管理的方舟投資(Ark Investment)也重啟對阿里巴巴(BABA.N)持倉,這也是四年來的首次。這意味著,美國資本市場也開始重新評估中國龍頭科技公司,並展現了對阿里巴巴AI轉型方向和前景的認可。如何從電商巨頭向AI巨頭邁進,從吳泳銘的演講中,可以看出這位掌舵者的思考和戰略。十大要點:一、AI驅動的智能化革命開啟:人工智慧正引領一場超越工業革命和資訊革命的智能化變革,AGI(通用人工智慧)將解放人類潛能,為ASI(超級人工智慧)鋪平道路。二、AI發展速度驚人:幾年時間AI智力水平從高中生提升至博士生水平,TOKEN消耗每兩三個月翻一番,最近一年全球AI行業的投資額超4000億美元,未來五年全球AI的累計投入將超4兆美元。三、AI演進三階段模型:分為智能湧現(學習人)、自主行動(輔助人)和自我迭代(超越人)三個階段,我們當下處於自主行動階段。四、智能湧現階段特徵:基於網際網路數位化知識,大模型具備泛化的智能能力,湧現出通用對話,並行展出思考多步問題的推理能力,AI已經逼近人類各學科測試的頂級水平。五、自主行動階段特徵:AI具備了在真實世界中行動的能力。通過工具使用能力(Tool Use),AI可以像人一樣呼叫外部軟體、介面和物理裝置,執行複雜的真實世界任務。由於AI能夠輔助人類極大提高生產力,它將快速地滲透到物流、製造、軟體、商業、生物醫療、金融、科研等幾乎所有行業領域。現在的Agent還比較早期,解決的主要是標準化和短周期的任務,需發展大模型的編碼能力(Coding)以解決更複雜、更長周期的任務。六、自我迭代階段的兩個關鍵要素:AI連接了真實世界的全量原始資料;Self-learning自主學習。當經過無數次場景執行和結果反饋的循環,AI將自我迭代出超越人類的智能能力,一個早期的超級人工智慧(ASI)便會成型。七、大模型代表的技術平台將會替代現在OS的地位,成為下一代作業系統:LLM將會是承載使用者、軟體與AI計算資源互動調度的中間層,類比一下,自然語言成為AI時代的“程式語言”,Agent是新的軟體等。八、超級AI雲是下一代電腦:資料中心內的計算範式從CPU為核心的傳統計算,正在加速轉變為以GPU為核心的AI計算範式。未來,全球可能僅存5-6個超級雲端運算平台。絕大部分AI能力將以Token的形式在雲端運算網路上產生和輸送。Token就是未來的電。九、阿里巴巴開源戰略定位:通義千問開源模型全球下載量超6億次,衍生模型超17萬個,成為全球第一的開源模型矩陣。目標是打造AI時代的“Android系統”。十、阿里雲全端AI服務投入:計畫三年投入3800億元建設AI基礎設施,2032年阿里雲全球資料中心能耗規模預計提升10倍,以迎接ASI時代的人機協同未來。 (21世紀經濟報導)
亞馬遜開建AGI實驗室,一號位也是華人
靠電商和雲端運算席捲全球的亞馬遜,正在借這一波Gen AI浪潮,續寫新的故事——過去,它的AI戰略定位是做基礎平台,使用者可以通過Amazon Bedrock獲得全端式服務。但大家可能不知道,去年9月,它在舊金山成立了自己的AI實驗室,Amazon AGI SF Lab(以下簡稱亞馬遜AGI實驗室)。這標誌著亞馬遜的重大轉型:從基礎設施,轉向更具雄心的AGI研發。而且,這個實驗室的一號位還是名華人。大佬叫David Luan,已有15年的AI相關工作經驗。他是OpenAI的早期員工,曾做到工程副總裁,參與過GPT-2、GPT-3、CLIP和DALL·E等多個重要項目的研發。論資歷,Luan絕對算市場中的老炮。實驗室怎麼來的?亞馬遜之所以決定成立一家AGI實驗室,主要是受AGI時代這柄雙刃劍影響。一方面,如果Agent成了新的互動形態,人們不再親自上網購物,那亞馬遜依託於電商生態的廣告和佣金業務,顯然岌岌可危。但硬幣的另一面是機會。作為數位化的鼻祖,亞馬遜掌握著海量且極具價值的使用者行為資料:使用者的瀏覽路徑、他們對促銷、評論和頁面佈局的敏感度,以及不同群體之間的相似性。如果能把這座資料金礦挖掘到位,亞馬遜完全有能力打造一個真正實用的模型,摘下那顆低垂的Agent果實。正是在這樣的背景下,2024年6月,亞馬遜反向收購僱傭了Adept AI。△亞馬遜內部郵件“反向收購僱傭”指大科技公司不實際收購熱門AI初創公司,而是爭取初創公司的技術授權,吸納其核心團隊加入,但初創公司本身仍作為獨立個體存在。這樁收購無疑是個大事件。收購完成後,亞馬遜當即將重任交到時任Adept AI CEO的David Luan手中,並以他為首成立了亞馬遜AGI實驗室。量子位一通深挖,發現這個實驗室真的是高手雲集——首先,實驗室的一號位,華人David Luan,畢業於耶魯大學應用數學與政治科學專業。6歲時,Luan跟隨家人從中國搬到了美國。從小,他就對電腦抱有濃厚興趣,並且行動力驚人。8歲起,Luan就開始在伍斯特州立大學修讀夜校項目,5年苦讀後,終於拿到了學校頒發的電腦科學證書。而且Luan的AI職業起點相當早:2011年,Luan就創辦了一家深度學習公司,專注於視訊分類技術。這項成果後來被歐巴馬政府用於改進執法記錄儀。此後,為了追逐AI最前沿,Luan開始在多家知名AI企業之間輾轉。2018年,他加入OpenAI。當時,OpenAI團隊規模還不到四十人。不久,他升任工程副總裁,他的任務不是寫論文,而是將GPT-2、GPT-3等研究成果變成工程產品。△GPT-2論文2020年,Luan轉至Google Brain,擔任大語言模型項目的總技術負責人,聚焦於融合研究與工程的大型項目。但1年後,他就離開了Google。原因是他認為Google很多精力都分配在了廣告和搜尋相關的業務上,很難從零開始開展新的研究路線。而且大公司組織架構分散,難以集中發力。當時在Google,每個人有限定的資源credit,要跑一個龐大訓練任務,你得說服19、20個同事把這些資源讓給你。離開Google後,他開始憑藉自身專業的AI知識為公司提供諮詢服務。直到2022年,他才再次出山,和兩位Transformer作者(Ashish Vaswani和Niki Parmar)聯合成立了Adept AI。再後來,就是加盟亞馬遜了。從上述經歷不難看出,Luan的實戰經驗可謂相當厚實。聊完Luan,我們再來看看亞馬遜AGI實驗室的其他人——亞馬遜AGI實驗室的二把手是加州大學伯克利分校教授Pieter Abbeel。Abbeel是強化學習和機器人學領域的專家,帶領團隊在Deep Q-Learning、模仿學習、自我博弈等方向上都做出過奠基性貢獻。Google學術顯示,他的論文被引量超過了21萬。加入亞馬遜之前,他是一家專注於倉儲和物流場景下的機器人揀貨初創公司(Covariant.ai)的聯合創始人。這個場景,正好擊中了亞馬遜的業務核心。2024年8月,也就是Adept被收購不久後,亞馬遜同樣通過“反向收購僱傭”的方式,將Covariant納入麾下,Abbeel隨之以研究員身份正式加入亞馬遜AGI實驗室。此外,當時跟著Luan一起搬家到亞馬遜的,還有四名Adept AI的聯合創始人。第一位是Erich Elsen。Erich在史丹佛機械工程系拿下博士學位,是GPU計算的專家。他曾在DeepMind擔任資深研究員,參與撰寫了包括多篇高被引論文,代表作包括Chinchilla定律、稀疏矩陣GPU核心。加入亞馬遜AGI實驗室後,Erich負責多模態代理和強化學習基礎設施。負責產品的是Kelsey Szot。她擁有史丹佛數理與管科雙學位背景,曾在麥肯錫做諮詢顧問、在Google負責大型模型生產基礎設施。2022年,她聯合創立Adept AI,主導了ACT-1與Fuyu-8B等模型的產品化。最後還有Maxwell Nye和Augustus Odena這對好哥們(他倆就連在簡歷裡也不忘提對方的名字)。△Augustus Odena(左圖)和Maxwell Nye(右圖)這對黃金搭檔曾在Google共事,參與提出了Scratchpad,這一方法如今被視為現代AI推理系統的基石。不過,他倆在加入亞馬遜不久後便選擇離開了。兩次反向收購僱傭、大量招攬頂尖人才……可以說,為了組建這個AGI實驗室,亞馬遜下了不少力氣。讓David Luan當一號位,憑什麼?亞馬遜AGI實驗室人才濟濟,David Luan到底有怎樣的過人之處,才成為了亞馬遜這支秘密隊伍的領頭羊?之前我們已經提到,Luan自2011年便開始創業,除了先後加入微軟、OpenAI、Google外,他還是一位連續創業者。但要知道,Luan的優勢不僅體現在專業能力,還在於他的戰略眼光。早在2022年——ChatGPT問世之前,入局AI創業的Luan就有一套自己的想法:想辦法讓AI幹活。我們創辦Adept AI時,就發現大模型真挺擅長說話的,但沒什麼行動力。因此,他將目光投向了Agentic AI,並成立了當時的第一家Agent公司——Adept AI。2022年9月,Adept AI發佈了首個Agent模型,ACT-1。這個模型能夠通過自然語言指令執行螢幕任務,如在瀏覽器中導航、填寫表格和操作軟體。當然,在今天看來這些能力好像已經並不新鮮。但朋友們啊,ACT-1是三年前的產物!別說如今爆火的Agent了,就連ChatGPT都還沒影子呢。Luan認為,電腦應該去適應人類,而不是讓人類去適應電腦。因此,Adept也一直採取著這種以人為中心的方法論。成立不到一年,Adept AI便完成了超4億美元的融資,一舉成為當年融資最成功的AI初創公司之一。加入亞馬遜,給AI搭“健身房”說起來,Adept幹得風生水起,核心團隊為何後來要接受被併?主要有兩點原因:首先,亞馬遜坐擁全球最頂尖的算力基礎設施之一,這是小公司無論如何都難以企及的。而對於AI行業來說,算力正是決定模型進步快慢的發動機。因此,想要前往智能的前沿,必須搭乘擁有發動機夠猛的“跑車”。其次,亞馬遜還能提供稀缺的真實資料。經過這麼多年的挖掘,網際網路上的高品質資料已經快要枯竭了,大模型發展因此開始減速。事到如今,人類在日常工作中的實際運算元據成為了高品質的稀缺訓練資料。AI大神Andrej Karpathy對此曾做過一個類比:想像你要訓練一個打網球的智能體,你肯定不能讓它99%的時間都在看YouTube網球視訊,只用1%的時間真正上場打球。在Luan看來,亞馬遜業務範圍極廣,“幾乎每個500強企業在現實裡開展的核心業務,都能在亞馬遜內部找到類似的事情”。這些能產生大量真實資料的內部環境,是Agent的最佳訓練場所。還有一個最關鍵的原因,那就是Luan不甘心只是做一個提供AI銷售服務的小公司。在我的整個職業生涯中,我只想建構最智能、最有用的人工智慧。因此,2024年,Adept AI與亞馬遜達成反向收購僱傭,Luan帶著團隊裡最核心的技術人員一起加入了亞馬遜AGI實驗室。今年年初,亞馬遜AGI實驗室發佈首個產品——Amazon Nova Act,一個基於亞馬遜內部最強自研AI Amazon Nova延伸出來的Agent模型。它繼承了Adept AI的技術遺產(ACT-1、Fuyu模型等),又結合亞馬遜的AWS基礎設施,在多步驟複雜任務上表現出色。根據亞馬遜官方披露,Nova Act在Agent的公開基準測試ScreeSpot和Ground UI上取得了不錯成績。並且在ScreeSpot介面元素定位上的表現格外優異,精準率接近94%亞馬遜AGI實驗室透露,這裡面的秘訣在於強化學習。我們在亞馬遜AGI實驗室做的是大規模自我博弈。十幾年前,DeepMind靠這種方式擊敗了人類。亞馬遜AGI實驗室沒有靠人力去給每一個操作編碼,據Luan所說,他們為AI搭建了一間“健身房”。在這間健身房裡,隨處可見各種常用的“健身器材”,比如ERP、CAD、電子病歷系統、會計軟體等。AI可以利用這些工具,通過強化學習自己摸索出正確的使用方式。沒想到,人工智慧也需要健身了。(手動狗頭)看來,加入亞馬遜AGI實驗室後的Luan仍然謹記實用主義的信仰,一心只為打造最有用的AGI。One More Thing最後,八卦時間~Adept AI最初的3名核心發起人,一位是David Luan,還有兩位都是Transformer八子之一。一位是Niki Parmar,另一位是Ashish Vaswani。不過,Vaswani不到一年就離開了。△從左到右:Niki Parmar, Ashish Vaswani, David Luan據彭博社爆料,Vaswani離開的原因是與Adept AI的某位聯合創始人意見不合。已知:Vaswani離開Adept AI時,Parmar跟著一起離開了,兩人後來又聯合成立了Essential AI。 (量子位)
高盛:中國經濟三件事——PMI改善、人民幣主動升值、“AI+”戰略佈局
2025 年 9 月 1 日 ,高盛發佈經濟研究報告《中國經濟三大要點速覽》,主要內容如下:一、官方採購經理人指數(PMI)略有改善8 月官方製造業 PMI 從 7 月的 49.3 微升至 49.4,非製造業 PMI 也從 50.1 小幅上升至 50.3。這一走勢與上月極為相似:價格分項指數持續改善,推測這與各行業開展 “反內卷”、減少過度降價的舉措相關。惡劣天氣狀況對建築行業活動仍構成壓力。國家統計局(NBS)資料顯示,受近期股市上漲推動,7 月和 8 月資本市場服務業 PMI 均超過 70。(圖:8 月國家統計局製造業 PMI 價格分項指數持續上升)二、中國人民銀行(PBOC)調強人民幣匯率中間價上周五,中國人民銀行公佈的美元兌人民幣(USDCNY)每日中間價降至 7.1030,再創年內新低。正如最新《外匯交易員報告》(F X Trader)中所探討的,從歷史角度看,中國人民銀行近期的每日中間價設定模式略顯特殊:以往在美元走強、人民幣面臨貶值壓力時,央行設定的中間價會低於即期匯率;而此次中間價下調,卻是在人民幣並無貶值壓力的環境下進行的。高盛認為,這一舉措是中國人民銀行主動推動人民幣對美元升值的明確訊號。我們仍維持此前預期,即年末美元兌人民幣匯率將降至 7.0,明年將跌破 7.0。三、中國 “人工智慧(AI)行動計畫”8 月 26 日,國務院發佈關於 “人工智慧行動計畫” 的指導意見。儘管檔案細節尚不充分,高盛從中提煉出以下核心要點:首先,政府決心加快人工智慧在經濟領域的應用落地,並明確提出到 2027 年、2030 年、2035 年,關鍵領域人工智慧應用率需分別達到 70%、90%、100% 的目標。其次,計畫對人工智慧在生產領域應用的重視程度似乎高於消費領域 —— 檔案中 “工業發展 + AI” 的優先順序高於 “消費 + AI”。第三,該行動計畫覆蓋人工智慧全產業鏈及生態系統,政府支援範圍涵蓋人才培養、能源供應等多個方面。 (智通財經APP)