#Brin
"我以為自己是下一個賈伯斯":Google聯合創始人Brin重返史丹佛,首次公開復盤30年得與失
2025年12月7日,史丹佛工程學院百年慶典的閉幕式上,一台用玩具積木和透明塑料板拼裝的伺服器被擺上了舞台。這台機器內建十塊4GB硬碟,總共40GB儲存空間,在1996年曾經是史丹佛學生項目中罕見的"大手筆"。它是運行PageRank演算法的第一台伺服器,也是Google的物理起點。這台機器的締造者之一是Google的聯合創始人Sergey Brin。校長Jonathan Levin和工學院院長Jennifer Widom與他進行了一場70分鐘的對話。這是Brin近年比較罕見的公開演講。自2019年卸任Alphabet總裁以來,他鮮少在公開場合的長篇發言,偶爾出現在矽谷的私人聚會上。史丹佛工程學院的歷史可以追溯到1891年大學創立之初。當時有四個系:化學工程、電氣工程、機械工程、採礦和冶金。1925年,這四個系合併成立工學院。一百年後,採礦和冶金系已更名為材料科學與工程系,學院擴展到九個系和眾多跨學科項目。院長Jennifer Widom是學院第十任院長,她開玩笑說:"做個數學題就知道,我們的院長都喜歡在這裡待很久。"百年慶典的活動貫穿全年:五位還健在的前院長組成的panel(由Jerry Yang主持)、5月15日預計2000人實到3000人的大party、Jensen Huang和John Hennessy的爐邊對話、甚至一場工學院主題的橄欖球賽。院長Widom在賽場上開著電動沙發載著Andrew Luck上了全國電視。"沒人告訴我當院長還要幹這個,"她說,"但我完成得不錯。"這些背景讓閉幕式的嘉賓選擇顯得順理成章。Google是史丹佛工程學院最閃亮的創業故事之一,而Brin剛好在過去兩年重返一線。但過去兩年發生了變化。2023年底,在ChatGPT引發的"code red"警報後,Brin重返Google,每周三到四天出現在Mountain View總部,深度參與Gemini項目的開發。他在2024年9月的All-In Summit上首次公開確認了這一點,稱AI的發展軌跡"太令人興奮了,無法置身事外"。據報導,他主持每周的AI研究討論會,參與關鍵研究人員的招聘決策,甚至會和工程師討論"loss curves"(損失曲線,一種衡量AI模型性能的技術指標)這樣的技術細節。這次史丹佛演講,Brin講了很多此前從未公開的故事:在Gates大樓爬腳手架入侵門禁系統、被同事用偽造郵件惡搞、Google在AI上犯的戰略失誤,以及他退休一個月就後悔的真實原因。院長Jennifer Widom特別強調了一個常被忽略的事實:"如果你對聯邦科研資助的影響有任何懷疑——Google直接來自一個NSF項目。"1. 導師放養與撬鎖入侵:1993年的史丹佛CS系"我很驚訝當時被給予了多少自由。"Brin1993年進入史丹佛CS博士項目,導師是Hector Garcia-Molina和Jeff Ullman。兩位大牛基本不限制他做什麼。他一度在研究碎紙機還原技術,把碎掉的檔案掃描後用演算法拼回去。"從來沒人告訴我不要做這個",雖然最後沒做成。這种放養式培養在今天看來幾乎不可想像。但正是這種自由,讓Brin有空間去探索各種"不務正業"的項目。他的第一個商業嘗試是網上訂披薩:使用者在網站下單,系統自動給披薩店發傳真。"當時覺得網上訂餐是個瘋狂的想法,"他說,"我還開玩笑在頂部放了個可口可樂廣告,覺得網際網路廣告太搞笑了。"披薩店不怎麼查傳真,項目失敗了。但網際網路廣告這個笑話,後來成了Google的核心商業模式。1995年,CS系搬進新落成的Gates大樓。Brin發現了一個問題:新樓用電子門禁,他之前學的撬鎖技術(MIT鎖匠指南教的)沒用了。但他找到一個漏洞——門禁系統的管理電腦所在房間,陽台門還是物理鎖。當時大樓外還有施工腳手架。"我從四樓辦公室窗戶爬出去,沿著腳手架爬到那個陽台,撬開物理鎖進入房間,複製了門禁軟體,給自己做了一張萬能卡。"他笑著補充:"法律追訴期應該過了吧。我那時候還是個孩子,判斷力就那樣。"院長Jennifer Widom在旁邊插了一句:"我們當時不是在四樓嗎?""是四樓。但那是正經的施工腳手架,有各種支撐結構。"Brin回答。他沒提自己有沒有穿滑輪鞋爬腳手架——據院長回憶,他當年確實經常穿著滑輪鞋在走廊裡滑來滑去。2. 160萬美元的惡作劇:PageRank差點被賣掉Larry Page專注於網頁連結結構研究,Brin做資料探勘,兩人在1995年相遇後開始合作。最初做PageRank的其實是四個人:Larry、Brin、Scott和Alan。Scott後來創辦了e-Groups(被Yahoo收購),Alan做了天氣公司Weather Underground。"他們比我們更早想創業,"Brin說,"可能是對我們想賣技術的做法不耐煩了。"創業並非Brin和Larry的首選。他們首先想把技術授權出去。有一次向搜尋引擎公司Excite推銷,風投大佬Vinod Khosla覺得不錯,建議Excite收購。Brin和Larry報價160萬美元——對兩個博士生來說是巨款。15分鐘後收到回覆:"That's a lot of moolah(好多錢),但行吧。"兩人興奮壞了。結果同事Scott走進來狂笑。那年頭可以偽造發件人信箱,回覆是他假冒的。Excite最終沒買。對Brin來說,離開博士項目是個艱難決定,父母也很失望。導師Jeff Ullman說了一句話改變了一切:"試試看吧,不行再回來。""所以技術上我還在休學狀態,"Brin對現場觀眾說,"可能那天還會回來把學位讀完。"校長Levin笑著說:"我們之後可以討論一下這個。"3. 學術型公司:野心與長期主義"Larry一直非常有野心,現在還是。你給他提任何計畫,他都會說'不夠ambitious'。不只是太陽系,要整個銀河系。"這種野心體現在Google早期的使命宣言:"組織全世界的資訊"。兩人都是博士背景,建立的是一個學術氣質的公司:大量招聘PhD,重視基礎研發,長期投資。Brin舉了個例子:他在史丹佛時曾參與教授招聘委員會,面試過Urs Hölzle。Hölzle後來被史丹佛拒了,但一發郵件給Brin,Brin立刻回覆:"明天能來上班嗎?"因為他已經完全瞭解這人的能力。這種學術型文化在當時的網際網路泡沫中是異類。"以前pets.com時代,隨便做個.com就行,技術門檻不高,對網際網路有基本瞭解就能搞。"但現在不一樣了。AI需要大量計算、深度數學,"技術複雜度只會越來越高"。Google現在招的人"比我當年強得多"。Brin讀書時同時修數學和CS已經算少見,現在很多新人是物理學家出身。"物理學家必須做硬數學,而且他們的領域受限於計算能力,所以天然具備計算技能。"主持人追問:Google可能是過去25年最具創新力的公司。大公司通常很難保持創新,你們是怎麼做到的?Brin的回答很誠實。"好吧,你們一直在恭維我。首先,我們確實在很多事情上失敗了。我們有一長串失敗的產品,就不一一列舉了。所以部分原因是我們一直在嘗試。"他認為學術型的根基讓Google更願意嘗試困難的事情。而在過去十年左右,困難的事情變得越來越有價值。AI就是典型例子——需要巨量計算、深度數學,這些都是技術上深入且有挑戰性的問題。"也是命運的twist,深度技術恰好在這個階段變得如此重要。"4. "我們確實搞砸了":八年前的戰略失誤這部分是全場最坦誠的內容。"我們確實搞砸了。"Brin直言,"大約八年前我們發表了Transformer論文,但沒太當回事,沒有大規模投資算力。而且我們太害怕把它推給使用者——因為聊天機器人會說蠢話。"OpenAI抓住了機會。"這是個超級聰明的洞察,而且跑去做的還是我們的人,比如Ilya。"但Google並非從零開始追趕。Jeff Dean早年建立的Google Brain團隊奠定了神經網路基礎。Brin當時在Google X,給Jeff Dean充分自由。"Jeff,你想做啥就做啥。"Dean說:"我們能分辨貓和狗了。"Brin心想:哦,挺酷。後來這個團隊開發的演算法逐漸用於搜尋,Noam Shazeer發明了Transformer,以及更多突破。Google的TPU晶片項目已有12年歷史,從最早用GPU,到FPGA,再到自研晶片,已經迭代了無數代。加上長期投資的大規模資料中心,Google是少數同時擁有自研晶片、深度學習演算法、和超大規模資料中心的公司。"我們只是碰巧很早就押注了深度技術這個方向,"Brin說,"算是運氣好。"5. 演算法是主菜,算力是甜點主持人問到當前AI領域數百億美元的算力軍備競賽。Brin給出了一個反直覺的判斷。"大家注意到的是算力擴張,因為你要建資料中心、買晶片,還有OpenAI和Anthropic那些關於scaling laws(規模定律)的論文。這些很吸引眼球。但如果你仔細對比,實際上演算法進步超過了算力擴張。"他舉了N體問題的例子。這是天體物理學中的經典問題:多個天體在引力作用下如何運動。從1950年代到1990年代,解決N體問題的演算法改進幅度,遠超同期摩爾定律帶來的算力增長。"算力是甜點,演算法才是主菜和蔬菜。"這個判斷與他在2024年9月All-In Summit上的發言一致。當時他說:"過去幾年的演算法改進,可能比投入到模型中的算力增長還要快。"6. 智能有天花板嗎主持人問:AI能做人類能做的一切嗎?Brin沒有直接回答,而是拋出了一個更深的問題。"還有一個問題是,AI能做什麼人類做不到的事?這是超級智能的問題。""我們不知道一個東西能有多聰明。我們有幾十萬年人類進化、幾百萬年靈長類進化,但那是一個非常緩慢的過程,和AI的發展速度完全不能比。"他沒有給出答案,只是說這個問題"just not known"(就是不知道)。但他認為值得認真思考。關於AI目前的能力,Brin的評價是務實的。"老實說,AI有時候蠢得很,所以你總是在監督它。但偶爾它們會很brilliant(出色),給你一個很棒的想法。"他描述自己的使用習慣:"給我五個想法。可能三個是垃圾,但兩個會有某種閃光點,幫我細化思路、換個角度思考。"7. AI會寫程式碼,還要學CS嗎?現場有250多名學生,很多還沒選專業。有人直接問:還應該選CS嗎?"我選CS是因為熱愛,這對我來說是顯而易見的選擇。"Brin說,"不要因為AI現在能寫程式碼就不選CS。AI在很多事情上都不錯,CS只是恰好市場價值高,所以關注度高。"然後他說了一句扎心的話。"AI在比較文學方面可能比寫程式碼更強。"為什麼?"程式碼有錯誤會產生實際後果,程序跑不通。但文章裡錯一句話,後果小得多。所以AI做'軟'領域反而更容易。"他的建議是:用AI,但保持批判性。不要因為AI能替代某個領域就換專業,因為這個思維框架本身就是錯的。關於AI對個人的價值,Brin給出了樂觀的判斷。"AI讓個人非常empowered(被賦能),因為你身邊不會總有各個領域的專家。無論是職業發展、創業、健康問題還是生活品質,都有巨大潛力提升個人能力。"他自己每天開車時和Gemini Live對話,討論資料中心建設、電力需求、成本估算。"雖然聽起來像在打廣告,但公開版本用的還是很老的模型,等幾周我們把新版發佈出來再用吧。"他還提到了其他使用場景:為朋友和家人挑選禮物、brainstorm新產品創意、藝術創作的靈感。"AI不會替你做這些事,因為我總是會說,給我五個想法。然後我自己判斷那些有價值。"有趣的是,他也提到了播客。"All-In Guys是我喜歡的播客之一,他們是很棒的主持人。我們剛去佛羅里達拜訪了Ben Shapiro,看了他的錄音棚。"但他更喜歡互動式的對話。"所以我在開車時和AI聊天,雖然聽起來有點尷尬。"8. 被低估的技術:聚光燈之外有學生問:什麼新興技術被嚴重低估了?Brin的答案是材料科學。"AI和量子計算在材料領域的應用。我們能用不同的材料做什麼?更好的材料在方方面面都有用,天空是極限。"主持人Levin補充了生物和分子科學。"分子科學領域也在發生巨大革命,但現在關注度不如AI。"院長Jennifer同意這個判斷。"聚光燈現在全在AI上,但不應該停止照在生物學上。合成生物學有很多exciting的事在發生。"關於量子計算,Brin持謹慎立場。"很多人在想量子計算能帶來什麼,但這不是我會押上全部籌碼的方向。"技術上的根本不確定性是:"我們甚至不知道P是否不等於NP。"而且量子演算法只對特定結構化問題有效。但他支援大學裡的探索。"如果有人有完全不同於超導量子位元或離子阱的新方法,可能需要在大學裡醞釀幾年再商業化。這種事情是有意義的。"9. 學術到產業:這條路還重要嗎?有學生問:Google誕生於學術研究,但現在產業界在驅動大部分創新,學術到產業的pipeline還重要嗎?Brin的回答出人意料地謹慎。"我不知道。"他的邏輯是:當年他讀博士時,從一個新想法到它可能有商業價值,中間隔著很多年。學術界有足夠的時間去醞釀、申請grant、慢慢研究。但如果這個時間窗口大幅壓縮呢?"我不確定他們需要在大學裡待幾年做實驗、然後再把成果帶到產業界。產業界也在做所有這些事情。"Scott和Alan就是例子。他們比Brin和Larry更早想創業,可能是"對我們想賣技術的做法不耐煩了"。Alan當時已經在做Weather Underground,Scott在做e-Groups。他們沒有等到學術成果完全成熟。但Brin也承認,有些東西確實需要時間。"完全radical的新架構,可能還是需要在大學裡醞釀一段時間。那些你不會在公司裡做的事——因為太長遠了,市場不等你。"量子計算可能是一個例子。如果有人有完全不同於主流方案的新方法,"可能需要讓它在大學裡marinate(醃製)幾年"。10. 大學的未來:一個讓校長都意外的回答主持人問:如果你來規劃工學院的下一個百年,會怎麼想?Brin的回答超出了預期。"我可能會重新思考大學意味著什麼。我知道這聽起來很煩人——這是Larry會說的那種話,我通常會被他煩到。"他的邏輯是:資訊傳播方式已經徹底改變了。MIT開放課程、Coursera、Udacity、YouTube……知識獲取不再依賴物理在場。那麼大學作為"地理集中的知識傳播機構"這個定位,還能撐多久?把一群聰明人放在一起碰撞,這種價值不會消失。"但那是在特定規模上,一百人在一起很好,不一定要和另外一百人在同一個地方。"更根本的問題是學位的價值。"我們招過很多學術明星,但也招了大量沒有學士學位的人。他們就是自己在某個角落琢磨出來的。"校長Levin評價:"這比院長等級的回答更像校長等級。"他指的是Brin觸及了高等教育最根本的問題:當知識獲取去中心化、當頂級公司都在招沒有學位的人,傳統大學的核心價值到底是什麼?11. Google Glass的教訓:別以為自己是賈伯斯有學生問:年輕創業者應該避免什麼錯誤?Brin給出了一個自嘲式的回答。"當你有個酷炫的可穿戴裝置想法時,在用跳傘和飛艇做發佈會之前,真的要把產品做得更成熟。"他指的是Google Glass。2012年的Google I/O大會上,Google用跳傘員從飛艇上跳下並直播降落過程的方式發佈了這款產品,場面極其酷炫。但產品本身商業化太早了,成本沒控制好,使用者體驗不夠精緻。"我以為自己是下一個Steve Jobs。結果發現,他是一個非常獨特的人。"更深層的教訓是關於期望管理。"一旦你公開了某個項目,外部期望會滾雪球式增長,開支也會增加,然後你就被deadline綁架了。你可能沒有足夠時間把事情做好。這是我會努力避免的錯誤。"12. 從莫斯科到矽谷:三次世界觀爆炸有學生問:你如何定義好的生活?Brin的回答從他的童年開始。他出生在蘇聯莫斯科,全家擠在40平米的公寓裡,和父母、祖母住在一起,每天爬五層樓。"我根本不知道外面的世界是什麼樣。"父親去波蘭參加學術會議,第一次瞭解到西方世界,決定移民。這在當時家庭裡非常有爭議。到美國後又是一貧如洗,要學新語言、交新朋友。另一個學生問了一個更尖銳的問題:在建立Google的過程中,你有什麼limiting beliefs(限制性信念)需要改變?Brin把這個問題和他的移民經歷聯絡起來。"我的生活在幾個階段都有戲劇性的擴展。"每一次都很痛苦——離開熟悉的環境、失去朋友、學習新語言、從頭開始。"但我想,因為我個人的歷史,我有了這種體驗:那些痛苦的轉變,後來都有了回報。"第三次世界觀爆炸是1993年來到史丹佛。"加州有某種非常自由和解放的東西,尤其是這個州的傳統。雖然現在有點在失去,但我不想抱怨。"這不是抽象的哲學。Brin的父親Michael Brin是馬里蘭大學的數學教授,母親Eugenia在NASA戈達德航天中心做研究員。他們從蘇聯的體制中逃出來,深知思想自由的價值。據維基百科,Brin的母親後來被診斷出帕金森症,Brin已經捐贈超過10億美元資助相關研究。13. 退休一個月的教訓Covid前,Brin宣佈退休。他的計畫是:在咖啡館裡學物理。"然後咖啡館全關了。"他發現自己在家"越來越鈍",思維不再敏銳,"感覺自己在spiral down(螺旋下墜)"。幾個月後開始偷偷回辦公室(當時還沒正式復工),後來越來越深入地參與後來被稱為Gemini的項目。"能有這種技術上的創造性outlet,非常有價值。如果一直退休下去,會是個大錯誤。"這與他在2024年3月AGI House活動上的發言一致。當時他告訴一群AI創業者:"AI的發展軌跡太令人興奮了,我沒法繼續退休。"好的生活,對Brin來說,是能夠享受家人(他的一個孩子和女朋友都在現場),同時保持智力上的挑戰。"我感激能夠在這個階段有智力上的挑戰。"演講結束時,院長Jennifer Widom感謝了一位促成這次活動的人:Emily Ma,史丹佛的兼職講師,同時也是Google員工。她看到了這次活動的潛力,推動了它的實現。"這是我們百年慶典的完美收官,"Widom說,"讓我們看看下一個世紀會發生什麼。"台上那台玩具積木拼裝的伺服器,見證了過去三十年。下一個三十年,它會繼續作為展品,靜靜地待在黃仁勳工程中心的展廳裡。核心問答Q1: Google在AI競爭中為什麼沒被OpenAI徹底甩開?Brin承認Google在Transformer論文發表後"確實搞砸了",沒有大規模投資算力,而且"太害怕把它推給使用者"。但Google從十幾年前就開始佈局深度技術:Jeff Dean建立的Google Brain團隊、自研TPU晶片(已有12年歷史)、超大規模資料中心。這些基礎設施和人才儲備讓他們能夠快速追趕。Brin的原話是:"我們只是碰巧很早就押注了深度技術。"Q2: Brin認為AI時代還應該學CS嗎?Brin的回答是:不要因為AI能寫程式碼就換專業。他給出了一個反直覺的判斷:AI在"軟"領域其實更強——比較文學裡錯一句話沒什麼後果,程式碼錯了程序跑不通。所以用"AI替代程度"來選專業是錯誤的思維框架。他的建議是:選自己熱愛的,同時用AI來增強自己的能力。Q3: Brin認為年輕創業者最該避免什麼錯誤?在產品成熟之前過早公開。一旦公開,外部期望和內部開支會滾雪球式增長,你會被deadline綁架,沒有時間把事情做好。Google Glass就是他本人犯的這個錯誤。他用跳傘和飛艇做了一場酷炫的發佈會,"以為自己是下一個Steve Jobs",結果產品不夠成熟,商業化失敗。 (高飛的電子替身)
Google錯失的三年和全球第八富豪最大的遺憾
一個身價1400億的「退休老哥」,在史丹佛當眾自爆:退休是巨大錯誤!他一轉身,手握Transformer「屠龍刀」的Google,為何在AI黎明前夜被OpenAI打得措手不及?2025年的初冬,史丹佛大學的禮堂裡座無虛席。台下的聽眾大多是那種典型的矽谷年輕面孔:穿著連帽衫,背著雙肩包,眼中閃爍著對改變世界(或者至少是獲得巨額融資)的渴望。台上最右邊的男人,即使在這場史丹佛大學工程學院百年慶典上,神情依然像個頑童。他是謝爾蓋·布林(Sergey Brin),Google的聯合創始人,身價超過1400億美元,是這個星球上最有權勢的人之一(尤其是對一些熱愛科技的年輕人來說)。Google於20世紀90年代中期在史丹佛大學校園創立,謝爾蓋·布林與拉里·佩奇正是在此相遇。考慮到Google的起源故事以及身處矽谷核心的史丹佛大學演講現場,謝爾蓋在這場演講的回答或許會讓一些人感到意外。但他那天說出的一句話,卻讓在場的所有人感到意外。「退休是個巨大的錯誤。」布林說道,語氣中帶著一種罕見的坦誠:「我原本以為我會去海邊,或者研究一點物理,但實際上,那種感覺糟透了。」這不僅僅是一個關於無聊的故事。布林的這番話,揭開了矽谷過去十年最驚心動魄的一場商業戰爭的序幕。他所指的「錯誤」,並非個人生活的空虛,而是他在2019年選擇隱退時,正好錯過了電腦科學史上最重要的一次「革命」。就在他退休去享受人生的那幾年裡,Google,這家曾經定義了網際網路、匯聚了全球最聰明大腦的科技帝國,竟然在自己最擅長的領域——人工智慧(AI)上,被一家名為OpenAI的小創業公司打得措手不及。「我們因為擔心,錯過了機會。」布林坦承。這是一個真實的矽谷故事。也是一場關於傲慢、偏見、技術信仰與帝國反擊的史詩。被遺忘的神諭Transformer的誕生與封存故事的起點,在2017年。那時的Google如日中天,市值突破兆,AlphaGo剛剛在圍棋上虐完了人類頂尖棋手。在Google山景城總部的一個不起眼的角落裡,八位研究員正在搗鼓一篇論文。這篇論文的標題起得很隨意,叫做《Attention Is All You Need》。論文的作者之一Jakob Uszkoreit覺得這個名字聽起來很像披頭士的歌名,既嬉皮又極客。當時沒人知道,這篇論文將成為開啟下一個時代的鑰匙。這八個人——後來被稱為「AI八子」。他們提出了一種名為Transformer的全新神經網路架構。在此之前,AI處理語言(比如翻譯一句話)需要按順序一個字一個字地讀,這叫循環神經網路(RNN)。這很慢,而且讀了後面忘前面。Transformer的天才之處在於,它引入了「自注意力機制」(Self-Attention)。簡單說,它能像人類一眼掃過整頁書一樣,同時看到所有單詞,並瞬間理解它們之間的關聯。這是一項核彈級的技術突破。它解決了平行計算的問題,意味著只要你給他足夠多的顯示卡(GPU/TPU)和足夠多的資料,這個模型就能無限變強。Transformer,可以說是一把新時代的屠龍寶刀。號令天下,誰敢不從。「創新者窘境」:為什麼有了屠龍刀卻不屠龍?按理說,Google發明了Transformer,應該順勢推出自己的「ChatGPT」聊天機器人才對。但現實是,這篇論文發表後,Google內部雖然也在用它改進搜尋和翻譯,卻始終沒有推出一個面向公眾的「生成式AI」產品。為什麼?答案藏在哈佛商學院教授克里斯坦森的那本經典著作《創新者的窘境》裡,也藏在Google那張價值1400億美元的利潤表裡。商業模式的詛咒Google的商業模式太完美了,完美到它不敢自我革命。搜尋廣告模式使用者輸入關鍵詞->Google展示十條藍色連結->使用者點選連結->Google收廣告費。AI聊天模式使用者提問->AI直接給出完美答案->使用者不需要點選連結。如果AI太好用,使用者就不點廣告了。這對Google來說,無異於揮刀自宮。每一位高管在看到AI聊天機器人的Demo時,腦子裡閃過的第一個念頭不是「這太酷了」,而是「這會把我們的股價搞崩」。Google是全球資訊的守門人。它對「正確性」有極高的潔癖。大語言模型有一個致命弱點:幻覺(Hallucination)。它會一本正經地胡說八道。對於OpenAI這樣的創業公司,這叫「有趣的瑕疵」;但對於Google,這叫「傳播虛假資訊」。2021年,Google其實已經開發出了極其強大的聊天機器人LaMDA(Language Model for Dialogue Applications)。BTW:吐槽一句,這名字就看著很大公司病,「用於對話應用的大模型」,不像ChatGPT,就像隨便將Chat和GPT連起來。創新還是要隨意一點啊。但管理層始終不敢發佈。一個著名的插曲發生了:Google工程師Blake Lemoine在測試LaMDA時,被AI的回答震驚了。他認為LaMDA已經產生了「自我意識」(Sentient),是一個有靈魂的「人」。他甚至為此聘請了律師來保護AI的權利。這件事把Google高層嚇壞了。為了避免倫理爭議和公關災難,他們迅速解僱了Lemoine,並把LaMDA鎖得更緊了。他們擔心,一旦發佈,AI可能會說出種族歧視的話,或者教唆使用者自殺。這種「防禦性思維」讓Google在戰略上徹底癱瘓。人才的大逃亡對於那八位發明Transformer的天才來說,看著自己手中的技術被公司束之高閣,是一種折磨。「我們想做產品,想改變世界,而不是只發論文。」於是,大逃亡開始了。Noam ShazeerTransformer的核心作者之一,他曾向Google高層極力推薦發佈聊天機器人Meena,被拒後憤而離職,創辦了Character.AI。Aidan Gomez離職創辦了Cohere。Ashish Vaswani離職創辦了Adept。到了2022年,Transformer論文的八位作者,全部離開了Google。Google變成了AI界的「黃埔軍校」——培養了所有人,卻沒留住一個將軍。而這些出走的人,帶著Google的技術基因,在矽谷的各個車庫裡,把槍口對準了老東家。OpenAI如何利用「Scaling Laws」逆天改命當Google在猶豫不決時,幾英里外的OpenAI正如飢似渴地研究著Google的Transformer論文。OpenAI的首席科學家Ilya Sutskever(他也是從Google跳槽出來的)是一個堅定的技術信仰者。他相信一個簡單而暴力的真理:Scaling Laws。Ilya認為,不要搞那些花裡胡哨的人工規則。只要神經網路的層數夠深、參數夠多、喂給它的資料夠大、算力夠強,智能就會「湧現」(Emerge)。這被稱為「苦澀的教訓」(The Bitter Lesson):在算力面前,人類的精巧設計往往不值一提。簡單點,你可以理解為力大出奇蹟。於是,OpenAI做了一個當時看起來很瘋狂的決定:把所有資源All-in在Transformer架構上,並且不斷把模型做大。GPT-1:驗證概念。GPT-2:參數擴大10倍。GPT-3:參數擴大100倍(達到1750億)。產品的勝利:ChatGPT的降維打擊技術上的領先並不足以致勝,OpenAI贏在產品哲學。Google的思路是:AI必須是一個完美助手,要整合在Search裡,不能出錯。OpenAI的思路是:管它完不完美,先發出去讓大家玩起來。2022年11月,OpenAI發佈了ChatGPT。這其實是一個「半成品」,介面簡陋,經常胡說八道。但它做對了一件事:對話方塊(Chat Interface)。它把高深莫測的AI,變成了一個連老奶奶都能用的聊天工具。一夜之間,使用者突破百萬,隨後破億。矽谷沸騰了。人們發現,這個AI雖然會算錯數學題,但它能寫詩、能寫程式碼、能講笑話、能安慰失戀的你。這就夠了。另一個故事:微軟的「借刀殺人」如果說OpenAI是衝鋒的騎士,微軟CEO薩提亞·納德拉(Satya Nadella)就是背後的謀略家。納德拉敏銳地看到了OpenAI的潛力,在所有人都覺得OpenAI是燒錢無底洞時,微軟注資130億美元,並迅速將GPT-4整合進必應(Bing)搜尋。納德拉在接受採訪時,說出了一句殺人誅心的話:「我們要讓人們知道,是我們讓他們(Google)跳舞。」他成功了。Google這頭大象,終於被刺痛了。紅色程式碼與布林的回歸「我回來了,為了寫程式碼」ChatGPT發佈一個月後,Google總部山景城Mountain View拉響了警報。CEO桑達爾·皮查伊發佈了著名的「紅色程式碼」(Code Red)。這在Google歷史上意味著最高等級的生存危機。所有不相關的項目暫停,所有資源向AI傾斜。但皮查伊發現,自己雖然是CEO,卻很難調動這艘龐大的航母。內部官僚主義嚴重,團隊之間壁壘森嚴。他需要援軍。於是,他撥通了那個許久未撥的電話——打給已經退休的拉里·佩奇和謝爾蓋·布林。布林:從退休老頭變回硬核極客布林回到了Google。他沒有選擇坐在寬敞的董事會辦公室裡指點江山,而是做了一件讓所有工程師掉下巴的事:他要寫程式碼。據內部員工透露,布林回來的第一件事,是申請訪問Gemini(當時叫LaMDA/Bard)的程式碼庫。因為太久沒操作,他的權限甚至過期了,不得不像個實習生一樣提交工單恢復權限。隨後的日子裡,Google的工程師們驚訝地發現,程式碼提交記錄(Change Lists,CLs)裡頻繁出現「Sergey Brin」的名字。有一個段子在Google內部瘋傳:布林提交了一段修改程式碼,然後幾十個資深工程師排著隊在下面回覆「LGTM」(Looks Good To Me,Google內部程式碼稽核通過的術語)。大家既是出於對創始人的敬畏,也是被這種身先士卒的精神所震懾。布林不僅僅是作秀。他深入到了最核心的訓練環節,盯著損失函數(Loss Curve)的曲線,研究模型為什麼不收斂。他甚至要求工程師們恢復創業時期的作息,推行高強度的「60小時工作制」,並親自組織周末的駭客松。他在史丹佛的演講中回憶那段時光:「當你親手去調參,去看到模型變聰明的過程,那種多巴胺的釋放是無可比擬的。我才意識到,我不應該退休。」跌跌撞撞的反擊Gemini的出生與「覺醒」在布林的親自督戰下,Google終於拿出了反擊武器:Gemini。與OpenAI的GPT-4不同,Gemini從一開始就被設計為原生多模態(Native Multimodal)。GPT-4本質上是個文字模型,看圖能力是後來「外掛」上去的。Gemini從訓練第一天起,就同時吃文字、圖片、視訊和音訊。這讓它在理解複雜視訊和跨模態推理上有著天然優勢。圖像生成的滑鐵盧:「我們搞砸了」然而,急於求成的Google,很快摔了一跤。2024年初,Gemini推出了圖像生成功能。使用者很快發現,這個AI「瘋了」。當使用者要求生成「美國開國元勛」時,它生成了黑人、印第安人和亞裔,就是沒有白人。當使用者要求生成「二戰德軍士兵」時,它居然生成了黑人納粹士兵。輿論嘩然。馬斯克在推特上嘲笑Google開發了「Woke AI」(覺醒病毒AI)。Google的股價應聲暴跌。這一次,布林沒有躲避。他在一次公開的極客聚會上,面對鏡頭坦誠地說道:「我們確實搞砸了。」他解釋說,這是因為為了防止模型產生種族歧視,內部的對齊(Alignment)團隊在提示詞裡加了太多的強制多樣性規則,導致矯枉過正。這種坦誠,反而贏回了部分開發者的尊重。27億美元買回一個天才為了贏,Google已經不計成本。還記得那個憤而離職去創辦Character.AI的Transformer作者Noam Shazeer嗎?2024年,Google做了一筆震驚矽谷的交易:花費27億美元收購Character.AI。但這筆交易極其詭異。Google並沒有把Character.AI的產品併入體系,它真正的目標只有一個:讓Noam Shazeer回來。這實際上是一場耗資27億美元的「聘用」。Noam回來後,直接成為了Gemini項目的聯合負責人。千金買骨。這證明了Google的決心,也側面印證了當年逼走這些人是多麼昂貴的錯誤。攻守易形 2025年的戰局反轉OpenAI的「Code Red」時間來到2025年底,劇情發生了極其諷刺的反轉。據外媒報導,OpenAI的CEO山姆·奧特曼給全員發了一封備忘錄,宣佈OpenAI進入「紅色程式碼」(CodeRed)狀態。是的,三年前是GoogleCodeRed,三年後輪到了OpenAI。為什麼?因為Google追上來了。Gemini3 的逆襲Google發佈的最新模型Gemini3 ,在多項基準測試(如長文字推理、數學競賽)中擊敗了GPT-5系列。生態系統的碾壓Google把Gemini植入到了Android手機、Google Docs、Gmail和Chrome瀏覽器裡。普通使用者不需要下載ChatGPT,直接在手機上就能用。這種分發管道的優勢是OpenAI無法比擬的。算力的護城河Google擁有自研的TPU晶片,而且已經迭代到了第七代。而OpenAI極度依賴輝達的GPU,受制於人且成本高昂。布林和Google證明了:大象雖然轉身慢,但一旦奔跑起來,它的體重就是武器。Scaling Laws撞牆了嗎?目前的戰局,正處於一個微妙的十字路口。矽谷開始流傳「Scaling Laws失效」的說法。單純靠堆顯示卡、堆資料,模型變聰明的速度在變慢。戰爭從「拼誰說話快」,變成了「拼誰數學好」。矽谷沒有終局,AI永不停止回顧從Transformer論文發表的2017年到今天的2025年,這不僅僅是兩家公司的競爭,更是技術發展周期的縮影。Google錯了嗎?錯了。錯在傲慢,錯在被既得利益(搜尋廣告)綁架。布林錯了嗎?錯了。錯在以為技術革命會等著他退休歸來。但好在,矽谷最迷人的地方就在於它的自我糾錯能力。布林在史丹佛的演講最後說道:「這也許是電腦科學歷史上最激動人心的時刻。如果不參與其中,那將是最大的遺憾。」對於我們普通人來說,神仙打架是好事。Google的焦慮和OpenAI的激進,換來的是我們手中越來越強大的工具。在這個指數級變化的時代,最大的風險,就是什麼都不做。那怕你是兆帝國的締造者,一旦停下腳步,也會瞬間被時代拋棄。 (新智元)
短期內網際網路將因AI Agent優先而大變|DeepMind CEO+Google聯合創始人圓桌實錄
Google DeepMind 首席執行官Dems Hassabis 、Google 聯合創始人Sergey Brin與Big Technology Podcast 主持人Alex Kantrowitz進行了一場圓桌論壇。圓桌對話深入探討了AGI的真正定義、實現路徑、所需能力(包括對情感的理解),並就其出現的時間表達了各自的預測。此外,對話還延展至自我改進型AI的研發理念、多模態AI Agent與智能眼鏡等互動形態的未來、從Google Glass等過往項目中汲取的經驗教訓、AI生成內容帶來的挑戰等話題。以下是本次對話實錄 經數字開物團隊編譯整理01. 前沿模型的潛力與進展驅動力Alex Kantrowitz:我是Alex Kantrowitz,Big Technology Podcast 的主持人。今天,我非常榮幸能與兩位重量級嘉賓共同探討 AI 的最前沿動態:其中一位是 DeepMind 首席執行官 Demis Hassabis。Google DeepMind。Demis,非常高興見到你。Demis Hassabis:我也非常高興見到你。Alex Kantrowitz:同時,我們還邀請到了一位特別嘉賓,Google 聯合創始人 Sergey Brin 也親臨現場。好了,相信接下來的對話將會非常富有洞察力。讓我們從前沿模型談起。Demis,這個問題想請教您:基於我們當前對前沿模型的認知,其潛力還有多大程度能夠被釋放?以及,為何有如此多傑出人士認為相關領域的進展即將趨緩?Demis Hassabis:我認為我們正在見證著令人矚目的進展。各位今天都已在主題演講中目睹了我們所展示的各項卓越成果。因此,我認為我們通過將現有技術發揮到極致,正在取得巨大的成就。但與此同時,我們也在持續不斷地催生新的發明。而且我深信,要完全實現像AGI 這樣的宏偉目標,或許還需要一至兩個全新的突破。目前,我們有很多極具前景的構想正在積極研發中,並期望能將它們整合進 Gemini 分支的主幹。Alex Kantrowitz:好的。關於規模的討論一直不絕於耳。規模本身能否解決所有問題?或者說,它並非萬能?因此我想請問,從當前可實現的改進來看,規模依舊是核心驅動力,抑或只是一個輔助角色?Demis Hassabis:我個人的看法是,這兩者始終是相輔相成的。你需要將已掌握的技術進行最大限度的規模化部署,充分挖掘其潛力,這既包括資料規模,也包括計算規模。與此同時,你也必須投入大量資源來研發下一代技術。或許在未來六個月或一年後,你就能迎來下一次重大創新,這種創新可能會在某個層面帶來十倍的性能躍升,並與此前的規模化成果相互促進,相得益彰。因此,在我看來,兩者都至關重要。不過Sergey,您對此有何見解?Sergey Brin:我同意Demis 的看法,兩者都不可或缺。技術進步可以體現在演算法改進,也可以是純粹的計算能力提升,例如:更先進的晶片、更多的晶片數量、更強大的算力以及規模更龐大的資料中心。回顧歷史,以 N 體問題和引力體模擬這類複雜問題為例,你會發現,即便考慮到摩爾定律的影響,演算法層面的進步實際上也超越了計算能力本身的進步。如果讓我大膽預測,我會說演算法的進步未來可能會比計算能力的進步更具決定性意義。但目前,這兩方面都在齊頭並進。因此,我們正享受著雙重紅利。02. 資料中心的角色與推理時計算的重要性Alex Kantrowitz:Demis,那麼在您看來,貴公司所取得的重大進展,其主要驅動力是源自於建設更大規模的資料中心和採用更多的晶片嗎?例如,現在有一種普遍的說法,認為未來整個世界都將被資料中心所覆蓋。這是否是您所預見的未來圖景?Demis Hassabis:並非完全如此。我們毫無疑問將需要興建更多的資料中心。從科學的視角來看,我們能夠將普通的沙子轉化為具備思考能力的機器,這本身就是一項至今仍令我讚歎不已的成就,確實非同凡響。但關鍵在於,資料中心的建設並不僅僅是為了滿足模型訓練的需求。如今,我們開發出的這些先進模型,受到了全球使用者的熱捧。我們觀察到市場對2.5 Pro 版本有著極為旺盛的需求,同時,我也認為 Flash 模型的表現著實令人振奮,它以極具吸引力的低成本實現了超乎尋常的性能。我預見,全世界都將渴望運用這些技術。因此,我們將需要大量的資料中心來支援模型服務以及進行推理時計算。正如各位今天所見證的 DeepThink 和 2.5 Pro DeepThink,你賦予它越多的思考時間,它的表現就會越出色。對於某些具有極高價值且極度複雜的任務而言,投入充裕的時間讓模型進行深度思考,無疑是值得的。我們正在積極探索如何將這一能力推向新的高度。而這,同樣離不開在模型執行階段大量晶片資源的支撐。Alex Kantrowitz:好的,您剛才提到了推理時計算。我們採用這種推理範式大致已有一年時間。在過去,您和我也曾兩次深入探討過這個話題,認為它或許可以作為一種有效的增強機制,被整合到傳統的大語言模型(LLMs) 中,以獲取性能上的提升。因此,我想現在是一個絕佳的時機來請教您:目前這方面的具體進展如何?您能否幫助我們更清晰地理解,推理能力的引入究竟帶來了多大程度的改進?Demis Hassabis:我們向來都對我們現在稱之為思維範式的理念深信不疑。回顧我們早期在AlphaGo 和 AlphaZero 等里程碑項目上的探索,以及我們在遊戲領域的 AI Agent 研究工作,這些系統無一例外都具備了在基礎模型之上建構一個思維繫統的核心特質。實際上,以國際象棋或圍棋這類複雜博弈為例,你可以精確地量化這種思維能力所帶來的差異。我們曾經開發過關閉了思維功能的 AlphaGo 和 AlphaZero 版本,在那種模式下,模型僅僅是輸出它基於模式匹配的“第一直覺”。坦率地說,其表現尚可,大約能達到大師級的水準。然而,一旦開啟其思維功能,它的能力便會遠遠超越人類世界冠軍的水平。這兩個版本之間的 Elo 等級分差距,足足有 600 分之多。因此,在遊戲領域,這種差異是清晰可見的,更遑論遠比遊戲更為複雜的真實世界了。我堅信,通過在現有模型基礎上疊加這種思維範式,其所能釋放的潛力將會更加巨大。當然,其中面臨的挑戰在於,你的模型——正如我先前在演講中提及的——必須具備一種世界模型的能力。建構這樣的模型,其難度自然遠超建構一個簡單遊戲的模型。並且,模型自身不可避免地會存在謬誤,這些謬誤在長期的規劃與決策過程中可能會被逐步放大並累積。儘管如此,我認為我們目前在所有這些相關前沿上都取得了長足的進步。Sergey Brin:正如Demis 所闡述的,DeepMind 的確在強化學習這一領域取得了諸多開創性的成就。他們通過 AlphaGo 和 AlphaZero 所完成的工作,正如您剛才提到的,清晰地證明了——我記得的資料是——若要達到與具備推理時計算能力的 AlphaGo (在投入大量訓練之後) 相匹敵的水平,單純依靠增加訓練資料,可能需要高達 5000 倍的訓練量。這無疑彰顯了推理能力的巨大優勢。而且,顯而易見的是,正如我們多數人一樣,在開口講話之前進行一番思考總能帶來益處,儘管……Alex Kantrowitz:並非總是如此。Sergey Brin:我也時常被人提醒要三思而後言。但我認為,AI 系統在被賦予這種思考能力之後,其整體性能無疑會得到極大的增強。從這個角度看,我認為我們目前所取得的成就,還僅僅是冰山一角。畢竟,這些先進模型真正進入公眾視野尚不足一年時間。Demis Hassabis:尤其值得注意的是,一個AI 在其思考過程中,還可以靈活運用一系列的工具,甚至呼叫其他的 AI 系統來協同工作,從而持續最佳化並提升最終輸出結果的質量。因此,我堅信這將發展成為一種極其強大的範式。03. DeepThink是實現AGI關鍵突破的組成部分Alex Kantrowitz:DeepThink 的理念非常引人入勝。我嘗試對其進行描述,請您看是否精準:它本質上是啟動一系列平行推理過程,這些過程同步運作並相互進行驗證與校對,最終實現一種堪稱“超強版”的推理。Demis,您曾提到,整個行業還需要幾項關鍵的技術突破才能最終實現 AGI。那麼,您會將 DeepThink 這種機制置於何種戰略地位?它是否屬於那些能夠引領行業向 AGI 更近一步的關鍵技術之一?Demis Hassabis:我認為是這樣的。它或許是某一關鍵突破的組成部分。我們不妨這樣說。當然,還有其他重要的方面,例如,我們仍需大幅提升系統的推理能力,而DeepThink 或許能在這方面扮演重要角色。真正的科學發現或技術發明究竟源自何處?它並不僅僅是解決一個已知的數學猜想,更在於能夠提出全新的猜想,或是在物理學等領域建構並驗證全新的理論假設。坦率地說,我認為我們目前所擁有的系統,尚不具備實現此類高級創造力的能力。但我堅信,這樣的系統正在逐步向我們走來。而諸如“思考”這樣的範式,以及與之相關的技術,可能會在這一處理程序中發揮關鍵作用。此外,可能還涉及許多其他因素。我的意思是,我認為我們需要在所建構的世界模型的精確度方面取得一系列重大進展。我想各位通過 Veo,尤其是 Veo 3 的演示,已經初步領略到了這種潛力——它能夠憑藉直覺理解光影流轉和重力效應的內在物理規律,這著實令我歎為觀止。我早期的職業生涯曾專注於電腦遊戲的開發,那不僅僅涉及 AI 程式設計,還包括圖形引擎的建構。我至今仍清晰記得,在那個時代,我們必須手動完成所有的渲染細節,包括複雜的光照計算和著色器程式設計——這些都是早期遊戲開發中極其繁瑣和精密的工作。而如今,模型能夠在內部憑直覺直接領悟並再現這些複雜現象,這無疑是一項驚人的成就。Alex Kantrowitz:我注意到您之前分享了一張圖片,畫面是一個煎鍋,裡面有洋蔥和一些油。這其中應該沒有任何潛意識資訊的傳遞吧?Demis Hassabis:並沒有。完全沒有。或許,只是一個非常、非常細微的暗示。僅此而已。04. 會有單一實體率先達到AGI的某個階段,隨後其他實體跟進Alex Kantrowitz:我們已經數次提及AGI 這個術語了。我觀察到,在當前的 AI 研究領域,似乎出現了一種傾向,即建議不再使用 AGI 一詞,理由是它已被過度使用,以至於在某種程度上失去了其原有的精確含義。但 Demis,您似乎仍然認為這個概念至關重要。能否請您闡述一下原因?Demis Hassabis:我堅信AGI 仍然是一個非常重要的概念。關於這一點,或許我需要與 Shane Legg——他是我們的首席科學家,也是大約 25 年前首批定義並推廣這個術語的學者之一——共同撰寫一些更系統的論述。我認為,目前存在兩種不同的理解,並且它們在一定程度上被混淆了。第一種理解關注的是:一個典型的普通人,一個個體,通常能夠完成那些任務?我們知道,人類個體都具備相當的能力,但無論個人能力多強,每個人所能精通和擅長的領域終究是有限的。或者換一種說法,你能做到的事情,或許社會上 90% 的人也都能做到。實現這種水平的 AI,無疑將在經濟層面和產品應用層面產生巨大價值,因此它是一個非常重要的里程碑。所以,或許我們可以將這一定義稱為“通用水平的人類智能”。但我個人更感興趣,並且我傾向於稱之為 AGI 的,實際上是一個更具理論性的構造。它探討的是:人類大腦作為一種獨特的生物架構,其所能達到的認知和能力的上限究竟是什麼?人類大腦之所以是一個至關重要的參考點,是因為它是目前我們在宇宙中所知的、唯一能夠證明通用智能這種現象確實可能存在的實例。因此,一個真正的 AGI 系統,必須能夠證明它有能力完成那些歷史上最傑出的人類——例如愛因斯坦、莫扎特、瑪麗·居里等等——憑藉其同樣的大腦生物架構 (請注意,這裡強調的是大腦的通用架構,而非某一個特定個體的大腦) 所能完成的各種複雜任務和智力壯舉。對我而言,顯而易見的是,當今的 AI 系統尚不具備這種等級的能力。另一方面,之所以我認為當前圍繞 AGI 的某些討論顯得有些言過其實,是因為我們現有的 AI 系統在表現的穩定性和一致性方面,還遠遠沒有達到可以被認為是“完全通用”的程度。誠然,它們已經具備了相當廣泛的通用性,能夠執行成千上萬種不同的任務,各位今天也親眼見證了許多令人印象深刻的演示。然而,我們每個人在與當今的聊天機器人或智能助手互動時,幾乎都能在短短幾分鐘內輕易地發現它們存在的某些明顯缺陷。例如,某個高中水平的數學題它們可能無法正確解答,或者某款基礎的電腦遊戲它們可能玩不轉。在現有系統中找出這類系統漏洞並非難事。在我看來,一個系統若要真正配得上 AGI 的稱號,它必須在各種任務和情境下都表現出遠超今日水平的穩定性和一致性。理想情況下,應該需要一個頂尖的專家團隊,花費數月的時間進行深入測試和評估,才有可能發現其中一個較為明顯的漏洞。然而現實是,如今任何一個普通使用者都可能在短短幾分鐘內就找出這樣的問題。Alex Kantrowitz:Sergey, 這個問題很適合你。你認為 AGI 會由一家公司率先實現,然後一切就塵埃落定了嗎?或者你認為會出現 Google、OpenAI、Anthropic 以及中國都擁有 AGI 的局面嗎?Sergey Brin:這確實是個很好的問題。我傾向於認為,會有一個公司、國家或實體首先達到AGI。不過,AGI 更像一個連續的譜系,它並非一個絕對精確的界定,所以可以想見,可能會有不止一個實體大致同時處於那個範圍。至於之後會發生什麼,我覺得很難預料。但你完全可以想像,屆時會有多個實體湧現。在我們人工智慧 (AI) 領域,當一方取得某種進展,其他公司會迅速跟進,反之亦然,當其他公司取得某些進展時,這就形成了一種持續的交替領先局面。所以我確實認為這其中有一種激勵效應,它可能會鼓勵越來越多的實體跨越那個門檻。Demis Hassabis:我確實認為,對整個領域而言,就AGI 的定義達成一致非常重要,所以也許我們應該努力推動這一共識的形成。假定有了明確定義,可能會有一些組織率先達到。而且我認為,關鍵在於這些初始系統必須被可靠且安全地建構出來。在那之後,如果情況如此,我們可以設想利用這些初始系統派生出許多具有安全架構的系統,這些架構是在其可證明的安全基礎上建構的。然後,你就可能擁有個人 AGI 以及各種各樣的事物。但是,正如 Sergey 所說,這非常難以預測,這有點像試圖超越事件視界去預測未來景象。Alex Kantrowitz:我們剛才稍微討論了一下AGI 的定義。很多人認為 AGI 必須是知識層面的,即大腦的智能。那麼情感層面的智能呢?Demis,簡單來說,AI 必須具備情感才能被認為是 AGI 嗎?它能夠擁有情感嗎?Demis Hassabis:我認為AI 需要能夠理解情感。至於是否要讓它模仿情感,我認為這更像是一個設計上的抉擇。理論上,我看不出它為什麼不能擁有情感。但 AI 的情感可能與人類不同,或者我們可能認為沒有必要,甚至不希望它們擁有像我們人類那樣的情感反應。所以我再次認為,隨著我們越來越接近 AGI 的時間節點——我認為這更像是一個 5 到 10 年的時間尺度——我們還有一些時間,雖然不多,但足以去研究這類問題。05. 追求的受控制的智能爆炸Alex Kantrowitz:當我思考時間框架如何可能縮短時,我好奇這是否會源於自我改進系統的建立。上周,當我讀到一條關於AlphaEvolve 的新聞標題時,我差點從椅子上摔下來——那是一個能夠幫助設計更優演算法,甚至改進大語言模型訓練方式的 AI。所以,Demis,你是在試圖引發一場智能爆炸嗎?Demis Hassabis:不,我們追求的並非不受控制的智能爆炸。我認為AlphaEvolve 是一個有趣的初步實驗。這是一個卓越的系統,由一個出色的團隊研發。現在令人感興趣的是,開始將其他類型的技術——在這個案例中是進化程式設計技術 ——與日益強大的最新基礎模型 相結合。我非常希望在我們的探索性工作中看到更多這類組合系統,以及各種不同方法的融合。你說得對,自我改進確實是關鍵因素之一,如果有人能發現一種自我改進循環那可能會使進展速度遠超現在。我們之前在自己的工作中也見證過類似情況,比如AlphaZero,它能在 24 小時內從零開始,通過自我改進過程學會國際象棋、圍棋以及任何雙人對弈遊戲。所以我們知道這是可能實現的。但同樣,這些成果都侷限於規則非常明確的有限遊戲領域。現實世界要混亂和複雜得多。因此,這類方法能否在更廣泛的領域有效,仍有待觀察。06. 當前是電腦科學家投身AI事業的獨特歷史時刻Alex Kantrowitz:Sergey,我們討論了一些非常強大的系統,而開發這些系統無疑是一場競賽。這便是你回歸 Google 的原因嗎?Sergey Brin:我認為,作為電腦科學家,我們正處在歷史上一個非常獨特的時刻。坦率地說,任何電腦科學家現在都不應該退休,而應該投身於AI 事業。這就是我的看法。可以說,我們從未面臨過如此重大的課題與機遇,也從未處在如此關鍵的技術浪潮之巔。所以,我不會說回歸是因為競賽——儘管我們確實計畫讓 Gemini 成為第一個 AGI,這一點需要明確。更重要的是能夠沉浸在這場令人難以置信的技術革命之中。這與我經歷過的 Web 1.0 時代不同,那個時代雖然也非常激動人心,後來我們又有了移動技術等等,但我認為 AI 在科學層面上遠比那些更令人振奮。而且我堅信,AI 最終對世界的影響將更為深遠。儘管網際網路和行動電話已經產生了巨大影響,但我認為 AI 將帶來遠為深刻的變革。Alex Kantrowitz:那麼你日常主要做些什麼呢?Sergey Brin:我想我主要是在“折磨”像 Demis 這樣的人——順便說一句,他非常了不起,容忍了我“闖入”這次爐邊談話。我幾乎每天都在公司 (就在街對面)。那裡有許多人正在研究關鍵的 Gemini 文字模型,進行預訓練 (pre-training) 和後訓練 (post-training) 的工作。我的工作主要與他們相關,同時我也會定期參與一些多模態 (multimodal) 方面的工作,比如你們都見過的 Veo。我傾向於深入鑽研技術細節,這對我來說是一種非常享受的“奢侈”,幸運的是,有像 Demis 這樣的人在負責日常管理運作。我的科學興趣就在於此,深耕於演算法及其演進方式。07. AI Agent的未來:多模態互動與物理世界理解Alex Kantrowitz:我們來談談產品,特別是最近發佈的一些產品。Demis,我想問你一個關於 AI Agent 的寬泛問題。因為當我觀察其他科技公司建構 AI Agent 時,我們在演示中看到的通常是具備情境感知能力、擁有無實體聲音、並且主要通過螢幕進行互動的系統。但當我看到 DeepMind 和 Google 的演示時,互動往往是通過攝影機進行的,非常側重視覺。今天也發佈了關於智能眼鏡的消息。所以,請談談我的這種解讀是否精準,以及為什麼 Google 對開發一個能像你一樣觀察世界的助手或伴侶如此感興趣?Demis Hassabis:這背後有幾個原因,幾條思路在此交匯。首先,正如我們之前討論的,我們一直對AI Agent 抱有濃厚興趣。這實際上是 DeepMind 的傳承所在,我們最初就是從遊戲領域中基於 AI Agent 的系統起步的。我們致力於建構 AGI,即一種完全的通用智能 (full general intelligence)。顯然,AGI 必須能夠理解物理環境,也就是你周圍的真實世界。在我看來,這其中兩大核心應用場景:一是打造一個真正實用的助手,它能陪伴你融入日常生活,而不僅僅侷限於電腦或某個特定裝置。我們希望它能在日常生活的方方面面都發揮作用,因此它需要時刻伴隨你左右,並理解你所處的物理情境。另一個重要方面是,我一直認為要讓機器人技術取得突破,我們期待的正是像在 Astra 項目中看到的那種應用於機器人的智能。我始終覺得,機器人技術的瓶頸並不主要在於硬體——儘管有許多公司在研發卓越的硬體,我們也與其中不少公司有合作——而真正制約其發展的是軟體智能。但我相信,我們正處在一個激動人心的時刻。最終,伴隨著最新版本的 Gemini (特別是 2.5 版本) 以及我們將引入的更多新技術,例如 Veo 技術等,我們將擁有非常出色的演算法,從而使機器人技術最終能充分發揮其巨大潛力。所以,最終 AGI 需要具備所有這些能力。因此,對我們而言——這也是你們可以看到的,我們始終秉持這一理念——Gemini 從一開始,即便在最早的版本,就被設計為多模態。這在初期無疑增加了難度,因為實現多模態比純文字處理要複雜得多。但我認為,我們現在正從當初的這些決策中獲益。我看到許多 Gemini 團隊的核心成員就坐在前排,我們做出了正確的決策。這些決策雖然在當時更為艱難,但卻是正確的,如今你們可以從今天展示的所有成果中看到這一點。08. 通用助手才是智能眼鏡的殺手級應用Alex Kantrowitz:Sergey,我一直在猶豫要不要問你一個關於 Google Glass 的問題。Sergey Brin:請講。Alex Kantrowitz:既然智能眼鏡似乎再度興起,那麼你從Google Glass 項目中學到的那些經驗,是 Google 今天可以應用的呢?Sergey Brin:這確實是個很好的問題。我確實學到了很多。坦白說,我覺得自己在Google Glass 項目上犯了不少錯誤。但我依然堅信這種外形規格 (form factor) 的潛力,所以很高興我們現在又擁有了它,而且新款看起來就像普通眼鏡,沒有了之前前面那個部件。老實說,我認為當時存在技術上的差距。如今在 AI 時代,這些眼鏡在為你提供幫助而又不過度分散你注意力的能力已經大大增強了。此外,當時我對消費電子供應鏈幾乎一無所知,不瞭解以一個合理的價位 (price point) 把它製造出來、管理所有生產環節等等有多麼困難。這一次,我們有優秀的合作夥伴來幫助我們完成製造。所以這又是向前邁進了一步。還能說什麼呢?我不得不承認,我確實很懷念當年發佈會上那艘載著翼裝飛行跳傘員的飛艇所做的演示。老實說,如果在Shoreline Amphitheatre 這裡重現,會比當年在 Moscone 中心更酷。不過,這次我們或許應該先把產品打磨好。等它準備就緒、可以上市之後,我們再做一個非常酷的演示。這或許是更明智的做法。Demis Hassabis:我們在眼鏡形態裝置和智能裝置方面顯然擁有非常豐富的歷史經驗。因此,我們可以將所有這些經驗教訓應用於今天。正如你所見,我對我們的新款眼鏡感到非常興奮。我一直與我們的團隊,包括Sharam 等人討論的觀點是——我不知道 Sergey 是否會同意——但我認為,通用助手才是智能眼鏡的殺手級應用。我認為這才是使其成功的關鍵。除了各項技術,尤其是硬體技術本身也取得了長足進步和巨大改進之外,我深信,這才是它真正的、天作之合的殺手級應用。09. AI生成內容的挑戰與應對:SynthID與合成資料Alex Kantrowitz:我們簡單談談視訊生成。今天在主題演講的觀眾席,我對這些模型展現出的進步印象深刻。實際上,演講中也有電影製作人談及此事。Demis,我想特別請教您關於模型質量的問題:如果網際網路上充斥著AI製作的視訊,這些視訊隨後又被用於模型訓練,是否會導致模型質量相較於僅使用人類原創內容訓練的模型有所下降?Demis Hassabis:目前確實有很多關於所謂模型崩潰的擔憂。視訊只是一方面,任何模態,包括文字,都存在此問題。關於這點,有幾項需要說明。首先,我們在資料質量管理和策展方面非常嚴格。其次,至少我們所有的生成式AI 模型都加入了 SynthID。這是一種由AI製作的隱形水印,非常穩健,自發佈以來已歷經一年到一年半的考驗。我們所有的圖像和視訊都嵌入了此水印,因此我們可以檢測出來。我們也在發佈工具讓任何人都能檢測這些水印,從而識別出那是AI生成的圖像或視訊。這對於打擊深度偽造和虛假資訊固然重要,但如果你願意,當然也可以用它來從訓練資料中過濾掉任何不想要的內容。所以我並不認為這是個大問題。最終,我們可能會擁有非常出色的視訊模型,可以將其重新引入訓練循環,作為額外資料——即所謂的合成資料——的來源。這種情況下,必須非常小心,確保實際上是從與模型目標一致的相同分佈中建立資料,不以任何方式扭曲該分佈,並且保證足夠高的質量。我們在一個完全不同的領域有過類似經驗,比如 AlphaFold 項目,當時並沒有足夠的真實實驗資料來建構最終的 AlphaFold。因此,我們不得不先建構一個早期版本,該版本預測了大約一百萬個蛋白質結構,然後根據其置信度篩選出前三四十萬個,並將其重新加入訓練資料。所以,將合成資料與真實資料混合是一項非常前沿的研究,有多種方法可以實現。但就視訊生成的內容而言,至少對我們自己的工作,如果需要是可以排除這些內容的。希望其他生成媒體公司也能效仿,加入強大的水印,其首要目的也是為了打擊深度偽造和虛假資訊。10. 短期內網際網路將因AI Agent優先而大變Alex Kantrowitz:好的,我們還有四分鐘,我剩下四個問題。現在進入我問題的雜項部分。看看我們能討論多少,以及能多快完成。這個問題給Sergey:10 年後的網際網路會是什麼樣子?Sergey Brin:10 年後的網際網路會是什麼樣子?天啊,考慮到 AI 的發展速度,我認為 10 年後的變化將遠超我們當前所能預見的一切,不僅僅是網際網路。我不知道,我們真的不知道 10 年後的世界會是什麼樣子。Alex Kantrowitz:Demis?Demis Hassabis:那是個不錯的答案。我確實認為,在更短期內,網際網路將會發生相當大的變化,特別是如果你考慮到一個AI Agent 優先的網路環境。例如,AI Agent 優先的網路不一定需要像我們人類使用網路那樣查看渲染介面等內容。因此,幾年後情況會大不相同。Alex Kantrowitz:這是一個關於時間點預測的問題:AGI 會在 2030 年之前還是之後出現?Sergey Brin:2030 年。天啊,你真是把時間點卡得非常微妙。我會說之前。Alex Kantrowitz:之前?Demis?Demis Hassabis:我認為是之後。Alex Kantrowitz:之後。Demis,別有壓力。我們得回去更努力地工作了。Sergey Brin:我可以提出要求,他需要負責實現。別再藏著掖著了!我們下周就需要這個成果。Demis Hassabis:的確如此。Alex Kantrowitz:我會來驗收的。那麼,Demis,你會僱傭在面試中使用了 AI 的人嗎?Demis Hassabis:在面試中使用AI?這取決於他們如何使用。若使用當今的模型和工具,或許不會。但這實際上要看具體的使用方式。Alex Kantrowitz:Sergey?Sergey Brin:我從未參加過任何面試,所以我不知道。我覺得由我來評判別人如何面試會顯得很虛偽。Demis Hassabis:我其實也沒有參加過。所以,我在這方面確實沒什麼經驗,從未有過工作面試的經歷。Alex Kantrowitz:Demis,我一直在看你的推文。你發了一條非常有趣的推文,其中有一個提示生成了某種自然場景。Demis Hassabis:哦是的。Alex Kantrowitz:推文是這樣的:“一鍵即可將自然轉化為模擬,這確實引人深思,”後面附帶了幾個表情符號。人們抓住了這一點大做文章,寫出了一些類似“Demis 認為我們身處模擬之中”的標題。我們真的在一個模擬之中嗎?Demis Hassabis:並非Nick Bostrom 和其他人所談論的那種方式。但我確實認為其意義不止於此,因此我不認為這僅僅是某種遊戲——儘管我開發過很多遊戲。我確實認為,物理學的最終基礎是資訊理論。所以我確實認為我們身處一個計算宇宙之中,但它並非一個簡單的直接模擬。這不是一分鐘內能解釋清楚的。但我認為,這些系統能夠模擬自然界中的真實結構,這一點本身就相當有趣且具有啟發性。我一直在深入思考我們通過 AlphaGo、AlphaFold 及此類系統所做的工作。我曾略微談及過此事,或許未來某個時候我會撰寫一篇科學論文,闡述我對現實世界中這一切究竟意味著什麼的看法。Alex Kantrowitz:Sergey,你有什麼驚世駭俗的觀點嗎?Sergey Brin:我認為這個論點可以遞迴應用。如果我們處於一個模擬之中,那麼根據同樣的邏輯,創造這個模擬的任何存在本身也可能處於另一個模擬之中,原因大致相同,如此無限循環下去。因此,你要麼接受我們處於一個無限層疊的模擬之中,要麼就必須存在某種終止條件。Alex Kantrowitz:你最好的猜測是什麼?Sergey Brin:我認為我們看待這個問題的視角非常以人類為中心。例如,當我們談論“模擬”時,通常指的是某種有意識的存在正在運行一個我們身處其中的模擬程序,並且這些存在擁有與我們相似的某種慾望和意識。在我看來,這種類比本身就存在問題。因此,我只是覺得我們或許並沒有能力去真正理解更高層級的存在或現實。Alex Kantrowitz:Demis、Sergey,非常感謝你們。這是一次極其引人入勝的對話。謝謝各位。 (數字開物)