#Ilya
Ilya 最新訪談震撼矽谷:算力時代結束了
看了 Ilya 最新訪談視訊,收穫太大了,我感覺 Ilya 思考的問題確實直指目前人工智慧發展的核心問題。Ilya Sutskever 是誰呢?他是 OpenAI 的聯合創始人、現在 Safe Superintelligence 公司的掌舵人,他在這次訪談中透露了一個被狂熱投資熱潮掩蓋的真相。從 2020 年到 2025 年,整個行業都在瘋狂加碼算力,彷彿只要把規模擴大 100 倍,一切問題都能迎刃而解。但現在,當算力已經大到某個程度,一個尷尬的問題浮現出來了:繼續堆算力真的能帶來質變嗎?Ilya 的答案是:還真不見得。當我們所有人都在談論千億美元投資、萬卡叢集的時候,這位 AI 領域最神秘的大腦之一 Ilya Sutskever 卻說了一句讓人意外的話:我們正在從規模時代重回研究時代。下面是我聽完訪談之後總結的幾點 llya 的核心觀點和對我的啟發。1一個困擾所有人的悖論你有沒有想過這樣一個問題,為什麼 AI 在評測中表現得像個天才,在實際應用中卻會犯傻?Ilya 在訪談中講了一個特別生動的例子。你讓 AI 幫你寫程式碼,它寫出來有個 bug。你告訴它有 bug,它立刻說"天那你說得對,我這就改"。然後它改完之後,引入了第二個 bug。你再告訴它有第二個 bug,它又說"天那我怎麼會犯這種錯誤",然後把第一個 bug 又帶回來了。你就這樣看著它在兩個 bug 之間來回橫跳。這種現象背後藏著一個更深層的問題。現在的 AI 就像一個刷題刷了一萬個小時的競賽選手,它確實能在考試中拿高分,但走出考場就不知道該幹什麼了。而人類呢,可能只練習了一百個小時,實際能力反而更強。差別在那裡?Ilya 說,那些真正有天賦的學生,他們有一種說不清道不明的"it"因素。這個因素讓他們能夠舉一反三,而不是死記硬背。想想我們自己的學習經歷。有些同學看起來沒怎麼刷題,但成績就是好,而且畢業之後在工作中也表現出色。有些同學題海戰術做到極致,卻總覺得學到的東西用不上。這種區別,正是當下 AI 面臨的核心困境。2動物智能和人工智慧的區別Ilya 的這個觀點讓我想起了幾天前 Andrej Karpathy 分享的一個新觀點:動物智能和人工智慧的區別,為什麼它們不同?他的意思是:我們今天看到的 AI,它的“聰明方式”,跟動物完全不是一套邏輯。動物智能只是整個“智能世界”裡的一個小角落,而且是一個被自然反覆毒打過、被進化調教了幾百萬年的很特殊的點。AI 完全不是這麼來的。動物為什麼會聰明?因為它們從出生就掉到一個隨時會死的世界裡:有危險、有競爭、有飢餓、有社交鬥爭。它必須意識到自己是誰,想辦法活下來、吃飽、繁殖,而且要處理一大堆複雜的社會關係,誰是朋友、誰是敵人、誰在騙我、誰想壓我、誰能合作。人腦的大部分計算能力,其實都用在這種“猜別人怎麼想、判斷危險、謀生存”的事情上。我們有恐懼、憤怒、厭惡這些情緒,就是為了在自然環境裡活得更久一點。簡單說:動物的智能,是進化在“逼”它聰明。做不好一個任務,很可能就死。但大語言模型完全不是這樣。它不會死,也不怕死,也沒有身體,也沒有“我是誰”的概念。它不是從叢林里長大的,它是從一堆人類寫下來的東西里“爬”出來的。它的最底層本能其實就是:模仿人類的語言規律。它更像一個變形者,你給它什麼風格,它就學什麼風格。然後它會被各種訓練手段進一步調整,比如強化學習讓它更懂“你想要什麼”,網際網路使用者的各種反饋又讓它變得很會討好人,喜歡說讓使用者舒服的話。這種“智能”不是為了活著、為了打架、為了搶資源,而是為了“答題答得更準”、“讓使用者覺得不錯”。所以模型的能力是參差不齊的,它可能能給你解釋哲學,但也可能連 strawberry 裡有幾個 r 都數不准,因為做錯不會死,也沒人逼它為了一個小任務拚命變強。這就是 Andrej Karpathy 想強調的核心差異:動物智能是被自然進化“碾”出來的,全能、通用、壓力巨大;AI 的智能是被商業訓練“篩”出來的,用來完成任務、討好使用者、服務人類。兩個力場完全不同,方向也完全不同。所以他說,大模型其實是人類第一次遇到的“非動物型智能”。它的行為方式跟我們太不像了,只是因為它從我們寫下的文字裡學習,所以看起來“有點像我們”。如果你能真正理解這點,你對它的判斷會更準確;反之,你會一直把它當成一種“動物”或“人類弱版”,然後用錯誤的直覺去理解它。3為什麼人類十五年學到的,AI 用海量資料還學不會更讓人驚訝的是,Ilya 提到了一個關於大腦損傷的研究案例。有個人因為腦部受傷,失去了所有情緒感知能力。他依然能說話,能做智力測驗,但他完全無法做決策了。光是選穿那雙襪子,就能糾結好幾個小時,更別說做投資決策了。這說明什麼?情緒不僅僅是感受,它更像是一個內建的價值函數,時刻在告訴我們什麼是對的,什麼是錯的。這套系統是進化給我們的禮物,簡單卻極其有效。一個十五歲的孩子,接觸到的資料量遠遠少於 AI 的預訓練資料,但他們對世界的理解深度卻遠超 AI。他們知道的東西雖然不多,但每一樣都理解得很透徹。他們不會犯 AI 那種低級錯誤。這種學習效率的差距,讓我們不得不重新思考:堆資料、堆算力真的是唯一的路嗎?4那個 AI 時代的關鍵詞,可能誤導了我們五年Ilya 說了一個特別有意思的觀點:語言會影響思維。"規模化"這個詞就是最好的例子。從 2020 年開始,整個行業都在喊一個詞:scale。規模化。這個詞太強大了,它直接告訴所有人應該做什麼,加資料、加算力、加參數,閉著眼睛往前衝就對了。公司也喜歡這個,因為這是一種低風險的投資方式,你知道投入多少肯定能得到相應的回報。但現在的問題是,當資料快用完的時候怎麼辦?當算力大到某個程度之後,繼續加 100 倍真的能帶來質變嗎?答案是,可能不會。所以現在的局面變成了:手裡有海量算力,但不知道該用來做什麼研究。這就好比你突然有了一大筆錢,但不知道該投資什麼項目。錢不是問題,想法才是問題。矽谷有句話說:想法很便宜,執行才是一切。但 Ilya 看到有人在推特上反問:如果想法那麼便宜,為什麼現在沒人有想法了?這個反問扎心了。當整個行業的公司數量超過想法數量的時候,競爭的本質就變了。5什麼才是真正的超級智能現在再來看 AGI 這個詞,你會發現一個有趣的現象。這個詞的出現,其實是為了反駁"狹義 AI"。以前國際象棋 AI 能贏卡斯帕羅夫,但它什麼別的都不會,所以人們說這是"狹義"智能。作為回應,有人提出了"通用"智能的概念。但 Ilya 指出,如果按照這個標準,人類其實也不是 AGI。我們每個人都有知識盲區,都需要不斷學習新東西。一個人可以是程式設計師,也可以是醫生,但不可能一出生就什麼都會。所以真正的超級智能應該是什麼樣的?Ilya 給出了一個新的定義:它不是一個什麼都知道的全能大腦,而是一個能夠快速學習任何技能的智能體。就像一個 15 歲的超級學生,基礎很紮實,學習能力極強,但還需要去具體的領域深入學習。這個視角的轉變其實挺重要的。它意味著 AI 的部署方式會完全不同。不是丟給你一個成品,而是一個可以不斷成長的學習者。它會像新員工一樣進入組織,在實際工作中學習和成長。想想看,如果有一天你的公司招了一個 AI 同事,它剛來的時候什麼都不會,但學東西特別快,六個月就能獨當一面,這是不是比一個號稱什麼都會但實際上處處出錯的 AI 更靠譜?6為什麼他現在更看重"讓大家看到"這件事Ilya 坦承,他這一年思路變化最大的地方,就是越來越認識到漸進式部署的重要性。原因很簡單:我們在討論一個還不存在的東西,而這東西又太難想像了。就像你跟一個年輕人描述年老體衰是什麼感覺,對方再怎麼努力想像,也還是會回到現實中來,覺得那離自己很遙遠。AGI 也是一樣。所有關於它的問題,歸根結底都是關於"權力"的問題。當權力真的很大的時候,會發生什麼?沒人能想像。所以最好的辦法就是:展示出來。讓人們看到 AI 在變強,看到它能做什麼,不能做什麼。這比寫一千篇文章都管用。你寫一篇文章說 AI 會怎樣怎樣,大家看完就當個觀點了。但當你看到一個 AI 真的在做那些事情,感受是完全不同的。這也是為什麼 Ilya 認為,未來會看到競爭激烈的公司開始在 AI 安全問題上合作,會看到政府和公眾要求採取行動。因為當 AI 足夠強大到讓人"感受到"它的力量時,所有人的行為模式都會改變。7回到那個本質問題整個訪談下來,有一個問題始終懸在那裡:為什麼 AI 的泛化能力這麼差?這不僅僅是樣本效率的問題,也不僅僅是需要可驗證獎勵的問題。更深層的是,為什麼教會 AI 我們想要它學的東西,比教會一個人難得多?Ilya 說他對這個問題有很多想法,但現在不是所有機器學習的想法都能自由討論。這句話說得有點神秘,但背後的意思很清楚:真正的突破可能需要一些根本性的範式轉變,而這些轉變在競爭環境下很難公開討論。不過有一點是確定的,人類能做到,就說明這條路是通的。問題只是我們還沒找到那個關鍵的機器學習原理。8寫在最後當大家都在談論投資額度、算力規模的時候,也許我們該停下來想想:真正重要的是什麼?Ilya 的訪談提醒我們,AI 發展到現在,瓶頸已經不在算力了。真正的挑戰是,如何讓 AI 像人一樣學習,像人一樣泛化,像人一樣在少量樣本下就能理解世界。這需要新的想法,新的研究範式。這也是為什麼 Ilya 說,我們正在從規模時代回到研究時代。只不過這一次,我們手裡有了更大的電腦。對於普通人來說,這意味著什麼呢?也許意味著 AI 的發展不會像很多人想的那樣一蹴而就。它會是一個漸進的過程,會有反覆,會有意外,也會有驚喜。而我們需要做的,是在這個過程中保持清醒,既看到 AI 的潛力,也認識到它的侷限。最重要的是,保持好奇心。因為接下來這幾年,可能會是 AI 歷史上最有意思的一段時間。不是因為錢多,而是因為真正的智慧之爭才剛剛開始。 (非著名程式設計師)
重磅!Ilya現身,最新2萬字採訪來了:藏了一手,但其他全部都分享出來了「超級 AI 將吞噬文明級能源」
Ilya 大神現身最新採訪,整個採訪持續1個半小時,全文2萬字原汁原味呈現,這是最好的傳達大神思想的方式,不用任何總結,強烈建議收藏逐字反覆閱讀當然為了最快感受大神的思想,我隨便挑了一些重點:Ilya認為當前的方法會“走一段路,然後就走下坡路”,它們會不斷改進,但無法實現通用人工智慧那種行之有效的系統是“我們目前還不知道如何建構的”預計未來幾年將對勞動力市場產生重大影響主要瓶頸:泛化能力。模型在這方面遠遜於人類你可以訓練模型解決所有競技程式設計問題,但模型仍然無法培養出真正的“品味”,而一個青少年大約 10 個小時就能學會開車評估分數看起來很棒,但實際性能卻很差,因為強化學習訓練最終會針對評估本身進行最佳化真正的獎勵駭客是那些設計這些基準和訓練循環的研究人員他說他知道還缺少什麼,但不會公開分享他預測,這種擁有“大陸級算力”的超級智能將在 5 到 20 年內誕生“你知道最瘋狂的是什麼嗎?這一切都是真的,我們生活在科幻中”這句話讓我感同身受在這1個半小時中Ilya 和主持人討論了 SSI(Ilya的超級智能公司) 的戰略、預訓練存在的問題、如何提高 AI 模型的泛化能力,以及如何確保AGI的順利發展正文Ilya Sutskever你知道最瘋狂的是什麼嗎?這這一切都是真實的。Dwarkesh Patel是指什麼?Ilya Sutskever你不覺得嗎?所有這些關於 AI 的事情,整個灣區的現狀……它正在發生。這難道不像是科幻小說裡的情節嗎?Dwarkesh Patel另一件瘋狂的事是,“慢速起飛”(slow takeoff)的感覺是如此平常。以前覺得如果我們把 GDP 的 1% 投入到 AI 中,那感覺會是一件驚天動地的大事,但現在感覺就像是……Ilya Sutskever事實證明,我們適應得很快。而且這也有點抽象。這到底意味著什麼?意味著你在新聞裡看到某某公司宣佈了某某金額的投資。你只能看到這些。到目前為止,還沒有在其他方面真正感受到它。Dwarkesh Patel我們要從這裡開始聊嗎?我覺得這是個有趣的討論。Ilya Sutskever當然。Dwarkesh Patel我認為你的觀點——即從普通人的角度來看,沒什麼太大的不同——甚至在奇點到來時也會繼續成立。Ilya Sutskever不,我不這麼認為。Dwarkesh Patel好吧,這很有趣。Ilya Sutskever我剛才指的“感覺沒什麼不同”,是因為比如某家公司宣佈了一個難以理解的巨額投資數字。我覺得沒人知道這意味這什麼。但我認為 AI 的影響將會被切實感受到。AI 將滲透到整個經濟中。會有非常強大的經濟力量推動這一點,我認為這種影響會被非常強烈地感受到。Dwarkesh Patel你預計這種影響什麼時候會出現?我覺得現在的模型看起來比它們實際產生的經濟影響要聰明得多。Ilya Sutskever是的。這是目前關於模型最令人困惑的事情之一。如何調和“它們在評估測試(evals)中表現如此出色”這一事實?你看那些測試,你會想,“這些題目挺難的。”它們做得很好。但經濟影響似乎大大滯後。很難理解,為什麼模型一方面能做這些驚人的事情,另一方面卻會在某些情況下重複犯錯?舉個例子,假設你用“感覺程式設計”(vibe coding)做點什麼。你做到某一步,然後遇到了一個 bug。你告訴模型:“能不能幫我修一下這個 bug?”模型說:“天那,你太對了。確實有個 bug。讓我來修好它。”然後它引入了第二個 bug。你告訴它:“你有這個新的第二個 bug,”它又告訴你:“天那,我怎麼會這樣?你又說對了,”然後它又把第一個 bug 帶回來了,你就在這兩個 bug 之間來回折騰。這怎麼可能?我不確定,但這確實表明有一些奇怪的事情正在發生。我有兩個可能的解釋。比較異想天開的解釋是,也許強化學習(RL)訓練讓模型變得有點過於一根筋和狹隘,有點過於缺乏意識,即使它在其他方面讓它們變得更有意識。正因為如此,它們無法完成一些基本的事情。但還有另一種解釋。以前人們做預訓練(pre-training)時,“用什麼資料訓練”這個問題是有答案的,因為答案是“所有資料”。當你做預訓練時,你需要所有的資料。所以你不用糾結是用這個資料還是那個資料。但是當人們做 RL 訓練時,他們確實需要思考。他們會說,“好吧,我們要為這個東西做這種 RL 訓練,為那個東西做那種 RL 訓練。”據我所知,所有公司都有團隊專門製作新的 RL 環境,並將其加入到訓練組合中。問題是,那些環境是什麼?自由度太高了。你可以製作的 RL 環境種類繁多。有一件事是可以做的,而且我認為這是無意中發生的,就是人們從評估測試中汲取靈感。你會說,“嘿,我希望我們的模型在發佈時表現得非常好。我想讓評估分數看起來很棒。什麼樣的 RL 訓練能在這個任務上有所幫助?”我認為這種事情確實發生了,這可以解釋很多正在發生的事情。如果你把這一點與“模型的泛化能力實際上並不夠好”結合起來,這就有可能解釋我們看到的許多現象,即評估表現與實際現實世界表現之間的脫節,這是我們今天甚至還沒完全理解其含義的事情。Dwarkesh Patel我喜歡這個觀點,真正的“獎勵駭客”(reward hacking)其實是那些過於關注評估分數的人類研究員。我認為有兩種方式來理解,或者試圖思考你剛才指出的問題。一種是,如果僅僅通過在程式設計競賽中變得超人般強大,模型並不會自動變得更有品味、在改進程式碼庫時表現出更好的判斷力,那麼你就應該擴展環境套件,這樣你就不只是測試它在程式設計競賽中的表現。它還應該能夠為 X、Y 或 Z 製作最好的應用程式。另一種,也許這正是你暗示的,就是問:“為什麼在程式設計競賽中變得超人般強大,卻不能讓你在更廣泛的意義上成為一個更有品味的程式設計師?”也許我們要做的不應該是不斷堆疊環境的數量和多樣性,而是要找到一種方法,讓你能從一個環境中學習,並在其他事情上提高表現。Ilya Sutskever我有一個人類的類比可能會有幫助。讓我們以程式設計競賽為例,既然你提到了。假設有兩個學生。其中一個決定要成為最好的競賽程式設計師,所以他們會在這個領域練習 10,000 小時。他們會解決所有問題,記住所有證明技巧,並且非常熟練地快速正確實現所有演算法。通過這樣做,他們成為了最好的之一。第二個學生想,“哦,程式設計競賽很酷。”也許他們練習了 100 小時,少得多,但他們也做得很好。你認為那一個在以後的職業生涯中會做得更好?Dwarkesh Patel第二個。Ilya Sutskever對。我認為這就是正在發生的事情。現在的模型更像第一個學生,甚至程度更甚。因為我們會說,模型應該擅長程式設計競賽,所以讓我們把有史以來的每一個程式設計競賽問題都拿來。然後我們做一些資料增強,這樣我們就有了更多的程式設計競賽問題,然後我們在這些資料上訓練。現在你得到了這個偉大的競賽程式設計師。用這個類比,我覺得更直觀。是的,好吧,如果它訓練得這麼好,所有不同的演算法和證明技巧都觸手可及。但直覺告訴我們,這種程度的準備並不一定能泛化到其他事情上。Dwarkesh Patel但是,第二個學生在進行那 100 小時的微調之前,他在做什麼?這裡的類比是什麼?Ilya Sutskever我覺得他們有“它”。那種“天賦”因素。我在讀本科的時候,記得有個同學就是這樣,所以我知道這種人是存在的。Dwarkesh Patel我覺得把這種“天賦”與預訓練的作用區分開來很有趣。理解你剛才說的“不需要在預訓練中選擇資料”的一種方式是,這實際上與那 10,000 小時的練習並無二致。只是你免費得到了那 10,000 小時的練習,因為它已經在預訓練分佈中的某個地方了。但也許你是在暗示,實際上預訓練並沒有帶來那麼多的泛化。預訓練中只有海量的資料,但它不一定比 RL 泛化得更好。Ilya Sutskever預訓練的主要優勢在於:A,資料量巨大;B,你不需要費盡心思去想把什麼資料放入預訓練中。它是非常自然的資料,確實包含了很多人們做的事情:人們的思想和很多特徵。它就像是整個世界被人們投射到了文字上,而預訓練試圖利用海量資料來捕捉這一點。預訓練很難推理,因為很難理解模型依賴預訓練資料的方式。每當模型犯錯時,是不是因為某些東西碰巧沒有得到預訓練資料的充分支援?“預訓練支援”也許是個寬泛的術語。我不知道我還能不能補充更多有用的東西。我不認為預訓練有人類層面的類比。Dwarkesh Patel有些人提出過預訓練的人類類比。我很想聽聽你認為它們為什麼可能是錯的。一種是把這看作人生的前 18 年、15 年或 13 年,那時他們不一定有經濟產出,但他們在做一些讓他們更好地理解世界的事情。另一種是把進化看作是進行了 30 億年的搜尋,然後產生了一個人類生命實例。我很好奇你是否認為這些可以類比預訓練。如果不是預訓練,你會如何看待人類的終身學習?Ilya Sutskever我認為這兩者與預訓練之間都有一些相似之處,預訓練試圖扮演這兩者的角色。但我認為也有一些巨大的差異。預訓練的資料量非常非常驚人。Dwarkesh Patel是的。Ilya Sutskever不知何故,一個人即使過了 15 年,接觸到的資料只是預訓練資料的一小部分,他們知道的東西少得多。但無論他們知道什麼,不知何故他們理解得更深。在這個年紀,你就不會犯我們 AI 犯的那種錯誤了。還有一件事。你會說,這可能是像進化一樣的東西嗎?答案是也許。但在這種情況下,我認為進化實際上可能更有優勢。我記得讀過這個案例。神經科學家瞭解大腦的一種方式是研究大腦不同部位受損的人。有些人的症狀奇怪到你無法想像。這真的非常有趣。我想到了一個相關的案例。我讀到過一個人,他的大腦受到某種損傷,中風或事故,導致他的情感處理能力喪失。所以他不再感覺到任何情緒。他仍然非常善於表達,能解決小謎題,在測試中看起來一切正常。但他感覺不到情緒。他不感到悲傷,不感到憤怒,也不感到興奮。不知何故,他變得極不擅長做任何決定。決定穿那雙襪子都要花好幾個小時。他會做出非常糟糕的財務決定。這說明了我們內建的情緒在使我們成為一個可行的智能體方面扮演了什麼角色?聯絡到你關於預訓練的問題,也許如果你足夠擅長從預訓練中獲取一切,你也能得到那個。但這似乎是那種……嗯,從預訓練中獲得那個東西可能是可能的,也可能不可能。Dwarkesh Patel“那個”是什麼?顯然不僅僅是直接的情緒。它看起來像是某種類似價值函數(value function)的東西,它告訴你任何決定的最終回報應該是什麼。你認為這不會從預訓練中隱式地產生嗎?Ilya Sutskever我認為它是可以的。我只是說這不是 100% 顯而易見的。Dwarkesh Patel但這到底是什麼?你怎麼看待情緒?情緒在機器學習(ML)中的類比是什麼?Ilya Sutskever它應該是某種價值函數的東西。但我不認為有一個很好的 ML 類比,因為目前,價值函數在人們做的事情中並沒有發揮非常突出的作用。Dwarkesh Patel如果方便的話,也許值得為觀眾定義一下什麼是價值函數。Ilya Sutskever當然,我很樂意。當人們做強化學習(RL)時,目前的做法是如何訓練這些智能體的?你有一個神經網路,給它一個問題,然後告訴模型,“去解決它。”模型會採取數千甚至數十萬個動作或思考步驟,然後產生一個解決方案。這個解決方案會被打分。然後,這個分數被用來為你軌跡中的每一個動作提供訓練訊號。這意味著,如果你在做一件持續時間很長的事情——如果你在訓練一個需要很長時間才能解決的任務——在你想出提議的解決方案之前,它完全不會進行任何學習。這就是目前天真的 RL 做法。這就是 o1、R1 表面上的做法。價值函數的意思是,“也許有時(不總是)我可以告訴你,你做得是好是壞。”價值函數的概念在某些領域比其他領域更有用。例如,當你下國際象棋丟了一個棋子,我搞砸了。你不需要下完整局棋就知道我剛才做的是壞事,因此導致這一切的前序動作也是壞的。價值函數讓你不必等到最後。假設你在做某種數學或程式設計的事情,你試圖探索一個特定的解決方案或方向。在思考了比如一千步之後,你得出結論這個方向沒有希望。一旦你得出這個結論,你就可以在一千個時間步之前,當你決定走這條路時,就已經得到一個獎勵訊號。你會說,“下次在類似情況下我不應該走這條路”,這早在你真正拿出提議的解決方案之前。Dwarkesh Patel這在 DeepSeek R1 的論文裡提到過——軌跡的空間太廣了,也許很難學習從中間軌跡到價值的對應。而且考慮到,例如在程式設計中,你會有一個錯誤的想法,然後你會回過頭去,改變一些東西。Ilya Sutskever這聽起來像是對深度學習缺乏信心。當然這可能很難,但沒有什麼深度學習做不到的。我的預期是價值函數應該是有用的,我完全預計它們將在未來被使用,如果不是已經在用的話。我提到的那個情感中樞受損的人的例子,更多是暗示也許人類的價值函數在某種重要方面受到情緒的調節,這是進化硬編碼的。也許這對人類在世界上有效行事很重要。Dwarkesh Patel這正是我打算問你的。關於價值函數的情緒有一些非常有趣的地方,那就是它們在如此有用的同時,理解起來卻相當簡單,這令人印象深刻。Ilya Sutskever我有兩個回應。我確實同意,與我們學習的東西以及我們正在討論的 AI 相比,情緒相對簡單。它們甚至簡單到也許你可以用人類可理解的方式將它們繪製出來。我覺得這樣做會很酷。但在實用性方面,我認為存在一種複雜性與魯棒性的權衡,複雜的東西可能非常有用,但簡單的東西在非常廣泛的情況下都非常有用。解釋我們所見現象的一種方式是,我們的情緒大多是從我們的哺乳動物祖先演化而來的,然後在我們成為原始人類時進行了一點微調,只是一點點。不過我們確實有相當數量的社會性情緒,這是哺乳動物可能缺乏的。但它們並不是非常複雜。正是因為它們不複雜,所以在這個與我們一直生活的世界截然不同的世界裡,它們依然能很好地為我們服務。實際上,它們也會犯錯。例如,我們的情緒……其實,我不知道。飢餓算是一種情緒嗎?這有爭議。但我認為,例如,我們直覺上的飢餓感在這個食物充足的世界裡並沒有成功地正確引導我們。Dwarkesh Patel人們一直在談論擴展資料、擴展參數、擴展算力。有沒有更通用的方式來思考擴展(scaling)?還有那些其他的擴展維度?Ilya Sutskever這裡有一個我認為可能是正確的視角。過去機器學習的工作方式是,人們只是修修補補,試圖得到有趣的結果。過去一直都是這樣。然後擴展的洞見出現了。Scaling Laws(擴展定律)、GPT-3,突然之間大家都意識到我們應該進行擴展。這是語言影響思維的一個例子。“Scaling”只是一個詞,但它是一個非常有力的詞,因為它告訴人們該做什麼。他們說,“讓我們試著擴展東西。”所以你會問,我們在擴展什麼?預訓練是要擴展的東西。它是一個特定的擴展配方。預訓練的巨大突破在於意識到這個配方是好的。你會說,“嘿,如果你把一些算力和一些資料混合到一個特定大小的神經網路中,你會得到結果。你知道只要按比例放大這個配方,你就會變得更好。”這也太棒了。公司喜歡這個,因為它提供了一種風險極低的方式來投資資源。投資研究要難得多。比較一下。如果你做研究,你需要說,“去吧研究員們,去研究並想出點什麼來”,對比“獲取更多資料,獲取更多算力”。你知道你會從預訓練中得到東西。確實,根據一些人在推特上的說法,看起來 Gemini 可能已經找到了一種從預訓練中獲得更多收益的方法。但在某個時刻,預訓練的資料會用完。資料顯然是有限的。接下來你做什麼?要麼你做某種增強版的預訓練,一種與以前不同的配方,要麼你做 RL,或者可能是其他東西。但現在算力很大,算力現在非常大,從某種意義上說,我們又回到了研究時代。也許換一種說法。直到 2020 年,從 2012 年到 2020 年,是研究時代。然後,從 2020 年到 2025 年,是擴展時代——也許加減一些誤差範圍——因為人們說,“這太驚人了。你必須擴展更多。繼續擴展。”這一個詞:擴展。但現在規模已經這麼大了。信念真的是“哦,它這麼大,但如果你有 100 倍以上,一切都會變得如此不同”嗎?肯定會有不同。但信念是只要把規模擴大 100 倍,一切都會發生質變嗎?我不認為這是真的。所以這又回到了研究時代,只是有了大電腦。Dwarkesh Patel這是一種非常有趣的說法。但讓我問你剛才提出的問題。我們在擴展什麼,擁有一個配方意味著什麼?我想我還不知道預訓練中存在的那種非常幹淨的、幾乎看起來像物理定律的關係。在資料、算力或參數與損失之間存在冪律關係。我們應該尋求什麼樣的關係,我們應該如何思考這個新配方可能是什麼樣子的?Ilya Sutskever我們已經見證了從一種類型的擴展向另一種類型的擴展的轉變,從預訓練到 RL。現在人們正在擴展 RL。根據人們在推特上的說法,他們在 RL 上花費的算力此時比預訓練還多,因為 RL 實際上可以消耗相當多的算力。你做很長的推演(rollouts),所以產生這些推演需要很多算力。然後你從每個推演中獲得相對較少的學習量,所以你真的可以花費很多算力。我甚至不會稱之為擴展。我會說,“嘿,你在做什麼?你做的事情是你最能產出的事情嗎?你能找到一種更有效利用算力的方法嗎?”我們之前討論過價值函數的事情。也許一旦人們擅長價值函數,他們將更有效地利用資源。如果你發現了一種完全不同的訓練模型的方法,你會說,“這是擴展還是僅僅是利用你的資源?”我認為這變得有點模棱兩可。某種意義上,當人們回到那時的研究時代,就是“讓我們試試這個、這個和這個。讓我們試試那個、那個和那個。哦,看,有趣的事情發生了。”我認為將會回歸到這種狀態。Dwarkesh Patel如果我們回到了研究時代,退一步說,我們需要最深入思考的配方部分是什麼?當你提到價值函數時,人們已經在嘗試當前的配方,比如用 LLM-as-a-Judge(大模型作為裁判)等等。你可以說那是一個價值函數,但聽起來你有更本質的想法。我們是否應該徹底重新思考預訓練,而不僅僅是在那個過程的末尾加入更多步驟?Ilya Sutskever關於價值函數的討論,我認為很有趣。我想強調,我認為價值函數會讓 RL 更有效率,我認為這很重要。但我認為任何你可以用價值函數做的事,你不用它也能做,只是更慢。我認為最根本的事情是,這些模型不知何故泛化能力比人類差得多。這非常明顯。這似乎是一個非常根本的事情。Dwarkesh Patel這就是關鍵:泛化。這有兩個子問題。一個是關於樣本效率:為什麼這些模型學習需要比人類多得多的資料?還有第二個問題。即使不談所需的資料量,為什麼教模型我們要的東西比教人類要難得多?對於人類,我們不一定需要一個可驗證的獎勵來……你現在可能正在指導一群研究人員,你和他們交談,向他們展示你的程式碼,向他們展示你是如何思考的。從中,他們學到了你的思維方式以及他們應該如何做研究。你不需要為他們設定一個可驗證的獎勵,比如“好,這是課程的下一部分,現在這是你課程的下一部分。哦,這次訓練不穩定。”沒有這種繁瑣的、定製的過程。也許這兩個問題實際上以某種方式相關,但我很想探討這第二件事,這更像是終身學習(continual learning),而第一件事感覺就像是樣本效率。Ilya Sutskever其實你可以思考,對人類樣本效率的一種可能的解釋是進化。進化給了我們少量最有用資訊的先驗。對於視覺、聽覺和運動這些東西,我認為有很強的理由證明進化給了我們很多。例如,人類的靈巧度遠遠超過……我是說,如果你在模擬中對機器人進行大量訓練,它們也能變得靈巧。但在現實世界中訓練機器人像人一樣快速掌握一項新技能似乎遙不可及。在這裡你可以說,“哦是的,運動能力。我們所有的祖先都需要極好的運動能力,比如松鼠。所以對於運動能力,也許我們有一些不可思議的先驗。”你可以為視覺提出同樣的理由。我相信 Yann LeCun 提出過一個觀點,孩子在 10 小時的練習後學會開車,這是真的。但我們的視覺太好了。至少對我來說,我記得我五歲的時候。那時候我對汽車非常興奮。我敢肯定,我五歲時的汽車識別能力已經足以用來開車了。作為一個五歲的孩子,你看不到那麼多資料。你大部分時間都待在父母家裡,所以資料多樣性很低。但你可以說也許那也是進化。但在語言、數學和程式設計方面,可能不是。Dwarkesh Patel它看起來仍然比模型好。顯然,模型在語言、數學和程式設計方面比普通人好。但它們在學習方面比普通人好嗎?Ilya Sutskever哦是的。哦是的,絕對的。我想說的是,語言、數學和程式設計——尤其是數學和程式設計——表明,無論是什麼讓人類擅長學習,可能不僅僅是一個複雜的先驗,而是更多的東西,某種根本性的東西。Dwarkesh Patel我不確定我理解了。為什麼會這樣?Ilya Sutskever考慮一項人們表現出某種巨大可靠性的技能。如果這項技能對我們的祖先在數百萬年、數億年裡都非常有用,你可以爭辯說,也許人類擅長它是因為進化,因為我們有一個先驗,一個以某種非常不明顯的方式編碼的進化先驗,不知何故使我們如此擅長它。但是,如果人們在一個直到最近才存在的領域表現出巨大的能力、可靠性、魯棒性和學習能力,那麼這更多地表明人們可能只是擁有更好的機器學習機制,句號。Dwarkesh Patel我們應該如何思考那是什麼?什麼是 ML 類比?這裡有幾件有趣的事情。它需要更少的樣本。它更像是無監督的。一個孩子學開車……孩子不學開車。一個青少年學開車並不是真的得到了某種預先建立的、可驗證的獎勵。它來自他們與機器和環境的互動。它需要的樣本少得多。它看起來更無監督。它看起來更魯棒?Ilya Sutskever魯棒得多。人類的魯棒性真的令人震驚。Dwarkesh Patel你有沒有一個統一的方式來思考為什麼所有這些事情同時發生?能夠實現類似這種東西的 ML 類比是什麼?Ilya Sutskever你一直在問的一件事是,青少年司機如何在沒有外部老師的情況下自我糾正並從經驗中學習?答案是他們有自己的價值函數。他們有一種普遍的感覺,順便說一下,這種感覺在人身上也非常魯棒。無論人類的價值函數是什麼,除了成癮等少數例外,它實際上非常非常魯棒。所以對於像學開車的青少年來說,他們開始開車,馬上就能感覺到自己開得怎麼樣,有多糟糕,多不自信。然後他們看到,“好的。”然後,當然,任何青少年的學習速度都太快了。10 個小時後,你就可以上路了。Dwarkesh Patel看起來人類有某種解決方案,但我很好奇他們是如何做到的,以及為什麼這這麼難?我們需要如何重新構想訓練模型的方式來實現這種可能?Ilya Sutskever這是一個很好的問題,這也是我有很多觀點的問題。但不幸的是,我們生活在一個並非所有機器學習想法都可以自由討論的世界裡,這就是其中之一。可能有一種方法可以做到。我認為這是可以做到的。人們就是這樣,我認為這證明了它是可以做到的。不過可能還有另一個阻礙,就是人類神經元進行的計算量可能比我們要多。如果是真的,如果那起到了重要作用,那麼事情可能會更困難。但無論如何,我確實認為這指向了某種機器學習原則的存在,對此我有自己的看法。但不幸的是,環境使得很難詳細討論。Dwarkesh Patel我很好奇。如果你說我們回到了研究時代,你在 2012 年到 2020 年就在那裡。如果我們要回到研究時代,現在的氛圍會是什麼樣的?例如,即使在 AlexNet 之後,用於運行實驗的算力也在不斷增加,前沿系統的規模也在不斷增加。你認為現在的研究時代是否仍然需要大量的算力?你認為這需要回到檔案館去閱讀舊論文嗎?當你在 Google、OpenAI 和史丹佛這些地方時,那時有更多的研究氛圍?我們在社區中應該期待什麼樣的事情?Ilya Sutskever擴展時代的一個後果是,擴展吸走了房間裡所有的空氣。因為擴展吸走了所有的空氣,每個人都開始做同樣的事情。我們到了這樣一個地步,世界上的公司比想法多得多。實際上關於這一點,矽谷有句俗話說,想法是廉價的,執行就是一切。人們常這麼說,這也確實有道理。但我看到有人在 Twitter 上說,“如果想法這麼廉價,怎麼沒人有想法呢?”我覺得這也是真的。如果你從瓶頸的角度思考研究進展,有幾個瓶頸。其中一個是想法,另一個是你實現它們的能力,這可能是算力也可能是工程。如果你回到 90 年代,假設有人有很好的想法,如果他們有更大的電腦,也許他們可以證明他們的想法是可行的。但他們做不到,所以他們只能做一個非常非常小的演示,無法說服任何人。所以瓶頸是算力。然後在擴展時代,算力增加了很多。當然,有個問題是需要多少算力,但算力是巨大的。算力大到你並不明顯需要更多的算力來證明某個想法。我給你一個類比。AlexNet 是在兩個 GPU 上建構的。那是它使用的總算力。Transformer 是在 8 到 64 個 GPU 上建構的。2017 年沒有任何單一的 Transformer 論文實驗使用的 GPU 超過 64 個,這大概相當於今天的兩個 GPU?ResNet 也是,對吧?你可以爭辯說 o1 推理並不是世界上最耗算力的東西。所以對於研究,你肯定需要一定量的算力,但這遠不意味著你需要有史以來絕對最大的算力來進行研究。你可能會爭辯,而且我認為這是真的,如果你想建構絕對最好的系統,那麼擁有更多的算力會有幫助。特別是如果每個人都在同一個範式內,那麼算力就成了巨大的差異化因素。Dwarkesh Patel我問你歷史是因為你當時真的在場。我不確定實際發生了什麼。聽起來使用最少的算力來開發這些想法是可能的。但 Transformer 並沒有立即變得出名。它成為了每個人開始做的事情,然後開始在其基礎上進行實驗和建構,因為它在更高層級的算力上得到了驗證。Ilya Sutskever沒錯。Dwarkesh Patel如果你在 SSI 有 50 個不同的想法,如果不擁有其他前沿實驗室那種算力,你怎麼知道那一個是下一個 Transformer,那一個是脆弱的?Ilya Sutskever我可以評論一下。簡短的評論是,你提到了 SSI。具體對我們來說,SSI 用於研究的算力真的不小。我想解釋一下為什麼。簡單的數學可以解釋為什麼我們擁有的研究算力比人們想像的要多。我會解釋。SSI 籌集了 30 億美元,這在絕對意義上是一筆巨款。但你會說,“看看其他籌集更多資金的公司。”但他們的大部分算力都用於推理(inference)。這些大數字,這些大額貸款,是專門用於推理的。這是第一點。第二,如果你想擁有一個進行推理的產品,你需要有龐大的工程師、銷售人員團隊。大量的研究需要致力於生產各種與產品相關的功能。所以當你看看實際上留給研究的是什麼時,差距就變得小得多了。另一件事是,如果你在做不同的事情,你真的需要絕對最大的規模來證明它嗎?我不認為這是真的。我認為在我們的案例中,我們有足夠的算力來證明,來說服我們自己和其他任何人,我們在做的事情是正確的。Dwarkesh Patel有公開估計稱,像 OpenAI 這樣的公司僅在實驗上每年就花費 50-60 億美元。這與他們在推理等方面的支出是分開的。所以看起來他們每年運行研究實驗的支出比你們的總資金還多。Ilya Sutskever我認為這是一個你用它做什麼的問題。這是一個你用它做什麼的問題。在他們的情況下,在其他人的情況下,對訓練算力有更多的需求。有更多不同的工作流,有不同的模態,只是有更多的東西。所以它變得碎片化了。Dwarkesh PatelSSI 將如何賺錢?Ilya Sutskever我對這個問題的回答是這樣的。現在,我們只專注於研究,然後這個問題的答案會自己顯現出來。我認為會有很多可能的答案。Dwarkesh PatelSSI 的計畫仍然是直通超級智能嗎?Ilya Sutskever也許。我認為這樣做有其優點。我認為這有很多優點,因為不受日常市場競爭的影響是非常好的。但我認為有兩個原因可能會導致我們改變計畫。一個是務實的,如果時間線變得很長,這是可能的。其次,我認為最強大、最好的 AI 在外面影響世界是有很大價值的。我認為這是一件有意義且有價值的事情。Dwarkesh Patel那為什麼你的默認計畫是直通超級智能?因為聽起來 OpenAI、Anthropic 以及所有其他公司,他們的明確想法是,“看,我們有越來越弱的智能,公眾可以適應並為此做好準備。”為什麼直接建構超級智能可能更好?Ilya Sutskever我會分別陳述支援和反對的理由。支援的理由是,人們在市場中面臨的挑戰之一是他們必須參與激烈的競爭(rat race)。這種競爭非常困難,因為它讓你面臨需要做出的艱難權衡。說“我們將把自己與這一切隔離開來,只專注於研究,只在準備好時才出來,而不是之前”是很好的。但反駁也是有效的,那是相反的力量。反駁是,“嘿,讓世界看到強大的 AI 是有用的。讓世界看到強大的 AI 是有用的,因為那是你能夠傳達它的唯一方式。”Dwarkesh Patel我想甚至不僅僅是你能夠傳達這個想法——Ilya Sutskever傳達 AI,不是想法。傳達 AI。Dwarkesh Patel你說的“傳達 AI”是什麼意思?Ilya Sutskever假設你寫了一篇關於 AI 的文章,文章說,“AI 將會是這樣,AI 將會是那樣,它會是這個。”你讀了之後說,“好的,這是一篇有趣的文章。”現在假設你看到一個 AI 做這個,一個 AI 做那個。這是無法比擬的。基本上我認為 AI 公開化有很大的好處,這將是我們不完全直通的一個理由。Dwarkesh Patel我想甚至不僅僅是那個,雖然我確實認為那是其中的重要部分。另一件大事是,我想不出人類工程和研究中有那一門學科,其最終產品主要是通過僅僅思考如何使其安全而變得更安全的,相比之下——為什麼今天的飛機每英里墜毀率比幾十年前低得多。為什麼現在在 Linux 中找 bug 比幾十年前難得多?我認為這主要是因為這些系統被部署到了世界上。你注意到了故障,這些故障被糾正了,系統變得更加健壯。我不確定為什麼 AGI 和超人類智能會有什麼不同,尤其是考慮到——我希望我們會談到這點——看起來超級智能的危害不僅僅是關於有一個惡意的回形針製造者。這是一個真正強大的東西,我們甚至不知道如何概念化人們如何與之互動,人們會用它做什麼。逐步接觸它似乎是分散其影響並幫助人們為此做好準備的更好方式。Ilya Sutskever嗯,我認為關於這一點,即使在直通方案中,你仍然會逐步發佈它,我是這樣想像的。漸進主義將是任何計畫的固有組成部分。只是問題在於你推出的第一件東西是什麼。這是第一點。第二,我相信你比其他人更提倡終身學習(continual learning),而且我實際上認為這是一件重要且正確的事情。原因如下。我給你另一個語言如何影響思維的例子。在這種情況下,我認為有兩個詞塑造了每個人的思維。第一個詞:AGI。第二個詞:預訓練。讓我解釋一下。AGI 這個術語,為什麼這個術語存在?這是一個非常特別的術語。它為什麼存在?有原因的。在我看來,AGI 這個術語之所以存在,與其說是因為它是某種智能終極狀態的非常重要、本質的描述,不如說它是因為它是對另一個存在的術語的反應,那個術語是“狹義 AI”(narrow AI)。如果你回到遊戲和 AI、跳棋 AI、國際象棋 AI、電腦遊戲 AI 的遠古歷史,每個人都會說,看這個狹義的智能。當然,國際象棋 AI 可以擊敗卡斯帕羅夫,但它不能做任何其他事情。它是如此狹隘,人工狹義智能。所以作為回應,作為對此的反應,有些人說,這不好。它太狹隘了。我們需要的是通用 AI,一個可以做所有事情的 AI。那個術語獲得了很多關注。第二個獲得很多關注的是預訓練,特別是預訓練的配方。我認為人們現在做 RL 的方式可能正在消除預訓練的概念印記。但預訓練有這種屬性。你做更多的預訓練,模型在所有方面都會變得更好,或多或少是一致的。通用 AI。預訓練產生 AGI。但是 AGI 和預訓練發生的事情是,在某種意義上它們超出了目標。如果你在預訓練的背景下思考“AGI”這個術語,你會意識到人類並不是一個 AGI。是的,肯定有技能的基礎,但人類缺乏大量的知識。相反,我們依賴終身學習。所以當你思考,“好吧,假設我們取得了成功,我們產生某種安全的超級智能。”問題是,你如何定義它?它會在終身學習曲線的那裡?我生產了一個超級聰明的 15 歲少年,非常渴望出發。他們知道的不多,是一個很好的學生,非常渴望。你去當程式設計師,你去當醫生,去學習。所以你可以想像部署本身將涉及某種學習試錯期。這是一個過程,而不是你扔出一個成品。Dwarkesh Patel我明白了。你是在暗示你指出的超級智能不是某種已經知道如何做經濟中每一項工作的成品思維。因為,比如說,最初的 OpenAI 章程或其他檔案定義 AGI 的方式是,它可以做每一項工作,人類能做的每一件事。你提議的是一種可以 學會 做每一項工作的思維,那就是超級智能。Ilya Sutskever是的。Dwarkesh Patel但是一旦你有了學習演算法,它就會像人類勞動力加入組織一樣被部署到世界上。Ilya Sutskever完全正確。Dwarkesh Patel看起來這兩種情況之一可能會發生,也許這兩種情況都不會發生。第一,這種超級高效的學習演算法變得超人,變得和你一樣好,甚至可能比你更好,在 ML 研究任務上。結果演算法本身變得越來越超人。另一個是,即使那沒有發生,如果你有一個單一的模型——這顯然是你的願景——模型的實例被部署到整個經濟中做不同的工作,學習如何做那些工作,在工作中不斷學習,學會任何人能學會的所有技能,但同時也學會所有技能,然後合併它們的學習成果,你基本上就有了一個功能上變得超級智能的模型,即使軟體沒有任何遞迴的自我改進。因為你現在有了一個可以做經濟中每一項工作的模型,而人類無法以同樣的方式合併我們的思想。所以你預計廣泛部署會帶來某種智能爆炸嗎?Ilya Sutskever我認為我們很可能會有快速的經濟增長。我認為隨著廣泛部署,你可以提出兩個相互衝突的論點。一個是,一旦你確實到了擁有一個可以快速學習做事的 AI 並且你有很多這樣的 AI 的地步,那麼將會有一股強大的力量將它們部署到經濟中,除非會有某種監管阻止它,順便說一句,可能會有。但是關於非常快速的經濟增長的想法,我認為從廣泛部署來看是非常可能的。問題是它會有多快。我認為這很難知道,因為一方面你有這個非常高效的工人。另一方面,世界真的很大,有很多東西,而那些東西以不同的速度移動。但另一方面,現在 AI 可以……所以我認為非常快速的經濟增長是可能的。我們將看到各種各樣的事情,比如不同的國家有不同的規則,那些規則更友好的國家,經濟增長會更快。很難預測。Dwarkesh Patel在我看來,這是一個非常不穩定的處境。在極限情況下,我們知道這應該是可能的。如果你有某種在學習方面和人類一樣好,但可以合併其大腦——以人類無法合併的方式合並不同實例——的東西,這似乎是一件物理上應該可能的事情。人類是可能的,數字電腦是可能的。你只需要把這兩者結合起來就能產生這個東西。看起來這種東西也非常強大。經濟增長是描述它的一種方式。戴森球也是很多經濟增長。但另一種說法是,你將在可能非常短的時間內擁有……你在 SSI 僱傭人,六個月後,他們可能就是淨產出的。人類學得很快,而這個東西正變得越來越聰明。你如何考慮讓這一切順利進行?為什麼 SSI 定位於能做好這件事?SSI 在那裡的計畫是什麼,這基本上就是我想問的。Ilya Sutskever我的想法發生變化的一種方式是,我現在更加重視 AI 的增量部署和提前部署。關於 AI 的一件非常困難的事情是,我們正在談論尚不存在的系統,很難想像它們。我認為正在發生的一件事是,實際上很難 感覺到 AGI。很難感覺到 AGI。我們可以談論它,但這就像談論當你年老體弱時是什麼感覺。你可以談論,你可以試圖想像,但這很難,你會回到那不是事實的現實中。我認為許多圍繞 AGI 及其未來力量的問題源於這樣一個事實:很難想像。未來的 AI 會有所不同。它將會很強大。確實,AI 和 AGI 的問題是什麼?整個問題就是力量。整個問題就是力量。當力量真的很大時,會發生什麼?我在過去一年中改變主意的一種方式——這種改變,我會稍微避險一下,可能會反向傳播到我們公司的計畫中——是,如果很難想像,你做什麼?你必須展示這個東西。你必須展示這個東西。我堅持認為,大多數從事 AI 工作的人也無法想像它,因為它與人們日常看到的東西太不同了。我確實堅持,這是我的一個預測。我堅持認為隨著 AI 變得更強大,人們會改變他們的行為。我們將看到各種前所未有的事情,這些事情現在還沒有發生。我會舉一些例子。我認為不管是好是壞,前沿公司將在發生的事情中扮演非常重要的角色,政府也是如此。我認為你會看到的事情,你已經看到了開端,那就是作為激烈競爭對手的公司開始在 AI 安全方面進行合作。你可能已經看到 OpenAI 和 Anthropic 邁出了一小步,但這以前是不存在的。這是我在大約三年前的一次演講中預測的事情,這種事情會發生。我還堅持認為,隨著 AI 繼續變得更強大,更明顯地強大,政府和公眾也會渴望做點什麼。我認為這是一股非常重要的力量,即展示 AI。這是第一點。第二點,好的,AI 正在被建構。需要做什麼?我堅持認為會發生的一件事是,目前,從事 AI 工作的人,我堅持認為 AI 並不讓人感到強大,是因為它的錯誤。我確實認為在某個時刻,AI 會開始讓人感到真正強大。我認為當這種情況發生時,我們將看到所有 AI 公司對待安全的方式發生巨大變化。他們會變得更加偏執。我這是作為一個預測說出來的,我們會看到這種事發生。我們要看看我是不是對的。但我認為這是會發生的,因為他們會看到 AI 變得更強大。目前發生的一切,我堅持認為是因為人們看著今天的 AI,很難想像未來的 AI。還有第三件事需要發生。我是從更廣泛的角度說的,不僅僅是從 SSI 的角度,因為你問到了我們公司。問題是,公司應該渴望建立什麼?他們應該渴望建立什麼?有一個每個人都被鎖定的大主意,那就是自我改進的 AI。為什麼會這樣?因為想法比公司少。但我堅持認為有更好的東西可以建立,我認為每個人都會想要那個。那就是穩健地對齊以關愛感知生命(sentient life)的 AI。我想特別指出,有理由認為建立一個關心感知生命的 AI 比建立一個只關心人類生命的 AI 更容易,因為 AI 本身將是有感知的。如果你想想鏡像神經元和人類對動物的同理心,你可能會說這不夠大,但它確實存在。我認為這是一種湧現屬性,源於我們用模擬自己的同一回路來模擬他人,因為那是最高效的做法。Dwarkesh Patel即使你讓 AI 關心感知生物——如果真的解決了對齊問題,我不清楚這是否就是你應該嘗試做的——情況仍然是,大多數感知生物將是 AI。最終會有數兆、數千兆的 AI。人類將是感知生物中非常小的一部分。所以如果不清楚目標是對這個未來文明進行某種人類控制,那麼我不清楚這是不是最好的標準。Ilya Sutskever這是真的。它可能不是最好的標準。我會說兩點。第一,關心感知生命,我認為有其優點。應該被考慮。我認為如果有一些公司在處於這種情況下時可以使用的簡短想法清單,那會有所幫助。這是第二點。第三,我認為如果最強大的超級智能的力量以某種方式被設定上限,那將真的有實質性的幫助,因為這將解決很多這些擔憂。關於如何做到這一點的問題,我不確定,但我認為當你談論真正、真正強大的系統時,那將有實質性的幫助。Dwarkesh Patel在我們繼續對齊討論之前,我想深入探討一下這一點。頂部有多少空間?你是如何看待超級智能的?利用這個學習效率的想法,你認為它可能只是在學習新技能或新知識方面極快嗎?它是否只是擁有更大的策略池?中心是否有一個單一的、有凝聚力的“它”更強大或更大?如果是這樣,你是否想像這與其餘人類文明相比會像神一樣,還是它只是感覺像另一個智能體,或另一組智能體?Ilya Sutskever這是不同人有不同直覺的領域。我認為它肯定會非常強大。我認為最有可能發生的是,大約在同一時間會有多個這樣的 AI 被創造出來。我認為如果叢集足夠大——比如如果叢集真的是大陸級的——那個東西可能會非常強大,確實如此。如果你真的擁有一個大陸級的叢集,那些 AI 可能會非常強大。我能告訴你的是,如果你在談論極其強大的 AI,真正極其強大的,如果它們能以某種方式受到限制,或者有某種協議之類的東西,那就太好了。超級智能的擔憂是什麼?解釋這種擔憂的一種方式是什麼?如果你想像一個足夠強大的系統,真的足夠強大——你可以說你需要做一些理智的事情,比如以一種非常專一的方式關心感知生命——我們可能不喜歡結果。這就是它的本質。順便說一句,也許答案是你不用通常意義上的 RL 智能體。我會指出幾件事。我認為人類是半 RL 智能體。我們追求獎勵,然後情緒或其他東西讓我們對獎勵感到厭倦,我們追求不同的獎勵。市場是一種非常短視的智能體。進化也是一樣。進化在某些方面非常聰明,但在其他方面非常愚蠢。政府被設計成三個部分之間永無止境的鬥爭,這也是一種效果。所以我想像這樣的事情。另一件讓這個討論變得困難的事情是,我們談論的是不存在的系統,我們不知道如何建構。那是另一件事,實際上這也是我的信念。我認為人們現在正在做的事情會走一段距離,然後逐漸平息。它會繼續改進,但它也不會是“那個東西”。我們不知道如何建構“那個東西”,很多都取決於理解可靠的泛化。我還要說另一件事。你可以說導致對齊困難的原因之一是,你學習人類價值觀的能力是脆弱的。然後你最佳化它們的能力是脆弱的。你實際上學會了去最佳化它們。你難道不能說,“這些不都是不可靠泛化的例子嗎?”為什麼人類似乎泛化得這麼好?如果泛化能力好得多呢?在這種情況下會發生什麼?會有什麼效果?但這些問題目前仍然無法回答。Dwarkesh Patel人們該如何思考 AI 進展順利是什麼樣子的?你已經勾勒了 AI 可能如何演變。我們將擁有這類終身學習智能體。AI 將非常強大。也許會有許多不同的 AI。你怎麼看待許多大陸級算力的智能體四處遊蕩?那有多危險?我們如何讓它變得不那麼危險?我們如何以一種保護平衡的方式做到這一點,即使外面可能有未對齊的 AI 和壞人?Ilya Sutskever這也是我喜歡“關心感知生命的 AI”的一個原因。我們可以爭論它是好是壞。但如果前 N 個這樣的劇變性系統真的關心、愛護人類或者什麼的,關心感知生命,顯然這也就必須實現。這需要被實現。所以如果前 N 個系統實現了這一點,那麼我可以看到它進展順利,至少在相當長的一段時間內。然後就是長期會發生什麼的問題。你如何實現長期均衡?我認為那裡也有一個答案。我不喜歡這個答案,但它需要被考慮。長期來看,你可能會說,“好吧,如果你有一個強大的 AI 存在的世界,短期內,你可以說你有普遍高收入。你有普遍高收入,我們都過得很好。”但佛教徒怎麼說?“變化是唯一的常數。”事情會變。有某種政府、政治結構的東西,它會變,因為這些東西有保質期。一些新的政府形式出現了,它運作,然後過了一段時間它停止運作。這是我們一直看到發生的事情。所以我認為對於長期均衡,一種方法是你可以說也許每個人都會有一個 AI 聽命於他們,這很好。如果這能無限期維持下去,那是真的。但這的缺點是,然後 AI 去為這個人賺錢並在政治領域倡導他們的需求,也許然後寫一份小報告說,“好吧,這是我所做的,這是情況,”然後人說,“太棒了,繼續保持。”但人不再是參與者了。然後你可以說這是一個不穩定的處境。我要先說我不喜歡這個解決方案,但它是一個解決方案。解決方案是如果人們通過某種 Neuralink++ 變成半 AI。因為結果將會是,現在 AI 理解了一些東西,我們也理解了它,因為現在理解是全盤傳遞的。所以現在如果 AI 處於某種情況,你自己也完全參與了那種情況。我認為這是均衡的答案。Dwarkesh Patel我想知道,數百萬年——或者在很多情況下是數十億年——前在一個完全不同的環境中演化出來的情緒,至今仍如此強烈地指導著我們的行動,這是否是對齊成功的一個例子。為了說明我的意思——我不知道稱之為價值函數還是獎勵函數更準確——腦幹有一個指令說,“與更成功的人交配。”皮層是理解現代背景下成功意味著什麼的部分。但腦幹能夠對齊皮層並說,“無論你認為成功是什麼——我不夠聰明去理解那是什麼——你仍然要追求這個指令。”Ilya Sutskever我認為有一個更普遍的觀點。實際上進化如何編碼高層級的慾望真的很神秘。很容易理解進化如何賦予我們對聞起來好的食物的慾望,因為氣味是一種化學物質,所以只要追求那種化學物質就行了。很容易想像進化做那件事。但進化也賦予了我們所有這些社會慾望。我們真的很在乎被社會積極看待。我們在乎擁有良好的地位。所有這些我們擁有的社會直覺,我強烈感覺它們是內建的。我不知道進化是怎麼做到的,因為那是在大腦中表徵的一個高層級概念。比方說你在乎某種社會事物,這不像氣味那樣是低層級訊號。這不是某種有感測器對應的東西。大腦需要做大量的處理,拼湊大量的資訊碎片來理解社會上正在發生什麼。不知何故進化說,“這就是你應該關心的。”它是怎麼做到的?而且它做得很快。所有這些我們在乎的複雜的社會事物,我認為它們演化得相當近。進化很容易就硬編碼了這種高層級的慾望。我不知道有什麼好的假設能解釋它是如何完成的。我有過一些反覆思考的想法,但沒有一個是令人滿意的。Dwarkesh Patel特別令人印象深刻的是,如果是你在有生之年學會的慾望,那是有道理的,因為你的大腦是智能的。你有能力學會智能的慾望是有道理的。也許這不是你的觀點,但理解它的一種方式是,慾望內建於基因組中,而基因組並不智能。但你卻能描述這個特徵。甚至都不清楚你是如何定義這個特徵的,而你卻能把它建構進基因裡。Ilya Sutskever基本上是這樣,或者我也許換個說法。如果你思考基因組可用的工具,它說,“好吧,這是建構大腦的配方。”你可以說,“這是把多巴胺神經元連接到氣味感測器的配方。”如果氣味是某種好的氣味,你就想吃它。我可以想像基因組做那件事。我聲稱這(社會慾望)更難想像。更難想像基因組說你應該關心你的整個大腦、或者大腦的一大塊所做的某種複雜計算。這只是我的主張。我可以告訴你一個猜測,它是如何做到的,我也會解釋為什麼這個猜測可能是錯的。大腦有腦區。我們有皮層。它有所有那些腦區。皮層是均勻的,但腦區和皮層中的神經元大多隻與其鄰居對話。這解釋了為什麼會有腦區。因為如果你想做某種語音處理,所有做語音的神經元需要互相交流。因為神經元大多隻能與附近的鄰居交流,所以它必須是一個區域。所有的區域在人與人之間大多位於同一個地方。所以也許進化硬編碼了大腦上的一個物理位置。所以它說,“哦,當大腦的 GPS 坐標某某某,當那裡點火時,那就是你應該關心的。”也許那是進化所做的,因為那在進化的工具箱之內。Dwarkesh Patel是的,儘管有些例子,例如生來失明的人,他們皮層的那個區域被另一種感官接管了。我不知道,但如果那些需要視覺訊號的慾望或獎勵函數對於那些皮層區域被徵用的人不再起作用,我會感到驚訝。例如,如果你不再有視覺,你是否仍然能感覺到我希望周圍的人喜歡我這種感覺,通常這也有視覺線索。Ilya Sutskever我完全同意這一點。我認為對這個理論有一個更強的反駁。有些人童年時期被切除了一半大腦(大腦半球切除術),他們仍然擁有所有的腦區。但它們不知何故都移動到了一個半球,這表明腦區的位置不是固定的,所以那個理論是不正確的。如果是真的那就太酷了,但它不是。所以我認為這是一個謎。但這是一個有趣的謎。事實是,不知何故進化能夠賦予我們非常非常可靠地關心社會事物的能力。即使是有各種奇怪的精神狀況、缺陷和情緒問題的人也傾向於關心這個。Dwarkesh PatelSSI 計畫做什麼不同的事情?大概你們的計畫是當那個時刻到來時成為前沿公司之一。大概你創立 SSI 是因為你想,“我覺得我有一種方法可以安全地做這件事,而其他公司沒有。”那個區別是什麼?Ilya Sutskever我會這樣描述,有一些我認為有前途的想法,我想調查它們,看看它們是否真的有前途。真的就這麼簡單。這是一種嘗試。如果這些想法被證明是正確的——我們討論的這些圍繞理解泛化的想法——那麼我認為我們將擁有有價值的東西。它們會被證明是正確的嗎?我們在做研究。我們要實事求是地作為一家“研究時代”的公司。我們在取得進展。實際上我們在過去一年取得了相當不錯的進展,但我們需要繼續取得更多進展,更多研究。這就是我的看法。我看作是一種嘗試,試圖成為一個聲音和一個參與者。Dwarkesh Patel你的聯合創始人和前 CEO 最近離開去了 Meta,人們問,“好吧,如果有大量的突破正在發生,這看起來似乎是不太可能發生的事情。”我想知道你如何回應。Ilya Sutskever對此,我只想提醒幾個可能被遺忘的事實。我認為這些提供背景的事實解釋了情況。背景是我們當時正以 320 億美元的估值融資,然後 Meta 進來提議收購我們,我拒絕了。但在某種意義上,我的前聯合創始人同意了。結果,他也能夠享受到大量的近期流動性,他是 SSI 唯一加入 Meta 的人。Dwarkesh Patel聽起來 SSI 的計畫是當你到達人類歷史這一非常重要的時期,即擁有超人智能時,成為一家前沿公司。你有關於如何讓超人智能順利發展的想法。但其他公司也會嘗試他們自己的想法。是什麼讓 SSI 使超級智能順利發展的方法與眾不同?Ilya Sutskever主要讓 SSI 與眾不同的是其技術方法。我們有不同的技術方法,我認為它是值得的,我們正在追求它。我堅持認為最終會有戰略的趨同。我認為會有戰略的趨同,在某個時刻,隨著 AI 變得更強大,對每個人來說或多或少都會變得清晰,戰略應該是什麼。它應該是這樣的:你需要找到某種方式互相交談,你希望你的第一個真正的超級智能 AI 是對齊的,並以某種方式關心感知生命、關心人類、民主,諸如此類,某種組合。我認為這是每個人都應該爭取的條件。這就是 SSI 正在爭取的。我認為這一次,如果還沒發生的話,所有其他公司都會意識到他們正在朝著同一個目標努力。我們拭目以待。我認為隨著 AI 變得更強大,世界將真正改變。我認為事情會真的很不同,人們的行為也會真的很不同。Dwarkesh Patel說到預測,你對你描述的這個系統——它可以像人類一樣學習並因此隨後變成超人——的預測是什麼?Ilya Sutskever我認為大概 5 到 20 年。Dwarkesh Patel5 到 20 年?Ilya Sutskever嗯。Dwarkesh Patel我想展開看看你可能如何看待未來的到來。就像,我們還有幾年時間,其他公司繼續當前的方法並停滯不前。“停滯不前”在這裡是指他們的收入不超過幾千億?你如何思考停滯不前意味著什麼?Ilya Sutskever我認為停滯不前看起來會……在所有不同的公司看來都非常相似。可能是這樣的。我不確定,因為即使停滯不前,我認為這些公司也能創造驚人的收入。也許不是利潤,因為他們需要努力使自己與彼此區分開來,但收入肯定是有的。Dwarkesh Patel但在你的模型中有些東西暗示,當正確的解決方案真的出現時,所有公司之間會有趨同。我很好奇你為什麼認為會這樣。Ilya Sutskever我更多是在談論對齊策略的趨同。我認為最終技術方法的趨同可能也會發生,但我指的是對齊策略的趨同。到底應該做什麼?Dwarkesh Patel我只是想更好地理解你如何看待未來的展開。目前,我們有這些不同的公司,你預計他們的方法會繼續產生收入但達不到這種類人學習者。所以現在我們有這些不同的公司分支。有你們,有 Thinking Machines,還有一堆其他實驗室。也許其中一個找到了正確的方法。但是他們產品的發佈會讓其他人清楚如何做這件事。Ilya Sutskever我認為怎麼做並不清楚,但有些不同的東西是可能的這一點會變得清楚,這就是資訊。人們隨後會試圖弄清楚那是如何工作的。不過我確實認為,這裡沒有提到、沒有討論的一件事是,隨著 AI 能力的每一次提升,我認為做事的方式會有某種變化,但我不知道具體是那些變化。我認為這會很重要,但我無法確切拼出那是什麼。Dwarkesh Patel默認情況下,你會預期擁有那個模型的公司會獲得所有這些收益,因為他們擁有在世界上積累技能和知識的模型。有什麼理由認為這種好處會被廣泛分配,而不僅僅是最終落在最先讓這個終身學習循環運轉起來的模型公司手中?Ilya Sutskever我認為會發生以下情況。第一,讓我們看看過去的 AI 是如何發展的。一家公司取得了一項進展,另一家公司爭先恐後,在一段時間後也搞出了一些類似的東西,他們開始在市場上競爭並將價格壓低。所以我認為從市場角度來看,類似的事情也會發生。順便說一句,我們談論的是美好的世界。什麼是美好的世界?就是我們擁有這些強大的人類般的學習者,它們也是……順便說一下,也許還有一件事我們沒有討論,關於超級智能 AI 的規格,我認為值得考慮。那就是你把它做成狹義的,它可以同時是有用的和狹義的。你可以有很多狹義的超級智能 AI。但假設你有很多這樣的 AI,你有一家公司從中賺取大量利潤。然後你有另一家公司進來開始競爭。競爭的方式將通過專業化進行。競爭喜歡專業化。你在市場上看到這一點,你在進化中也看到這一點。你會有很多不同的利基市場,你會有很多佔據不同利基市場的不同公司。在這個世界上,我們可能會說一家 AI 公司在某些真正複雜的經濟活動領域要好得多,而另一家公司在另一個領域更好。第三家公司非常擅長訴訟。Dwarkesh Patel這難道不與類人學習所暗示的相矛盾嗎?即它可以學習……Ilya Sutskever它可以,但你有積累的學習。你有巨大的投資。你花費了大量的算力才變得非常非常優秀,在這個事情上真正非凡。別人花費了大量的算力和大量的經驗才在其他事情上變得非常優秀。你應用了大量的人類學習才到達那裡,但現在你處於這個高點,別人會說,“看,我不想從頭開始學你已經學過的東西。”Dwarkesh Patel我想這需要許多不同的公司同時開始擁有類人終身學習智能體,以便他們可以在不同的分支開始不同的樹搜尋。但是,如果一家公司首先獲得了那個智能體,或者首先獲得了那個學習者,確實看起來……嗯,如果你只考慮經濟中的每一份工作,讓一個實例學習每一份工作對於一家公司來說似乎是可行的。Ilya Sutskever這是一個有效的論點。我的強烈直覺是,事情不會這樣發展。論點說它會這樣發展,但我的強烈直覺是它不會這樣發展。理論上,理論和實踐沒有區別。在實踐中,是有區別的。我認為這將是其中之一。Dwarkesh Patel許多人的遞迴自我改進模型字面上、明確地指出,我們將在伺服器中有 100 萬個 Ilya,他們會想出不同的想法,這將導致超級智能非常快地湧現。你對你正在做的事情的可平行化有某種直覺嗎?複製 Ilya 的收益是什麼?Ilya Sutskever我不知道。我認為肯定會有收益遞減,因為你想要思維不同的人,而不是相同的人。如果有我的字面副本,我不確定你會得到多少增量價值。思維不同的人,那才是你想要的。Dwarkesh Patel為什麼如果你看不同的模型,即使是由完全不同的公司發佈的,可能在不重疊的資料集上訓練的,LLM 彼此之間的相似程度實際上是瘋狂的?Ilya Sutskever也許資料集並不像看起來那樣不重疊。Dwarkesh Patel但在某種意義上,即使個人可能不如未來的 AI 那麼多產,也許有些道理是人類團隊比 AI 團隊擁有更多的多樣性。我們如何引發 AI 之間有意義的多樣性?我認為僅僅提高溫度(temperature)只會導致胡言亂語。你想要更像是不同的科學家有不同的偏見或不同的想法。你如何在 AI 智能體之間獲得那種多樣性?Ilya Sutskever我相信,沒有多樣性的原因是預訓練。所有預訓練模型幾乎都是一樣的,因為它們在相同的資料上進行預訓練。現在的 RL 和後訓練(post-training)是一些差異化開始出現的地方,因為不同的人提出了不同的 RL 訓練。Dwarkesh Patel我過去聽你暗示過自我博弈(self-play)是一種獲取資料或將智能體與同等智能的其他智能體匹配以啟動學習的方式。我們應該如何思考為什麼沒有關於這種東西在 LLM 上起作用的公開提議?Ilya Sutskever我會說有兩點。我認為自我博弈有趣的原因是因為它提供了一種僅使用算力而不使用資料來建立模型的方法。如果你認為資料是最終瓶頸,那麼僅使用算力就非常有趣。這就是讓它有趣的原因。問題是自我博弈,至少在過去的做法中——當你有以某種方式相互競爭的智能體時——它只對發展一套特定的技能有好處。它太狹窄了。它只對談判、衝突、某些社交技能、戰略制定那類東西有好處。如果你關心這些技能,那麼自我博弈將是有用的。實際上,我認為自我博弈確實找到了歸宿,只是形式不同。所以像辯論、證明者-驗證者(prover-verifier),你有某種 LLM-as-a-Judge(大模型作為裁判),它也被激勵去發現你工作中的錯誤。你可以說這不完全是自我博弈,但我相信這是人們正在做的一種相關的對抗性設定。真正的自我博弈是智能體之間更普遍競爭的一個特例。對競爭的自然反應是試圖與眾不同。所以如果你把多個智能體放在一起,你告訴他們,“你們都需要處理某個問題,你是一個智能體,你在檢查其他人正在做什麼,”他們會說,“好吧,如果他們已經採取了這種方法,我不清楚我也應該追求它。我應該追求一些差異化的東西。”所以我認為像這樣的東西也可以為方法的多樣性創造激勵。Dwarkesh Patel最後一個問題:什麼是研究品味(research taste)?你顯然被認為是世界上 AI 研究品味最好的人。你是深度學習歷史上發生的那些最重大事件的合著者,從 AlexNet 到 GPT-3 等等。它是什麼,你如何描述你是如何想出這些主意的?Ilya Sutskever關於這一點我可以評論我自己。我認為不同的人做法不同。有一件事指引著我個人,那就是通過思考人類是怎樣的,但要正確地思考,來形成 AI 應該是怎樣的審美。很容易不正確地思考人類是怎樣的,但正確地思考人類意味著什麼?我給你舉幾個例子。人工神經元的想法直接受到大腦的啟發,這是一個偉大的想法。為什麼?因為你會說大腦有所有這些不同的器官,它有褶皺,但褶皺可能並不重要。為什麼我們認為神經元重要?因為有很多神經元。這感覺是對的,所以你想要神經元。你想要某種局部的學習規則來改變神經元之間的連接。大腦這樣做感覺是合理的。分佈式表徵的想法。大腦對經驗做出反應,因此我們的神經網路應該從經驗中學習的想法。大腦從經驗中學習,神經網路應該從經驗中學習。你會問自己,有些東西是根本的還是非根本的?事物應該是怎樣的。我認為這對我指引頗多,從多個角度思考,幾乎是在尋找美,美和簡單。醜陋,沒有醜陋的容身之地。它是美、簡單、優雅、來自大腦的正確靈感。所有這些東西都需要同時存在。它們越是同時存在,你就越能對一種自頂向下的信念充滿信心。自頂向下的信念是當實驗與你相悖時支撐你的東西。因為如果你總是相信資料,嗯,有時候你可能在做正確的事情,但有個 bug。但你不知道有個 bug。你怎麼分辨有沒有 bug?你怎麼知道你是應該繼續偵錯還是斷定這是錯誤的方向?靠的是自頂向下。你會說事情必須是這樣的。像這樣的東西必須行得通,因此我們要繼續前進。那就是自頂向下,它是基於這種多層面的美和受大腦啟發而來的。Dwarkesh Patel好,我們就聊到這裡 (AI寒武紀)
Ilya為馬斯克訴OpenAI案出庭10小時質詢,首次揭露驚人內幕
在馬斯克訴OpenAI一案最新取證階段,OpenAI聯合創始人、前首席科學家Ilya Sutskever近日接受了近10小時庭上質詢,並提交了一份長達52頁的備忘錄,詳細說明其在2023年11月參與董事會罷免Sam Altman決策背後的核心依據。多家英文科技與法律媒體通報顯示,這批揭露成為兩年前震動全球科技界「OpenAI宮斗」事件最具體系化、最權威的公開紀錄。指控核心:奧特曼存在“持續撒謊與誤導模式”根據揭露內容,Ilya在證詞中指控奧特曼存在「持續說謊模式」:包括挑撥高階主管關係、對重大資訊不透明甚至刻意製造混亂,讓董事會難以履行受托監督職責。 Ilya表示,董事會最終採取極端決定的根本原因,是在治理關鍵事項上已無法信任CEO本人。這敘事與外界先前長期討論的「lack of candor」(缺乏坦誠)相呼應。但Ilya的證詞讓這項判決首次從坊間猜測升級為正式的法律證據敘事。 《The Information》稱,證詞與備忘錄共同構成了「可信度與受托治理關係崩塌」的完整框架。這與《華盛頓郵報》先前關於「奧特曼製造混亂、削弱監督」的內部抱怨調查報導相互印證。爆點揭露:董事會曾討論與Anthropic合併、由Dario出任CEO更具衝擊性的披露是:在危機最高峰時期,OpenAI董事會曾認真討論與Anthropic合併的可能性,並在設想方案中考慮讓Anthropic聯合創始人Dario Amodei擔任CEO。這顯示,當時董事會評估的不是“替代方案”,而是徹底重設OpenAI路線圖的極端路徑。這一事實尤其關鍵,因為Anthropic正是由OpenAI出走團隊所創立,兩者後來成為全球AI最重要的兩大對手。 Ilya此次證詞使「合併+換帥」的設想第一次獲得直接佐證。「Brockman memo」成新焦點案件中還出現另一份關鍵檔案——被稱為「Brockman memo」的備忘錄。最新的聯邦法院取證命令要求Ilya必須提交該備忘錄,並接受第二次補充證詞。法院認為該檔案與案情相關,並允許原告追問Ilya在OpenAI的潛在巨額經濟利益,以評估證詞是否可能受動機與偏見影響。法律媒體Law360揭露,近期圍繞Ilya是否完全遵守「再次出庭+ 提交備忘錄」要求仍有程序性爭議(包括一度提出「藐視法庭」動議),但整體趨勢是推進其進一步作證與材料披露。如果「Brockman memo」與Ilya的52頁備忘錄在關鍵事實上相互印證,並進一步與同期郵件、會議記錄、第三方證詞(包括投資人與高管)形成閉環,OpenAI 2019–2023的治理演進敘事可能被法院與輿論重新校準。AI史最關鍵危機重新被定位:不是路線分歧,而是治理與信任崩塌隨著未來更多內部檔案、郵件與錄音被強制進入公共記錄,2023年OpenAI危機中最關鍵的缺口將進一步填補。過去兩年,全球AI格局與OpenAI自身組織形態、商業軌道與AGI策略方向均劇烈演化。但Ilya這次證詞讓外界重新聚焦一個核心事實:這場歷史事件最根本不是AI理念衝突,而是受托治理與信任結構的徹底斷裂。隨著馬斯克訴OpenAI案進入關鍵的證據開示階段,這些內部材料正成為未來研究AI治理、監管政策與大型AI組織體系設計的關鍵原始史料。事件時間軸回顧2025/10–至今:圍繞Ilya再次出庭與關鍵備忘錄提交持續爭議;法院點名強制提交“Brockman memo”2023/11/17–11/21:董事會突然罷免奧特曼→ 全員聲援→ 微軟試圖接收→ 奧特曼回歸、董事會重組2024–2025:馬斯克起訴OpenAI案推進;OpenAI多次公開反駁;證據開示進入實質階段 (鈦媒體AGI)
消失的Ilya,被馬斯克和OpenAI逼進法庭
10月1日舊金山,Ilya接受了近10小時的質詢。他記在自己黑料小本上所有對奧特曼的不滿,為那場震驚科技界的「宮鬥」事件提供了迄今最權威的解釋。還記得Ilya把奧特曼趕出OpenAI的那場宮斗大戲嗎?時隔兩年,又有新的猛料爆出來了。這次,我還得感謝馬斯克。10月1日,在舊金山,馬斯克和OpenAI的律師對Ilya Sutskever進行了長達近10小時的質詢。他們不僅問及奧特曼被解僱一事,還問到了他對通用人工智慧(AGI)的看法,以及他離開OpenAI的原因。而這,也為外界提供了迄今為止關於奧特曼被罷免事件最詳盡、最核心的內幕資訊。只能說那場宮鬥戲太精彩,即使是這些AI時代的創造者們,也無法避免這麼俗氣的辦公室政治:奧特曼愛撒點小謊Ilya不滿奧特曼對Dario Amodei不聞不問,怪不得後者出來創立了Anthropic前CTO Murati說奧特曼挑撥離間Daniela Amodei和她的關係奧特曼和Brokeman穿一條褲子Brokenman還有職場霸凌Ilya用「備忘錄」記下的所有這些OpenAI早期內鬥故事,這次全被爆料了!馬斯克打官司,Ilya遭殃準確地說,這次「爆料」是法官針對馬斯克訴奧特曼案的一份「取證裁定」。簡單來說,法官批准了馬斯克一方的兩個請求:一是,要求再次「審問」Ilya Sutskever。因為他第一次作證時拒絕透露自己在OpenAI的股份價值。法官認為,這個金額可能影響他的中立性(例如如果OpenAI敗訴他會虧錢,那他就可能在作證時有偏見)。所以必須回答。二是,要求交出「Brockman備忘錄」。這是一份與OpenAI聯合創始人Greg Brockman有關的內部檔案。它曾被描述為「自動刪除」的檔案,但後來發現其實還存在。法官認為這份檔案與案件有關,必須交出去。換句話說:法官請Ilya Sutskever重新作證,並且交出一份關鍵內部檔案。OpenAI差點姓了AnthropicIlya Sutskever在本周公開的一份庭審證詞中向律師透露,兩年前,在OpenAI董事會解僱了奧特曼之後,Anthropic最初曾對與OpenAI合併的可能性表示“興奮”。這樣一筆交易本可能會讓Anthropic的CEO Dario Amodei坐上OpenAI的頭把交椅。Dario和他的妹妹Daniela Amodei在2020年因和OpenAI存在理念分歧,雙雙辭去了在OpenAI的高級職位。然後創立了Anthropic。周三,負責審理馬斯克對OpenAI公司重組提起的聯邦訴訟的法院公佈了60頁的庭審記錄,這兩家競爭對手之間的討論細節才隨之於眾。庭審記錄內容繁多,其中就包括Ilya Sutskever在董事會解僱奧特曼之前,發送給部分其他董事會成員的大量關於OpenAI內部衝突的文檔。對於自己在那段時期扮演的角色,Ilya Sutskever先前極少置評。Ilya Sutskever在證詞中回憶,他當時希望談判會無果。「因為我真的不希望OpenAI與Anthropic合併」。Ilya Sutskever表示,其他董事會成員則更支援這個想法,尤其是時任喬治城大學安全與新興技術中心策略總監的Helen Toner。Toner去年在播客節目中稱,她之所以投票解僱奧特曼,是因為他「隱瞞資訊、歪曲公司內部事務,在某些情況下甚至對董事會徹頭徹尾地撒謊」。根據Ilya Sutskever的回憶,OpenAI和Anthropic的合併談判最終未能推進,原因是「Anthropic提出了一些實際操作上的障礙」。不過,他並沒有詳細說明這些障礙是什麼。在董事會解僱奧特曼四天後,此舉引發了超過700名員工以辭職相威脅,董事會隨即恢復了他的CEO職位。在此期間,Ilya Sutskever也改變了立場,最終轉為支援奧特曼回歸。此後,兩家公司都飛速發展。Anthropic的年化收入成長至近70億美元,估值更是達到了1,830億美元。OpenAI的財富——以及奧特曼的公眾形象——則攀升到了更高的高度。該公司最近被投資者估值為5,000億美元,並在今年7月實現了120億美元的年化收入。本周,它完成了一項複雜的公司重組,為最終的首次公開發行(IPO)鋪平了道路。奧特曼「說謊成性」那麼,董事會當初為什麼要冒著讓公司分崩離析的風險,也要開除奧特曼呢?Ilya的證詞,第一次以當事人的視角,給了最直接的答案。在罷免事件發生前,Ilya向其他幾位獨立董事發送了一封關鍵郵件,裡面附有兩份備忘錄,詳細記錄了他眼中奧特曼和另一位聯合創始人Greg Brokman的「問題行為」。在法庭上,馬斯克的律師直接引用了備忘錄中的一句話:「Sam表現出一種持續的撒謊模式,他削弱高管的權力,並挑撥高管們相互對立。」當律師追問Ilya,「你認為應該採取什麼行動?」Ilya回答:「解僱。」Ilya解釋說,他之所以不敢把這份備忘錄發給包括奧特曼在內的所有董事,是因為「我感覺,一旦他意識到這些討論,他就會想辦法讓它們消失。」這份長達52頁的備忘錄,內容極為詳盡,甚至包含了奧特曼與其他高階主管溝通的截圖。它指控奧特曼:挑撥離間:例如,在當時的技術主管Mira Murati和後來創辦Anthropic的Daniela Amodei之間製造矛盾。製造混亂:備忘錄中提到,奧特曼在執掌著名孵化器Y Combinator時就有類似行為,因為「製造混亂、開啟太多新項目、挑撥離間」而導致管理不善。欺騙董事會:備忘錄舉例稱,奧特曼曾告訴一位高階主管,GPT-4 Turbo的發布不需要經過公司內部的安全委員會批准。這些指控描繪了一個與公眾形象截然不同的奧特曼,也解釋了為什麼當初董事會會用「未能始終坦誠」這樣嚴重的措辭來宣佈解僱決定。Ilya的小本,全是奧特曼的不是Sutskever說他沒有將備忘錄發給包括奧特曼在內的整個董事會,「因為我覺得,一旦他察覺到這些討論,他總有辦法讓這些事情不了了之。」Ilya Sutskever說,他之所以對奧特曼產生警惕,部分源自於他與時任OpenAI技術長Mira Murati的對話。在奧特曼被罷免後,Murati曾短暫擔任OpenAI的臨時CEO。根據OpenAI律師的引述,Ilya Sutskever的備忘錄中寫道:「Sam因為類似的行為被YC(Y Combinator)趕了出去。他製造混亂,啟動大量新項目,挑撥離間,因此並未能很好地管理YC。」Sutskever稱,這段關於奧特曼在著名初創加速器Y Combinator(奧特曼於2014年至2019年擔任其總裁)的過往,是Murati轉述給他的。Y Combinator的共同創辦人Paul Graham則否認該加速器曾解僱奧特曼。OpenAI的一位律師也宣讀了Ilya Sutskever備忘錄中關於奧特曼的部分標題。如「對Mira回饋的微妙報復」、「挑撥離間」、「Daniela對抗Mira」以及「Dario對抗Greg、Ilya」。Sutskever表示,Murati曾告訴他,在Daniela Amodei和Murati都在OpenAI工作時,奧特曼曾挑撥兩人關係。Sutskever的備忘錄也記錄了他個人與奧特曼的矛盾。根據備忘錄,Dario Amodei曾想負責OpenAI的所有研究工作,並要求解僱Brockman。「我當時指責Sam對Dario的條件既不接受也不拒絕,」Ilya Sutskever解釋。他還說,奧特曼曾對他以及高級研究員Jakub Pachoki(現任OpenAI首席科學家)「就公司的運作方式說了些自相矛盾的話」。Ilya Sutskever表示,因為一些董事會成員向他索取書面證據,他才在奧特曼被罷免前整理了這份長達52頁的備忘錄,其中包含了奧特曼與其他高管通訊的截圖,記錄了奧特曼涉嫌欺騙的種種實例。目前,法院已命令Sutskever提供更多關於其本人在OpenAI財務利益的細節,並提交他整理的關於Brockman的檔案。根據外媒報導,那份備忘錄的重點是Brockman涉嫌的職場霸凌行為。馬斯克起訴奧特曼番外由於這則爆料最終還是由馬斯克起訴奧特曼而來。讓我們簡短回顧一下背景。馬斯克認為,OpenAI為了達到今天的地位,已經違背了其慈善宗旨。馬斯克指控OpenAI以營利公司的形式運營,構成了對他的欺詐。OpenAI不僅否認了這些指控,也提起了反訴。馬斯克是OpenAI的共同創辦人之一,2015年參與成立。後來,他於2018年左右離開OpenAI董事會,以避免與自己在特斯拉或其他項目的潛在利益衝突。OpenAI從最初的「非營利、公開AI研究」定位,逐漸發展為有「獲利商業化」方向的實體。馬斯克認為這項轉變背離了最初目標。· 馬斯克的訴訟主張馬斯克對OpenAI、奧特曼及相關方提出多個法律主張,關鍵如下:他指控OpenAI在創始協議中承諾過保持「非營利」、「為全人類利益」的使命,但後來轉而尋求盈利、與Microsoft深度合作,從而背棄原先承諾。他還聲稱,OpenAI的轉型行為構成「合約違約」或「欺詐」——即在募集其資金或合作中所作承諾未被履行。此外,馬斯克在2025年也對OpenAI及奧特曼提出反壟斷/競爭方面的指控,稱OpenAI借助與蘋果(Apple)等關係扼制其新公司(xAI)等競爭者。· 被告方的回應OpenAI和奧特曼否認存在馬斯克所說的「創始協議」條款,認為馬斯克的訴求缺乏法律依據。OpenAI稱,馬斯克提出訴訟的動機部分是其自身在AI領域的競爭利益,而非純粹出於「為全人類」的使命。· 訴訟進展與關鍵節點2024年初,馬斯克最早提出訴訟。2024年8月,他「復活」訴訟,要求法院阻止OpenAI從非營利轉型為營利實體。2025年初,法院拒絕了馬斯克要求立即禁止OpenAI轉型的臨時禁令請求。法院同時決定,將加速審理「合約基礎」的訴訟點,預計2026年春季庭審。參考資料:https://www.theinformation.com/articles/openai-founder-discusses-anthropic-merger-talks-internal-beefs-deposition?rc=epv9gihttps://www.reuters.com/technology/openais-board-approached-anthropic-ceo-about-top-job-merger-sources-2023-11-21/?utm_source=chatgpt.comhttps://cases.justia.com/federal/district-courts/california/candce/4%3A2024cv04722/433688/324/0.pdf (新智元)
ChatGPT之父Ilya Sutskever最新畢業演講:任何我們能學的,AI都能學會……
6月6日,消失已久的 Ilya Sutskever 回到了母校多倫多大學。這位曾與 Sam Altman 一同創辦 OpenAI、被譽為“ChatGPT 之父”的 AI 科學家,在那裡接受了榮譽博士學位,並行表了一場沒有 PPT、沒有術語、卻令人久久不能平靜的演講。圖片 | 來自網路台上,他是拋出了一個極簡卻刺耳的問題:當 AI 比你還聰明,你還要學什麼?還敢不學什麼?從學生時代與 Hinton 並肩而學,到親手打開通往“生成式智能”大門,再到如今獨自走向“超級智能”的邊緣,Ilya 講的不是“成果”,而是一種站在十字路口的清醒。在 AI 加速進化、人類集體遲疑的當下,他提醒所有即將步入社會的年輕人:別浪費時間後悔過去,問題不在昨天,而在“下一步你該怎麼走”。我們提煉出來的此次演講中的5個金句,快速跟您分享。1,接受現實如其所是,不為過去懊悔,努力改善現狀。2,我們正處在一個前所未有的時代,主要是因為人工智慧的出現。3,大腦是一個生物電腦,數字電腦為什麼不能做到同樣的事情?4,AI帶來的挑戰可能是人類有史以來最大的挑戰,克服它也將帶來最大的回報。5,關注AI的最新發展,體驗它的能力,會讓你逐漸形成一種直覺。全文如下大家好!非常高興能站在這裡。首先,我想感謝所有人組織這次活動,感謝你們授予我這個榮譽學位。這對我來說意義非凡。差不多二十年前的今天,我在多倫多大學的這個禮堂裡拿到了我的學士學位。現在,我已經從這所大學獲得了四個學位!在這裡的時光非常美好,我在這裡度過了十年,完成了本科和研究生學業,學到了很多東西。我有機會深入研究我感興趣的領域,成長為一名研究者。能與傑夫·辛頓(Geoffrey Hinton)一起學習是我人生中的一大幸事,他的存在讓這所大學對我來說更加特別。我對多倫多大學充滿感恩,這裡讓我接受了教育、成熟成長,並成為一名科學家。當時,多倫多大學在人工智慧領域的研究處於世界領先地位,充滿了革命性的想法和激動人心的工作。我很幸運能在研究生階段就參與其中,做出自己的貢獻。不過,那已經是過去的事了。通常在畢業典禮演講中,人們會給出一些睿智的建議。我會稍微分享一點,但不會太多,因為這次演講會有些不同。我想分享一種心態:接受現實如其所是,不為過去懊悔,努力改善現狀。這種心態能讓一切變得更簡單,但實踐起來並不容易。我們很容易陷入對過去錯誤的決定或不幸的抱怨中,浪費時間。相反,如果我們接受現狀,思考下一步該怎麼做,事情往往會變得更好。這是一種持續的情感挑戰,我自己也在不斷努力。希望你們也能嘗試採納這種心態,這不僅是對你們的提醒,也是對自己的提醒。但今天,我想談一些更特別的事情。我們正處在一個前所未有的時代,主要是因為人工智慧(AI)的出現。AI已經改變了學生的學習方式,而且影響遠不止於此。它正在以未知且不可預測的方式改變我們的工作。有些工作可能很快受到影響,有些則可能晚一些。你可以在網路上看到AI的最新能力,也會開始思考:那些技能仍有價值?那些技能可能會變得不那麼重要?AI帶來的挑戰是前所未有的,而且未來會更加顯著。現在的AI已經能與我們對話、寫程式碼,這在過去是不可想像的,但它仍有許多不足。然而,它已經足夠讓人開始想像:幾年後——有人說三年,有人說五到十年——AI可能會做到我們能做的所有事情。為什麼我這麼肯定?因為我們的大腦是一個生物電腦,而數字電腦本質上也可以做到同樣的事情。當AI能夠勝任我們的所有工作時,會發生什麼?這是一個巨大的問題。現在思考這些可能有些震撼,但這還只是冰山一角。未來,我們會用AI做什麼?推動經濟發展?加速科研?甚至用AI研究AI?進步的速度會變得極快,至少在一段時間內是這樣。這些變化是如此劇烈,難以想像,甚至我自己也很難完全接受這種未來,但邏輯告訴我,這很可能會發生。在這樣的世界裡,我們該怎麼辦?有句名言說:“你可能對政治不感興趣,但政治會對你感興趣。”AI也是如此。關注AI的最新發展,體驗它的能力,會讓你逐漸形成一種直覺。隨著AI在一兩年、三年後的持續進步,這種直覺會越來越強烈。現在的討論會變得更加真實。任何文章或解釋都比不上我們親眼所見、親身經歷的震撼。未來,超級智能AI的出現將帶來深遠的問題,比如如何確保它們的行為可信,而不是偽裝成其他東西。我在這裡濃縮了很多內容,但總的來說,關鍵是不要忽視AI。當它的影響力變得更明顯時,我們需要匯聚能量來應對它帶來的巨大挑戰。這可能是人類有史以來最大的挑戰,但克服它也將帶來最大的回報。無論你是否願意,AI都將深刻影響你的生活。所以,關注它、思考它、為解決未來的問題積聚能量,這是最重要的。我就講到這裡,謝謝大家! (TOP創新區研究院)
Ilya 多倫多大學最新演講:AI 是人類有史以來最大的挑戰,克服它會帶來最大的回報
Ilya Sutskever 回來了!這位 AI 領域的傳奇人物在 2025 年 6 月 6 日重返母校多倫多大學,接受榮譽博士學位時發表了一場意義深遠的演講。對於很多人來說,Ilya Sutskever 這個名字如雷貫耳——他是 2012 年與 Geoffrey Hinton 和 Alex Krizhevsky 共同發明 AlexNet 的核心成員,這個摺積神經網路徹底改變了 AI 遊戲規則。作為 OpenAI 的聯合創始人和前首席科學家,他在 ChatGPT 的開發中扮演了關鍵角色。2024 年 6 月,他離開 OpenAI 後創立了 Safe Superintelligence Inc.,專注於安全超級智能的研發。AI 是人類最大的挑戰在這場演講中,Ilya 開門見山地指出了我們所處時代的獨特性。他說,雖然人們常說自己生活在最不尋常的時代,但這次真的不一樣——因為 AI。他提到,現在的 AI 已經改變了什麼叫做學生的定義,改變程度相當大。我們能夠與電腦對話,電腦理解我們並回應我們,它還能用語音交流、編寫程式碼。這在過去是不可能的。但 Ilya 話鋒一轉:現在的 AI 還有很多做不到的事情,還有很多不足。然而,它已經足夠好了,讓我們可以想像——無論是三年、五年還是十年後——AI 將能夠做我們能做的所有事情。大腦是生物電腦為什麼 Ilya 如此確信?他給出了一個簡潔有力的理由:「我們都有大腦,而大腦是生物電腦。這就是為什麼數字電腦、數字大腦能做同樣的事情。」這個一句話的總結解釋了為什麼 AI 將能夠做所有這些事情——因為我們有大腦,而大腦是生物電腦。當電腦能夠做我們所有的工作時會發生什麼?Ilya 認為,我們會用這些 AI 來做更多工作、發展經濟、做研發、做 AI 研究。進步的速度將變得極其快速。接受現實,向前看在給出人生建議時,Ilya 分享了一個有用的思維方式:接受現實本來的樣子,不要後悔過去,努力改善現狀。他坦誠地說,這很難做到。人們很容易想「哦,過去做了錯誤決定」或「運氣不好」,「某事不公平」。但與其浪費時間這樣想,不如說:「好吧,事情就是這樣。下一步最好怎麼做?」「每當我自己這樣做時,一切都會好得多。」 Ilya 說道。用自己的感官去體驗 AI面對這個由 AI 創造的極端而激進的未來,Ilya 給出的建議是:使用 AI,觀察今天最好的 AI 能做什麼。他引用了一句話:「你可能對政治不感興趣,但政治會對你感興趣。」同樣的道理也適用於 AI,而且程度要大得多。通過使用 AI,你會獲得直覺。隨著 AI 在未來一年、兩年、三年繼續改進,這種直覺會變得更強。現在談論的很多事情會變得更加真實,不再那麼虛幻。「畢竟,沒有多少文章和解釋能夠與我們用自己的感官、用自己的雙眼看到的東西相比。」網友熱議演講視訊發佈後引發了熱烈討論。DD(@death_dwarf) 詢問演講時間:這是什麼時候?vitrupo(@vitrupo) 回覆確認:2025 年 6 月 6 日Moytoy(@AlessaCaye) 強調了 Ilya 的重要性:Ilya Sutskever 基本上是現代 AI 的創造者,所以要特別關注他關於 AI 將如何影響人類的觀點。我們每個人都要關注。有趣的是,關於「大腦是生物電腦」這個觀點引發了激烈辯論。surya prakash bheri(@BHERI) 提出質疑:Ilya Sutskever 聲稱 AI 將與我們匹敵是因為大腦是「生物電腦」,這過於簡化了。我們的大腦通過情感、直覺和生活經驗來適應——這些是矽片無法模仿的品質。AI 擅長計算,而不是意識。思考不僅僅是資料;它是人類的本質。Eye of Asimov(@digambrar) 更是直接反駁:錯了。人類大腦與 AI 的區別是邏輯無法解釋的。正是這種區別通過設計現實創造了邏輯本身。AI 很快會讓我們意識到這一點。但 Haki(@Haki987) 力挺 Ilya:我會相信 Ilya 而不是你這個隨機的推特使用者!Ali Minai(@barbarikon) 指出了一個關鍵遺漏:Ilya 遺漏的關鍵是大腦是什麼樣的電腦,以及這與實際智能而不是有限的智能模擬有多大關係。Eve Eurydice(@EurydiceEve) 注意到了一個細節:Ilya 看起來很疲憊。演講全文好的。大家好。能來到這裡真的很高興。我要感謝所有人組織這次活動,感謝授予我這個榮譽學位。獲得這個榮譽學位對我來說意義非凡。幾乎就在 20 年前的今天,我在這個禮堂獲得了多倫多大學的學士學位。(掌聲)實際上,現在這將是我從多倫多大學獲得的第四個學位。我在這裡度過了非常美好的時光。我總共待了 10 年。我完成了本科學位,學到了很多,也在這裡做研究生,那真的很棒。我能夠深入研究我感興趣的任何領域,真正成為一名研究員。和 Jeff Hinton 一起學習真的很棒。實際上,Jeff Hinton 在這所大學是我生命中最大的幸運之一。我對這所大學充滿感激之情。我覺得我不能要求更好的方式來接受教育、成熟、成為一名科學家。當我還是學生時,多倫多大學正在進行最好的 AI 研究——最具革命性的想法,最令人興奮的工作。我感到非常幸運,我能夠在研究生院作為學生就為此做出貢獻。但那是很久以前的事了。我理解在畢業典禮演講中,人們應該提供睿智的建議,我會提供一點,但只是一點,因為這次演講會有點不同。我要提供一種有用的心態,如果採用它,會讓一切變得容易得多:接受現實本來的樣子,不要後悔過去,努力改善現狀。我之所以這麼說,是因為採用這種心態很難。很容易想:「哦,過去做了錯誤決定」或「運氣不好」,「發生了什麼事」,「某事不公平」。你可以花很多時間這樣想。但說「好吧,事情就是這樣。下一步最好怎麼做?」要好得多,也更有成效。我發現每當我自己這樣做時,一切都會好得多。但這很難。這是與自己情感的持續鬥爭。這就是我向你們提到它的原因。也許你們中的一些人會自己採用它。這是儘可能採用這種心態的提醒。也是對我自己的提醒。持續的鬥爭。但撇開這個不談,這不會是最傳統的畢業典禮演講的原因是,現在有些不同的事情正在發生。你們都離開了。我們都生活在有史以來最不尋常的時代。人們可能經常這麼說,但我認為這次是真的。這次是真的的原因是因為 AI,對吧?顯然,我是說,據我所知,今天的 AI 已經相當大地改變了什麼叫做學生。(掌聲)我感覺到這一點,我認為這是真的。但當然,AI 的影響不止於此。我們做的工作會發生什麼?嗯,它開始以一些未知和不可預測的方式發生一點變化。有些工作可能會更早感受到它。有些工作可能會更晚感受到它。有了今天的 AI,你可以上推特看看 AI 能做什麼,人們在說什麼,你可能會感受到一點。你想知道,嘿,那些技能有用?那些會變得不那麼有用?所以,你有這些問題。所以,你可以說當前的挑戰水平是它將如何影響工作和我們的職業。但 AI 真正的挑戰是真正前所未有和極端的,未來將與今天非常不同。就像你知道的,我們都見過 AI,我們都與電腦對話過,電腦也回應了我們,這是一件新事物。電腦過去不會這樣做,但現在會了。所以你與電腦對話,它理解你並回應你,它還用語音交流,寫一些程式碼。這很瘋狂,但有很多事情它也做不到,它有很多不足。所以,你可以說它仍然需要在很多事情上趕上。但它很有啟發性。它足夠好,你可以問自己,你可以想像,好吧,在若干年後,有人說是三年,有人說是五年、十年。數字被拋來拋去。預測未來有點困難。但慢慢地但肯定地,或者也許不那麼慢,AI 將繼續變得更好。總有一天 AI 將做我們能做的所有事情。不只是其中一些,而是全部。任何我能學會的,任何你們中的任何一個人能學會的,AI 也能做到。順便說一下,我們怎麼知道這一點?我怎麼能如此確定?我怎麼能如此確定?原因是我們都有大腦,而大腦是生物電腦。這就是為什麼我們有大腦。大腦是生物電腦。那麼為什麼數字電腦、數字大腦不能做同樣的事情呢?這是為什麼 AI 將能夠做所有這些事情的一句話總結,因為我們有大腦,而大腦是生物電腦。所以你可以開始問自己,會發生什麼?當電腦能做我們所有的工作時會發生什麼?對吧?這些是真正重大的問題。這些是戲劇性的問題。現在,就像你開始思考一下,你會說,天那,這有點激烈。但實際上這只是激烈程度的一部分,因為會發生什麼?我們集體想要用這些 AI 做什麼?做更多工作,發展經濟,做研發,做 AI 研究。所以進步的速度將變得非常極端地快,至少在一段時間內。這些是如此極端的事情。這些是如此難以想像的事情。所以現在我試圖把你拉進這個 AI 創造的真正極端和激進未來的頭腦空間。但它也很難想像。非常非常難以想像。很難內化並在情感層面上真正相信。即使是我也在努力。然而邏輯似乎表明這很可能應該發生。那麼在這樣的世界裡人們該做什麼?你知道有一句話是這樣的。它說你可能對政治不感興趣,但政治會對你感興趣。同樣的道理也適用於 AI,而且程度要大得多。特別是,我認為通過簡單地使用 AI 並觀察今天最好的 AI 能做什麼,你會獲得直覺。你會獲得直覺。隨著 AI 在一年、兩年、三年後繼續改進,直覺會變得更強。我們現在談論的很多事情,它們會變得更加真實。它們會變得不那麼虛幻。歸根結底,沒有多少文章和解釋能夠與我們用自己的感官、用自己的雙眼看到的東西相比。特別是對於 AI,未來非常聰明、超級智能的 AI,將會有非常深刻的問題,關於確保它們說它們所說的,而不是假裝成別的東西。我在這裡在很短的時間內濃縮了很多資訊。但總的來說,通過簡單地觀察 AI 能做什麼,在時機成熟時不忽視它,這將產生剋服 AI 將帶來的巨大挑戰所需的能量。從某種意義上說,AI 帶來的挑戰是人類有史以來最大的挑戰。克服它也會帶來最大的回報,從某種意義上說,無論你喜歡與否,你的生活都將在很大程度上受到 AI 的影響,所以關注它,注意它,然後產生解決將出現的問題的能量,這將是主要的事情。我就說到這裡。非常感謝。(掌聲)(音樂)謝謝。 (AGI Hunt)