近日,Meta 首席 AI 科學家、圖靈獎得主楊立昆(Yann LeCun)接受了加州大學聖地亞哥分校傑出物理學教授 Brian Keating 的專訪。暢談目前人工智慧的侷限性是什麼?我們需要那些進步才能實現類人智能?我們如何安全地開發人工智慧以符合我們的價值觀?
以下是本次訪談的幾個關鍵結論:
1.大型語言模型並非人工智慧的全部,其能力高度依賴於文字訓練,缺乏對物理世界的直接理解。
2.自監督學習是建構更強大、更通用人工智慧的關鍵,其重要性如同物理學中的暗物質,構成智能的基礎。
3.JEPA(聯合嵌入式預測架構)代表了一種新的自監督學習範式,通過建構心理模型實現對複雜現實世界的預測。
4.當前的人工智慧系統,包括大型語言模型,尚不具備人類的直覺、常識和推理能力,尤其在理解物理世界方面。
5.追求人類水平人工智慧,必須超越自回歸型大型語言模型,探索能夠處理複雜環境和物理世界的架構。
6.通用人工智慧(AGI)的說法具有誤導性,人類智能高度專業化,未來應關注能夠達到人類水平表現的特定領域AI(AMI)。
7.人工智慧的安全並非通過證明其安全來實現,而是通過工程設計,建構出符合人類價值觀和目標的目標驅動型系統。
8.人工智慧發展應關注目標驅動,避免基於“自發統治慾望”的假設,並以可控的方式將其與人類價值觀對齊。
以下是本次對話實錄:
主持人:楊立昆,歡迎來到《駛向不可能》播客。
楊立昆:很高興來到這裡。
主持人:你可能會注意到,我的背景中,有一段引言,我想讓您告訴我的聽眾,這段引言對您意味著什麼。
楊立昆:那是《2001:太空漫遊》中的一句著名台詞。我必須說這部電影對我的影響很大,因為我在九歲時就看過這部電影,當時它剛上映。這部電影給我留下了非常深刻的印象,因為它談論著所有我著迷的東西,宇宙和太空旅行,以及智能如何出現。那時我九歲,還有智能電腦之類的東西。
主持人:大多數人沒有意識到,我們正在收聽的播客這個詞就來源於那裡。在您的競爭對手公司,蘋果公司裡,有一位工程師,名叫維尼·契耶科,他像您一樣受到HAL9000的啟發,他看到了這款閃閃發光的白色小型裝置的樣機,後來被稱為,他說,我們必須稱它為iPod,剩下的就成了歷史,這就是播客的由來。所以我們總是用戴夫和哈爾的對話來開啟節目的音訊部分,讓哈爾打開吊艙艙門,但他拒絕這樣做。一些您的同事,包括最近的諾貝爾獎得主傑夫·欣頓,可能會因此感到恐懼,但是我一直想先從你在《華爾街日報》10月,諾貝爾獎頒發時被引用的的一句話開始。你說了一些對我來說非常有趣,或者說非常挑釁的話,你說,人工智慧幾乎和貓一樣聰明。我心想,你還沒見過我的貓,你知道嗎?我的貓會把一杯水打翻,只是為了把它灑在我的筆記型電腦上,它們玩弄死老鼠只是為了好玩,我無法想像人工智慧會做這種事,因為阻止它的唯一方法是每個房間裡都有雷射筆。所以,你這麼說的意思是什麼?為什麼這會安慰我?
楊立昆:我的意思是說,我們最好的大型語言模型可以用非常驚人的方式處理語言,但它們基本上不瞭解物理世界,因為它們完全是在文字上訓練的。因此,它們獲得的世界形像是通過人類對它的表述而來的,這種表述首先是非常符號化的,但卻是近似的、簡化的、離散的。現實世界比這複雜得多,我們的人工智慧系統完全無法處理現實世界。這就是為什麼我們的大型語言模型可以參加法學考試,但我們仍然沒有能夠像任何十歲孩子一樣,一下子就完成任務的智慧型手機器人,而無需花費大量的腦力。因此,我說一個十歲孩子,實際上對貓來說也是如此。如果你看到貓試圖跳上一堆家具,去夠一個感興趣的東西,它們會坐下來,然後轉動頭部,計畫它們的軌跡,然後它們會彈跳,你就會想,它們是如何做到這一點的?它們可以計畫,可以推理,它們瞭解物理世界,它們對自己有很好的模型,包括它們自身的動力學,以及關於事物的直觀物理。這些是我們今天無法用電腦複製的東西。
主持人:關於這些物體,似乎總是有樂觀和悲觀兩種情緒,我想知道,有一種叫做修昔底德陷阱的東西,一個崛起的力量走上檯面,它很弱,然後主導力量把所有的注意力都集中在它上面。這有點類似於沉沒成本謬誤。我想聽聽你的看法,我們是否在自掘墳墓,至少在物理科學方面,這種GPU加大型語言模型的方法,是否正在吸走這個領域的所有氧氣?我的意思是,就消費者而言,這驅動了輝達達到三兆美元。我們現在是否完全致力於GPU加大型語言模型模型,這會不會扼殺物理學領域的真正創新?
楊立昆:好壞參半。如果如果大型語言模型讓我們痴迷,它們會吸走其他的一切,那情況就是這樣,而且目前看來有點像這樣,大型語言模型有點像一把錘子,現在一切看起來都像釘子,這是一個錯誤。我的意思是,這是我要表達的觀點,大型語言模型不是人工智慧的全部。考慮到它們概念上的簡單性,它們具有驚人的強大功能,但是它們有很多事情做不了,其中之一就是表現和理解物理世界,當然,計畫在物理世界中的行動也不是大型語言模型能做到的。因此,我認為這是未來幾年人工智慧面臨的巨大挑戰,要超越自回歸型的大型語言模型架構,轉向可能理解現實世界,獲得某種程度常識的架構。
你知道,我們的智能運作方式,至少對於需要深思熟慮的有意識的推理的複雜任務來說,是我們對世界的運作方式有一些心理模型,我們可以想像我們的行動結果會是什麼,我們的行動的影響是什麼。這就是讓我們能夠進行計畫的原因,因為我們可以想像一系列行動的結果會是什麼,我們可以最佳化行動順序來實現特定的目標。當貓站著向上看,試圖找出要遵循的軌跡時,實際上發生的就是這種情況,那就是計畫。它們有關於自己的心理模型,有關於它們要跳過的材料的心理模型。我們也一直在這樣做,通常甚至沒有意識到。這應該引起物理學家的興趣,我希望我們可以在接下來討論這個問題。
主持人:是的,我想提出這個人的名字,阿爾伯特·愛因斯坦。因此,在1907年,他做了這個思想實驗,他設想了一個自由落體的觀察者。在電梯裡,天那,假設電纜斷了,電梯掉下去了,這樣的人將不會感受到重力場。他稱之為他一生中最快樂的想法。我想問你,在什麼情況下,或者是否有可能,A,電腦可以有一個快樂的想法,更不用說最快樂的想法。B,如果沒有化身,沒有一些發自內心的感覺來知道我們每次坐過山車或電梯不正常移動時的那種胃裡的感覺,人工智慧,一個電腦系統,如何才能具備像愛因斯坦那樣建構新物理定律的能力?
楊立昆:簡而言之,今天,不行,今天的人工智慧系統無法擁有這種直覺。儘管,最適合用於科學發現的人工智慧系統,都是專業模型,對吧?所以你想預測蛋白質的結構,或者預測兩個分子之間的相互作用,或者某種材料的特性,你會為此開發一些專業的模型。你不能真的把大型語言模型用於這類工作,它們只會重複它們接受訓練的內容,但它們無法提出新的東西。這些模型當然很強大,因為它們預測了一些以前沒有人嘗試過的化學反應,以及一些沒有人建構過的材料特性。所以它們比大型語言模型略微偏離了既定軌道,大型語言模型基本上是現有知識的索引方法。但是它們不會擁有愛因斯坦所擁有的那種洞察力。目前還沒有,但希望在某個時候會出現。所以我最大的科學問題是我感興趣的,是如何做到這一點,如何讓電腦,無論是人類還是動物,建立現實世界模型,以及當它們認為自己正在弄清楚系統或者您有興趣建模的東西的適當表徵和相關變數,以及該表徵的正確抽象等級時?例如,你我知道,我們可以在木星上收集無限量的資料,關於木星的已知資料量非常巨大,關於天氣,密度,組成,溫度,所有的一切。但是誰會想到,要預測木星未來幾個世紀的軌跡,只需要知道六個數字,三個位置和三個速度就足夠了。你做完了,甚至不需要知道密度、組成、旋轉之類的東西,只需要六個數字。因此,要做出預測,最困難的步驟是找到對現實的適當表徵,並消除所有不相關的東西,這樣才能做出這些預測。在過去的幾年裡,我一直痴迷於我認為能夠做到這一點的架構,我們稱之為JEPA。
主持人:我想讓你講一下。
楊立昆:當然,我當然想講一下,我還想感謝您再次提到了《2001太空漫遊》,木星,當然,是他們發現神秘巨石的地方,巨石使他們能夠穿越可能存在的蟲洞。好的,來談談JEPA,那是什麼?我不熟悉。
楊立昆:大型語言模型的一個特點,或者說一個技巧,我提倡很久了,叫做自監督學習。什麼是自監督學習?基本上,你獲取一個輸入,可以是序列,可以是任何東西,可以是圖像,你用某種方式損壞它。然後,你訓練系統從損壞的輸入中恢復完整的輸入。在語言和大型語言模型的背景下,有幾種類型的自然語言理解系統,但在當前大型語言模型出現之前,有一種系統會獲取一段文字,通過刪除一些單詞,用黑標記替換它們,或者替換一些單詞來損壞它,然後你訓練一個大型神經網路來預測缺失或錯誤的單詞。在這樣做的過程中,系統學習了一種很好的文字內部表示,可以用於各種潛在的應用,例如,作為翻譯系統或情感分析或摘要的輸入。
大型語言模型是其中的一個特例,你在建構系統架構時,系統可以做到,為了預測輸入中的一個單詞,系統只能查看它左邊的單詞。所以它只能查看前面的單詞來預測特定的單詞,因此你不再需要進行損壞過程,因為架構基本上通過阻止系統查看所有資料來內在損壞系統,它只能看到特定單詞左邊的東西來預測那個單詞,對吧?因此,你輸入一個輸入,然後訓練系統僅在其輸入上複製其輸出。這就是自監督,因為沒有要求系統完成的任務,輸入和輸出之間沒有區別,一切都是輸出和輸入。好的,這就是自監督學習。
現在,它在語言方面效果非常好,在DNA序列和各種其他方面也效果非常好,但它僅適用於像語言這樣的離散事物序列,對吧?語言中只有字典裡有限數量的單詞,你永遠無法預測那個單詞會跟在一系列單詞後面,但是你可以預測所有字典單詞的向量得分或機率分佈,這很容易做到,這只是一個介於0到1之間且總和為1的大向量。你如何處理自然資料?好的,從感測器或攝影機獲取的資料?
現在,你的資料是視訊,或者讓我們假設只是一張圖像,那麼你可以嘗試做同樣的事情,對吧?獲取圖像,通過遮蓋其中的一部分來破壞它,然後訓練一些神經網路來重建完整的圖像。這被稱為掩蔽式自動編碼器,但效果不是很好。實際上,有很多方法可以訓練系統從部分檢視重建圖像,它們被稱為自動編碼器,但是有很多方法可以訓練它們。掩蔽技術只是其中一種,所有這些方法的效果都不是很好。順便說一句,所有這些技術都受到統計物理的啟發。所以,一個特定的方法就是使用變分自動編碼器,變分來源於變分自由能,所以它的數學原理是一樣的。
主持人:它會失敗嗎?是否因為它缺少一些邊界條件或初始條件,就像三體問題那樣?我去年有一位本科生,試圖回答以下問題,如果你有過去一萬年水星的軌道,我們可以做到,我們實際上從噴氣推進實驗室和美國宇航局得知了它的軌道,對吧?因此我們知道了它大約200年的軌道,因為它的年份比我們的快得多。我說,給定這些資料,你能預測到牛頓力學中缺少某些東西嗎?換句話說,你必須用一個新的變分方法來增強它,即愛因斯坦拉格朗日量的變分。它無法做到。它知道它可以預測到水星的異常進動,但它無法得到方程式,我們基本上是強迫它,通過給它輸入愛因斯坦方程式的類似物。我們想回答的問題是,如果我們有1899年的大型語言模型,我們能否預測出愛因斯坦的廣義相對論?答案是,至少就我們正在使用的機器學習類型模型而言,我們做不到。這是否是缺失的東西?或者是因為它缺少愛因斯坦的天才所必須擁有的核心洞察力,還是其他原因?
楊立昆:不是,是其他原因。
主持人:好的,那是什麼?
楊立昆:那有點更平淡,不幸的是。事實是,要預測像圖像或視訊這樣的高維連續訊號,很難表示所有可能圖像的機率分佈。你可以,當你要預測一個單詞時,你不知道序列之後會跟著那個單詞,但是你可以大致知道。如果你有一個動詞,可能會有一個補語跟在後面,諸如此類。所以你不能對視訊這樣做。所以如果你展示一段視訊,如果你訓練一個系統來預測視訊中會發生什麼,你向它展示一段視訊,然後暫停,你讓它預測接下來會發生什麼,然後你向它展示接下來會發生什麼,然後你訓練它來實際預測。它效果不是很好。我一直在研究這個問題,差不多有10年了,它真的不起作用。
主持人:我相信你。
楊立昆:它不起作用的原因是,如果你訓練系統進行單一預測,那麼它能做的最好的事情就是預測所有可能發生的未來的平均值,基本上是一張模糊的圖像。因為,你知道,即使,即使我們拍攝像我們現在這樣說話的視訊,我可能會說這個或那個詞,我可能會把頭往這邊或那邊移動,我可能會把手往這邊或那邊移動。所以,如果系統必須做出一個預測,而我們訓練它最大限度地減少預測誤差,它只會預測所有可能發生的事情的平均值,你會看到我手的模糊版本,我的臉的模糊版本,我的嘴的模糊版本,那不是一個好的預測。因此,這行不通,通過重建或預測的自監督學習對於自然訊號不起作用。
所以,現在我來談談JEPA的想法,好的?所以JEPA代表聯合嵌入式預測架構。什麼是嵌入?嵌入是訊號的表示形式,對吧?你獲取一張圖像,你不在乎所有像素的精確值,你在乎的是某種表示形式,它將是一組數字,一個向量,代表圖像的內容,但不代表關於它的所有細節。好的,這是一個嵌入。聯合嵌入是指,如果你獲取一張圖像,並且你獲取了該圖像的損壞版本,或者說圖像的略微轉換版本,例如不同的視角。圖像的內容並沒有改變,因此嵌入應該是相同的。因此,聯合嵌入架構的訓練方式基本上是忽略這一點,然後你訓練它,以便當你向它展示同一圖像的兩個版本時,你得到相同的嵌入,你強制它生成相同的嵌入。好的,本質上是相同的輸出。然後P代表預測,假設圖像的一個版本是視訊中的一幀,而損壞的版本是前一幀。現在你要做的就是從前一幀預測下一幀,或預測接下來的幾幀。這稱為JEPA,一種聯合嵌入式預測架構,對吧?
你有兩個嵌入,一個獲取視訊的未來,一個獲取過去。然後你有一個預測器,試圖從視訊的過去的表示中預測視訊的未來的表示。當你使用這種類型的架構來訓練系統學習圖像的表示時,效果很好。我的同事和我以及許多其他人,在過去幾年裡提出了一些不同的技術來做到這一點,而且效果很好。因此,我們可以學習很好的圖像表示。我們開始獲得很好的視訊表示,但這很新鮮。但是你可以想像,現在你有了我在談論木星時說過的原則,你有關於木星或水星的資料,然後你讓系統找到你擁有的所有資料的良好表示形式,消除所有無法預測的東西,這樣你就可以在表示空間中進行預測。因此,消除所有你無法預測的東西,例如木星上的天氣,以及你無法預測的各種細節,只找到一種表示形式,以便你可以在該空間中的某個時間範圍內進行預測。在我看來,這確實是理解世界的本質,你在做物理學時,你試圖找到一種現象的模型,消除所有不相關的東西,然後找到一組允許你進行預測的相關變數。這才是科學的真諦。
主持人:其中是否有任何主觀的類似物,例如你談論一個模型的溫度之類的東西?你是否仍然必須指定這樣的參數?
楊立昆:在這種情況下,不用,因為當你有這種類型的架構,或者至少我描述的簡單的架構時,你消除了預測中的隨機性。基本上,我的意思是,當系統被訓練為這樣做時,它會同時訓練自己以找到輸入的良好表示,該表示儘可能保留輸入的多的資訊,但與此同時,它仍然是可預測的。因此,如果輸入中存在不可預測的現象,例如混沌行為,你無法預測的隨機事物,例如粒子運動,由於熱波動等,它不會保留此類資訊。它將消除它,只保留輸入中可用於預測的相關部分。所以,例如,取一個裝滿氣體的罐子,我們可以測量關於它的一切,包括所有粒子的位置,這是一個巨大的資訊量,你無法預測,因為你必須知道每個粒子如何與牆壁,以及散熱器等相互作用,所以你無法對此進行任何預測。然後,系統會自發地說,我無法預測每個粒子的軌跡,但是我可以測量壓力,體積,可能還有粒子數量和溫度,看,當我壓縮時,熱量上升了。因此,PV = nRT之類的東西。我認為這真的是機器學習與科學或者物理學相結合的本質所在。另一個我認為令人著迷的方面,我們尚未對其進行充分探索,因為這有點新概念,是表示的抽象層次的概念。人們在物理學,在科學中會這樣做,對吧?原則上,我們可以用量子場論來解釋我們之間正在發生的一切。
主持人:是的,我想是的,儘管人類意識的主觀性可能會發揮作用。
楊立昆:不,這只是粒子在相互作用,對吧?原則上,這一切都可以歸結為量子場論,但這完全不實用,因為你必須操作的資訊量太大了。因此,我們使用不同等級的抽象來表示消除細節的現象。你知道,量子場論,然後在此基礎上,我們有粒子基本粒子理論、原子理論、分子、材料。然後,你知道,你在等級結構中不斷上升,你還可以到達生物學,物體相互作用,然後是心理學,對吧?因此,找到好的抽象表示層次,使您能夠理解正在發生的事情,同時消除所有不相關的細節,這真的是智能的根源。
主持人:我和某人進行過辯論,我猜他不是你的好朋友或你的人工智慧冠軍,彼得·蒂爾。那是五月份的事,我們爭論是否可以從大型語言模型中進行推斷。它們有一些湧現的東西,但不清楚它們目前缺乏的是什麼,能夠讓它們達到人工智慧愛因斯坦的水平。我稱之為人工智慧愛因斯坦。那是訓練資料。你在去年早些時候與我們共同的朋友萊克斯·弗裡德曼的談話中也談到了這一點,基本上是說,大型語言模型有20兆個代幣,但一個四歲的孩子擁有的數量級更多,也許他們會獲得更多,也許他們確實獲得了10倍的提升,但我想說,阻止我們提出廣義相對論類似物或萬有理論的原因是,人工智慧目前還不知道《角鬥士2》的劇情嗎?我不這麼認為。換句話說,可以提供和標記的訓練資料是無限的,但有些東西非常不同,你知道,愛因斯坦不需要《速度與激情1》來提出廣義相對論,洛倫茲不變性原理。那麼,你認為獲得新物理學的最可能途徑是什麼?是像JEPA這樣,基於觀測現象和預測,在兩者之間建立橋樑的視覺資料和建模嗎?還是像符號回歸這樣完全不同的東西,並且在我看來,至少我是一個實驗宇宙學家,而不是理論物理學家,但關鍵是它是否需要只有人類才能提供的監督?所以,您認為通往萬有理論的最佳途徑是什麼?這是我所在領域目前的目標。在你看來,從年輕人可能想要追求的工具和技術方面來說,最有可能的途徑是什麼?
楊立昆:好的,我認為人們一直在研究的許多技術,可能在短期內具有很大的實用性。例如,符號回歸。麥克斯·克萊默一直在研究這類東西,他與紐約大學和弗拉特鋼鐵研究所都有聯絡,我也與他有聯絡。這真的很有趣。人們對這類東西的研究可以追溯到幾十年前,但當時效果不是很好,因為電腦不是很強大等等。因此,已經取得了很大進展。我不認為這會產生具有我們正在談論的那種洞察力的系統。那種愛因斯坦可能擁有的洞察力,或者說像費曼這樣的其他物理學家,當然也不會僅憑自身就產生萬有理論。我認為缺少的東西更加根本。因此,我們需要有能力建構系統的物理模型,我們人類和動物都能建構,並且該系統能夠在自己的頭腦中對其進行操作,並且使用極端情況,我想起了之前你說的思想實驗,這正是愛因斯坦擅長的。有一個關於某件事的心理模型,假設一個假設,然後試圖將該模型推向極端情況,看看會發生什麼?或者像人們經常用來說明由於相對速度而導致的時間膨脹的思想實驗那樣。如果你觀察到火車上有人在閃光,那光線在兩面鏡子之間上下跳動,對於那個人來說,光線以光速傳播,並且只是在特定的高度上上下跳動,但是對於從外面觀察的某人來說,光線是以對角線上下跳動,因此實際上是在更長的時間內傳播,但仍然以光速傳播,因此時間一定是收縮了。我的意思是,這是一個很簡單的想法,一旦你想到這一點,就會顯而易見,但是你必須做出光速對於每個人都是相同的假設。
楊立昆:還有一件事,你提到了訓練資料,你需要知道什麼,你需要看過《角鬥士》才能提出相對論嗎?當然不需要。有趣的是,歷史學家似乎說,愛因斯坦不知道芝加哥大學的實驗,邁克爾遜莫雷實驗,該實驗表明光速是恆定的。我不得不打斷你,那是在我的母校,凱斯西儲大學。
主持人:我不能讓這個被忽略。對不起,請繼續。
楊立昆:確實如此。他們試圖證明以太的存在,但他們沒有證明出來,他們認為他們的實驗有缺陷。我不認為愛因斯坦知道這一點,至少歷史學家說他不知道。因此,即使在沒有實驗證據的情況下,他也能提出這個概念。這很了不起。當然,他也受到了其他人的挑戰,例如彭加萊。
主持人:現在認識你才40分鐘,但我認為你是一個隱藏很深的物理學家。
楊立昆:我不是。
主持人:但我想要把你從櫃子里拉出來。現在很安全了。你最近說了一些令人難以置信的話,我忍不住要說,因為它確實是在我的領域裡,你說你將自監督學習比作人工智慧的暗物質。就像物理學中的暗物質一樣,它是至關重要的,我們知道它存在,或者我們認為它存在,儘管有些叛逆者,如果你感興趣的話,我稍後會講到。因此我們知道,中微子是暗物質的一種形式,我們知道它們存在,但我們知道它們不足以解釋觀測到的缺失物質的量。但是,你這麼說的意思是什麼?你將暗物質比作自監督學習是什麼意思?
楊立昆:實際上這番話是八年前說的。幾年前,我在一次主題演講中說過。當時在場的是我的前同事,紐約大學的理論物理學家凱·克萊默,他現在在威斯康星大學。他說,你不應該使用暗物質作為類比,你應該使用暗能量,因為那是宇宙中大部分質量所在的地方。所以,我想解釋以下類比:我們所學的大部分知識不是通過被告知答案來學習的,也不是通過反覆試驗來學習的,我們只是通過自監督學習來瞭解感覺輸入的結構,或者類似的東西。我們不知道人類和動物具體使用什麼方法,但它確實更像是自監督學習,而不是監督學習或強化學習。監督學習是指你有一個明確的輸入和一個明確的輸出,然後你訓練系統將該輸入對應到該輸出。展示一張大象的照片,告訴系統那是一頭大象,如果它說那是一隻貓,請更正參數,以便輸出更接近於大象。這就是監督學習。然後,強化學習是你向它展示一頭大象,你等待答案,然後你只告訴它答案是否正確,你不告訴它正確的答案,你只是告訴它答案是否正確,可能還會給它打一個分數。現在系統必須在所有可能的答案中搜尋那個是正確的,如果存在無限的答案,那就效率低下。強化學習非常低效,不可能解釋我們在人類和動物身上觀察到的那種高效學習。監督學習也無法解釋,因為我們學到的大部分東西都不是被教導的,我們只是自己想出來的,特別是動物,有很多動物種類在沒有見過父母的情況下變得很聰明,一個很好的例子是章魚,還有很多鳥類和其他物種的例子。它們學會了很多關於世界的知識,而且它們從未見過父母。因此,它們沒有被告知任何事情,它們沒有被教導任何東西。然後,還有一種模糊的東西,我們現在稱之為自監督學習,這正是大部分學習發生的途徑,如果說有什麼,大型語言模型的成功確實清楚地展示了自監督學習的力量。
因此,我使用了一個類比,我展示了一張巧克力蛋糕的照片,我說,蛋糕的主體,海綿蛋糕,如果你願意,就是自監督學習,蛋糕上的糖霜是監督學習,蛋糕上的櫻桃是強化學習,如果你想量化不同學習模式的相對重要性,這是一個正確的類比。當我在2016年說這話時,全世界的目光都集中在強化學習上,強化學習本應是通往人類水平人工智慧的道路。我一直不相信這一點。所以這有點爭議,但現在不是了。所以我說,你知道,這塊海綿蛋糕中存在著巧克力,這就是暗物質,是的,那就是人工智慧的暗物質。這是我們必須弄清楚如何做到的一件事。我們現在處境尷尬,就像物理學家一樣,我們知道如何進行強化學習和監督學習,但是我們不知道如何進行自監督學習,而自監督學習才是構成其主體的部分。
主持人:我們一直在探討機器學習所需的許多統計輸入,但有一個統計資料總是讓我感到困惑,那就是觀看視訊的人中,只有一半的人訂閱了我的YouTube頻道。這確實有助於我們使用演算法,楊在GoogleYouTube的競爭對手所使用的人工智慧生成的演算法。所以請幫忙,不會花你一分錢,但你肯定不會錯過我們和楊這樣的偉大思想家的對話,你也不會錯過2025年即將發生的事情。現在回到這一集。
主持人:你和我組成的物質是由這些岩石塊組成的,我會在我們最終見面時給你,這些是來自早期宇宙或早期太陽系的隕石,我把它們送給任何在其網站上使用.edu電子郵件地址的人。關鍵是,這非常重要。人們說,我們甚至不知道宇宙中90%的物質是什麼,但是,你知道,我們所知道的20%的物質非常重要,沒有它,我們就無法進行這場對話。上周我與你的同事斯蒂芬·沃爾弗拉姆進行了交談,談論到暗物質這個話題,他認為,他有一個非常規的暗物質想法,那就是宇宙是一個超圖,據他說,宇宙通過純粹的計算規則演變,時間是通過超圖的更新速率產生的,他認為,由於時間和溫度通過熱力學定律與熵相關,他實際上暗示暗物質是他所說的時空熱。我並不是要你專門評論這一點。我實際上並沒有完全理解它,我們對此進行過辯論,因為我的問題是,可以嗎?好的,有我們知道存在的暗物質,有我們不知道是什麼的暗物質,它可能是一些奇怪的新粒子,例如軸子,它可能是一些我們不理解的新力場,但還有我們知道的暗物質,絕對的,中微子,百分之百,弱相互作用的大質量粒子。那麼,時空熱能解釋中微子嗎?今天中微子在宇宙中的溫度約為1.9開爾文。所以我們解決這個問題。但總的來說,你認為宇宙是純粹的計算的這種超圖概念如何?作為一名研究人員,你對此有任何興趣嗎?
楊立昆:我不瞭解超圖概念的具體內容,但我可以告訴你,我長期以來一直對物理學和計算之間的聯絡感到著迷。當我在1988年在貝爾實驗室開始我的職業生涯時,我的同事都是物理學家,實驗室是一個物理實驗室。我是唯一一個非物理學家的人。我不想說電腦科學家,因為我的本科專業實際上是電氣工程,我也做了很多物理,但是我的同事都是物理學家。我有一位非常聰明的同事叫約翰·鄧克爾,他在我隔壁的辦公室工作,我們都對物理學中的根本性問題以及它們與計算的聯絡非常感興趣。我們參加了聖達菲研究所的幾次研討會,其中一次是由沃伊切克·祖瑞克組織的,他對這些問題也很感興趣。我不知道您是否瞭解他的任何作品。但有像塞思·勞埃德這樣的人,他當時剛剛完成博士學位。我們說的是1991年或1992年左右的事情。還有像默裡·蓋爾曼和約翰·惠勒這樣的人。所以,約翰·惠勒做了一個演講,他的演講是,“萬物源自位元”,這是他所做的一系列演講的標題,他說,一切都是底部的資訊。我們必須弄清楚如何用資訊處理來表達我們的物理學。我一直對這個概念感到著迷,並且我一直在這個想法上思考了很長時間,但沒有足夠具體的術語來真正寫一篇論文,但是圍繞它有很多有趣的觀點。當然,我與此相關的一個觀點是可逆計算的概念,由於量子計算,它變得非常重要,但是在90年代早期,它並不那麼受歡迎。
主持人:說到物理學家,我向觀眾收集了一些問題,我剛剛收到我的好朋友,也許也是你的朋友麥克斯·泰格馬克發來的簡訊。您願意回答麥克斯的問題嗎?他向我發來了兩個問題。第一個問題是,您認為什麼時候會出現通用人工智慧,通用人工智慧被定義為可以完成幾乎所有工作的AI?
楊立昆:我一直抵制使用通用人工智慧這個詞。原因不是我不相信人工智慧系統最終會變得像人類一樣聰明,我毫不懷疑,在未來的某個時候,我們將擁有在人類擅長的所有領域都和人類一樣聰明的機器。毫無疑問,這是時間問題。但是,將此稱為通用人工智慧是完全無稽之談,因為人類智能非常專業。我們很難接受人類智能是專業化的這一概念,但事實確實如此。這就是我不喜歡這個術語的原因。我比較喜歡“人類水平人工智慧”或“AMI”,它代表高級機器智能。這是我們在Meta內部使用的術語。我們稱它為“朋友”,因為我們這裡有很多法國人。
楊立昆:它在法語中也意味著朋友,對吧?但這概念是一樣的。那麼,這需要多長時間?奇怪的是,像麥克斯·泰格馬克這樣的人會問我這個問題,原因是,如果你想投資數百億美元建立訓練大型人工智慧系統的基礎設施,如果你想告訴人們,在未來幾年內,你就可以佩戴那些你最初向我們展示的智能眼鏡,這些眼鏡將提供一個你可以一直與他交談的智能助手,你可以問它任何問題,它可能比你更聰明。你不應該感到受到威脅,它就像擁有一個你可以與之交談並提出任何問題的聰明同事一樣。所以,這需要多長時間?因此,我認為,要擁有一個至少在大多數人看來都像擁有人類同等智能水平的系統,如果所有我們想像的計畫都能奏效,包括JEPA架構和我們正在嘗試的其他一些想法,我預計這至少需要五到六年時間。但是,它會在五六年內發生嗎?我認為這裡有一個非常長的分佈,人工智慧的歷史是,人們總是低估它的難度。我可能現在也在犯同樣的錯誤,當我說是五到六年時,如果我們在沒有預料到的情況下遇到重大障礙,如果我們計畫嘗試的所有事情都奏效,如果事情可以規模化,如果電腦加速,諸如此類,就會存在許多可能影響這件事情的因素,那將是最好的情況。
楊立昆:它不會在明年發生,您可能從一些人那裡聽說過,例如山姆·奧特曼、伊隆·馬斯克和達里奧·阿瑪迪等人,他們說它會在未來幾年內發生。不。未來幾年可能會發生的是,我們將越來越難以找到普通人問出大型語言模型都無法回答的問題。但是,我的貓在那裡?我的家務機器人呢?我的L5級自動駕駛汽車呢?能夠只用20小時的練習就能學會駕駛,而不會撞死自己的自動駕駛汽車在那裡?
主持人:我好奇只是作為一個該領域的外行,我想知道你對它有多著迷,它對我的生活有多大影響,它讓我受益匪淺,因為現在,我有了一群孩子,我不會給他們讀書,我讓Meta在晚上給他們讀書,好吧,我沒有這樣做,但是我不認為這在道義上有什麼問題,我感覺很好,因為如果你在讀別人的書,那基本上是一回事。但是我認為,我們正在爭論的事情,可能是,我能指出的最類似的例子是德雷克方程。德雷克方程可以參數化,你知道,基本上是對探測外星人的樂觀態度的一種聲明,它是基於許多參數的,這些參數總是在沒有不確定性的情況下給出的。你作為一名科學家,我知道,最重要的是系統誤差和統計誤差很簡單,系統誤差很難,這才是物理學的精髓,這才是直覺的來源,這才是技藝的來源。但是,你知道,在這些問題中,總是會得到這樣的數字,宇宙中存在數十億的文明,或者一個都沒有,這取決於你為誤差條選擇的值。同樣,對於通用人工智慧,它也是一個模糊的東西,人們以各種不同的方式來定義它。我同意你的觀點,我不認為它是真的,但是,我認為,如果你想測試一下,你可以像圖靈測試那樣,想出一個新的物理定律,想出一個可以做出可檢驗和可證偽的預測的解決方案,我們可以說,這才是真正新的東西。它不是在複製,不是在預測,它沒有溫度依賴性。所以,你認為,如果你可以進行勒丘恩測試,而不是圖靈測試,你認為你會怎麼做?
楊立昆:這是一個壞消息,我不認為有什麼單一的測試可以奏效。
主持人:這可能是對的。
楊立昆:因為任何你可以提出的子問題,都可能存在專門的解決方案來解決該問題,從而達到人類的水平。我們在電腦上看到了這一點,這就是電腦科學的歷史,電腦的計算速度比人類快,現在它們可以翻譯數十種語言,一個30美元的小工具可以在國際象棋比賽中擊敗你,肯定可以擊敗你。在那些我們想出來的,對人類來說很困難的各種任務中,例如遊戲,我們之所以提出它們,是因為它們對人類來說很難,但是對於機器來說似乎並沒有那麼困難。例如,每個搜尋演算法,例如圖中路徑最短的演算法,以及您的GPS使用的東西,您的地圖應用程式所使用的東西,這些都是相當簡單的演算法,它們具有超人的表現。因此,任何你選擇的特定應用領域,都將有針對它的特定的專門解決方案。因此,沒有一個測試可以測試智能。我們現在觀察到的是,人們對大型語言模型能夠處理語言感到印象深刻,事實證明,處理語言很簡單,比我們想像的要簡單。
實際上,它必須很簡單,因為它只是在過去的幾千年裡才在進化中出現,並且考慮到人類和黑猩猩的基因組之間的差異,它在基因組中所佔比例非常小,如果有的話,可能是一小部分,也許相當於幾兆字節的基因資訊,這真的不算什麼。在大腦中,語言是由兩個微小的區域處理的,布羅卡區和韋尼克區。布羅卡區用於產生語言,韋尼克區用於理解。我們受騙了,認為這些東西是智能的,具有通用智能,因為它們表現得有點像人類,但實際上它們非常膚淺。當我們試圖建構能夠完成非常簡單的物理任務的系統時,我們就會看到這一點,但事實證明,這非常複雜。它們真的做不到。我不認為我們有很好的解決方案。儘管如此,機器學習在機器人技術和其他領域也取得了進展,但我們仍然遠未達到目標。
主持人:麥克斯的第二個問題,你可能猜到了,你有什麼計畫來防止對更強大的人工智慧失去控制?
楊立昆:好吧,我和麥克斯在這個問題上存在分歧,我們一直在各種小組中討論這個問題。我也不同意傑夫·欣頓的看法,我們是朋友,但我們在這個問題上存在分歧。首先,存在一種隱含的觀點,如果一個系統是智能的,它就會想要以某種方式接管和統治。這完全是錯誤的。這不僅是錯誤的,而且即使在人類中也不是真的。你知道,並不是我們當中最聰明的人想當首領,對吧?我們在政治舞台上看到了很多這樣的例子。
主持人:沒錯。我們不會談論政治。
楊立昆:認為智能必然與統治慾望相關的想法是錯誤的。為了產生統治慾望或僅僅是意外地支配,必須在實體中加入某種固有的競爭資源驅動力,或影響其他實體以便從中獲利的驅動力。而這種特徵,支配慾望,是社會物種在生物學中的一個獨特特徵,對吧?因此,你在狒狒身上可以看到支配和服從行為,你在黑猩猩身上可以看到,你在狼和狗身上也看到了。你在人類身上也看到了,儘管在人類中,還有另一種獲得社會地位的方式,那就是聲望,對吧?你和我都是學者,因此我們不是通過武力來影響他人,而是通過聲望來做到,或者我們希望如此。但是,以紅毛猩猩為例,紅毛猩猩不是社會性的,它們是獨居的,事實上它們有自己的領地,而且它們沒有任何支配任何人的慾望,因為它們不需要。
因此,智能與統治慾望之間存在內在聯絡的想法是錯誤的。只是錯誤的。好的,現在,問題是,你如何確保人工智慧系統的驅動力與人類的價值觀保持一致?並且這些系統不會通過蓄意行動或意外行動來摧毀我們?如果你推斷大型語言模型的能力,你可能會感到恐懼,因為大型語言模型在某種程度上本質上是不安全的。現在,它們不是很聰明,所以這無關緊要,但是它們是不可控制的,因為它們的輸出方式不是通過最佳化目標實現的,不是通過試圖找出能夠滿足目標的操作順序來實現的。它們只是在沒有太多思考的情況下,自回歸地產生一個又一個標記。
主持人:但是,你為什麼說那是不安全的?我的意思是,我的孩子也做同樣的事情,但是她沒有權力,對吧?那裡沒有行動,沒有化身,沒有可以讓她對我做任何事的控制網路,即使她隨機地發瘋了。
楊立昆:從成年人的角度來看,她可能會坐在你的腿上,在你電腦前,然後隨機敲擊鍵盤,破壞你的整個檔案系統。
主持人:但是她不會發動核戰爭,對吧?她不會。
楊立昆:不,因為她沒有那種權力,但普通人也沒有那種權力,人工智慧系統也不會有那種權力,除非我們建造它的方式太愚蠢。你的女兒擁有的驅動力是進化硬編碼到她身上的。其中一些驅動力與探索世界,學習世界的運作方式有關,但是其中一些驅動力非常具體。因此,對於幼兒來說,有一種想要站立起來的驅動力,因為那是你學會走路的方式,對吧?因此,當他們站立起來時,他們會感到快樂,這是硬編碼的。有一些硬編碼的目標。因此,我談論的是硬編碼的行為,我談論的是諸如此類的事情,你知道,你觸摸嬰兒的嘴唇,嬰兒會開始吸吮,對吧?那只是硬編碼的直接行為,只是神經回路做出的反應。我談論的是硬編碼的目標。因此,你被驅動去做的事情,但自然界並沒有告訴你如何做。例如吃飯,對吧?我的意思是,自然界並沒有告訴你如何尋找食物。你必須自己做,在父母的幫助下。
主持人:麥克斯的同胞瑞典人,尼克·博斯特羅姆,來過這個播客,他因他的回形針問題而聞名。但我向他指出,你不可能生產無限多的回形針,因為地球的核心或任何小行星或任何太陽系中只有那麼多鐵,所以這有點荒謬,他們首先必須擁有能力、慾望、目標目的。我不說不可能,因為這是我的一個原則,我不會說任何事情是不可能的。但是,麥克斯似乎痴迷於證明一些無法證明的東西。他問你如何證明它是安全的,但是如果證明是否定的?
楊立昆:我不相信。我我的意思是,伯特蘭·羅素也希望找到證明人工智慧系統安全的方法。我認為這和證明渦輪噴氣機絕對安全一樣不可能。你無法證明渦輪噴氣機是安全的,但是我們可以製造非常可靠的渦輪噴氣機,它們可以帶你環遊世界,並且乘坐兩台發動機的飛機是絕對安全的。那是令人難以置信的技術。我們可以做到這些事情,人工智慧也將如此,不會有靈丹妙藥,也不會有證明我們可以建造安全系統的方法,但我們將設計出安全的系統,而我認為我們設計它們的方式是,這將是我的想法,那就是我們建構的系統是目標驅動的。我稱其為目標驅動的人工智慧。系統的輸出不是通過一個接一個的生成標記來實現的,而是通過最佳化目標來實現的。根據你採取的一系列操作,它的頭腦中有一個情況的心理模型,在系統中,該系統有一個它想要採取行動的環境的心理模型,它正在想像它可以完成的一系列操作,通過這一系列的操作和它的心理模型,它可以預測結果會是什麼。現在你可以檢查一下,這個結果是否滿足了一系列目標,其中一個目標是,我是否完成了我設定的任務,例如製造一千個回形針。
但是,可能有其他目標,更像是約束,並且它們是護欄。所以,如果你殺人或傷人,你要付出很高的代價,或者,如果你的行為消耗了太多的能量,你要付出很高的代價,對吧?所以,你可以想像擁有一系列目標,有些是護欄,有些是任務目標。然後系統產生輸出的方式是通過最佳化,它在行動序列的空間中搜尋,以找到一個能夠最大限度地減少所有這些目標和護欄的序列。現在,這是一個目標驅動的系統。這些系統無法被破解,除非你破壞它們,但你不能像破解大型語言模型那樣破解它們,方法是給它一個奇怪的提示,這可能會超出它的條件。所以,這個系統無法被破解。它產生的唯一輸出是滿足其內部情況的心理模型的護欄的輸出。現在,要製造安全的人工智慧,就要看那些關於情況的心理模型有多精確,你要設定那些護欄,才能確保這些事情不會出錯,不會將整個星球變成回形針。這很容易做到。我的意思是,我們知道如何對人類做到這一點,我們一直在對人類做幾千年了,這叫做制定法律。法律是一個護欄目標,它告訴人們,“好吧,也許你計畫的行動對你來說很好,但是如果你這樣做,你會被監禁五年。”因此,這會改變你的成本函數。
主持人:對於人工智慧,它會使GPU中的電路短路。這會使它感到痛苦。
楊立昆:你知道,人類可以選擇忽略這個護欄,但是一個目標驅動的人工智慧系統是無法忽略它的,因為它必須最佳化它,所以它無法逃脫那些護欄。
主持人:我總是稱之為神之空缺人工智慧。它們好像在行動。我愛麥克斯,他對我很好,我多次請他來做節目。但是關鍵是,我們不會在某一天突然擁有通用人工智慧,對吧?那是一個迭代的過程。我們已經看到了,對吧?我們看到了Waymo,對吧?實際上,我上周在洛杉磯看到了一輛Waymo,但是它是由一個坐在前排的人駕駛的,這讓人非常困惑。那個人在駕駛那輛Waymo,這有什麼意義?但我覺得,如果我們開始看到,你知道,就像,那麼把這稱為第0代或者全自動特斯拉。我坐過特斯拉,他們不會在人行道上行駛,你知道,那將是到達某地的最短方式。你知道,Waymo可以駛過人行道,以避開交通擁堵,那確實很忙,但它不會這樣做。所以,我們將看到證據,如果存在護欄,在汽車的情況下,它們是字面上的護欄,它會駛出軌道。我們將在0.1代迭代中看到這一點。因此,這不僅僅是我們有一天會擁有HAL,即使是HAL,你知道,我想說,第一個作業系統也不是用作業系統建構的。總是有先驅,你知道,第一台電腦不是在電腦上設計的,根據定義。所以,第一個真正的人工智慧不會由人工智慧製造,因此不可能有這種遞迴。但在我談到我在這個新時代作為教授的最後幾個問題之前,我想讓你說幾句。你對人工智慧有什麼想法?我還有很多問題,但我們不得不等到下一部分,我知道你很忙。你對人工智慧的危險有什麼其他想法?我想你經常會收到這個問題,我的觀眾也問過你。
楊立昆:我對此持非常樂觀的看法。我認為智能是我們在社會中最缺乏的最理想的商品,才能取得進步。因此,我認為擁有可以有效地增強我們智能的機器的影響,可能就像15世紀印刷機出現和書籍傳播的影響一樣具有變革性,它促進了知識的傳播,讓人們有理由學習閱讀,這在以前是沒有意義的。然後導致了啟蒙運動、科學、民主,使人們擺脫了宗教的教條,變得更加理性。所以我認為這產生了深遠的影響,對吧?它也暫時產生了負面影響,例如,印刷機允許傳播導致人們相互殘殺200年的想法,在歐洲,這是由於宗教教條或其他原因。但最終,它確實帶來了封建制度的瓦解,導致了美國革命和法國大革命等等。因此,我認為人工智慧將在增強人類智能、幫助人類完成那些原本需要其他人來完成的任務方面具有類似的變革性影響。我認為人類有一個光明的未來,如果我們能正確地做到這一點。我並不害怕麥克斯所描述的那種情況。
主持人:每個人,我知道如果你喜歡這些類型的對話,你一定會喜歡我的《周一魔法》郵件列表。在那裡,我探索了來到我節目中的嘉賓的秘密,以及來自科學、技術、工程和數學領域的世界各地的其他令人興奮的方面。最重要的是,我會將你們每個人都列入比賽中,以贏得這些隕石中的一個。是的,沒錯。早期太陽系的一個碎片,它是在一次災難性的超新星事件中產生的。其燃燒的強度與我對我的周一魔法郵件列表成員的激情相同。我知道你會喜歡它的。
主持人:所以你認為人工智慧對人類的變革性影響將超過20世紀初Facebook的戳功能?
主持人:說到Facebook,你是一位學者,你如何看待自己?你是教授?你是科學家?你是知名公司的一名員工?當你早上被一個超智能的人工智慧叫醒,他問你時,你是如何定義自己的?
楊立昆:我是科學家。我也是一名教育工作者,不僅僅是因為我是大學教授,還因為我做諸如此類的事情,試圖與更廣泛的公眾談論科學的某些方面。但我真的是一名科學家。我大約在職業生涯中花費了相同的時間在工業界和學術界。我的職業生涯始於工業界的貝爾實驗室,後來成為AT&T實驗室,然後在NEC研究所工作了一段時間,然後我40多歲時成為了一名教授。我以前從未當過教授。在當了10年教授後,我加入了當時的Facebook,建立了Fair。我運行Fair四年,所以我是一名研究經理。我猜這只是兼職。我也仍然是紐約大學的教授。基本上,三分之二在Facebook,也就是現在的Meta,三分之一在紐約大學。在運行Fair四年後,在建立和運行它之後,我辭去了運行它的工作。我現在是Meta的首席科學家,首席人工智慧科學家,我是一個個體貢獻者,這意味著我不是經理,我沒有下屬向我匯報。我不管理任何事情。我討厭管理任何事情。我是一個糟糕的管理者,沒有條理。我不喜歡做這件事,它對我來說是一種折磨。我做了四年,那真的太折磨了。所以,我更感興趣的是知識的影響。我在Meta的影響是,我正在規劃一條通往人類水平人工智慧的道路,因為你知道,那是我的科學追求。但是,也有著對智能助手的產品需求,它們可以在智能眼鏡中發揮作用,並達到人類水平的智能。這是符合人們願意付錢去購買的崇高目標的少數情況之一。
主持人:我可以看到我們之前討論的視訊技術如何為Instagram製作更好的濾鏡,我使用了一些。實際上,我有一個訣竅,我不知道你是否發現了,但是我希望你沒有發現,這樣我才能做一些讓你印象深刻的事情。你有沒有坐過飛機,Wi-Fi收費19美元,而且是兩個小時的航班,或者你可以免費傳送消息。你有沒有遇到過這種情況?你知道你可以免費使用WhatsApp AI嗎?Meta AI,你的作品。你可以免費使用它,這算免費簡訊,你不用支付Wi-Fi費用,你就可以連接到網際網路。
楊立昆:真的嗎?
主持人:是的,你知道嗎?我想讓你印象深刻。
楊立昆:不不,那很酷,我不認為很多人會意識到這一點,你可以通過Meta AI來訪問網際網路。
主持人:是的,我用它來避免花19美元,你知道,使用每小時1兆位元的網際網路連接。好吧,無論如何。不要說出來,因為航空公司會利用這一點。
楊立昆:我知道,我知道。
主持人:好吧,幸運的是我們的觀眾沒有萊克斯·弗裡德曼的觀眾那麼多,但我們稍後會看看。麥克斯對此有何興趣?我的意思是,這僅僅是為了製作更好的濾鏡嗎?大型語言模型,與Meta的主要產品WhatsApp,除了聊天機器人,Llama,還有Instagram、Facebook、Messenger和商店以及Meta所有很酷的東西之外,馬克對此有何興趣?我的意思是,我對他感興趣,也許是在科學層面上,因為你知道,他沒有接受過科學家的培訓,但他對未來有這種願景,這不僅僅是為了消費,對吧?必須有其他原因,他有什麼使命?他的人生有什麼宏偉的目標?
楊立昆:他的宏偉目標是將人們彼此聯絡起來,那是Meta的全部目標。那就是連接人們,而且非常專注於此。但是,連接人們也意味著連接的不僅僅是人,而是人與知識之間的聯絡,或者在日常生活中幫助人們,對吧?因此,未來的願景是,你在2013年的電影《她》中看到過,斯派克·瓊斯執導的那部電影,對吧?所以,那個人一直在與他的人工智慧助手在一起,這個助手一直在他身邊,要麼是在眼鏡裡,要麼是在你耳朵裡的東西里,或者是一個帶有攝影機的小東西,你帶著它,你知道,助手隨時都和他在一起。我認為那是未來的願景,每個人都會和為他們工作的超智能助手一起生活。就像一個商業領袖,政客或學者,帶著一群比他們聰明的人一起工作一樣。這是不可避免的。我不知道你怎麼樣,但我一直有比我聰明的人在工作。
主持人:對。
楊立昆:所以那是一件好事。我認為人們應該對未來充滿力量感。所以,如果你想要那樣的願景,Meta就有這樣的願景,你知道,它正在為此建構裝置,對吧?那麼,你就需要具有人類水平智能的人工智慧,這本質上是一個產品需求,如果我們今天擁有它,它會產生巨大的影響,世界上每個人都會使用它。當我們說我們時,我們是指整個公司,我們已經和他們取得聯絡,但是人們已經把一些雷朋Meta眼鏡帶到印度的農村地區,送給農民。他們絕對喜歡它。他們說,看看這個,告訴我你看到了什麼,告訴我發生了什麼,然後想像一下這對你的未來意味著什麼?
楊立昆:我的意思是,他們看著他們的植物,然後說,“好吧,這株看起來病了,你知道這是什麼病?”或者,“這是什麼蟲子,我需要對此採取一些措施嗎?”或者,“我應該現在收割嗎?明天天氣會怎麼樣?”有很多問題。他們可以用自己的當地語言做到這一點。
主持人:我可以和他們用一些印地語交流。
楊立昆:那是一種非常廣泛使用的官方語言,但是大多數印度人都不使用或不熟悉印地語。
主持人:那是一種方言,對。他們有900種不同的方言,對吧?
楊立昆:我聽說過700種,但已經很接近了。你知道,大約有20到30種官方語言。
主持人:所以,在我們結束之前,我還有兩個問題。首先要問的問題與我們所做的事情有關。我也認為自己首先是一個父親,丈夫等等,然後是一名科學家,然後是一名教育工作者,我也總是想問這個問題,伽利略,我的英雄,不是因為他名字裡有AI,你知道嗎?他是一位教授,他是一位科學家,但是他也需要賺錢,所以他會製造望遠鏡,前提是他可以出售使用手冊,例如《星空信使》和對話錄等等。但是我把我們做的事情稱為第二古老的職業,因為自公元1000年以來,在義大利博洛尼亞,然後是牛津大學以及索邦大學,就有了教授。我不用和你贅述。你如何看待人工智慧對其產生的影響?為什麼應該有人聽我的課,學習宇宙學、廣義相對論,而不是向這位阿爾伯特·愛因斯坦學習?對於我和我的同事,作為教授來說,威脅和機遇是什麼?
楊立昆:很明顯,知識轉移這個行業將發生深刻的變革,我們可能需要為科學研究和學術研究找到新的經濟模式,這在社會中發揮著重要作用,但這不一定與教育聯絡在一起。現在,我仍然認為,博士學位和導師的想法,有點像絕地大師和學徒,這種關係仍然存在,因為這不僅僅是知識,對吧?我不知道你怎麼樣,但是我從我的學生身上學到的東西可能和他們從我這裡學到的一樣多,只不過是不同類型的學習。但是,互動在行為、道德方面很重要,你知道,什麼是有趣的,應該做什麼,科學和研究的實踐是什麼。在某種程度上,在人工智慧的未來中,我們都會成為一組虛擬人員的負責人,你可以這樣認為,這將包括商業領袖,教授,我的意思是,任何人,不僅是領導者,而是每個人,都將像今天擁有智能員工的人一樣工作。當然,學生也會如此,因此你與學生的互動不僅是與學生之間的互動,而是在人工智慧系統支援下進行的互動。
主持人:我發現這很棒,我並不感到害怕。我試圖做,你知道,甚至當我建造望遠鏡,尋找大爆炸殘留的熱量時,我仍然對它著迷。實際上,我認為,人們現在我們只是剛剛開始,對吧?它說人工智慧現在處於最糟糕的狀態,只會變得更好。
楊立昆:沒錯。
主持人:我可以做得如此之快。有些事情必須受到監督,但重要的是它已經具有了120的智商,幾乎涵蓋地球上的所有學科,尤其是新的Llama模型。我對它們感到非常興奮。但是,我要問你的最後一個問題,來自此播客的同名人物。阿瑟·C·克拉克說過,要瞭解可能性的極限的唯一方法是進入不可能,並超越它們。但是他還說過另一件事。他實際上說了一些非常有趣的事情。他說,對於每一位專家,都有一個同等和相反的專家。所以我時不時會用這句話來讓我的系主任免除我的教學任務。但是他說了以下的話,他說,當一位年長但傑出的科學家,我不是說你老了,但我是說,當一位年長但傑出的科學家,當然你是,說某件事是可能的,他很可能就是對的,但是當他說某件事是不可能的時候,他很可能就是錯的。我想問你,你錯了什麼?你改變了什麼主意?如果有的話?
楊立昆:哦,我改變了很多事情的看法。一個例子是,在神經網路的早期,當我開始與傑夫·欣頓互動時,我在1987年至1988年期間和傑夫·欣頓一起做博士後,當時我對我們所謂的無監督學習沒有任何興趣。我認為這是定義不清的,我沒有看到它的重點。傑夫認為這是最有趣的事情,他一直從事玻爾茲曼機的工作,他因此獲得了諾貝爾獎。現在沒有人再使用玻爾茲曼機了,但除此之外,這是非常有影響力的觀點,主要是用於無監督學習。他有這樣的願景,即大部分學習必須是無監督的。他是對的,我基本上在2000年代初期才開始轉向他。這花了很長時間。從80年代後期到2000年代初期,我才改變了對此的看法。然後,我開始倡導在2010年代使用更加明確的術語。但我顯然弄錯了這一點
主持人:楊立昆,嗨,Meta。我要如何說,非常感謝,並祝楊立昆周末愉快?
楊立昆:Merci beaucoup,祝您周末愉快。
主持人:謝謝。
主持人:這很棒,這真太棒了。
楊立昆:我需要告訴您一件事,因為您在談論望遠鏡。我沒有建造望遠鏡,但是我做天文攝影,作為業餘愛好者。
主持人:我喜歡科學,但我喜歡拍照。
楊立昆:是的,我會拍出不錯的照片,你知道。
主持人:我很想看看。也許,我在Twitter和Instagram上關注了你,所以也許你會發一些東西,那會很棒。
楊立昆:我以前發過一些照片。
主持人:是的,那太棒了。你知道,最初的天文攝影師是伽利略,他畫出了他對宇宙的感受,而不僅僅是他所看到的東西。楊立昆,這非常精彩,我迫不及待想在下次我訪問西蒙斯基金會、熨斗研究所時與您見面。很高興與您見面。
楊立昆:好的,我很樂意,謝謝你。 (數字開物)