Sam Altman 達沃斯圓桌:關於AGI、紐約時報訴訟和董事會風波



作為人工智慧界的風雲人物,OpenAI 首席執行官Sam Altman 於1 月19 日參加了瑞士達沃斯世界經濟論壇上的一個由企業重量級人物組成的圓桌討論,主題為“動盪世界中的技術” 。

以下是Altman 就一系列問題發表的看法,為方便閱讀已進行部分刪減:

問題:我認為大多數人對人工智慧的擔憂可分為兩種。其一,它是否會終結我們所知的人類?其二,為什麼人工智慧不能直接幫我開車?

Sam Altman:關於這種新工具的一個非常好的跡像是,即使它目前的能力非常有限,而且存在非常大的缺陷,人們也在想辦法利用它來提高生產效率或其他方面的收益,並且理解它的限制-- 因此,它是一個時而準確、時而富有創意,但同樣可能完全錯誤的系統。我們絕不會放心讓它來駕駛汽車,但非常樂意利用它來集思廣益、撰寫文章或檢查程式碼。

為什麼人工智慧不能開車?舊金山附近其實有很棒的自動駕駛汽車系統(如Waymo),人們也都很喜歡它們。我的意思是,OpenAI 類型的模型在某些事情上表現出色,但在生死攸關的情況下就不行了。

人工智慧在某種程度上已經去神秘化,因為人們現在真的在使用它。我認為,這始終是推動新技術發展的最佳方式。


問題:人們擔心的是信任人工智慧的能力。我們能在多大程度上說,「我真的可以讓人工智慧來做這件事,無論是開車、寫論文還是填寫醫療表格?」(或)我們在某種程度上不得不相信黑盒子?

Sam Altman:我認為,人類對其他人犯錯的寬容度很高,但對電腦犯錯的寬容度卻很低。我猜,對於那些說『自動駕駛汽車已經比人類駕駛的汽車更安全』之類話的人而言,只有(自動駕駛汽車)比人類駕駛的汽車安全10 到100 倍,甚至更多時,人們才會接受它…

從某種意義上說,最困難的部分是當它99.999% 的時間都是正確的時候,你會放鬆警戒。

(考慮到)我實際上無法進入你的大腦,查看100 萬億個突觸,並試圖了解每個突觸中發生了什麼……但我可以要求你向我解釋你的推理……我可以決定這對我來說是否合理。

我們的人工智慧系統也將能夠做同樣的事情:它們將能夠用自然語言向我們解釋從A 到B 的步驟,而我們可以決定我們是否認為這些步驟是OK 的。


問題:如果人工智慧能夠超越人類的分析和運算能力,那麼人類還能做什麼?很多人說,這意味著我們將只剩下…我們的情緒智商…你認為人工智慧也能比我們做得更好嗎?

Sam Altman:西洋棋是人工智慧的首批「受害者」之一--Deep Blue 擊敗Kasparov 已經是很久遠的事了。所有的評論員都說:「電腦可以擊敗人類,這是西洋棋的末日。沒有人會再費心看棋或下棋。」(但是)西洋棋從未像現在這樣受歡迎。如果(棋手)用人工智慧作弊,那會是件大事。沒有人,或者說幾乎沒有人會觀看兩個人工智慧之間的對弈。

我承認(人工智慧革命與過去的科技顛覆相比),這次確實感覺不同。通用認知與我們所珍視的人性特質非常接近……(因此,)每個人的工作都將不同……我們都將在更高一點的抽象層次上工作,我們都將獲得更多的能力。我們仍將做出決定;隨著時間的推移,這些決定可能會更趨向於策劃,但就世界上應該發生的事情,仍然將由我們做出決定。


問題:您一直對人工智慧持相對溫和的態度。但像伊隆 - 馬斯克,有時還包括比爾- 蓋茨,以及其他非常聰明的人…都非常非常擔心。為什麼你認為他們錯了?

Sam Altman:我不認為他們一定會錯……這顯然是一項非常強大的技術,我們無法肯定地說究竟會發生什麼事。所有新的重大科技革命都是如此。但我們不難想像,這項技術將對世界產生巨大的影響,而且有可能出大錯。

我們一直在努力推動的技術方向,是我們認為可以確保安全的方向,其中包括很多東西。我們相信迭代部署。我們把這項技術推向世界……讓人們習慣它。從社會整體來看,我們有時間,或者說機構有時間,來討論如何監管,如何設定一些防護措施。


問題:從技術上講,你能為人工智慧系統設定防護嗎?這樣可行嗎?

Sam Altman:如果你了解從GPT-3 到GPT-4 的進展,看看它能在多大程度上與一系列價值觀保持一致,就知道我們在這方面已經取得了巨大進步。現在,還有一個比科技更難的問題,那就是「誰來決定這些價值觀是什麼、預設值是什麼、界線是什麼?它在這個國家和那個國家是如何運作的?我可以做什麼,不可以做什麼?」這是一個重大的社會問題,也是最大的問題之一。

但從技術角度來看,我們仍有樂觀的餘地,儘管我認為我們現在擁有的對齊技術(或多種技術)不會一路擴展到更強大的系統,(因此)我們需要發明新的東西。我認為,人們害怕這項技術的缺點是件好事,我們談論它,以及我們和其他人被要求達到高標準都是好事。

我對世界對像我們這樣的公司普遍感到的不適感同身受……為什麼我們的未來掌握在他們手中?還有……他們為什麼要這麼做?他們為什麼這麼做了?現在全世界都認為,這裡的利益如此巨大,我們應該去做這件事。

但我認為,我們有責任想出一個辦法,從社會中獲得意見,了解我們將如何做出這些決定,不僅要了解系統的價值是什麼,還要了解安全閾值是什麼,以及我們需要什麼樣的全球協調來確保一個國家發生的事情不會對另一個國家產生超級負面影響。


問:怎麼看待《紐約時報》的訴訟……寫這些文章的人不應該得到補償嗎?

Sam Altman:我們希望在《紐約時報》上進行訓練,但這並非當務之急。實際上,我們並不需要在他們的資料上進行訓練。這是人們所不理解的-- 任何一個特定的訓練來源都不會對我們產生太大的影響。

我們希望與《紐約時報》等內容所有者合作,並與許多其他出版商達成交易-- 隨著時間的推移,我們還將與更多出版商達成合作-- 當用戶問'嘿,ChatGPT,今天達沃斯發生了什麼事?'我們希望展示內容、連結、顯示《紐約時報》、《華爾街日報》或其他任何優秀出版物的品牌,並回答'這是今天發生的事情,這是實時信息',然後我們希望為此付費,增加流量。但這只是在使用者查詢時顯示訊息,而不是用來訓練模型。

現在,我們也可以用它來訓練模型,但這不是優先事項。我們很樂意不這樣做……我期望開始改變的一件事是,這些模型在訓練過程中能夠獲取更少量、更高品質的數據,並更努力地思考和學習。你不需要閱讀2000 本生物教科書來理解高中生物。也許你需要讀一本,也許三本,但2000 本……肯定幫不了你什麼。當我們的模型開始以這種方式運作時,我們將不再需要同樣大量的訓練資料。

不過,無論如何,我們都希望找到適用於整個世界(包括內容所有者)的新經濟模型……如果我們要使用你的教科書和教案教別人物理,我們希望能找到一種讓你獲得報酬的方式。如果你能教我們的模型,如果你能幫忙提供回饋,那麼我很樂意為你找到新的模型,讓你在成功的基礎上獲得報酬。

因此,我們非常需要新的經濟模式。目前的對話有點集中在錯誤的層面。我認為訓練這些模型的意義將在未來幾年發生很大變化。


問題:你曾經捲入近幾十年來最廣為人知的董事會醜聞。你從中學到了什麼?

Sam Altman:在某些時候,你不得不笑。這太荒謬了…

我們知道,我們的董事會已經變得太小了,我們也知道,我們沒有所需的經驗。但在很多方面,去年對我們來說都是瘋狂的一年,以至於我們忽略了這一點。

不過,我認為更重要的一點是,隨著世界越來越接近AGI,風險、壓力和緊張程度都會增加。對我們來說,這只是其中的縮影,但可能還不是我們所面臨的最大壓力。我觀察了一段時間,發現我們每向強大的人工智慧邁進一步,每個人的角色都會得到10 點瘋狂值。這是一件非常有壓力的事情,也應該是這樣,因為我們正試圖對非常高的風險負責。

到目前為止,我在整個過程中學到的最好的東西就是我們團隊的力量。當董事會在解僱我的第二天問我是否考慮回來時,我的第一個反應是“不”,因為很多事情讓我非常(沮喪)。然後我很快就恢復了理智,我意識到,我不想看到這些為公司和客戶付出了畢生精力的優秀員工建立起來的價值,被毀於一旦。但我也知道……沒有我,公司也會很好。(AIGC新智界)


文章來源:

https://aibusiness.com/nlp/from-davos-sam-altman-on-agi-the-nyt-lawsuit-and-getting-fired