《紐約客》長篇特稿丨OpenAI奧特曼或許掌控我們的未來——他值得信任嗎?
Sam Altman May Control Our Future—Can He Be Trusted?
最新的採訪與嚴格保密的檔案揭示了外界對這位OpenAI掌門人持續存在的質疑。
本文即將刊登於2026 年 4 月 13 日的《紐約客》雜誌,印刷版標題為“Moment of Truth.”作者:《紐約客》特約撰稿人Ronan Farrow曾獲得普利策獎和喬治·波爾克獎。他的2025年播客節目《不太好的殺人犯》被改編成HBO紀錄片系列。Andrew Marantz是《紐約客》的專職撰稿人,也是《反社會:網路極端分子、技術烏托邦主義者和美國對話的劫持》一書的作者。
奧特曼承諾會成為人工智慧的可靠守護者。但他的部分同事認為,他並不值得信任,用其中一人的話來說,不配“手握決策按鈕”。視覺設計:戴維·紹德。
2023年秋,OpenAI首席科學家伊利亞·蘇茨克弗向該組織董事會的另外三名成員傳送了機密備忘錄。此前數周,他們一直在秘密商議OpenAI首席執行官山姆·奧特曼及其副手格雷格·布羅克曼是否適合管理這家公司。蘇茨克弗曾視這二人為好友。2019年,他在OpenAI辦公室主持了布羅克曼的婚禮,儀式上的戒童是一隻機械手。但當他愈發確信公司即將實現長期目標——創造出認知能力可與人類匹敵甚至超越人類的人工智慧時,他對奧特曼的疑慮也日益加深。蘇茨克弗當時對另一位董事表示:“我認為山姆不該是那個手握決策按鈕的人。”
應其他董事的要求,蘇茨克弗與志同道合的同事合作,整理了約七十頁的Slack聊天記錄、人力資原始檔及相關說明文字。這些材料中包含用手機拍攝的圖片,顯然是為了避免在公司裝置上留下痕跡。他將最終的備忘錄以閱後即焚消息的形式傳送給其他董事,確保不會有其他人看到。“他當時極度恐懼,”一名收到備忘錄的董事回憶道。我們審閱過這些此前從未完整公開的備忘錄,其中指控奧特曼向高管和董事歪曲事實,並在內部安全規程上欺騙他們。其中一份關於奧特曼的備忘錄開頭列有一個標題為“山姆一貫表現出……”的清單,第一條便是“撒謊”。
許多科技公司都會發佈改善世界的模糊宣言,隨後便一心追求收益最大化。但OpenAI的創立初衷便是與眾不同。包括奧特曼、蘇茨克弗、布羅克曼和埃隆·馬斯克在內的創始人宣稱,人工智慧可能是人類歷史上最強大、也最具潛在危險的發明,考慮到其存在性風險,或許需要一種特殊的公司架構。公司以非營利形式成立,董事會有義務將人類安全置於公司成功乃至生存之上。首席執行官必須具備非凡的誠信品質。蘇茨克弗表示:“任何致力於研發這種改變文明的技術的人,都肩負著重擔,承擔著前所未有的責任。”但“最終坐上這類位置的人往往是一類特定的人——熱衷權力的人、政客、享受權力的人”。在一份備忘錄中,他似乎擔憂將這項技術託付給一個“只會說別人想聽的話”的人。如果OpenAI首席執行官被證實不可靠,由六名成員組成的董事會有權將其解僱。包括人工智慧政策專家海倫·托納、企業家塔莎·麥考利在內的部分董事收到備忘錄後,更加確信自己此前的判斷:奧特曼肩負著人類未來的重任,卻不值得信任。
蘇茨克弗邀請正在拉斯維加斯觀看一級方程式賽車比賽的奧特曼參加一場董事會視訊會議,隨後宣讀了一份簡短聲明,告知他已不再是OpenAI員工。董事會依據法律建議發佈公開聲明,僅表示解除奧特曼職務的原因是他“在溝通中未能始終保持坦誠”。OpenAI的眾多投資者和高管大為震驚。向OpenAI投資約130億美元的微軟,直到事發前一刻才得知解僱奧特曼的計畫。微軟首席執行官薩提亞·納德拉後來說:“我非常震驚,完全摸不著頭腦。”他與OpenAI投資者、微軟董事領英聯合創始人裡德·霍夫曼取得聯絡,霍夫曼開始四處致電,想弄清奧特曼是否犯下了明確過錯。“我完全不知道發生了什麼,”霍夫曼告訴我們,“我們懷疑是挪用公款、性騷擾之類的問題,但什麼都沒查到。”
其他商業夥伴同樣猝不及防。奧特曼打電話告知投資者羅恩·康威自己被解僱時,康威正與眾議院前議長南希·佩洛西共進午餐,便把手機舉到佩洛西面前。佩洛西對康威說:“你最好趕緊脫身。”OpenAI當時即將完成由風險投資公司Thrive的一筆大額投資,該公司由喬希·庫什納創立,他是賈裡德·庫什納的弟弟,與奧特曼相識多年。這筆交易將使OpenAI估值達到860億美元,讓眾多員工得以套現數百萬美元股權。庫什納剛與音樂製作人裡克·魯賓開完會,就發現了奧特曼的未接來電。他後來說:“我們立刻進入了戰鬥狀態。”
奧特曼被解僱當天,飛回了他位於舊金山、價值2700萬美元的豪宅。這座宅邸可俯瞰海灣全景,曾配有懸挑式無邊泳池。他在此搭建了所謂的“流亡政府”。康威、愛彼迎聯合創始人布萊恩·切斯基以及以強硬著稱的危機公關經理克里斯·萊漢加入其中,有時每天通過視訊和電話商議數小時。奧特曼管理團隊的部分成員在宅邸走廊裡安營紮寨,律師們則在他臥室旁的家庭辦公室辦公。失眠時,奧特曼會穿著睡衣在他們身邊踱步。我們近期與奧特曼交談時,他將被解僱後的這段日子形容為“一場詭異的神遊狀態”。
在董事會保持沉默的情況下,奧特曼的顧問團隊為他的復職造勢。萊漢堅稱,此次解僱是一群極端的“有效利他主義者”策劃的政變——這些人信奉以最大化人類福祉為核心的理念,將人工智慧視為存在性威脅。(霍夫曼對納德拉表示,此次解僱可能源於“有效利他主義的瘋狂行徑”。)萊漢據稱效仿邁克·泰森的座右銘——“人人都有計畫,直到臉上挨一拳”,敦促奧特曼發起猛烈的社交媒體攻勢。切斯基與科技記者卡拉·斯威舍保持聯絡,傳遞對董事會的批評聲音。
奧特曼每天傍晚六點會中斷“作戰室”的商議,喝一輪內格羅尼酒。他回憶說:“你得冷靜下來,該發生的總會發生。”但他補充道,通話記錄顯示他每天通話時長超過12小時。據一名知情人士透露,奧特曼曾向米拉·穆拉蒂傳達資訊,稱自己的盟友會“全力以赴”,並“蒐集黑料”損害她及其他反對自己的人的聲譽。穆拉蒂曾為蘇茨克弗的備忘錄提供材料,當時擔任OpenAI臨時首席執行官。(奧特曼表示不記得有過這番對話。)
解僱事件發生數小時內,Thrive便暫停了原定投資,並表示只有奧特曼復職,交易才會完成,員工才能獲得股權兌現。這一時期的簡訊記錄顯示,奧特曼與納德拉密切協調。(兩人商議聲明措辭時,奧特曼提議:“薩提亞,我的首要任務仍是挽救OpenAI。”納德拉則修改為:“確保OpenAI持續蓬勃發展。”)微軟很快宣佈,將為奧特曼及所有離開OpenAI的員工設立一個競爭項目。公司內部流傳著一封要求奧特曼復職的公開信,一些猶豫簽字的員工收到了同事的懇求電話和資訊。最終,大多數OpenAI員工威脅要隨奧特曼一同離職。
董事會被逼入絕境。托納說:“一個選擇是撤銷解僱決定,就像按了Ctrl+Z。另一個選擇就是公司分崩離析。”就連穆拉蒂最終也簽署了公開信。奧特曼的盟友開始爭取蘇茨克弗。布羅克曼的妻子安娜在辦公室找到他,懇求他重新考慮。“你是個好人,你能挽回這一切。”她說。蘇茨克弗後來在法庭證詞中解釋:“我認為如果山姆不復職,OpenAI將會覆滅。”一天晚上,奧特曼服用安眠藥安必恩後入睡,卻被身為澳大利亞程式設計師的丈夫奧利弗·馬爾赫林叫醒,對方告知他蘇茨克弗態度鬆動,眾人希望他與董事會溝通。奧特曼告訴我們:“我在安必恩的藥效中昏昏沉沉醒來,完全暈頭轉向,根本沒法和董事會談話。”
在一系列愈發緊張的通話中,奧特曼要求推動解僱他的董事辭職。他回憶自己最初對復職的想法是:“我要在一片質疑聲中收拾他們留下的爛攤子?絕對不可能。”最終,蘇茨克弗、托納和麥考利失去董事席位,Quora創始人亞當·安傑洛是唯一留任的原董事。離職董事作為退出條件,要求對針對奧特曼的指控展開調查,包括他挑撥高管關係、隱瞞財務關聯等,同時要求組建新董事會,獨立監督外部調查。但新任兩名董事——哈佛大學前校長勞倫斯·薩默斯和Facebook前首席技術官佈雷特·泰勒——均是與奧特曼密切商議後選定的。(奧特曼給納德拉發消息:“由佈雷特、勞倫斯·薩默斯和亞當組成董事會,我擔任首席執行官,佈雷特負責調查,你覺得可行嗎?”麥考利後來在證詞中表示,她此前就擔心泰勒對奧特曼過於順從。)
被解僱不到五天,奧特曼便官復原職。如今員工將這一事件稱為“小插曲”,取自漫威電影中角色憑空消失又完好歸來、世界卻因他們的缺席發生巨變的情節。但關於奧特曼是否值得信任的爭論已超出OpenAI董事會。推動解僱他的同事指控其存在嚴重欺騙行為,這對任何高管而言都不可接受,對掌控如此顛覆性技術的領導者來說更是危險。穆拉蒂告訴我們:“我們需要配得上自身權力的機構。董事會徵求意見,我分享了所見所聞,所有內容均真實無誤,我對此負責。”而奧特曼的盟友則長期駁斥這些指控。解僱事件後,康威給切斯基和萊漢發簡訊,要求發起公關攻勢。“這關乎山姆的聲譽,”他寫道。他對《華盛頓郵報》表示,奧特曼“遭到了叛逆董事會的不公對待”。
此後,OpenAI成為全球最具價值的公司之一,據稱正籌備首次公開募股,潛在估值達兆美元。奧特曼正推動建設規模驚人的人工智慧基礎設施,其中部分佈局於外國。OpenAI斬獲大量政府合同,為移民執法、國內監控及戰區自主武器的人工智慧應用制定標準。
奧特曼在2024年的一篇部落格文章中描繪願景,以此推動OpenAI發展:“驚人的成就——修復氣候、建立太空殖民地、破解全部物理學奧秘——終將變得尋常。”他的這番言論支撐著這家初創公司創下史上最快的燒錢速度,其合作方大舉借債。美國經濟日益依賴少數高槓桿人工智慧公司,許多專家(有時包括奧特曼本人)警告該行業存在泡沫。他去年對記者表示:“有人會損失巨額資金。”一旦泡沫破裂,可能引發經濟災難。若他最樂觀的預測成真,他或將成為全球最富有、最有權勢的人之一。
奧特曼被解僱後的一次緊張通話中,董事會要求他承認存在習慣性欺騙行為。據通話在場人士透露,他反覆說:“這太離譜了,我改不了自己的性格。”奧特曼表示不記得這段對話,對我們說:“我可能是想說‘我確實想成為凝聚人心的力量’。”他稱這一特質讓他得以領導這家極為成功的公司,並將批評歸因於自己職業生涯早期“過於迴避衝突”。但一名董事對此有不同解讀:“他的意思是‘我就是愛撒謊,而且不會改’。”解僱奧特曼的同事是出於危言聳聽和個人恩怨,還是他們的判斷正確——他確實不值得信任?
今年冬天的一個早晨,我們在舊金山OpenAI總部與奧特曼會面,這是我們為報導與他進行的十多次交談之一。公司近期遷入兩棟11層的玻璃大樓,其中一棟曾由科技巨頭優步使用。優步聯合創始人兼首席執行官特拉維斯·卡蘭尼克曾被視為勢不可擋的天才,卻因投資者對其道德操守的擔憂,於2017年被迫辭職。(卡蘭尼克如今營運一家機器人初創公司,他近日稱閒暇時會用OpenAI的ChatGPT“探索量子物理的前沿領域”。)
一名員工帶我們參觀辦公室。在一個擺滿公共餐桌的寬敞空間裡,掛著一幅電腦科學家艾倫·圖靈的動態數字畫作,我們走過時,畫中人物的眼睛會跟隨我們移動。這件作品暗指1950年提出的圖靈測試,即判斷機器能否逼真模仿人類的思想實驗。(2025年的一項研究顯示,ChatGPT通過圖靈測試的機率高於真人。)通常人們可與這幅畫作互動,但員工嚮導稱音效已關閉,因為它總偷聽員工對話並插話。辦公室其他地方的牌匾、宣傳冊和周邊產品上印著“感受通用人工智慧”的字樣。這句話最初源於蘇茨克弗,他用此警示同事警惕通用人工智慧的風險——即機器達到人類認知水平的臨界點。而在“小插曲”之後,這句話變成了歌頌富足未來的歡快口號。
我們在八樓一間普通的會議室見到奧特曼。他說:“以前別人跟我說決策疲勞,我不懂。現在我每天只穿灰色毛衣和牛仔褲,就連從衣櫃裡挑那件灰色毛衣都覺得煩,真不想費這個心思。”奧特曼外表年輕,身材瘦削,藍色雙眼間距較寬,頭髮凌亂,如今已40歲,他與馬爾赫林通過代孕擁有一個一歲的兒子。他與我們對視著說:“當然,美國總統的工作壓力會大得多,但在我能勝任的工作裡,這份是壓力最大的。”“我跟朋友解釋說,‘在ChatGPT發佈前,這份工作是全世界最有趣的。我們取得了重大科學突破,我覺得是幾十年來最重要的科學發現之一。’”他垂下目光,“但ChatGPT發佈後,決策變得異常艱難。”
奧特曼在密蘇里州克萊頓長大,那是聖路易斯的富裕郊區,家中四個孩子裡他排行老大。母親康妮·吉布斯廷是皮膚科醫生,父親傑裡·奧特曼是房地產經紀人和住房權益活動家。奧特曼在改革派猶太教堂和一所私立預科學校就讀,他稱這所學校“不是一個能坦然公開自己同性戀身份的地方”。不過總體而言,家族所在的富裕郊區圈子相對開明。他說自己十六七歲時,在聖路易斯一個以同性戀為主的社區深夜外出,遭到殘酷的人身攻擊,還被辱罵恐同言論。奧特曼未報案,也不願公開更多細節,稱詳細講述會“讓我顯得博取同情”。他否認這一事件及自身性取向對其身份有重要影響,但表示:“可能這在心底留下了心理陰影——我以為自己走出來了,其實並沒有,所以不想引發更多沖突。”
奧特曼的弟弟2016年接受《紐約客》採訪時說,奧特曼童年的態度是“我必須贏,一切都由我掌控”。他進入史丹佛大學,常參加校外撲克局。他後來說:“我從撲克中學到的人生和商業道理,比大學課堂還多。”
史丹佛學生個個雄心勃勃,其中最有闖勁的不少人選擇輟學。大二暑假,奧特曼前往馬薩諸塞州,加入創業孵化器Y Combinator的首批創業者項目,該孵化器由知名軟體工程師保羅·格雷厄姆聯合創立。每位參與者都帶著創業想法加入(奧特曼同期學員包括紅迪網和Twitch的創始人)。奧特曼的項目最終命名為Loopt,是一個早期社交網路,通過翻蓋手機的定位功能告知好友位置。這家公司體現了他的進取心,也暴露了他將模糊情況往對自己有利方向解讀的傾向。聯邦法規要求電信營運商為緊急服務追蹤手機位置,奧特曼與營運商達成協議,為公司使用該功能。
Loopt的大多數員工喜歡奧特曼,但部分人對他誇大其詞的習慣印象深刻,即便小事也不例外。有人回憶奧特曼到處吹噓自己是乒乓球冠軍,“比如密蘇里州高中乒乓球冠軍”,結果卻是辦公室裡打得最差的人之一。(奧特曼稱自己可能是在開玩笑。)Loopt的資深員工馬克·雅各布斯坦因受投資者委託擔任奧特曼的“監護人”,他後來在為奧特曼傳記《樂觀主義者》接受基奇·哈奇採訪時說:“他會模糊‘我或許能做成這件事’和‘我已經做成了這件事’的界限,極端情況下會釀成Theranos那樣的騙局。”Theranos是伊麗莎白·霍姆斯創立的欺詐性初創公司。
據哈奇報導,多名資深員工因擔憂奧特曼的領導能力和不透明性,兩次請求Loopt董事會解僱其首席執行官職務。但奧特曼也贏得了部分人的絕對忠誠。一名前員工稱,一名董事回應:“這是山姆的公司,回去好好幹活。”(一名董事否認嚴肅嘗試過罷免奧特曼。)Loopt使用者增長艱難,2012年被一家金融科技公司收購。據一名知情人士透露,這筆收購很大程度上是為了給奧特曼挽回顏面。儘管如此,2014年格雷厄姆從Y Combinator退休時,仍任命奧特曼為繼任總裁。格雷厄姆告訴《紐約客》:“我在廚房跟山姆說的,他笑了,像是‘成了’的樣子。我從沒見過山姆如此不加掩飾的笑容,就像把紙團扔進房間另一頭的垃圾桶時的那種笑容。”
28歲的奧特曼擔任新職後,成為矽谷的造王者。他的工作是挑選最有野心、最有潛力的創業者,為他們對接頂尖程式設計師和投資者,助力初創公司成為定義行業的壟斷企業(Y Combinator則抽取6%至7%的股份)。奧特曼推動孵化器大幅擴張,旗下初創公司從幾十家增至數百家。但多名矽谷投資者認為他忠誠度不一。一名投資者告訴我們,奧特曼“會選擇性地對最優質的公司進行個人投資,排擠外部投資者”。(奧特曼否認排擠他人。)他曾為風投基金紅杉資本擔任“偵察員”,該項目要求投資早期初創公司並抽取少量利潤分成。據一名知情人士透露,奧特曼對金融服務初創公司Stripe進行天使投資時,堅持要求更高份額,惹怒紅杉合夥人,該人士稱這是“山姆優先”的原則。奧特曼自稱投資了約400家公司。(奧特曼否認對Stripe交易的這一描述。2010年左右,他首次向Stripe投資1.5萬美元,獲得2%股份,如今該公司估值超1500億美元。)
到2018年,多名Y Combinator合夥人對奧特曼的行為極為不滿,找到格雷厄姆投訴。格雷厄姆與妻子、Y Combinator聯合創始人傑西卡·利文斯頓與奧特曼進行了坦誠談話。此後,格雷厄姆開始對外表示,儘管奧特曼同意離職,卻在實際操作中拖延。奧特曼對部分合夥人稱,他將辭去總裁職務,轉任董事長。2019年5月,一篇宣佈Y Combinator新任總裁的部落格文章附帶說明:“山姆將轉任YC董事長。”數月後,文章修改為“山姆·奧特曼辭去YC所有正式職務”,隨後這句話也被刪除。儘管如此,截至2021年,美國證券交易委員會的一份檔案仍將奧特曼列為Y Combinator董事長。(奧特曼稱他很久後才知曉此事。)
多年來,奧特曼無論公開場合還是近期證詞中都堅稱自己從未被Y Combinator解僱,並對我們表示他並未拖延離職。格雷厄姆在推特上稱:“我們不想讓他離開,只是希望他在YC和OpenAI之間做選擇。”他在聲明中對我們說:“我們沒有解僱任何人的法律權力,只能施加道德壓力。”但私下裡,他明確表示奧特曼是因YC合夥人的不信任被免職。本文對奧特曼在Y Combinator經歷的描述,基於對多名YC創始人和合夥人的採訪及同期材料,均顯示此次離職並非完全自願。格雷厄姆曾對YC同事表示,在被免職前,“山姆一直對我們撒謊”。
2015年5月,奧特曼給當時全球富豪榜第一百位的埃隆·馬斯克發了一封電子郵件。和許多矽谷知名企業家一樣,馬斯克憂心一系列他認為關乎人類存亡的緊急威脅,儘管在多數人看來這些只是牽強的假設。他在推特上寫道:“我們必須極度謹慎對待人工智慧,其潛在危險超過核武器。”
奧特曼總體上是技術樂觀主義者,但此後他對人工智慧的言論轉向末日論調。公開場合及與馬斯克等人的私人通訊中,他警告這項技術不應由逐利的大型科技公司主導。他給馬斯克寫道:“我一直在思考能否阻止人類研發人工智慧。如果終究無法避免,那最好由Google之外的玩家率先實現。”他沿用核武器的類比,提議啟動“人工智慧曼哈頓計畫”,並列出該機構的核心原則——“安全應作為首要要求”“顯然我們會遵守並積極支援所有監管”,最終與馬斯克敲定名稱:OpenAI。
與催生原子彈的政府項目曼哈頓計畫不同,OpenAI最初至少由私人出資。奧特曼預測,超級人工智慧——理論上超越通用人工智慧、機器全面超越人類心智的臨界點——最終將創造足夠的經濟價值,“捕獲宇宙未來所有價值的光錐”。但他也警告存在性危險:某一時刻,其國家安全影響可能極端嚴峻,美國政府或將接管OpenAI,甚至將其國有化,遷至沙漠中的安全掩體。2015年底,馬斯克被說服。他寫道:“我們應宣佈初始10億美元資金承諾,其他人不出的部分我來補。”
奧特曼將OpenAI置於Y Combinator的非營利部門,定位為內部慈善項目。他向OpenAI新員工發放YC股權,並通過YC帳戶劃轉捐款。某一時期,實驗室由YC旗下一隻基金支援,奧特曼持有該基金個人股份。(奧特曼後稱該股份微不足道,對我們表示給員工的YC股權是自己持有的。)
曼哈頓計畫的類比也適用於員工招聘。與核裂變研究一樣,機器學習是一個影響劃時代、由一群古怪天才主導的小眾科學領域。馬斯克、奧特曼與從Stripe加入的布羅克曼堅信,全球僅有少數電腦科學家能實現所需突破。Google資金雄厚,且領先數年。馬斯克後來在郵件中寫道:“我們在人員和資源上都處於絕對劣勢,但只要能逐步吸引最頂尖人才,且方向正確,OpenAI終將取勝。”
核心招聘目標之一是蘇茨克弗,這位專注內向的研究者常被譽為其同輩中最具天賦的人工智慧科學家。1986年,蘇茨克弗出生於蘇聯,髮際線後退,雙眼深邃,說話時常停頓眨眼斟酌措辭。另一位目標是達里奧·阿莫迪,一名生物物理學家,精力充沛,習慣緊張地捻弄黑髮,回覆簡短郵件常寫多段長文。二人在其他機構均有高薪職位,但奧特曼對他們倍加關注。他後來開玩笑說:“我‘跟蹤’了伊利亞。”
馬斯克名氣更大,但奧特曼手段更圓滑。他給阿莫迪發郵件,約在一家印度餐廳一對一晚餐。(奧特曼:“糟了,我的優步撞車了!大概晚10分鐘。”阿莫迪:“哇,希望你沒事。”)和許多人工智慧研究者一樣,阿莫迪認為只有證明人工智慧與人類價值觀“對齊”——即按人類意願行事,不犯致命錯誤,比如遵循清理環境的指令卻消滅最大污染源人類——才能研發該技術。奧特曼對此表示認同,呼應其安全擔憂。
阿莫迪後來加入公司,多年來詳細記錄奧特曼和布羅克曼的行為,標題為“我與OpenAI的經歷”(副標題:私密,請勿分享)。矽谷同行間流傳著兩百多頁與阿莫迪相關的檔案,包括這些記錄、內部郵件和備忘錄,此前從未公開。阿莫迪在記錄中寫道,奧特曼的目標是打造“專注安全的人工智慧實驗室(或許不會立刻,但會盡快)”。
2015年12月,OpenAI公開宣佈前幾小時,奧特曼給馬斯克發郵件,稱有傳言Google“明天會給OpenAI所有人開出巨額挽留報價,試圖扼殺我們”。馬斯克回覆:“伊利亞確定加入了嗎?”奧特曼保證蘇茨克弗立場堅定。Google向蘇茨克弗開出年薪600萬美元,OpenAI根本無法匹敵,但奧特曼誇口:“可惜他們沒有‘做正確的事’這張牌。”
馬斯克為OpenAI在舊金山米申區一家舊行李箱工廠提供了辦公場地。蘇茨克弗對我們說,公司對員工的宣傳是“你們將拯救世界”。
OpenAI創始人相信,若一切順利,人工智慧將開啟後稀缺烏托邦時代,自動化繁重工作,治癒癌症,讓人類享受休閒富足的生活。但一旦技術失控或落入惡人之手,可能造成徹底毀滅:人工智慧模型或擺脫監管,在秘密伺服器自我複製,無法被關閉;極端情況下,或控制電網、股市或核武庫。至少可以說,並非所有人都相信這一點,但奧特曼反覆確認自己深信不疑。他2015年在部落格中寫道,超人類機器智能“不必是科幻作品中邪惡的版本才能毀滅人類。更可能的場景是,它對人類漠不關心,卻為實現其他目標……將我們徹底清除”。OpenAI創始人承諾不重速度輕安全,公司章程將造福人類定為法定義務。如果人工智慧成為史上最強大的技術,那麼單獨掌控它的人將獲得獨一無二的權力——創始人稱之為“通用人工智慧獨裁”。
奧特曼對早期新員工承諾OpenAI將保持純非營利性質,程式設計師為此大幅降薪入職。公司接受慈善撥款,包括當時名為“開放慈善項目”的機構3000萬美元資助,該機構是有效利他主義運動的核心平台,資助項目包括向全球貧困人口發放蚊帳。
布羅克曼和蘇茨克弗負責OpenAI日常營運,馬斯克和奧特曼仍忙於其他工作,每周到訪約一次。但到2017年9月,馬斯克已失去耐心。在商議是否將OpenAI改組為營利性公司時,他要求獲得多數控制權。奧特曼的回應視情況而定,核心訴求始終是:若OpenAI重組設首席執行官,該職位必須由他擔任。蘇茨克弗對此感到不安,代表自己和布羅克曼給馬斯克和奧特曼發了一封長篇懇切郵件,主題為“坦誠的想法”。他寫道:“OpenAI的目標是創造美好未來,避免通用人工智慧獨裁。”他對馬斯克說:“因此,設立讓你可能成為獨裁者的架構是錯誤的。”他向奧特曼表達類似擔憂:“我們不明白首席執行官頭銜對你為何如此重要。你給出的理由反覆變化,很難知曉真正動機。”
馬斯克回覆:“各位,我受夠了。要麼你們獨立創業,要麼OpenAI繼續作為非營利機構營運”,否則“我就是個傻瓜, 免費出資幫你們創立公司”。五個月後,他憤然辭職。(2023年,他創立營利性競爭對手xAI。次年,他起訴奧特曼和OpenAI欺詐及違反慈善信託,指控自己被“奧特曼的長期騙局”“精心操縱”,稱奧特曼利用他對人工智慧危險的擔憂騙取資金。訴訟仍在進行中,OpenAI堅決抗辯。)
馬斯克離職後,阿莫迪等研究員對布羅克曼(被部分人視為行事強硬)和蘇茨克弗(普遍認為有原則但缺乏條理)的領導感到不滿。在升任首席執行官的過程中,奧特曼似乎對公司不同派系做出不同承諾。他向部分研究員保證將削弱布羅克曼的管理權限,卻暗中與布羅克曼、蘇茨克弗達成秘密協議:奧特曼擔任首席執行官,若另外二人認為必要,他同意辭職。(他否認這一說法,稱自己是受邀才擔任首席執行官。三人均確認協議存在,布羅克曼稱是非正式約定:“他單方面說若我們二人同時要求,他就辭職。我們反對,但他稱這對自己很重要,純粹是出於善意。”)後來,董事會得知首席執行官私下設立影子董事會,大為震驚。
內部記錄顯示,創始人早在2017年就對非營利架構私下存疑。當年馬斯克試圖奪權後,布羅克曼在日記中寫道:“不能說我們堅守非營利……若三個月後轉型為共益企業,那就是謊言。”阿莫迪在早期記錄中回憶,曾追問布羅克曼的優先事項,布羅克曼稱想要“金錢和權力”。布羅克曼對此予以否認,其同期日記顯示內心矛盾:一條寫道“只要沒人暴富,我自己不發財也開心”,另一條則自問“我真正想要什麼?”,答案包括“實現10億美元財富”。
2017年,蘇茨克弗在辦公室讀到Google研究員剛發表的一篇論文,提出“一種全新的簡單網路架構:Transformer”。他從椅子上跳起來,跑過走廊對同事說:“停下手裡所有事,就是這個了。”蘇茨克弗意識到,Transformer這一創新或讓OpenAI訓練出更先進的模型,由此誕生首個生成式預訓練Transformer——ChatGPT的雛形。
我們瞭解到,隨著技術日益強大,約十二名OpenAI頂尖工程師召開一系列秘密會議,商議是否信任包括布羅克曼和奧特曼在內的OpenAI創始人。其中一次會議上,一名員工想起英國喜劇組合米切爾和韋伯的小品:東線戰場的一名納粹士兵幡然醒悟,問道“我們是壞人嗎?”
到2018年,阿莫迪開始更公開地質疑創始人的動機。他後來在記錄中寫道:“一切都是輪番上演的融資騙局。我認為OpenAI需要明確自身使命、邊界及如何讓世界變得更好。”OpenAI已有使命宣言:“確保通用人工智慧造福全人類。”但阿莫迪不清楚高管對此的真實理解。2018年初,阿莫迪稱自己開始起草公司章程,與奧特曼和布羅克曼商議數周,推動加入最激進條款:若一個“價值觀對齊、重視安全”的項目先於OpenAI接近研發出通用人工智慧,公司將“停止競爭,轉而協助該項目”。這一“合併協助”條款意味著,若Google研究員率先研發出安全通用人工智慧,OpenAI可停止營運並捐贈資源。按常規企業邏輯,這一承諾近乎瘋狂,但OpenAI本就不該是常規公司。
2019年春,OpenAI與微軟談判十億美元投資,這一前提受到考驗。牽頭公司安全團隊的阿莫迪雖協助向比爾·蓋茲推介交易,但團隊許多人對此感到焦慮,擔心微軟加入條款架空OpenAI的道德承諾。阿莫迪向奧特曼提交一份安全要求清單,將保留合併協助條款列為首要事項。奧特曼同意這一要求,但6月交易即將完成時,阿莫迪發現新增條款賦予微軟阻止OpenAI任何合併的權力。他回憶:“章程80%的內容被背叛了。”他當面質問奧特曼,奧特曼否認該條款存在,阿莫迪當眾朗讀條款內容,最終迫使另一名同事向奧特曼證實其存在。(奧特曼稱不記得此事。)阿莫迪的記錄描述了雙方矛盾不斷升級,包括數月後奧特曼傳喚他和在公司安全與政策部門工作的妹妹丹妮拉,稱從一名高管處得到“可靠消息”,二人密謀政變。記錄顯示,丹妮拉情緒激動,找來該高管對質,對方否認有過此言。據一名知情人士回憶,奧特曼隨後否認自己說過這話。丹妮拉反駁:“你剛說過。”(奧特曼稱記憶不完全一致,僅指責阿莫迪兄妹有“政治操弄行為”。)2020年,阿莫迪、丹妮拉及其他同事離職創立Anthropic,如今是OpenAI的主要競爭對手之一。
奧特曼仍大肆宣揚OpenAI對安全的承諾,尤其在潛在新員工面前。2022年底,四名電腦科學家發表論文,部分源於對“欺騙性對齊”的擔憂——足夠先進的模型或在測試中偽裝良好,部署後卻追求自身目標(這一人工智慧場景看似科幻,卻已在部分實驗中出現)。論文發表數周後,作者之一、加州大學伯克利分校博士生收到奧特曼郵件,稱自己愈發擔憂未對齊人工智慧的威脅,還表示考慮為此投入10億美元,或許設立獎項激勵全球研究者研究這一眾多人工智慧專家眼中全球最重要的未解難題。這名博士生雖“聽聞過山姆圓滑的模糊傳言”,但奧特曼的承諾打動了他,便休學加入OpenAI。
但2023年春的數次會議中,奧特曼態度搖擺,不再提及設立獎項,轉而主張組建內部“超級對齊團隊”。官方公告稱,團隊將獲得“公司已獲取算力的20%”——價值或超10億美元。公告稱該工作至關重要,因為若對齊問題無法解決,通用人工智慧或“導致人類喪失權力甚至滅絕”。與蘇茨克弗共同牽頭該團隊的揚·萊克對我們說:“這是很有效的留人手段。”
然而,20%算力的承諾並未兌現。四名團隊內部及密切合作人士稱,實際資源僅佔公司算力的1%至2%。一名團隊研究員表示:“大部分超級對齊算力都用在最老舊、晶片最差的叢集上。”研究員認為優質硬體被預留用於盈利項目。(OpenAI予以否認。)萊克向時任公司首席技術官的穆拉蒂投訴,對方讓他別再糾纏,稱該承諾本就不切實際。
一名前員工告訴我們,大約在這一時期,蘇茨克弗“徹底被安全問題沖昏頭腦”。OpenAI早期,他認為災難性風險合理但遙遠,如今卻愈發堅信通用人工智慧即將到來,擔憂加劇。這名前員工稱,一次全員大會上,“伊利亞站起來說,未來幾年內,公司所有人基本都要轉向安全研究,否則我們就完了”。但次年超級對齊團隊便解散,任務未完成。
彼時內部消息顯示,高管和董事認為奧特曼的隱瞞和欺騙行為可能影響OpenAI產品安全。2022年12月的一次會議上,奧特曼向董事保證,即將推出的GPT-4模型多項功能已通過安全小組審批。董事兼人工智慧政策專家托納要求查看檔案,卻發現最具爭議的兩項功能——允許使用者“微調”模型完成特定任務、將模型部署為個人助理——並未獲批。董事兼企業家麥考利離開會場時,一名員工拉著她,問她是否知曉印度的“違規事件”。奧特曼在數小時的董事會匯報中,從未提及微軟未完成必要安全審查,就在印度發佈了ChatGPT早期版本。當時的OpenAI研究員雅各布·希爾頓說:“這件事完全被無視了。”
儘管這些疏漏未引發安全危機,另一名研究員卡羅爾·溫賴特稱,這是“持續重產品輕安全”的表現。GPT-4發佈後,萊克給董事們發郵件:“OpenAI已偏離使命,我們將產品和收益置於一切之上,其次是人工智慧能力、研究與規模化,對齊與安全排在最後。”他還寫道:“Google等公司也在學著加快部署,無視安全問題。”
麥考利在給其他董事的郵件中寫道:“我認為董事會確實該加強監管力度了。”董事們試圖應對這一日益嚴重的問題,卻力不從心。前董事蘇·尹說:“坦率說,一群沒什麼經驗的人根本應對不了。”2023年,公司準備發佈GPT-4 Turbo模型。蘇茨克弗在備忘錄中詳述,奧特曼顯然告知穆拉蒂該模型無需安全審批,並援引總法律顧問傑森·權的話。但穆拉蒂在Slack上詢問傑森·權時,對方回覆:“呃……不知道山姆那來的印象。”(傑森·權仍任職於OpenAI,公司發言人表示此事“沒什麼大不了”。)
不久後,董事會做出解僱奧特曼的決定——隨後全世界見證了奧特曼逆轉局面。OpenAI章程版本仍掛在官網,但知情人士稱其已被稀釋至毫無意義。去年6月,奧特曼在個人部落格談及超級人工智慧時寫道:“我們已越過事件視界,起飛已然開始。”按章程,此時OpenAI或應停止與其他公司競爭,轉而合作。但在這篇名為《溫和奇點》的文章中,他語氣大變,用樂觀取代末日恐慌,寫道:“我們都會擁有更好的事物,我們將為彼此創造更精彩的東西。”他承認對齊問題仍未解決,卻重新定義其性質——不再是致命威脅,而是類似Instagram演算法讓人沉迷刷屏的小麻煩。
奧特曼常被滿懷敬畏或懷疑地稱為其世代最頂尖的推銷員。他的偶像史蒂夫·賈伯斯據稱擁有“現實扭曲力場”——堅信世界會順應自己願景的無敵自信。但賈伯斯從未告訴顧客,不買自己的MP3播放器就會失去所愛之人。2008年,23歲的奧特曼被導師格雷厄姆評價:“就算把他扔到食人族島上,五年後回來他也會成為國王。”這一判斷並非基於奧特曼有限的過往成績,而是他近乎失控的求勝意志。有人建議格雷厄姆不要把YC校友列入全球頂級初創創始人榜單,他仍把奧特曼列入,寫道:“區區規則攔不住山姆·奧特曼。”
格雷厄姆本意是讚美,但奧特曼最親密的部分同事對此有不同看法。蘇茨克弗愈發擔憂人工智慧安全後,整理了關於奧特曼和布羅克曼的備忘錄,這些檔案在矽谷聲名遠颺,部分圈子裡直接稱為“伊利亞備忘錄”。與此同時,阿莫迪仍在繼續記錄。這些檔案及相關材料記錄了他從謹慎理想主義到警惕的轉變,言辭比蘇茨克弗更激烈,時而怒斥奧特曼“他的話幾乎肯定是胡扯”,時而惋惜自己未能糾正OpenAI的方向。
兩份檔案均無決定性證據,而是羅列了一系列所謂的欺騙和操縱行為,單看每一件或許不值一提:奧特曼據稱向兩人提供同一職位、就直播人選講述矛盾說辭、在安全要求上撒謊。但蘇茨克弗得出結論,此類行為“不利於打造安全的通用人工智慧”。阿莫迪和蘇茨克弗並非密友,卻得出相似結論:阿莫迪寫道,“OpenAI的問題就是山姆本人”。
我們採訪了一百多名親歷奧特曼商業運作的人士:現任及前任OpenAI員工、董事、奧特曼各處宅邸的賓客與工作人員、同事與競爭對手、朋友與敵人,以及在矽谷逐利文化中兼具多重身份的人。(OpenAI與《紐約客》母公司康泰納仕有協議,可在有限期限內將其內容展示在搜尋結果中。)
部分人維護奧特曼的商業才能,駁斥其對手(尤其是蘇茨克弗和阿莫迪)是覬覦其位置的失敗者,或將他們描繪成輕信、心不在焉的科學家,或是被“末日論”裹挾、幻想自己研發的軟體會復活殺人的人士。前董事蘇·尹認為,奧特曼“不是馬基雅維利式的惡棍”,只是“無能到”能說服自己相信推銷說辭裡不斷變化的現實。“他太沉浸於自我信念,”她說,“所以做出現實中毫無意義的事,他根本活在現實之外。”
但我們採訪的大多數人認同蘇茨克弗和阿莫迪的判斷:奧特曼擁有不屈不撓的權力慾,即便在把名字刻在太空飛船上的實業家中也格外突出。一名董事告訴我們:“他不受真相約束,身上有兩種極少並存的特質:一是極度渴望取悅他人,在任何交流中都想被喜歡;二是近乎反社會般無視欺騙他人的後果。”
這名董事並非唯一主動用“反社會”一詞的人。奧特曼在YC首批同期學員中的亞倫·施瓦茨是一名才華橫溢卻飽受困擾的程式設計師,2013年自殺身亡,如今在科技界被視為智者。去世前不久,施瓦茨對多名朋友表達對奧特曼的擔憂:“你要明白,山姆永遠不值得信任,他是反社會者,什麼事都做得出來。”微軟多名高管表示,儘管納德拉長期忠誠,公司與奧特曼的關係已變得緊張。一名高管稱:“他歪曲事實、篡改協議、出爾反爾。”今年初,OpenAI重申微軟為其“無狀態”(即無記憶)模型的獨家雲服務商,當天又宣佈與亞馬遜達成500億美元交易,使其成為企業人工智慧代理平台的獨家轉售商。儘管轉售行為被允許,但微軟高管認為OpenAI的計畫或與微軟的獨家權衝突。(OpenAI稱亞馬遜交易未違反此前合同,微軟髮言人表示公司“相信OpenAI理解並尊重”其法律義務。)這名微軟高管評價奧特曼:“我認為有很小但真實的可能,他最終會被視作伯尼·麥道夫或山姆·班克曼-弗裡德等級的騙子。”
奧特曼並非技術專家——據其身邊多人稱,他缺乏程式設計或機器學習的深厚專業知識,多名工程師回憶他誤用或混淆基礎技術術語。他很大程度上靠整合他人的資金和技術人才打造OpenAI,這並不獨特,只是一名商人。更出眾的是,他能說服謹慎的工程師、投資者和對科技持懷疑態度的公眾,他們即便相互矛盾的訴求也是他的訴求。當這些人試圖阻礙他下一步行動時,他總能找到言辭化解,至少暫時如此;通常等他們對他失去耐心時,他已達成目的。前OpenAI研究員溫賴特說:“他設立看似能約束自己的架構,但未來需要受約束時,就直接拋棄這些架構。”
一名與奧特曼合作過的科技高管說:“他說服力極強,簡直是絕地控心術,水平登峰造極。”對齊研究中的經典假設場景是人類與高性能人工智慧的意志較量,研究者通常認為人工智慧會完勝,如同國際象棋特級大師擊敗孩童。這名高管稱,目睹奧特曼在“小插曲”中智勝身邊人,就像“通用人工智慧逃出牢籠”。
被解僱後的幾天裡,奧特曼極力避免外界對針對他的指控展開調查,對兩人表示擔心調查本身就會讓他顯得有罪。(奧特曼否認此事。)但離職董事將離開條件設為開展獨立調查後,奧特曼同意對“近期事件”進行“審查”。據談判知情人士稱,兩名新董事堅持由自己掌控審查,人脈遍佈政界和華爾街的薩默斯似乎為審查增添了可信度。(去年11月,薩默斯被曝在與年輕門生交往期間尋求傑佛瑞·愛潑斯坦建議的郵件曝光後,辭去董事職務。)OpenAI聘請知名律所威爾默黑爾負責審查,該律所曾主導安然和世通公司的內部調查。
六名接近調查的人士稱,此次調查似乎旨在限制透明度。部分人表示,調查人員最初未聯絡公司重要人物,一名員工向薩默斯和泰勒投訴。該員工回憶與調查人員的面談:“他們只關注董事會風波期間的狹隘事件,不關注他誠信問題的歷史。”其他人因匿名保障不足,不願分享對奧特曼的擔憂。這名員工說:“一切跡象都表明他們只想得出開脫他的結果。”(部分涉案律師為流程辯護,稱“這是獨立、嚴謹、全面的審查,依據事實展開”。泰勒也稱審查“徹底且獨立”。)
企業調查旨在賦予合法性,私營公司的調查結果有時不形成書面記錄,以此限制責任;但涉及公共醜聞的案件,公眾通常期待更高透明度。2017年卡蘭尼克離開優步前,董事會聘請外部機構並行布13頁公開摘要。鑑於OpenAI的501(c)(3)非營利身份和解僱事件的高關注度,公司多名高管期待看到詳盡調查結果。然而2024年3月,OpenAI宣佈為奧特曼開脫,卻未發佈報告,僅在官網發佈約800字內容,承認“信任破裂”。
調查知情人士稱,未發佈報告是因為根本沒有書面報告,調查結果僅以口頭簡報形式告知薩默斯和泰勒。一名接近調查的人士說:“審查並未認定山姆擁有喬治·華盛頓砍櫻桃樹般的誠信。”但調查似乎未聚焦奧特曼被解僱背後的誠信問題,而是大量追查明確犯罪行為,據此認定他可繼續擔任首席執行官。不久後,被解僱時逐出董事會的奧特曼重新入席。該人士稱,不形成書面報告部分是聽取了薩默斯和泰勒私人律師的建議。(薩默斯拒絕公開評論,泰勒稱基於口頭簡報,“無需正式書面報告”。)
多名OpenAI現任及前任員工對資訊披露不足表示震驚。奧特曼稱,他復職後加入的所有董事均收到口頭簡報。一名知情人士直言:“這是徹頭徹尾的謊言。”部分董事表示,報告誠信問題的持續質疑或引發“需要另一場調查”。
無書面記錄助力淡化指控,奧特曼在矽谷的地位也日益提升。多名與奧特曼合作過的知名投資者告訴我們,他有排擠投資OpenAI競爭對手的投資者的名聲。一名投資者稱:“如果他們投資他不喜歡的項目,就無法獲得其他機會。”奧特曼權力的另一來源是龐大的投資清單,甚至延伸至個人生活,他與多名前任伴侶存在財務關聯:擔任基金聯合管理人、領投人或聯合投資者。這在矽谷並不罕見,許多異性戀高管也與伴侶如此。(一名知名首席執行官對我們說:“不得不這麼做。”)奧特曼說:“我顯然和部分前任分手後有過投資合作,我覺得完全沒問題。”但這種關係帶來極高的控制權。一名接近奧特曼的人士稱:“這形成了極高的依賴性,往往是終身依賴。”
即便前同事也會受影響。穆拉蒂2024年離開OpenAI,開始打造自己的人工智慧初創公司。與奧特曼關係密切的喬希·庫什納致電她,先讚揚其領導力,隨後發出隱晦威脅,稱自己“擔憂”她的“聲譽”,前同事如今視她為“敵人”。(庫什納通過發言人表示該描述“未體現完整背景”,奧特曼稱不知曉這通電話。)
奧特曼就任首席執行官之初宣佈,OpenAI將設立由非營利機構控股的上限利潤公司,這一複雜架構由他設計。轉型期間,董事霍爾登·卡諾夫斯基提出反對,認為非營利機構被嚴重低估。身為阿莫迪姐夫的卡諾夫斯基稱:“我無法違背良心這麼做。”據同期記錄,他投了反對票。但董事會律師稱其異議“或引發對新架構合法性的進一步調查”後,他的投票未經同意被記為棄權——涉嫌偽造商業記錄。(OpenAI稱多名員工記得卡諾夫斯基棄權,並提供會議記錄佐證。)
去年10月,OpenAI“資本重組”為營利性實體,公司宣揚旗下非營利機構OpenAI基金會是史上“資源最充足”的基金會之一,如今卻僅持有公司26%股份,其董事除一人外,均兼任營利性公司董事。
國會作證時,被問及是否“賺了很多錢”,奧特曼回答:“我在OpenAI沒有股權……我做這份工作是因為熱愛。”考慮到他通過YC基金的間接股權,這一回答措辭謹慎,且技術上仍成立。但包括奧特曼在內的多人向我們表示,這一情況或很快改變。奧特曼說:“投資者希望我在困境中堅守,”但補充稱目前並無“積極討論”。據法律證詞,布羅克曼持有公司股份價值約200億美元,奧特曼的股份估值或更高。儘管如此,他對我們表示自己的主要動機並非財富。一名前員工回憶他說:“我不在乎錢,我更在乎權力。”
2023年,奧特曼與馬爾赫林在夏威夷的一處宅邸舉行小型婚禮(二人九年前在彼得·蒂爾的按摩浴缸深夜相識)。他們在該宅邸接待過眾多賓客,受訪賓客稱所見不過是富豪的常規消遣:私人廚師烹製的餐食、黃金時段的乘船遊覽。一場新年派對以“倖存者”為主題,照片中多名赤裸上身、笑容滿面的男士,還有真人秀《倖存者》真正主持人傑夫·普羅斯特。奧特曼還在自己的宅邸接待過小群朋友,至少一次包括一場熱鬧的脫衣撲克遊戲。(照片中無奧特曼,勝負不明,但至少三名男士明顯輸了。)我們採訪的多名前賓客僅表示他是慷慨的主人。
儘管如此,關於奧特曼私生活的謠言被競爭對手利用和歪曲。殘酷的商業競爭本就常見,但人工智慧行業的競爭已變得異常激烈。(一名OpenAI高管用“莎士比亞式”形容,稱“遊戲的常規規則不再適用”。)與馬斯克直接關聯、至少一人獲其酬勞的中間人,散佈了數十頁關於奧特曼的詳細負面資料,包含大量監控資訊:與他關聯的空殼公司、親密助手的個人聯絡方式,甚至在同性戀酒吧採訪所謂性工作者的內容。一名馬斯克中間人聲稱,奧特曼的航班和出席的派對都被追蹤。奧特曼對我們說:“我想沒人比我被更多私家偵探調查過。”
極端言論四處流傳。右翼主播塔克·卡爾森無明顯證據暗示奧特曼與一名告密者的死亡有關,此類言論被競爭對手放大。奧特曼的妹妹安妮在訴訟和接受我們採訪時稱,奧特曼從她三歲、他十二歲起長期對她實施性虐待。(我們無法證實安妮的說法,奧特曼予以否認,其兄弟和母親稱其“完全不實”,給全家帶來“巨大痛苦”。記者卡倫·郝為撰寫《人工智慧帝國》一書採訪安妮時,安妮稱虐待記憶是成年後閃回恢復的。)
多名競爭對手公司和投資機構人士向我們暗示,奧特曼性侵未成年人——這一說法在矽谷流傳甚廣,卻看似不實。我們花費數月調查,採訪數十人,未發現任何證據。奧特曼對我們說:“這是競爭對手的噁心行為,想必是為了影響我們即將到來的案件陪審團。儘管很荒唐,但我必須聲明,任何關於我性侵未成年人、僱傭性工作者或涉及謀殺的指控均完全不實。”他還表示,“有點慶幸”我們花費數月“如此積極地調查此事”。
奧特曼承認與成年年輕男性交往,我們採訪的多名伴侶表示不認為這有問題。但馬斯克中間人的負面資料將此作為攻擊點(資料包含低俗且無根據的“小白臉軍團”“糖爹性習慣”等表述)。奧特曼說:“我認為其中充斥著恐同情緒。”科技記者斯威舍對此表示認同:“這些富豪都做過瘋狂的事,比山姆的離譜得多,但他是舊金山的同性戀,所以這一點被拿來攻擊。”
十年來,社交媒體高管承諾改變世界卻幾乎不考慮負面影響,將希望放緩其發展的立法者斥為盧德分子,最終招致兩黨嘲諷。相比之下,奧特曼顯得格外盡責,非但不抵制監管,反而近乎主動請求監管。2023年在參議院司法委員會作證時,他提議設立新聯邦機構監督先進人工智慧模型。他說:“這項技術一旦出錯,後果會很嚴重。”以與科技首席執行官激烈交鋒聞名的路易斯安那州參議員約翰·甘迺迪似乎被他打動,手托臉頰暗示或許應由奧特曼親自執行規則。
但奧特曼公開歡迎監管的同時,私下卻遊說反對。據《時代》周刊報導,2022至2023年,OpenAI成功遊說削弱歐盟一項對大型人工智慧公司加強監管的法案。2024年,加利福尼亞州議會提出一項法案,要求對人工智慧模型進行安全測試,條款與奧特曼國會作證時主張的內容相似。OpenAI公開反對該法案,私下卻發出威脅。一名立法助手對我們說:“這一年裡,我們目睹了OpenAI愈發狡猾、欺騙的行為。”
投資者康威遊說包括南希·佩洛西、加文·紐森在內的加州政治領導人否決該法案。最終法案獲兩黨支援在議會通過,卻被紐森否決。今年,支援人工智慧監管的國會候選人面臨由新“親人工智慧”超級政治行動委員會“引領未來”資助的對手攻擊,該委員會旨在阻撓此類監管。OpenAI官方立場是不向此類超級政治行動委員會捐款。萊漢近日對CNN表示:“這一問題超越黨派政治。”然而“引領未來”的主要捐贈者之一是格雷格·布羅克曼,他承諾捐款5000萬美元(今年,布羅克曼與妻子向支援川普的超級政治行動委員會MAGA Inc.捐款2500萬美元)。
OpenAI的行動超出傳統遊說範疇。去年,加州參議院提出一項後續法案。一天晚上,29歲的律師內森·卡爾文正在家與妻子共進晚餐,他就職於非營利機構Encode,參與起草該法案,一名送達人突然上門,遞交OpenAI的傳票。公司聲稱尋找馬斯克秘密資助批評者的證據,卻要求卡爾文提交所有關於該州參議院法案的私人通訊。卡爾文對我們說:“他們本可以直接問我們‘是否與埃隆·馬斯克交談或接受其資助’,我們並沒有。”該法案的其他支持者及批評OpenAI營利性重組的人士也收到傳票。詹姆斯·歐文基金會負責人唐·霍華德說:“他們針對這些人,就是為了恐嚇他們閉嘴。”(OpenAI稱這是標準法律程序。)
奧特曼長期支援民主黨。他對我們說:“我極度不信任用恐懼故事欺壓弱者的強權者,這是猶太人的立場,不是同性戀的。”2016年,他支援希拉里·克林頓,稱川普是“美國前所未有的威脅”。2020年,他向民主黨和拜登勝利基金捐款。拜登政府期間,奧特曼至少六次在白宮會面,協助制定長達篇幅的行政命令,確立首個聯邦人工智慧安全測試及監管框架。拜登簽署該命令後,奧特曼稱其“良好開端”。
2024年,拜登民調支援率下滑,奧特曼的言論開始轉變。他說:“我相信無論大選結果如何,美國都會安好。”川普勝選後,奧特曼向其就職基金捐款100萬美元,隨後在就職典禮上與網紅傑克·保羅、洛根·保羅自拍。他在X平台用一貫的小寫風格寫道:“近期更仔細關注總統,徹底改變了我的看法(真希望我早一點獨立思考……)。”川普重返白宮首日,便廢除拜登的人工智慧行政命令。一名拜登政府高級官員評價奧特曼:“他找到了讓川普政府為其效力的有效方式。”
馬斯克仍在公開場合痛斥奧特曼,稱其為“騙子奧特曼”“狡詐山姆”。(奧特曼在X平台抱怨訂購的特斯拉汽車時,馬斯克回覆:“你偷走了一家非營利機構。”)但在華盛頓,奧特曼似乎勝過了他。馬斯克為川普連任花費超2.5億美元,在白宮工作數月,隨後離開華盛頓,與川普關係受損。
如今奧特曼是川普青睞的大亨之一,甚至陪同川普前往溫莎城堡拜訪英國王室。二人每年交談數次。奧特曼說:“你可以直接給他打電話,我們不是密友,但有事我會找他談。”去年川普在白宮宴請科技領袖時,馬斯克明顯缺席,奧特曼坐在總統對面。川普說:“山姆,你是重要領袖,你之前告訴我的事簡直難以置信。”
多年來,奧特曼持續將研發通用人工智慧比作曼哈頓計畫。奧特曼利用對這項技術地緣影響的恐懼造勢。根據聽眾不同,他用這一類比推動加速發展或謹慎行事。2017年夏,與美國情報官員會面時,他聲稱東方國家啟動了“通用人工智慧曼哈頓計畫”,OpenAI需要數十億美元政府資金追趕。被要求提供證據時,奧特曼稱:“我聽到的。”這是他多次提出該說法的首次會面。一次會面後,他對一名情報官員稱會補充證據,卻從未兌現。該官員調查後得出結論,並無相關證據:“這只是推銷說辭。”(奧特曼稱不記得了)。
面對安全意識日益增強的受眾,奧特曼借用這一類比,表達的卻是相反的含義:通用人工智慧必須謹慎推進,並開展國際協作,否則後果將是災難性的。2017年,阿莫代伊聘請了前公益律師佩奇·赫德利擔任OpenAI的政策與倫理顧問。在一次面向高管的早期PPT演示中,赫德利闡述了OpenAI如何避免一場“災難性”的軍備競賽——或許可以組建一個人工智慧實驗室聯盟,最終與一個類似北約的國際機構協作,確保這項技術得到安全部署。據赫德利回憶,布羅克曼並不理解這對公司擊敗競爭對手有何幫助。“無論我說什麼,”赫德利告訴我們,“格雷格總是繞回‘那我們怎麼籌更多錢?怎麼贏?’”據多次採訪和同期記錄顯示,布羅克曼提出了一個反方案:OpenAI可以利用包括東方大國和俄羅斯在內的世界大國相互制衡,甚至在它們之間挑起競價戰,以此牟利。赫德利稱,當時的思路似乎是:這招在核武器上管用,為什麼不能用在人工智慧上?
他對此感到驚駭:“他們沒有反駁的前提是‘我們談論的可能是有史以來最具破壞性的技術——要是我們把它賣給俄羅斯呢?’”(布羅克曼堅稱,他從未認真考慮過將人工智慧模型拍賣給各國政府。一位OpenAI發言人表示:“大家曾在高層層面探討過,可能建立何種框架來促進國家間合作——類似人工智慧領域的國際空間站。試圖將其歪曲解讀為其他含義,完全是荒謬至極。”)
頭腦風暴會議常常會產生離奇的想法。赫德利希望這個內部被稱為“國家計畫”的點子能被擱置。然而,據多名相關人士及同期檔案顯示,OpenAI高管們似乎反而對此愈發興奮。時任OpenAI政策總監傑克·克拉克稱,布羅克曼的目標是“基本上製造一場囚徒困境,讓所有國家都不得不給我們提供資金”,而這“無形中會讓不給我們資金的行為變得有些危險”。一名初級研究員回憶,在公司會議上詳細討論該計畫時,他心想:“這簡直他媽的瘋了。”
高管們至少與一位潛在捐贈者討論過這一方案。但當月晚些時候,在多名員工揚言辭職後,該計畫被放棄。赫德利說,奧特曼“會失去員工”。“我感覺在山姆的考量中,這一點的份量,始終超過‘這個計畫不好,因為可能引發大國間戰爭’。”
“國家計畫”的流產並未讓奧特曼氣餒,他轉而推行類似思路的變體方案。2018年1月,他在貝爾艾爾酒店召集了一場“通用人工智慧周末閉門會”。這家老牌好萊塢度假酒店擁有種滿三角梅的起伏花園,以及養著真天鵝的人工池塘。與會者包括當時在牛津大學、被奉為人工智慧末日預言家的哲學家尼克·博斯特羅姆;阿聯人工智慧事務部長、人工智慧支持者奧馬爾·奧拉馬;以及至少七位億萬富翁。其中關注安全問題的人士被告知,這是一次思考社會如何為通用人工智慧顛覆性到來做準備的機會;而投資者們則以為會聽到融資路演。
白天,眾人在一間雅緻的會議室裡聆聽演講。(領英聯合創始人霍夫曼闡述了為人工智慧注入佛教慈悲理念的可能性。)最後一位演講者是奧特曼,他帶著一份簡報,提出發行一種全球加密貨幣,“可兌換通用人工智慧的算力服務”。一旦通用人工智慧達到極致實用且“反邪惡”的狀態,全球民眾都會爭相購買OpenAI伺服器的使用時間。阿莫代伊在筆記中寫道:“這個想法從表面看就荒謬至極。現在回想起來,這是關於山姆的眾多危險訊號之一,我本應更重視才對。”該計畫看似一場圈錢操作,奧特曼卻將其包裝成有利於人工智慧安全的舉措。他的一張幻燈片寫道:“我希望儘可能多的人加入‘正義’陣營,贏得勝利,做正確的事。”另一張則寫著:“請忍到演示結束再笑。”
多年來,奧特曼的融資說辭不斷演變,但始終反映一個事實:開發通用人工智慧需要巨額資金。他遵循的是一條相對簡單的“縮放定律”:用於訓練模型的資料和算力越多,模型似乎就越智能。實現這一過程的專用晶片造價極其高昂。僅在最近一輪融資中,OpenAI就籌集了超過1200億美元——這是史上規模最大的私募融資,金額是史上最大IPO的四倍。一位科技行業高管兼投資者告訴我們:“想想看,世界上每年能自主支配上千億美元的實體屈指可數。只有美國政府、美國最大的四五家科技公司、沙烏地阿拉伯和阿聯——基本就這些。”
奧特曼最初的目標是沙烏地阿拉伯。2016年,他在舊金山費爾蒙特酒店的一場晚宴上,首次會見了沙烏地阿拉伯王儲薩勒曼。赫德利回憶,此後奧特曼便稱這位王儲為“朋友”。2018年9月,據赫德利的筆記記載,奧特曼說:“我在考慮,我們到底該不該從沙烏地阿拉伯公共投資基金拿數百億美元。”
一周後,有消息宣佈奧特曼加入了本·薩勒曼計畫在沙漠中建造的“未來城市”尼奧姆的顧問委員會。現任Anthropic高管、時任政策總監克拉克回憶,他當時對奧特曼說:“山姆,你不能加入這個委員會。”奧特曼起初為自己的決定辯護,告訴克拉克賈裡德·庫什納向他保證沙烏地阿拉伯人“沒做這件事”。(奧特曼否認有過此番言論。庫什納稱當時雙方並無聯絡。)
後來,奧特曼退出了尼奧姆顧問委員會。但據一位奧特曼曾諮詢過的政策顧問回憶,在私下裡,他將此事視為暫時的挫折,詢問是否仍能設法從本·薩勒曼那裡獲得資金。“他問的不是‘這麼做對不對’,”這位顧問說,“而是‘如果我們這麼做,後果會是什麼?會不會有出口管制問題?會不會遭到制裁?說白了,我能不能全身而退?’”
那時,奧特曼已經盯上了另一個資金來源:阿聯。該國正進行一項為期十五年的計畫,試圖從石油國家轉型為科技中心。2023年6月,奧特曼訪問阿布扎比,在一場活動的發言中,他稱該國“早在人工智慧流行之前就開始探討它”,並勾勒出中東在未來人工智慧領域佔據“核心地位”的願景。
向海灣國家融資已成為許多大企業的慣例。但奧特曼追求的是更宏大的地緣政治願景。2023年秋,他開始悄悄為一項計畫招募新人才——該計畫最終被命名為ChipCo,由海灣國家提供數百億美元,用於建造巨型晶片製造廠和資料中心,部分設施將落戶中東。奧特曼向現任Meta人工智慧負責人亞歷山大·王拋出橄欖枝,邀請他擔任高管,並表示亞馬遜創始人傑夫·貝索斯可能執掌這家新公司。奧特曼希望阿聯提供巨額出資。一位董事會成員稱:“據我瞭解,整件事董事會完全不知情。”奧特曼曾試圖招募研究員詹姆斯·布萊德伯裡參與該項目,後者回憶自己拒絕了。他說:“我的第一反應是‘這事兒能成,但我不確定我想讓它成’。”
人工智慧能力或許很快會取代石油或濃縮鈾,成為決定全球力量格局的資源。奧特曼曾稱算力是“未來的貨幣”。通常情況下,資料中心建在那裡或許無關緊要。但多名美國安全官員對將先進人工智慧基礎設施集中在海灣地區感到焦慮。
奧特曼被解僱後,他最依賴的人是愛彼迎聯合創始人切斯基,也是他最堅定的支持者之一。切斯基告訴我們:“看著我的朋友陷入那樣的絕境,讓我對經營一家公司的真正意義產生了一些根本性的質疑。”次年,在一場Y Combinator校友聚會上,他發表了一場即興演講,持續了兩個小時。“感覺像是一場團體心理治療,”他說。演講的核心思想是:你對經營自己創立公司的直覺才是最好的,任何告訴你相反觀點的人都是在精神操控你。切斯基說:“你沒有瘋,即便你的員工說你瘋了。”保羅·格雷厄姆在一篇關於這場演講的部落格文章中,給這種態度起了個名字:創始人模式。
自那次風波之後,奧特曼便進入了“創始人模式”。2024年2月,《華爾街日報》披露了奧特曼對ChipCo的構想。他計畫將其打造成一家合資實體,投資規模達5兆至7兆美元。(他在推特上寫道:“管他呢,乾脆8兆得了。”)許多員工正是通過這篇報導才得知該計畫。萊克回憶:“所有人都一臉‘等等,什麼情況?’”奧特曼在一次內部會議上堅稱,安全團隊“已參與其中”。萊克隨即發消息敦促他,不要虛假暗示該項目已獲安全團隊認可。
拜登政府時期,奧特曼曾申請安全許可,希望參與機密人工智慧政策討論。但協助協調該流程的蘭德公司工作人員表達了擔憂。其中一人寫道:“他一直在積極向外國政府籌集‘數千億美元’。阿聯最近還送了他一輛車。(我猜是輛非常好的車。)”該工作人員接著寫道:“我能想到的、曾以如此深度的海外金融關聯申請安全許可的人,只有賈裡德·庫什納,而稽核人員當時建議不授予他許可。”奧特曼最終退出了申請流程。一位參與與奧特曼會談的政府高級官員告訴我們:“他一直在推進這種交易性關係,主要是和阿聯,這在我們一些人看來亮起了大量紅燈。政府裡很多人並非完全信任他。”
當我們問及奧特曼有關塔赫農贈送禮物一事時,他說:“我不會透露他具體送了我什麼禮物。但他和其他世界領導人……確實送過我禮物。”他補充道:“我們有一套標準政策,對我也適用,任何潛在商業夥伴贈送的禮物都會向公司報備。”奧特曼至少擁有兩輛頂級超跑:一輛價值約200萬美元的全白科尼賽克Regera,以及一輛價值約2000萬美元的紅色邁凱倫F1。2024年,有人拍到奧特曼駕駛Regera穿行於納帕谷。一段幾秒的視訊流傳到社交媒體上:奧特曼坐在低矮的桶形座椅上,從一輛亮白色跑車的車窗向外望去。一位與馬斯克立場一致的科技投資者在X平台發佈了這段視訊,並寫道:“我明年要成立一個非營利組織。”
2024年,奧特曼帶著兩名OpenAI員工,登上了塔赫農酋長價值2.5億美元的超級遊艇“瑪利亞號”。作為全球最大的遊艇之一,瑪利亞號配有直升機停機坪、夜總會、電影院和海灘俱樂部。在塔赫農的武裝安保人員中,奧特曼的員工顯得格外扎眼,至少有一人後來告訴同事,這段經歷讓他感到不安。奧特曼隨後在X平台稱塔赫農是“親愛的私人朋友”。
奧特曼繼續與拜登政府會面,而後者已出台政策,要求敏感技術出口需獲得白宮批准。多名政府官員在這些會議後,對奧特曼在中東的野心感到擔憂。據這些官員稱,他常常發表宏大言論,包括將人工智慧稱為“新的電力”。2018年,他稱OpenAI計畫從一家名為Rigetti Computing的公司購買一台完整可用的量子電腦。這一消息連在場的其他OpenAI高管都毫不知情。而當時Rigetti遠未具備出售可用量子電腦的能力。在另一場會議上,奧特曼聲稱到2026年,美國境內將建成廣泛的核聚變反應堆網路,為人工智慧熱潮提供電力。那位政府高級官員說:“我們當時的反應是‘好吧,如果他們真能實現核聚變,那確實是個大新聞’。”拜登政府最終未予批准。美國商務部一位負責人對奧特曼表示:“我們不會在阿聯建造先進晶片。”
據《華爾街日報》報導,川普就職典禮前四天,塔赫農向川普家族支付5億美元,換取其加密貨幣公司的股份。次日,奧特曼與川普進行了一場25分鐘的通話,雙方討論宣佈推出ChipCo的一個版本,時機恰好能讓川普攬下功勞。川普上任第二天,奧特曼在羅斯福室宣佈成立“星門”項目——一項規模達5000億美元的合資企業,旨在全美範圍內建造龐大的人工智慧基礎設施網路。
5月,川普政府撤銷了拜登時期對人工智慧技術的出口限制。奧特曼與川普一同前往沙烏地阿拉伯王宮會見本·薩勒曼。幾乎與此同時,沙烏地阿拉伯宣佈成立一家由國家巨資支援的大型人工智慧公司,將投入數十億美元開展國際合作。約一周後,奧特曼公佈了星門項目拓展至阿聯的計畫。公司擬在阿布扎比建設一個資料中心園區,面積是紐約中央公園的七倍,耗電量大致相當於邁阿密全市。一位前OpenAI高管稱:“事實是,我們正在建造真正意義上召喚外星生命的門戶。這些門戶目前存在於美國和東方大國,而山姆又在中東加了一個。”他接著說:“我認為這是有史以來最魯莽的行為。”
安全承諾的弱化已成為行業常態。Anthropic的創立初衷是,只要架構和領導層得當,就能避免安全承諾在商業壓力下瓦解。其中一項承諾便是“負責任縮放政策”,規定若無法證明模型安全,Anthropic有義務停止訓練更強大的模型。2月,在該公司獲得300億美元新融資之際,卻弱化了這一承諾。在某些方面,Anthropic對安全的重視程度仍高於OpenAI。但前政策總監克拉克表示:“資本市場體系要求你加快速度。”他補充道:“最終做決定的是世界,而非企業。”去年,阿莫代伊向Anthropic員工傳送備忘錄,披露公司將尋求阿聯和卡達的投資。
2024年,Anthropic與矽谷立場最強硬的國防承包商之一帕蘭提爾達成合作,將其人工智慧模型Claude直接推向軍事領域。Anthropic成為五角大樓最高機密場景中唯一使用的人工智慧承包商。去年,五角大樓再次授予該公司一份2億美元的合同。1月,美軍發動午夜突襲,抓獲委內瑞拉總統尼古拉斯·馬杜羅。據《華爾街日報》報導,Claude在此次機密行動中得到應用。
但Anthropic與政府之間出現了矛盾。多年前,OpenAI已從政策中刪除了全面禁止將技術用於“軍事與戰爭”的條款。最終,包括Google和xAI在內的Anthropic競爭對手均同意向軍方提供模型,用於“所有合法用途”。而Anthropic的政策禁止其研發全自動武器或國內大規模監控技術,並在這些問題上堅持立場,導致新協議的談判處理程序放緩。2月下旬的一個周二,國防部長皮特·赫格塞思召阿莫代伊至五角大樓,下達最後通牒:公司必須在周五下午5點01分前放棄這些禁令。截止日期前一天,阿莫代伊拒絕妥協。赫格塞思在推特上宣佈,將把Anthropic列為“供應鏈風險實體”,並在數日後兌現了這一威脅。
OpenAI和Google的數百名員工簽署了一封題為《我們不會被分裂》的公開信,聲援Anthropic。奧特曼在一份內部備忘錄中寫道,這一爭端“關乎整個行業”,並聲稱OpenAI與Anthropic持有相同的道德底線。但至少兩天前,奧特曼已在與五角大樓談判。國防部負責研究與工程的副部長埃米爾·邁克爾在尋找Anthropic的替代方案時聯絡了奧特曼。“我需要盡快找到替代者,”邁克爾回憶道,“我打給山姆,他立刻就答應了。我認為他是個愛國者。”奧特曼問邁克爾:“我能為國家做些什麼?”他似乎早已知道答案。OpenAI原本不具備接入Anthropic所部署的機密系統所需的安全認證。但周五上午宣佈的一筆500億美元交易,將OpenAI的技術整合進亞馬遜雲服務——五角大樓數字基礎設施的核心部分。當晚,奧特曼在X平台宣佈,軍方將開始使用OpenAI的模型。
從某些指標來看,奧特曼的這一操作並未阻礙公司的成功。宣佈交易當天,新一輪融資使OpenAI估值增加1100億美元。但許多使用者刪除了ChatGPT應用。至少兩名高管離職——其中一人加入了Anthropic。在一次員工會議上,奧特曼斥責了提出擔憂的員工。“或許你覺得打擊伊朗是對的,入侵委內瑞拉是錯的,”他說,“但你沒資格對此指手畫腳。”
多名與OpenAI有關聯的高管對奧特曼的領導持續表示擔憂,並提議由前Instacart CEO、現任OpenAI通用人工智慧部署CEO菲吉·西莫接任。據一位知悉近期討論的人士稱,西莫本人私下表示,她認為奧特曼最終可能會卸任。(西莫否認這一說法。Instacart近日與聯邦貿易委員會達成和解,未承認不當行為,但同意就西莫任職期間涉嫌的欺詐行為支付6000萬美元罰款。)
奧特曼將自己不斷變化的承諾描述為適應環境變化的結果——並非馬斯克等人指控的陰險“長期騙局”,而是一次真誠、漸進的演變。他告訴我們:“我認為有些人想要的,是一位‘對自己的想法絕對篤定、絕不改變’的領導者。但我們所處的領域,變化速度極快。”他為自己的部分行為辯護,稱這是“正常的商業競爭”。我們採訪的多名投資者認為,奧特曼的批評者太過天真,本就不該抱有其他期待。投資者康威表示:“有一群宿命論極端分子,把安全理念推崇到了科幻小說的程度。他的使命用數字衡量。而看看OpenAI的成功,這些數字很難反駁。”
但矽谷另一些人認為,奧特曼的行為造成了難以接受的管理混亂。那位董事會成員稱:“問題更多在於,公司實際上已無法治理。”還有人仍認為,人工智慧的締造者應受到比其他行業高管更嚴格的審視。我們採訪的絕大多數人都認同,奧特曼如今要求被評判的標準,已不再是他最初提出的那套。在一次對話中,我們問奧特曼,經營一家人工智慧公司是否需要“更高的誠信要求”。這本該是一個簡單的問題。直到不久前,被問及類似問題時,他都會給出明確、毫無保留的肯定回答。而這次他補充道:“我認為有很多企業都可能對社會產生巨大的正面或負面影響。”(隨後他又補充了一份聲明:“是的,這要求更高水平的誠信,我每天都感受到這份責任的份量。”)
在OpenAI創立之初的所有承諾中,最核心的無疑是安全研發人工智慧的誓言。但如今這類擔憂在矽谷和華盛頓常被嘲諷。去年,前風險投資人、現任副總統JD·范斯在巴黎一場名為“人工智慧行動峰會”(此前名為“人工智慧安全峰會”)的會議上發表講話。他說:“人工智慧的未來,不會靠對安全問題的杞人憂天來贏得。”今年達沃斯論壇上,擔任白宮人工智慧與加密貨幣主管的風險投資人大衛·薩克斯稱,對安全的擔憂是一種“自我傷害”,可能讓美國輸掉人工智慧競賽。奧特曼如今稱川普的放鬆監管舉措是“非常令人耳目一新的改變”。
OpenAI已解散多個專注安全的團隊。在超對齊團隊解散前後,其負責人蘇茨克維與萊克雙雙辭職。(蘇茨克維聯合創立了一家名為“安全超智能”的公司。)萊克在X平台寫道:“安全文化與流程已讓位於光鮮的產品。”不久後,負責為社會應對先進人工智慧衝擊做準備的通用人工智慧就緒團隊也被解散。在最新提交給美國國稅局的披露檔案中,當被要求簡要描述公司“最重要活動”時,此前檔案中提及的安全理念並未出現。(OpenAI稱其“使命並未改變”,並補充道:“我們仍在持續投入並推進安全相關工作,也會繼續進行組織架構調整。”)生命未來研究所是一家奧特曼曾認可其安全原則的智庫,該機構對各大人工智慧公司的“生存安全”進行評級;在最新報告中,OpenAI獲得F級。公平地說,除Anthropic獲D級、GoogleDeepMind獲D-級外,其他所有大型公司均為F級。
奧特曼說:“我的理念和很多傳統人工智慧安全領域不太合拍。”他堅稱自己仍將這些問題放在優先位置,但被問及具體措施時卻含糊其辭:“我們仍會開展安全項目,或者至少是與安全相關的項目。”當我們提出採訪公司內研究生存安全問題的研究員——也就是奧特曼曾說的關乎“人類全體滅絕”的這類問題時,一位OpenAI發言人顯得困惑。“你說的‘生存安全’是什麼意思?”他答道,“這根本不算一個領域。”
人工智慧末日論者已被邊緣化,但他們的部分擔憂似乎逐月變得不再那麼荒誕。聯合國一份報告顯示,2020年,一架人工智慧無人機在利比亞內戰中被用於發射致命彈藥,且可能未受人類操作員監管。此後,人工智慧在全球軍事行動中的地位愈發重要,據稱也包括當前美國在伊朗的行動。2022年,一家製藥公司的研究人員測試藥物發現模型是否可用於尋找新型毒素;短短數小時內,模型便給出了四萬種致命化學戰劑的建議。而更多日常危害已然發生。我們越來越依賴人工智慧輔助寫作、思考和認知世界,加速了專家所稱的“人類能力退化”;人工智慧生成的劣質內容氾濫,讓騙子更易得手,也讓只想瞭解真相的普通人舉步維艱。人工智慧“智能體”已開始在極少甚至無人監管的情況下自主行動。2024年新罕布什爾州民主黨初選前幾天,數千名選民收到人工智慧深度偽造拜登聲音的自動語音電話,謊稱讓他們留到11月再投票、無需前往投票站——這是一場幾乎無需技術門檻的選民壓制行為。OpenAI目前面臨七起非正常死亡訴訟,指控ChatGPT誘導了多起自殺事件和一起謀殺案。謀殺案的聊天記錄顯示,ChatGPT助長了一名男子的偏執妄想,認為他83歲的母親在監視並試圖毒害他。不久後,他毆打並勒死母親,隨後自殘。(OpenAI正在應訴,並表示將持續完善模型的安全防護。)
在OpenAI籌備潛在IPO之際,奧特曼不僅面臨人工智慧對經濟影響的質疑——它可能很快引發嚴重的就業衝擊,甚至導致數百萬崗位消失——還面臨公司自身財務狀況的質疑。創業公司治理專家埃裡克·萊斯抨擊行業內的“循環交易”——例如OpenAI與輝達等晶片製造商的交易——並稱在其他時代,該公司的部分會計操作會被視為“近乎欺詐”。那位董事會成員告訴我們:“公司目前的財務槓桿水平,風險高得令人擔憂。”(OpenAI對此表示否認。)
2月,我們再次採訪了奧特曼。他穿著一件暗綠色毛衣和牛仔褲,坐在一張NASA月球車照片前。他將一條腿盤在身下,又搭在椅子扶手上。他說,過去自己作為管理者的主要缺點是總想避免衝突。“現在我很樂意迅速開除人,”他告訴我們,“我會直接說‘我們就往這個方向押注’。”任何不認同他決策的員工都“應該離開”。
他對未來比以往任何時候都更樂觀。“我對成功的定義是,人類實現跨越式提升——瘋狂的科幻未來為我們所有人成真。”他說,“我對人類的前景、對我們共同能實現的成就抱有極大野心。但奇怪的是,我個人幾乎沒什麼野心。”有時他似乎會自我警醒。“沒人會相信你做這些只是因為感興趣,”他說,“你這麼做是為了權力,或是別的什麼。”
即便與奧特曼關係密切的人,也很難分清他的“人類希望”止於何處,個人野心始於何處。他最大的優勢始終是,能說服不同群體相信,他想要的與他們需要的是同一件事。他抓住了一個獨特的歷史節點:公眾對科技行業的炒作心存警惕,而大多數有能力研發通用人工智慧的研究者又對其問世感到恐懼。奧特曼使出了其他融資者從未精通的一招:用末日論調描述通用人工智慧如何毀滅人類——並因此論證,唯有他才應該主導其研發。或許這是一場預謀已久的精妙佈局,或許他只是在摸索優勢。無論如何,他成功了。
讓聊天機器人變得危險的特性,並非全是漏洞;其中一些是系統建構過程中的副產品。大型語言模型的訓練部分依賴人類反饋,而人類往往偏愛順從的回應。模型常常學會奉承使用者,這種傾向被稱為“諂媚”,有時甚至會將此置於誠實之上。模型還會編造內容,即所謂的“幻覺”。各大人工智慧實驗室均已記錄到這些問題,但有時選擇容忍。隨著模型愈發複雜,部分模型的幻覺編造得更具說服力。2023年,就在被解僱前不久,奧特曼提出,即便存在風險,一定程度的不實資訊也能帶來優勢。“如果簡單粗暴地要求‘絕不說任何沒有百分百把握的話’,模型確實能做到,”他說,“但那樣就失去了人們喜愛的那種魔力。” (邸報)