“拯救世界”的宏大願景背後:OpenAI 的混亂與隱秘

2015 年 12 月,一家名為 OpenAI 的非營利研究實驗室高調誕生:10 億美元啟動資金、矽谷明星創始人、誓要把通用人工智慧(AGI)的好處“平均分配給全人類”。在巨頭壟斷、短期逐利已成常態的 AI 江湖裡,它像一束罕見的理想之光。

到2019年,OpenAI 確實帶來了令人瞠目的技術突破——從震驚世界的 GPT-2,到傳聞中正在悄然訓練的下一代多模態巨獸。然而,伴隨奇蹟而來的,是一次次關於“透明度”“安全性”“商業動機”的質疑風暴。外部批評者指責它用“開放”之名行“封閉”之實;內部員工則在保密協議、利潤上限與高強度文化之間尋找平衡。

本文作者 Karen Hao 在 OpenAI 舊金山總部蹲守三日,採訪近四十位現任、前任員工及行業專家,翻閱內部檔案,旁聽政策會議,首次系統還原這家“拯救世界”的明星機構如何在現實的競爭、資本與輿論壓力下,一步步偏離最初的透明理想。她看到:
• 一份被視作聖經的公司章程如何被反覆引用,又如何被悄悄重寫;  
• 一個曾被寄望“為人類而非股東創造價值”的非營利體,如何變身為利潤上限實體,並以 100 倍回報吸引微軟 10 億美元;  
• 一場場華麗的發佈背後,那些研究被提前張揚,那些又被雪藏半年;  
• 一群把 AI 研究視為身份認同的年輕人,如何在“有效利他”與“商業現實”之間自我說服;  
• 以及,當技術願景撞上社會結構、文化多樣性與全球公平分配的真正難題時,OpenAI 給出的答案依舊模糊。

故事的核心並不只是 OpenAI 的成敗,而是整個 AI 行業在“技術救世”與“資本逐利”之間的普遍拉鋸:當通往 AGI 的道路需要天文數字的算力和資金,理想主義還能剩下多少空間?當安全、倫理、社會後果無法像模型一樣被量化最佳化,我們又該如何在競賽的加速度裡踩下剎車?

這篇報導不提供簡單的對錯判斷,而是呈現一張複雜、充滿張力的全景圖。你可以在其中看到野心、焦慮、真誠與矛盾如何交織,也能看到一群絕頂聰明的人如何試圖在不確定的未來裡,為人類提前畫下安全線——同時,又不得不親手擦掉它們。

“拯救世界”的宏大願景背後:OpenAI 的混亂與隱秘

作者:Karen Hao

發佈時間:2020 年 2 月 17 日

這家以“透明”為初衷的 AI 登月計畫,如何在競爭壓力下逐漸背離了最初的理想主義。

每年,OpenAI 的員工都會投票預測“通用人工智慧”(AGI)何時降臨。這通常被視為一種增進團隊感情的趣味活動,大家的答案也相差甚遠。但在一個連“類人自主系統是否可能”都尚無定論的領域裡,實驗室裡竟有一半人相信,AGI 很可能在未來 15 年內到來。

短短四年間,OpenAI 已躍升為全球頂尖的 AI 研究機構之一。它憑藉持續搶佔頭條的研究成果,與 Alphabet 旗下的 DeepMind 等重量級玩家並駕齊驅。在矽谷,它也是明星寵兒——埃隆·馬斯克和傳奇投資人山姆·阿爾特曼都是它的創始人。

最讓它備受推崇的,是其使命。OpenAI 的目標,是率先創造出 AGI——一台擁有與人類同等學習和推理能力的機器。但目的並非統治世界;相反,實驗室希望確保這項技術安全落地,並讓全人類公平共享其成果。

背後的擔憂是:如果放任 AGI 沿阻力最小的路逕自行發展,它極易失控。如今隨處可見的“狹隘 AI”已敲響警鐘:演算法既偏見又脆弱,既能大規模作惡,也能輕易欺騙;其高昂的研發與營運成本,又把權力進一步集中到少數人手中。以此推斷,沒有善意的“牧羊人”小心引導,AGI 或將帶來災難。

OpenAI 想充當這位“牧羊人”,並精心塑造了自己的形象。在由巨頭主導的 AI 領域,它以非營利組織身份誕生。成立聲明明確表示,這一身份將使其“為所有人而非股東創造價值”。被視為“聖經”的公司章程——員工薪酬甚至與遵守它的程度掛鉤——進一步宣稱,OpenAI 的“首要受托責任是對全人類”。檔案強調,安全實現 AGI 如此重要,以至於若有其他組織即將搶先達成,OpenAI 將放棄競爭,轉而與之合作。這套動人的敘事深得投資者和媒體歡心,2019 年 7 月,微軟又向實驗室注資 10 億美元。

然而,《麻省理工科技評論》在 OpenAI 辦公室進行了為期三天的深入探訪,並採訪了數十位現任/前任員工、合作者、朋友及業內專家,揭示出另一幅圖景:公司的公開承諾與內部運作之間存在明顯錯位。隨著時間推移,激烈的競爭和對資金的渴求,逐漸侵蝕了它最初倡導的透明、開放與合作。許多受訪者因未獲授權或擔心報復而要求匿名。他們的講述表明,儘管 OpenAI 心懷崇高使命,卻對保密、形象維護和員工忠誠達到了近乎偏執的程度。

自人工智慧(AI)這一領域誕生之初,它就致力於理解“類人智能”並試圖將其復現。1950 年,英國著名數學家兼電腦科學家艾倫·圖靈在一篇論文的開篇拋出了那句著名的拷問:“機器能思考嗎?”六年後,被這個問題深深吸引的一群科學家,齊聚達特茅斯學院,正式將這門學科確立下來。

“這是整個知識史上最根本的問題之一,對吧?”位於西雅圖的非營利 AI 研究機構艾倫人工智慧研究院(AI2)首席執行官奧倫·埃齊奧尼(Oren Etzioni)說,“就像‘我們是否理解宇宙的起源?’‘我們是否理解物質?’一樣。”

問題在於,AGI 一直是個模糊概念。沒人能真正描述它長什麼樣,也沒人能給出一套最低標準。例如,並不見得只有一種“通用智能”;人類的智能可能僅僅是其中的一個子集。對於 AGI 的用途,也存在不同看法。浪漫派認為,不受睡眠需求或人類溝通低效性束縛的機器智能,將幫助解決氣候變化、貧困和飢餓等複雜難題。

但學術界壓倒性的共識是:即便真有可能實現,如此高級的能力也需要幾十年、甚至幾百年的時間。許多人還擔心,過度狂熱地追求這一目標會適得其反。上世紀 70 年代以及 80 年代末到 90 年代初,該領域兩度“承諾過高、兌現不足”。一夜之間,資金枯竭,給整整一代研究者留下了深深的創傷。“那陣子,這個領域就像一潭死水。”曾任行業組織 Partnership on AI(OpenAI 也是其成員)研究主任的彼得·埃克斯利(Peter Eckersley)回憶道。

在這樣的背景下,2015 年 12 月 11 日,OpenAI 高調登場。雖然它不是第一家公開宣稱要攻克 AGI 的機構——DeepMind 五年前就已提出這一目標,並於 2014 年被Google收購——但 OpenAI 似乎與眾不同。首先,它的啟動資金之巨令人咋舌:由馬斯克、阿爾特曼和 PayPal 聯合創始人彼得·蒂爾等私人投資者直接拿出 10 億美元。

這份星光熠熠的投資人名單引發了媒體狂熱,同樣吸睛的還有首批核心成員:曾負責 Stripe 支付公司技術事務的格雷格·布羅克曼(Greg Brockman)出任 CTO;在 AI 先驅傑弗裡·辛頓(Geoffrey Hinton)門下攻讀的伊利亞·蘇茨克沃(Ilya Sutskever)擔任研究總監;另有七位剛從頂尖高校畢業或從其他公司挖來的研究員,組成核心技術團隊。(去年 2 月,馬斯克因發展方向分歧宣佈離開公司;一個月後,阿爾特曼卸任創業孵化器 Y Combinator 總裁,全職出任 OpenAI 首席執行官。)

但最引人注目的,還是 OpenAI 的非營利身份。“擁有一家把全人類利益置於自身利益之上的頂級研究機構,將至關重要。”成立公告寫道,“我們將強烈鼓勵研究人員公開發佈成果,無論是論文、部落格還是程式碼,我們的專利(如果有的話)也將與全世界共享。”儘管沒有點名,但言下之意顯而易見:像 DeepMind 這樣的實驗室受商業利益束縛,無法真正為人類服務;它們封閉,而 OpenAI 開放。

在一個日益私有化、且只關注短期財務收益的研究版圖裡,OpenAI 提出了一種為最大難題籌資的新範式。“它曾是一束希望之光。”密切關注該實驗室歷程的機器學習專家奇普·胡延(Chip Huyen)說。

在舊金山第 18 街與福爾松街交叉口,OpenAI 的辦公樓看上去像一座神秘倉庫。那棟歷史建築的外牆是暗灰色金屬板,窗戶貼了深色隔熱膜,百葉簾大多拉得嚴嚴實實。樓角一圈褪了色的紅漆大字“PIONEER BUILDING”(“先鋒大樓”——昔日先鋒卡車廠的遺蹟)仍依稀可辨。

推門而入,內部卻通透明亮。一層有幾處公共休息區和兩間會議室:一間寬敞,可供大型會議使用,取名《2001太空漫遊》;另一間更像豪華電話亭,名為《無盡的玩笑》。採訪期間,我只能待在這一層,嚴禁踏上二、三樓——那裡集中了所有員工的工位、好幾台機器人,以及幾乎所有“有意思”的東西。受訪的員工得下樓來找我;兩場訪談間隙,一位員工始終用餘光盯著我。

採訪當天晴空萬里,我如約見到布羅克曼時,他看上去緊張而戒備。“我們從來沒讓外人獲得過這麼大權限。”他帶著試探性的微笑說。他一身休閒打扮,頂著一頭在 OpenAI 很常見的“隨性髮型”,彷彿在用髮型聲明:效率至上,花哨免談。

布羅克曼今年 31 歲,在北達科他州一座家庭農場長大。他自述童年“專注而安靜”——擠牛奶、撿雞蛋,自學數學並沉迷其中。2008 年,他進入哈佛,本想雙修數學與電腦,但很快對校園節奏失去耐心。一年後輟學,轉入 MIT,幾個月後再次退學,這一次不再回頭。搬到舊金山後,他再也沒有離開。

為了避開全員大會,布羅克曼拉我去對街咖啡館吃午飯。在那裡,他談起 OpenAI 時充滿激情、真摯與驚嘆,頻頻把 OpenAI 的使命與科學史上的里程碑類比。他的領袖魅力顯而易見。他信手拈來幾段自己鍾愛的“矽谷敘事”:美國登月競賽(“我最愛的故事是那個清潔工,”他提到一則廣為流傳但真偽難辨的軼事,“甘迺迪問他:‘你在幹什麼?’他說:‘我在幫人類登月!’”)、橫貫北美大陸的鐵路(“那是最後完全靠人工完成的超級工程……規模巨大,風險極高”),以及愛迪生的白熾燈(“一個由權威專家組成的委員會說‘永遠不可能成功’,結果一年後,愛迪生就把產品推向了市場”)。

布羅克曼清楚 OpenAI 押下的賭注,也清楚外界隨之而來的質疑與審視。但每次引用這些故事,他都在傳遞同一資訊:人們盡可懷疑——敢為天下先,就要付這個代價。

早期加入 OpenAI 的人仍記得那股衝勁、興奮與使命感。團隊規模很小——靠一張緊密的人脈網拼起來——管理鬆散而隨意。所有人都相信扁平結構,任何層級的人都可以提出想法、參與辯論。

馬斯克在塑造集體神話上功不可沒。“他當時對我說,‘聽著,我明白 AGI 可能還很遙遠,可萬一不是呢?’”加州大學伯克利分校教授彼得·阿貝耳(Pieter Abbeel)回憶道。他和他的幾位學生曾在最初兩年加入 OpenAI。“‘就算只有 1% 甚至 0.1% 的機率,AGI 會在未來五到十年內出現,我們是不是也該非常認真地對待?’這番話打動了我。”

然而,這種隨意也導致方向一度模糊。2016 年 5 月,時任Google研究員的達里奧·阿莫迪(Dario Amodei)拜訪了阿爾特曼和布羅克曼,直言“沒人知道你們在幹什麼”。《紐約客》的一篇報導中,連團隊自己也似乎不太確定。“我們現在的目標……就是去做最值得做的事,”布羅克曼當時說,“確實有點模糊。”

儘管如此,阿莫迪幾個月後還是加入了。他的妹妹丹妮拉·阿莫迪(Daniela Amodei)此前與布羅克曼共事,他也早已認識 OpenAI 的許多人。兩年後,應布羅克曼邀請,丹妮拉也加入。“想像一下——我們最初什麼都沒有,”布羅克曼說,“只有‘讓 AGI 順利誕生’這一理想。”

在整個午餐過程中,布羅克曼如同誦讀經文般不斷援引那份章程,把它當成解釋公司一切存在的終極答案。

到 2017 年 3 月,成立 15 個月後,管理層意識到必須進一步聚焦。於是布羅克曼和幾位核心成員開始起草一份內部檔案,試圖為通往 AGI 的路線給出清晰藍圖。但這個過程很快就暴露出一個致命缺陷:當他們梳理整個行業的趨勢時,發現繼續堅持非營利模式在財務上難以為繼——為了取得突破性成果,業內所使用的計算資源正以每 3.4 個月翻一倍的速度增長。布羅克曼說,很明顯,“要想繼續留在牌桌上”,就必須籌集到足夠資本,至少與這股指數級增長同步,甚至超越它。這意味著需要一種全新的組織形態:既能迅速聚攏資金,又不能背離使命。

公眾——乃至大多數員工——並不知情:正是帶著這一考量,OpenAI 於 2018 年 4 月發佈了《章程》。檔案重述了實驗室的核心價值觀,卻在措辭上悄然轉向,以契合新的現實。除了承諾“避免讓 AI 或 AGI 被用於傷害人類或過度集中權力”外,它還強調了對資源的需求:“我們預見需調動大量資源才能完成使命,但會始終竭力降低員工與利益相關者之間的衝突,防止其損害廣泛福祉。”

布羅克曼回憶:“我們花了很長時間在內部與員工反覆打磨,讓全公司都認同這一套原則——即便組織結構改變,也必須保持不變的東西。”

這一結構變動最終在 2019 年 3 月落地:OpenAI 剝離了純粹的非營利身份,設立了一個“利潤上限”實體——一家營利公司,但對投資者的回報設定了 100 倍的上限,並由非營利母體董事會監督。隨後,公司宣佈獲得微軟 10 億美元投資(但未透露其中一部分為現金、另一部分為 Azure 雲端運算平台的使用額度)。

此舉不出所料地引髮質疑潮。Hacker News 上一篇帖子尖銳發問:100 倍上限到底算不算限制?“Google早期投資者的回報大約是 20 倍,你們卻押注一個能比Google再高幾個數量級的結構……還說不願‘過度集中權力’?這怎麼實現?權力不就是資源的集中嗎?”

內部同樣震動,許多員工表達了類似擔憂。為平息不安,管理層撰寫了一份 FAQ,作為一系列高度保密的過渡檔案之一。“我還能信任 OpenAI 嗎?”其中一問如此寫道。回答以“可以”開頭,隨後是一段解釋。

章程就是 OpenAI 的脊樑,它為整個實驗室的戰略與行動提供出發點。整個午餐期間,布羅克曼像背經文一樣反覆引用它,用它來解釋公司存在的一切。(“順便說一句,”他背到一半澄清,“我之所以熟到能脫口而出,是因為我真的花了大把時間逐字打磨,而不是臨時抱佛腳。”)

——“當你們開發出越來越強的能力,如何確保人類依舊能過上有意義的生活?”  

“正如我們寫的那樣,它的影響應該讓每個人獲得經濟自由,從而發現今天還無法想像的全新機會。”  

——“你們打算如何設計架構,才能把 AGI 的收益平均分配給全人類?”  

“我想最好的比喻是公用事業。但一切仍必須服從章程。”  

——“既要搶先實現 AGI,又不犧牲安全,如何平衡?”  

“這的確是一場關鍵的權衡,而我們最好的做法就是遵循章程。”  

對布羅克曼來說,對這份檔案的死忠式恪守,才是 OpenAI 這套結構得以運轉的根本。公司把“內部對齊”視為最高原則:幾乎所有全職員工都必須到同一間辦公室上班,極少例外。對政策團隊——尤其是主管傑克·克拉克(Jack Clark)——這意味著生活被分割成舊金山與華盛頓特區兩地的往返。克拉克並不介意,事實上他認同這種做法。他說,正是午餐時與同事閒聊的碎片時間,幫助大家始終保持同頻。

從很多角度看,這種做法確實奏效:公司擁有高度一致的文化。員工們工作時間長,用餐和社交也句句不離本行;許多人參加同一場派對,共同信奉“有效利他主義”的理性哲學;他們甚至用機器學習術語互相開玩笑:“你的人生函數是什麼?”“你在最佳化那個目標?”“萬事萬物皆可 minmax。”平心而論,其他 AI 實驗室也愛玩這套,但熟悉 OpenAI 的人一致認為:相比同行,OpenAI 員工把 AI 研究當作身份認同,而不僅僅是份工作。(去年 11 月,布羅克曼與交往一年的女友安娜就在辦公樓內完婚,背景是排成 OpenAI logo 的花牆。蘇茨克沃擔任主婚人,一隻機械手充當戒童。)

然而,去年年中的某個節點,章程不再只是午餐談資。改為“利潤上限”結構後不久,管理層推出了一套新的薪酬體系,其中一部分取決於員工對使命的“吸收程度”。在一張名為“統一技術階梯(Unified Technical Ladder)”的表格里,除“工程技術”“研究方向”等欄目外,最後一欄列出了每一等級的文化要求:
- 等級 3:“你理解並內化 OpenAI 章程。”  
- 等級 5:“你確保自己及團隊的所有項目都與章程保持一致。”  
- 等級 7:“你負責維護並改進章程,並督促組織內其他人同樣遵守。”

絕大多數人第一次聽說 OpenAI,是在 2019 年 2 月 14 日。那天,實驗室發佈了一項令人矚目的新研究:只需按下一個按鈕,模型就能生成足以亂真的文章和論文。給它一句《魔戒》裡的台詞,或一條關於麥莉·賽勒斯(Miley Cyrus)行竊的“假新聞”開頭,它便能接連不斷地吐出同風格的新段落。

但公告也附帶了一個警告:該模型名為 GPT-2,被認為過於危險,不宜公開。一旦這種強大技術落入壞人手中,就可能被大規模用來製造虛假資訊。
科學家們的反彈立刻爆發。有人指責 OpenAI 在搞噱頭:GPT-2 遠沒到構成威脅的程度;如果真那麼危險,為何先高調宣佈,再禁止外界檢驗?“看上去 OpenAI 就是想借 AI 恐慌博眼球。”研究 AI 生成虛假資訊的羅格斯大學助理教授布裡特·帕裡斯(Britt Paris)說。

到了 5 月,OpenAI 改口,宣佈採用“分階段發佈”。隨後幾個月裡,他們陸續放出越來越強的 GPT-2 版本;期間還與多家研究機構合作,評估演算法被濫用的風險並制定對策。最終在 11 月,他們放出了完整程式碼,理由是“迄今未發現被嚴重濫用的確鑿證據”。

面對持續不斷“炒作”的指責,OpenAI 堅稱 GPT-2 並非噱頭,而是經過內部多輪討論後做出的謹慎實驗。共識是:即便這次有些小題大做,也可為日後處理更危險的研究立下先例。況且章程早已預言,“安全與安保顧慮”將迫使實驗室“逐步減少傳統形式的公開出版”。

這也是政策團隊在 6 個月後的跟進博文裡精心包裝的敘事。我在旁聽一次會議時,他們逐句推敲這篇博文。政策研究科學家邁爾斯·布倫戴奇(Miles Brundage)指著 Google 文件裡的一句話說:“這一定要放在成功故事的框架裡——開頭要寫:我們做了一件雄心勃勃的事,現在有人復現了,以下就是為什麼這麼做有好處。”

然而,這場圍繞 GPT-2 的媒體操作也延續了 OpenAI 一貫的模式,讓整個 AI 社區愈發警惕。多年來,實驗室每逢發佈重磅研究,總被批評在助長 AI 炒作;更有人指其誇大結果,甚至歪曲事實。正因如此,不少學者對 OpenAI 保持距離。

這並未阻止實驗室繼續砸資源打造公共形象。除了學術論文,它還用自家團隊包辦文案、多媒體、封面設計,以高度包裝的公司部落格形式發佈成果。一度,他們還打算為自己某個項目拍攝紀錄長片,對標 DeepMind《AlphaGo》的 90 分鐘電影;後來該項目獨立出去,由布羅克曼與妻子安娜部分出資。(我也受邀在片中出鏡,為 OpenAI 的成果提供技術解釋和背景,未收取報酬。)

隨著外部反彈加劇,內部討論也愈發頻繁。員工們對持續挨批感到沮喪;領導層擔心這會削弱實驗室的影響力和招募頂尖人才的能力。一份內部檔案直指問題,並提出外聯策略:“為了在政府層面產生政策影響力,我們必須被視為機器學習與 AGI 研究最可信的源頭”,檔案在“政策”部分寫道,“研究界的廣泛支援與背書,不僅是樹立這一聲譽的必要條件,還將放大我們的聲音。”另一段“戰略”部分則寫道:“把機器學習社群明確列為傳播利益相關者;調整我們的語調與對外資訊,只在有意對抗時才去得罪他們。”

GPT-2 之所以激起如此激烈的反彈,還有另一層原因:人們覺得 OpenAI 又一次背棄了“開放、透明”的最初承諾。一個多月後,公司宣佈轉型“利潤上限”實體,被扣留的研究成果讓外界更加起疑——難道技術被雪藏,是為了日後授權變現?

然而鮮有人知,這並非 OpenAI 第一次選擇把研究藏進口袋;事實上,還有一項工作被它徹底對外封鎖。

關於如何抵達 AGI,目前存在兩種主流技術猜想。一種認為,所需技術都已存在,只需把它們規模化、拼裝好即可;另一種則認為,必須誕生全新範式——如今的深度學習方法遠遠不夠。

多數研究者介於兩者之間,而 OpenAI 幾乎清一色站在“規模化+拼裝”這一端。它的大多數突破,都是把別處誕生的技術創新,用驚人的計算資源硬砸出來。

布羅克曼和蘇茨克沃否認“只靠堆算力”,但實驗室嚴密把守的研究卻透露了底牌。一支名為“Foresight(前瞻)”的團隊專門做實驗,驗證“給現有演算法喂更多資料、堆更多算力,究竟能把 AI 能力推到多遠”。領導層認為,實驗結果坐實了直覺:全力以赴的“算力驅動”策略是最優路徑。

大約半年時間裡,這些結果對公眾完全隱形——OpenAI 將其視為核心競爭優勢。員工和實習生被明令不得洩露;離職者要簽保密協議。直到今年 1 月,團隊才一反常態,悄悄把論文掛到某主流 AI 預印本伺服器上。曾親歷嚴格保密的人一時間摸不清風向。值得注意的是,幾個月前,另一組研究者已貼出過類似結果的論文。

最初,這種程度的保密並非計畫之內,卻慢慢成了慣例。隨著時間推移,領導層逐漸背離“開放最有利於建構安全 AGI”的初始信念;如今,保持沉默的重要性被反覆強調,任何與媒體接觸都必須經公關團隊書面許可。在我最初到訪後,當我陸續聯絡不同員工時,公關負責人發來郵件提醒:所有採訪須由她統一安排。我婉拒後,她轉而要求員工把我的聯絡情況隨時匯報。前記者、現政策主管克拉克隨後在 Slack 裡表揚大家“對來嗅探的記者嚴防死守”。

針對保密升級,OpenAI 發言人援引章程中一段文字回應:“出於安全與安保考慮,未來我們將減少傳統形式的公開發佈,同時提升安全、政策與標準研究的分享權重。”發言人補充:“此外,每次發佈前都會經過‘資訊危害’評估流程,我們希望緩慢釋放成果,以便在全面開放前充分理解潛在風險與影響。”

最大的秘密,是 OpenAI 正在推進的下一個項目。多名知情人士將其描述為過去四年研究的集大成者:一個用海量算力、在圖像、文字等多種資料上訓練出的 AI 系統。一支小型團隊已投入初期工作,未來其他團隊及其項目將陸續併入。項目在公司全員會上首次披露時,實習生被拒之門外。瞭解計畫的人透露:領導層相信,這是通往 AGI 最有希望的路徑。

操盤 OpenAI 戰略的人,是現任研究總監、前 Google 研究員達里奧·阿莫迪(Dario Amodei)。初見他時,我覺得他像是布羅克曼的“焦慮版”:同樣的真誠與敏感,卻多了一層揮之不去的緊張。他說話時眼神飄遠,眉頭緊鎖,一隻手無意識地捲著髮梢。

阿莫迪把實驗室的戰略拆成兩半。  

前半段:關乎“如何抵達強大的 AI 能力”,他把它比作投資人的“組合下注”。OpenAI 內部不同團隊押注不同方向:語言團隊押的是“僅靠語言學習即可對世界形成深刻認識”;機器人團隊則押相反理論——智能必須依賴物理實體才能真正發育。

正如投資組合,並非每注權重相同,但出於科學嚴謹,任何方向在被證偽前都值得嘗試。阿莫迪以 GPT-2 為例:它生成的文字逼真得驚人,“純語言這條賽道,業界甚至我們內部都曾半信半疑,但現在人人都在說‘哇,這條路真有戲’。”

隨著時間推移,表現突出的方向會獲得更多資源,隨後不同方向交叉融合,團隊數量逐步收斂,最終只剩下一條通往 AGI 的技術主線——據稱,OpenAI 最新保密項目已啟動這一收斂過程。

後半段:戰略關注“如何讓日益強大的 AI 系統保持安全”。這包括確保它們反映人類價值觀、能解釋自身決策邏輯、在學習過程中不傷害人類。對應的安全團隊各自攻關,並把成果遷移到成熟項目:可解釋性團隊的方法,既可能用來剖析 GPT-2 如何造句,也可能用來揭示機器人為何做出某個動作。

阿莫迪坦言,這部分策略“有點隨拍腦袋”,並非基於成熟理論,更多出於直覺。“總有一天我們會造出 AGI,到那時我希望自己對系統在世界上的運行感到安心。任何讓我不安的地方,我就拉起一支隊伍專門攻關。”

儘管外界對 OpenAI 的炒作與保密頗有微詞,阿莫迪說這番話時顯得無比真誠。失敗的陰影似乎讓他寢食難安。

“我們處在一個尷尬境地:不知道 AGI 長什麼樣,也不知道它何時降臨。”他頓了頓,帶著克制的自省補充道,“任何個人的思維都有侷限。我找到的最好辦法,就是招募跟我思路不同的安全研究者。我希望團隊裡有多樣的視角,因為這是唯一能確保‘不遺漏任何風險’的方式。”

問題在於,OpenAI 實際上幾乎沒有“多樣性與差異”——這一點在我待在辦公室的最後一天被無情地打了出來。那天中午,我獲准與員工一起用餐,挑了最顯眼的一張“多元”桌子坐下,結果卻尷尬地發現,那些面孔並不是 OpenAI 的人——馬斯克旗下的腦機介面公司 Neuralink 與 OpenAI 共用同一棟樓,也共用同一個餐廳。

根據實驗室發言人提供的資料,120 多名員工裡,女性或非二元性別者佔 25%;高管團隊中有兩位女性,而“領導團隊”裡有 30% 是女性(發言人沒有具體說明“領導團隊”包含那些人)。然而,四位 C 級高管(包括布羅克曼和阿爾特曼)均為白人男性;在我通過 LinkedIn 等管道確認的 112 名員工裡,絕大多數是白人或亞裔。

平心而論,AI 行業整體都缺乏多樣性。去年,紐約研究機構 AI Now 的報告指出:在頂級 AI 會議上,女性作者只佔 18%;AI 教授席位中女性佔 20%;Facebook 與 Google 的研究人員中,女性分別只佔 15% 與 10%。OpenAI 發言人回應:“整個行業仍有大量工作要做。多元與包容是我們在意且持續改進的議題,我們與 WiML、Girl Geek 以及我們的 Scholars 項目等合作。”

確實,OpenAI 曾嘗試擴大人才池。2018 年,它面向代表性不足的少數群體推出遠端 Scholars 項目。然而,首批 8 位學者中,僅有 2 位最終留任全職。雖然他們對項目體驗評價積極,但最常見的拒絕理由是“必須搬到舊金山”。曾參與該項目的納賈·羅茲(Nadja Rhodes)如今在紐約一家公司任首席機器學習工程師,她說:“那座城市多樣性太低。”

如果說多樣性對整個 AI 行業是普遍難題,對 OpenAI 則更為根本——它的使命是把技術利益“平均分給全人類”,可它恰恰缺少那些最容易被落下的群體的代表。

至於如何“把 AGI 的收益分給全人類”,布羅克曼口中常提,卻語焉不詳,至今未見細節。(1 月,牛津大學人類未來研究所與實驗室聯合發佈報告,建議“按利潤比例分配收益”,但作者也承認“實施方案存在重大未決問題”。)一位要求匿名的前員工直言:“這是我最大的疑慮。”

羅格斯大學的布裡特·帕裡斯也指出:“他們用高度技術化的方法,試圖用 AI 解決社會問題。但他們似乎並不具備理解社會層面的能力,只是知道這是一個有利可圖的定位。”

布羅克曼承認,要實現使命,最終必然需要技術與社會雙重專長。但他不認同“從一開始就解決社會問題”。“你如何把倫理或其他視角‘烘焙’進來?什麼時候、以什麼方式?一種策略是一開始就試圖把所有可能的需求都塞進去,”他說,“我不認為這種策略會成功。”

在他看來,第一步是先弄清楚 AGI 究竟長什麼樣;到那時,再去“確保我們理解其影響”。

去年夏天,在 OpenAI 宣佈轉型“利潤上限”並獲微軟 10 億美元注資後的幾周裡,領導層向員工保證:這些變動只是結構層面,研究方式不會變;微軟與實驗室價值觀高度一致,商業化遠在天邊,基礎研究仍是核心。

起初,這套安撫似乎奏效,項目照常推進。許多員工甚至不知道對微軟究竟承諾了什麼。

但近幾個月,商業化壓力陡增,“賺錢”不再遙不可及。在內部宣講 2020 願景時,阿爾特曼的口徑已很明確:OpenAI 必須“先賺錢,再做研究”,而非相反。

領導層稱,這是資源匱乏下的艱難取捨——他們缺乏像已故億萬富翁保羅·艾倫那樣可持續的慈善金庫;相比之下,位於西雅圖的 AI2 正是靠艾倫留下的資金,才得以心無旁騖地推進基礎研究。

然而,OpenAI 走到這一步,不僅是因為“沒錢”,更是因為戰略上執意“搶在別人前頭造出 AGI”。這種競賽壓力迫使它做出一系列與初衷漸行漸遠的決定:  
• 為吸引資金和人才而主動製造聲量;  
• 為保持領先而層層設密;  
• 為求速度而押注“暴力算力”——並非因為這是通往 AGI 的唯一路徑,而是因為它看起來最快。

儘管如此,OpenAI 依舊坐擁頂尖人才與最前沿的研究,裡面確實有一群真心想為人類謀福祉的人。換句話說,它仍握有最關鍵的籌碼,也仍有轉圜餘地。

採訪尾聲,我問遠端學者項目出身的羅茲(Rhodes):“寫這篇報導時,有什麼絕不能遺漏?”  

她遲疑了一下:“我覺得……問題確實存在。一部分是外部環境造成,一部分源於它所吸引、或排斥的人群。”  

“但對我來說,他們確實在做一些對的事情,”她補充,“我能感覺到那裡的人在真誠地努力。”

更新:經 OpenAI 請求,我們對原文做了以下澄清與勘誤:  
1. 布羅克曼關於“無法從一開始就‘把倫理烘焙進去’”的表述,意在指出倫理問題無法在最初就得到徹底解決,而非不能從一開始就加以討論。  
2. 布羅克曼從哈佛退學後,是“直接”轉入 MIT,而非間隔一年。  
3. 他成長於“家庭業餘農場”(hobby farm),而非一般意義上的“農場”,他本人認為這一區分很重要。  
4. 我們已澄清:雖然 OpenAI “剝離了純粹非營利身份”,但其營利實體仍由非營利母體的董事會監督;且 OpenAI 仍以公司部落格“以及”學術論文兩種形式發佈研究成果,而非以部落格取代論文。  
5. 外部研究者論文的發表日期、彼得·埃克斯利在 Partnership on AI 的職務(已離任而非現任)亦已修正。

原文連結:

https://www.technologyreview.com/2020/02/17/844721/ai-openai-moonshot-elon-musk-sam-altman-greg-brockman-messy-secretive-reality/ (WhaleThinking)