OpenAI 大量內幕曝光!7 年「潛伏」調查扒出 AI 帝國真面目,奧特曼坐立難安公開陰陽

回到 2019 年,OpenAI 還只是一個實驗室、一個小作坊,Sam Altman 也 Y Combinator 裡的一員,甚至還有一次創業失敗的經歷。

那時的 OpenAI 是什麼樣子?前《華爾街日報》記者、現《MIT 技術評論》的人工智慧高級編輯 Karen Hao,最有發言權。她在當時就得到機會深入內部,與 Greg Brockman、Ilya Sutskever 等人交流。

她也慢慢發現,這家公司有相當多的「隱雷」。在 Karen Hao 的筆下,Sam Altman 像是一位善於控制敘事的「說書人」,而非一個以一致性和透明度為基礎的 CEO。他與馬斯克的恩怨,從頭到尾都像是 PUA 的一次精彩演繹。

事實證明,這些「隱雷」在後來導致了 OpenAI 一系列的「宮斗」大戲,以及接二連三的人員出走。

她最深的擔憂來自於:這樣的人,並不直言真相,卻能在不撒謊的前提下,取得你全部的信任。

值得一提的是,在 Karen Hao 的這本《Empire of AI》之外,還有幾本聚焦 OpenAI 的書即將問世。其中包括由 Ashlee Vance 撰寫的一部作品,獲得了 OpenAI 極少授予的「幕後存取權」。Sam Altman 曾在公開回應中表示,雖然沒有一本書能百分百精準地還原一切,但這些作者確實花了不少時間,試圖貼近事實與複雜性。


相較之下,《Empire of AI》的觀察更貼近記者視角,Karen 並未獲得同等等級的內部權限,這也使她的書在某些讀者看來,可能更具批判性與距離感。

上周,Karen Hao 的新書《Empire of AI》正式出版,這是她近 7 年來為 MIT Technology Review、《華爾街日報》和《大西洋月刊》報導人工智慧的結晶。書中基於 300 多次採訪,涉及約 260 人,其中包括 90 多名現任和前任 OpenAI 員工的 150 多次採訪,以及大量的通訊和檔案資料。本文為節選,經編譯調整,帶你走回 2019 年時,一切都還沒發生,但已經埋下種子的時刻。

2019 年 8 月 7 日,我來到了 OpenAI 的辦公樓。當時 31 歲的 Greg Brockman 是 OpenAI 的首席技術官,不久後他還會成為公司總裁,他從樓梯下來迎接我,臉上帶著略顯遲疑的微笑,和我握手。

我們從沒讓過一個外人這樣深入接觸公司,」他說。

那時,除了 AI 研究圈內的人,很少有人聽說過 OpenAI。而作為 MIT 科技評論專門報導人工智慧進展的記者,我一直密切關注著這家公司的動向。

在那之前的幾年裡,OpenAI 在 AI 研究領域有點像「被抱養的孩子」。它提出了「十年內實現 AGI(通用人工智慧)」的大膽設想——許多 AI 專家對此完全不信。

對業界來說,OpenAI 資金充足得有些過分,但方向又不夠清晰,把大量錢花在了宣傳上,而同行們經常批評他們的研究並不新穎。

有的人對其又愛又恨——作為一個非營利組織,OpenAI 宣稱不追求商業化,它曾是一個難得的學術樂園,是「邊緣想法」的避難所。

然而,在我到訪前的六個月裡,OpenAI 接連發生的變化,顯示出公司在軌道上正經歷一次大轉向。首先,是他們「吊胃口」般地宣佈卻又拒絕開放 GPT-2,引發無數爭議。

接著,Sam Altman 突然離開了 YC,出任 OpenAI CEO,並公佈了新的「有限利潤」結構。我已經安排好到訪,OpenAI 隨後又宣佈與微軟達成交易,讓後者擁有優先商業化權,並且強制只能使用微軟的雲平台 Azure。

這些消息帶來了新的爭議、外界的激烈猜測,以及越來越多的關注,影響開始超越科技圈本身。當我和同事們報導 OpenAI 的發展時,難以體會整個事態的份量。

可以肯定的是,OpenAI 正開始對 AI 研究產生實質影響,並改變政策制定者的認知。公司轉型為部分盈利組織的決定,將在業界和政府範圍引起連鎖效應。

某個深夜,在我編輯的建議下,我寫郵件聯絡了 OpenAI 的政策總監 Jack Clark(之前已採訪問過他):我會在舊金山停留兩周,現在正是報導 OpenAI 歷史的關鍵時刻,他們願意接受深度專訪嗎?Clark 把我轉給了公司公關負責人,對方同意了 OpenAI 重新向公眾「自我介紹」。他們給了我三天可以採訪管理層、進入公司內部的時間。

為什麼一定是 AGI ?

Brockman 和我在一間玻璃會議室坐下,OpenAI 的首席科學家 Ilya Sutskever 也在場。他們肩並肩坐在長桌一側,氣氛分明:Brockman 是工程師、實幹派,身體前傾,略顯緊張,試圖留下好印象;而 Sutskever 則是學者兼哲學家,靠在椅背上,悠閒淡定。

我打開筆記本,開始提問。「OpenAI 的使命是確保 AGI 造福人類。為什麼要在這個目標上投入數十億美元,而不做別的事情?」

Brockman 堅決點頭,顯然很習慣為 OpenAI 辯護。「我們如此關心 AGI,並認為必須建造它,是因為它能幫助解決那些人類自身難以企及的複雜問題。」

他舉了兩個 AGI 信徒常用的例子:氣候變化——「超級複雜的問題,我們怎麼解決?」醫療健康——「看看醫療現在在美國多重要,怎麼才能讓大家獲得更好、成本更低的治療?」

說到這裡,他分享了朋友的親身經歷:朋友患有罕見疾病,為了確診奔波於各類專科醫生之間,過程既費力又沮喪。假如有了 AGI,可以整合各領域專長,這樣的人不再需要為尋求答案耗費巨大精力和情緒。

「為什麼非得要 AGI,而不是 AI 就能做到?」我追問。

這個區分很重要。AGI 一詞曾經鮮有人提,被視為技術詞典中的「冷門條目」。但部分由於 OpenAI 的推動,現在它逐漸變得主流。

OpenAI 的定義是,AGI 是 AI 研究的理論頂點:一種軟體,擁有與人類同等的複雜性、靈活性和創造力,大部分(尤其具有經濟價值的)任務上能與人類媲美甚至超越

但這裡的關鍵詞是「理論上的」

數十年來,學界一直爭論,基於二進制晶片的軟體是否能真正模擬大腦和諸如意識等生物過程,實現「智能」。至今還沒有確切證據說明這是可能的。而且,這還沒觸及「該不該這樣做」的倫理問題。

而 AI,是當下流行用來描述現有/近期可以實現的技術,依靠強大的模式識別能力(即機器學習)已經在氣候應對與醫療等領域顯示出巨大應用潛力。

Sutskever 也加進了討論。他說,面對這些複雜的全球挑戰,「本質的瓶頸在於,人類太多了,但溝通不夠快,效率不夠高,還總有利益衝突。」而 AGI 不同,「想像一下,一整個智能電腦網路,大家都做醫學診斷,結果以極快速度交流。」

聽起來,這似乎意味著 AGI 目標就是「取代人類」?事後我與 Brockman 單獨聊時,把問題拋給了他。

「不,」Brockman 立刻否認。「這非常關鍵。技術的目的是什麼?為什麼我們要創造新技術?人類幾千年來一直這麼做,是因為技術服務於人。AGI 也是如此——至少我們想像和期望中它應該如此。」

不過,他也承認,任何技術都會造成一些職業消失,同時創造新的崗位。OpenAI 的挑戰,就是要打造那種讓所有人擁有「經濟自由」,能在新世界繼續「有意義生活」的 AGI。如果能做到,將是把「生存」從「必須勞動」中解放出來。

「我其實覺得,那會非常美好。」

談話過程中,Brockman 重申了一個大前提:「其實我們並不是決定 AGI 會不會到來的人。」

這是矽谷常用的論調:「反正別人也會做。」 「形勢已經不可逆轉,我們唯一能影響的是,AGI 出生時的初始條件。」

「OpenAI 是什麼?我們的目標是什麼?我們究竟在做什麼?我們的使命就是確保 AGI 造福全人類。具體做法就是:建造 AGI 並將其經濟成果分發出去。

他語氣篤定,好像已經完全解答了我的疑問。但其實我們只是繞了一圈,又回到了出發點。

沒人知道 AGI 到底長啥樣

我們的對話像打轉的圈,不知不覺就到了時間。我希望獲得更多具體資訊:OpenAI 到底在做什麼?他們卻表示,事物本身就難以明確——他們自己也無法預知。

既然如此,怎麼就如此確信 AGI 一定「利大於弊」呢?我換個角度追問,請他們舉幾個負面影響的例子。畢竟 OpenAI 建所的最初理由之一,就是要比別人先造出「好」的 AGI,防止「壞」的先出現

Brockman 試著回答:比如 Deepfake 深度偽造技術,「目前來看用它做的事情未必讓世界變得更美好。」

我自己補充了氣候變化相關的問題:近年來,美國麻省大學阿默斯特分校的一項研究發現,為訓練越來越大的 AI 模型,碳排放量驚人且持續上升,AI 自身也是環境負擔。


全球資料中心分佈及對應導致的氣候變化指數

Sutskever 坦言,「這點毋庸置疑」,但他認為回報值得,因為 AGI「其中一個作用就是反過來彌補環境損耗」。不過,他沒能給出具體實例。

「資料中心越“綠色”當然越好,」他說。

「毫無疑問。」Brockman 接話。

Sutskever 持續闡述:「資料中心是最大的能源、用電消耗者。」

「全球佔比大約 2%。」我補充。

「比特幣大約 1%?」Brockman 問。

「哇!」Sutskever 突然情緒激動,但聊到這裡已近 40 分鐘,這番表現有點像刻意為之。

後來他還在《天才製造者》的採訪中對《紐約時報》記者 Cade Metz 說過毫無諷刺地表示,「我覺得,很可能整個地球表面最終都會被資料中心和電站覆蓋。」會有一場「計算能力的海嘯……像自然災害一樣」。AGI 和它需要的資料中心「太有用了,不可能不被建造」。

我再次質疑:「也就是說,你們在豪賭,AGI 能在它自己帶來環境災難之前解決全球變暖?」

「我不會太鑽牛角尖,」Brockman 趕緊打斷。「整體來看,我們正站在 AI 進步的坡道上。這已經超出 OpenAI 本身,是整個領域在向前。而社會也實際從中受益。」

「微軟那天宣佈投資 10 億美元,市值漲了 100 億美元。說明資本市場也相信,短期技術都能帶來正向回報。」

因此,OpenAI 的策略很簡單:跟上 AI 進步的步伐。「這才是我們應當堅持的標準。只要不斷向前,我們就沒偏離道路。」

當天晚些時候,Brockman 又重申,OpenAI 面臨的最大挑戰,就是沒人知道 AGI 到底長啥樣。他和同行們只能邊做邊摸索,逐步發現這項技術的真正形態。

他的話聽起來像那句名言:米開朗基羅雕大衛,確信雕像本就藏在石頭裡,他要做的只是不斷打磨。

原本安排可以在公司食堂與員工共進午餐,但突然變故,讓我必須離開大樓——Brockman 特意全程陪同。我們走到街對面的露天咖啡館,那是 OpenAI 員工最愛去的小據點。

這成了我後續參訪的主旋律:很多樓層不讓看,會議不讓參加,受訪者經常偷偷望向負責公關的同事,緊張自己有沒有失言。後來我得知,我離開後,Jack Clark 在內部 Slack 上專門警告員工「除非正式安排否則不要私下和我說話」;門衛還收到我的照片,被要求如果未經批准看到我進樓就要特別注意。

這一切顯得異常,畢竟 OpenAI 一直標榜「透明」。我開始納悶:如果研究最終都是公開造福社會的,他們究竟在隱藏什麼?

午餐及接下來的時間,我進一步瞭解 Brockman 為何要創辦 OpenAI。他少年時就沉迷於「複製人類智能」的想法,閱讀英國數學家圖靈那篇經典論文點燃他的激情。

論文開頭「模仿遊戲」(The Imitation Game)提出「機器能思考嗎?」並引出了圖靈測試的思想:只要機器和人對話,不被分辨出身份,就已算過關——這是 AI 領域「入門故事」之一。

Brockman 當年為此寫了個圖靈測試小遊戲,上傳後有 1500 多次訪問,讓他覺得「我就想搞這樣的事」。

2015 年,AI 取得飛躍進展,Brockman 覺得是時候追回初衷,加入 OpenAI 成為聯合創始人。他給自己寫下筆記,「只要能推動 AGI 實現,那怕打掃衛生也願意做。」

2019 年結婚,他還特地在 OpenAI 的辦公室舉辦儀式,背景是公司六邊形 Logo 定製的花牆,Sutskever 親自主持儀式。實驗用的機械手臂充當「伴郎」,拿著戒指守在過道上,頗有末世科幻的畫面感。

「我這輩子就想幹 AGI 這事,」Brockman 說。

「是什麼力量驅動你?」我問。

「你覺得這輩子有多大機率會遇到顛覆文明的新技術?」他反問。

他堅信,自己和團隊,有獨特條件來推動技術變革。「我真正想參與的,是那種‘如果少了我事情就不會這樣展開’的問題。」

事實上,他並不想只做個「打雜的人」,而是真正想做 AGI 的「舵手」。他身上有強烈的渴望——希望有朝一日,自己的故事可以像講述歷史偉大創新者那樣被後人傳頌。

一年前,他曾在一個小型高端創業者聚會自嘲:「有誰記得著名的 CTO?」現場沒人能舉出那個 CTO 的名號。「這就說明問題。」

2022 年,他成為 OpenAI 總裁。

那種技術真的造福全人類了?

整個採訪期間,Brockman 始終強調,OpenAI 結構的調整併不意味著使命變了。新引進的「有限利潤」和新投資人反而增強了使命感。「我們找到了真正以使命優先而不是回報優先的投資人,這真是稀有。」

OpenAI 終於有足夠的長期資源來擴展模型,領先競爭對手。Brockman 說,這非常關鍵,否則 OpenAI 的理想就會落空。假如 OpenAI 落後,就沒機會引領「人類造福的 AGI」變革。

後來我才意識到,這一假設——「非快不可,否則一切歸零」,正推動所有 OpenAI 的關鍵舉措和一切深遠後果每一次研究進展都像倒計時一樣,不能以「穩妥」為主,而是必須搶在別人前衝到終點。

這也就成了 OpenAI 消耗巨量資源的理由:算力消耗(不考慮環境代價)、資料蒐集(那怕未經同意,不等法規完善)。

Brockman 再次提到微軟市值上漲 100 億美元,「這說明 AI 確實開始給現實世界帶來價值。」但他也承認,這些價值現在還是被大企業「集中享用」。所以 OpenAI 的目標是二次分配 AGI 收益,讓所有人都能受益。

「歷史上有那種技術真的實現了成果普惠?」我問。

「其實可以看看網際網路……」他有點躊躇,然後回答。「當然也有問題對吧?任何顛覆性技術,都很難做到‘利大於弊’、‘弊端最小化’。」

「火也是例子,」他說,又補充,「火有負面影響,所以人類要學會控制,有一致的標準。」

「汽車也是好例子。很多人有車、車子帶來好處,但也有很多外部性,對世界未必全是積極。」他語氣遲疑地結束。

「我理解我們的願景,其實和‘網際網路的積極面’、‘汽車的積極面’、‘火的積極面’差不多。只是具體技術實現方式天差地別。」

他說到這兒眼睛一亮:「你看,電力設施、水電公司都是高度集中的實體,為所有人低成本高效率地提供生活改善。」這是個不錯的比喻。但他似乎仍然不能說清 OpenAI 怎麼成「公用事業」。或許是靠普惠基本收入,或許有其他方式。

他最後回到確定的那一點:OpenAI 致力於分配 AGI 紅利、讓每個人都獲得經濟自由。「我們說的是真的。」

「到目前為止,技術確實讓整個社會進步,但副作用是集中效應更強。」他總結說,「AGI 可能更極端。如果所有價值都被某一方鎖死呢?社會已經在朝那個方向走——但我們還沒見過那一步。我不希望看到那樣的世界,也不願意成為那個世界的推手。」

一切若只如初見

2020 年 2 月,我在 MIT 科技評論刊發了這篇報導,基於我在公司裡的觀察、三十多次採訪和一些內部資料。

公司的宣傳和實際運作之間出現了錯位,」我寫道。「長久以來,內部的強烈競爭和對資金的渴求逐漸侵蝕了其早期承諾的透明、開放與協作理念。」

幾個小時後,Elon Musk 連續發了三條推特回應:

「OpenAI 理應更開放(imo)。」
「我對 OpenAI 沒有控制權,瞭解也很有限。對 Dario 負責安全沒信心」,他指的是時任研究負責人 Dario Amodei。
「所有開發高階 AI 的組織都應被監管,包括特斯拉。」

隨後,Sam Altman 發了一封郵件給全體員工。

「關於 MIT 的報導,我想談談我的看法。雖然不算災難性,但確實是負面報導。」

他坦言,報導確實指出了外界認知與 OpenAI 現實的脫節。對此,公司無需改變日常運作,只要微調對外表述就行。

「我們學會了靈活調整,這是好事,」他說,包括調整組織結構、提升保密等級,「都是為達成使命更好地學習。」

他建議,暫時不要理會這篇報導,等幾周後再集中對外宣講公司堅守初衷。「正好借 API(應用介面)方案表達我們的開放和紅利分配戰略。」

「我最在意的是,有人洩露了公司內部檔案。」他表示公司已開展調查,會持續通報進展。

他還建議 Amodei 與 Musk 當面溝通,對方「這次批評算溫和」,但「也是不好的事」。為避免誤解,他寫道,Amodei 的工作和 AI 安全極其重要。以後公司也應該找到合適時機,公開為團隊辯護(但現在先別成新聞口中交鋒的反面對立)。

從那以後,OpenAI 三年沒有再接受我的採訪。 (APPSO)