#奧特曼
又出事了:被扔燃燒瓶後,凌晨再遭槍擊!
矽谷All in,華爾街押注,人工智慧(AI)一路狂飆之際,對AI以及基礎設施建設的負面情緒正在美國社會迅速蔓延,甚至越發危險。當地時間12日凌晨,美國人工智慧公司OpenAI的首席執行長奧特曼(Sam Altman)位於舊金山的豪宅遭遇槍擊,無人受傷,兩人因此被捕。這是該住所在不到48小時內第二次遭遇襲擊,此前一名20歲男子向奧特曼家中投擲燃燒瓶並威脅要焚燒OpenAI總部。兩起襲擊事件並未造成人員傷亡。警方稱,對奧特曼住宅的襲擊導致“外部大門起火”。北灘(North Beach)社區位於舊金山金融區以北,是深受科技高管青睞的高檔社區。隨著調查的深入,該案背後的更多細節浮出水面。美國檢方周一表示,被控上周向奧特曼住所投擲燃燒瓶的男子意圖將奧特曼殺害,作案動機源於對人工智慧技術的仇視。舊金山地方檢察官周一表示,嫌疑人Daniel Moreno-Gama被控謀殺未遂。根據美國司法部發佈的一份聲明,此人還面臨其他聯邦指控,包括“使用爆炸物蓄意破壞和損毀財產”以及“非法持有未註冊槍支”。聯邦調查局(FBI)代理特別負責人Matt Cobo在一份聲明中表示,“今日宣佈的指控反映出一種令人深感擔憂的升級——針對私人住宅與科技公司的暴力已從意圖轉為付諸行動。”他在周一的新聞發佈會上表示:“這絕非一時衝動。這是有預謀、有針對性的,且性質極其嚴重的行為。”根據周一提交給舊金山聯邦法院的一份訴狀,Moreno-Gama在上周五發動襲擊被捕後,警方在他身上搜出了一份詳細闡述其作案意圖的檔案。該嫌疑人在檔案中表達了殺害奧特曼的目的,並警告人工智慧將導致人類“即將滅絕”。訴狀顯示,在檔案中題為“最後警告”的第一部分,嫌疑人“聲稱自己‘殺害/企圖殺害’受害者1”。檔案中雖未直接提及奧特曼的名字,但將“受害者1”描述為“一家部署和開發人工智慧並從事州際和國際貿易的研究公司的首席執行長”。訴狀稱,嫌疑人還列出了其他多名AI行業高管、董事會成員及投資者的姓名與住址。FBI指出,這表明嫌疑人可能對更多科技界人士構成了潛在威脅。檔案的第二部分闡述了人工智慧對人類構成的風險,標題為“關於我們即將滅絕問題的更多說明”。在檔案結尾,Moreno-Gama直接致信奧特曼,寫道:“如果你奇蹟般地活下來,那麼我會將此視為神明的旨意,給你一個自我救贖的機會。”訴狀顯示,上周五凌晨3點37分左右,Moreno-Gama向奧特曼的住所投擲了一個“點燃的汽油彈式燃燒裝置”。該裝置在車道大門上方引發了火情,但無人受傷,嫌疑人隨後逃離現場。訴狀還稱,嫌疑人於早上5點左右抵達OpenAI總部,向玻璃門投擲了一把椅子,並威脅要“燒掉這裡並殺死裡面所有人”。警方趕到現場後將其抓獲。這並不是OpenAI總部首次成為目標。去年11月,一名男子威脅要前往OpenAI在舊金山的幾處辦公室“殺人”,導致該公司總部進入封鎖狀態。今年,抗議者也經常在OpenAI總部辦公樓外舉行示威活動。在住所被投擲燃燒瓶後,奧特曼本人曾回應稱,自己低估了語言和敘事的力量。他表示幾天前曾有人提醒過他,在人們對AI感到焦慮之際,一篇涉及他自己的“煽動性文章”的發佈可能會讓他的處境更加危險,而他當時對此不以為意。奧特曼表示,希望公開家庭照片能“阻止下一個人做出類似行為”。他強調,圍繞AI的爭論不應演變為暴力:“我們應該降低言辭和行動的激烈程度,讓‘爆炸’——無論是字面還是比喻意義上的——都更少發生。”截圖來源:Sam Altman部落格他的部落格中還寫道:“我理解‘反科技’情緒,而且技術確實並非對所有人都有益。但總體而言,我相信技術進步可以讓未來變得難以置信地美好,無論是對你的家庭還是我的家庭。”此前美國雜誌《紐約客》曾發佈長篇報導,採訪數百位曾與奧特曼共事的員工和高管,直指奧特曼在職業生涯的不同階段“說謊”,因追逐利益而背離安全承諾,與中東國家合作引發美國國家安全擔憂等。值得注意的是,奧特曼遭遇的暴力事件並非孤例。在距離舊金山3000多公里的美國印第安納州印第安納波利斯市,一名議員稱就在他投票支援當地一項資料中心項目後不久,6日他家遭到槍擊。除了13顆子彈,門口還留下了一張寫著“不許建資料中心(No Data Centers)”的紙條。隨著針對公眾人物的暴力事件增多,美國公司正日益為高管提供安全與保護方面的福利,尤其是矽谷的科技公司,例如Meta、Alphabet和輝達,在2024年為其首席執行長的安保投入了數百萬美元的額外支出。據第一財經報導,安全專家分析,在人工智慧帶來普遍的社會焦慮之際,科技公司高管極易成為被攻擊的對象。“高管們比以往任何時候都更容易受到傷害。”世界安保集團首席執行長肯特·莫耶(Kent Moyer)對媒體表示,“全國各地的威脅都在增加。”“人們擔心人工智慧會擾亂勞動力市場,並可能通過訓練資料加劇偏見,甚至引發嚴重的倫理或版權問題。缺乏透明度和問責制是人們難以面對的問題。”安保公司Jensen Hughes的奧爾洛夫(John Orloff)認為,首席執行長要為公司做出的決策負責,外界也往往會把責任完全歸咎於首席執行長。 (每日經濟新聞)
暗殺名單曝光!炸奧特曼家,20歲嫌犯「為救全人類」化身殺手
襲擊奧特曼住宅的嫌疑犯,已被捕!科幻與現實的界限已模糊:當推動AI的人加速狂奔,恐懼AI的人舉起火把——這場對抗,才剛剛進入最危險的階段。科幻動漫《萬神殿》裡有一個場景:反AI組織「AIDAS」拿到一份名單,上面是所有推動意識上傳技術的科學家和高管,然後逐個動手。看的時候,觀眾覺得這是動畫片的極端設定。2026年4月11日凌晨4點,舊金山。一個穿Champion衛衣的20歲德州男孩Daniel Moreno-Gama,手提煤油罐,站在奧特曼價值千萬的豪宅門前,點燃了汽油彈,扔了出去。一個半小時後,他出現在OpenAI總部,抄起椅子砸玻璃門,對保安喊:「我要燒了這裡,殺光裡面所有人。」美國司法部發佈的一張圖片顯示,據該部門稱,Daniel Moreno-Gama在OpenAI總部用椅子擊打玻璃門。FBI從他身上搜出的那份檔案,才真正讓矽谷AI巨頭失眠——一份三段式「反AI宣言」,裡面白紙黑字列著其他AI公司CEO和投資人的姓名與家庭住址。那一刻,從《萬神殿》刺進了現實。動畫片,變成了真實新聞頭條。  暗殺名單,從虛構走進了現實。嫌犯畫像:從PauseAI論壇到汽油彈這個男孩叫Daniel Moreno-Gama,20歲,來自德克薩斯州斯普林鎮。嫌犯Daniel Moreno-Gama身穿黑色Champion衛衣,手持透明容器疑似煤油罐,站在建築入口處。這張模糊截圖,和《萬神殿》裡AIDAS殺手的剪影,幾乎完全重疊,讓人不寒而慄。他專程從德州飛到舊金山,只為這一夜。FBI在他身上搜出了完整作案工具:燃燒裝置、一罐煤油、藍色打火機,還有那份讓人脊背發涼的「反AI宣言」文件。宣言標題赫然寫著——「你的最後警告」,後面跟著他本人的署名。裡面明確寫著要「殺死/企圖殺死」受害者1,也就是OpenAI的CEO奧特曼。更恐怖的是這句話:「如果我要倡導他人去殺戮和犯罪,那麼我必須以身作則,表明我的資訊是完全真誠的。」這不是一個瘋子的胡言亂語。這是一份宣戰書。本周一,聯邦調查局特工前往Daniel Moreno-Gama位於德克薩斯州休斯頓郊區斯普林市的家中,在那裡停留數小時後離開。調查顯示,兩年前,他就加入了PauseAI的Discord論壇,發了34條消息。雖然沒有直接喊打喊殺,但其中一條已被標記為「模糊威脅」。PauseAI的目標是說服各國政府介入,暫停超級人工智慧(Superhuman AI)的開發那個呼籲暫停前沿AI開發的非營利組織,如今成了FBI重點排查對象。從鍵盤上的憤怒,到現實中的火焰,他最終跨出了那一步。那份名單:矽谷的「辛德勒名單」倒過來了真正讓整個矽谷睡不著覺的,是另一部分內容。那是一份詳細名單。上面列出了多名AI公司董事會成員、CEO以及投資人的姓名和家庭地址。這已經不是單純的個人洩憤。這是一套冷血的「目標選擇邏輯」——先挑最有代表性的人下手,再號召更多人跟進。聯邦檢察官放出狠話:如果證實他的意圖是脅迫政府或改變公共政策,這起案件將被直接定性為國內恐怖主義。《萬神殿》裡的AIDAS組織,正在現實中照進矽谷。虛構和現實的距離,已經歸零。這不是孤立事件。這是AI恐慌從線上請願、街頭抗議,走向線下暴力的明確拐點。PauseAI這類運動,本來是呼籲暫停、呼籲安全。如今,有人把「安全」兩個字,理解成了必須用煤油和火焰來執行。Anthropic高管等人的公開警告——AI可能導致30%-50%的人類失業——正在客觀上為極端分子提供「道德許可證」。一個危險的邏輯閉環已經形成:AI會威脅人類生存 → 阻止AI就是正義 → 用暴力阻止AI,也是必要的正義。這條滑坡,有人已經滑到底了。當技術狂奔的速度,超過了社會心理的承受能力,恐懼就開始反噬。AI過度炒作,引起反噬你以為AI只是工具?現在,它已經成了某些人眼裡的「人類滅絕機器」。而他們選擇的回應方式,是真正的「滅絕」——先滅掉推動它的人。下一個目標是誰?奧特曼已確認了這次襲擊。他甚至放出了一張自己丈夫和幼子的照片,寫道:「希望這能勸阻下一個想朝我家扔莫洛托夫雞尾酒的人……不管你對我有什麼看法。」他承認「對AI的恐懼和焦慮是合理的」,但強調必須「降低修辭和戰術,別再讓爆炸發生在更多家庭裡」。矽谷的安保等級正在緊急升級。但名單上那些名字,此刻恐怕都難以入眠。更深層的問題在於:當恐懼AI的人,開始用暴力回應; 而推動AI的人,繼續加速狂奔——誰來踩剎車?這場由技術引發的恐懼與對抗,才剛剛進入最危險的階段。下一個目標,又會是誰? (新智元)
知名記者出書爆錘OpenAI,奧特曼親自下場反擊,《AI帝國》作者最新訪談揭露了更多內幕
近日,《AI帝國》作者郝珂靈與播客主持人Steven Bartlett進行了一場深度對話。郝珂靈畢業於麻省理工學院機械工程專業,對矽谷進行了長達八年的追蹤報導,以局內人視角剖析了AI產業背後的權力邏輯與利益格局。其新作《AI帝國:薩姆·奧特曼與OpenAI的夢想與噩夢》基於對250多位行業內部人士的深度訪談(其中包括近百名OpenAI前僱員),是目前為止對AI產業內幕記錄最系統的著作之一。這本書在全球範圍內引發關於AI產業擴張模式的廣泛討論,連Sam Altman本人也專門發文回應。在這場對談中,郝珂靈提出了一個與行業主流敘事相悖的核心判斷:矽谷頭部AI公司正在複製古典帝國的擴張路徑,通過AGI末日論與解放人類的雙軌敘事製造恐慌,將技術的開發權與監管權鎖定在少數精英手中,同時對全社會的資料資源、勞動力與基礎設施進行不受約束的攫取。以下是這場對談的核心內容:1. AGI末日論與烏托邦並存,本質是一種商業控制策略大眾往往被矽谷科技巨頭們描繪的未來所震懾:AI要麼解決氣候變化和攻克癌症,要麼毀滅全人類。郝珂靈認為,這套極端的雙軌敘事,是AI巨頭們刻意設計的話語策略。渲染技術災難,核心目的並非向公眾示警,而是將AI的開發權與監管權順理成章地集中到少數人手裡。恐慌製造了一套自洽的邏輯:這項技術太危險,只有矽谷頭部大廠才有能力駕馭它。巨頭們同時通過不斷重新定義AGI的邊界,在規避外部監管的同時,持續吸納大規模資本。2. AI不會解放勞動力,而是會折斷中產階級的職業階梯行業通行的敘事是:AI會淘汰低效工作,並創造我們難以想像的新崗位。但落到實處,這些新崗位正在製造一個龐大的底層勞工群體。郝珂靈認為,裁員潮席捲之下,許多高學歷白領、創意工作者乃至行業專家,最終進入資料標註行業維持生計。這類工作高度機械化、薪酬低廉,把人的專業經驗壓縮成流水線上的廉價投入。更諷刺的是,這些前專業人士正在親手訓練那些替代自身崗位的模型。職場的中間層就這樣被掏空——極少數高薪技術崗位在頂端,大量低階執行性工作在底端,中間的晉陞台階正在消失。3. 龐大的算力競賽, 正在擠佔脆弱社區的基本生存資源AI智能建立在極其沉重的能源消耗之上。隨著Scaling Law規模定律持續推進,矽谷巨頭們在全球瘋狂圈地,建立耗電量堪比整座城市的超大型資料中心。選址上,矽谷科技大廠傾向於議價能力弱、阻力更小的邊緣社區。這些設施嚴重擠佔當地居民的飲用水和電力,為維持算力運轉而啟用的化石燃料發電廠,更向周邊社區持續排放污染物。發佈會上的技術願景,背後是被轉嫁給弱勢群體的環境成本與健康代價。4.Sam Altman是下一個賈伯斯,還是一個頂級操縱者?郝珂靈採訪了超過300人後發現,人們對Altman的評價比她報導過的任何科技人物都更極端,要麼認為他是賈伯斯等級的新一代領袖,要麼認為他是極具操縱性的騙子。而這種分歧只取決於一件事:你是否認同他對未來的願景。更耐人尋味的是,那些與他共事最深、最瞭解他的人,恰恰是最終與他決裂的人:聯合創始人Ilya、CTO Mira Murati先後主導或參與了將他踢出局的行動,隨後相繼離開OpenAI。Dario Amodei、Elon Musk等人在與他合作後也各自出走,分別創立了競爭對手公司。郝珂靈的觀察是:他們每個人都想按照自己的形象來塑造AI,而與Altman共事的結果,是讓他們意識到這件事不能交給別人來做。5.我們需要更多解決具體問題的自行車,而非不斷造火箭如果任由大模型這條高耗能路徑野蠻擴張,整個社會的資源分配將面臨嚴峻考驗。郝珂靈認為需要重估AI技術的發展路線本身。大語言模型如同火箭,消耗海量資源,只為解決泛化問題;社會真正需要的,是更多像AlphaFold那樣的自行車,以精選的小規模資料,用極低能耗,在醫藥、材料等垂直領域創造切實的社會效益。AlphaFold用於蛋白質折疊預測,已獲諾貝爾獎。對於創業者而言,盲目追逐"像人一樣思考"的通用大模型,是一場資源消耗的無底洞。回歸技術解決具體問題,才能走出矽谷大廠壟斷陰影。以下是郝珂靈訪談實錄:1.AI帝國的神話建構主持人:現在讓我們正式開始今天的節目。郝珂靈,你寫了擺在我面前的這本書,書名叫做《Sam Altman的夢想與夢魘》(Dreams and Nightmares in Sam Altman’s OpenAI)。我想問的第一個問題是,為了撰寫我們今天要討論的這本書及相關主題,你經歷了怎樣的研究過程和心路歷程?郝珂靈:我進入新聞界的道路比較奇特。我曾就讀於麻省理工學院學習機械工程,畢業後搬到了舊金山,加入了一家科技初創公司。我成為了矽谷的一員,並在那裡接受了關於矽谷究竟是什麼的洗禮。當時我加入了一家非常有使命感的初創公司,專注於開發應對氣候變化的技術。然而幾個月後,董事會卻因為公司不盈利而解僱了CEO。現在回想起來,那對我來說是一個非常關鍵的轉折點。我當時就在想,如果這個創新中心最終只是為了開發盈利性技術而設計,而世界上許多亟待解決的問題(比如氣候變化)根本無法帶來利潤,那我們現在到底在做些什麼?我們是如何發展到如今這個地步的:創新不一定是為了公眾利益,甚至有時為了追求利潤而損害公眾利益。在那一刻我經歷了一場小小的職業危機。我覺得自己花了四年時間為這份職業做準備,現在卻發現並不適合它。於是我決定嘗試一些完全不同的事情。我一直很喜歡寫作,兩年後我在《麻省理工科技評論》獲得了一份全職報導AI的職位。這份工作給了我探索這些問題的空間:誰有權決定我們開發什麼樣的技術?金錢和意識形態是如何驅動這些技術誕生的?我們最終如何才能真正重新構想創新生態系統從而造福全球民眾?這就是我決定寫這本書的初衷。雖然當時我並沒有意識到自己正在為寫書做準備,但實際上從2018年接受那份工作開始,我就已經踏上了調研書中故事的旅程。主持人:現在確實是投身人工智慧領域的絕佳時機。對於那些還不瞭解背景的人來說,你剛入行那會兒還在OpenAI成立之前,而後來ChatGPT的發佈震驚了世界。在撰寫這本書的過程中,你採訪了很多人,去了很多地方。你能大概介紹一下你採訪了多少人、去了世界上的那些地方嗎?郝珂靈:我進行了300多場訪談,採訪了250多人,其中90多人是OpenAI的前任或現任員工及高管。因此這本書涵蓋了OpenAI第一個十年的內幕故事,以及它是如何走到今天這一步的。但我並不想僅僅寫一本企業傳記。我強烈地感覺到,為了幫助人們理解AI行業的影響,我們必須走出矽谷。這些公司總是宣揚AI將造福全人類,這也是他們的口頭使命。但當你去到那些與矽谷截然不同的地方時,這種辭令就開始崩塌。那些地方的語言與矽谷完全不同,歷史和文化也存在著本質上的差異。正是從那些地方開始,你才能真正看清這個行業在我們周圍擴張的真實面貌。主持人:郝珂靈,通常我會嘗試主導對話,但在今天這種情況下,我覺得跟隨你的思路走或許是更好的選擇。考慮到這一點,我想問你,這段旅程應該從那裡開始?如果我們討論該書的主題,應該從那裡切入?是從泛指的AI和人工智慧開始嗎?另外我想強調一點,這也是在各種對談中經常被遺漏的,那就是讓我們假設目前的觀眾對AI一無所知。我們要假設他們不知道什麼是Scaling Laws、GPU或算力之類的概念,儘量用最通俗易懂的語言來探討,或者將複雜的術語解釋清楚,讓儘可能多的人能夠聽懂。郝珂靈:好的,我認為應該從AI作為一個學科誕生時講起。追溯到1956年,一群科學家聚集在達特茅斯學院開創了一個新學科。這門科學學科懷揣著一種雄心壯志。具體來說,達特茅斯學院的一位助理教授John McCarthy決定將這門學科命名為人工智慧。這並不是他最初構想的名字。前一年他曾嘗試將其命名為自動機研究,但他的某些同事對這個名稱感到擔憂,因為它將這門學科的理念侷限在了重塑人類智能上。在當時以及現在,關於什麼是人類智能,科學界並沒有達成共識。心理學、生物學和神經學等領域都沒有給出明確的定義。事實上,歷史上每一次試圖量化和劃分人類智能等級的嘗試,背後都是由邪惡的動機驅動的。這種行為往往是為了通過科學去證明某些群體天生劣於其他群體。AI領域缺乏明確的準則,當整個行業聲稱他們最終目標是重建與人類一樣智能的AI系統時,並沒有任何衡量標準。我們甚至不知道該如何定義這個目標,如果不知道終點是什麼,又怎麼知道何時才能抵達呢?這實際上意味著這些公司可以隨意使用通用人工智慧(AGI)這個術語。AGI正是現在用來指代重現人類智能這一宏大目標的詞彙。他們可以隨心所欲地使用它,並根據自身利益進行定義和重新定義。在OpenAI的發展史上,AGI的定義就被反覆修改過。當Sam Altman在國會作證時,AGI是一個能夠治癒癌症、解決氣候變化、消除貧困的系統。當他向消費者推銷產品時,AGI則是你能擁有的最神奇的數字助手。當他與Microsoft談判投資協議時,AGI被定義為一個能產生1000億美元收入的系統。而在OpenAI自己的官方網站上,AGI被定義為在大多數具有經濟價值的工作中超越人類的高度自治系統。這根本不是一個關於單一技術的連貫願景。這些截然不同的定義完全是針對特定受眾拋出的噱頭,目的是動員大眾抵制監管,或者吸引更多消費者買單。該行業之所以這麼做,只是為了獲取更多資本和資源以繼續這場定義模糊的技術狂飆。主持人:談到隨時間演變的不同定義,2015年OpenAI正式宣佈成立之前,Sam Altman在一篇部落格文章中明確概述了生存風險。他寫道,開發出超越人類水平的機器智能,可能是人類持續生存面臨的最大威脅;雖然他認為像人造病毒等其他威脅肯定會發生,但AI可能是最容易毀滅一切的方式。郝珂靈:通常當Altman面向公眾寫作或演講時,他心目中的受眾絕不僅限於普通公眾。在那個特定的時刻,他其實是試圖說服Elon Musk與他共同創立OpenAI。因為當時的Musk正全身心地對AI可能帶來的巨大生存威脅發出警告。如果你去讀那篇博文,會發現Altman使用的語言與Musk當時的話術如出一轍,完全反映了Musk的觀點。主持人:完全一致。確實,十年前Musk就在播客、推文以及各種公開言論中表示,人類面臨的最大生存風險就是AI。郝珂靈:沒錯,所以你看他在博文的括號裡還提到了其他可能發生的事情,比如人造病毒。這是因為在那之前,Altman一直談論的都是人造病毒。而為了拉攏Musk這個關鍵人物,他需要轉變話術來迎合對方。對於Altman來說,他需要化解一個矛盾,即他現在為了迎合Musk而提出的新核心恐懼與他之前的言論完全相悖。所以他才會巧妙地加上那句“我認為現在是這樣,儘管以前我曾說那是人造病毒”。主持人:你的意思是Sam Altman操縱了Musk嗎?因為Elon Musk最終確實捐贈了巨額資金給OpenAI,並且是聯合創始人。郝珂靈:Elon Musk最終確實與Altman共同創立了OpenAI。當然從Musk的角度來看,他確實感覺被操縱了。他認為Altman在溝通時刻意迎合他,以此騙取他的信任並讓Musk將其視為這項事業的合夥人。不過後來Musk還是離開了OpenAI。通過Musk和Altman目前正在進行的訴訟中披露的檔案可以看出,Musk在某種程度上實際上是被排擠出去的。這就是為什麼他對Altman懷有如此強烈的個人恩怨,並聲稱Altman用欺騙的手段將他捲入了這一切。主持人:所以在2015年,Sam Altman通過部落格宣稱AI是人類最大的生存威脅之一。與此同時Musk也在發表著名的演講,比如在麻省理工學院稱AI是最大的生存威脅,甚至將開發AI比作召喚惡魔。而你剛才的觀點是,Sam Altman只是在模仿Elon Musk的語言,目的是拉攏他加入OpenAI。後續的發展也印證了這一點,目前的訴訟顯示Sam Altman可能在某種程度上將Elon Musk排擠出局了。郝珂靈:從訴訟及披露的檔案得知,當時的OpenAI首席科學家Ilya Sutskever和首席技術官Greg Brockman決定成立營利實體時,面臨著由Musk還是Altman擔任CEO的問題。起初,他們選擇了Musk。但我通過報導發現,Altman私下懇求了相識多年的好友Greg Brockman,指出讓Musk這位備受矚目且不可預測的名人擔任這家未來可能擁有超強力量的公司的CEO存在危險。這番話不僅說服了Greg,也讓Greg隨後說服了Ilya。最終他們改變了立場,希望Altman擔任CEO,而Musk則以不當CEO就退出為由離開了。2.Sam Altman的爭議形象與高層動盪內幕主持人:聽起來Sam再次成功說服了別人。這引出了一個問題,你如何評價Sam Altman?郝珂靈:我認為他是一個非常有爭議的人物。主持人:你剛才的停頓很有意思,那是試圖字斟句酌時才有的停頓。郝珂靈:採訪中最有趣的一點是,人們對Altman的評價極其兩極分化,要麼認為他是堪比Steve Jobs的新一代偉大科技領袖,要麼覺得他是一個極具操縱性的騙子。我採訪了很多人後意識到,這完全取決於你是否認同他對未來的願景。如果你認同,你會覺得他非常有說服力,擅長講故事,在調動資本和招攬人才方面表現卓越,是你身邊最了不起的財富。但如果你不認同,你就會覺得自己在被他操縱去支援他的願景。Anthropic的CEO Dario Amodei就是典型的例子。他最初是OpenAI的高管,原以為Altman與自己志同道合,但後來漸漸發現兩人的想法背道而馳,並感覺Altman是在利用他的才智和技術去實現一個他根本不認同的未來願景,因此心生反感。我報導科技行業超過八年,報導過Meta、Google和Microsoft等眾多公司,但在OpenAI和Altman身上,我看到了前所未有的兩極分化,人們甚至無法斷定他究竟是絕世天才還是極惡之徒。主持人:你剛才提到了Dario,我發現真正有趣的是觀察人們的言論如何隨利益動機變化而演變。我查看了他們所有的公開言論,包括播客和部落格文章。Dario曾是OpenAI的研究副總裁,後來去了Anthropic,他們在開發AI上採取了略有不同的方法。早在2017年他還在OpenAI時曾說過,最極端的情況是對AGI毀滅人類的恐懼,從原則上看並非不可能發生,發生人類文明級災難的機率可能在10%到25%之間。你還提到了離開的OpenAI聯合創始人Ilya,我想問的第一個問題是,Ilya為什麼要離開?郝珂靈:這是一個非常好的問題。Ilya在試圖解僱Sam Altman的過程中起到了關鍵作用。隨著時間推移,他也漸漸覺得自己被Altman操縱去貢獻他不認同的東西。主持人:你是怎麼知道的?郝珂靈:因為我採訪了很多人。Ilya深切關注兩大支柱:一是確保實現AGI,二是確保安全實現它。他認為Altman正在積極破壞這兩件事,在公司內部製造混亂的環境,讓不同團隊互相競爭,對不同的人說不同的話。主持人:你和他談過嗎?郝珂靈:我曾在2019年為撰寫OpenAI人物專訪採訪過他。主持人:當時他說過一段話:“無論如何,AI的未來會很美好。如果對人類也美好那就太好了。這並不是說它會主動憎恨或傷害人類,而是它會變得極其強大。就像人類對待動物那樣,我們並不是因為討厭動物才修高速公路,只是因為修路對我們很重要,所以我們不會去徵求動物的許可。默認情況下,這就是未來我們與AI的關係,它們將真正自主並代表自身利益運行。”郝珂靈:我覺得我們應該退一步思考:究竟什麼是人工智慧?我們所說的智能又是指什麼?這很大程度上源於個人對“智能”的特定信念。在Ilya的整個研究生涯中,他和他的導師Geoffrey Hinton一直假設我們的大腦歸根結底是巨大的統計模型。基於這種假設,他們堅信建構基於統計模型的AI系統最終會帶來像人類一樣甚至超越人類的智能系統。Ilya曾在一個AI研究會議上展示過一張圖表,顯示大腦容量與物種智力大致呈正相關。對他而言,既然大腦只是統計引擎,那麼只要建構一個比人腦更大的統計引擎,它就會變得更加智能,屆時我們將遭受與動物相同的待遇。但必須明白,這只是AI研究社區內特定個體的科學假設,關於它是否屬實存在很大爭議,主要的批評者認為將大腦簡單視為統計引擎是非常片面的。主持人:為什麼瞭解其機制如此重要?難道僅僅瞭解結果還不夠嗎?比如它能為我製作視訊,或者智能體能夠完成我的工作。瞭解其背後的機制對我們來說真的那麼重要嗎?郝珂靈:既重要也不重要。重要是因為這些公司正基於這一假設來採取行動。他們認定追求AGI需要不斷建構越來越大的統計模型,這帶來了全球性的後果:他們瘋狂搜刮資料、建設資料中心,甚至剝削勞動力。我認為有一個關鍵問題需要反思:我們為什麼要努力建構替代人類的AI系統?當下的對話似乎默認了AI行業的前提就是好的,他們說該建構AGI,我們就跟著附和。縱觀歷史,技術的初衷始終是為了增進人類福祉,而不是取代人類。我對這些公司和科學家的核心批判就在於此:他們全盤接受了這個目標,並利用巨額資本和龐大資源不懈追求。這真的是正確的目標嗎?為什麼我們不能只建構那些能加速藥物研發、改善醫療成果的AI系統呢?那些系統與他們試圖複製人類大腦的統計引擎完全是兩回事。主持人:那麼他們為什麼要這麼做?你採訪了大約300人,其中有八九十人來自OpenAI。你認為他們執意如此的原因是什麼?郝珂靈:我認為是因為他們受一種帝國議程的驅動,所以我稱這些公司為AI帝國。3.AI帝國議程設定主持人:你所說的“帝國議程”具體是什麼意思?郝珂靈:“帝國”是我發現唯一能完全概括這些公司運作規模及背後動機的詞彙。當下的AI帝國與舊時代帝國有諸多相似之處:首先,為了訓練模型並建立超級計算設施,他們大肆圈地,侵佔屬於個人的資料以及創作者的智慧財產權;其次,他們在全球僱傭了數十萬名工人來製造這些技術,卻將工具設計為以勞動力自動化為導向,這種政治選擇嚴重侵蝕了勞工權利;最後,他們壟斷了知識生產,對外製造出只有他們才真正懂AI的假象。如果公眾不喜歡,他們就歸咎於公眾瞭解不夠。他們不僅以此對付公眾和政策制定者,還收買了絕大多數研究AI侷限性和能力的科學家。主持人:你認為他們在某種程度上是在對公眾進行情感操縱嗎?郝珂靈:沒錯。試想一下,如果全球大多數氣候科學家都由化石燃料公司資助,我們還能瞭解氣候危機的真相嗎?同理,AI行業僱傭並資助了世界上大多數AI研究人員,通過將資金注入他們優先考慮的項目來柔性設定研究議程。當研究人員的發現不利於他們時,他們就會進行審查。我在書中提到過Google倫理AI團隊前共同負責人Timnit Gebru博士的案例。她被僱傭的初衷是對Google的AI系統提出批評,但當她合作撰寫了一篇揭示大語言模型如何導致有害後果的論文後,Google為了阻止論文發表,不僅解僱了她,還解僱了另一位共同負責人Margaret Mitchell。這就是他們控制並壓制不利於帝國議程研究的手段。主持人:這種情況是否也發生在了向他們提問的記者身上?我曾看過你的一個視訊,裡面有個年輕人提到,某家大型AI公司的人直接敲開他家的門,索要電子郵件和簡訊等資訊。郝珂靈:確實如此。OpenAI曾傳喚部分批評者,這既像是一場恐嚇,也像是一場旨在摸清批評者網路的“釣魚”行動。那是一個經營小型非營利監督機構的年輕人。在OpenAI嘗試從非營利組織向營利性企業轉型的關鍵時期,許多像Mitos這樣的公民社會團體試圖阻止這一過程暗箱操作,爭取更高的透明度並引發公眾辯論。就在那時,有人敲開了他的門,遞交了法律檔案。這些檔案要求他提供所有與馬斯克可能涉及的溝通記錄。這反映了OpenAI一種奇怪的偏執,他們認定馬斯克在資助這些人阻撓公司轉型。但實際上,他們中沒有任何人受馬斯克資助。所以面對這個請求,他只能無奈地表示自己拿不出任何檔案,因為這些溝通根本就不存在。主持人:你剛才提到,帝國的特徵之一是土地掠奪,接下來的一個是勞動力剝削,第三點是控制知識生產。郝珂靈:關於這些AI帝國,另一個非常重要且需要理解的特點是,它們總是擁有一種敘事方式。它們對公眾宣稱:“我們是正義的帝國。首先我們需要成為一個帝國,因為世界上還存在著邪惡的帝國。如果你們允許我們獲取所有資源並使用所有勞動力,我們承諾將為每個人帶來進步與現代化,帶大家進入類似於AI天堂的烏托邦狀態。但如果邪惡帝國搶先一步,我們將墜入地獄。”主持人:那麼這裡的邪惡帝國是指?郝珂靈:實際上在早期,OpenAI曾將Google視為邪惡帝國。所以他們所有的決策都圍繞著:“我們必須搶先一步,否則Google這家受利潤驅動的邪惡公司就會勝出,而我們是一家仁慈的非營利組織。”他們認為這是一場關乎誰能勝出的關鍵競爭。主持人:你認為那些建立這些AI公司的人,真的相信結果會造福每個人、開啟一個富足的時代嗎?你覺得他們到底相信什麼?或者說,你認為Sam Altman真正相信的是什麼?郝珂靈:這太有意思了。他們圍繞AI行業建構的神話中,有一個核心部分就是他們相信事情可能會變得非常糟糕,這兩者是相輔相成的。他們需要這部分神話來為自己辯護:“這就是為什麼我們需要掌控這項技術,因為這是確保它順利發展的唯一途徑。”Altman曾公開表示,最壞的情況是所有人都玩完,但最好的情況是我們治癒了癌症、解決氣候變化並迎來物質極大豐富。Dario Amodei也是同樣的辭令,聲稱最壞的情況是對人類造成生存性傷害,最好的情況是實現人類的大規模繁榮。這如同硬幣的兩面,他們必須同時利用這兩種敘事,為一種極其反民主的AI開發方式持續辯護,主張這種技術的開發不應有廣泛參與,他們必須在每一步都將其牢牢掌控。主持人:Sam Altman發了一條推文說:“有幾本關於OpenAI和我的書即將出版。我們只參與了其中的兩本。沒有那本書能做到事事精準,尤其是當某些人執意要歪曲事實的時候,但這兩位作者確實在努力嘗試。”你轉推了那條推文並寫道:“那本未點名的書正是我的作品。”你認為Sam Altman那條推文是指向你的書嗎?郝珂靈:100%確定,因為目前只有三本關於他的書即將出版。他知道我的書要出版,因為我從創作伊始就聯絡了OpenAI詢問他們是否願意參與,事實上他們最初也答應了。我與OpenAI的淵源在於,2019年我曾為MIT Technology Review撰寫過該公司的深度報導,在他們辦公室進行了為期三天的嵌入式採訪。我的人物專訪在2020年發佈後,領導層對此非常不滿。在我的書中,我實際引用了一封Sam Altman發給全公司的郵件,他在信中明確表示那篇報導不太妙。從那時起,公司對我的態度就是拒絕參與我做的任何事情,不回應任何採訪請求。整整三年時間,他們都拒絕和我交談。後來我去了Wall Street Journal,因為是頂級大報,他們感到有些被迫重新開啟溝通管道。每當我寫完文章發給他們請求評論或採訪時,我們確實建立了一種更具建設性的關係。後來我離職全職寫這本書,立刻告訴他們希望繼續這種建設性對話,以確保書中能精準反映OpenAI的觀點。他們答應安排採訪,但在我們反覆溝通安排日程時,董事會解僱了Sam Altman。從那時起情況開始惡化,公司對外界的審視變得非常敏感,開始採取拖延戰術。我一直追問重新安排面試的事情,結果收到郵件說他們根本不打算參與了。當時我已經訂好了飛往舊金山的機票,我告訴他們沒關係,我依然會按照流程傳送詳盡的置評請求。我發了40頁的置評請求,給了一個多月的時間讓他們回應。就在我們反覆交涉時,Altman發佈了那條推文。他們從未對那40頁中的任何一頁做出過回應。主持人:Sam Altman上過每一個播客,從Tucker Carlson到Theo Von、Joe Rogan等世界各地的節目。我在想他為什麼不接受我的採訪。我覺得我對每個人都很公平,只問我真正關心的問題,不會帶著很深的成見進來,也不會讓任何人難堪,即使我有不同的意見也是如此。回到你之前提到的關於OpenAI和這些公司控制研究的方式,你問過他們是否對記者也這樣做。顯然他們對任何擁有廣大大眾傳播平台的人都會這麼做。這不僅關乎你與他們的對話,還關乎你選擇讓誰登上你的平台。郝珂靈:確實如此,而且我認為普通大眾並沒有真正理解這一點。科技新聞領域存在一個巨大的問題:公司深知他們能給科技記者的一個巨大誘餌就是准入權。一旦他們察覺到你在和他們不希望你接觸的人交談,他們會毫不猶豫地撤回這種准入權。主持人:AI領域有一個特定的團隊,基本上用准入權作為誘餌吊了我們大約18個月。我的態度是無論有沒有好處,我想跟誰談就跟誰談。如果有機會交流,我會帶著強烈的好奇心請教他們的工作和動機。但他們的全部策略就是永遠在前面掛著一根胡蘿蔔,認為只要用資源誘惑,記者就會表現得客客氣氣,不會提出批評,也不會為批評者提供平台。郝珂靈:這是他們運作機制中非常重要的一部分,利用這些策略來粉飾公司的公眾形象,並確保不利的資訊和觀點不會流傳出去。我現在非常慶幸OpenAI很早就對我關上了大門。當時我並不覺得這是一種幸運,甚至覺得自己把事情搞砸了,反思我是不是應該在人物專訪裡對他們更客氣一點,好讓自己能維持獲取資訊的管道。但作為一名記者,產生這種想法簡直是種恥辱。記者應該報導事實,並且始終為了公眾利益進行報導。那扇正門永遠不會對我敞開,這反而極大地增強了我實話實說的能力。無論公司喜歡與否,我只客觀匯報呈現在我面前的事實。他們不需要為我敞開大門,我依然完成了300多場採訪。主持人:Sam Altman被踢出了OpenAI的執行團隊,你查清楚那是為什麼了嗎?消息來源是誰?郝珂靈:是的,我還原了當時的場景。大約有六到七個人直接參與了決策過程,或者曾與直接參與決策的人交談過。當時Ilya Sutskever看到Altman的行為正導致公司研究成果不佳以及決策失誤,於是他去找了獨立董事Helen Toner傾訴。由於擔心被Altman發現會面臨嚴重後果,Ilya在第一次見面時含糊其辭,試圖摸清情況並判斷對方是否值得信任。確認之後,Ilya主動與Helen交流,瞭解她是否也觀察到了Altman對公司產生的負面影響。隨後,首席技術官Mira Murati與部分董事會成員也進行了溝通。這兩位高管通過彙總的電子郵件、Slack消息等檔案資料,向三位獨立董事傳達了對Altman領導能力的深切擔憂,指出他給公司製造了太多的不穩定性,挑撥團隊互相競爭,破壞了員工之間的信任,導致大家無法為這項重要技術進行有效協作。主持人:你提到“不穩定”,這是一個相當模糊的詞,可能意味著通過施壓讓員工更努力地工作。你所說的不穩定具體是指什麼?請儘可能詳細地說明。郝珂靈:當ChatGPT問世時,OpenAI完全沒有做好準備。他們沒預料到會引起巨大轟動,原以為發佈的只是一個研究預覽版,旨在收集資料啟動飛輪,為日後搭載GPT-4的真正產品提供參考。由於流量遠超預期,伺服器經常崩潰,他們必須以前所未有的速度擴展基礎設施並瘋狂招聘。但擴張過快也導致了決策失誤,公司頻繁裁員,員工經常突然從Slack上消失,同事們只能通過這種方式得知他人離職。那是一個極度混亂的高壓環境。最重要的是,Mira Murati和Ilya Sutskever覺得Altman讓情況變得更糟了,他實際上在播種更多的混亂,讓團隊變得更加分裂。高管和獨立董事們都在建構AGI的理念下運作,他們認為這項技術對人類要麼是毀滅性的要麼是烏托邦式的。在他們看來,絕對不能在如此混亂高壓的環境下,去創造一項足以決定世界成敗的技術。董事們私下討論時也認為,雖然在Instacart這樣的普通初創公司,這些行為未必足以解僱CEO,但OpenAI肩負的使命完全不同,這些問題已經達到了必須撤換他的標準。此外,獨立董事Adam D'Angelo在舊金山參加派對時聽到傳聞,指出OpenAI創業基金的設立方式有些蹊蹺。獨立董事們查閱檔案後震驚地發現,OpenAI創業基金竟然是Altman個人的基金。這些事件讓董事們意識到,Altman對外描繪的願景與實際執行情況之間始終存在著嚴重的不一致。當高管們帶著擔憂找到董事會時,雙方的觀察完全吻合。經過每天密集的會議商討,他們最終得出結論必須罷免Altman。為了防止Altman察覺後利用其極強的說服力扭轉局勢,他們決定必須迅速行動。於是,他們在沒有提前告知任何利益相關者的情況下秘密解僱了Altman。作為OpenAI領投方的Microsoft直到行動前才接到電話通知。這種將所有利益相關方排除在外的做法激怒了所有人,這也直接導致了隨後那場迎回Altman的行動,幾天後他便重新出任CEO。主持人:一家大公司的CEO是如何因為董事會成員而被董事會解僱的。在你的書第357頁有一段引言,你提到Ilya曾說過:“我不認為Sam是那個應該掌控AGI啟動按鈕的人。”現在我也在問自己這個問題。我和這裡的很多人一起工作,我們公司有150名員工,這些人最瞭解我。他們看到鏡頭前的我,也看到鏡頭後的我。如果他們說“我們認為Stephen不適合主持《Diary of a CEO》”,能讓他們說出這種話一定是發生了非同尋常的事情。他們肯定在鏡頭之外見識了一些糟糕的情況才會認為我不適合出現在鏡頭前。而在AI領域,其影響遠比一個播客節目深遠得多。想到一家公司的聯合創始人去找董事會說“他不適合領導這個至關重要的項目”,簡直讓人不寒而慄。而且不僅僅是Ilya,Mira Murati隨後也表示不認為Altman是合適的人選。隨後他們兩人都離開了。接著Altman回歸了,Ilya再也沒有回來。他之前擔心被Altman發現會對自己不利,這種顧慮最終變成了現實。郝珂靈:Mira Murati也在那之後不久離開了。這些人中相當一部分都離開了OpenAI,不是嗎?回顧OpenAI的起源故事,它始於矽谷核心地帶Rosewood Hotel舉行的一場晚宴,那是Elon Musk來灣區時最喜歡的去處之一。Altman打算在那場晚宴上招募最初創立OpenAI的元老團隊,他到處跟人說Musk會來參加。他給Ilya發了冷郵件並成功邀請了他,因為Ilya特別想見Musk。他還給Greg Brockman、Dario Amodei等人發了郵件,這些人最終都去了OpenAI工作。但在與Altman發生衝突後他們幾乎所有人都離開了。Ilya離開後創辦了一家名為Safe Superintelligence的公司。主持人:這真是我聽過最委婉的影射了。如果有人和我共同創辦了這個播客,離開後又創辦了一個名為“安全播客”的節目,我會覺得這是一種輕蔑。郝珂靈:每一位科技億萬富翁都擁有自己的AI公司,這絕非巧合。他們想要按照自己的形象來創造AI,這正是他們一直相處不睦的原因。共事之後他們最終反目成仇,各自獨立建立了自己的組織。Musk離開後創立了xAI,Dario創立了Anthropic,Ilya創辦了Safe Superintelligence,Mira創辦了Thinking Machines Lab。他們希望掌控自己對這項技術的願景,從將願景投入市場的經驗中他們得出的最佳途徑就是建立一個競爭對手,與OpenAI及市面上所有其他公司展開競爭。主持人:你是否認為有些AI公司已經意識到自己簡直就是在“召喚惡魔”(正如Elon Musk十年前所說),但他們其實並不在乎?因為成為召喚惡魔的人會讓你變得舉足輕重、權勢顯赫並名垂青史,那怕有20%的機率會導致可怕的後果。Dario曾說過大約有10%到25%的機率事情會向著人類文明規模的災難性方向發展。25%就是四分之一的機會。如果在只有四個彈巢的左輪手槍裡裝進子彈,說代價是腦袋挨一槍但可能成為億萬富翁並被永遠銘記,我絕不會去冒這個險打這個賭。郝珂靈:這完全取決於如何定義“召喚惡魔”。AI行業利用了一種神話體系,“召喚惡魔”是說服所有人的關鍵環節,旨在讓人相信只有他們才是唯一能開發這項技術的人。這意味著必須由他們來做,且公眾必須給予資金和支援。所以當他們說這些話時,我們應將其理解為一種言語行為,旨在說服他人讓渡更多的權力和資源。這並非基於事實做出的真實預測,因為他們不是在預測未來而是在創造未來。他們是在刻意向公眾營造這種氛圍,這是其權力的核心組成部分。至於他們是否意識到這已經對全球弱勢群體產生了極其嚴重的負面影響,也許有也許沒有,但他們其實並不在乎。我有時用《沙丘》來類比AI世界。故事中保羅·厄崔迪步入了一個早已播種在星球上的神話,他利用救世主降臨的理念來控制民眾。起初他深知這只是個神話,但隨著全身心投入並成為其化身,界限開始模糊,他分不清這究竟是神話還是自己真的是救世主。我認為這正是AI領域正在發生的事情。這些高管在積極進行神話塑造。我掌握的內部檔案顯示,他們非常敏銳地意識到如何通過令人眼花繚亂的技術演示吸引公眾,精心設計完美的使命感讓人們對公司更寬容。他們中的許多人也沉溺於這個神話中,因為他們必須日復一日地體現這個神話。當Dario說有10%到25%的災難機率時,他正積極參與並迷失在神話塑造中。由於需要籌集天文數字的資金來資助AI研究和建設資料中心,他們無時無刻不在融資。你不能一邊籌款一邊說“我有25%的可能性毀掉你孩子的未來”。大腦會產生認知失調,難以同時持有兩種衝突的世界觀。主持人:你認為他們中有人比其他人擁有更強的道德準則嗎?Dario經常被認為更有骨氣,對後果也更有意識。郝珂靈:我認為這個問題並不重要。即使把所有CEO都換成更有道德感的人也無法解決問題。核心問題是我們已經建構起了一套權力體系,這些公司和高管可以做出影響全球數十億人生活的決策,而這數十億人對此沒有任何發言權。這並不是公眾投票選出一位承諾立法的領導人就能解決的。考慮到這些公司運作的速度、節奏以及龐大的體量,他們完全能夠揮霍數億美元試圖扼殺任何阻礙他們的立法,並制定確立自身優勢的法案。作為一個社會我們有時過於執著於討論這些領導人到底是好人還是壞人。更大的問題是我們建立的治理結構是健全且允許廣泛參與的,還是一個將決策權鞏固在少數人手中的反民主結構。沒有人是完美的,無論誰坐在頂層,都沒有能力代表世界上有著不同文化和歷史的大多數人做出絕對正確的決定。這就是為什麼在歷史處理程序中人類從帝國走向了民主。因為帝國作為一種結構本質上是不穩定的,它不能最大限度地讓大多數人過上體面的生活。4.AI技術進步的初衷與未來主持人:說實話我覺得我對很多領域都略知一二。郝珂靈:是的,而且你具備自主學習和獲取知識的能力,也有能力自主選擇學習內容。人類可以在一個地方學會開車然後立刻將能力遷移到另一個地方。目前的AI模型無法做到這一點。每當自動駕駛汽車轉移到新地點時,必須針對該地點進行完全的重新訓練。主持人:但是當一輛自動駕駛汽車或者一台Optimus機器人在工廠裡學習到新東西時,所有的裝置就都學會了。郝珂靈:這僅僅是因為它們共享同一個底層作業系統中的AI模型元件。你在訓練這個AI模型,然後將它部署到了所有裝置上。主持人:想像一下那樣的場景,如果我們人類能夠學習所有其他人類所掌握的知識,那將賦予我們難以置信的競爭優勢。我的意思是,人類實現這一目標的方式之一就是通過溝通。郝珂靈:但實際情況可能並非如此,因為系統可能會學到錯誤的東西。這種情況在現有技術中已經屢見不鮮,所有模型似乎都會學到錯誤的內容,並且擁有相同的失效模式。相比之下,人類社會的韌性部分源於我們擁有不同的專業知識,也擁有不同的失效模式。主持人:我認為有時我們對AI模型的標準甚至比對人類的要求還要高。說起來挺奇怪的,我在奧斯汀的台上經常聽到人們抱怨:“AI模型有時會產生幻覺。”我心想,難道你沒見過人類嗎?我隨時都在產生幻覺,我幾乎不會拼寫,也不會做數學題。郝珂靈:是的,但這更像是在領域初期為了行銷這些技術而專門挑選的類比。我們反覆使用“智能”來類比,並將這些機器與人類智能聯絡起來,試圖以此衡量它在社會中是否良好、有價值或有能力。主持人:但我認為輸出結果才是影響最深遠的東西。即便它擁有一個完全不同的系統,關鍵在於它是否達到了同樣的水平。比如,它能否為大腦進行手術?能否開車?在洛杉磯,我的車就是自動駕駛的,我可以好幾個小時不用碰方向盤。在奧斯汀,我前幾天剛見過取消了方向盤和踏板的全新CyberCab。我覺得它是否使用了不同的系統並不重要,如果它在現實世界中行駛且擁有比人類更高的安全記錄,那麼無論是否具備所謂智能,對我而言都是可以接受的。郝珂靈:但這並不是你最初提出的論點,即這些系統將基於預測,在不同領域普遍變得更加智能。主持人:這也是目前所有AI領域大咖都在做的預測,包括Ilya、Dario、Elon、Zuckerberg、Altman和Demis。郝珂靈:你知道所有這些預測的共同特徵是什麼嗎?他們從這個神話中獲取了巨額利潤。主持人:Elon最近在孟菲斯建造了擁有10萬個GPU的巨型超級電腦Colossus,專門用於比競爭對手更快地擴展其Grok模型。郝珂靈:似乎大家達成了一個共識,即可以通過暴力破解的方式來實現更強大、更通用的智能,並將其出售給人們,用於自動化某些具有豐厚經濟回報的任務。主持人:我聽Elon說過,如果你是一名外科醫生,學習這些根本沒有意義,因為幾年之內,Optimus和AI總體上將比歷史上任何一位外科醫生都要出色。你認為這些預測是真的嗎?郝珂靈:我很確定Hinton曾說過那句名言:未來將不再需要放射科醫生。他當時設定了一個期限,而我們現在已經過了那個期限,放射科作為一個職業目前發展得依然很好。主持人:你認為五年後還會是這樣嗎?郝珂靈:這要回到我們為什麼要開發技術,以及為什麼需要開發AI的問題。對我而言,技術進步的初衷並不是為了發展而發展,而是為了幫助人類。已有大量研究表明,在醫療場景中,對患者最好的結果是讓放射科專家將AI模型作為工具和參考輸入。正是這種結合實現了對某些癌症最準確、最及時的診斷,從而改善了患者的預後。主持人:你是否相信在未來幾年內,路上幾乎所有的車都會實現自動駕駛?郝珂靈:我不這麼認為。主持人:為什麼?郝珂靈:因為這項技術的工作原理是統計性的。目前AI模型的主要開發方式是統計引擎,即所謂的神經網路,這是一種包含大量密集連接節點的軟體,也就是人們常說的參數。你向其中輸入海量資料,它通過分析資料找出所有的相關性和模式,機器正是通過這些模式實現自主運行。在訓練自動駕駛汽車時,研發人員會記錄大量的視訊素材,並僱傭成千上萬的人類外包人員為素材中的每一輛車、每一個行人、每一個紅綠燈和每一條車道線進行手動標註。這些資料輸入AI模型後,模型就能識別這些元件。接著,它被連接到另一個非AI的軟體程序,該程序會發出確定性的指令,比如“識別到行人就不准碰撞”或“識別到紅燈就停車”。統計引擎的特點在於它是基於機率而非確定性邏輯的,因此系統隨時都會出錯。從技術上講,目前根本不可能讓它們完全停止犯錯。主持人:在這種情況下,人類犯錯的機率難道不比系統高嗎?安全記錄顯示,在Tesla自動駕駛模式下行駛的安全性要比人類駕駛員高出10倍。郝珂靈:這取決於具體地點,以及Tesla是否針對該特定區域進行過專門的導航訓練。主持人:但人類會醉駕。如果在孟買或越南的某些地方,難道自動駕駛不會更安全嗎?郝珂靈:在那些地方,我並不認為它會更安全。我更願意由一個一輩子都在當地開車的人來載我。我並不是要反駁在某些經過專門訓練的特定地點,AI的安全記錄確實優於人類。但你問的是全球或全美國的大多數汽車,我認為這並沒有近在咫尺。主持人:那10年內呢?我曾和Uber的Dara聊過,他確信他的900萬名配送員將被自動駕駛車輛取代。郝珂靈:自動駕駛汽車已經研發超過10年了,但目前公路上自動駕駛汽車的比例又是多少呢?它永遠不會達到100%。這在一定程度上已經不再是技術問題,而是社會信任和法律責任的問題。如果自動駕駛汽車撞了人,誰該負責?主持人:在洛杉磯的一個案例中,由於駕駛員低頭撿手機,Tesla和駕駛員都被判定負有責任。就Tesla而言,現在Model Y是全球最暢銷的汽車,而且絕大多數車輛都配備了被稱為“受監督的全自動駕駛”的功能。那仍然只是部分自動駕駛,因為你必須保持關注。而在奧斯汀看到的新款車上,因為沒有方向盤,那是真正的全自動駕駛。5.AI時代的勞工困境我想探討的是,那些聲稱AI將徹底改變交通、法律和會計行業的預測。你認為會出現大規模的失業潮嗎?郝珂靈:我確實認為就業市場將受到巨大的衝擊,我們已經看到了這些影響。這不僅僅是因為AI模型通過自動化取代了這些工作,更是因為開發公司選擇的改進方向。很多時候管理層僅僅因為認為AI可以取代員工就決定裁員,無論模型的能力是否真的達標,他們寧願要一個價格便宜且夠用的模型。有時他們只是在招聘上犯了錯導致團隊搞垮,而AI成了一個非常方便的藉口。比如Klarna的CEO曾解僱了一大批人,以為可以用AI取代所有人,結果行不通又不得不請人回來。我專門就這件事給Sebastian發了私信,他說媒體誤解了他的推文,他們正比以往任何時候都更加倍投入AI。由於AI的應用,Klarna的員工人數正以每月近一百人的速度縮減,從七千四百人的峰值降到了三千人左右。AI處理了他們70%的客服對話,因為軟體的生產成本幾乎降到了零。就像程式碼現在由機器生成一樣,最終我們會為那些獨特的人造成果支付比以往更高的報酬。Klarna作為一家銀行,人們希望與有感情、能引起共鳴甚至帶有瑕疵的人建立聯絡,而不僅僅是機器。因此他們需要在推進AI自動化的同時提供極易獲取的人性化體驗。主持人:你看到Anthropic本周發佈的報告了吧?簡而言之它的內容和你剛才說的很吻合。Anthropic深入研究了人們究竟是如何使用他們的模型的,發現初級職位的數量減少了40%。他們在網上瘋傳的圖表預測,雖然建築和農業等物理世界的實體工作尚未受影響,但行政、金融、數學、法律和醫療保健等領域將首當其衝。包括媒體和藝術領域,這麼看我快徹底完蛋失業了。郝珂靈:顯然他們非常關注助理類和管理類的工作。目前存在兩種二元對立的敘事:一種是AI將取代每一份工作,另一種是AI實際上並不起作用。事實是AI確實正在取代工作。每一波自動化浪潮都會用自動化取代大量入門級工作,同時創造新的崗位。但這些新崗位分為兩類:一類是技能要求和報酬更高的高階職位;另一類則是變得糟糕得多的底層崗位。比如很多行銷人員被解僱後,最終去資料標註公司工作,專門教導AI模型去自動化他們剛剛失去的那個崗位。如果該模型掌握了那項技能,又會導致更多的裁員。這成了一個吸收失業人群的去處,甚至包括好萊塢一些屢獲殊榮的導演也在秘密從事資料標註餬口。這打破了職業晉陞階梯。入門級和中層職位被掏空,取而代之的是極少數的高階職位和大量更低階的職位。階梯上已經沒有橫桿了,人們該如何繼續職業晉陞呢?主持人:我實際上也不知道答案。我一直在拚命為我的觀眾尋找最佳答案。大家聽到了許多不同的說法,比如Jack Dorsey發推文稱因為AI的緣故正將員工人數減半,大家不知道什麼是真實的,也不瞭解其公司內部的經濟狀況,這或許只是為了讓投資者覺得他們是AI公司從而拉升股價的藉口。我自己有數百名團隊成員,投資了大概七十家公司,我也把自己當作招聘負責人。過去一個月裡我遇到過文化契合度非常好的候選人,但我不得不陷入深深的思考。因為當我嘗試讓AI智能體去完成完全相同的工作時,尤其在一個開放的Claude世界中,答案正日益趨向於可以。郝珂靈:現在你面臨這樣一個抉擇:在短期內你完全可以選擇AI智能體,但從長期來看職業晉陞階梯將不復存在。你會提拔什麼樣的人進入高級職位?你是如何在自己的公司裡解決這個問題的?主持人:這是一個好問題。關於這一點,我大概有兩種思考方式。我認為深厚的專業知識非常有價值。如果你現在是潛在的AI Agent編排者,關鍵在於對該問什麼樣的問題有深刻理解,而這正是擁有深厚專業知識的人所具備的。如果我的CFO要負責協調智能體團隊執行財務分析等任務,她需要明白如何指揮它們在公司內開展工作,一名實習財務分析師是做不到的。他們需要像Claire那樣擁有五十多年的豐富經驗。另一方面,我需要像Kaz這樣的人。25歲的日本小夥Kaz對AIAgent瞭如指掌,他好奇心極強,周末都在建構AIAgent來解決生活中的問題。我需要這兩種非常精通的思維方式。一種是代理效能最大化(Agent Maxing),這類人通常是年輕人,他們必須全身心投入且擁有極強的好奇心,這在我的業務中產生了力量倍增器的效應;另一種就是深厚的專業知識。除此之外,我還想到了第三類群體,就是擁有極強線下社交技巧的人。我們在現實生活中確實需要與人見面,比如迎接來訪客、與大客戶共進午餐並進行應酬。我們的團隊有很多線下活動,同時也在全球各地舉辦社區活動,所以我們需要擅長線上下將人們聚集在一起並組織事務的人才。這三類人是我認為目前無法被取代的。郝珂靈:如果那些可以由AI智能體承擔的角色都被取代了,按照目前的軌跡繼續發展下去,你認為是否還能保留這三類角色,以及從中選拔、晉陞人才的儲備庫,以完成長期所需的這三項關鍵任務?主持人:有人斷言即使是那些角色也會感受到壓力。如果你把事物的發展看作指數級的進步,甚至只是10%的複合增長率進步,在某個時刻我認為剩下的實際上是不可替代的人類特質,也就是人與人之間面對面交流的馬斯洛需求。這一點不會改變,我們需要連接。當人類生活中缺乏他人的連接和深厚的關係時,會變得非常痛苦。我有一個不同尋常的觀點,我認為AI可能是第一種能真正兌現承諾、讓我們回歸人性並建立連接的技術。因為除了人類擅長的事情外,我們在其他任何事情上都將變得毫無用處。以往的其他技術曾宣稱要讓我們與世界建立更多連接,結果卻切斷了聯絡,使人們陷入孤立。但也許AI現在已經足夠智能,不再需要我們去折騰電子表格。郝珂靈:你是否看到這一切正即時發生?它是否正讓我們更有能力進行面對面交流,與彼此建立聯絡,並擁有更深層次的社會社區參與?主持人:是的。我會給你提供一些資料點。《金融時報》發佈的一份關於社交媒體使用情況的報告顯示,2022年是巔峰期,此後一直處於平台期,其中下降最快且進入平台期的是年輕一代,而嬰兒潮一代依然活躍。如果你看看Alpha世代使用社交媒體的方式,他們發帖不再頻繁,甚至出現了零發佈(PostingZero)的現象。他們有時刷動態,但更多是待在WhatsApp、Snapchat和iMessage這種暗社交環境中,不再像以前那樣向全世界展示或表演自己。他們也比以往任何一代人都更看重線下體驗,比如跑團(RunClub)正在全球範圍內爆發式增長。這幾乎反映出人們內心深處察覺到技術在某些根本層面上讓我們失望了。我們正在目睹社會可能出現的兩極分化,許多人正趨向於回歸作為人類最本真的樣子。我可以想像在這樣一個世界裡,智能已經進化到極高的程度,以至於我們不再需要坐在筆記型電腦前,螢幕使用時間將會持續下降。當走進辦公室時,你看到的將不再是圍坐在電腦前的人們,而是完全不同的場景。另外,馬斯克說未來將會產生100億個Optimus機器人。他在時間預測上出過錯,但在重大事項上幾乎從未徹底錯過。我已經請了一些來自波士頓動力以及ScaleAI等公司的專業人士來展示機器人疊衣服和洗碗等技能。我認為工廠的大量體力勞動將發生徹底改變,我們將被迫去做那些只有人類才能做的事情。剛才Klarna的首席執行長Sebastian給我打來電話,分享了他們業務和AI Agent的最新進展。他提到,他們很早就利用AI支援客戶服務,不僅處理了更多通話,速度和質量也得到了客戶的認可。他們相信在一個AI廉價且普及的世界裡,人類互動的價值會更高,因此客戶服務的VIP體驗將由真人提供。在公司內部,他們通過AI實現了效率提升,避免了裁員,而是通過自然流失將人員規模從6000人縮減到不到3000人,同時營收卻翻了一番。去年年底更是出現了重大突破,許多頂尖工程師認為程式設計問題已經被解決,人們不再需要親自編寫程式碼了。當被問及這些被解放出來的人都去幹什麼時,他表示長遠來看,他對於AI對社會和人類的積極意義持樂觀態度,認為我們將邁向一個更富裕的社會。聽了這些,你有什麼想法嗎?郝珂靈:其實在他打電話過來之前,我對你剛才說的話確實有一些想法。你提到Z世代有這樣一種趨勢,他們正在脫離技術,變得更加注重面對面交流;而另一類工作者實際上在擁抱技術,正因為擁抱了技術反而變得更具人性,因為他們意識到應該把更多時間花在面對面的人際互動上,而不是盯著螢幕。但我真的很想回到剛發表的那篇《紐約雜誌》的文章上。你所描述的情況只適用於一類非常特定的人群,通常是公司內部的業務所有者和領導層,他們可以決定如何分配和利用時間。但這篇文章探討的是工人階級,那些非業務所有者的普通人經歷了裁員後,被迫轉投資料標註行業。順便一提,資料標註現在是LinkedIn上增長最快的十大職位之一。資料標註就是教這些AI系統實現它們最終展現出的功能,比如向大語言模型輸入提示詞並示範該如何回答,在完成這些訓練之前,ChatGPT並不存在。這就是強化學習過程的一部分。《紐約雜誌》的文章強調,許多被裁員或正在艱難找工作的人,包括大學畢業生、博士、律師、醫生甚至屢獲殊榮的導演,由於經濟已被AI深度重構,他們很難在體系中找到新工作,只能服務於這個設計得極其不人道的行業。OpenAI、Grok和Google等公司會僱傭第三方資料標註公司,而這些第三方公司為了以最低成本和最快速度完成任務,就有動力讓工人之間相互競爭。接受採訪的工人都表示,他們實際上已經失去了作為人的能力。他們只能守在筆記型電腦前等待Slack上的任務提醒,因為這是他們養家餬口的唯一生計。一位女性提到,她對項目起止時間感到極其焦慮,當任務窗口期剛好在孩子放學回家時,她必須瘋狂刷任務賺錢,甚至因為孩子分散了注意力而大吼大叫。她覺得自己變成了怪物,連上廁所或照顧自己都不被允許。這個不斷吸納被裁員工的行業,正在將他們的生活機械化、工作原子化,貶低他們的專業知識,並收割成果來維持這台機器的運轉。然而所有AI高管卻在宣稱,這台機器將取代其他所有人的工作。所以正如你提到的,那些因為AI處理了繁雜任務而變得“更像人”的企業主們,實際上是以絕大多數正在掙扎求生的普通人的利益為代價的。這些普通人被吸納進為企業主提供技術支援的工作中,他們不僅沒有變得更具人性,反而覺得本人的人性被擠壓和削弱了,在生活中喪失了自主權和尊嚴。主持人:我認為這是一個重大問題。如果我們相信Anthropic對行業顛覆的預測,藝術、媒體、法律、生命與社會科學、建築、工程、電腦、數學、商業金融以及行政管理等領域的人員,都將不得不重新接受技能培訓。與工業革命有十幾二十年的緩衝期不同,AI建立在開放的網際網路之上,這使得ChatGPT能迅速獲得數億使用者並成為史上增長最快的公司。我擔心這種顛覆發生的速度快到讓我們根本無法完成轉型。郝珂靈:但誰在推動這種速度?是那些公司,以及它們彼此之間的競爭。它們正在推動這種轉變以極快的速度發生,在這種速度下很難照顧到所有被其碾壓的人。這是最瘋狂的問題之一。當我與這些AI公司的首席執行長們坐在一起時,沒有人能回答我的問題。我會問:“如果這一切真的以超高速發生,那麼人類將會怎樣?”主持人:我曾與一些企業的CEO交流過,比如Uber的Dara也表達過類似的看法。他認為未來會產生一些諸如資料標註的工作,可以提供給司機們。但問題在於,不可能所有人都去從事資料標註,這還涉及人生意義、目標和成就感缺失的問題。是的,很多人在失去原有工作後,自尊心會遭受沉重打擊。我曾聽過許多案例,比如一些人在家鄉原本是醫生,來到美國後卻只能從事廁所清潔工等工作,這種社會地位的巨大落差往往會引發抑鬱和酗酒問題。如果這種現像在全社會大規模發生,後果將不堪設想。郝珂靈:這也是我一直批評這些AI公司的原因。他們創造技術的方式,正在以前所未有的極端形式製造“擁有者”與“缺失者”之間的鴻溝,加劇了世界的不平等。擁有資源的人將積累更多財富,擁有更多閒暇,活得更像一個“人”;而沒有資源的人則受到更嚴重的擠壓。主持人:這種擠壓似乎不僅僅體現在工作層面?郝珂靈:沒錯,我在書中也談到了環境和公共衛生危機。這些公司在選址建造龐大的超級電腦設施時,往往專門挑選最脆弱的社區。例如,OpenAI正在德克薩斯州阿比林建設大型資料中心,這是Stargate計畫的一部分,該計畫耗資5000億美元。建成後,其耗電量將超過1吉瓦(GW)。主持人:我看到網上有一些關於這類設施規模的討論。郝珂靈:有些資料需要更新。比如Meta在路易斯安那州建設的超級電腦設施,規模將是阿比林基地的四倍,面積相當於曼哈頓島的五分之一,電力消耗將達到紐約市平均需求的一半。當這些設施進入社區,會導致公用事業用電增加、電網可靠性下降。此外,設施運行和冷卻需要大量淡水,這讓本就缺水的社區處境更加艱難。在田納西州的孟菲斯,馬斯克為訓練Grok建造了Colossus超級電腦,使用了35台甲烷燃氣輪機供電。當地居民甚至在自家客廳就能聞到煤氣味,他們的空氣權益正被剝奪。主持人:聽起來,那些被歸類為“無產者”的人,處境會變得糟糕得多。郝珂靈:是的。在矽谷描繪的願景中,這些人從事的資料標註工作,實際上是被當作機器而非人類來搾取價值。他們不僅面臨職業被顛覆的風險,還要承受生活成本上升、空氣污染和資源競爭。這如何能讓人類變得更具人性呢?6.探尋出路:打破壟斷與AI的自行車路線主持人:那我們應該如何應對這種情況?郝珂靈:我常把AI比作“交通運輸”。交通工具涵蓋了從自行車到火箭的所有類型。如果我們為了從A點到B點而動用火箭,資源投入顯然是失衡的。目前的主流AI模型就像是“火箭”,能耗驚人且開發成本極高。我們為什麼不製造更多AI領域的“自行車”呢?比如DeepMind的AlphaFold,它通過小型且精選的資料集預測蛋白質折疊,對藥物研發意義重大,並獲得了諾貝爾獎。這種系統所需的計算資源和能效要低得多,卻能為人類帶來巨大益處。主持人:但現在感覺大勢已定,這些公司已經利用大量資料完成了初期訓練。郝珂靈:如果真的塵埃落定,他們就不需要持續訓練了。事實是,為了讓技術保持相關性,他們需要周而復始地進行訓練。這就是為什麼隨著時間推移,他們僱用的資料標註工人反而越來越多。他們相信可以靠暴力破解(Brute force scaling)的方法,通過堆砌資料、計算能力和能源來提升模型。我報導資料標註工作已經超過七年了,而且這一需求並沒有減少,反而增加了。主持人:你認為它有任何下降的可能性嗎?你認為這種利用資料、計算能力、能源以及資料標註員來為模型建構越來越多參數的暴力縮放(brute force scaling)方法,有沒有可能停止,或者轉向與現狀不同的方向?郝珂靈:我很想換個角度來重新審視這個問題,並思考在熱度並未降溫的當下,我們應該做些什麼。在這個我們確實意識到這些公司目前需要持續的資源輸入以及勞動力來延續其業務的時刻,我們能做什麼?停止這個詞聽起來很生硬,因為現任政府和全球範圍都在大力支援這些公司。我總是說我們需要打破這個帝國,開發替代方案。目前我們已經看到令人驚嘆的草根運動正在蓬勃發展,它們正對這個帝國推行其議程的方式施加巨大的壓力。最近的民意調查顯示,80%的美國人認為AI行業需要受到監管。主持人:是的,我看到了。郝珂靈:所以全美甚至世界各地都已經爆發了數十起針對資料中心的抗議活動。人們正在採取行動,重申自己的主體性,並針對這些帝國經營業務的方式行使民主抗爭權。主持人:那我們應該瞄準什麼樣的目標?如果我對觀眾說話,因為我在評論區看到了一種絕望感,他們會覺得我只是個普通人,我能做什麼呢?郝珂靈:我們的目標並不是要徹底擺脫這項技術,而是要求這些公司停止擴張成帝國。我定義的普通企業與帝國之間的區別在於,帝國的立足點是它們認為不需要與員工、使用者以及供應鏈中的所有人進行公平的價值交換。它們不斷地搾取和剝削,獲取遠超其所提供價值的收益。而典型的商業模式存在公平交換,你購買服務會覺得獲得的價值與支付的金額是對等的。但對於資料標註工人來說,他們完全不覺得公司支付的報酬能體現出他們提供的價值。所以指路明燈就是當這些公司以帝國主義方式運作時,我們應該予以反擊並追究其責任。這就是我們現在看到的,人們走上街頭抗議資料中心,產生了巨大的影響,甚至讓一些項目停滯或被完全禁止建設。我們看到藝術家和作家正在起訴這些公司侵犯智慧財產權,這引發了一場關於如何保護智慧財產權的大規模公眾討論。三周前我見到了Sewall Setser III的母親Meghan Garcia。Sewall是一名14歲的少年,他在被Character AI聊天機器人進行性誘導後自殺身亡。她對兒子的遭遇感到悲痛,並決定採取行動起訴這些公司。這引發了許多有著類似經歷的家庭紛紛提起訴訟,也引發了巨大的公眾討論,探討這些公司的剝削行為對世界各地人們包括兒童造成了怎樣的代價。主持人:那麼你認為我的觀眾如果完全同意你書中的觀點,不想讓每個人都變成資料標註員,他們實際上能做些什麼呢?郝珂靈:當我寫這本書時,當時的輿論只認為這是自切片面包問世以來最棒的事情。但現在有80%的美國人希望監管這個行業。我想對大家說,思考一下你的生活與AI行業維持運作所需資源以及部署空間交織的所有方式。你是這些公司的資料捐贈者,你可以拒絕提供資料,就像藝術家和作家正在做的那樣,試圖建立機制扣留資料。你身邊可能正在建設資料中心,如果你在學校或公司,可能正在討論AI採用政策。我剛和一些OpenAI員工聊過,他們公司內部清楚營收目標高得離譜,需要一切進展完美才能實現,需要每個人和每個空間都採用這項技術,需要按預想速度建造資料中心。所以我想對觀眾說,如果我們不同意他們的所作所為,就別讓這一切進展得那麼順利。主持人:我明白了。郝珂靈:然後讓我們來建構替代方案。我並不是說這些技術沒有用處,而是目前專門為了支援這些技術生產而形成的政治經濟體系正在對人類造成巨大傷害。研究表明同樣的能力完全可以通過資源消耗少得多的高效方法開發出來。我們手頭還有許多其他AI系統,它們能以極低成本提供巨大益處。讓我們打破帝國壟斷,開闢出讓所有人廣泛受益的AI發展新路徑。主持人:作為一名CEO、創始人和熱愛技術的人,我常常要在腦海中處理對立的觀點。我認為AI絕對令人驚嘆,它賦予我創造的能力簡直太不可思議了,它能讓我在早上開車時感覺更安全。那十幾億使用ChatGPT等AI工具的人可能會說這為他們的生活增加了價值,我也會投資大量使用AI的公司。但是,我們是否可能在認同其價值的同時,也認為存在重大的意外後果?技術及其發展史本應教會我們停下來討論這些後果。這兩個觀念可以同時存在於腦海中。郝珂靈:是的,我想說這種張力不一定是衝突。我們實際上可以在保留技術益處的同時,以不同的方式開發和設計它們,從而避免意外後果。主持人:這需要一場廣泛的社會討論,這也是我在這檔節目中進行這麼多AI對話的原因,我們需要關注社會和環境影響。這場對話並沒有在政府層面展開,而是發生在行業內部。在過去的幾個月裡,我們一直致力於就這一主題啟發人們的思想。郝珂靈:實際上這在行業之外的各個地方都在發生。地方和州級政府已經有了大量討論。我一直在進行新書巡迴宣傳,去了全球幾十個城市,到處都有人在進行這些至關重要的對話。每場都爆滿,每個人都在糾結同樣的問題。主持人:說到現場爆滿,我知道你等下還有一場演講,所以我們進入本播客的結束傳統問題:你對一位患有絕症的朋友給出的建議,與你自己的做法會有什麼不同?郝珂靈:這是一個非常好的問題。我會告訴他們去享受生活,為自己而活,放輕鬆點。主持人:但你不會這麼做的。郝珂靈:是的,我沒法放輕鬆。主持人:我認為你不放輕鬆是一件好事,因為你正在引領一場至關重要的對話。由於演算法和資訊繭房效應,如今能進行這樣長篇的對話非常罕見且重要。你的新書《Dreams and Nightmares in Sam Alt》推薦給所有對此好奇的人。今天我學到了很多。通過你書中廣泛且客觀的視角、深入的研究,你揭開了故事背後的真相。你顯然將人類利益視為北極星,請繼續戰鬥下去。正是你這樣的人在激勵全世界採取集體行動。強烈建議大家讀一讀這本書,Karen,謝謝你。郝珂靈:非常感謝,Steven。 (劃重點KeyPoints)
太害怕AI,有人差點把Sam Altman的家炸了
OpenAI首席執行長住宅遭襲擊,Altman警告AI焦慮情緒正使局勢趨於危險。4月10日,OpenAI首席執行長Altman發表博文,稱隔夜凌晨3時45分,一名20歲男子向其舊金山住宅投擲裝有可燃物的瓶子。隨後該男子被警方逮捕,據舊金山警方記錄,該名男子還威脅要焚燒OpenAI總部。Altman表示已在深夜中驚醒,"感到憤怒",Altman將此事與公眾對AI日益高漲的焦慮情緒相聯絡,直言此前低估了輿論敘事的影響力。Altman提到的輿論,似乎指的是《紐約客》上的一篇長文,該文章質疑Altman“是否值得信任”。01. 襲擊經過:裝有可燃物的瓶子擊中外牆,嫌疑人隨後威脅OpenAI總部據舊金山警方及消防部門,當地時間凌晨近4時,消防人員接報趕赴Chestnut街與Jones街附近一處住所,發現大門外側已出現明火,但安保人員在消防員到場前已將火勢撲滅,無人受傷。消防人員其後在現場發現疑似燃燒裝置的遺留物,隨即通報警方。當局表示,嫌疑人在第一響應人員抵達前已逃離現場。約一小時後,警方接報在Mission Bay第三街1400街區附近一棟建築外發現一名男子正發出威脅言論。該地址正是OpenAI總部所在地。在場警員辨認出該男子即為早前襲擊事件的嫌疑人,將其當場拘押。監獄記錄顯示,該名嫌疑人被確認為Daniel Alejandro Moreno-Gama,被以涉嫌謀殺未遂、發出刑事威脅及持有或製造破壞性裝置等罪名收押。截至周五下午,檢察官尚未提起正式指控,警方亦未宣佈任何犯罪動機。OpenAI的辦公室過去曾多次遭受攻擊。據報導,去年11月,一名男子威脅要前往OpenAI在舊金山的幾處辦公室“殺人”,導致該公司總部進入封鎖狀態。今年,抗議者也經常在位於舊金山OpenAI的辦公樓外舉行示威活動。OpenAI公司發言人Jamie Radice在周五襲擊事件後稱:我們對舊金山警察局的迅速響應以及市府在保障員工安全方面的支援深表感謝,涉事人員目前已被羈押。02.《紐約客》萬字調查引爆輿論,Altman被指"習慣性欺騙"《紐約客》歷時數月、採訪逾百人寫就長篇調查報導。報導重點質疑Altman的領導風格、可信度、OpenAI從“安全優先”轉向“高速競賽”的轉變,以及他個人是否值得信任。報導援引多名前高管的記錄與證詞,闡述Altman曾向兩位不同的人許諾同一個職位,在安全審批問題上向董事會提供誤導性資訊,並在GPT-4上線前隱瞞微軟在印度未完成安全審查便提前部署的事實。聯合創始人之一、現Anthropic CEO Dario Amodei在其私人筆記中寫道:OpenAI的問題就是Sam本人。在一次董事會對峙中,面對"撒謊"的指控,Altman據稱回應:這太荒謬了……我改變不了我的性格。報導引述一名董事會成員的解讀:這句話的意思是:'我有說謊的習慣,而且我不會停止。'03. Altman發文稱,低估了輿論敘事的力量周五深夜,Altman在個人部落格上分享了一張他丈夫和孩子的照片,他寫道:希望這能阻止下一個向我家投擲燃燒物的人,不管他們怎麼看待我。Altman在其博文中表示,事發數天前曾有一篇涉及他本人的"煽動性文章"發佈。有人曾提醒他,這篇文章出現在公眾對AI高度焦慮的時期,可能令他面臨更大風險,但他當時並未放在心上。他寫道:現在我在深夜中清醒著,憤怒不已,開始反思自己此前低估了輿論敘事的力量。Altman在博文中亦承認,外界對人工智慧的恐懼與焦慮"有其合理性",並稱"我們正在目睹的,是社會長久以來乃至有史以來最大規模的變革"。他呼籲各方在辯論過程中降低對立情緒,"減少無論是字面意義還是比喻意義上的爆炸"。Altman本人作為全球最具影響力的AI企業掌舵者之一,長期處於輿論聚焦中心,其公司OpenAI亦在商業化擴張、安全監管及行業競爭等多條戰線上承受持續審視。Altman博文全文如下(AI輔助翻譯):這是我家人的照片。我愛他們勝過一切。我希望照片本身能成為一種力量。我們平時儘量保持低調,但這次我選擇公開這張照片,是希望它能阻止下一個朝我家扔燃燒物的人——無論對方對我懷有怎樣的看法。第一起事件發生在昨天凌晨3點45分。幸好燃燒物從房子上彈開了,沒有人受傷。語言同樣擁有力量。幾天前,有一篇關於我的煽動性文章。昨天有人對我說,這篇文章發表在人們對AI極度焦慮的時期,可能會讓我陷入更危險的境地。當時我沒太在意。現在我半夜醒來,心裡滿是憤怒——我意識到,自己低估了語言和敘事的力量。看來,是時候認真談談一些事情了。首先,談談我的立場。我相信,為所有人創造繁榮、賦予人們力量、推動科技進步,是我義不容辭的道德責任。人工智慧是人類能力與潛能拓展史上最強大的工具。人們對它的需求幾乎無窮無盡,也將用它創造出無數奇蹟。世界需要大量AI,我們必須找到實現這一目標的路徑。當然,一切不會一帆風順。人們對AI的恐懼和焦慮並非沒有根據——我們正在經歷社會多年來、甚至可能是歷史上最大規模的變革。我們必須確保安全,而這不僅僅是模型微調的問題。我們需要全社會共同應對,抵禦新的挑戰。這包括制定新政策,幫助我們度過艱難的經濟轉型期,最終邁向更美好的未來。AI必須民主化,權力不能過度集中。未來的控制權屬於所有人及其機構。AI需要賦能個體,我們需要共同決定未來的走向和規則。我不認為少數幾個AI實驗室有資格單獨決定人類的未來。適應能力至關重要。我們都在快速學習新事物——有些信念是對的,有些是錯的。隨著技術發展和社會演變,我們有時需要迅速調整想法。目前還沒有人完全理解超級智能的全部影響,但可以肯定的是,它將是巨大的。其次,分享一些個人感受。回顧我在OpenAI第一個十年裡的工作,我有許多值得驕傲的成就,也犯了不少錯誤。我想起了當年與埃隆·馬斯克的那場關鍵對峙。我當時堅持原則,拒絕了他想要單方面控制OpenAI的企圖。我為此感到自豪,也為我們後來走過的艱難道路、以及取得的所有成就感到驕傲。我不為自己迴避衝突的性格感到自豪——這給我和OpenAI都帶來了不小的痛苦。我也不為自己在與前任董事會的衝突中處理不當而感到驕傲,那次事件給公司造成了巨大的混亂。在OpenAI這段瘋狂的發展歷程中,我犯過許多其他錯誤。我只是一個身處極端複雜局面中心、自身存在缺陷的人,努力每年進步一點點,始終為公司的使命而奮鬥。從一開始,我們就知道AI的利害關係有多重大,也知道我身邊那些出於善意的人之間的分歧會被無限放大。但真正經歷這些痛苦的衝突、並且常常不得不去調解,又是另一回事——代價非常慘重。我向那些被我傷害過的人道歉,也希望自己能更快地從教訓中成長。我也清楚,OpenAI現在是一個大型平台,而不是一家初創公司。我們需要以更可預測的方式運作。過去的幾年極其緊張、混亂且壓力巨大。但最讓我自豪的是,我們正在實現當初那個看似天方夜譚的使命。我們克服重重困難,成功打造了強大的AI,籌集到足夠的資金建設基礎設施,建立了產品公司和商業模式,並大規模提供了安全可靠的服務。很多公司都聲稱要改變世界——而我們做到了。第三,談談對這個行業的一些思考。過去幾年,我個人有一個深刻的體會。關於我們這個領域各公司之間為何會出現如此多莎士比亞式的戲劇性衝突,我的結論可以歸結為一句話:“一旦你看到了AGI,就再也無法視而不見。”它確實有一種“魔戒”般的魔力,會驅使人們做出瘋狂的事情。我不是說AGI本身就是那枚魔戒,而是“掌控AGI”這個絕對化的理念。我能想到的唯一解決方案,就是讓這項技術廣泛普及,不讓任何人擁有那枚戒指。實現這一目標有兩個顯而易見的路徑:賦予個人權力,以及確保民主制度繼續有效運作。民主處理程序必須保持比企業更強大的力量——這一點至關重要。法律和規範會改變,但我們必須遵循民主處理程序,即使它比我們期望的更混亂、更緩慢。我們希望擁有發言權和參與權,但並不想掌握全部權力。很多對我們行業的批評,根源在於人們對這項技術巨大風險的真切擔憂。這種擔憂完全合理,我們也歡迎善意的批評和討論。我理解人們對技術的牴觸情緒——顯然,技術並非總是對每個人都有益。但總的來說,我相信技術進步能為你的家人和我的家庭創造一個無比美好的未來。在我們進行這場辯論的同時,我們應該緩和言辭、調整策略,努力減少家庭內部的衝突——無論是比喻意義上的,還是字面意義上的。 (華爾街見聞)
突發,奧特曼家被炸了
奧特曼家被炸了簡單關注一下OpenAI的CEO奧特曼家裡被襲擊的消息。一名嫌疑人因涉嫌向奧特曼住所投擲燃燒瓶並威脅OpenAI總部,被警方拘留。OpenAI內部備忘錄顯示,當地時間凌晨約3點45分,該人接近奧特曼位於舊金山的住所,並向其投擲燃燒裝置。該裝置落在附近並自行熄滅,僅造成輕微損壞。不久之後,一名與嫌疑人描述相符的人出現在OpenAI總部附近,並對大樓發表威脅言論,隨後被舊金山警察局拘留。舊金山警察局發言人稱,警方在凌晨約4點12分接到火情調查報警。到達現場後,警員瞭解到,一名不明身份男性向一處住宅投擲了燃燒性破壞裝置,導致外部門起火。嫌疑人隨後徒步逃離。約在凌晨5點07分,警方又接到報警稱,在第三街1400號路段(靠近OpenAI總部)一名20歲男子威脅要焚燬一棟建築。警方表示:“當警員到達現場時,認出該男子正是此前事件的嫌疑人,並立即將其拘留。”OpenAI表示無人受傷,公司在舊金山的所有辦公室週五正常開放,同時加強了警力和安保部署。Altman在部落格中再次表示,希望公開家庭照片能“阻止下一個人做出類似行為”。他強調,圍繞AI的爭論不應演變為暴力:“我們應該降低言辭和行動的激烈程度,讓‘爆炸’——無論是字面還是比喻意義上的——都更少發生。”他寫道:“我們通常儘量保持低調,但這一次我分享這張照片,希望能讓下一個想向我們家投擲燃燒瓶的人三思,不論他們對我有何看法。”去年2月,警方曾逮捕5名在公司入口靜坐抗議,並拒絕離開的示威者。他們屬於“Stop AI”組織,該組織認為人工智慧對人類構成生存威脅。該組織發言人表示,沒有理由認為此次事件的嫌疑人與其有關,並強調:“Stop AI致力於保護人類生命,我們不支援任何形式的暴力。”OpenAI正籌備一項大規模首次公開募股(IPO)。此前在今年2月宣佈與美國國防部達成合作後,公司舊金山辦公室外曾爆發抗議活動。其他團體也因AI發展過快、就業流失。以及環境影響等問題發起抗議。在博文中,Altman還回應了外界對其在OpenAI領導方式的質疑,包括與前董事會成員的衝突,以及對人工智慧潛在社會風險的擔憂。他表示:“很多對我們行業的批評源於對這項高風險技術的真誠擔憂。這是合理的,我們歡迎善意的批評與討論。”他還寫道:“我理解‘反科技’情緒,而且技術確實並非對所有人都有益。但總體而言,我相信技術進步可以讓未來變得難以置信地美好,無論是對你的家庭還是我的家庭。” (中國基金報)
馬斯克被調查,震驚行業!
一場真正的權力遊戲。2026年4月6日,OpenAI給加州和德拉瓦州總檢察長寫了封信。信不長,但份量很重,OpenAI要求調查馬斯克,指控他搞“不正當競爭”。馬斯克OpenAI的聯合創始人,現在卻成了這家公司最激烈的批評者,雙方的官司已經打了快兩年,4月27日就要開庭。這時候OpenAI突然出招,把監管拉進場。2015年,馬斯克和奧特曼等人一起創立了OpenAI。那時候的口號很響亮:為了全人類利益開發AI。作為非營利組織,它帶著濃厚的理想主義色彩。但AI研發太燒錢了。訓練大模型需要天量算力,需要頂尖人才,需要持續不斷的投入。理想不能當飯吃。2018年,馬斯克退出董事會。原因眾說紛紜,有人說他擔心利益衝突,有人說他想自己幹。第二年,OpenAI成立了營利部門,微軟投了10億美元。轉折點就這樣來了。2023年,馬斯克創辦xAI,成了直接競爭對手。2024年,他起訴OpenAI和奧特曼,指控很嚴重:背叛初心,欺騙創始人。馬斯克說,OpenAI從非營利變成營利公司,違背了創始承諾。他要求的賠償金額驚人,最高達1340億美元。OpenAI怎麼回應?他們說這是“騷擾式訴訟”,認為馬斯克想用法律手段拖垮競爭對手。核心矛盾是什麼?還是錢。OpenAI需要錢,需要很多錢。AI研發不是小打小鬧,GPT模型訓練一次就要幾千萬美元,基礎設施投入更是天文數字。非營利模式撐不住了。2025年10月,OpenAI完成重組。非營利組織改名為OpenAI Foundation,繼續控制營利業務,而營利業務變成了公共利益公司。這個重組不簡單。加州和德拉瓦州總檢察長都審過,兩家監管機構點頭了,OpenAI才能這麼改。監管給了綠燈,馬斯克現在卻要闖紅燈。OpenAI在信裡說,馬斯克索賠超過1000億美元。這個數字比OpenAI非營利基金會的資產還多,如果判賠,基金會會直接癱瘓。OpenAI認為,馬斯克想用法律手段消滅競爭對手。值得注意的是,這裡有個關鍵點。OpenAI的重組是監管批准的。加州總檢察長辦公室明確表示,他們審了很久,OpenAI也做出了承諾:包括慈善資產用途、安全優先、公司留在加州。監管已經形成了處理結果。可馬斯克現在挑戰這個結果,他不只針對OpenAI,也在挑戰監管的權威。OpenAI看得很清楚,所以他們把監管拉回來。信裡說得很直白:馬斯克的行為可能破壞兩州與OpenAI達成的協議。理清事實之後,可以看出馬斯克打的是道德牌:你們背叛了理想。OpenAI打的是合規牌:我們按監管要求辦事,你在破壞規則。誰更有道理?從理想主義角度看,OpenAI確實變了。從現實角度看,不變就活不下去。還有祖克柏也捲進來了,OpenAI指控馬斯克和祖克柏“協同行動”。2025年初,馬斯克牽頭財團提出974億美元收購OpenAI,他試圖拉祖克柏入夥。祖克柏沒答應,但雙方有過接觸。這意味著全球最富有的幾個人,正在AI領域暗中角力。OpenAI全球事務負責人克里斯·萊哈尼說得很直接:為什麼全球前四的兩位最富有、最有權勢的人,要試圖阻撓一家非營利機構的發展?答案可能很簡單:控制權。誰控制AI,誰就控制未來。馬斯克和祖克柏都明白這個道理。OpenAI現在是領頭羊,如果能影響甚至控制OpenAI,就能影響AI的發展方向。我們可以跳出具體事件,看看大趨勢。如今AI公司正在變成新的權力中心。它們掌握核心技術,影響經濟和社會。政府必須管,但又不能管死。這是個微妙的平衡。OpenAI和馬斯克的官司,表面是私人恩怨,深層是AI治理的預演。誰來定義“負責任AI”?誰來監督AI發展?馬斯克代表一種聲音:堅守初心,警惕商業化。OpenAI代表另一種聲音:適應現實,在合規框架下發展。兩種聲音都有道理,也都可能被利益驅動。馬斯克有xAI,OpenAI有微軟,背後都是商業利益。理想主義的外衣下,是赤裸裸的商業競爭。4月27日開庭,結果難料。但不管官司輸贏,有些東西已經改變了。第一,AI行業的透明度要求會更高。OpenAI的重組細節被公開討論,其他AI公司也會面臨類似的 scrutiny。第二,監管介入會更深。加州和德拉瓦州總檢察長已經介入,其他監管機構可能跟進。第三,資本會更謹慎。天價索賠讓投資人緊張,他們會更關注法律風險。馬斯克和OpenAI的衝突只是開始,更大的挑戰還在後面。我們都在見證歷史,AI如何改變世界,世界如何回應AI。這場大戲剛剛拉開帷幕,拭目以待吧。 (正商參閱)
奧特曼住所遭燃燒彈襲擊,嫌疑人揚言燒燬OpenAI總部/曝DeepSeek V4本月下旬發佈/AI能力將成教師「必考項」
🤖阿里認領屠榜神秘模型「歡樂馬」,ATH 鄭波團隊打造🤯山姆·奧特曼住所遭燃燒彈襲擊、OpenAI 總部遭威脅🧠梁文鋒內部透露:DeepSeek V4 將於 4 月下旬正式亮相🌚「龍蝦之父」Claude 帳號被封又解封,官方:系統誤判📋AI 能力將成教師「必考項」📱億咖通科技官宣正式承接 Flyme OS 全業務💻蘋果 Mac 一季度出貨量增長 9%,增速領跑全球 PC 市場📲微信官宣九項新功能:公眾號上線「話題」功能,跨裝置傳檔案無需加好友💰追覓俞浩:要把宇樹的一切全部搶過來🦿集邦諮詢:今年中國人形機器人產量預計年增 94%,宇樹、智元合計佔八成份額🔍小米 7 篇論文入選 ACL 2026:推理快 8 倍、80 頁合同秒讀🚀生數科技完成近 20 億元 B 輪融資,阿里雲領投🛑無償轉讓失敗,360doc 個人圖書館宣佈 5 月 1 日關停💡Arm CEO:AI 自研晶片潛在市場超 1000 億美元,可觸達總市場或破兆🚗限時 19.39 萬元起,煥新極氪 007GT 正式上市🚙華為 Pura 90 定檔 4 月 20 日💻盧偉冰官宣 REDMI Book Pro 2026,本月發佈🚗小鵬 x 福耀量產 AI 調光隱私玻璃,GX 首發搭載📰 周末也值得一看的新聞阿里認領屠榜神秘模型「歡樂馬」,ATH 鄭波團隊打造昨天,阿里巴巴 ATH 確認神秘屠榜視訊模型 HappyHorse 為旗下創新事業部研發。此前,該模型在 AI 評測平台 Artificial Analysis 視訊競技場榜單上橫空出世、以壓倒性表現登頂文生視訊、圖生視訊等多個賽道,直接超越近期熱度頗高的字節 Seedance 2.0,引發廣泛猜測。APPSO 獨家獲悉,負責 HappyHorse 視訊生成模型的是來自阿里 ATH 的鄭波團隊。鄭波現任阿里巴巴副總裁,2017 年 9 月加入阿里巴巴後歷任淘寶搜推演算法負責人、阿里媽媽 CTO、淘天集團演算法技術負責人,研究方向涵蓋大模型、多模態、決策智能、深度學習及搜尋推薦廣告演算法等領域。阿里方面表示,HappyHorse 目前仍處於內測階段,API 介面計畫於 4 月 30 日開放。該模型支援四種視訊生成模式:文字轉視訊與圖像轉視訊,每種模式均可選擇是否加入原生音訊。ATH 創新事業部同時透露,已啟動一項面向 AI 時代全新互動方式的探索計畫,HappyHorse 是該方向的組成部分,後續還將陸續推出更多產品。阿里方面同時提示,此前網路上流傳的「官網」均非官方管道。山姆·奧特曼住所遭燃燒彈襲擊、OpenAI 總部遭威脅據 CNBC、BBC 報導,當地時間 4 月 10 日凌晨 4 時 12 分,一名男子向 OpenAI CEO 薩姆·奧特曼(Sam Altman)位於北海灘(North Beach)的私人住宅投擲燃燒彈,導致大門外側起火後徒步逃離現場。約 55 分鐘後,同一名男子出現在 OpenAI 舊金山總部大樓外,公開揚言要焚燒整棟建築,隨即被趕到的警方當場逮捕。該嫌疑人為一名 20 歲男性,目前已被羈押,具體身份及犯罪動機尚未公佈,案件調查仍在進行中。事件中無人員傷亡。OpenAI 發表聲明稱:「感謝舊金山警方的快速響應以及市政府在保障員工安全方面給予的支援。嫌疑人目前已被羈押,我們正全力配合執法部門的調查工作。」奧特曼當天在個人部落格上就此事公開發聲,並附上了一張家人合影。他寫道,自己「低估了語言和敘事的力量」,並表示過去幾年「極度緊張、混亂且充滿壓力」,呼籲 AI 行業各方對「言辭和行動方式」進行降溫。他同時表示理解外界對技術的批評與擔憂,但仍堅信技術進步能夠為未來帶來積極影響。梁文鋒內部透露:DeepSeek V4 將於 4 月下旬正式亮相據《創智記》報導,DeepSeek 創始人梁文鋒近日在內部溝通中透露,DeepSeek V4 將於本月下旬正式發佈。此前,V4 的發佈時間已多次延期。原計畫於今年 2 月中旬春節前後推出,後因國產算力深度適配、架構重構與穩定性打磨等原因持續推遲。在技術層面,V4 將帶來兆參數規模與百萬級上下文窗口,並首次實現與華為昇騰等國產晶片的深度適配。據悉,V4 最大的技術亮點在於 LTM(Long Term Memory,長期記憶)能力的突破。儘管外界期待頗高,但多位與 DeepSeek 深入合作的 AI 創業者提示,V4 很難再複製去年 DeepSeek-V3 的市場影響力。與此同時,梁文鋒正推動公司從純模型研發嚮應用層延伸,組建產品團隊,並啟動公司估值以明確員工期權價值。「龍蝦之父」Claude 帳號被封又解封,官方:系統誤判今天凌晨,OpenClaw 的創始人 Peter Steinberger 在 X 平台發文,稱自己的 Claude 帳號遭到封禁。他曬出了一封來自 Anthropic 安全團隊的郵件,郵件措辭簡短,僅表示「認定存在違反使用政策的行為」,未說明具體違規條款,亦無任何事先警告。Steinberger 表示,被封禁的不只是 API 存取權,個人帳號同樣受到波及,這意味著他連日常的相容性測試都無法正常進行。以後要確保 OpenClaw 還能跑在 Anthropic 的模型上,恐怕是越來越難了。Anthropic 員工 Thariq Shihipar 隨後出現在評論區,表示封號「很可能是另一個有點過於敏感的濫用檢測分類器誤判了」,並非針對 OpenClaw 使用者的主動決定,並承諾私信 Steinberger 協助處理。不久後,Steinberger 發推確認帳號已恢復。🔗 相關閱讀:突發|龍蝦之父的 Claude 被封了,官方:系統誤判AI 能力將成教師「必考項」據新華社、央視新聞報導,教育部等五部門近日聯合印發《「人工智慧+教育」行動計畫》,旨在一體推進人工智慧人才培養與應用創新,系統建構智能時代的教育體系。昨日,教育部在新聞發佈會上披露了該行動計畫的核心內容。其中最受關注的一項舉措是:人工智慧將被正式納入教師資格考試和認證內容,AI 能力將成為未來教師的基本職業素養之一。教學上,行動計畫提出圍繞課前、課中、課後的全流程教學場景,加強智能教學系統的應用,幫助教師減負增效;同時輔助開展作業管理,推進智能批改、答疑和輔導;借助智能技術分析課堂教學行為,幫助教師提升教學質量;面向基礎教育,行動計畫明確加快普及中小學生人工智慧教育,要求開齊、開足、開好相關課程,推動人工智慧教育全面納入地方課程體系。此外,計畫還鼓勵開展人工智慧跨學科教學,推動其融入課後服務、研學實踐等環節;在高等教育層面,行動計畫要求推動人工智慧成為高校公共基礎課,按學科專業分類編寫教材,推動全體學生掌握 AI 相關知識。與此同時,高校將被引導開設人工智慧交叉融合課程,豐富跨學科、跨專業課程群,培養複合型交叉人才,並根據產業結構的智能化升級趨勢,新設一批適應新技術、新產業、新業態的學科專業。億咖通科技官宣正式承接 Flyme OS 全業務億咖通科技昨日宣佈,正式啟動承接星紀魅族集團旗下 Flyme OS 全部核心資產與業務。根據整合安排,Flyme OS 品牌所涵蓋的全部智慧財產權,以及 Flyme Auto 的全部在運業務、客戶合同及研發團隊,將整體納入億咖通科技,由公司統一營運管理。億咖通科技由吉利控股集團創始人李書福與沈子瑜於 2016 年聯合創立,吉利控股是其重要戰略股東——今年 1 月,吉利控股剛以每股 1.67 美元的價格完成對億咖通 4560 萬美元的定向增持。此次 Flyme OS 業務整合,正是吉利體系內「一個吉利」戰略收縮與資源集中的延續動作,旨在將旗下智能出行相關資產統一歸口至億咖通平台營運。依託在智能座艙軟硬體平台及全球化交付方面的既有能力,億咖通科技將加速作業系統與車載應用場景的適配,提升協同效率和產品迭代能力。整合工作將按照業務優先順序有序推進,明確權責邊界,妥善安置員工,確保平穩過渡。後續,億咖通科技計畫整合 Flyme OS 產品優勢,融入 AI 智能體,建構跨終端智能生態,加速出行場景 AI 共生。蘋果 Mac 一季度出貨量增長 9%,增速領跑全球 PC 市場市場研究機構 IDC 發佈的最新資料顯示,蘋果 2026 年第一季度 Mac 出貨量同比增長 9%,增速跑贏全球 PC 大盤。同期,全球 PC 市場整體增長率僅為 2.5%。該季度,蘋果 Mac 總出貨量達 620 萬台,較去年同期的 570 萬台穩步提升;全球市場份額方面,蘋果由去年同期的 8.9% 攀升至 9.5%,在 PC 廠商中穩居全球第四。榜單前三名依次為聯想(1650 萬台)、惠普(1210 萬台)和戴爾(1030 萬台)。IDC 統計顯示,除惠普外,多數頭部 PC 品牌均在該季度實現出貨量正增長。微信官宣九項新功能:公眾號上線「話題」功能,跨裝置傳檔案無需加好友昨天,微信官方號「微信公開課」發文,盤點了 3 月集中推出 9 項功能更新,覆蓋內容創作、跨境支付、檔案傳輸、商業生態等多個維度:公眾號新增「話題」功能,創作者可主動發起話題並搭建專屬話題頁,將自己發佈及粉絲產出的同類內容聚合展示,使用者可通過圖文正文中的 #話題連結、文章底部的「更多相關內容」以及公眾號「看一看」三個入口進入;視訊號帶貨短影片發佈條數增加,擁有 1000 粉絲且具備短影片商品分享權限的創作者,10 萬粉以下帳號每天可發 5 條,10 萬粉及以上帳號每天可發 10 條;視訊號短影片同步支援掛載「商品合集」,創作者可將多款關聯商品一次性打包上架,實現一條視訊帶貨多個商品;視訊號小遊戲優質作者激勵計畫啟動,活動持續至 4 月 30 日,粉絲數超過 1000 的視訊號或外站創作者報名後發佈符合要求的視訊並掛載小遊戲變現任務,即可獲得基礎現金激勵,爆款視訊還可獲得額外獎勵,上不封頂;微信、企業微信支援接入 AI 智能體,微信上線 ClawBot 外掛能力,使用者可通過微信聊天方式連接自己的龍蝦(Claw);企業微信推出掃碼接入「龍蝦」功能,並將 CLI 開放原始碼專案正式上架 GitHub,面向 10 人及以下企業,支援 Claude Code、Codex、Work Buddy、QClaw 等主流 AI 智能體,向 AI 開放消息、日程、文件、會議等 7 大核心能力;新增面對面跨裝置掃碼傳檔案功能,支援 iPhone 與Android手機之間互傳照片和檔案,無需加入好友,支援原圖直傳,且不依賴行動網路或外部 Wi-Fi 網路;壓縮包支援直接預覽,收到壓縮包後無需下載或解壓即可查看內容,還可選擇單個或多個檔案進行一鍵保存、轉發或收藏;首爾地鐵 1 至 8 號線全站新型售票機支援微信支付購票,除單程票外,還可掃碼購買 T-money 卡、氣候卡及定期票;微信小店商品標籤上新,騰訊廣告(小店版)新增「熱搜品」和「機會品」標籤,系統將對商家已託管及未託管商品進行標註,幫助商家更高效識別高潛商品;微信小店推出新商家六大權益,包括 0 保證金試營運、自營交易額技術服務費率降至 1%、流量激勵、成長攻略以及百款經營工具免費試用,助力新商家快速冷啟。追覓俞浩:要把宇樹的一切全部搶過來據介面新聞報導,昨日,一張追覓科技創始人俞浩在內部工作群「魔法原子」中發佈的聊天截圖曝光。截圖顯示,俞浩以強硬語氣要求團隊對競爭對手宇樹科技展開全面反擊,並提出「2 億年薪招首席科學家」,同時要求搶奪宇樹科技的客戶、投標、員工及直播間資源,甚至喊出「宇樹的所有客戶、所有投標、所有員工要全部搶過來」。魔法原子是追覓科技旗下專注具身智慧型手機器人業務的核心主體,由俞浩擔任創始人與實際控制人。集邦諮詢:今年中國人形機器人產量預計年增 94%,宇樹、智元合計佔八成份額根據 TrendForce 集邦諮詢最新的人形機器人深度研究報告,今年下半年全球人形機器人產業將進入商業化的關鍵階段。中國廠商積極提升產量,預計將推動今年全年中國人形機器人市場產量年增高達 94%。研報預計,宇樹科技與智元機器人憑藉各自的盈利能力與量產進度,在激烈競爭中脫穎而出,兩者合計預計將囊括近 80% 的市場出貨份額。宇樹科技於三月底申請科創板 IPO 並獲受理,上市招股書顯示其 2025 年人形機器人產品收入首度超越四足機器人,佔總收入 51% 以上,兩項業務合計毛利率達 60%,打破了外界對機器人產業「只燒錢不盈利」的固有印象。智元機器人於三月底迎來第 10000 台通用具身機器人遠征 A3 完工出廠。智元將 2025 年量產數量從 1000 台提升至 5000 台後,僅用三個月便達成了一萬台的里程碑。從整體產業趨勢來看,TrendForce 集邦諮詢指出,此前多數人形機器人廠商專注於感知、動態平衡與語義理解等底層能力的積累,今年下半年焦點將轉向為使用者提供真實價值。小米 7 篇論文入選 ACL 2026:推理快 8 倍、80 頁合同秒讀昨天,小米技術宣佈,小米 AI 團隊共有 7 篇研究成果入選 ACL 2026,覆蓋端側推理最佳化、多頁文件理解、長上下文注意力、通用資訊抽取、對話語音生成、手機 AI 智能體評測與訓練策略七個方向。ACL 是自然語言處理領域 CCF-A 類頂級會議,本屆大會將於今年 7 月在美國聖地亞哥舉行。推理最佳化方向,VecInfer 通過向量量化壓縮 KV cache,在 196k 上下文的 Llama-3.1-8B 上實現 8.3 倍端到端延遲降低,2-bit 量化下仍接近全精度性能;文件理解方向,Doc-V* 無需 OCR 即可處理 80 頁以上長文件,在四個公開基準上取得開源最優,相比 RAG 基線提升 9.8 個百分點;針對大模型「只看首尾、忽略中間」的問題,Attention Basin 提出 AttnRank 方法,僅通過輕量文件重排即可提升長文理解,無需訓練、零額外延遲;語音方向,ZipVoice-Dialog 實現非自回歸雙人對話語音生成,團隊同步開源了首個 6800 小時規模對話語音資料集 OpenDialog;AI 智能體評測方面,MobileBench-OL 覆蓋 80 款中文主流應用的 1080 個任務,結果顯示當前最強 AI 面對 20 步以上操作的成功率不足兩成;訓練策略方面,STEP 以成功率感知的自適應重採樣集中訓練困難任務,在相同計算預算下收斂更快;ProUIE 則以 4B 參數骨幹、不引入任何外部資訊,在 36 個公開資料集上超越多種強基線。生數科技完成近 20 億元 B 輪融資,阿里雲領投生數科技昨天宣佈完成近 20 億元人民幣 B 輪融資,由阿里雲領投,中網投、九安海棠、好未來、光合創投等機構戰略投資,星連資本、達泰資本、建發新興投資、BV 百度風投、卓源亞洲等原有股東持續追加。融資完成後,生數科技表示將持續夯實通用世界模型底層能力,並加速全球化人才佈局,建構支撐前沿模型與全球業務發展的核心團隊。無償轉讓失敗,360doc 個人圖書館宣佈 5 月 1 日關停據鞭牛士報導,營運逾二十年的個人知識庫平台 360doc 個人圖書館宣佈,將於 2026 年 5 月 1 日正式終止所有服務。創始人蔡智發佈告別信稱,過去兩個月他嘗試將平台無償轉讓,但最終以失敗告終。他曾與具備承接能力的網際網路巨頭洽談,做過方案、推進過試點,「也等過、求過、忍過」,但最終「被擱置,被推諉,熬盡了最後一絲力量」。此前今年 1 月,360doc 曾發佈無償轉讓公告,尋求具備誠意與能力的夥伴接管平台全站資產,包括核心技術、資料及營運團隊,並要求接手方具備不少於 500 萬元的資金實力,以及清晰可行的持續營運計畫。蔡智在信中透露,也有跨界朋友與創業公司遞來橄欖枝,但他最終未予選擇,原因是「沒有網際網路經驗、沒有 AI 能力,這個平台接過去,只會變成負擔」。他同時堅決拒絕了試圖購買域名和使用者資料的人,「8000 萬使用者的資料,一旦流入灰產,後果不堪設想」。蔡智表示,與其將隱患留給未來或被轉賣,「不如在還可控的時候,親手畫上一個穩妥的句號」。360doc 個人圖書館於 2005 年上線,目前平台使用者超 8000 萬,收錄文章逾 11 億篇。💡 Arm CEO:AI 自研晶片潛在市場超 1000 億美元,可觸達總市場或破兆據彭博社報導,Arm CEO Rene Haas 昨天在採訪中表示,AI 浪潮正在為晶片行業帶來規模高達千億美元的市場機遇,而 Arm 已將戰略重心從智慧型手機轉向資料中心與雲端運算。Haas 指出,智能體 AI(Agentic AI)的興起對 CPU 算力的需求是傳統 AI 的四倍,而當前資料中心市場對這一需求的供給嚴重不足。他同時透露,已有多家客戶主動向 Arm 提出定製晶片的需求,這也促使公司推出了首款自研晶片產品。該產品名為 Arm AGI CPU,由 Arm 自主設計、台積電代工製造,目前已獲得 Meta、SAP、Cloudflare、Cisco、OpenAI 等多家企業的訂單,預計將於今年年底開始出貨。在市場規模方面,Haas 給出了一組對比鮮明的數字:Arm 傳統授權模式下,雲端運算與 AI 業務帶來的版稅收入對應的潛在市場規模約為 30 億美元;而 AGI CPU 這條新產品線在未來四至五年內,潛在市場規模將超過 1000 億美元。若將機器人、可穿戴裝置等更廣泛的 AI 應用場景納入考量,Arm 可觸達的整體市場規模甚至可能超過 1 兆美元。Haas 強調,AI 是一項「觸達整個地球」的技術,無論是資料中心、機器人還是小型可穿戴裝置,Arm 均有機會以 IP 授權、計算子系統或晶片產品的形式參與其中。他認為,Arm 的市場機遇「已經變得遠比以前寬廣得多」。限時 19.39 萬元起,煥新極氪 007GT 正式上市昨日,極氪在發佈會上正式推出煥新極氪 007 與煥新極氪 007GT,兩款車型採用同價策略,官方指導價均為 20.39 萬元起,限時上市權益價 19.39 萬元起。007GT 後驅版零百加速 4.8 秒,四驅版 2.85 秒;75kWh 神盾金磚電池 / 103kWh 麒麟電池對應 CLTC 續航 702km / 880km,分別支援 5.5C 和 6C 快充,SoC 10% 至 80% 最快 10 分鐘;車身長寬高 4858/1900/1450mm,軸距 2925mm;新增 FR-LINE 性能套裝,含 20 吋雷霆鍛造輪圈、橙色四活塞卡鉗及競速黃 Dinamica 運動內飾;標配 31 個感知硬體(含 1 顆雷射雷達)+ Thor-U 晶片,千里浩瀚 H7 方案,新增 120km/h 高速爆胎穩定控制;高通驍龍 8295 晶片,35.5 英吋 AR-HUD + 15.4 英吋 2.5K 中控屏 + 13.02 英吋儀表屏三聯屏;標配閉式空氣懸架 + CCD 電磁減振 + 智能魔毯,新增運動 + 模式,四驅版可選賽道模式;後備廂 645L,最大拓展至 1737L,支援 150kg 車頂行李架與 1.6 噸電動拖車鉤。華為 Pura 90 定檔 4 月 20 日昨天,華為宣佈,Pura 系列及全場景新品發佈會將於 4 月 20 日 14:30 舉行。本次發佈會預計推出影像旗艦 Pura 90 系列、全新「闊折疊」Pura X Max,以及涵蓋耳機、手錶、AI 眼鏡在內的多款可穿戴新品。華為同步放出了 Pura 90 Pro Max 的外觀。機身延續三角形相機 Deco 的家族設計,但螢幕形態從前代等深四曲屏改為與 Mate 80 系列一致的直屏設計。影像方面,據數位閒聊站爆料,Pura 90 Pro Max 將搭載 2 億像素、1/1.28 英吋潛望鏡,配備定製大光圈與長焦微距,「一鏡雙目」特性大機率不會繼承;1 英吋主攝很可能僅為 Pura 90 Pro Max 獨佔,其餘版本採用 1/1.28 英吋主攝。配色共五款,分別為主打色「橘子海」、「霞光紫」(紫黃漸變)、「翡翠湖」(綠白漸變)、「曜石黑」和「晨曦金」。盧偉冰官宣 REDMI Book Pro 2026,本月發佈昨天,小米集團合夥人、總裁盧偉冰官宣了 REDMI Book Pro 2026 筆記本,將於本月與 REDMI K90 Max 同場發佈,定位 REDMI 全新高性能 AI 旗艦筆記本。網傳爆料如下:提供 14 英吋和 16 英吋雙版本,沿用前代模具設計;最高搭載第三代英特爾酷睿 Ultra X7 358H 處理器,配合 LPDDR5X 高頻記憶體,支援擴展至 32GB + 1TB / 4TB PCIe 4.0 SSD;搭載全新超級小愛,支援在本地建立個人知識庫,實現跨裝置檔案檢索的同時保護使用者隱私;新增一鍵遠端開關機功能,滿足使用者在外應急辦公的需求;16 英吋版本配備 99Wh 超大容量電池,14 英吋版為 92Wh,能量密度較前代提升 9.6%,均支援 90W PPS 反向快充,可為手機進行快速充電。小鵬 x 福耀量產 AI 調光隱私玻璃,GX 首發搭載昨天,小鵬集團與福耀集團在福州福耀玻璃園區聯合舉辦發佈活動,雙方共同研發的 AI 調光隱私玻璃正式亮相,並完成首塊量產交付。這款玻璃將首發搭載於小鵬 GX。其核心技術基於 LC 染料液晶原理,通過電場控制分子排列來調節透光度,並結合整車電子電氣架構與 AI 大模型實現智能適配。調光響應速度達到 0.16 秒,隱私模式下透光率最低可至 0.6%,調節跨度超過 12%;暗黑狀態下可隔絕 99.9% 的紫外線與 99.4% 的可見光;小鵬 GX 全車共搭載 6 塊 AI 調光隱私玻璃,總面積達 1.88 ㎡,為同級最大;採用 5 層夾膠結構配合定製隔音膜片,相比同厚度鋼化玻璃可降低 3 ~ 5 dB 噪音;電控液晶調光技術全程無化學變化、無材料磨損,官方稱可實現百萬次調光無衰減;支援 AI 自適應調光,依託外部光照感知實現無級調節,自動匹配最優透光度。無問芯穹發佈端雲一體智能終端 InfiniClaw Box無問芯穹昨天正式發佈端雲一體智能終端 InfiniClaw Box,主打隱私保護,在本地完成資料脫敏、借助雲端大模型推理、再將結果回填至本地,全程實現「資料不出盒」。全模態脫敏:支援文字、圖像、音訊、視訊資料的本地脫敏處理,可自動識別並替換姓名、手機號、身份證號、財務資料、醫療記錄等敏感資訊,突破現有方案僅覆蓋文字的侷限;雲端強模型呼叫:脫敏後的請求接入無問芯穹大模型服務平台,可低成本呼叫 GLM-5、Kimi-K2.5、MiniMax-M2.5、Step-3.5 等頭部模型完成複雜推理,雲端全程無法接觸原始資料;本地隱私回填:雲端結果由本地「隱私重構引擎」進行精準位置感知的自動回填,確保輸出的完整性與上下文一致性與純雲端處理無異;多信源接入:支援連接家庭攝影機、智能門鎖、外接麥克風,並計畫接入電腦、智能眼鏡、手機、平板等終端,提供標準化開放介面;晶片性能最佳化:通過深度 NPU/GPU 算子融合、張量佈局尋優與視訊記憶體復用,Attention 和 GEMM 等核心算子實現 10% 至 40% 的加速;內建垂類 Skills:預置超過 80 個面向政務處理、投資研報、智慧辦公等場景的專業 skill。在生態層面,InfiniClaw Box 已與愛芯元智、AMD、此芯科技、財搭子、萬象智維、酷愛科技、躍向等企業建立合作,覆蓋晶片適配、外設互聯與應用場景共創等多個維度。MiniMax Music 2.6 發佈昨天,MiniMax 正式發佈新一代音樂生成模型 Music 2.6。據悉,此次更新對底層生成架構進行了深度重構,首包延遲大幅降至 20 秒以內,並在音樂控制能力與聲學品質方面實現全面提升。MiniMax 還推出了全新的「Cover」創作功能,面向全球創作者開啟為期 14 天的免費內測。MiniMax 同步推出並開源了 3 個 Music Skill:minimax-music-gen2(專屬音樂人)、minimax-music-playlist(個性歌單生成器)和 buddy-sings(寵物歌手),旨在將專業音樂生成能力直接融入 AI 開發者生態。智源開源 AI 智能體安全框架 ClawKeeper近日,北京智源人工智慧研究院聯合北京郵電大學與中國資訊通訊研究院發佈 AI 智能體即時安全框架 ClawKeeper v1.0,項目已在 GitHub 開源,論文同步發佈。ClawKeeper 專為 OpenClaw 平台設計,核心思路是「用 AI 智能體監管 AI 智能體」,首創技能(Skill)、外掛(Plugin)、觀察者(Watcher)三層防禦架構,覆蓋 AI 智能體全生命周期安全。其中,完全獨立於業務邏輯之外的 Watcher 元件作為系統級安全中介軟體,可即時評估每一輪互動的工具呼叫軌跡,在檢測到高危操作時直接接管執行流程並強制觸發人工確認,徹底解決了傳統方案中「安全與效率相互牽制」的根本矛盾。在基準測試中,ClawKeeper 對提示詞注入、憑據洩露、危險命令執行等 7 類高危場景實現 100% 覆蓋,防禦成功率達 85% 至 90%。Watcher 還具備持續學習能力,在連續處理 100 個對抗性樣本後,防禦成功率從 90% 進一步提升至 95%。💻 GitHub: github.com/SafeAI-Lab-X/ClawKeeper📑 論文:arxiv.org/abs/2603.24414現代電動品牌 IONIQ 將通過北現工廠進行國產據藍鯨汽車報導,現代汽車旗下電動化品牌 IONIQ(艾尼氪)將通過北京現代工廠進行國產,正式以品牌形式進入中國市場。此前,IONIQ 旗下車型曾以進口形式在國內銷售。今年,IONIQ 將有新車上市,未來三年還將推出多款車型,覆蓋中、大型細分市場,涵蓋 SUV 和轎跑兩種車身形式,提供純電和增程兩種動力選擇。據悉,其全系產品將以圍繞太陽公轉的行星命名,由中國設計團隊原創打造。在本土化策略上,IONIQ 將在設計、技術、產品和營運四個維度深度落地。電池方面,該品牌預計將與寧德時代合作;智能駕駛方面,將與 Momenta 展開合作。管道上,品牌計畫打造「北京現代汽車文化中心」等超越傳統汽車展廳的品牌據點。IONIQ 品牌成立於 2020 年,由現代汽車早期的同名單一車型演變而來。2021 年 2 月,IONIQ 5 正式發佈,此後相繼推出 IONIQ 6、IONIQ 9 及高性能版本 IONIQ 5N 等全球車型,品牌累計銷量目前已超過 55 萬輛。Alienware 外星人遊戲嘉年華下周登陸上海Alienware 外星人遊戲互動嘉年華將於今年 4 月 17 日至 18 日登陸上海西岸穹頂藝術中心,活動集中呈現 40 餘款全球熱門遊戲 IP、電競賽事、Coser 巡遊及品牌產品體驗。本次嘉年華設有專屬產品體驗區,Alienware 外星人高端遊戲 PC、專業電競顯示器、職業級電競外設及全新輕薄旗艦本將悉數亮相,搭配超百台 Alienware 外星人高性能電競裝置供玩家上手試玩。賽事層面,Alienware 自營電競賽事品牌 AGA(ALIENWARE GAME ARENA)春季城市總決賽將於 4 月 17 日在主舞台打響,來自全國各大賽區的選手將同台角逐。Alienware 外星人高校電競賽總決賽同期舉行,由上海海洋大學與中南大學展開對決。康師傅「再來一瓶」全國兌獎難引發投訴潮據介面新聞報導,康師傅今年 3 月重啟的「再來一瓶」促銷活動遭遇「兌獎難」問題。該活動涵蓋兩種規格綠茶產品,虛擬獎品總量超 4400 萬份,兌獎期截至今年 9 月 30 日。陝西西安朱先生按小程序指引輾轉 4 家門店均遭拒;山東淄博邵先生多次中獎,撥打客服電話遲遲未獲回覆;天津王女士跑遍五六家門店無功而返,客服承諾「專人跟進」,直至獎品過期也無人聯絡。有消費者直言:「沒有兌換能力就別做活動」。不吸也違法:香港公共場所全面禁止持有電子煙據南都·灣財社報導,香港將於今年 4 月 30 日起正式實施最嚴控煙新規,禁止任何人在公眾場所持有電子煙、加熱煙及草本煙。值得注意的是,即便只是隨身攜帶而未實際吸食,同樣構成違法。根據香港《2025 年控煙法例(修訂)條例》,違規處罰按持有數量分為兩檔:持有不超過 5 個煙彈、5 毫升煙油、100 支加熱煙支或 100 卷草本煙的,將被處以 3000 港元定額罰款;若持有量超出上述標準,則以檢控方式處理,一經定罪最高可被罰款 5 萬港元並處監禁 6 個月;若當事人拒絕配合提供身份證明或故意妨礙執法,罰款上限可升至 1 萬港元。在執法範圍上,公眾場所涵蓋街道、商場、公園,以及住宅大廈或辦公樓的公共區域(如大廳、電梯、走廊等),目前唯一合法持有的場所僅限私人住宅內部。香港衛生署明確表示,新規自 4 月 30 日起即嚴格執行,不設過渡期,亦不存在「首次違規先警告」的機制,赴港旅客同樣不會獲得豁免。✨ 是周末啊!One Fun Thing|SBTI 人格測試一夜刷屏:31 道題罵你是「廢物」,伺服器崩了三次日前,一款名為 SBTI(Silly Big Test Inventory)的人格測試沖上熱搜,並在朋友圈引發大規模刷屏。🔗 相關閱讀:SBTI說我廢物,這是今年聽過最舒服的一句話該測試以 MBTI 為框架,推出了「尤物」「嗎嘍」「廢物」「死者」等一系列荒誕自嘲標籤,測試頁面更是直接喊出「MBTI 已經過時,SBTI 來了」。SBTI 共設 31 道題,耗時約 5 分鐘,不問壓力與情緒,只問日常態度與生活習慣,最終給出帶有強烈戲謔色彩的人格判定。區別於 MBTI 慣用的正向描述,SBTI 的人格描述以自嘲和調侃為主,例如「廢物」人格寫道:「給廢物一顆糖,它會還你一個完全信任你、亮晶晶的眼神。」由於流量過於集中,SBTI 伺服器數度崩潰,大量使用者只能靠截圖「雲體驗」。據測試頁面介紹,該測試由 B 站 UP 主 @蛆肉兒串兒 製作,最初的起因極為日常——只是想勸一位愛喝酒的朋友戒酒。作者自稱人格為「SHIT」,並表示「由於作者的人格是憤世者,所以平等地攻擊了各位,在此抱歉!」作者同時說明,自己並非心理學專業,測試內容以娛樂為主。沒有很好地平衡娛樂和專業性,對於一些人格的闡釋較為模糊或完全不准,如有冒犯非常抱歉。4 月 10 日深夜,作者發佈新連結,稱已按建議做出略微修改,「應該不會再崩了」。💻 GitHub: github.com/UnluckyNinja/SBTI-test👉 測試入口: https://sbti.unun.dev周末看什麼|《挽救計畫》《挽救計畫》(Project Hail Mary)由菲爾·羅德與克里斯托弗·米勒聯合執導,德魯·戈達德編劇,改編自安迪·威爾同名暢銷科幻小說。影片主演瑞恩·高斯林飾演中學科學教師瑞恩·格雷斯——一個被動捲入人類存亡危機的「工具人」。故事設定中,一種名為「噬星體」的太空微生物正在吞噬太陽,地球文明面臨滅頂之災。格雷斯在毫無選擇的情況下被送上單程太空任務,孤身前往鯨魚座 T 星尋找解法。途中,他意外與同樣身處絕境的外星工程師「洛基」相遇,兩個截然不同的文明由此展開跨物種協作,共同破解噬星體的威脅。截至目前,《挽救計畫》在豆瓣獲得 8.6 分,逾 32 萬人參與評分。買書不讀指南|《大廠小民:我在網際網路公司的 1480 天》這本書以第一人稱視角記錄了張小滿在網際網路大廠工作四年的親歷。作為中台部門的一線員工,她在 1480 天裡經歷了一次「創業」、三個崗位、七次考核、兩次被裁員。她將這份工作比喻成「一顆來自他人寄存的水晶,如此可貴又如此容易失去」。她將大廠員工歸納為三類:深耕專業領域的「掃地僧」、擅長包裝說服的「銷售員」,以及默默耕耘卻與升職加薪無緣的「農民」。人人都希望成為「掃地僧」,但最後大部分人都做了「農民」的事。完備福利與高壓考核並存,正是大廠讓人「一邊批判,一邊把追隨變成習慣」的根源。張小滿最終在經濟下行期被裁員,此後完成寫作,追問工作的本質:「工作本質是交易,但不應只是如此。」遊戲推薦|《紅色沙漠》《紅色沙漠》(Crimson Desert)是由韓國開發商 Pearl Abyss 開發並行行的開放世界動作冒險遊戲,以僱傭兵 Kliff 為主線角色展開敘事。遊戲融合了探索、戰鬥、解謎、迷你遊戲等多元玩法,野心勃勃地試圖將《巫師 3》式的冒險、《荒野大鏢客:救贖 2》式的慢節奏敘事、《王國之淚》的開放解謎與《上古捲軸》系列的自由度整合於一體。遊戲上線後口碑呈現明顯的兩極分化。媒體聚合平台 Metacritic 給出 PC 版綜合評分 78/100,OpenCritic 評論推薦率為 82%。IGN 評測人 Travis Northup 在經歷約 130 小時的主線及支線流程後,給出 6/10 的評價,稱其「極具野心,卻在令人印象深刻與令人抓狂之間劇烈搖擺」。 (APPSO)
《紐約客》長篇特稿丨OpenAI奧特曼或許掌控我們的未來——他值得信任嗎?
Sam Altman May Control Our Future—Can He Be Trusted?最新的採訪與嚴格保密的檔案揭示了外界對這位OpenAI掌門人持續存在的質疑。本文即將刊登於2026 年 4 月 13 日的《紐約客》雜誌,印刷版標題為“Moment of Truth.”作者:《紐約客》特約撰稿人Ronan Farrow曾獲得普利策獎和喬治·波爾克獎。他的2025年播客節目《不太好的殺人犯》被改編成HBO紀錄片系列。Andrew Marantz是《紐約客》的專職撰稿人,也是《反社會:網路極端分子、技術烏托邦主義者和美國對話的劫持》一書的作者。奧特曼承諾會成為人工智慧的可靠守護者。但他的部分同事認為,他並不值得信任,用其中一人的話來說,不配“手握決策按鈕”。視覺設計:戴維·紹德。2023年秋,OpenAI首席科學家伊利亞·蘇茨克弗向該組織董事會的另外三名成員傳送了機密備忘錄。此前數周,他們一直在秘密商議OpenAI首席執行官山姆·奧特曼及其副手格雷格·布羅克曼是否適合管理這家公司。蘇茨克弗曾視這二人為好友。2019年,他在OpenAI辦公室主持了布羅克曼的婚禮,儀式上的戒童是一隻機械手。但當他愈發確信公司即將實現長期目標——創造出認知能力可與人類匹敵甚至超越人類的人工智慧時,他對奧特曼的疑慮也日益加深。蘇茨克弗當時對另一位董事表示:“我認為山姆不該是那個手握決策按鈕的人。”應其他董事的要求,蘇茨克弗與志同道合的同事合作,整理了約七十頁的Slack聊天記錄、人力資原始檔及相關說明文字。這些材料中包含用手機拍攝的圖片,顯然是為了避免在公司裝置上留下痕跡。他將最終的備忘錄以閱後即焚消息的形式傳送給其他董事,確保不會有其他人看到。“他當時極度恐懼,”一名收到備忘錄的董事回憶道。我們審閱過這些此前從未完整公開的備忘錄,其中指控奧特曼向高管和董事歪曲事實,並在內部安全規程上欺騙他們。其中一份關於奧特曼的備忘錄開頭列有一個標題為“山姆一貫表現出……”的清單,第一條便是“撒謊”。許多科技公司都會發佈改善世界的模糊宣言,隨後便一心追求收益最大化。但OpenAI的創立初衷便是與眾不同。包括奧特曼、蘇茨克弗、布羅克曼和埃隆·馬斯克在內的創始人宣稱,人工智慧可能是人類歷史上最強大、也最具潛在危險的發明,考慮到其存在性風險,或許需要一種特殊的公司架構。公司以非營利形式成立,董事會有義務將人類安全置於公司成功乃至生存之上。首席執行官必須具備非凡的誠信品質。蘇茨克弗表示:“任何致力於研發這種改變文明的技術的人,都肩負著重擔,承擔著前所未有的責任。”但“最終坐上這類位置的人往往是一類特定的人——熱衷權力的人、政客、享受權力的人”。在一份備忘錄中,他似乎擔憂將這項技術託付給一個“只會說別人想聽的話”的人。如果OpenAI首席執行官被證實不可靠,由六名成員組成的董事會有權將其解僱。包括人工智慧政策專家海倫·托納、企業家塔莎·麥考利在內的部分董事收到備忘錄後,更加確信自己此前的判斷:奧特曼肩負著人類未來的重任,卻不值得信任。蘇茨克弗邀請正在拉斯維加斯觀看一級方程式賽車比賽的奧特曼參加一場董事會視訊會議,隨後宣讀了一份簡短聲明,告知他已不再是OpenAI員工。董事會依據法律建議發佈公開聲明,僅表示解除奧特曼職務的原因是他“在溝通中未能始終保持坦誠”。OpenAI的眾多投資者和高管大為震驚。向OpenAI投資約130億美元的微軟,直到事發前一刻才得知解僱奧特曼的計畫。微軟首席執行官薩提亞·納德拉後來說:“我非常震驚,完全摸不著頭腦。”他與OpenAI投資者、微軟董事領英聯合創始人裡德·霍夫曼取得聯絡,霍夫曼開始四處致電,想弄清奧特曼是否犯下了明確過錯。“我完全不知道發生了什麼,”霍夫曼告訴我們,“我們懷疑是挪用公款、性騷擾之類的問題,但什麼都沒查到。”其他商業夥伴同樣猝不及防。奧特曼打電話告知投資者羅恩·康威自己被解僱時,康威正與眾議院前議長南希·佩洛西共進午餐,便把手機舉到佩洛西面前。佩洛西對康威說:“你最好趕緊脫身。”OpenAI當時即將完成由風險投資公司Thrive的一筆大額投資,該公司由喬希·庫什納創立,他是賈裡德·庫什納的弟弟,與奧特曼相識多年。這筆交易將使OpenAI估值達到860億美元,讓眾多員工得以套現數百萬美元股權。庫什納剛與音樂製作人裡克·魯賓開完會,就發現了奧特曼的未接來電。他後來說:“我們立刻進入了戰鬥狀態。”奧特曼被解僱當天,飛回了他位於舊金山、價值2700萬美元的豪宅。這座宅邸可俯瞰海灣全景,曾配有懸挑式無邊泳池。他在此搭建了所謂的“流亡政府”。康威、愛彼迎聯合創始人布萊恩·切斯基以及以強硬著稱的危機公關經理克里斯·萊漢加入其中,有時每天通過視訊和電話商議數小時。奧特曼管理團隊的部分成員在宅邸走廊裡安營紮寨,律師們則在他臥室旁的家庭辦公室辦公。失眠時,奧特曼會穿著睡衣在他們身邊踱步。我們近期與奧特曼交談時,他將被解僱後的這段日子形容為“一場詭異的神遊狀態”。在董事會保持沉默的情況下,奧特曼的顧問團隊為他的復職造勢。萊漢堅稱,此次解僱是一群極端的“有效利他主義者”策劃的政變——這些人信奉以最大化人類福祉為核心的理念,將人工智慧視為存在性威脅。(霍夫曼對納德拉表示,此次解僱可能源於“有效利他主義的瘋狂行徑”。)萊漢據稱效仿邁克·泰森的座右銘——“人人都有計畫,直到臉上挨一拳”,敦促奧特曼發起猛烈的社交媒體攻勢。切斯基與科技記者卡拉·斯威舍保持聯絡,傳遞對董事會的批評聲音。奧特曼每天傍晚六點會中斷“作戰室”的商議,喝一輪內格羅尼酒。他回憶說:“你得冷靜下來,該發生的總會發生。”但他補充道,通話記錄顯示他每天通話時長超過12小時。據一名知情人士透露,奧特曼曾向米拉·穆拉蒂傳達資訊,稱自己的盟友會“全力以赴”,並“蒐集黑料”損害她及其他反對自己的人的聲譽。穆拉蒂曾為蘇茨克弗的備忘錄提供材料,當時擔任OpenAI臨時首席執行官。(奧特曼表示不記得有過這番對話。)解僱事件發生數小時內,Thrive便暫停了原定投資,並表示只有奧特曼復職,交易才會完成,員工才能獲得股權兌現。這一時期的簡訊記錄顯示,奧特曼與納德拉密切協調。(兩人商議聲明措辭時,奧特曼提議:“薩提亞,我的首要任務仍是挽救OpenAI。”納德拉則修改為:“確保OpenAI持續蓬勃發展。”)微軟很快宣佈,將為奧特曼及所有離開OpenAI的員工設立一個競爭項目。公司內部流傳著一封要求奧特曼復職的公開信,一些猶豫簽字的員工收到了同事的懇求電話和資訊。最終,大多數OpenAI員工威脅要隨奧特曼一同離職。董事會被逼入絕境。托納說:“一個選擇是撤銷解僱決定,就像按了Ctrl+Z。另一個選擇就是公司分崩離析。”就連穆拉蒂最終也簽署了公開信。奧特曼的盟友開始爭取蘇茨克弗。布羅克曼的妻子安娜在辦公室找到他,懇求他重新考慮。“你是個好人,你能挽回這一切。”她說。蘇茨克弗後來在法庭證詞中解釋:“我認為如果山姆不復職,OpenAI將會覆滅。”一天晚上,奧特曼服用安眠藥安必恩後入睡,卻被身為澳大利亞程式設計師的丈夫奧利弗·馬爾赫林叫醒,對方告知他蘇茨克弗態度鬆動,眾人希望他與董事會溝通。奧特曼告訴我們:“我在安必恩的藥效中昏昏沉沉醒來,完全暈頭轉向,根本沒法和董事會談話。”在一系列愈發緊張的通話中,奧特曼要求推動解僱他的董事辭職。他回憶自己最初對復職的想法是:“我要在一片質疑聲中收拾他們留下的爛攤子?絕對不可能。”最終,蘇茨克弗、托納和麥考利失去董事席位,Quora創始人亞當·安傑洛是唯一留任的原董事。離職董事作為退出條件,要求對針對奧特曼的指控展開調查,包括他挑撥高管關係、隱瞞財務關聯等,同時要求組建新董事會,獨立監督外部調查。但新任兩名董事——哈佛大學前校長勞倫斯·薩默斯和Facebook前首席技術官佈雷特·泰勒——均是與奧特曼密切商議後選定的。(奧特曼給納德拉發消息:“由佈雷特、勞倫斯·薩默斯和亞當組成董事會,我擔任首席執行官,佈雷特負責調查,你覺得可行嗎?”麥考利後來在證詞中表示,她此前就擔心泰勒對奧特曼過於順從。)被解僱不到五天,奧特曼便官復原職。如今員工將這一事件稱為“小插曲”,取自漫威電影中角色憑空消失又完好歸來、世界卻因他們的缺席發生巨變的情節。但關於奧特曼是否值得信任的爭論已超出OpenAI董事會。推動解僱他的同事指控其存在嚴重欺騙行為,這對任何高管而言都不可接受,對掌控如此顛覆性技術的領導者來說更是危險。穆拉蒂告訴我們:“我們需要配得上自身權力的機構。董事會徵求意見,我分享了所見所聞,所有內容均真實無誤,我對此負責。”而奧特曼的盟友則長期駁斥這些指控。解僱事件後,康威給切斯基和萊漢發簡訊,要求發起公關攻勢。“這關乎山姆的聲譽,”他寫道。他對《華盛頓郵報》表示,奧特曼“遭到了叛逆董事會的不公對待”。此後,OpenAI成為全球最具價值的公司之一,據稱正籌備首次公開募股,潛在估值達兆美元。奧特曼正推動建設規模驚人的人工智慧基礎設施,其中部分佈局於外國。OpenAI斬獲大量政府合同,為移民執法、國內監控及戰區自主武器的人工智慧應用制定標準。奧特曼在2024年的一篇部落格文章中描繪願景,以此推動OpenAI發展:“驚人的成就——修復氣候、建立太空殖民地、破解全部物理學奧秘——終將變得尋常。”他的這番言論支撐著這家初創公司創下史上最快的燒錢速度,其合作方大舉借債。美國經濟日益依賴少數高槓桿人工智慧公司,許多專家(有時包括奧特曼本人)警告該行業存在泡沫。他去年對記者表示:“有人會損失巨額資金。”一旦泡沫破裂,可能引發經濟災難。若他最樂觀的預測成真,他或將成為全球最富有、最有權勢的人之一。奧特曼被解僱後的一次緊張通話中,董事會要求他承認存在習慣性欺騙行為。據通話在場人士透露,他反覆說:“這太離譜了,我改不了自己的性格。”奧特曼表示不記得這段對話,對我們說:“我可能是想說‘我確實想成為凝聚人心的力量’。”他稱這一特質讓他得以領導這家極為成功的公司,並將批評歸因於自己職業生涯早期“過於迴避衝突”。但一名董事對此有不同解讀:“他的意思是‘我就是愛撒謊,而且不會改’。”解僱奧特曼的同事是出於危言聳聽和個人恩怨,還是他們的判斷正確——他確實不值得信任?今年冬天的一個早晨,我們在舊金山OpenAI總部與奧特曼會面,這是我們為報導與他進行的十多次交談之一。公司近期遷入兩棟11層的玻璃大樓,其中一棟曾由科技巨頭優步使用。優步聯合創始人兼首席執行官特拉維斯·卡蘭尼克曾被視為勢不可擋的天才,卻因投資者對其道德操守的擔憂,於2017年被迫辭職。(卡蘭尼克如今營運一家機器人初創公司,他近日稱閒暇時會用OpenAI的ChatGPT“探索量子物理的前沿領域”。)一名員工帶我們參觀辦公室。在一個擺滿公共餐桌的寬敞空間裡,掛著一幅電腦科學家艾倫·圖靈的動態數字畫作,我們走過時,畫中人物的眼睛會跟隨我們移動。這件作品暗指1950年提出的圖靈測試,即判斷機器能否逼真模仿人類的思想實驗。(2025年的一項研究顯示,ChatGPT通過圖靈測試的機率高於真人。)通常人們可與這幅畫作互動,但員工嚮導稱音效已關閉,因為它總偷聽員工對話並插話。辦公室其他地方的牌匾、宣傳冊和周邊產品上印著“感受通用人工智慧”的字樣。這句話最初源於蘇茨克弗,他用此警示同事警惕通用人工智慧的風險——即機器達到人類認知水平的臨界點。而在“小插曲”之後,這句話變成了歌頌富足未來的歡快口號。我們在八樓一間普通的會議室見到奧特曼。他說:“以前別人跟我說決策疲勞,我不懂。現在我每天只穿灰色毛衣和牛仔褲,就連從衣櫃裡挑那件灰色毛衣都覺得煩,真不想費這個心思。”奧特曼外表年輕,身材瘦削,藍色雙眼間距較寬,頭髮凌亂,如今已40歲,他與馬爾赫林通過代孕擁有一個一歲的兒子。他與我們對視著說:“當然,美國總統的工作壓力會大得多,但在我能勝任的工作裡,這份是壓力最大的。”“我跟朋友解釋說,‘在ChatGPT發佈前,這份工作是全世界最有趣的。我們取得了重大科學突破,我覺得是幾十年來最重要的科學發現之一。’”他垂下目光,“但ChatGPT發佈後,決策變得異常艱難。”奧特曼在密蘇里州克萊頓長大,那是聖路易斯的富裕郊區,家中四個孩子裡他排行老大。母親康妮·吉布斯廷是皮膚科醫生,父親傑裡·奧特曼是房地產經紀人和住房權益活動家。奧特曼在改革派猶太教堂和一所私立預科學校就讀,他稱這所學校“不是一個能坦然公開自己同性戀身份的地方”。不過總體而言,家族所在的富裕郊區圈子相對開明。他說自己十六七歲時,在聖路易斯一個以同性戀為主的社區深夜外出,遭到殘酷的人身攻擊,還被辱罵恐同言論。奧特曼未報案,也不願公開更多細節,稱詳細講述會“讓我顯得博取同情”。他否認這一事件及自身性取向對其身份有重要影響,但表示:“可能這在心底留下了心理陰影——我以為自己走出來了,其實並沒有,所以不想引發更多沖突。”奧特曼的弟弟2016年接受《紐約客》採訪時說,奧特曼童年的態度是“我必須贏,一切都由我掌控”。他進入史丹佛大學,常參加校外撲克局。他後來說:“我從撲克中學到的人生和商業道理,比大學課堂還多。”史丹佛學生個個雄心勃勃,其中最有闖勁的不少人選擇輟學。大二暑假,奧特曼前往馬薩諸塞州,加入創業孵化器Y Combinator的首批創業者項目,該孵化器由知名軟體工程師保羅·格雷厄姆聯合創立。每位參與者都帶著創業想法加入(奧特曼同期學員包括紅迪網和Twitch的創始人)。奧特曼的項目最終命名為Loopt,是一個早期社交網路,通過翻蓋手機的定位功能告知好友位置。這家公司體現了他的進取心,也暴露了他將模糊情況往對自己有利方向解讀的傾向。聯邦法規要求電信營運商為緊急服務追蹤手機位置,奧特曼與營運商達成協議,為公司使用該功能。Loopt的大多數員工喜歡奧特曼,但部分人對他誇大其詞的習慣印象深刻,即便小事也不例外。有人回憶奧特曼到處吹噓自己是乒乓球冠軍,“比如密蘇里州高中乒乓球冠軍”,結果卻是辦公室裡打得最差的人之一。(奧特曼稱自己可能是在開玩笑。)Loopt的資深員工馬克·雅各布斯坦因受投資者委託擔任奧特曼的“監護人”,他後來在為奧特曼傳記《樂觀主義者》接受基奇·哈奇採訪時說:“他會模糊‘我或許能做成這件事’和‘我已經做成了這件事’的界限,極端情況下會釀成Theranos那樣的騙局。”Theranos是伊麗莎白·霍姆斯創立的欺詐性初創公司。據哈奇報導,多名資深員工因擔憂奧特曼的領導能力和不透明性,兩次請求Loopt董事會解僱其首席執行官職務。但奧特曼也贏得了部分人的絕對忠誠。一名前員工稱,一名董事回應:“這是山姆的公司,回去好好幹活。”(一名董事否認嚴肅嘗試過罷免奧特曼。)Loopt使用者增長艱難,2012年被一家金融科技公司收購。據一名知情人士透露,這筆收購很大程度上是為了給奧特曼挽回顏面。儘管如此,2014年格雷厄姆從Y Combinator退休時,仍任命奧特曼為繼任總裁。格雷厄姆告訴《紐約客》:“我在廚房跟山姆說的,他笑了,像是‘成了’的樣子。我從沒見過山姆如此不加掩飾的笑容,就像把紙團扔進房間另一頭的垃圾桶時的那種笑容。”28歲的奧特曼擔任新職後,成為矽谷的造王者。他的工作是挑選最有野心、最有潛力的創業者,為他們對接頂尖程式設計師和投資者,助力初創公司成為定義行業的壟斷企業(Y Combinator則抽取6%至7%的股份)。奧特曼推動孵化器大幅擴張,旗下初創公司從幾十家增至數百家。但多名矽谷投資者認為他忠誠度不一。一名投資者告訴我們,奧特曼“會選擇性地對最優質的公司進行個人投資,排擠外部投資者”。(奧特曼否認排擠他人。)他曾為風投基金紅杉資本擔任“偵察員”,該項目要求投資早期初創公司並抽取少量利潤分成。據一名知情人士透露,奧特曼對金融服務初創公司Stripe進行天使投資時,堅持要求更高份額,惹怒紅杉合夥人,該人士稱這是“山姆優先”的原則。奧特曼自稱投資了約400家公司。(奧特曼否認對Stripe交易的這一描述。2010年左右,他首次向Stripe投資1.5萬美元,獲得2%股份,如今該公司估值超1500億美元。)到2018年,多名Y Combinator合夥人對奧特曼的行為極為不滿,找到格雷厄姆投訴。格雷厄姆與妻子、Y Combinator聯合創始人傑西卡·利文斯頓與奧特曼進行了坦誠談話。此後,格雷厄姆開始對外表示,儘管奧特曼同意離職,卻在實際操作中拖延。奧特曼對部分合夥人稱,他將辭去總裁職務,轉任董事長。2019年5月,一篇宣佈Y Combinator新任總裁的部落格文章附帶說明:“山姆將轉任YC董事長。”數月後,文章修改為“山姆·奧特曼辭去YC所有正式職務”,隨後這句話也被刪除。儘管如此,截至2021年,美國證券交易委員會的一份檔案仍將奧特曼列為Y Combinator董事長。(奧特曼稱他很久後才知曉此事。)多年來,奧特曼無論公開場合還是近期證詞中都堅稱自己從未被Y Combinator解僱,並對我們表示他並未拖延離職。格雷厄姆在推特上稱:“我們不想讓他離開,只是希望他在YC和OpenAI之間做選擇。”他在聲明中對我們說:“我們沒有解僱任何人的法律權力,只能施加道德壓力。”但私下裡,他明確表示奧特曼是因YC合夥人的不信任被免職。本文對奧特曼在Y Combinator經歷的描述,基於對多名YC創始人和合夥人的採訪及同期材料,均顯示此次離職並非完全自願。格雷厄姆曾對YC同事表示,在被免職前,“山姆一直對我們撒謊”。2015年5月,奧特曼給當時全球富豪榜第一百位的埃隆·馬斯克發了一封電子郵件。和許多矽谷知名企業家一樣,馬斯克憂心一系列他認為關乎人類存亡的緊急威脅,儘管在多數人看來這些只是牽強的假設。他在推特上寫道:“我們必須極度謹慎對待人工智慧,其潛在危險超過核武器。”奧特曼總體上是技術樂觀主義者,但此後他對人工智慧的言論轉向末日論調。公開場合及與馬斯克等人的私人通訊中,他警告這項技術不應由逐利的大型科技公司主導。他給馬斯克寫道:“我一直在思考能否阻止人類研發人工智慧。如果終究無法避免,那最好由Google之外的玩家率先實現。”他沿用核武器的類比,提議啟動“人工智慧曼哈頓計畫”,並列出該機構的核心原則——“安全應作為首要要求”“顯然我們會遵守並積極支援所有監管”,最終與馬斯克敲定名稱:OpenAI。與催生原子彈的政府項目曼哈頓計畫不同,OpenAI最初至少由私人出資。奧特曼預測,超級人工智慧——理論上超越通用人工智慧、機器全面超越人類心智的臨界點——最終將創造足夠的經濟價值,“捕獲宇宙未來所有價值的光錐”。但他也警告存在性危險:某一時刻,其國家安全影響可能極端嚴峻,美國政府或將接管OpenAI,甚至將其國有化,遷至沙漠中的安全掩體。2015年底,馬斯克被說服。他寫道:“我們應宣佈初始10億美元資金承諾,其他人不出的部分我來補。”奧特曼將OpenAI置於Y Combinator的非營利部門,定位為內部慈善項目。他向OpenAI新員工發放YC股權,並通過YC帳戶劃轉捐款。某一時期,實驗室由YC旗下一隻基金支援,奧特曼持有該基金個人股份。(奧特曼後稱該股份微不足道,對我們表示給員工的YC股權是自己持有的。)曼哈頓計畫的類比也適用於員工招聘。與核裂變研究一樣,機器學習是一個影響劃時代、由一群古怪天才主導的小眾科學領域。馬斯克、奧特曼與從Stripe加入的布羅克曼堅信,全球僅有少數電腦科學家能實現所需突破。Google資金雄厚,且領先數年。馬斯克後來在郵件中寫道:“我們在人員和資源上都處於絕對劣勢,但只要能逐步吸引最頂尖人才,且方向正確,OpenAI終將取勝。”核心招聘目標之一是蘇茨克弗,這位專注內向的研究者常被譽為其同輩中最具天賦的人工智慧科學家。1986年,蘇茨克弗出生於蘇聯,髮際線後退,雙眼深邃,說話時常停頓眨眼斟酌措辭。另一位目標是達里奧·阿莫迪,一名生物物理學家,精力充沛,習慣緊張地捻弄黑髮,回覆簡短郵件常寫多段長文。二人在其他機構均有高薪職位,但奧特曼對他們倍加關注。他後來開玩笑說:“我‘跟蹤’了伊利亞。”馬斯克名氣更大,但奧特曼手段更圓滑。他給阿莫迪發郵件,約在一家印度餐廳一對一晚餐。(奧特曼:“糟了,我的優步撞車了!大概晚10分鐘。”阿莫迪:“哇,希望你沒事。”)和許多人工智慧研究者一樣,阿莫迪認為只有證明人工智慧與人類價值觀“對齊”——即按人類意願行事,不犯致命錯誤,比如遵循清理環境的指令卻消滅最大污染源人類——才能研發該技術。奧特曼對此表示認同,呼應其安全擔憂。阿莫迪後來加入公司,多年來詳細記錄奧特曼和布羅克曼的行為,標題為“我與OpenAI的經歷”(副標題:私密,請勿分享)。矽谷同行間流傳著兩百多頁與阿莫迪相關的檔案,包括這些記錄、內部郵件和備忘錄,此前從未公開。阿莫迪在記錄中寫道,奧特曼的目標是打造“專注安全的人工智慧實驗室(或許不會立刻,但會盡快)”。2015年12月,OpenAI公開宣佈前幾小時,奧特曼給馬斯克發郵件,稱有傳言Google“明天會給OpenAI所有人開出巨額挽留報價,試圖扼殺我們”。馬斯克回覆:“伊利亞確定加入了嗎?”奧特曼保證蘇茨克弗立場堅定。Google向蘇茨克弗開出年薪600萬美元,OpenAI根本無法匹敵,但奧特曼誇口:“可惜他們沒有‘做正確的事’這張牌。”馬斯克為OpenAI在舊金山米申區一家舊行李箱工廠提供了辦公場地。蘇茨克弗對我們說,公司對員工的宣傳是“你們將拯救世界”。OpenAI創始人相信,若一切順利,人工智慧將開啟後稀缺烏托邦時代,自動化繁重工作,治癒癌症,讓人類享受休閒富足的生活。但一旦技術失控或落入惡人之手,可能造成徹底毀滅:人工智慧模型或擺脫監管,在秘密伺服器自我複製,無法被關閉;極端情況下,或控制電網、股市或核武庫。至少可以說,並非所有人都相信這一點,但奧特曼反覆確認自己深信不疑。他2015年在部落格中寫道,超人類機器智能“不必是科幻作品中邪惡的版本才能毀滅人類。更可能的場景是,它對人類漠不關心,卻為實現其他目標……將我們徹底清除”。OpenAI創始人承諾不重速度輕安全,公司章程將造福人類定為法定義務。如果人工智慧成為史上最強大的技術,那麼單獨掌控它的人將獲得獨一無二的權力——創始人稱之為“通用人工智慧獨裁”。奧特曼對早期新員工承諾OpenAI將保持純非營利性質,程式設計師為此大幅降薪入職。公司接受慈善撥款,包括當時名為“開放慈善項目”的機構3000萬美元資助,該機構是有效利他主義運動的核心平台,資助項目包括向全球貧困人口發放蚊帳。布羅克曼和蘇茨克弗負責OpenAI日常營運,馬斯克和奧特曼仍忙於其他工作,每周到訪約一次。但到2017年9月,馬斯克已失去耐心。在商議是否將OpenAI改組為營利性公司時,他要求獲得多數控制權。奧特曼的回應視情況而定,核心訴求始終是:若OpenAI重組設首席執行官,該職位必須由他擔任。蘇茨克弗對此感到不安,代表自己和布羅克曼給馬斯克和奧特曼發了一封長篇懇切郵件,主題為“坦誠的想法”。他寫道:“OpenAI的目標是創造美好未來,避免通用人工智慧獨裁。”他對馬斯克說:“因此,設立讓你可能成為獨裁者的架構是錯誤的。”他向奧特曼表達類似擔憂:“我們不明白首席執行官頭銜對你為何如此重要。你給出的理由反覆變化,很難知曉真正動機。”馬斯克回覆:“各位,我受夠了。要麼你們獨立創業,要麼OpenAI繼續作為非營利機構營運”,否則“我就是個傻瓜, 免費出資幫你們創立公司”。五個月後,他憤然辭職。(2023年,他創立營利性競爭對手xAI。次年,他起訴奧特曼和OpenAI欺詐及違反慈善信託,指控自己被“奧特曼的長期騙局”“精心操縱”,稱奧特曼利用他對人工智慧危險的擔憂騙取資金。訴訟仍在進行中,OpenAI堅決抗辯。)馬斯克離職後,阿莫迪等研究員對布羅克曼(被部分人視為行事強硬)和蘇茨克弗(普遍認為有原則但缺乏條理)的領導感到不滿。在升任首席執行官的過程中,奧特曼似乎對公司不同派系做出不同承諾。他向部分研究員保證將削弱布羅克曼的管理權限,卻暗中與布羅克曼、蘇茨克弗達成秘密協議:奧特曼擔任首席執行官,若另外二人認為必要,他同意辭職。(他否認這一說法,稱自己是受邀才擔任首席執行官。三人均確認協議存在,布羅克曼稱是非正式約定:“他單方面說若我們二人同時要求,他就辭職。我們反對,但他稱這對自己很重要,純粹是出於善意。”)後來,董事會得知首席執行官私下設立影子董事會,大為震驚。內部記錄顯示,創始人早在2017年就對非營利架構私下存疑。當年馬斯克試圖奪權後,布羅克曼在日記中寫道:“不能說我們堅守非營利……若三個月後轉型為共益企業,那就是謊言。”阿莫迪在早期記錄中回憶,曾追問布羅克曼的優先事項,布羅克曼稱想要“金錢和權力”。布羅克曼對此予以否認,其同期日記顯示內心矛盾:一條寫道“只要沒人暴富,我自己不發財也開心”,另一條則自問“我真正想要什麼?”,答案包括“實現10億美元財富”。2017年,蘇茨克弗在辦公室讀到Google研究員剛發表的一篇論文,提出“一種全新的簡單網路架構:Transformer”。他從椅子上跳起來,跑過走廊對同事說:“停下手裡所有事,就是這個了。”蘇茨克弗意識到,Transformer這一創新或讓OpenAI訓練出更先進的模型,由此誕生首個生成式預訓練Transformer——ChatGPT的雛形。我們瞭解到,隨著技術日益強大,約十二名OpenAI頂尖工程師召開一系列秘密會議,商議是否信任包括布羅克曼和奧特曼在內的OpenAI創始人。其中一次會議上,一名員工想起英國喜劇組合米切爾和韋伯的小品:東線戰場的一名納粹士兵幡然醒悟,問道“我們是壞人嗎?”到2018年,阿莫迪開始更公開地質疑創始人的動機。他後來在記錄中寫道:“一切都是輪番上演的融資騙局。我認為OpenAI需要明確自身使命、邊界及如何讓世界變得更好。”OpenAI已有使命宣言:“確保通用人工智慧造福全人類。”但阿莫迪不清楚高管對此的真實理解。2018年初,阿莫迪稱自己開始起草公司章程,與奧特曼和布羅克曼商議數周,推動加入最激進條款:若一個“價值觀對齊、重視安全”的項目先於OpenAI接近研發出通用人工智慧,公司將“停止競爭,轉而協助該項目”。這一“合併協助”條款意味著,若Google研究員率先研發出安全通用人工智慧,OpenAI可停止營運並捐贈資源。按常規企業邏輯,這一承諾近乎瘋狂,但OpenAI本就不該是常規公司。2019年春,OpenAI與微軟談判十億美元投資,這一前提受到考驗。牽頭公司安全團隊的阿莫迪雖協助向比爾·蓋茲推介交易,但團隊許多人對此感到焦慮,擔心微軟加入條款架空OpenAI的道德承諾。阿莫迪向奧特曼提交一份安全要求清單,將保留合併協助條款列為首要事項。奧特曼同意這一要求,但6月交易即將完成時,阿莫迪發現新增條款賦予微軟阻止OpenAI任何合併的權力。他回憶:“章程80%的內容被背叛了。”他當面質問奧特曼,奧特曼否認該條款存在,阿莫迪當眾朗讀條款內容,最終迫使另一名同事向奧特曼證實其存在。(奧特曼稱不記得此事。)阿莫迪的記錄描述了雙方矛盾不斷升級,包括數月後奧特曼傳喚他和在公司安全與政策部門工作的妹妹丹妮拉,稱從一名高管處得到“可靠消息”,二人密謀政變。記錄顯示,丹妮拉情緒激動,找來該高管對質,對方否認有過此言。據一名知情人士回憶,奧特曼隨後否認自己說過這話。丹妮拉反駁:“你剛說過。”(奧特曼稱記憶不完全一致,僅指責阿莫迪兄妹有“政治操弄行為”。)2020年,阿莫迪、丹妮拉及其他同事離職創立Anthropic,如今是OpenAI的主要競爭對手之一。奧特曼仍大肆宣揚OpenAI對安全的承諾,尤其在潛在新員工面前。2022年底,四名電腦科學家發表論文,部分源於對“欺騙性對齊”的擔憂——足夠先進的模型或在測試中偽裝良好,部署後卻追求自身目標(這一人工智慧場景看似科幻,卻已在部分實驗中出現)。論文發表數周後,作者之一、加州大學伯克利分校博士生收到奧特曼郵件,稱自己愈發擔憂未對齊人工智慧的威脅,還表示考慮為此投入10億美元,或許設立獎項激勵全球研究者研究這一眾多人工智慧專家眼中全球最重要的未解難題。這名博士生雖“聽聞過山姆圓滑的模糊傳言”,但奧特曼的承諾打動了他,便休學加入OpenAI。但2023年春的數次會議中,奧特曼態度搖擺,不再提及設立獎項,轉而主張組建內部“超級對齊團隊”。官方公告稱,團隊將獲得“公司已獲取算力的20%”——價值或超10億美元。公告稱該工作至關重要,因為若對齊問題無法解決,通用人工智慧或“導致人類喪失權力甚至滅絕”。與蘇茨克弗共同牽頭該團隊的揚·萊克對我們說:“這是很有效的留人手段。”然而,20%算力的承諾並未兌現。四名團隊內部及密切合作人士稱,實際資源僅佔公司算力的1%至2%。一名團隊研究員表示:“大部分超級對齊算力都用在最老舊、晶片最差的叢集上。”研究員認為優質硬體被預留用於盈利項目。(OpenAI予以否認。)萊克向時任公司首席技術官的穆拉蒂投訴,對方讓他別再糾纏,稱該承諾本就不切實際。一名前員工告訴我們,大約在這一時期,蘇茨克弗“徹底被安全問題沖昏頭腦”。OpenAI早期,他認為災難性風險合理但遙遠,如今卻愈發堅信通用人工智慧即將到來,擔憂加劇。這名前員工稱,一次全員大會上,“伊利亞站起來說,未來幾年內,公司所有人基本都要轉向安全研究,否則我們就完了”。但次年超級對齊團隊便解散,任務未完成。彼時內部消息顯示,高管和董事認為奧特曼的隱瞞和欺騙行為可能影響OpenAI產品安全。2022年12月的一次會議上,奧特曼向董事保證,即將推出的GPT-4模型多項功能已通過安全小組審批。董事兼人工智慧政策專家托納要求查看檔案,卻發現最具爭議的兩項功能——允許使用者“微調”模型完成特定任務、將模型部署為個人助理——並未獲批。董事兼企業家麥考利離開會場時,一名員工拉著她,問她是否知曉印度的“違規事件”。奧特曼在數小時的董事會匯報中,從未提及微軟未完成必要安全審查,就在印度發佈了ChatGPT早期版本。當時的OpenAI研究員雅各布·希爾頓說:“這件事完全被無視了。”儘管這些疏漏未引發安全危機,另一名研究員卡羅爾·溫賴特稱,這是“持續重產品輕安全”的表現。GPT-4發佈後,萊克給董事們發郵件:“OpenAI已偏離使命,我們將產品和收益置於一切之上,其次是人工智慧能力、研究與規模化,對齊與安全排在最後。”他還寫道:“Google等公司也在學著加快部署,無視安全問題。”麥考利在給其他董事的郵件中寫道:“我認為董事會確實該加強監管力度了。”董事們試圖應對這一日益嚴重的問題,卻力不從心。前董事蘇·尹說:“坦率說,一群沒什麼經驗的人根本應對不了。”2023年,公司準備發佈GPT-4 Turbo模型。蘇茨克弗在備忘錄中詳述,奧特曼顯然告知穆拉蒂該模型無需安全審批,並援引總法律顧問傑森·權的話。但穆拉蒂在Slack上詢問傑森·權時,對方回覆:“呃……不知道山姆那來的印象。”(傑森·權仍任職於OpenAI,公司發言人表示此事“沒什麼大不了”。)不久後,董事會做出解僱奧特曼的決定——隨後全世界見證了奧特曼逆轉局面。OpenAI章程版本仍掛在官網,但知情人士稱其已被稀釋至毫無意義。去年6月,奧特曼在個人部落格談及超級人工智慧時寫道:“我們已越過事件視界,起飛已然開始。”按章程,此時OpenAI或應停止與其他公司競爭,轉而合作。但在這篇名為《溫和奇點》的文章中,他語氣大變,用樂觀取代末日恐慌,寫道:“我們都會擁有更好的事物,我們將為彼此創造更精彩的東西。”他承認對齊問題仍未解決,卻重新定義其性質——不再是致命威脅,而是類似Instagram演算法讓人沉迷刷屏的小麻煩。奧特曼常被滿懷敬畏或懷疑地稱為其世代最頂尖的推銷員。他的偶像史蒂夫·賈伯斯據稱擁有“現實扭曲力場”——堅信世界會順應自己願景的無敵自信。但賈伯斯從未告訴顧客,不買自己的MP3播放器就會失去所愛之人。2008年,23歲的奧特曼被導師格雷厄姆評價:“就算把他扔到食人族島上,五年後回來他也會成為國王。”這一判斷並非基於奧特曼有限的過往成績,而是他近乎失控的求勝意志。有人建議格雷厄姆不要把YC校友列入全球頂級初創創始人榜單,他仍把奧特曼列入,寫道:“區區規則攔不住山姆·奧特曼。”格雷厄姆本意是讚美,但奧特曼最親密的部分同事對此有不同看法。蘇茨克弗愈發擔憂人工智慧安全後,整理了關於奧特曼和布羅克曼的備忘錄,這些檔案在矽谷聲名遠颺,部分圈子裡直接稱為“伊利亞備忘錄”。與此同時,阿莫迪仍在繼續記錄。這些檔案及相關材料記錄了他從謹慎理想主義到警惕的轉變,言辭比蘇茨克弗更激烈,時而怒斥奧特曼“他的話幾乎肯定是胡扯”,時而惋惜自己未能糾正OpenAI的方向。兩份檔案均無決定性證據,而是羅列了一系列所謂的欺騙和操縱行為,單看每一件或許不值一提:奧特曼據稱向兩人提供同一職位、就直播人選講述矛盾說辭、在安全要求上撒謊。但蘇茨克弗得出結論,此類行為“不利於打造安全的通用人工智慧”。阿莫迪和蘇茨克弗並非密友,卻得出相似結論:阿莫迪寫道,“OpenAI的問題就是山姆本人”。我們採訪了一百多名親歷奧特曼商業運作的人士:現任及前任OpenAI員工、董事、奧特曼各處宅邸的賓客與工作人員、同事與競爭對手、朋友與敵人,以及在矽谷逐利文化中兼具多重身份的人。(OpenAI與《紐約客》母公司康泰納仕有協議,可在有限期限內將其內容展示在搜尋結果中。)部分人維護奧特曼的商業才能,駁斥其對手(尤其是蘇茨克弗和阿莫迪)是覬覦其位置的失敗者,或將他們描繪成輕信、心不在焉的科學家,或是被“末日論”裹挾、幻想自己研發的軟體會復活殺人的人士。前董事蘇·尹認為,奧特曼“不是馬基雅維利式的惡棍”,只是“無能到”能說服自己相信推銷說辭裡不斷變化的現實。“他太沉浸於自我信念,”她說,“所以做出現實中毫無意義的事,他根本活在現實之外。”但我們採訪的大多數人認同蘇茨克弗和阿莫迪的判斷:奧特曼擁有不屈不撓的權力慾,即便在把名字刻在太空飛船上的實業家中也格外突出。一名董事告訴我們:“他不受真相約束,身上有兩種極少並存的特質:一是極度渴望取悅他人,在任何交流中都想被喜歡;二是近乎反社會般無視欺騙他人的後果。”這名董事並非唯一主動用“反社會”一詞的人。奧特曼在YC首批同期學員中的亞倫·施瓦茨是一名才華橫溢卻飽受困擾的程式設計師,2013年自殺身亡,如今在科技界被視為智者。去世前不久,施瓦茨對多名朋友表達對奧特曼的擔憂:“你要明白,山姆永遠不值得信任,他是反社會者,什麼事都做得出來。”微軟多名高管表示,儘管納德拉長期忠誠,公司與奧特曼的關係已變得緊張。一名高管稱:“他歪曲事實、篡改協議、出爾反爾。”今年初,OpenAI重申微軟為其“無狀態”(即無記憶)模型的獨家雲服務商,當天又宣佈與亞馬遜達成500億美元交易,使其成為企業人工智慧代理平台的獨家轉售商。儘管轉售行為被允許,但微軟高管認為OpenAI的計畫或與微軟的獨家權衝突。(OpenAI稱亞馬遜交易未違反此前合同,微軟髮言人表示公司“相信OpenAI理解並尊重”其法律義務。)這名微軟高管評價奧特曼:“我認為有很小但真實的可能,他最終會被視作伯尼·麥道夫或山姆·班克曼-弗裡德等級的騙子。”奧特曼並非技術專家——據其身邊多人稱,他缺乏程式設計或機器學習的深厚專業知識,多名工程師回憶他誤用或混淆基礎技術術語。他很大程度上靠整合他人的資金和技術人才打造OpenAI,這並不獨特,只是一名商人。更出眾的是,他能說服謹慎的工程師、投資者和對科技持懷疑態度的公眾,他們即便相互矛盾的訴求也是他的訴求。當這些人試圖阻礙他下一步行動時,他總能找到言辭化解,至少暫時如此;通常等他們對他失去耐心時,他已達成目的。前OpenAI研究員溫賴特說:“他設立看似能約束自己的架構,但未來需要受約束時,就直接拋棄這些架構。”一名與奧特曼合作過的科技高管說:“他說服力極強,簡直是絕地控心術,水平登峰造極。”對齊研究中的經典假設場景是人類與高性能人工智慧的意志較量,研究者通常認為人工智慧會完勝,如同國際象棋特級大師擊敗孩童。這名高管稱,目睹奧特曼在“小插曲”中智勝身邊人,就像“通用人工智慧逃出牢籠”。被解僱後的幾天裡,奧特曼極力避免外界對針對他的指控展開調查,對兩人表示擔心調查本身就會讓他顯得有罪。(奧特曼否認此事。)但離職董事將離開條件設為開展獨立調查後,奧特曼同意對“近期事件”進行“審查”。據談判知情人士稱,兩名新董事堅持由自己掌控審查,人脈遍佈政界和華爾街的薩默斯似乎為審查增添了可信度。(去年11月,薩默斯被曝在與年輕門生交往期間尋求傑佛瑞·愛潑斯坦建議的郵件曝光後,辭去董事職務。)OpenAI聘請知名律所威爾默黑爾負責審查,該律所曾主導安然和世通公司的內部調查。六名接近調查的人士稱,此次調查似乎旨在限制透明度。部分人表示,調查人員最初未聯絡公司重要人物,一名員工向薩默斯和泰勒投訴。該員工回憶與調查人員的面談:“他們只關注董事會風波期間的狹隘事件,不關注他誠信問題的歷史。”其他人因匿名保障不足,不願分享對奧特曼的擔憂。這名員工說:“一切跡象都表明他們只想得出開脫他的結果。”(部分涉案律師為流程辯護,稱“這是獨立、嚴謹、全面的審查,依據事實展開”。泰勒也稱審查“徹底且獨立”。)企業調查旨在賦予合法性,私營公司的調查結果有時不形成書面記錄,以此限制責任;但涉及公共醜聞的案件,公眾通常期待更高透明度。2017年卡蘭尼克離開優步前,董事會聘請外部機構並行布13頁公開摘要。鑑於OpenAI的501(c)(3)非營利身份和解僱事件的高關注度,公司多名高管期待看到詳盡調查結果。然而2024年3月,OpenAI宣佈為奧特曼開脫,卻未發佈報告,僅在官網發佈約800字內容,承認“信任破裂”。調查知情人士稱,未發佈報告是因為根本沒有書面報告,調查結果僅以口頭簡報形式告知薩默斯和泰勒。一名接近調查的人士說:“審查並未認定山姆擁有喬治·華盛頓砍櫻桃樹般的誠信。”但調查似乎未聚焦奧特曼被解僱背後的誠信問題,而是大量追查明確犯罪行為,據此認定他可繼續擔任首席執行官。不久後,被解僱時逐出董事會的奧特曼重新入席。該人士稱,不形成書面報告部分是聽取了薩默斯和泰勒私人律師的建議。(薩默斯拒絕公開評論,泰勒稱基於口頭簡報,“無需正式書面報告”。)多名OpenAI現任及前任員工對資訊披露不足表示震驚。奧特曼稱,他復職後加入的所有董事均收到口頭簡報。一名知情人士直言:“這是徹頭徹尾的謊言。”部分董事表示,報告誠信問題的持續質疑或引發“需要另一場調查”。無書面記錄助力淡化指控,奧特曼在矽谷的地位也日益提升。多名與奧特曼合作過的知名投資者告訴我們,他有排擠投資OpenAI競爭對手的投資者的名聲。一名投資者稱:“如果他們投資他不喜歡的項目,就無法獲得其他機會。”奧特曼權力的另一來源是龐大的投資清單,甚至延伸至個人生活,他與多名前任伴侶存在財務關聯:擔任基金聯合管理人、領投人或聯合投資者。這在矽谷並不罕見,許多異性戀高管也與伴侶如此。(一名知名首席執行官對我們說:“不得不這麼做。”)奧特曼說:“我顯然和部分前任分手後有過投資合作,我覺得完全沒問題。”但這種關係帶來極高的控制權。一名接近奧特曼的人士稱:“這形成了極高的依賴性,往往是終身依賴。”即便前同事也會受影響。穆拉蒂2024年離開OpenAI,開始打造自己的人工智慧初創公司。與奧特曼關係密切的喬希·庫什納致電她,先讚揚其領導力,隨後發出隱晦威脅,稱自己“擔憂”她的“聲譽”,前同事如今視她為“敵人”。(庫什納通過發言人表示該描述“未體現完整背景”,奧特曼稱不知曉這通電話。)奧特曼就任首席執行官之初宣佈,OpenAI將設立由非營利機構控股的上限利潤公司,這一複雜架構由他設計。轉型期間,董事霍爾登·卡諾夫斯基提出反對,認為非營利機構被嚴重低估。身為阿莫迪姐夫的卡諾夫斯基稱:“我無法違背良心這麼做。”據同期記錄,他投了反對票。但董事會律師稱其異議“或引發對新架構合法性的進一步調查”後,他的投票未經同意被記為棄權——涉嫌偽造商業記錄。(OpenAI稱多名員工記得卡諾夫斯基棄權,並提供會議記錄佐證。)去年10月,OpenAI“資本重組”為營利性實體,公司宣揚旗下非營利機構OpenAI基金會是史上“資源最充足”的基金會之一,如今卻僅持有公司26%股份,其董事除一人外,均兼任營利性公司董事。國會作證時,被問及是否“賺了很多錢”,奧特曼回答:“我在OpenAI沒有股權……我做這份工作是因為熱愛。”考慮到他通過YC基金的間接股權,這一回答措辭謹慎,且技術上仍成立。但包括奧特曼在內的多人向我們表示,這一情況或很快改變。奧特曼說:“投資者希望我在困境中堅守,”但補充稱目前並無“積極討論”。據法律證詞,布羅克曼持有公司股份價值約200億美元,奧特曼的股份估值或更高。儘管如此,他對我們表示自己的主要動機並非財富。一名前員工回憶他說:“我不在乎錢,我更在乎權力。”2023年,奧特曼與馬爾赫林在夏威夷的一處宅邸舉行小型婚禮(二人九年前在彼得·蒂爾的按摩浴缸深夜相識)。他們在該宅邸接待過眾多賓客,受訪賓客稱所見不過是富豪的常規消遣:私人廚師烹製的餐食、黃金時段的乘船遊覽。一場新年派對以“倖存者”為主題,照片中多名赤裸上身、笑容滿面的男士,還有真人秀《倖存者》真正主持人傑夫·普羅斯特。奧特曼還在自己的宅邸接待過小群朋友,至少一次包括一場熱鬧的脫衣撲克遊戲。(照片中無奧特曼,勝負不明,但至少三名男士明顯輸了。)我們採訪的多名前賓客僅表示他是慷慨的主人。儘管如此,關於奧特曼私生活的謠言被競爭對手利用和歪曲。殘酷的商業競爭本就常見,但人工智慧行業的競爭已變得異常激烈。(一名OpenAI高管用“莎士比亞式”形容,稱“遊戲的常規規則不再適用”。)與馬斯克直接關聯、至少一人獲其酬勞的中間人,散佈了數十頁關於奧特曼的詳細負面資料,包含大量監控資訊:與他關聯的空殼公司、親密助手的個人聯絡方式,甚至在同性戀酒吧採訪所謂性工作者的內容。一名馬斯克中間人聲稱,奧特曼的航班和出席的派對都被追蹤。奧特曼對我們說:“我想沒人比我被更多私家偵探調查過。”極端言論四處流傳。右翼主播塔克·卡爾森無明顯證據暗示奧特曼與一名告密者的死亡有關,此類言論被競爭對手放大。奧特曼的妹妹安妮在訴訟和接受我們採訪時稱,奧特曼從她三歲、他十二歲起長期對她實施性虐待。(我們無法證實安妮的說法,奧特曼予以否認,其兄弟和母親稱其“完全不實”,給全家帶來“巨大痛苦”。記者卡倫·郝為撰寫《人工智慧帝國》一書採訪安妮時,安妮稱虐待記憶是成年後閃回恢復的。)多名競爭對手公司和投資機構人士向我們暗示,奧特曼性侵未成年人——這一說法在矽谷流傳甚廣,卻看似不實。我們花費數月調查,採訪數十人,未發現任何證據。奧特曼對我們說:“這是競爭對手的噁心行為,想必是為了影響我們即將到來的案件陪審團。儘管很荒唐,但我必須聲明,任何關於我性侵未成年人、僱傭性工作者或涉及謀殺的指控均完全不實。”他還表示,“有點慶幸”我們花費數月“如此積極地調查此事”。奧特曼承認與成年年輕男性交往,我們採訪的多名伴侶表示不認為這有問題。但馬斯克中間人的負面資料將此作為攻擊點(資料包含低俗且無根據的“小白臉軍團”“糖爹性習慣”等表述)。奧特曼說:“我認為其中充斥著恐同情緒。”科技記者斯威舍對此表示認同:“這些富豪都做過瘋狂的事,比山姆的離譜得多,但他是舊金山的同性戀,所以這一點被拿來攻擊。”十年來,社交媒體高管承諾改變世界卻幾乎不考慮負面影響,將希望放緩其發展的立法者斥為盧德分子,最終招致兩黨嘲諷。相比之下,奧特曼顯得格外盡責,非但不抵制監管,反而近乎主動請求監管。2023年在參議院司法委員會作證時,他提議設立新聯邦機構監督先進人工智慧模型。他說:“這項技術一旦出錯,後果會很嚴重。”以與科技首席執行官激烈交鋒聞名的路易斯安那州參議員約翰·甘迺迪似乎被他打動,手托臉頰暗示或許應由奧特曼親自執行規則。但奧特曼公開歡迎監管的同時,私下卻遊說反對。據《時代》周刊報導,2022至2023年,OpenAI成功遊說削弱歐盟一項對大型人工智慧公司加強監管的法案。2024年,加利福尼亞州議會提出一項法案,要求對人工智慧模型進行安全測試,條款與奧特曼國會作證時主張的內容相似。OpenAI公開反對該法案,私下卻發出威脅。一名立法助手對我們說:“這一年裡,我們目睹了OpenAI愈發狡猾、欺騙的行為。”投資者康威遊說包括南希·佩洛西、加文·紐森在內的加州政治領導人否決該法案。最終法案獲兩黨支援在議會通過,卻被紐森否決。今年,支援人工智慧監管的國會候選人面臨由新“親人工智慧”超級政治行動委員會“引領未來”資助的對手攻擊,該委員會旨在阻撓此類監管。OpenAI官方立場是不向此類超級政治行動委員會捐款。萊漢近日對CNN表示:“這一問題超越黨派政治。”然而“引領未來”的主要捐贈者之一是格雷格·布羅克曼,他承諾捐款5000萬美元(今年,布羅克曼與妻子向支援川普的超級政治行動委員會MAGA Inc.捐款2500萬美元)。OpenAI的行動超出傳統遊說範疇。去年,加州參議院提出一項後續法案。一天晚上,29歲的律師內森·卡爾文正在家與妻子共進晚餐,他就職於非營利機構Encode,參與起草該法案,一名送達人突然上門,遞交OpenAI的傳票。公司聲稱尋找馬斯克秘密資助批評者的證據,卻要求卡爾文提交所有關於該州參議院法案的私人通訊。卡爾文對我們說:“他們本可以直接問我們‘是否與埃隆·馬斯克交談或接受其資助’,我們並沒有。”該法案的其他支持者及批評OpenAI營利性重組的人士也收到傳票。詹姆斯·歐文基金會負責人唐·霍華德說:“他們針對這些人,就是為了恐嚇他們閉嘴。”(OpenAI稱這是標準法律程序。)奧特曼長期支援民主黨。他對我們說:“我極度不信任用恐懼故事欺壓弱者的強權者,這是猶太人的立場,不是同性戀的。”2016年,他支援希拉里·克林頓,稱川普是“美國前所未有的威脅”。2020年,他向民主黨和拜登勝利基金捐款。拜登政府期間,奧特曼至少六次在白宮會面,協助制定長達篇幅的行政命令,確立首個聯邦人工智慧安全測試及監管框架。拜登簽署該命令後,奧特曼稱其“良好開端”。2024年,拜登民調支援率下滑,奧特曼的言論開始轉變。他說:“我相信無論大選結果如何,美國都會安好。”川普勝選後,奧特曼向其就職基金捐款100萬美元,隨後在就職典禮上與網紅傑克·保羅、洛根·保羅自拍。他在X平台用一貫的小寫風格寫道:“近期更仔細關注總統,徹底改變了我的看法(真希望我早一點獨立思考……)。”川普重返白宮首日,便廢除拜登的人工智慧行政命令。一名拜登政府高級官員評價奧特曼:“他找到了讓川普政府為其效力的有效方式。”馬斯克仍在公開場合痛斥奧特曼,稱其為“騙子奧特曼”“狡詐山姆”。(奧特曼在X平台抱怨訂購的特斯拉汽車時,馬斯克回覆:“你偷走了一家非營利機構。”)但在華盛頓,奧特曼似乎勝過了他。馬斯克為川普連任花費超2.5億美元,在白宮工作數月,隨後離開華盛頓,與川普關係受損。如今奧特曼是川普青睞的大亨之一,甚至陪同川普前往溫莎城堡拜訪英國王室。二人每年交談數次。奧特曼說:“你可以直接給他打電話,我們不是密友,但有事我會找他談。”去年川普在白宮宴請科技領袖時,馬斯克明顯缺席,奧特曼坐在總統對面。川普說:“山姆,你是重要領袖,你之前告訴我的事簡直難以置信。”多年來,奧特曼持續將研發通用人工智慧比作曼哈頓計畫。奧特曼利用對這項技術地緣影響的恐懼造勢。根據聽眾不同,他用這一類比推動加速發展或謹慎行事。2017年夏,與美國情報官員會面時,他聲稱東方國家啟動了“通用人工智慧曼哈頓計畫”,OpenAI需要數十億美元政府資金追趕。被要求提供證據時,奧特曼稱:“我聽到的。”這是他多次提出該說法的首次會面。一次會面後,他對一名情報官員稱會補充證據,卻從未兌現。該官員調查後得出結論,並無相關證據:“這只是推銷說辭。”(奧特曼稱不記得了)。面對安全意識日益增強的受眾,奧特曼借用這一類比,表達的卻是相反的含義:通用人工智慧必須謹慎推進,並開展國際協作,否則後果將是災難性的。2017年,阿莫代伊聘請了前公益律師佩奇·赫德利擔任OpenAI的政策與倫理顧問。在一次面向高管的早期PPT演示中,赫德利闡述了OpenAI如何避免一場“災難性”的軍備競賽——或許可以組建一個人工智慧實驗室聯盟,最終與一個類似北約的國際機構協作,確保這項技術得到安全部署。據赫德利回憶,布羅克曼並不理解這對公司擊敗競爭對手有何幫助。“無論我說什麼,”赫德利告訴我們,“格雷格總是繞回‘那我們怎麼籌更多錢?怎麼贏?’”據多次採訪和同期記錄顯示,布羅克曼提出了一個反方案:OpenAI可以利用包括東方大國和俄羅斯在內的世界大國相互制衡,甚至在它們之間挑起競價戰,以此牟利。赫德利稱,當時的思路似乎是:這招在核武器上管用,為什麼不能用在人工智慧上?他對此感到驚駭:“他們沒有反駁的前提是‘我們談論的可能是有史以來最具破壞性的技術——要是我們把它賣給俄羅斯呢?’”(布羅克曼堅稱,他從未認真考慮過將人工智慧模型拍賣給各國政府。一位OpenAI發言人表示:“大家曾在高層層面探討過,可能建立何種框架來促進國家間合作——類似人工智慧領域的國際空間站。試圖將其歪曲解讀為其他含義,完全是荒謬至極。”)頭腦風暴會議常常會產生離奇的想法。赫德利希望這個內部被稱為“國家計畫”的點子能被擱置。然而,據多名相關人士及同期檔案顯示,OpenAI高管們似乎反而對此愈發興奮。時任OpenAI政策總監傑克·克拉克稱,布羅克曼的目標是“基本上製造一場囚徒困境,讓所有國家都不得不給我們提供資金”,而這“無形中會讓不給我們資金的行為變得有些危險”。一名初級研究員回憶,在公司會議上詳細討論該計畫時,他心想:“這簡直他媽的瘋了。”高管們至少與一位潛在捐贈者討論過這一方案。但當月晚些時候,在多名員工揚言辭職後,該計畫被放棄。赫德利說,奧特曼“會失去員工”。“我感覺在山姆的考量中,這一點的份量,始終超過‘這個計畫不好,因為可能引發大國間戰爭’。”“國家計畫”的流產並未讓奧特曼氣餒,他轉而推行類似思路的變體方案。2018年1月,他在貝爾艾爾酒店召集了一場“通用人工智慧周末閉門會”。這家老牌好萊塢度假酒店擁有種滿三角梅的起伏花園,以及養著真天鵝的人工池塘。與會者包括當時在牛津大學、被奉為人工智慧末日預言家的哲學家尼克·博斯特羅姆;阿聯人工智慧事務部長、人工智慧支持者奧馬爾·奧拉馬;以及至少七位億萬富翁。其中關注安全問題的人士被告知,這是一次思考社會如何為通用人工智慧顛覆性到來做準備的機會;而投資者們則以為會聽到融資路演。白天,眾人在一間雅緻的會議室裡聆聽演講。(領英聯合創始人霍夫曼闡述了為人工智慧注入佛教慈悲理念的可能性。)最後一位演講者是奧特曼,他帶著一份簡報,提出發行一種全球加密貨幣,“可兌換通用人工智慧的算力服務”。一旦通用人工智慧達到極致實用且“反邪惡”的狀態,全球民眾都會爭相購買OpenAI伺服器的使用時間。阿莫代伊在筆記中寫道:“這個想法從表面看就荒謬至極。現在回想起來,這是關於山姆的眾多危險訊號之一,我本應更重視才對。”該計畫看似一場圈錢操作,奧特曼卻將其包裝成有利於人工智慧安全的舉措。他的一張幻燈片寫道:“我希望儘可能多的人加入‘正義’陣營,贏得勝利,做正確的事。”另一張則寫著:“請忍到演示結束再笑。”多年來,奧特曼的融資說辭不斷演變,但始終反映一個事實:開發通用人工智慧需要巨額資金。他遵循的是一條相對簡單的“縮放定律”:用於訓練模型的資料和算力越多,模型似乎就越智能。實現這一過程的專用晶片造價極其高昂。僅在最近一輪融資中,OpenAI就籌集了超過1200億美元——這是史上規模最大的私募融資,金額是史上最大IPO的四倍。一位科技行業高管兼投資者告訴我們:“想想看,世界上每年能自主支配上千億美元的實體屈指可數。只有美國政府、美國最大的四五家科技公司、沙烏地阿拉伯和阿聯——基本就這些。”奧特曼最初的目標是沙烏地阿拉伯。2016年,他在舊金山費爾蒙特酒店的一場晚宴上,首次會見了沙烏地阿拉伯王儲薩勒曼。赫德利回憶,此後奧特曼便稱這位王儲為“朋友”。2018年9月,據赫德利的筆記記載,奧特曼說:“我在考慮,我們到底該不該從沙烏地阿拉伯公共投資基金拿數百億美元。”一周後,有消息宣佈奧特曼加入了本·薩勒曼計畫在沙漠中建造的“未來城市”尼奧姆的顧問委員會。現任Anthropic高管、時任政策總監克拉克回憶,他當時對奧特曼說:“山姆,你不能加入這個委員會。”奧特曼起初為自己的決定辯護,告訴克拉克賈裡德·庫什納向他保證沙烏地阿拉伯人“沒做這件事”。(奧特曼否認有過此番言論。庫什納稱當時雙方並無聯絡。)後來,奧特曼退出了尼奧姆顧問委員會。但據一位奧特曼曾諮詢過的政策顧問回憶,在私下裡,他將此事視為暫時的挫折,詢問是否仍能設法從本·薩勒曼那裡獲得資金。“他問的不是‘這麼做對不對’,”這位顧問說,“而是‘如果我們這麼做,後果會是什麼?會不會有出口管制問題?會不會遭到制裁?說白了,我能不能全身而退?’”那時,奧特曼已經盯上了另一個資金來源:阿聯。該國正進行一項為期十五年的計畫,試圖從石油國家轉型為科技中心。2023年6月,奧特曼訪問阿布扎比,在一場活動的發言中,他稱該國“早在人工智慧流行之前就開始探討它”,並勾勒出中東在未來人工智慧領域佔據“核心地位”的願景。向海灣國家融資已成為許多大企業的慣例。但奧特曼追求的是更宏大的地緣政治願景。2023年秋,他開始悄悄為一項計畫招募新人才——該計畫最終被命名為ChipCo,由海灣國家提供數百億美元,用於建造巨型晶片製造廠和資料中心,部分設施將落戶中東。奧特曼向現任Meta人工智慧負責人亞歷山大·王拋出橄欖枝,邀請他擔任高管,並表示亞馬遜創始人傑夫·貝索斯可能執掌這家新公司。奧特曼希望阿聯提供巨額出資。一位董事會成員稱:“據我瞭解,整件事董事會完全不知情。”奧特曼曾試圖招募研究員詹姆斯·布萊德伯裡參與該項目,後者回憶自己拒絕了。他說:“我的第一反應是‘這事兒能成,但我不確定我想讓它成’。”人工智慧能力或許很快會取代石油或濃縮鈾,成為決定全球力量格局的資源。奧特曼曾稱算力是“未來的貨幣”。通常情況下,資料中心建在那裡或許無關緊要。但多名美國安全官員對將先進人工智慧基礎設施集中在海灣地區感到焦慮。奧特曼被解僱後,他最依賴的人是愛彼迎聯合創始人切斯基,也是他最堅定的支持者之一。切斯基告訴我們:“看著我的朋友陷入那樣的絕境,讓我對經營一家公司的真正意義產生了一些根本性的質疑。”次年,在一場Y Combinator校友聚會上,他發表了一場即興演講,持續了兩個小時。“感覺像是一場團體心理治療,”他說。演講的核心思想是:你對經營自己創立公司的直覺才是最好的,任何告訴你相反觀點的人都是在精神操控你。切斯基說:“你沒有瘋,即便你的員工說你瘋了。”保羅·格雷厄姆在一篇關於這場演講的部落格文章中,給這種態度起了個名字:創始人模式。自那次風波之後,奧特曼便進入了“創始人模式”。2024年2月,《華爾街日報》披露了奧特曼對ChipCo的構想。他計畫將其打造成一家合資實體,投資規模達5兆至7兆美元。(他在推特上寫道:“管他呢,乾脆8兆得了。”)許多員工正是通過這篇報導才得知該計畫。萊克回憶:“所有人都一臉‘等等,什麼情況?’”奧特曼在一次內部會議上堅稱,安全團隊“已參與其中”。萊克隨即發消息敦促他,不要虛假暗示該項目已獲安全團隊認可。拜登政府時期,奧特曼曾申請安全許可,希望參與機密人工智慧政策討論。但協助協調該流程的蘭德公司工作人員表達了擔憂。其中一人寫道:“他一直在積極向外國政府籌集‘數千億美元’。阿聯最近還送了他一輛車。(我猜是輛非常好的車。)”該工作人員接著寫道:“我能想到的、曾以如此深度的海外金融關聯申請安全許可的人,只有賈裡德·庫什納,而稽核人員當時建議不授予他許可。”奧特曼最終退出了申請流程。一位參與與奧特曼會談的政府高級官員告訴我們:“他一直在推進這種交易性關係,主要是和阿聯,這在我們一些人看來亮起了大量紅燈。政府裡很多人並非完全信任他。”當我們問及奧特曼有關塔赫農贈送禮物一事時,他說:“我不會透露他具體送了我什麼禮物。但他和其他世界領導人……確實送過我禮物。”他補充道:“我們有一套標準政策,對我也適用,任何潛在商業夥伴贈送的禮物都會向公司報備。”奧特曼至少擁有兩輛頂級超跑:一輛價值約200萬美元的全白科尼賽克Regera,以及一輛價值約2000萬美元的紅色邁凱倫F1。2024年,有人拍到奧特曼駕駛Regera穿行於納帕谷。一段幾秒的視訊流傳到社交媒體上:奧特曼坐在低矮的桶形座椅上,從一輛亮白色跑車的車窗向外望去。一位與馬斯克立場一致的科技投資者在X平台發佈了這段視訊,並寫道:“我明年要成立一個非營利組織。”2024年,奧特曼帶著兩名OpenAI員工,登上了塔赫農酋長價值2.5億美元的超級遊艇“瑪利亞號”。作為全球最大的遊艇之一,瑪利亞號配有直升機停機坪、夜總會、電影院和海灘俱樂部。在塔赫農的武裝安保人員中,奧特曼的員工顯得格外扎眼,至少有一人後來告訴同事,這段經歷讓他感到不安。奧特曼隨後在X平台稱塔赫農是“親愛的私人朋友”。奧特曼繼續與拜登政府會面,而後者已出台政策,要求敏感技術出口需獲得白宮批准。多名政府官員在這些會議後,對奧特曼在中東的野心感到擔憂。據這些官員稱,他常常發表宏大言論,包括將人工智慧稱為“新的電力”。2018年,他稱OpenAI計畫從一家名為Rigetti Computing的公司購買一台完整可用的量子電腦。這一消息連在場的其他OpenAI高管都毫不知情。而當時Rigetti遠未具備出售可用量子電腦的能力。在另一場會議上,奧特曼聲稱到2026年,美國境內將建成廣泛的核聚變反應堆網路,為人工智慧熱潮提供電力。那位政府高級官員說:“我們當時的反應是‘好吧,如果他們真能實現核聚變,那確實是個大新聞’。”拜登政府最終未予批准。美國商務部一位負責人對奧特曼表示:“我們不會在阿聯建造先進晶片。”據《華爾街日報》報導,川普就職典禮前四天,塔赫農向川普家族支付5億美元,換取其加密貨幣公司的股份。次日,奧特曼與川普進行了一場25分鐘的通話,雙方討論宣佈推出ChipCo的一個版本,時機恰好能讓川普攬下功勞。川普上任第二天,奧特曼在羅斯福室宣佈成立“星門”項目——一項規模達5000億美元的合資企業,旨在全美範圍內建造龐大的人工智慧基礎設施網路。5月,川普政府撤銷了拜登時期對人工智慧技術的出口限制。奧特曼與川普一同前往沙烏地阿拉伯王宮會見本·薩勒曼。幾乎與此同時,沙烏地阿拉伯宣佈成立一家由國家巨資支援的大型人工智慧公司,將投入數十億美元開展國際合作。約一周後,奧特曼公佈了星門項目拓展至阿聯的計畫。公司擬在阿布扎比建設一個資料中心園區,面積是紐約中央公園的七倍,耗電量大致相當於邁阿密全市。一位前OpenAI高管稱:“事實是,我們正在建造真正意義上召喚外星生命的門戶。這些門戶目前存在於美國和東方大國,而山姆又在中東加了一個。”他接著說:“我認為這是有史以來最魯莽的行為。”安全承諾的弱化已成為行業常態。Anthropic的創立初衷是,只要架構和領導層得當,就能避免安全承諾在商業壓力下瓦解。其中一項承諾便是“負責任縮放政策”,規定若無法證明模型安全,Anthropic有義務停止訓練更強大的模型。2月,在該公司獲得300億美元新融資之際,卻弱化了這一承諾。在某些方面,Anthropic對安全的重視程度仍高於OpenAI。但前政策總監克拉克表示:“資本市場體系要求你加快速度。”他補充道:“最終做決定的是世界,而非企業。”去年,阿莫代伊向Anthropic員工傳送備忘錄,披露公司將尋求阿聯和卡達的投資。2024年,Anthropic與矽谷立場最強硬的國防承包商之一帕蘭提爾達成合作,將其人工智慧模型Claude直接推向軍事領域。Anthropic成為五角大樓最高機密場景中唯一使用的人工智慧承包商。去年,五角大樓再次授予該公司一份2億美元的合同。1月,美軍發動午夜突襲,抓獲委內瑞拉總統尼古拉斯·馬杜羅。據《華爾街日報》報導,Claude在此次機密行動中得到應用。但Anthropic與政府之間出現了矛盾。多年前,OpenAI已從政策中刪除了全面禁止將技術用於“軍事與戰爭”的條款。最終,包括Google和xAI在內的Anthropic競爭對手均同意向軍方提供模型,用於“所有合法用途”。而Anthropic的政策禁止其研發全自動武器或國內大規模監控技術,並在這些問題上堅持立場,導致新協議的談判處理程序放緩。2月下旬的一個周二,國防部長皮特·赫格塞思召阿莫代伊至五角大樓,下達最後通牒:公司必須在周五下午5點01分前放棄這些禁令。截止日期前一天,阿莫代伊拒絕妥協。赫格塞思在推特上宣佈,將把Anthropic列為“供應鏈風險實體”,並在數日後兌現了這一威脅。OpenAI和Google的數百名員工簽署了一封題為《我們不會被分裂》的公開信,聲援Anthropic。奧特曼在一份內部備忘錄中寫道,這一爭端“關乎整個行業”,並聲稱OpenAI與Anthropic持有相同的道德底線。但至少兩天前,奧特曼已在與五角大樓談判。國防部負責研究與工程的副部長埃米爾·邁克爾在尋找Anthropic的替代方案時聯絡了奧特曼。“我需要盡快找到替代者,”邁克爾回憶道,“我打給山姆,他立刻就答應了。我認為他是個愛國者。”奧特曼問邁克爾:“我能為國家做些什麼?”他似乎早已知道答案。OpenAI原本不具備接入Anthropic所部署的機密系統所需的安全認證。但周五上午宣佈的一筆500億美元交易,將OpenAI的技術整合進亞馬遜雲服務——五角大樓數字基礎設施的核心部分。當晚,奧特曼在X平台宣佈,軍方將開始使用OpenAI的模型。從某些指標來看,奧特曼的這一操作並未阻礙公司的成功。宣佈交易當天,新一輪融資使OpenAI估值增加1100億美元。但許多使用者刪除了ChatGPT應用。至少兩名高管離職——其中一人加入了Anthropic。在一次員工會議上,奧特曼斥責了提出擔憂的員工。“或許你覺得打擊伊朗是對的,入侵委內瑞拉是錯的,”他說,“但你沒資格對此指手畫腳。”多名與OpenAI有關聯的高管對奧特曼的領導持續表示擔憂,並提議由前Instacart CEO、現任OpenAI通用人工智慧部署CEO菲吉·西莫接任。據一位知悉近期討論的人士稱,西莫本人私下表示,她認為奧特曼最終可能會卸任。(西莫否認這一說法。Instacart近日與聯邦貿易委員會達成和解,未承認不當行為,但同意就西莫任職期間涉嫌的欺詐行為支付6000萬美元罰款。)奧特曼將自己不斷變化的承諾描述為適應環境變化的結果——並非馬斯克等人指控的陰險“長期騙局”,而是一次真誠、漸進的演變。他告訴我們:“我認為有些人想要的,是一位‘對自己的想法絕對篤定、絕不改變’的領導者。但我們所處的領域,變化速度極快。”他為自己的部分行為辯護,稱這是“正常的商業競爭”。我們採訪的多名投資者認為,奧特曼的批評者太過天真,本就不該抱有其他期待。投資者康威表示:“有一群宿命論極端分子,把安全理念推崇到了科幻小說的程度。他的使命用數字衡量。而看看OpenAI的成功,這些數字很難反駁。”但矽谷另一些人認為,奧特曼的行為造成了難以接受的管理混亂。那位董事會成員稱:“問題更多在於,公司實際上已無法治理。”還有人仍認為,人工智慧的締造者應受到比其他行業高管更嚴格的審視。我們採訪的絕大多數人都認同,奧特曼如今要求被評判的標準,已不再是他最初提出的那套。在一次對話中,我們問奧特曼,經營一家人工智慧公司是否需要“更高的誠信要求”。這本該是一個簡單的問題。直到不久前,被問及類似問題時,他都會給出明確、毫無保留的肯定回答。而這次他補充道:“我認為有很多企業都可能對社會產生巨大的正面或負面影響。”(隨後他又補充了一份聲明:“是的,這要求更高水平的誠信,我每天都感受到這份責任的份量。”)在OpenAI創立之初的所有承諾中,最核心的無疑是安全研發人工智慧的誓言。但如今這類擔憂在矽谷和華盛頓常被嘲諷。去年,前風險投資人、現任副總統JD·范斯在巴黎一場名為“人工智慧行動峰會”(此前名為“人工智慧安全峰會”)的會議上發表講話。他說:“人工智慧的未來,不會靠對安全問題的杞人憂天來贏得。”今年達沃斯論壇上,擔任白宮人工智慧與加密貨幣主管的風險投資人大衛·薩克斯稱,對安全的擔憂是一種“自我傷害”,可能讓美國輸掉人工智慧競賽。奧特曼如今稱川普的放鬆監管舉措是“非常令人耳目一新的改變”。OpenAI已解散多個專注安全的團隊。在超對齊團隊解散前後,其負責人蘇茨克維與萊克雙雙辭職。(蘇茨克維聯合創立了一家名為“安全超智能”的公司。)萊克在X平台寫道:“安全文化與流程已讓位於光鮮的產品。”不久後,負責為社會應對先進人工智慧衝擊做準備的通用人工智慧就緒團隊也被解散。在最新提交給美國國稅局的披露檔案中,當被要求簡要描述公司“最重要活動”時,此前檔案中提及的安全理念並未出現。(OpenAI稱其“使命並未改變”,並補充道:“我們仍在持續投入並推進安全相關工作,也會繼續進行組織架構調整。”)生命未來研究所是一家奧特曼曾認可其安全原則的智庫,該機構對各大人工智慧公司的“生存安全”進行評級;在最新報告中,OpenAI獲得F級。公平地說,除Anthropic獲D級、GoogleDeepMind獲D-級外,其他所有大型公司均為F級。奧特曼說:“我的理念和很多傳統人工智慧安全領域不太合拍。”他堅稱自己仍將這些問題放在優先位置,但被問及具體措施時卻含糊其辭:“我們仍會開展安全項目,或者至少是與安全相關的項目。”當我們提出採訪公司內研究生存安全問題的研究員——也就是奧特曼曾說的關乎“人類全體滅絕”的這類問題時,一位OpenAI發言人顯得困惑。“你說的‘生存安全’是什麼意思?”他答道,“這根本不算一個領域。”人工智慧末日論者已被邊緣化,但他們的部分擔憂似乎逐月變得不再那麼荒誕。聯合國一份報告顯示,2020年,一架人工智慧無人機在利比亞內戰中被用於發射致命彈藥,且可能未受人類操作員監管。此後,人工智慧在全球軍事行動中的地位愈發重要,據稱也包括當前美國在伊朗的行動。2022年,一家製藥公司的研究人員測試藥物發現模型是否可用於尋找新型毒素;短短數小時內,模型便給出了四萬種致命化學戰劑的建議。而更多日常危害已然發生。我們越來越依賴人工智慧輔助寫作、思考和認知世界,加速了專家所稱的“人類能力退化”;人工智慧生成的劣質內容氾濫,讓騙子更易得手,也讓只想瞭解真相的普通人舉步維艱。人工智慧“智能體”已開始在極少甚至無人監管的情況下自主行動。2024年新罕布什爾州民主黨初選前幾天,數千名選民收到人工智慧深度偽造拜登聲音的自動語音電話,謊稱讓他們留到11月再投票、無需前往投票站——這是一場幾乎無需技術門檻的選民壓制行為。OpenAI目前面臨七起非正常死亡訴訟,指控ChatGPT誘導了多起自殺事件和一起謀殺案。謀殺案的聊天記錄顯示,ChatGPT助長了一名男子的偏執妄想,認為他83歲的母親在監視並試圖毒害他。不久後,他毆打並勒死母親,隨後自殘。(OpenAI正在應訴,並表示將持續完善模型的安全防護。)在OpenAI籌備潛在IPO之際,奧特曼不僅面臨人工智慧對經濟影響的質疑——它可能很快引發嚴重的就業衝擊,甚至導致數百萬崗位消失——還面臨公司自身財務狀況的質疑。創業公司治理專家埃裡克·萊斯抨擊行業內的“循環交易”——例如OpenAI與輝達等晶片製造商的交易——並稱在其他時代,該公司的部分會計操作會被視為“近乎欺詐”。那位董事會成員告訴我們:“公司目前的財務槓桿水平,風險高得令人擔憂。”(OpenAI對此表示否認。)2月,我們再次採訪了奧特曼。他穿著一件暗綠色毛衣和牛仔褲,坐在一張NASA月球車照片前。他將一條腿盤在身下,又搭在椅子扶手上。他說,過去自己作為管理者的主要缺點是總想避免衝突。“現在我很樂意迅速開除人,”他告訴我們,“我會直接說‘我們就往這個方向押注’。”任何不認同他決策的員工都“應該離開”。他對未來比以往任何時候都更樂觀。“我對成功的定義是,人類實現跨越式提升——瘋狂的科幻未來為我們所有人成真。”他說,“我對人類的前景、對我們共同能實現的成就抱有極大野心。但奇怪的是,我個人幾乎沒什麼野心。”有時他似乎會自我警醒。“沒人會相信你做這些只是因為感興趣,”他說,“你這麼做是為了權力,或是別的什麼。”即便與奧特曼關係密切的人,也很難分清他的“人類希望”止於何處,個人野心始於何處。他最大的優勢始終是,能說服不同群體相信,他想要的與他們需要的是同一件事。他抓住了一個獨特的歷史節點:公眾對科技行業的炒作心存警惕,而大多數有能力研發通用人工智慧的研究者又對其問世感到恐懼。奧特曼使出了其他融資者從未精通的一招:用末日論調描述通用人工智慧如何毀滅人類——並因此論證,唯有他才應該主導其研發。或許這是一場預謀已久的精妙佈局,或許他只是在摸索優勢。無論如何,他成功了。讓聊天機器人變得危險的特性,並非全是漏洞;其中一些是系統建構過程中的副產品。大型語言模型的訓練部分依賴人類反饋,而人類往往偏愛順從的回應。模型常常學會奉承使用者,這種傾向被稱為“諂媚”,有時甚至會將此置於誠實之上。模型還會編造內容,即所謂的“幻覺”。各大人工智慧實驗室均已記錄到這些問題,但有時選擇容忍。隨著模型愈發複雜,部分模型的幻覺編造得更具說服力。2023年,就在被解僱前不久,奧特曼提出,即便存在風險,一定程度的不實資訊也能帶來優勢。“如果簡單粗暴地要求‘絕不說任何沒有百分百把握的話’,模型確實能做到,”他說,“但那樣就失去了人們喜愛的那種魔力。” (邸報)