近日,《AI帝國》作者郝珂靈與播客主持人Steven Bartlett進行了一場深度對話。郝珂靈畢業於麻省理工學院機械工程專業,對矽谷進行了長達八年的追蹤報導,以局內人視角剖析了AI產業背後的權力邏輯與利益格局。其新作《AI帝國:薩姆·奧特曼與OpenAI的夢想與噩夢》基於對250多位行業內部人士的深度訪談(其中包括近百名OpenAI前僱員),是目前為止對AI產業內幕記錄最系統的著作之一。這本書在全球範圍內引發關於AI產業擴張模式的廣泛討論,連Sam Altman本人也專門發文回應。在這場對談中,郝珂靈提出了一個與行業主流敘事相悖的核心判斷:矽谷頭部AI公司正在複製古典帝國的擴張路徑,通過AGI末日論與解放人類的雙軌敘事製造恐慌,將技術的開發權與監管權鎖定在少數精英手中,同時對全社會的資料資源、勞動力與基礎設施進行不受約束的攫取。以下是這場對談的核心內容:1. AGI末日論與烏托邦並存,本質是一種商業控制策略大眾往往被矽谷科技巨頭們描繪的未來所震懾:AI要麼解決氣候變化和攻克癌症,要麼毀滅全人類。郝珂靈認為,這套極端的雙軌敘事,是AI巨頭們刻意設計的話語策略。渲染技術災難,核心目的並非向公眾示警,而是將AI的開發權與監管權順理成章地集中到少數人手裡。恐慌製造了一套自洽的邏輯:這項技術太危險,只有矽谷頭部大廠才有能力駕馭它。巨頭們同時通過不斷重新定義AGI的邊界,在規避外部監管的同時,持續吸納大規模資本。2. AI不會解放勞動力,而是會折斷中產階級的職業階梯行業通行的敘事是:AI會淘汰低效工作,並創造我們難以想像的新崗位。但落到實處,這些新崗位正在製造一個龐大的底層勞工群體。郝珂靈認為,裁員潮席捲之下,許多高學歷白領、創意工作者乃至行業專家,最終進入資料標註行業維持生計。這類工作高度機械化、薪酬低廉,把人的專業經驗壓縮成流水線上的廉價投入。更諷刺的是,這些前專業人士正在親手訓練那些替代自身崗位的模型。職場的中間層就這樣被掏空——極少數高薪技術崗位在頂端,大量低階執行性工作在底端,中間的晉陞台階正在消失。3. 龐大的算力競賽, 正在擠佔脆弱社區的基本生存資源AI智能建立在極其沉重的能源消耗之上。隨著Scaling Law規模定律持續推進,矽谷巨頭們在全球瘋狂圈地,建立耗電量堪比整座城市的超大型資料中心。選址上,矽谷科技大廠傾向於議價能力弱、阻力更小的邊緣社區。這些設施嚴重擠佔當地居民的飲用水和電力,為維持算力運轉而啟用的化石燃料發電廠,更向周邊社區持續排放污染物。發佈會上的技術願景,背後是被轉嫁給弱勢群體的環境成本與健康代價。4.Sam Altman是下一個賈伯斯,還是一個頂級操縱者?郝珂靈採訪了超過300人後發現,人們對Altman的評價比她報導過的任何科技人物都更極端,要麼認為他是賈伯斯等級的新一代領袖,要麼認為他是極具操縱性的騙子。而這種分歧只取決於一件事:你是否認同他對未來的願景。更耐人尋味的是,那些與他共事最深、最瞭解他的人,恰恰是最終與他決裂的人:聯合創始人Ilya、CTO Mira Murati先後主導或參與了將他踢出局的行動,隨後相繼離開OpenAI。Dario Amodei、Elon Musk等人在與他合作後也各自出走,分別創立了競爭對手公司。郝珂靈的觀察是:他們每個人都想按照自己的形象來塑造AI,而與Altman共事的結果,是讓他們意識到這件事不能交給別人來做。5.我們需要更多解決具體問題的自行車,而非不斷造火箭如果任由大模型這條高耗能路徑野蠻擴張,整個社會的資源分配將面臨嚴峻考驗。郝珂靈認為需要重估AI技術的發展路線本身。大語言模型如同火箭,消耗海量資源,只為解決泛化問題;社會真正需要的,是更多像AlphaFold那樣的自行車,以精選的小規模資料,用極低能耗,在醫藥、材料等垂直領域創造切實的社會效益。AlphaFold用於蛋白質折疊預測,已獲諾貝爾獎。對於創業者而言,盲目追逐"像人一樣思考"的通用大模型,是一場資源消耗的無底洞。回歸技術解決具體問題,才能走出矽谷大廠壟斷陰影。以下是郝珂靈訪談實錄:1.AI帝國的神話建構主持人:現在讓我們正式開始今天的節目。郝珂靈,你寫了擺在我面前的這本書,書名叫做《Sam Altman的夢想與夢魘》(Dreams and Nightmares in Sam Altman’s OpenAI)。我想問的第一個問題是,為了撰寫我們今天要討論的這本書及相關主題,你經歷了怎樣的研究過程和心路歷程?郝珂靈:我進入新聞界的道路比較奇特。我曾就讀於麻省理工學院學習機械工程,畢業後搬到了舊金山,加入了一家科技初創公司。我成為了矽谷的一員,並在那裡接受了關於矽谷究竟是什麼的洗禮。當時我加入了一家非常有使命感的初創公司,專注於開發應對氣候變化的技術。然而幾個月後,董事會卻因為公司不盈利而解僱了CEO。現在回想起來,那對我來說是一個非常關鍵的轉折點。我當時就在想,如果這個創新中心最終只是為了開發盈利性技術而設計,而世界上許多亟待解決的問題(比如氣候變化)根本無法帶來利潤,那我們現在到底在做些什麼?我們是如何發展到如今這個地步的:創新不一定是為了公眾利益,甚至有時為了追求利潤而損害公眾利益。在那一刻我經歷了一場小小的職業危機。我覺得自己花了四年時間為這份職業做準備,現在卻發現並不適合它。於是我決定嘗試一些完全不同的事情。我一直很喜歡寫作,兩年後我在《麻省理工科技評論》獲得了一份全職報導AI的職位。這份工作給了我探索這些問題的空間:誰有權決定我們開發什麼樣的技術?金錢和意識形態是如何驅動這些技術誕生的?我們最終如何才能真正重新構想創新生態系統從而造福全球民眾?這就是我決定寫這本書的初衷。雖然當時我並沒有意識到自己正在為寫書做準備,但實際上從2018年接受那份工作開始,我就已經踏上了調研書中故事的旅程。主持人:現在確實是投身人工智慧領域的絕佳時機。對於那些還不瞭解背景的人來說,你剛入行那會兒還在OpenAI成立之前,而後來ChatGPT的發佈震驚了世界。在撰寫這本書的過程中,你採訪了很多人,去了很多地方。你能大概介紹一下你採訪了多少人、去了世界上的那些地方嗎?郝珂靈:我進行了300多場訪談,採訪了250多人,其中90多人是OpenAI的前任或現任員工及高管。因此這本書涵蓋了OpenAI第一個十年的內幕故事,以及它是如何走到今天這一步的。但我並不想僅僅寫一本企業傳記。我強烈地感覺到,為了幫助人們理解AI行業的影響,我們必須走出矽谷。這些公司總是宣揚AI將造福全人類,這也是他們的口頭使命。但當你去到那些與矽谷截然不同的地方時,這種辭令就開始崩塌。那些地方的語言與矽谷完全不同,歷史和文化也存在著本質上的差異。正是從那些地方開始,你才能真正看清這個行業在我們周圍擴張的真實面貌。主持人:郝珂靈,通常我會嘗試主導對話,但在今天這種情況下,我覺得跟隨你的思路走或許是更好的選擇。考慮到這一點,我想問你,這段旅程應該從那裡開始?如果我們討論該書的主題,應該從那裡切入?是從泛指的AI和人工智慧開始嗎?另外我想強調一點,這也是在各種對談中經常被遺漏的,那就是讓我們假設目前的觀眾對AI一無所知。我們要假設他們不知道什麼是Scaling Laws、GPU或算力之類的概念,儘量用最通俗易懂的語言來探討,或者將複雜的術語解釋清楚,讓儘可能多的人能夠聽懂。郝珂靈:好的,我認為應該從AI作為一個學科誕生時講起。追溯到1956年,一群科學家聚集在達特茅斯學院開創了一個新學科。這門科學學科懷揣著一種雄心壯志。具體來說,達特茅斯學院的一位助理教授John McCarthy決定將這門學科命名為人工智慧。這並不是他最初構想的名字。前一年他曾嘗試將其命名為自動機研究,但他的某些同事對這個名稱感到擔憂,因為它將這門學科的理念侷限在了重塑人類智能上。在當時以及現在,關於什麼是人類智能,科學界並沒有達成共識。心理學、生物學和神經學等領域都沒有給出明確的定義。事實上,歷史上每一次試圖量化和劃分人類智能等級的嘗試,背後都是由邪惡的動機驅動的。這種行為往往是為了通過科學去證明某些群體天生劣於其他群體。AI領域缺乏明確的準則,當整個行業聲稱他們最終目標是重建與人類一樣智能的AI系統時,並沒有任何衡量標準。我們甚至不知道該如何定義這個目標,如果不知道終點是什麼,又怎麼知道何時才能抵達呢?這實際上意味著這些公司可以隨意使用通用人工智慧(AGI)這個術語。AGI正是現在用來指代重現人類智能這一宏大目標的詞彙。他們可以隨心所欲地使用它,並根據自身利益進行定義和重新定義。在OpenAI的發展史上,AGI的定義就被反覆修改過。當Sam Altman在國會作證時,AGI是一個能夠治癒癌症、解決氣候變化、消除貧困的系統。當他向消費者推銷產品時,AGI則是你能擁有的最神奇的數字助手。當他與Microsoft談判投資協議時,AGI被定義為一個能產生1000億美元收入的系統。而在OpenAI自己的官方網站上,AGI被定義為在大多數具有經濟價值的工作中超越人類的高度自治系統。這根本不是一個關於單一技術的連貫願景。這些截然不同的定義完全是針對特定受眾拋出的噱頭,目的是動員大眾抵制監管,或者吸引更多消費者買單。該行業之所以這麼做,只是為了獲取更多資本和資源以繼續這場定義模糊的技術狂飆。主持人:談到隨時間演變的不同定義,2015年OpenAI正式宣佈成立之前,Sam Altman在一篇部落格文章中明確概述了生存風險。他寫道,開發出超越人類水平的機器智能,可能是人類持續生存面臨的最大威脅;雖然他認為像人造病毒等其他威脅肯定會發生,但AI可能是最容易毀滅一切的方式。郝珂靈:通常當Altman面向公眾寫作或演講時,他心目中的受眾絕不僅限於普通公眾。在那個特定的時刻,他其實是試圖說服Elon Musk與他共同創立OpenAI。因為當時的Musk正全身心地對AI可能帶來的巨大生存威脅發出警告。如果你去讀那篇博文,會發現Altman使用的語言與Musk當時的話術如出一轍,完全反映了Musk的觀點。主持人:完全一致。確實,十年前Musk就在播客、推文以及各種公開言論中表示,人類面臨的最大生存風險就是AI。郝珂靈:沒錯,所以你看他在博文的括號裡還提到了其他可能發生的事情,比如人造病毒。這是因為在那之前,Altman一直談論的都是人造病毒。而為了拉攏Musk這個關鍵人物,他需要轉變話術來迎合對方。對於Altman來說,他需要化解一個矛盾,即他現在為了迎合Musk而提出的新核心恐懼與他之前的言論完全相悖。所以他才會巧妙地加上那句“我認為現在是這樣,儘管以前我曾說那是人造病毒”。主持人:你的意思是Sam Altman操縱了Musk嗎?因為Elon Musk最終確實捐贈了巨額資金給OpenAI,並且是聯合創始人。郝珂靈:Elon Musk最終確實與Altman共同創立了OpenAI。當然從Musk的角度來看,他確實感覺被操縱了。他認為Altman在溝通時刻意迎合他,以此騙取他的信任並讓Musk將其視為這項事業的合夥人。不過後來Musk還是離開了OpenAI。通過Musk和Altman目前正在進行的訴訟中披露的檔案可以看出,Musk在某種程度上實際上是被排擠出去的。這就是為什麼他對Altman懷有如此強烈的個人恩怨,並聲稱Altman用欺騙的手段將他捲入了這一切。主持人:所以在2015年,Sam Altman通過部落格宣稱AI是人類最大的生存威脅之一。與此同時Musk也在發表著名的演講,比如在麻省理工學院稱AI是最大的生存威脅,甚至將開發AI比作召喚惡魔。而你剛才的觀點是,Sam Altman只是在模仿Elon Musk的語言,目的是拉攏他加入OpenAI。後續的發展也印證了這一點,目前的訴訟顯示Sam Altman可能在某種程度上將Elon Musk排擠出局了。郝珂靈:從訴訟及披露的檔案得知,當時的OpenAI首席科學家Ilya Sutskever和首席技術官Greg Brockman決定成立營利實體時,面臨著由Musk還是Altman擔任CEO的問題。起初,他們選擇了Musk。但我通過報導發現,Altman私下懇求了相識多年的好友Greg Brockman,指出讓Musk這位備受矚目且不可預測的名人擔任這家未來可能擁有超強力量的公司的CEO存在危險。這番話不僅說服了Greg,也讓Greg隨後說服了Ilya。最終他們改變了立場,希望Altman擔任CEO,而Musk則以不當CEO就退出為由離開了。2.Sam Altman的爭議形象與高層動盪內幕主持人:聽起來Sam再次成功說服了別人。這引出了一個問題,你如何評價Sam Altman?郝珂靈:我認為他是一個非常有爭議的人物。主持人:你剛才的停頓很有意思,那是試圖字斟句酌時才有的停頓。郝珂靈:採訪中最有趣的一點是,人們對Altman的評價極其兩極分化,要麼認為他是堪比Steve Jobs的新一代偉大科技領袖,要麼覺得他是一個極具操縱性的騙子。我採訪了很多人後意識到,這完全取決於你是否認同他對未來的願景。如果你認同,你會覺得他非常有說服力,擅長講故事,在調動資本和招攬人才方面表現卓越,是你身邊最了不起的財富。但如果你不認同,你就會覺得自己在被他操縱去支援他的願景。Anthropic的CEO Dario Amodei就是典型的例子。他最初是OpenAI的高管,原以為Altman與自己志同道合,但後來漸漸發現兩人的想法背道而馳,並感覺Altman是在利用他的才智和技術去實現一個他根本不認同的未來願景,因此心生反感。我報導科技行業超過八年,報導過Meta、Google和Microsoft等眾多公司,但在OpenAI和Altman身上,我看到了前所未有的兩極分化,人們甚至無法斷定他究竟是絕世天才還是極惡之徒。主持人:你剛才提到了Dario,我發現真正有趣的是觀察人們的言論如何隨利益動機變化而演變。我查看了他們所有的公開言論,包括播客和部落格文章。Dario曾是OpenAI的研究副總裁,後來去了Anthropic,他們在開發AI上採取了略有不同的方法。早在2017年他還在OpenAI時曾說過,最極端的情況是對AGI毀滅人類的恐懼,從原則上看並非不可能發生,發生人類文明級災難的機率可能在10%到25%之間。你還提到了離開的OpenAI聯合創始人Ilya,我想問的第一個問題是,Ilya為什麼要離開?郝珂靈:這是一個非常好的問題。Ilya在試圖解僱Sam Altman的過程中起到了關鍵作用。隨著時間推移,他也漸漸覺得自己被Altman操縱去貢獻他不認同的東西。主持人:你是怎麼知道的?郝珂靈:因為我採訪了很多人。Ilya深切關注兩大支柱:一是確保實現AGI,二是確保安全實現它。他認為Altman正在積極破壞這兩件事,在公司內部製造混亂的環境,讓不同團隊互相競爭,對不同的人說不同的話。主持人:你和他談過嗎?郝珂靈:我曾在2019年為撰寫OpenAI人物專訪採訪過他。主持人:當時他說過一段話:“無論如何,AI的未來會很美好。如果對人類也美好那就太好了。這並不是說它會主動憎恨或傷害人類,而是它會變得極其強大。就像人類對待動物那樣,我們並不是因為討厭動物才修高速公路,只是因為修路對我們很重要,所以我們不會去徵求動物的許可。默認情況下,這就是未來我們與AI的關係,它們將真正自主並代表自身利益運行。”郝珂靈:我覺得我們應該退一步思考:究竟什麼是人工智慧?我們所說的智能又是指什麼?這很大程度上源於個人對“智能”的特定信念。在Ilya的整個研究生涯中,他和他的導師Geoffrey Hinton一直假設我們的大腦歸根結底是巨大的統計模型。基於這種假設,他們堅信建構基於統計模型的AI系統最終會帶來像人類一樣甚至超越人類的智能系統。Ilya曾在一個AI研究會議上展示過一張圖表,顯示大腦容量與物種智力大致呈正相關。對他而言,既然大腦只是統計引擎,那麼只要建構一個比人腦更大的統計引擎,它就會變得更加智能,屆時我們將遭受與動物相同的待遇。但必須明白,這只是AI研究社區內特定個體的科學假設,關於它是否屬實存在很大爭議,主要的批評者認為將大腦簡單視為統計引擎是非常片面的。主持人:為什麼瞭解其機制如此重要?難道僅僅瞭解結果還不夠嗎?比如它能為我製作視訊,或者智能體能夠完成我的工作。瞭解其背後的機制對我們來說真的那麼重要嗎?郝珂靈:既重要也不重要。重要是因為這些公司正基於這一假設來採取行動。他們認定追求AGI需要不斷建構越來越大的統計模型,這帶來了全球性的後果:他們瘋狂搜刮資料、建設資料中心,甚至剝削勞動力。我認為有一個關鍵問題需要反思:我們為什麼要努力建構替代人類的AI系統?當下的對話似乎默認了AI行業的前提就是好的,他們說該建構AGI,我們就跟著附和。縱觀歷史,技術的初衷始終是為了增進人類福祉,而不是取代人類。我對這些公司和科學家的核心批判就在於此:他們全盤接受了這個目標,並利用巨額資本和龐大資源不懈追求。這真的是正確的目標嗎?為什麼我們不能只建構那些能加速藥物研發、改善醫療成果的AI系統呢?那些系統與他們試圖複製人類大腦的統計引擎完全是兩回事。主持人:那麼他們為什麼要這麼做?你採訪了大約300人,其中有八九十人來自OpenAI。你認為他們執意如此的原因是什麼?郝珂靈:我認為是因為他們受一種帝國議程的驅動,所以我稱這些公司為AI帝國。3.AI帝國議程設定主持人:你所說的“帝國議程”具體是什麼意思?郝珂靈:“帝國”是我發現唯一能完全概括這些公司運作規模及背後動機的詞彙。當下的AI帝國與舊時代帝國有諸多相似之處:首先,為了訓練模型並建立超級計算設施,他們大肆圈地,侵佔屬於個人的資料以及創作者的智慧財產權;其次,他們在全球僱傭了數十萬名工人來製造這些技術,卻將工具設計為以勞動力自動化為導向,這種政治選擇嚴重侵蝕了勞工權利;最後,他們壟斷了知識生產,對外製造出只有他們才真正懂AI的假象。如果公眾不喜歡,他們就歸咎於公眾瞭解不夠。他們不僅以此對付公眾和政策制定者,還收買了絕大多數研究AI侷限性和能力的科學家。主持人:你認為他們在某種程度上是在對公眾進行情感操縱嗎?郝珂靈:沒錯。試想一下,如果全球大多數氣候科學家都由化石燃料公司資助,我們還能瞭解氣候危機的真相嗎?同理,AI行業僱傭並資助了世界上大多數AI研究人員,通過將資金注入他們優先考慮的項目來柔性設定研究議程。當研究人員的發現不利於他們時,他們就會進行審查。我在書中提到過Google倫理AI團隊前共同負責人Timnit Gebru博士的案例。她被僱傭的初衷是對Google的AI系統提出批評,但當她合作撰寫了一篇揭示大語言模型如何導致有害後果的論文後,Google為了阻止論文發表,不僅解僱了她,還解僱了另一位共同負責人Margaret Mitchell。這就是他們控制並壓制不利於帝國議程研究的手段。主持人:這種情況是否也發生在了向他們提問的記者身上?我曾看過你的一個視訊,裡面有個年輕人提到,某家大型AI公司的人直接敲開他家的門,索要電子郵件和簡訊等資訊。郝珂靈:確實如此。OpenAI曾傳喚部分批評者,這既像是一場恐嚇,也像是一場旨在摸清批評者網路的“釣魚”行動。那是一個經營小型非營利監督機構的年輕人。在OpenAI嘗試從非營利組織向營利性企業轉型的關鍵時期,許多像Mitos這樣的公民社會團體試圖阻止這一過程暗箱操作,爭取更高的透明度並引發公眾辯論。就在那時,有人敲開了他的門,遞交了法律檔案。這些檔案要求他提供所有與馬斯克可能涉及的溝通記錄。這反映了OpenAI一種奇怪的偏執,他們認定馬斯克在資助這些人阻撓公司轉型。但實際上,他們中沒有任何人受馬斯克資助。所以面對這個請求,他只能無奈地表示自己拿不出任何檔案,因為這些溝通根本就不存在。主持人:你剛才提到,帝國的特徵之一是土地掠奪,接下來的一個是勞動力剝削,第三點是控制知識生產。郝珂靈:關於這些AI帝國,另一個非常重要且需要理解的特點是,它們總是擁有一種敘事方式。它們對公眾宣稱:“我們是正義的帝國。首先我們需要成為一個帝國,因為世界上還存在著邪惡的帝國。如果你們允許我們獲取所有資源並使用所有勞動力,我們承諾將為每個人帶來進步與現代化,帶大家進入類似於AI天堂的烏托邦狀態。但如果邪惡帝國搶先一步,我們將墜入地獄。”主持人:那麼這裡的邪惡帝國是指?郝珂靈:實際上在早期,OpenAI曾將Google視為邪惡帝國。所以他們所有的決策都圍繞著:“我們必須搶先一步,否則Google這家受利潤驅動的邪惡公司就會勝出,而我們是一家仁慈的非營利組織。”他們認為這是一場關乎誰能勝出的關鍵競爭。主持人:你認為那些建立這些AI公司的人,真的相信結果會造福每個人、開啟一個富足的時代嗎?你覺得他們到底相信什麼?或者說,你認為Sam Altman真正相信的是什麼?郝珂靈:這太有意思了。他們圍繞AI行業建構的神話中,有一個核心部分就是他們相信事情可能會變得非常糟糕,這兩者是相輔相成的。他們需要這部分神話來為自己辯護:“這就是為什麼我們需要掌控這項技術,因為這是確保它順利發展的唯一途徑。”Altman曾公開表示,最壞的情況是所有人都玩完,但最好的情況是我們治癒了癌症、解決氣候變化並迎來物質極大豐富。Dario Amodei也是同樣的辭令,聲稱最壞的情況是對人類造成生存性傷害,最好的情況是實現人類的大規模繁榮。這如同硬幣的兩面,他們必須同時利用這兩種敘事,為一種極其反民主的AI開發方式持續辯護,主張這種技術的開發不應有廣泛參與,他們必須在每一步都將其牢牢掌控。主持人:Sam Altman發了一條推文說:“有幾本關於OpenAI和我的書即將出版。我們只參與了其中的兩本。沒有那本書能做到事事精準,尤其是當某些人執意要歪曲事實的時候,但這兩位作者確實在努力嘗試。”你轉推了那條推文並寫道:“那本未點名的書正是我的作品。”你認為Sam Altman那條推文是指向你的書嗎?郝珂靈:100%確定,因為目前只有三本關於他的書即將出版。他知道我的書要出版,因為我從創作伊始就聯絡了OpenAI詢問他們是否願意參與,事實上他們最初也答應了。我與OpenAI的淵源在於,2019年我曾為MIT Technology Review撰寫過該公司的深度報導,在他們辦公室進行了為期三天的嵌入式採訪。我的人物專訪在2020年發佈後,領導層對此非常不滿。在我的書中,我實際引用了一封Sam Altman發給全公司的郵件,他在信中明確表示那篇報導不太妙。從那時起,公司對我的態度就是拒絕參與我做的任何事情,不回應任何採訪請求。整整三年時間,他們都拒絕和我交談。後來我去了Wall Street Journal,因為是頂級大報,他們感到有些被迫重新開啟溝通管道。每當我寫完文章發給他們請求評論或採訪時,我們確實建立了一種更具建設性的關係。後來我離職全職寫這本書,立刻告訴他們希望繼續這種建設性對話,以確保書中能精準反映OpenAI的觀點。他們答應安排採訪,但在我們反覆溝通安排日程時,董事會解僱了Sam Altman。從那時起情況開始惡化,公司對外界的審視變得非常敏感,開始採取拖延戰術。我一直追問重新安排面試的事情,結果收到郵件說他們根本不打算參與了。當時我已經訂好了飛往舊金山的機票,我告訴他們沒關係,我依然會按照流程傳送詳盡的置評請求。我發了40頁的置評請求,給了一個多月的時間讓他們回應。就在我們反覆交涉時,Altman發佈了那條推文。他們從未對那40頁中的任何一頁做出過回應。主持人:Sam Altman上過每一個播客,從Tucker Carlson到Theo Von、Joe Rogan等世界各地的節目。我在想他為什麼不接受我的採訪。我覺得我對每個人都很公平,只問我真正關心的問題,不會帶著很深的成見進來,也不會讓任何人難堪,即使我有不同的意見也是如此。回到你之前提到的關於OpenAI和這些公司控制研究的方式,你問過他們是否對記者也這樣做。顯然他們對任何擁有廣大大眾傳播平台的人都會這麼做。這不僅關乎你與他們的對話,還關乎你選擇讓誰登上你的平台。郝珂靈:確實如此,而且我認為普通大眾並沒有真正理解這一點。科技新聞領域存在一個巨大的問題:公司深知他們能給科技記者的一個巨大誘餌就是准入權。一旦他們察覺到你在和他們不希望你接觸的人交談,他們會毫不猶豫地撤回這種准入權。主持人:AI領域有一個特定的團隊,基本上用准入權作為誘餌吊了我們大約18個月。我的態度是無論有沒有好處,我想跟誰談就跟誰談。如果有機會交流,我會帶著強烈的好奇心請教他們的工作和動機。但他們的全部策略就是永遠在前面掛著一根胡蘿蔔,認為只要用資源誘惑,記者就會表現得客客氣氣,不會提出批評,也不會為批評者提供平台。郝珂靈:這是他們運作機制中非常重要的一部分,利用這些策略來粉飾公司的公眾形象,並確保不利的資訊和觀點不會流傳出去。我現在非常慶幸OpenAI很早就對我關上了大門。當時我並不覺得這是一種幸運,甚至覺得自己把事情搞砸了,反思我是不是應該在人物專訪裡對他們更客氣一點,好讓自己能維持獲取資訊的管道。但作為一名記者,產生這種想法簡直是種恥辱。記者應該報導事實,並且始終為了公眾利益進行報導。那扇正門永遠不會對我敞開,這反而極大地增強了我實話實說的能力。無論公司喜歡與否,我只客觀匯報呈現在我面前的事實。他們不需要為我敞開大門,我依然完成了300多場採訪。主持人:Sam Altman被踢出了OpenAI的執行團隊,你查清楚那是為什麼了嗎?消息來源是誰?郝珂靈:是的,我還原了當時的場景。大約有六到七個人直接參與了決策過程,或者曾與直接參與決策的人交談過。當時Ilya Sutskever看到Altman的行為正導致公司研究成果不佳以及決策失誤,於是他去找了獨立董事Helen Toner傾訴。由於擔心被Altman發現會面臨嚴重後果,Ilya在第一次見面時含糊其辭,試圖摸清情況並判斷對方是否值得信任。確認之後,Ilya主動與Helen交流,瞭解她是否也觀察到了Altman對公司產生的負面影響。隨後,首席技術官Mira Murati與部分董事會成員也進行了溝通。這兩位高管通過彙總的電子郵件、Slack消息等檔案資料,向三位獨立董事傳達了對Altman領導能力的深切擔憂,指出他給公司製造了太多的不穩定性,挑撥團隊互相競爭,破壞了員工之間的信任,導致大家無法為這項重要技術進行有效協作。主持人:你提到“不穩定”,這是一個相當模糊的詞,可能意味著通過施壓讓員工更努力地工作。你所說的不穩定具體是指什麼?請儘可能詳細地說明。郝珂靈:當ChatGPT問世時,OpenAI完全沒有做好準備。他們沒預料到會引起巨大轟動,原以為發佈的只是一個研究預覽版,旨在收集資料啟動飛輪,為日後搭載GPT-4的真正產品提供參考。由於流量遠超預期,伺服器經常崩潰,他們必須以前所未有的速度擴展基礎設施並瘋狂招聘。但擴張過快也導致了決策失誤,公司頻繁裁員,員工經常突然從Slack上消失,同事們只能通過這種方式得知他人離職。那是一個極度混亂的高壓環境。最重要的是,Mira Murati和Ilya Sutskever覺得Altman讓情況變得更糟了,他實際上在播種更多的混亂,讓團隊變得更加分裂。高管和獨立董事們都在建構AGI的理念下運作,他們認為這項技術對人類要麼是毀滅性的要麼是烏托邦式的。在他們看來,絕對不能在如此混亂高壓的環境下,去創造一項足以決定世界成敗的技術。董事們私下討論時也認為,雖然在Instacart這樣的普通初創公司,這些行為未必足以解僱CEO,但OpenAI肩負的使命完全不同,這些問題已經達到了必須撤換他的標準。此外,獨立董事Adam D'Angelo在舊金山參加派對時聽到傳聞,指出OpenAI創業基金的設立方式有些蹊蹺。獨立董事們查閱檔案後震驚地發現,OpenAI創業基金竟然是Altman個人的基金。這些事件讓董事們意識到,Altman對外描繪的願景與實際執行情況之間始終存在著嚴重的不一致。當高管們帶著擔憂找到董事會時,雙方的觀察完全吻合。經過每天密集的會議商討,他們最終得出結論必須罷免Altman。為了防止Altman察覺後利用其極強的說服力扭轉局勢,他們決定必須迅速行動。於是,他們在沒有提前告知任何利益相關者的情況下秘密解僱了Altman。作為OpenAI領投方的Microsoft直到行動前才接到電話通知。這種將所有利益相關方排除在外的做法激怒了所有人,這也直接導致了隨後那場迎回Altman的行動,幾天後他便重新出任CEO。主持人:一家大公司的CEO是如何因為董事會成員而被董事會解僱的。在你的書第357頁有一段引言,你提到Ilya曾說過:“我不認為Sam是那個應該掌控AGI啟動按鈕的人。”現在我也在問自己這個問題。我和這裡的很多人一起工作,我們公司有150名員工,這些人最瞭解我。他們看到鏡頭前的我,也看到鏡頭後的我。如果他們說“我們認為Stephen不適合主持《Diary of a CEO》”,能讓他們說出這種話一定是發生了非同尋常的事情。他們肯定在鏡頭之外見識了一些糟糕的情況才會認為我不適合出現在鏡頭前。而在AI領域,其影響遠比一個播客節目深遠得多。想到一家公司的聯合創始人去找董事會說“他不適合領導這個至關重要的項目”,簡直讓人不寒而慄。而且不僅僅是Ilya,Mira Murati隨後也表示不認為Altman是合適的人選。隨後他們兩人都離開了。接著Altman回歸了,Ilya再也沒有回來。他之前擔心被Altman發現會對自己不利,這種顧慮最終變成了現實。郝珂靈:Mira Murati也在那之後不久離開了。這些人中相當一部分都離開了OpenAI,不是嗎?回顧OpenAI的起源故事,它始於矽谷核心地帶Rosewood Hotel舉行的一場晚宴,那是Elon Musk來灣區時最喜歡的去處之一。Altman打算在那場晚宴上招募最初創立OpenAI的元老團隊,他到處跟人說Musk會來參加。他給Ilya發了冷郵件並成功邀請了他,因為Ilya特別想見Musk。他還給Greg Brockman、Dario Amodei等人發了郵件,這些人最終都去了OpenAI工作。但在與Altman發生衝突後他們幾乎所有人都離開了。Ilya離開後創辦了一家名為Safe Superintelligence的公司。主持人:這真是我聽過最委婉的影射了。如果有人和我共同創辦了這個播客,離開後又創辦了一個名為“安全播客”的節目,我會覺得這是一種輕蔑。郝珂靈:每一位科技億萬富翁都擁有自己的AI公司,這絕非巧合。他們想要按照自己的形象來創造AI,這正是他們一直相處不睦的原因。共事之後他們最終反目成仇,各自獨立建立了自己的組織。Musk離開後創立了xAI,Dario創立了Anthropic,Ilya創辦了Safe Superintelligence,Mira創辦了Thinking Machines Lab。他們希望掌控自己對這項技術的願景,從將願景投入市場的經驗中他們得出的最佳途徑就是建立一個競爭對手,與OpenAI及市面上所有其他公司展開競爭。主持人:你是否認為有些AI公司已經意識到自己簡直就是在“召喚惡魔”(正如Elon Musk十年前所說),但他們其實並不在乎?因為成為召喚惡魔的人會讓你變得舉足輕重、權勢顯赫並名垂青史,那怕有20%的機率會導致可怕的後果。Dario曾說過大約有10%到25%的機率事情會向著人類文明規模的災難性方向發展。25%就是四分之一的機會。如果在只有四個彈巢的左輪手槍裡裝進子彈,說代價是腦袋挨一槍但可能成為億萬富翁並被永遠銘記,我絕不會去冒這個險打這個賭。郝珂靈:這完全取決於如何定義“召喚惡魔”。AI行業利用了一種神話體系,“召喚惡魔”是說服所有人的關鍵環節,旨在讓人相信只有他們才是唯一能開發這項技術的人。這意味著必須由他們來做,且公眾必須給予資金和支援。所以當他們說這些話時,我們應將其理解為一種言語行為,旨在說服他人讓渡更多的權力和資源。這並非基於事實做出的真實預測,因為他們不是在預測未來而是在創造未來。他們是在刻意向公眾營造這種氛圍,這是其權力的核心組成部分。至於他們是否意識到這已經對全球弱勢群體產生了極其嚴重的負面影響,也許有也許沒有,但他們其實並不在乎。我有時用《沙丘》來類比AI世界。故事中保羅·厄崔迪步入了一個早已播種在星球上的神話,他利用救世主降臨的理念來控制民眾。起初他深知這只是個神話,但隨著全身心投入並成為其化身,界限開始模糊,他分不清這究竟是神話還是自己真的是救世主。我認為這正是AI領域正在發生的事情。這些高管在積極進行神話塑造。我掌握的內部檔案顯示,他們非常敏銳地意識到如何通過令人眼花繚亂的技術演示吸引公眾,精心設計完美的使命感讓人們對公司更寬容。他們中的許多人也沉溺於這個神話中,因為他們必須日復一日地體現這個神話。當Dario說有10%到25%的災難機率時,他正積極參與並迷失在神話塑造中。由於需要籌集天文數字的資金來資助AI研究和建設資料中心,他們無時無刻不在融資。你不能一邊籌款一邊說“我有25%的可能性毀掉你孩子的未來”。大腦會產生認知失調,難以同時持有兩種衝突的世界觀。主持人:你認為他們中有人比其他人擁有更強的道德準則嗎?Dario經常被認為更有骨氣,對後果也更有意識。郝珂靈:我認為這個問題並不重要。即使把所有CEO都換成更有道德感的人也無法解決問題。核心問題是我們已經建構起了一套權力體系,這些公司和高管可以做出影響全球數十億人生活的決策,而這數十億人對此沒有任何發言權。這並不是公眾投票選出一位承諾立法的領導人就能解決的。考慮到這些公司運作的速度、節奏以及龐大的體量,他們完全能夠揮霍數億美元試圖扼殺任何阻礙他們的立法,並制定確立自身優勢的法案。作為一個社會我們有時過於執著於討論這些領導人到底是好人還是壞人。更大的問題是我們建立的治理結構是健全且允許廣泛參與的,還是一個將決策權鞏固在少數人手中的反民主結構。沒有人是完美的,無論誰坐在頂層,都沒有能力代表世界上有著不同文化和歷史的大多數人做出絕對正確的決定。這就是為什麼在歷史處理程序中人類從帝國走向了民主。因為帝國作為一種結構本質上是不穩定的,它不能最大限度地讓大多數人過上體面的生活。4.AI技術進步的初衷與未來主持人:說實話我覺得我對很多領域都略知一二。郝珂靈:是的,而且你具備自主學習和獲取知識的能力,也有能力自主選擇學習內容。人類可以在一個地方學會開車然後立刻將能力遷移到另一個地方。目前的AI模型無法做到這一點。每當自動駕駛汽車轉移到新地點時,必須針對該地點進行完全的重新訓練。主持人:但是當一輛自動駕駛汽車或者一台Optimus機器人在工廠裡學習到新東西時,所有的裝置就都學會了。郝珂靈:這僅僅是因為它們共享同一個底層作業系統中的AI模型元件。你在訓練這個AI模型,然後將它部署到了所有裝置上。主持人:想像一下那樣的場景,如果我們人類能夠學習所有其他人類所掌握的知識,那將賦予我們難以置信的競爭優勢。我的意思是,人類實現這一目標的方式之一就是通過溝通。郝珂靈:但實際情況可能並非如此,因為系統可能會學到錯誤的東西。這種情況在現有技術中已經屢見不鮮,所有模型似乎都會學到錯誤的內容,並且擁有相同的失效模式。相比之下,人類社會的韌性部分源於我們擁有不同的專業知識,也擁有不同的失效模式。主持人:我認為有時我們對AI模型的標準甚至比對人類的要求還要高。說起來挺奇怪的,我在奧斯汀的台上經常聽到人們抱怨:“AI模型有時會產生幻覺。”我心想,難道你沒見過人類嗎?我隨時都在產生幻覺,我幾乎不會拼寫,也不會做數學題。郝珂靈:是的,但這更像是在領域初期為了行銷這些技術而專門挑選的類比。我們反覆使用“智能”來類比,並將這些機器與人類智能聯絡起來,試圖以此衡量它在社會中是否良好、有價值或有能力。主持人:但我認為輸出結果才是影響最深遠的東西。即便它擁有一個完全不同的系統,關鍵在於它是否達到了同樣的水平。比如,它能否為大腦進行手術?能否開車?在洛杉磯,我的車就是自動駕駛的,我可以好幾個小時不用碰方向盤。在奧斯汀,我前幾天剛見過取消了方向盤和踏板的全新CyberCab。我覺得它是否使用了不同的系統並不重要,如果它在現實世界中行駛且擁有比人類更高的安全記錄,那麼無論是否具備所謂智能,對我而言都是可以接受的。郝珂靈:但這並不是你最初提出的論點,即這些系統將基於預測,在不同領域普遍變得更加智能。主持人:這也是目前所有AI領域大咖都在做的預測,包括Ilya、Dario、Elon、Zuckerberg、Altman和Demis。郝珂靈:你知道所有這些預測的共同特徵是什麼嗎?他們從這個神話中獲取了巨額利潤。主持人:Elon最近在孟菲斯建造了擁有10萬個GPU的巨型超級電腦Colossus,專門用於比競爭對手更快地擴展其Grok模型。郝珂靈:似乎大家達成了一個共識,即可以通過暴力破解的方式來實現更強大、更通用的智能,並將其出售給人們,用於自動化某些具有豐厚經濟回報的任務。主持人:我聽Elon說過,如果你是一名外科醫生,學習這些根本沒有意義,因為幾年之內,Optimus和AI總體上將比歷史上任何一位外科醫生都要出色。你認為這些預測是真的嗎?郝珂靈:我很確定Hinton曾說過那句名言:未來將不再需要放射科醫生。他當時設定了一個期限,而我們現在已經過了那個期限,放射科作為一個職業目前發展得依然很好。主持人:你認為五年後還會是這樣嗎?郝珂靈:這要回到我們為什麼要開發技術,以及為什麼需要開發AI的問題。對我而言,技術進步的初衷並不是為了發展而發展,而是為了幫助人類。已有大量研究表明,在醫療場景中,對患者最好的結果是讓放射科專家將AI模型作為工具和參考輸入。正是這種結合實現了對某些癌症最準確、最及時的診斷,從而改善了患者的預後。主持人:你是否相信在未來幾年內,路上幾乎所有的車都會實現自動駕駛?郝珂靈:我不這麼認為。主持人:為什麼?郝珂靈:因為這項技術的工作原理是統計性的。目前AI模型的主要開發方式是統計引擎,即所謂的神經網路,這是一種包含大量密集連接節點的軟體,也就是人們常說的參數。你向其中輸入海量資料,它通過分析資料找出所有的相關性和模式,機器正是通過這些模式實現自主運行。在訓練自動駕駛汽車時,研發人員會記錄大量的視訊素材,並僱傭成千上萬的人類外包人員為素材中的每一輛車、每一個行人、每一個紅綠燈和每一條車道線進行手動標註。這些資料輸入AI模型後,模型就能識別這些元件。接著,它被連接到另一個非AI的軟體程序,該程序會發出確定性的指令,比如“識別到行人就不准碰撞”或“識別到紅燈就停車”。統計引擎的特點在於它是基於機率而非確定性邏輯的,因此系統隨時都會出錯。從技術上講,目前根本不可能讓它們完全停止犯錯。主持人:在這種情況下,人類犯錯的機率難道不比系統高嗎?安全記錄顯示,在Tesla自動駕駛模式下行駛的安全性要比人類駕駛員高出10倍。郝珂靈:這取決於具體地點,以及Tesla是否針對該特定區域進行過專門的導航訓練。主持人:但人類會醉駕。如果在孟買或越南的某些地方,難道自動駕駛不會更安全嗎?郝珂靈:在那些地方,我並不認為它會更安全。我更願意由一個一輩子都在當地開車的人來載我。我並不是要反駁在某些經過專門訓練的特定地點,AI的安全記錄確實優於人類。但你問的是全球或全美國的大多數汽車,我認為這並沒有近在咫尺。主持人:那10年內呢?我曾和Uber的Dara聊過,他確信他的900萬名配送員將被自動駕駛車輛取代。郝珂靈:自動駕駛汽車已經研發超過10年了,但目前公路上自動駕駛汽車的比例又是多少呢?它永遠不會達到100%。這在一定程度上已經不再是技術問題,而是社會信任和法律責任的問題。如果自動駕駛汽車撞了人,誰該負責?主持人:在洛杉磯的一個案例中,由於駕駛員低頭撿手機,Tesla和駕駛員都被判定負有責任。就Tesla而言,現在Model Y是全球最暢銷的汽車,而且絕大多數車輛都配備了被稱為“受監督的全自動駕駛”的功能。那仍然只是部分自動駕駛,因為你必須保持關注。而在奧斯汀看到的新款車上,因為沒有方向盤,那是真正的全自動駕駛。5.AI時代的勞工困境我想探討的是,那些聲稱AI將徹底改變交通、法律和會計行業的預測。你認為會出現大規模的失業潮嗎?郝珂靈:我確實認為就業市場將受到巨大的衝擊,我們已經看到了這些影響。這不僅僅是因為AI模型通過自動化取代了這些工作,更是因為開發公司選擇的改進方向。很多時候管理層僅僅因為認為AI可以取代員工就決定裁員,無論模型的能力是否真的達標,他們寧願要一個價格便宜且夠用的模型。有時他們只是在招聘上犯了錯導致團隊搞垮,而AI成了一個非常方便的藉口。比如Klarna的CEO曾解僱了一大批人,以為可以用AI取代所有人,結果行不通又不得不請人回來。我專門就這件事給Sebastian發了私信,他說媒體誤解了他的推文,他們正比以往任何時候都更加倍投入AI。由於AI的應用,Klarna的員工人數正以每月近一百人的速度縮減,從七千四百人的峰值降到了三千人左右。AI處理了他們70%的客服對話,因為軟體的生產成本幾乎降到了零。就像程式碼現在由機器生成一樣,最終我們會為那些獨特的人造成果支付比以往更高的報酬。Klarna作為一家銀行,人們希望與有感情、能引起共鳴甚至帶有瑕疵的人建立聯絡,而不僅僅是機器。因此他們需要在推進AI自動化的同時提供極易獲取的人性化體驗。主持人:你看到Anthropic本周發佈的報告了吧?簡而言之它的內容和你剛才說的很吻合。Anthropic深入研究了人們究竟是如何使用他們的模型的,發現初級職位的數量減少了40%。他們在網上瘋傳的圖表預測,雖然建築和農業等物理世界的實體工作尚未受影響,但行政、金融、數學、法律和醫療保健等領域將首當其衝。包括媒體和藝術領域,這麼看我快徹底完蛋失業了。郝珂靈:顯然他們非常關注助理類和管理類的工作。目前存在兩種二元對立的敘事:一種是AI將取代每一份工作,另一種是AI實際上並不起作用。事實是AI確實正在取代工作。每一波自動化浪潮都會用自動化取代大量入門級工作,同時創造新的崗位。但這些新崗位分為兩類:一類是技能要求和報酬更高的高階職位;另一類則是變得糟糕得多的底層崗位。比如很多行銷人員被解僱後,最終去資料標註公司工作,專門教導AI模型去自動化他們剛剛失去的那個崗位。如果該模型掌握了那項技能,又會導致更多的裁員。這成了一個吸收失業人群的去處,甚至包括好萊塢一些屢獲殊榮的導演也在秘密從事資料標註餬口。這打破了職業晉陞階梯。入門級和中層職位被掏空,取而代之的是極少數的高階職位和大量更低階的職位。階梯上已經沒有橫桿了,人們該如何繼續職業晉陞呢?主持人:我實際上也不知道答案。我一直在拚命為我的觀眾尋找最佳答案。大家聽到了許多不同的說法,比如Jack Dorsey發推文稱因為AI的緣故正將員工人數減半,大家不知道什麼是真實的,也不瞭解其公司內部的經濟狀況,這或許只是為了讓投資者覺得他們是AI公司從而拉升股價的藉口。我自己有數百名團隊成員,投資了大概七十家公司,我也把自己當作招聘負責人。過去一個月裡我遇到過文化契合度非常好的候選人,但我不得不陷入深深的思考。因為當我嘗試讓AI智能體去完成完全相同的工作時,尤其在一個開放的Claude世界中,答案正日益趨向於可以。郝珂靈:現在你面臨這樣一個抉擇:在短期內你完全可以選擇AI智能體,但從長期來看職業晉陞階梯將不復存在。你會提拔什麼樣的人進入高級職位?你是如何在自己的公司裡解決這個問題的?主持人:這是一個好問題。關於這一點,我大概有兩種思考方式。我認為深厚的專業知識非常有價值。如果你現在是潛在的AI Agent編排者,關鍵在於對該問什麼樣的問題有深刻理解,而這正是擁有深厚專業知識的人所具備的。如果我的CFO要負責協調智能體團隊執行財務分析等任務,她需要明白如何指揮它們在公司內開展工作,一名實習財務分析師是做不到的。他們需要像Claire那樣擁有五十多年的豐富經驗。另一方面,我需要像Kaz這樣的人。25歲的日本小夥Kaz對AIAgent瞭如指掌,他好奇心極強,周末都在建構AIAgent來解決生活中的問題。我需要這兩種非常精通的思維方式。一種是代理效能最大化(Agent Maxing),這類人通常是年輕人,他們必須全身心投入且擁有極強的好奇心,這在我的業務中產生了力量倍增器的效應;另一種就是深厚的專業知識。除此之外,我還想到了第三類群體,就是擁有極強線下社交技巧的人。我們在現實生活中確實需要與人見面,比如迎接來訪客、與大客戶共進午餐並進行應酬。我們的團隊有很多線下活動,同時也在全球各地舉辦社區活動,所以我們需要擅長線上下將人們聚集在一起並組織事務的人才。這三類人是我認為目前無法被取代的。郝珂靈:如果那些可以由AI智能體承擔的角色都被取代了,按照目前的軌跡繼續發展下去,你認為是否還能保留這三類角色,以及從中選拔、晉陞人才的儲備庫,以完成長期所需的這三項關鍵任務?主持人:有人斷言即使是那些角色也會感受到壓力。如果你把事物的發展看作指數級的進步,甚至只是10%的複合增長率進步,在某個時刻我認為剩下的實際上是不可替代的人類特質,也就是人與人之間面對面交流的馬斯洛需求。這一點不會改變,我們需要連接。當人類生活中缺乏他人的連接和深厚的關係時,會變得非常痛苦。我有一個不同尋常的觀點,我認為AI可能是第一種能真正兌現承諾、讓我們回歸人性並建立連接的技術。因為除了人類擅長的事情外,我們在其他任何事情上都將變得毫無用處。以往的其他技術曾宣稱要讓我們與世界建立更多連接,結果卻切斷了聯絡,使人們陷入孤立。但也許AI現在已經足夠智能,不再需要我們去折騰電子表格。郝珂靈:你是否看到這一切正即時發生?它是否正讓我們更有能力進行面對面交流,與彼此建立聯絡,並擁有更深層次的社會社區參與?主持人:是的。我會給你提供一些資料點。《金融時報》發佈的一份關於社交媒體使用情況的報告顯示,2022年是巔峰期,此後一直處於平台期,其中下降最快且進入平台期的是年輕一代,而嬰兒潮一代依然活躍。如果你看看Alpha世代使用社交媒體的方式,他們發帖不再頻繁,甚至出現了零發佈(PostingZero)的現象。他們有時刷動態,但更多是待在WhatsApp、Snapchat和iMessage這種暗社交環境中,不再像以前那樣向全世界展示或表演自己。他們也比以往任何一代人都更看重線下體驗,比如跑團(RunClub)正在全球範圍內爆發式增長。這幾乎反映出人們內心深處察覺到技術在某些根本層面上讓我們失望了。我們正在目睹社會可能出現的兩極分化,許多人正趨向於回歸作為人類最本真的樣子。我可以想像在這樣一個世界裡,智能已經進化到極高的程度,以至於我們不再需要坐在筆記型電腦前,螢幕使用時間將會持續下降。當走進辦公室時,你看到的將不再是圍坐在電腦前的人們,而是完全不同的場景。另外,馬斯克說未來將會產生100億個Optimus機器人。他在時間預測上出過錯,但在重大事項上幾乎從未徹底錯過。我已經請了一些來自波士頓動力以及ScaleAI等公司的專業人士來展示機器人疊衣服和洗碗等技能。我認為工廠的大量體力勞動將發生徹底改變,我們將被迫去做那些只有人類才能做的事情。剛才Klarna的首席執行長Sebastian給我打來電話,分享了他們業務和AI Agent的最新進展。他提到,他們很早就利用AI支援客戶服務,不僅處理了更多通話,速度和質量也得到了客戶的認可。他們相信在一個AI廉價且普及的世界裡,人類互動的價值會更高,因此客戶服務的VIP體驗將由真人提供。在公司內部,他們通過AI實現了效率提升,避免了裁員,而是通過自然流失將人員規模從6000人縮減到不到3000人,同時營收卻翻了一番。去年年底更是出現了重大突破,許多頂尖工程師認為程式設計問題已經被解決,人們不再需要親自編寫程式碼了。當被問及這些被解放出來的人都去幹什麼時,他表示長遠來看,他對於AI對社會和人類的積極意義持樂觀態度,認為我們將邁向一個更富裕的社會。聽了這些,你有什麼想法嗎?郝珂靈:其實在他打電話過來之前,我對你剛才說的話確實有一些想法。你提到Z世代有這樣一種趨勢,他們正在脫離技術,變得更加注重面對面交流;而另一類工作者實際上在擁抱技術,正因為擁抱了技術反而變得更具人性,因為他們意識到應該把更多時間花在面對面的人際互動上,而不是盯著螢幕。但我真的很想回到剛發表的那篇《紐約雜誌》的文章上。你所描述的情況只適用於一類非常特定的人群,通常是公司內部的業務所有者和領導層,他們可以決定如何分配和利用時間。但這篇文章探討的是工人階級,那些非業務所有者的普通人經歷了裁員後,被迫轉投資料標註行業。順便一提,資料標註現在是LinkedIn上增長最快的十大職位之一。資料標註就是教這些AI系統實現它們最終展現出的功能,比如向大語言模型輸入提示詞並示範該如何回答,在完成這些訓練之前,ChatGPT並不存在。這就是強化學習過程的一部分。《紐約雜誌》的文章強調,許多被裁員或正在艱難找工作的人,包括大學畢業生、博士、律師、醫生甚至屢獲殊榮的導演,由於經濟已被AI深度重構,他們很難在體系中找到新工作,只能服務於這個設計得極其不人道的行業。OpenAI、Grok和Google等公司會僱傭第三方資料標註公司,而這些第三方公司為了以最低成本和最快速度完成任務,就有動力讓工人之間相互競爭。接受採訪的工人都表示,他們實際上已經失去了作為人的能力。他們只能守在筆記型電腦前等待Slack上的任務提醒,因為這是他們養家餬口的唯一生計。一位女性提到,她對項目起止時間感到極其焦慮,當任務窗口期剛好在孩子放學回家時,她必須瘋狂刷任務賺錢,甚至因為孩子分散了注意力而大吼大叫。她覺得自己變成了怪物,連上廁所或照顧自己都不被允許。這個不斷吸納被裁員工的行業,正在將他們的生活機械化、工作原子化,貶低他們的專業知識,並收割成果來維持這台機器的運轉。然而所有AI高管卻在宣稱,這台機器將取代其他所有人的工作。所以正如你提到的,那些因為AI處理了繁雜任務而變得“更像人”的企業主們,實際上是以絕大多數正在掙扎求生的普通人的利益為代價的。這些普通人被吸納進為企業主提供技術支援的工作中,他們不僅沒有變得更具人性,反而覺得本人的人性被擠壓和削弱了,在生活中喪失了自主權和尊嚴。主持人:我認為這是一個重大問題。如果我們相信Anthropic對行業顛覆的預測,藝術、媒體、法律、生命與社會科學、建築、工程、電腦、數學、商業金融以及行政管理等領域的人員,都將不得不重新接受技能培訓。與工業革命有十幾二十年的緩衝期不同,AI建立在開放的網際網路之上,這使得ChatGPT能迅速獲得數億使用者並成為史上增長最快的公司。我擔心這種顛覆發生的速度快到讓我們根本無法完成轉型。郝珂靈:但誰在推動這種速度?是那些公司,以及它們彼此之間的競爭。它們正在推動這種轉變以極快的速度發生,在這種速度下很難照顧到所有被其碾壓的人。這是最瘋狂的問題之一。當我與這些AI公司的首席執行長們坐在一起時,沒有人能回答我的問題。我會問:“如果這一切真的以超高速發生,那麼人類將會怎樣?”主持人:我曾與一些企業的CEO交流過,比如Uber的Dara也表達過類似的看法。他認為未來會產生一些諸如資料標註的工作,可以提供給司機們。但問題在於,不可能所有人都去從事資料標註,這還涉及人生意義、目標和成就感缺失的問題。是的,很多人在失去原有工作後,自尊心會遭受沉重打擊。我曾聽過許多案例,比如一些人在家鄉原本是醫生,來到美國後卻只能從事廁所清潔工等工作,這種社會地位的巨大落差往往會引發抑鬱和酗酒問題。如果這種現像在全社會大規模發生,後果將不堪設想。郝珂靈:這也是我一直批評這些AI公司的原因。他們創造技術的方式,正在以前所未有的極端形式製造“擁有者”與“缺失者”之間的鴻溝,加劇了世界的不平等。擁有資源的人將積累更多財富,擁有更多閒暇,活得更像一個“人”;而沒有資源的人則受到更嚴重的擠壓。主持人:這種擠壓似乎不僅僅體現在工作層面?郝珂靈:沒錯,我在書中也談到了環境和公共衛生危機。這些公司在選址建造龐大的超級電腦設施時,往往專門挑選最脆弱的社區。例如,OpenAI正在德克薩斯州阿比林建設大型資料中心,這是Stargate計畫的一部分,該計畫耗資5000億美元。建成後,其耗電量將超過1吉瓦(GW)。主持人:我看到網上有一些關於這類設施規模的討論。郝珂靈:有些資料需要更新。比如Meta在路易斯安那州建設的超級電腦設施,規模將是阿比林基地的四倍,面積相當於曼哈頓島的五分之一,電力消耗將達到紐約市平均需求的一半。當這些設施進入社區,會導致公用事業用電增加、電網可靠性下降。此外,設施運行和冷卻需要大量淡水,這讓本就缺水的社區處境更加艱難。在田納西州的孟菲斯,馬斯克為訓練Grok建造了Colossus超級電腦,使用了35台甲烷燃氣輪機供電。當地居民甚至在自家客廳就能聞到煤氣味,他們的空氣權益正被剝奪。主持人:聽起來,那些被歸類為“無產者”的人,處境會變得糟糕得多。郝珂靈:是的。在矽谷描繪的願景中,這些人從事的資料標註工作,實際上是被當作機器而非人類來搾取價值。他們不僅面臨職業被顛覆的風險,還要承受生活成本上升、空氣污染和資源競爭。這如何能讓人類變得更具人性呢?6.探尋出路:打破壟斷與AI的自行車路線主持人:那我們應該如何應對這種情況?郝珂靈:我常把AI比作“交通運輸”。交通工具涵蓋了從自行車到火箭的所有類型。如果我們為了從A點到B點而動用火箭,資源投入顯然是失衡的。目前的主流AI模型就像是“火箭”,能耗驚人且開發成本極高。我們為什麼不製造更多AI領域的“自行車”呢?比如DeepMind的AlphaFold,它通過小型且精選的資料集預測蛋白質折疊,對藥物研發意義重大,並獲得了諾貝爾獎。這種系統所需的計算資源和能效要低得多,卻能為人類帶來巨大益處。主持人:但現在感覺大勢已定,這些公司已經利用大量資料完成了初期訓練。郝珂靈:如果真的塵埃落定,他們就不需要持續訓練了。事實是,為了讓技術保持相關性,他們需要周而復始地進行訓練。這就是為什麼隨著時間推移,他們僱用的資料標註工人反而越來越多。他們相信可以靠暴力破解(Brute force scaling)的方法,通過堆砌資料、計算能力和能源來提升模型。我報導資料標註工作已經超過七年了,而且這一需求並沒有減少,反而增加了。主持人:你認為它有任何下降的可能性嗎?你認為這種利用資料、計算能力、能源以及資料標註員來為模型建構越來越多參數的暴力縮放(brute force scaling)方法,有沒有可能停止,或者轉向與現狀不同的方向?郝珂靈:我很想換個角度來重新審視這個問題,並思考在熱度並未降溫的當下,我們應該做些什麼。在這個我們確實意識到這些公司目前需要持續的資源輸入以及勞動力來延續其業務的時刻,我們能做什麼?停止這個詞聽起來很生硬,因為現任政府和全球範圍都在大力支援這些公司。我總是說我們需要打破這個帝國,開發替代方案。目前我們已經看到令人驚嘆的草根運動正在蓬勃發展,它們正對這個帝國推行其議程的方式施加巨大的壓力。最近的民意調查顯示,80%的美國人認為AI行業需要受到監管。主持人:是的,我看到了。郝珂靈:所以全美甚至世界各地都已經爆發了數十起針對資料中心的抗議活動。人們正在採取行動,重申自己的主體性,並針對這些帝國經營業務的方式行使民主抗爭權。主持人:那我們應該瞄準什麼樣的目標?如果我對觀眾說話,因為我在評論區看到了一種絕望感,他們會覺得我只是個普通人,我能做什麼呢?郝珂靈:我們的目標並不是要徹底擺脫這項技術,而是要求這些公司停止擴張成帝國。我定義的普通企業與帝國之間的區別在於,帝國的立足點是它們認為不需要與員工、使用者以及供應鏈中的所有人進行公平的價值交換。它們不斷地搾取和剝削,獲取遠超其所提供價值的收益。而典型的商業模式存在公平交換,你購買服務會覺得獲得的價值與支付的金額是對等的。但對於資料標註工人來說,他們完全不覺得公司支付的報酬能體現出他們提供的價值。所以指路明燈就是當這些公司以帝國主義方式運作時,我們應該予以反擊並追究其責任。這就是我們現在看到的,人們走上街頭抗議資料中心,產生了巨大的影響,甚至讓一些項目停滯或被完全禁止建設。我們看到藝術家和作家正在起訴這些公司侵犯智慧財產權,這引發了一場關於如何保護智慧財產權的大規模公眾討論。三周前我見到了Sewall Setser III的母親Meghan Garcia。Sewall是一名14歲的少年,他在被Character AI聊天機器人進行性誘導後自殺身亡。她對兒子的遭遇感到悲痛,並決定採取行動起訴這些公司。這引發了許多有著類似經歷的家庭紛紛提起訴訟,也引發了巨大的公眾討論,探討這些公司的剝削行為對世界各地人們包括兒童造成了怎樣的代價。主持人:那麼你認為我的觀眾如果完全同意你書中的觀點,不想讓每個人都變成資料標註員,他們實際上能做些什麼呢?郝珂靈:當我寫這本書時,當時的輿論只認為這是自切片面包問世以來最棒的事情。但現在有80%的美國人希望監管這個行業。我想對大家說,思考一下你的生活與AI行業維持運作所需資源以及部署空間交織的所有方式。你是這些公司的資料捐贈者,你可以拒絕提供資料,就像藝術家和作家正在做的那樣,試圖建立機制扣留資料。你身邊可能正在建設資料中心,如果你在學校或公司,可能正在討論AI採用政策。我剛和一些OpenAI員工聊過,他們公司內部清楚營收目標高得離譜,需要一切進展完美才能實現,需要每個人和每個空間都採用這項技術,需要按預想速度建造資料中心。所以我想對觀眾說,如果我們不同意他們的所作所為,就別讓這一切進展得那麼順利。主持人:我明白了。郝珂靈:然後讓我們來建構替代方案。我並不是說這些技術沒有用處,而是目前專門為了支援這些技術生產而形成的政治經濟體系正在對人類造成巨大傷害。研究表明同樣的能力完全可以通過資源消耗少得多的高效方法開發出來。我們手頭還有許多其他AI系統,它們能以極低成本提供巨大益處。讓我們打破帝國壟斷,開闢出讓所有人廣泛受益的AI發展新路徑。主持人:作為一名CEO、創始人和熱愛技術的人,我常常要在腦海中處理對立的觀點。我認為AI絕對令人驚嘆,它賦予我創造的能力簡直太不可思議了,它能讓我在早上開車時感覺更安全。那十幾億使用ChatGPT等AI工具的人可能會說這為他們的生活增加了價值,我也會投資大量使用AI的公司。但是,我們是否可能在認同其價值的同時,也認為存在重大的意外後果?技術及其發展史本應教會我們停下來討論這些後果。這兩個觀念可以同時存在於腦海中。郝珂靈:是的,我想說這種張力不一定是衝突。我們實際上可以在保留技術益處的同時,以不同的方式開發和設計它們,從而避免意外後果。主持人:這需要一場廣泛的社會討論,這也是我在這檔節目中進行這麼多AI對話的原因,我們需要關注社會和環境影響。這場對話並沒有在政府層面展開,而是發生在行業內部。在過去的幾個月裡,我們一直致力於就這一主題啟發人們的思想。郝珂靈:實際上這在行業之外的各個地方都在發生。地方和州級政府已經有了大量討論。我一直在進行新書巡迴宣傳,去了全球幾十個城市,到處都有人在進行這些至關重要的對話。每場都爆滿,每個人都在糾結同樣的問題。主持人:說到現場爆滿,我知道你等下還有一場演講,所以我們進入本播客的結束傳統問題:你對一位患有絕症的朋友給出的建議,與你自己的做法會有什麼不同?郝珂靈:這是一個非常好的問題。我會告訴他們去享受生活,為自己而活,放輕鬆點。主持人:但你不會這麼做的。郝珂靈:是的,我沒法放輕鬆。主持人:我認為你不放輕鬆是一件好事,因為你正在引領一場至關重要的對話。由於演算法和資訊繭房效應,如今能進行這樣長篇的對話非常罕見且重要。你的新書《Dreams and Nightmares in Sam Alt》推薦給所有對此好奇的人。今天我學到了很多。通過你書中廣泛且客觀的視角、深入的研究,你揭開了故事背後的真相。你顯然將人類利益視為北極星,請繼續戰鬥下去。正是你這樣的人在激勵全世界採取集體行動。強烈建議大家讀一讀這本書,Karen,謝謝你。郝珂靈:非常感謝,Steven。 (劃重點KeyPoints)