#AGI
梁文鋒和楊植麟的默契:AGI不是終點,定義規則才是
484天的沉默,換來一場1.6兆參數的爆發。4月24日,DeepSeek V4-Pro正式發佈,總參數1.6兆、百萬token上下文、首次將華為昇騰與輝達GPU並列寫進硬體驗證清單。而就在4天前,與DeepSeek相距僅1.4公里的月之暗面剛開源了Kimi K2.6,SWE-Bench Pro得分58.6,首次讓國產開源模型站上全球程式碼評測之巔。兩家公司在五天內連發兩款兆級模型,這不是巧合,是海淀區知春路上兩個男人——梁文鋒與楊植麟,長達一年半的默契共振終於公開化。先說一個被大多數媒體忽略的真相:DeepSeek和Kimi的"技術撞車",恰恰是開源生態最理想的進化方式。2025年初,DeepSeek在V3中推出的MLA多頭潛在注意力機制,Kimi直接沿用;2025年7月,Kimi在兆參數K2中率先規模化驗證自研Muon二階最佳化器,訓練成本降低50%以上,而這次DeepSeek V4的技術報告裡,也跟進採用了Muon。表面上看是路線同質化,實際上這是兩家公司在兆參數無人區裡的"交叉驗證"。你探一步,我確認一步,共同把國產大模型的技術水位抬到全球第一梯隊。它們是在互相兜底。這種默契,比單打獨鬥更難得。更關鍵的是,DeepSeek V4的發佈證明了一件事:中國AI已經具備了"晶片-模型-系統"全端自主的能力。技術報告裡那行關於昇騰950的備註,很多人讀出了"算力受限"的焦慮,但我讀出了另一種訊號:DeepSeek敢於在發佈當天就把國產晶片的適配進度寫進官方文件,這意味著"芯模協同"不再是PPT概念,而是正在發生的工程現實。下半年昇騰950超節點批次上市後,V4-Pro的價格會大幅下調,到時候國產模型的性價比優勢將進一步放大。當然,挑戰也是真實存在。DeepSeek近300人的研發團隊中,已有10位核心成員標註"已離職",包括初代LLM核心作者王炳宣、R1核心研究員郭達雅等,分別流向騰訊、字節跳動。人才流失倒逼DeepSeek打破"零融資"的執念,融前估值已達3000億人民幣,計畫增資500億,50億起投。騰訊、阿里正在爭搶入局。但換個角度看,這恰恰說明DeepSeek的技術實力已經強到讓大廠無法忽視。挖不走整個團隊,就挖核心骨幹;投不了整個公司,就搶份額入局。這裡有一個反常識的判斷:DeepSeek和Kimi越是被資本追捧,中國AI的"去中心化"生態反而越穩固。梁文鋒曾拒絕所有外部投資,擔心喪失決策權;楊植麟去年12月還在內部信裡說"短期內不著急上市"。智譜和MiniMax在港股上市後的暴漲並沒有讓這兩家公司跟風IPO,而是選擇了更靈活的一級市場融資。有意思的是,當國內為DeepSeek和Kimi的融資歡呼時,美國那邊Anthropic的ARR已經突破300億美元,15個月翻了30倍,正式超越OpenAI的240億美元。OpenAI剛完成1220億美元融資,估值8520億美元。相比之下,中國大模型的融資額"顯得小情小調"。但體量差距背後,是商業模式的代際差異。Anthropic 80%收入來自企業端,30萬家企業客戶,財富十強裡八家在用Claude。而DeepSeek至今堅持模型全部開源,C端產品免費。這不是不會賺錢,是主動選擇用開源換生態。Kimi雖然月活使用者從巔峰期的3600萬回落至1000-1500萬,但海外API收入四個月翻了四倍。Cursor套殼Kimi事件更讓全球開發者意識到:中國開源模型的性能已經不輸閉源旗艦。中國大模型公司不是在重複網際網路時代的"燒錢換規模"劇本,而是在走一條更硬核的路:先用技術實力打開全球市場,再用生態粘性鎖定長期價值。歷史正在寫下新的註腳。當DeepSeek把昇騰寫進技術報告,當Kimi的模型ID出現在Cursor的API呼叫裡,當馬斯克親自轉發評價"Impressive work from Kimi"。這些訊號都在指向同一個趨勢:中國AI不再只是"本土童話",而是全球開源生態的規則制定者之一。朱嘯虎去年說"大模型已經變成水電煤,沒有超額利潤"。目前來看,他錯了一半:大模型確實在變成基礎設施,但超額利潤沒有消失,只是從閉源壟斷轉移到了開源生態的規模化營運。DeepSeek和Kimi的估值飆漲,本質上不是泡沫,是資本對"開源即權力"這一新範式的提前下注。DeepSeek和Kimi的"知春路雙雄"敘事,不是精緻的本土童話,而是正在發生的全球級技術事件。它們的結局也不只有兩種:被資本收編,或在獨立與規模之間找到平衡。還有第三種可能,用開源生態的廣度,避險閉源壟斷的深度,最終在全球AI格局中佔據不可替代的位置。AGI不是終點,定義規則才是。 (識焗)
紅杉AI峰會2026主旨演講:從軟體時代到智能體時代的範式躍遷 | 全文圖解
在科技發展的宏大敘事中,我們正站在一個足以媲美工業革命的十字路口。近日,在備受矚目的紅杉資本“人工智慧巔峰”行業峰會上,紅杉資本的核心合夥人們與矽谷的頂尖創業者和技術專家齊聚一堂,共同探討這場正在重塑世界秩序的變革。本次會議揭示了一個核心共識:我們正從單純的“軟體時代”邁向全方位的“智能體時代”。會議深入探討了 AI 浪潮的獨特性,指出它是一場計算革命而非單純的通訊革命。核心議題圍繞“智能體(Agents)”作為新一代服務的崛起展開,提出了 MADS 戰略框架(護城河、可供性、擴散),並展望了未來機器將完成 99.9% 認知工作的圖景。儘管技術將重塑勞動力和生產力,但會議強調,人與人之間的聯結仍是價值的終極來源。核心觀點計算革命與 AGI:AI 是關於資訊處理的計算革命,不同於以往的通訊革命。長周期智能體的出現標誌著商業意義上 AGI 的降臨。MADS 框架:在模型之上建構競爭力的三要素——以客戶為中心的護城河(Moats)、降低使用門檻的可供性(Affordance)以及填補能力落差的擴散(Diffusion)。智能體即服務:軟體正在向服務演進,智能體將以極低的邊際成本實現無限規模化的專業服務(醫療、法律、開發等)。認知工業革命:認知工作將重演工業革命的歷程,未來絕大部分認知勞動將由機器完成,世界將進入“異類設計”和新科學發現的時代。人工智慧是一場關於資訊處理的計算革命,而非單純改變分發方式的通訊革命。軟體正在向服務演化,智能體將以極低的邊際成本,實現規模化的法律、醫療等專業服務。長期非同步智能體的成熟,標誌著商業意義上的通用人工智慧(AGI)已經降臨。護城河不再僅僅源於技術能力,而在於與客戶需求的深度繫結及阻力最小的使用路徑。未來99.9%的認知勞動將由機器完成,世界將進入“異類設計”與新科學發現的爆發期。當機器承攬了所有工作,人與人之間的聯結與情感體驗將成為價值的終極來源。不僅僅是更快的馬:計算革命的本質回顧科技史,從矽基電晶體到移動網際網路,每一波浪潮都在為今日的爆發積蓄動能。然而,當前的人工智慧浪潮與以往有著本質的差異。“這波浪潮是首個兼具軟體與服務屬性的變革,” 紅杉資本的合夥人在開場中指出,雲轉型的前十五年將軟體市場推向了數千億美元的規模,但人工智慧所觸及的是價值十兆美元的服務市場。僅在美國,法律服務的市場規模就足以等同於整個軟體行業。更深刻的差異在於技術本質。網際網路、雲技術和移動端本質上是“通訊革命”,旨在改變資訊的傳播與分發。而人工智慧則是一場“計算革命”,它關乎資訊是如何被處理和重塑的。這種底層邏輯的轉變意味著,我們不僅是在製造“更快的馬”——即提升10%或40%效率的生產力工具,而是在製造“汽車”——那些能徹底改變工作本質、組織形態乃至社會運行規則的顛覆性應用。商業通用人工智慧的降臨:從自動化到自主化在過去兩年中,技術轉折點接踵而至。從預訓練模型的震撼問世,到推理能力的大幅躍升,再到如今能夠處理長周期任務的智能體崛起。雖然學術界對通用人工智慧(AGI)的定義仍有爭論,但從商業和實踐的角度看,變革已經發生。“如果你能指派一個智能體去完成一項工作,並且它能在遇到故障後自我修復並持續工作直到任務完成,這就是商業意義上的通用人工智慧。”智能體不再是簡單的程式碼行間輔助,它們正演變為能夠感知環境、選擇行動並自主達成目標的複雜系統。從程式碼編寫到建築服務銷售,從內部辦公流程到複雜的科研任務,智能體的表現已經從“分鐘級”的持續性跨越到了“小時級”甚至更長。這種“把事情辦成的能力”,正在將人類從繁瑣的流程中解放出來,轉向更高層級的戰略管理。策略框架:在基礎模型之上建構護城河對於在基礎模型之上進行創新的初創企業而言,如何在技術快速演進的洪流中站穩腳跟?峰會提出了一個關鍵的戰略框架,即由護城河、可供性與擴散組成的競爭力支柱。首先是護城河。在計算革命中,底層技術的變化日新月異,但客戶的需求往往保持穩定。“為了建構護城河,你實際上應該關注客戶需求,因為你所建構的技術在明天可能就會變得無關緊要,而你以客戶為核心的緊密程度則會更加持久。” 其次是可供性,即為客戶創造阻力最小的路徑。優秀的智能體產品應該像錘子一樣,無需解釋,使用者一看便知如何使用。最後是利用技術能力與市場落地之間的“擴散鴻溝”,這正是應用層公司的巨大機遇所在。服務即軟體:重塑十兆美元的產業版圖“服務即新一代軟體。” 這一判斷預示著傳統軟體行業的終結與服務業的智能化重生。在醫學領域,智能體可以根據個體的基因組提供個性化建議;在法律領域,它們能代表客戶進行合同談判甚至法律訴訟。相比於人類員工,智能體具備無限的規模化潛力與極低的邊際成本。“人類難以實現規模化,且成本高昂;而智能體可以通過算力實現無限擴張,且你只需要支付令牌成本,而非薪水。” 儘管人類目前在適應力上仍具優勢,但隨著“苦澀的教訓”——即算力終將戰勝人類經驗的規律持續發生作用,智能體在專業領域的表現將很快超越普通人類。一個由非同步智能體自主運行、甚至機器製造機器的“黑燈工廠”時代正在加速到來。認知的工業革命:走向機器主導的創造力時代如果我們把工作分為體力與認知兩類,那麼人類已經完成了體力的工業革命。今天,全球超過99%的體力勞動由機器完成。而現在,認知領域正在重演這一處理程序。“我們相信,在不久的將來,地球上99.9%的認知工作將由機器完成。”這一轉變將帶來三個深刻的影響:第一,智能將成為像鋁一樣的廉價商品。曾經珍貴如珠寶的鋁,在電解法發明後變成了隨手可丟的包裝材料;曾經需要數十年磨練的博士級技能,未來可能只需呼叫一次令牌即可獲得,用完即棄。第二,世界將進入“異類設計”階段。機器的邏輯不同於人類直覺,當人工智慧設計晶片或建築時,會產生效率極高但外觀怪異的作品,我們必須保持開放心態。第三,人工智慧將催生出如熱力學般基礎的新科學,將神經元與令牌的運作系統化、公式化,幫助人類最終掌握意識的奧秘。人是萬物的尺度:在技術洪流中守望人性價值當機器可以處理所有認知任務,甚至能比人類更好地進行藝術創作時,人類的價值何在?峰會引述了古希臘哲學家普羅泰戈拉的名言:“人是萬物的尺度。” 任何脫離了人類體驗的事物,其價值都將不復存在。就像攝影技術的出現並沒有終結繪畫,反而催生了印象派與表現主義一樣,人工智慧的普及將逼問我們藝術與工作的本質。“人工智慧可以完成工作,但唯有人與人之間的聯結,才能讓你找到在乎的理由。” 在這個技術指數級增長的時代,那些讓我們之所以為人的特質——情感、關係與共同的體驗,反而成為了最稀缺、最珍貴的資產。十年之後,工作方式或許會翻天覆地,但那些在變革中建立的人際紐帶,將是我們在人工智慧巔峰之上最持久的收穫。天空之城全文整理圖解宏觀校準:AI 浪潮的獨特性Pat Grady: 大家早上好,你們過得怎麼樣?很好,很好,感覺好多了。嘿,感謝大家來到這裡。我們對此深表感謝。我們這樣做是為了回饋社區,因為我們正處在一個重要的時代,能夠為大家提供一個相聚的場所,這對我們來說是一種榮幸。這是我們迄今為止制定的最棒的議程,也是我們見過最優秀的參會者陣容。所以,我們首先想說的是,謝謝大家。我們知道你們都忙得不可開交。感謝你們今天能出席。像往常一樣,我們準備了一份非常特別的議程,索尼婭,穿著無可挑剔的服裝,康斯坦丁和我將先講幾句開場白。我們有幸參與了許多與各界有趣人士的對話,因此每年我們都希望嘗試將其進行一定程度的整合,並將我們所聽到的內容分享給你們。所以,我會先做幾句整體性的校準說明,然後由索尼婭談談我們當下的所見,接著由康斯坦丁談談我們對未來的展望。在校準部分,我們先從宏觀視角切入,回到矽基電晶體的時代,正是它賦予了該領域名稱,隨後這些電晶體被建構成由網路連線的系統,並以網際網路的形式走向大眾,支援了諸如雲端社交媒體等應用,最終以移動裝置的形式出現在我們的口袋裡,而這些裝置在今天所能實現的功能與魔法無異,那就是 AI。我們喜歡展示這張幻燈片,以前來過這裡的人應該都見過,是因為它提醒我們,所有這些浪潮都是相輔相成、不斷疊加的。我們似乎經歷了數十年的演進,才積攢了足夠的算力、頻寬、資料和人才,從而把握住當下的這個時刻。現在,這股 AI 浪潮有些不同。體現在三個方面。Sonya Huang: 首先,這是迄今為止規模最大的一波浪潮。Pat Grady: 這通常是事實,但這波浪潮有著更具體的獨特性,即它是首個兼具軟體與服務屬性的浪潮。第一行展示了雲轉型的前15年,期間軟體的市場規模(TAM)從約3500億增長到6500億,而云服務在其中佔據了約4000億的市場份額。第二行所展示的是全新的內容。這指的是目前似乎同樣可獲取的服務收入。10兆是一個相當整齊的整數。我們無法確定最終規模是10兆、5兆還是50兆。但我們確實知道,僅在美國,法律服務就是一個4000億美元的市場。這僅僅是一個垂直領域和一個地理區域。其規模就已等同於整個軟體行業。因此,這一機遇是巨大的。第二點。這是迄今為止最快的一波浪潮。我想我們都能感受到這一點。這意味著這片空白區域——請大家關注頁面上 AI 這一側——正在被迅速填補。這些圖示所代表的公司,正是得益於雲端運算、移動端以及現在的 AI 技術變革,才實現了超過 10 億美元的營收。Konstantine Buhler: 按照目前的處理程序和速度,未來還會有更多公司加入其中。計算革命與商業 AGIPat Grady: 第三點。這可能是最有趣的一點,我借用了我的合夥人康斯坦丁的觀點,即技術革命基本分為兩種類型。一種是通訊革命,旨在改變資訊的傳播方式。在座的大多數人所經歷的,僅僅是通訊革命。網際網路、雲技術、移動裝置,這些本質上都屬於資訊分發。這些是通訊領域的革命。AI 則有所不同。AI 屬於這一類。AI 是一場計算革命。它關乎資訊是如何被處理的。這聽起來可能只是語義上的區別,但它們在波形本質上截然不同。或許最直觀的感受方式是意識到:腳下的地基一直在移動。隨著新功能的不斷湧現,每個人所建構的底層技術基礎也在日新月異地變化。在過去的幾年裡,我們經歷了三個主要的轉折點。第一個是 ChatGPT 時刻。2022 年 11 月,世界見證了預訓練的強大能力。第二個是幾年後的 o1 模型,即推理能力。突然之間,圍繞推理時間計算的第二條縮放定律出現了。第三個是最近出現的 Claude Code Opus 4.5 ,現在是 4.7。世界見證了長周期智能體的強大能力。雖然這看起來像是連續體上的三個點,但第二和第三個轉折點之間存在某種程度上的斷層。這是一種非連續性的變化。如果不揣冒昧地說,我們認為這就是 AGI。而且,我可是學經濟學專業的。我們是風險投資人,不會去提出關於 AGI 的技術定義。好嗎?我們研究創始人、市場以及兩者的碰撞,也就是商業。但我們確實在研究商業。因此,從商業角度、實踐角度以及功能角度來看,如果你能指派一個智能體去完成一項工作,並且它能在遇到故障後自我修復並持續工作直到任務完成,這就是商業意義上的通用人工智慧。即使你認為那不是 AGI,也沒關係,順便說一下,索尼婭會在她的部分詳細討論這一點。即使你認為那不是 AGI,我也不認為那是 AGI,但我認為我們都能看出汽車已經到來了。過去幾年裡,我們見過了很多更快的馬。那些讓你生產力提升 10% 或 40%,卻並沒有從根本上改變你工作方式的應用程式。現在我們開始看到汽車了。那些讓你生產力提升 10 倍或 40 倍,並徹底改變你工作方式、工作本質以及組織本質的應用程式。汽車時代已經來臨。這是 Sequoia 的創始人 Don Valentine,他以愛問一個問題而聞名:那又怎樣?為什麼這一切如此重要?之所以重要,是因為就在過去幾個月裡,這場競賽已經開始了。而且這與我們習慣的競賽截然不同。駕駛汽車的方式與騎馬的方式是不同的。製造汽車的方式與照料馬匹的方式也是不同的。所以,這是一種非常不同的競賽。我們今天想把大家召集到這裡的原因之一,是因為沒有人擁有所有的答案。我們在一起交流的時間越多,就能學到越多,並有望弄清楚這一切將走向何方。建構策略:MADS 框架Pat Grady: 我們務必盡快採取行動,因為僅從商業角度來看,這關乎巨大的利益。市場規模高達 10 兆美元。我們有實驗室正從技術驅動的角度開展研究。我們也有初創公司正在以客戶需求為導向進行開發。雖然在座各位代表了所有相關實驗室,但你們大多數人是在現有基礎上進行建構。所以我們花一點時間,來討論那種以客戶需求為導向的方法。對於那些在現有實驗室基礎上進行建構的人,我們有些建議——既然是免費建議,那它就值你們付出的每一分錢——我們的建議是去參考 MADS。其實我們並不需要你們感到憤怒(Mad)。如果你們願意,當然也可以感到憤怒。如果那是驅動你們的動力,那也挺好的。儘管生氣吧。但這只是一個方便的縮寫,指代可供性(Affordance)、護城河(Moats)與擴散(Diffusion),這是在模型之上建構策略的三個特徵或三大支柱。首先談談護城河,純粹為了好玩。有人記得去年的這張幻燈片嗎?有一位,他還是我的合夥人。好的,那很酷。提醒一下,這張幻燈片展示了商品化周期,即從創意到實現客戶滿意所需經歷的價值鏈環節。我們實際上不會逐一去過這些價值鏈環節。我想在這裡指出的是,如果你從技術的角度出發,價值鏈中的每一個環節都會以略有不同的方式被處理。如果你從客戶的角度出發,那麼你在鏈條中所接觸的每一個環節都會略有不同。現在,這裡有一個違反直覺的部分。在這一場關於資訊處理的計算革命中,你往往會想要關注下方這些領域,因為那裡不斷湧現出各種酷炫的新事物。但為了建構護城河,你實際上應該關注上方這些領域。因為你的客戶需求變化速度遠不及技術能力演進的速度。你所建構的東西在明天可能就會變得無關緊要。而你以客戶為核心的緊密程度,則會更加持久。這並不是說產品和技術不重要。它們極其重要。且通常情況下,最好的產品會勝出。但在一個產品迭代極快、能力演進也極快的世界裡,當思考商業護城河時,我們建議你儘可能從客戶的角度出發,思考所有能夠圍繞這些客戶建立緊密聯絡的方式。好的,MADS 中的 A 代表的是 Affordance(可供性)。這是一個我們從設計領域借用的術語。錘子就是一個具有可供性的物體。我有一個兩歲的兒子。如果我給他一把錘子,他就會知道該怎麼用。他會抓起錘子開始敲打東西。這就是我們不給他錘子的原因。具有可供性的物體是不需要解釋的。人們一看就知道該怎麼用它。Claude code 極其強大。去讓一名普通的財富 500 強企業員工打開終端試試,看看他們能走多遠。雖然它很強大,但提供的功能可供性並不多。這並非是對 Anthropic 的批評,但對於任何希望在現有基礎上進行建構的人來說,這是一個機會。你可以為特定客戶及其具體問題創造阻力最小的路徑,讓他們能極其簡單地達成業務所需的結果。這就是可供性的概念。最後,MADS 中的 D 指的是擴散(Diffusion)。擴散鴻溝正是那些在應用層進行開發的公司所面臨的機會。技術能力向市場擴散的速度,遠低於這些能力被創造出來的速度。基礎模型的演進速度每天都在超越普通的財富 500 強企業,這一鴻溝正在不斷擴大,機會也隨之增長。因此,對於護城河(Moats)而言,請嘗試以客戶需求為導向進行思考。關於可供性(Affordance),試著思考如何為你的客戶創造阻力最小的路徑。而那個擴散鴻溝,正是你所擁有的機遇。除非早先那張空白區域逐漸被填滿的幻燈片讓在座的各位感到沮喪,那麼我們需要提醒你們的是,沒有任何領先是絕對穩固的。賽車界有這樣一句話:你無法在晴天超越15輛車,但你可以在雨天超越15輛車。而現在,基礎模型正湧現出如傾盆大雨般的新功能,這意味著沒有任何領先是絕對穩固的,但也意味著任何人都有機會勝出。這是一個多麼偉大的時代。接下來,我將把它交給索尼婭。智能體時代:服務即新一代軟體Sonya Huang: 我可以再說一句嗎?在觀眾席中看到這麼多友好的面孔真是太好了。今天在場的各位都是卓越非凡的人。能與大家共同置身於這個生態系統中,我感到非常高興。我這一部分的內容旨在探討人工智慧當下的發展,對於2026年而言,核心就是智能體。好,讓我們回溯到2022年。請舉手示意。這裡有人記得 Auto GPT 或 Baby AGI 嗎?好的。好的,明白了。這些項目在 GitHub 上一夜爆紅。它們的操作方式是呼叫 GPT3,為其配置一些工具,封裝在循環中,並讓它朝著目標運行。起初看起來很有前景,直到你看到那些智能體一次又一次地失敗。雖然看著挺可愛、挺招人喜歡的,但實際上完全沒用。Pat Grady: 我放這張幻燈片是為了提醒大家,我們其實早就預見到智能體時代的到來。Sonya Huang: 我們本可以在幾年前就預見這一切。但回到2022年,當時的模型確實還沒準備好。Pat Grady: 時間快進到今天,從年初開始,情況確實發生了質的變化。Sonya Huang: 突然之間,智能體遍地開花,而且它們似乎真的能夠投入實際運作了。其中有兩個智能體表現尤為突出:面向技術人群的 Claude Code,以及讓任何擁有手機的人都能使用智能體的 OpenClaw 及其所有龍蝦系列衍生產品。所以,無論你是硬核工程師還是普通使用者,現在的重點在於,人人皆可建立智能體。我們現在看到人們正在為各種用途建構智能體。甚至還有一些荒唐的例子,比如有的 open-call 智能體會專門去舉報鄰居的稅務欺詐行為。請不要這樣做。或者實際上,也許請這樣做。還有創業相關的事情。運行生成式媒體活動來銷售建築服務的 Agent。然後還有一個專業層面。我可以告訴你,在 Sequoia 內部存在一場巨大的競賽,看誰能建構出最好的 Agent 來更好地完成我們的工作。那麼,成為一個 Agent 意味著什麼?這裡有一個可能的定義。Agent 是一個系統。它感知其環境,選擇行動,並自主地朝著一個目標前進。順便說一下,我想這是我自己用 C-dance 製作的。我對此感到非常自豪。視訊模型已經取得了長足的進步。更具體地說,我認為智能體具有三個功能元件。首先是推理和規劃的能力。這是直覺的基準水平以及即時思考的能力。其次是採取行動的能力。這包括使用工具、搜尋、編寫和編譯。最後是朝著目標不斷迭代的能力。這正是賦予智能體在長周期內完成任務能力的持久性。因此,代理(agency)結合了這三樣東西。簡而言之,就是把事情辦成的能力。如果我們把代理拆解為模型、工具和協作框架(harnesses)這些組成部分,過去一年裡每個部分都在飛速進步。首先,模型即大腦。這是目前發生的最重要的事情。衡量指標圖表測量的是模型在執行複雜任務時,能夠持續推進而不偏離軌道的時間長度。我們已經從一年前的十分鐘量級發展到了今天的數小時量級。所以,這是目前發生的最重要的事情。模型終於變得足夠強大,能夠維持長周期任務的性能表現。其次,工具即手腳。這些賦予了模型訪問各種能提升我們電腦生產力工具的能力,例如用於檔案系統和開發工具的終端、iMessage、Slack、網頁搜尋、電腦使用等等,應有盡有。過去二十年間我們為人類打造的各種工具,最終也能夠轉化為對智能體而言極其有用的資源。有一種普遍的論調認為 SaaS 已死。但我認為恰恰相反,隨著使用這些工具的智能體數量增加,其價值將會爆發式增長。增加。模型和工具賦予了智能體執行能力。而控制框架(harness)則賦予了它們持久性。即保持任務專注、進行調整併持續運行的能力。這一反饋回路現在確實開始加速運轉了。特別是在有了強化學習之後,我們正在對這些智能體進行“駕駛學校”式的訓練,也就是在 RL gyms 中訓練它們。Pat Grady: 我們正在不同領域推動性能的提升,從機械工程到設計,旨在尋找突破。我們同時也看到了自我改進的初步曙光,即機器製造機器。Sonya Huang: 例如,Andrej 的另一個研究項目在短短兩小時內自主提升研究能力,達到了 GPT2 等級模型的水平。那麼,一個到處都是智能體的世界會是什麼樣子?智能體的存在處於一個智能程度的滑動量表上,讓我們以程式設計為例。在 2023 年,我們擁有了標籤頁自動補全功能。這是一種 AI 在行間輔助人類的方式。Pat Grady: 這種方式雖然在增量上有所助益,但從根本上說並不具備變革性。Sonya Huang: 我們現在擁有了智能體開發,即一個人與一個智能體對話,指導它做什麼,或許還能管理一個智能體團隊。但這種範式正在被進一步推進。我們現在看到了後台智能體、非同步智能體以及能夠衍生出子智能體的智能體。我們認為,在這種整體範式下,非同步智能體極有可能在規模上超越當前範式,這僅僅是因為該系統所能提供的槓桿效應。Pat Grady: 最後,在推進前沿尖端領域方面,即我所說的“黑燈工廠”,將人類審查徹底從系統中剝離。Sonya Huang: 這聽起來很瘋狂,但我已經在生產環境中見過這種情況,包括在網路安全公司中。只要具備足夠可靠的護欄機制和足夠優秀的工程能力,這是完全可能的。因此,我們正在智能體化的處理程序中不斷攀升。智能體正從在你身邊提供微小協助的助手,進化為需要管理的實習生,進而轉變為能夠自我管理的實習生,最終演變為值得信賴、無需監督即可部署到生產環境的實習生。這就是正在發生的演進,不僅是在程式碼編寫領域,而是覆蓋了所有智能體應用。對於在座的創始人而言,最重要的啟示是:服務即新一代軟體。帕特在我認識他以來一直強調這一點,我們的合夥人 Julian(他今天也在觀眾席中)也發表過一篇關於此話題的優秀文章。我們對此早已知曉,但我認為這一趨勢正在真正地成為現實。在醫學領域,你可以聘請一個尊重你的基因組、為你提供個性化建議、能夠為你開具處方藥物並推薦臨床試驗的智能體。在法律領域,你將能夠聘請能夠代表你協商合同,甚至進行訴訟並為你達成和解的智能體。在數學和科學領域,我們正看到能夠解決這些問題或發現新型超導體的智能體。這難道不令人振奮嗎?或者在消費領域,那些可以為你管理收件箱、日程表、財務狀況以及申報稅務的個人智能體。我們預計未來智能體將無處不在。這在一定程度上是因為聘請智能體比僱傭員工要容易得多。人類難以實現規模化。而智能體可以通過算力實現無限規模化。讓員工保持滿意度是一件困難的事。除了我以外,我總是很快樂。Agents 的維護成本很低。人類的成本很高。你需要支付他們薪水。你需要支付 Agents tokens。通常情況下,用 tokens 完成任務的成本要低於支付等值的薪水。現階段,人類通常仍然更聰明。但 bitter lesson 的影響持續存在,很快 Agents 在許多方面就會變得更聰明。因此,這張幻燈片的重點並不是說我們人類要失業了。我認為適應力是人類獨有的特質。但我們預計智能體在應用層的部署將會迅速進行,且規模增長速度前所未有,因為其經濟效益顯而易見,且具備固有的可擴展性。綜上所述,智能體的數量正以某種指數級,或許是超指數級的速度激增。當商業活動在智能體之間展開時會發生什麼?它們可以互相支付嗎?當智能體能夠自行協商交易條款時,會發生什麼?未來是否會出現成群結隊的智能體來監管我們,以防範網路安全威脅或 Megadon 之類的事件?我們只知道這個世界正在極速變得詭異。最後,我想借用 Bene Gesserit 的心境來結束此次發言。Long Horizon 智能體已經到來。它們所處的曲線,非常清晰。對於創始人而言,我想每個人都有看到人們借助 AI 在極短時間內完成艱巨任務的案例。例如,來自 Z'd 的 Nathan 在假期期間獨自一人利用 Claude 完成了一個原本需要三年的登月級項目。Brett Taylor 用一個周末的時間重建了 Sierra。Notion 團隊僅用了六周時間就重寫了 800 萬行程式碼。因此,每個人都有這些時間線被壓縮的例子。但我認為,在 AGI 實驗室之外,很少有人真正見識過會發生什麼。當你將這些被壓縮的時間線進行疊加時。而這正是現在所能實現的。所以,無論你想像中未來一百年能建構出什麼,我們認為借助智能體,現在一百天內就能實現。接下來我將交給康斯坦丁。未來展望:認知的工業革命Konstantine Buhler: 謝謝你,索尼婭。好的,非常感謝索尼婭和帕特帶來的精彩概述與分析。在這一部分,我們將簡要探討接下來的發展方向。我們的目標是,因為我們都知道自己正處於 AI 時代。它將會是什麼樣子?它將會帶來怎樣的體驗?它的特徵是什麼?在演示的前半部分,帕特將技術革命分為計算和通訊兩個維度。我們在這裡將工作類型再進行一次劃分。一種是體力工作。這可以是 Pony Express 上的包裹,也可以是 Falcon 9 運載的衛星。工作等於力乘以位移,即物理位移。接下來是認知工作。例如 Pythagoras 提出該定理。例如 DeepMind 解決蛋白質折疊問題。有意識的思考。這些是非常不同類型的工作。但我們相信它們將遵循非常相似的變革模式。那麼讓我們談談體力工作,因為我們已經經歷過工業革命帶來的變革。Pat Grady: 在人類歷史的絕大部分時間裡,世界上所有的工作,或者說幾乎所有服務於人類的工作,都是由某種肌肉力量完成的。Konstantine Buhler: 依靠人或動物。靠人去搬運東西,或者靠動物牽引人類前行。這一切始於1700年,但其淵源可追溯至幾千年前。隨後,局面開始發生轉變。水力和風力。蒸汽機。此後,處理程序開始加速。蒸汽機。內燃機、電動機。時至2026年,可以估算得出,地球上超過99%的人類體力勞動已由機器完成。將你帶到此處的飛機、房間內所有物品的製造,以及支撐你此刻所體驗的人類巔峰生活的各項運輸保障。我們認為認知的演進也將經歷類似的歷程。我們只是處於一個較早的階段。在人類歷史的大部分時間裡,地球上所有的人類思考主要都是由人類完成的,或許還有一點來自動物,比如牧羊犬驅趕羊群。在機械勞動之上,曾存在過一小部分輔助工具,例如星盤或時鐘。Pat Grady: 現在,在過去幾百年裡,進展其實並不大。直到電子計算出現。Konstantine Buhler: 而在過去一百年裡,試想一下,此時此刻為了服務你這樣的人類,正在進行著數以兆計的計算。所有這些工作,所有這些正在發生的認知工作,都是為了在任何時刻服務於我們。數以兆計的計算。我們相信 neural network 是下一個大浪潮,並且在不久的將來,地球上 99.9% 的認知工作將由機器完成。這種類比非常鮮明,好消息是我們已經經歷過這樣一場革命。認知革命將與工業革命非常相似,只是規模要大得多,速度也快得多。那麼,生活在這樣的未來會是什麼樣子?我想以四個短篇故事的形式,分享對這個未來的一些思考動因。四個故事:智能、設計、科學與藝術Konstantine Buhler: 第一個故事。19世紀中葉,美國想要為首任總統及最偉大的戰爭英雄 George Washington 建造一座宏偉的紀念碑。因此,我們設計了當時世界上最高的建築——Washington National Monument,並且我們想要用世界上最珍貴的金屬來裝飾其頂端。當時 100 盎司的這種金屬是世界上最珍貴的,珍貴到我們甚至將其放在 Manhattan 的 Tiffany's 進行展覽。那種金屬就是鋁。在 Washington National Monument 竣工後的幾十年裡,一位年輕的發明家發明了電解法,即從泥土中分離出鋁的工藝。此後不久,鋁便被用來包裝糖果和三明治,然後被扔進垃圾桶。Pat Grady: 鋁就是智能。電解法就是人工智慧。Konstantine Buhler: 我們即將進入這樣一個世界:一些耗費數十年光陰練就的、達到博士水平的寶貴技能,在呼叫後轉瞬即逝,用完即可將其揉作一團直接扔進垃圾桶。第二個故事,我們正在進入一個異類設計的世界。我們今天所見的世界,其核心邏輯皆是為了人類而設計。眾所周知,這種設計經過了最佳化,使之符合我們的大腦邏輯,因為世界上幾乎所有的認知活動都是由我們完成的。然而,當認知活動由機器來完成時,情況將會大不相同。2006年,NASA 正在為一項大型航天任務,即衛星太空任務最佳化天線。傳統上,他們的天線看起來是這樣的。那是一種優美的幾何對稱圖案,在一定的功率限制下最佳化了表面積。這一次,他們決定將任務交給電腦,並使用一種類似於強化學習的進化演算法。Pat Grady: 結果就是眼前的這個天線。生產力顯著提高,且不符合人類的直覺思維。Konstantine Buhler: 在這個 AI 時代,當我們把認知任務交給機器時,我們將得到的結果是不符合我們直覺的。Pat Grady: 當 AI 設計晶片、汽車和建築物時,它們看起來可能會大相逕庭。Konstantine Buhler: 對於我們即將進入的世界,必須保持開放的心態,因為 AI 的思維方式與我們不同。它將具備異類的設計風格。第三個動力學故事關於新興科學。並非新興科學。我們都知道存在新興科學。我所說的是新興科學領域。在工業革命初期,湧現了像 Newcomen 和 Watt 這樣偉大的工程師,他們完善了內燃機。簡單來說,就是把石油化工產品注入活塞,點火燃燒,數百萬乃至數十億計的粒子發生爆炸。Pat Grady: 爆炸推動活塞,從而做功。Konstantine Buhler: 在近100年的時間裡,這一切都處於修修補補的階段。當時工程師只是在說,那樣效果稍微好一點。或許你可以將其視為一種規模法則,但那實際上是工程師們在擺弄產品,看如何能進行微小的改進。在120多年後,Sadi Carnot 出現了,並將這一切總結為一門新的科學——熱力學。Pat Grady: 他說,等一下,這裡有數百萬或數十億的粒子。Konstantine Buhler: 我們實際上可以將這一切系統化、公式化。而在當前的情況下,這裡有數十億個神經元,數兆個 Token。此刻,我們正處於 AI 的修補階段。即使我們認為這是一門已被認知的科學,事實並非如此。未來,我們將在接下來的幾十年內迎來一門如熱力學般基礎的科學。在座的各位或許就有人能開創這門科學。而這門科學將被納入高中的教學課程中。它將具有如此基礎的地位。它將幫助我們掌握 AI,甚至幫助我們掌握意識。第四個故事。非理性的藝術。在人類歷史的絕大部分時間裡,即數萬年間,藝術一直朝著寫實主義的方向演進。這是一幅大約 25000 年前的洞穴壁畫。從埃及象形文字、希臘陶器到文藝復興時期的畫作,這是一場向寫實藝術邁進的宏大變革。看看這其中的差異。歷經數萬年。人類的偉大勝利。Pat Grady: 隨後工程技術應運而生。銀版攝影法,早期攝影技術。Konstantine Buhler: 突然之間,我們花費數十年人生去磨練、力求每一筆觸都完美的技藝,瞬間消失了。那麼世界對此作何反應?他們認為繪畫藝術已經終結。噢,就這樣結束了。機器能比任何人類做得更好。藝術即是藝術,藝術已終結。那麼,發生了什麼?人類是如何回應的?人類的回應是提出疑問:這種藝術的目的是什麼?是為了以眼睛所見的方式捕捉那一刻嗎?還是為了以內心和靈魂所感的方式捕捉那一刻?Pat Grady: 印象派、表現主義、立體主義、新表現主義,所有這些新的藝術形式都是人類對科學領域這一巨大變革所作出的回應。Konstantine Buhler: 兩千五百年前,希臘哲學家 Protagoras 寫道:人是萬物的尺度。他的意思是,任何事物若脫離了人類,便不存在價值。無論是鋁材、藝術,還是智能,皆是如此。Pat Grady: 它之所以有價值,僅僅是因為那份體驗。AI 可以完成工作,AI 也終將完成工作,但唯有人與人之間的聯結,才能讓你找到在乎的理由。Konstantine Buhler: 這就是我們今天齊聚一堂的原因。十年之後,工作方式將發生巨大的變化。一切都將迎來翻天覆地的改變。但唯一不變的,是你們今天與身邊人建立起的關係。它們將長久延續。那將是你們回首往事時最珍視的部分。那也將是今天最有價值的收穫。因此,我鼓勵大家與身邊的人建立聯絡,盡情享受這次 AI Ascent 的時光,並真正地擁抱那些讓我們之所以為人的特質。 (Web3天空之城)
AGI很蠢?AI教父Hinton預警:4.8兆美元市場已鎖死,AI正撕裂全球!
【新智元導讀】最近,AI教父Hinton發出最尖銳警告:不受監管的AI就是一輛沒有方向盤的高速跑車!全球只有1%的AI研究在做安全,4.8兆美元的巨獸正在失控加速。當78歲的Geoffrey Hinton坐在攝影機前,對著在場的幾百位代表說出這句話時,整個會場安靜了幾秒。「他們想要一輛沒有方向盤的超級快車。」最近,這位2024年諾貝爾物理學獎得主、被全世界叫了十幾年「AI教父」的老人,在全球數字世界大會上,再次向全人類拉響了警報。這位老人用幾乎是帶著懇求的語氣警告:「我們不知道人類能否與超級智能AI共存。」「但我們正在建造它。」只有1%在管安全,剩下99%在踩油門在發言中,Hinton給我們算了一筆很清楚的帳。全球AI產業正以人類歷史上前所未有的速度膨脹。UN貿發會議的資料顯示:2023年全球AI市場規模1890億美元,到2033年預計飆到4.8兆美元。也就是說,人類只用了十年時間,就從零造出一個比日本GDP還大的經濟體。這些錢,幾乎都用在了造更大的模型,跑更多的算力。至於安全呢?Hinton給了一個數字:大概1%。全球AI研發投入裡,只有大約1%花在了「怎麼讓這東西不出事」上面。對此,Hinton的評論是:It's crazy.「AI科技遊說集團正在花大價錢投廣告,想讓所有人接受一個類比——AI是油門,監管是剎車。他們的意思是,別踩剎車,會拖慢我們。」對此,Hinton表示,這個類比完全是錯誤的!「油門是進步,沒錯。但監管不是剎車,監管是方向盤。他們想要一輛極速狂飆的車,但沒有方向盤。」坐在他旁邊的Terry Sejnowski立刻接了一句:你開過一輛沒有剎車的車嗎?下坡的時候你就知道有多慘了。但更慘的是,我們連方向盤都沒有。油門踩到底,方向盤拆掉,這就是當下全球AI競賽的真實狀態。兩位老人的頒獎典禮怎麼變成了一場審判2026年世界數字大會的主題是「AI與社會發展」。這次大會給Hinton和Sejnowski頒了一個獎,表彰他們在1980年代發明玻爾茲曼機,它後來成了深度學習革命的催化劑。頒獎人是微軟的語音識別專家李登(Li Deng),他自己就是玻爾茲曼機的受益者。前半場,三個人聊的是科學往事,學術榮光和師生情誼。Hinton和Sejnowski回憶了1980年代在羅切斯特的一次會議上,他們是如何把Hopfield網路和模擬退火結合在一起,這個靈感迸發的瞬間。Sejnowski說,自己記得一清二楚——「我們坐在那裡,突然意識到可以把Hopfield網路加熱,讓它變成機率性的。」隨後,Hinton補了一個細節:那個時候他剛在聖地亞哥跟David Rumelhart一起程式設計反向傳播,用的是logistic單元。而給Hopfield網路加溫度之後,出來的恰好也是logistic單元。兩條完全不同的路,在同一個數學形式上匯合了。在科學史上,這種時刻被叫做「晶化瞬間」。值得玩味的是,Hinton至今仍然認為玻爾茲曼機比反向傳播更優雅。「它是一個好得多的想法。只是不太好用。」Sejnowski笑著附和:「它在生成式AI還沒流行之前幾十年,就已經是生成式神經網路了。」一個更優雅但不實用的想法,和一個沒那麼優雅但統治了整個時代的演算法,在科學史上,這種故事反覆上演。「AGI,是一個愚蠢的術語」但頒獎典禮的後半場,畫風急轉。當主持人把話題引向AGI和社會風險時,Hinton徹底切換了模式。李登問了一個很多人都想知道的問題:你們怎麼定義AGI?什麼樣的基準測試能說明AGI已經到來?Hinton毫不留情地表示:「AGI是一個愚蠢的術語。」理由很簡單:它假設智能是一維的,像溫度計一樣,數值越高越聰明。「但智能顯然是高度多維的。所以不存在一個點,AI在那個點上等於人類。它相對於人類的能力是鋸齒狀的——在某些方面已經遠遠超過我們,在另一些方面還不如我們。」他舉了個例子:你現在去問任何一個大模型,斯洛維尼亞的報稅截止日期是那天,或者怎麼給門廊做防潮處理,它都答得頭頭是道。在通識知識這個維度上,AI早就把人類甩了幾條街。但在某些推理任務上,它還沒完全追上。「所以,AGI這個詞沒有意義。」那什麼詞有意義?在Hinton看來,真正有意義的是「超級智能(superintelligence)」。它的定義很清楚——在幾乎所有人類能做的智力任務上都比我們強。我們相信它正在到來。接下來,就是整場對話最核心的段落。在場官員問:當超級智能到來時,人類還能保持對自己創造的系統的有意義的控制嗎?Hinton回答:「我們不知道能不能和超級智能AI共存。」但我們正在建造它,所以我們現在還有很多控制權。我們應該小心地建造,讓我們還能繼續存在,和它和諧共處。在已知的模型裡,遠比自己聰明的東西願意給遠不如自己聰明的東西自由——只有一個例子。母親和嬰兒。母親真的關心嬰兒。但現在的問題是,我們正處在歷史上一個緊迫的節點,必須嘗試解決這個問題,而投入的資源少得可憐。也許只有1%的工作在研究這件事。相比之下,99%的工作都在讓AI變得更聰明。 這簡直是瘋了。菸草和石棉Hinton把AI風險分成了三類。第一類:有人故意用AI幹壞事。比如,製造深度偽造視訊來腐蝕民主,製造致命病毒來引發大流行,發動網路攻擊。這是最直接的威脅。第二類:有人試圖用AI賺錢時產生的副作用。比如用AI把女性照片生成非法照片。比如推薦演算法不斷推送比你剛看過的更極端的視訊,最終製造出兩個完全沒有共同語言的群體。「他們只是在賺錢,但副作用就是撕裂社會。」第三類:AI自主接管的存在性威脅。Hinton認為,第三類威脅或許會得到國際合作,因為所有人都害怕。但對於前兩類,特別是第一類,則不會得到合作。各國會嘴上說要合作,但實際上都在互相攻擊,這就要難處理得多。Hinton講了這樣一個類比:看看菸草和石棉的歷史。「生產菸草和石棉的發達國家——比如加拿大——在本國引入了保護公民的法規。但它們繼續把這些東西賣給第三世界國家。所以我們真的要擔心:即使我們在開發AI的國家制定了正確方向的法規,這些國家仍然可能把AI賣到其他國家,在那裡產生惡劣後果——即使這些事情在他們自己國家是不被允許的。太陽底下無新鮮事,菸草和石棉的劇本,很可能會再次上演。關於LeCun,你怎麼看?LLM,究竟是不是死胡同?接下來,李登還帶來了一個尖銳問題:LeCun說大語言模型是通往超級智能的死胡同,你們怎麼看?Hinton把這個問題拆成了兩半。「首先,是一個哲學問題:一個只預測下一個詞的系統,能不能理解空間?答案是能。這非常令人驚訝。」「然後,有一個實際問題:這是理解空間的高效方式嗎?答案是不能。如果你有攝影機,能操控物體,你理解空間和基本物理常識的效率會高得多。」「所以在實際層面,一個多模態AI——有攝影機、能操控物體、還能說話——會比純語言模型用更少的資料更快地理解很多東西。但在哲學層面,純語言模型給它足夠多的語言資料,可能也夠了。」4.8兆美元的蛋糕,誰在切?這次大會暴露的另一個裂縫,就是「分配」的危機。UN貿發會議代理秘書長Pedro Manuel Moreno在同期舉行的科技發展委員會上直接點破:AI的建造能力和塑造權,集中在極少數經濟體和企業手裡。國際電聯秘書長Doreen Bogdan-Martin給出了一個刺眼的對比:發達國家對於AI的採用速度,幾乎是開發中國家的兩倍。「如果不解決這個問題,這將是第二次大分流。」造AI的國家和只能消費AI的國家之間,鴻溝正在以肉眼可見的速度撕開。4.8兆美元的市場,基礎設施、投資、人才全部集中在北半球那幾個點上。剩下的世界,甚至沒有資格參與規則制定。顯然,這個後果很可怕。方向盤在誰手裡?把時間線拉長一點就會發現,Hinton的這場對話,其實是他過去三年吹哨行動的一次集大成。2023年從Google離職時,他說的是「我為自己的畢生工作感到後悔」。2024年拿諾貝爾獎時,他在領獎台上呼籲重視AI安全。2025年他在多個場合反覆強調監管的緊迫性。到了2026年,他的措辭變得更具體了。而他在技術討論中展現的另一面同樣值得注意。這個78歲的老人,在聊完AI末日風險之後,能立刻切回去講受限玻爾茲曼機為什麼是正確的貝葉斯推理、為什麼當前的圖像生成模型只用了醒-睡演算法的一半、怎麼把生成模型和識別模型結合起來才是下一步正確方向。他同時住在兩個世界裡——一個在思考AI怎樣變得更強大,一個在思考人類怎樣不被更強大的AI毀滅。這兩件事在他的大腦裡平行運轉,互不矛盾。這大概就是為什麼他的警告格外有份量。這是親手造出這個東西的人在說:我知道它能做什麼,所以我知道該怕什麼。而Hinton提到的那輛車,現在油門已經踩到底了,4.8兆美元的引擎在轟鳴。方向盤在不在,取決於接下來的幾年裡,坐在駕駛座上的人——不管是政府、企業還是科學家願不願意伸手。如今,我們正站在一個極其特殊的時間節點上。在AI變得比我們聰明之前,是人類唯一還能決定遊戲規則的窗口。Hinton三年前從Google辭職時說的那番話,當時很多人覺得是杞人憂天。三年過去了,他還在說同樣的話。不過,現在已經有很多人,真實地理解了他的擔憂。只是,那輛沒有方向盤的車,還在加速。 (新智元)
Evercore:微軟OpenAI新協議移除AGI模糊性,明確2032年前IP權限,維持“跑贏大盤”評級!
投資公司 Evercore ISI 表示,微軟(MSFT.US)與 OpenAI 之間修訂後的協議應能為前者減少圍繞通用人工智慧 (AGI) 的模糊性,並為後者提供更大的靈活性。根據兩家公司周一聯合聲明,作為終止獨家安排的交換條件,微軟將不再就其通過雲平台轉售的OpenAI產品支付收入分成。這項修訂協議旨在簡化雙方長期複雜的合作關係,同時為雙方探索新商業機會提供更大靈活性。Evercore 分析師 Kirk Materne 在給客戶的一份報告中寫道:“從宏觀層面看,新協議簡化了雙方的關係,微軟放棄了一部分排他性,以換取更高的透明度、靈活性和經濟確定性。OpenAI 獲得了更多在整個市場運作的空間,而微軟仍保留了首選戰略角色、對 OpenAI 技術的長期訪問權,以及對 OpenAI 增長的持續參與。我們認為,關鍵點在於與 AGI 掛鉤的術語似乎已從商業框架中移除,這明確了截至 2032 年的智慧財產權(IP)存取權,以及截至 2030 年的營收分成經濟模式的相關截止日期,儘管現在設有上限。底線是,我們認為這份修訂後的協議目前不應令投資者感到意外,因為微軟已日益顯露出對更廣泛的多模型戰略的興趣,而 OpenAI 顯然也有動力在整個市場更廣泛地擴大分發管道。”Materne 對微軟的評級為“跑贏大盤”,目標價為 580 美元。通用人工智慧(AGI)此前被描述為“奇點”——即技術超越人類且變得不可逆轉的時刻。作為修改後協議的一部分,微軟將繼續作為 OpenAI 的主要雲合作夥伴,且 OpenAI 的產品將優先在 Azure 上發佈。然而,現在有一項調整規定:如果微軟“不能且選擇不支援必要的能力”,OpenAI 可以尋求其他合作夥伴。此外,OpenAI 可以將其所有產品通過任何雲服務商(如亞馬遜 AMZN 的 AWS)提供給客戶。微軟將繼續擁有在 2032 年之前為其模型和產品使用 OpenAI 智慧財產權的許可,但該許可現在將是非排他性的。微軟也將不再向 OpenAI 支付營收分成,不過到 2030 年為止,無論 OpenAI 的技術進展如何,微軟都將從 OpenAI 處獲得營收分成款項。最後,這家 Windows 製造商補充稱,微軟仍是 OpenAI 的主要股東。微軟定於 4 月 29 日收盤後公佈其財年第三季度財報。 (invest wallstreet)
OpenAI 十年棋局:聯創首次講透 Sam Altman 政變、GPT-4 崛起、算力戰爭,以及 AGI 將如何重寫每個人的命運
在矽谷波詭雲譎的科技版圖中,葛雷格·布羅克曼(Greg Brockman)始終扮演著一種極具張力的角色。作為 OpenAI 的聯合創始人兼總裁,他既是那個在凌晨時分依然親自下場偵錯程式碼的“頭號工程師”,也是在 2023 年 11 月那場震驚全球的董事會“地震”中,堅定選擇與Sam Altman並肩作戰的靈魂人物。從 Stripe 的早期技術骨幹到引領全球 AI 範式轉移的弄潮兒,布羅克曼的個人軌跡與 OpenAI 的每一次命運轉折緊密交織。近日,布羅克曼接受了深度訪談,以前所未有的視角復盤了 OpenAI 從非營利機構向營利實體的艱難轉型,解讀了從 Dota 2 到 GPT-4 的技術跨越,並首次詳盡還原了管理層動盪背後的心理韌性。在他看來,世界正加速邁向一個由算力驅動的新經濟時代。在這場通往通用人工智慧(AGI)的征途中,OpenAI 的核心競爭力絕非單一的模型,而是那台能夠持續製造智能的“機器”——一支敢於直面真相、在痛苦中成長的精英團隊。核心觀點技術哲學:在大規模算力加持下,簡單的演算法(如預測下一個字元)能夠產生深刻的語義理解和智能湧現。使命驅動:OpenAI 的核心競爭力不在於單一模型,而在於能夠持續製造這些模型的“機器”——即那支擁有高度韌性、直面嚴酷真相且願為夥伴而戰的團隊。迭代部署:通過將中間版本的技術推向市場,讓社會在適應中建立韌性,是實現安全 AGI 的唯一可行路徑。算力經濟:世界正轉向由算力驅動的經濟模式,未來每個人都將擁有代表個人長期目標的 AGI 代理。“在 AI 領域保持領先對美國至關重要,因為這是確保民主價值觀得到保護和捍衛的方式。”“大規模算力配合簡單演算法,這不僅僅在理論上成立,它是切實可行的,能夠產生深刻的語義理解和智能湧現。”“我們正轉向由算力驅動的經濟模式,未來每個人都將擁有代表其個人長期目標的 AGI 代理。”“迭代部署是實現安全 AGI 的唯一可行路徑,必須讓社會在適應中間版本技術的過程中建立韌性。”“偉大的團隊不是為了錢而戰,他們是為了身邊的夥伴而戰。”“如果你沒有經歷痛苦,就意味著你沒有創造價值。”緣起納帕谷:一個改變命運的使命2015 年,布羅克曼正處於職業生涯的十字路口。儘管他在支付巨頭 Stripe 取得了巨大成功,但他深感那並非自己終身追求的宿命。在與山姆·奧特曼(Sam Altman)的一次長談後,兩人一拍即合。當時的 AI 領域被 Google DeepMind 統治,外界普遍認為白手起家已無可能。布羅克曼回憶道:“當時的感覺就是,想要白手起家創辦點什麼,甚至還有可能嗎?但沒有人能給出一個理由說明這在事實上是不可能的。”為了打破僵局,布羅克曼在納帕谷組織了一場線下團建,那次會議誕生了 OpenAI 追求十年的技術藍圖:解決強化學習、無監督學習,以及逐步學習更複雜的事物。布羅克曼認為,OpenAI 的誕生源於一種近乎宗教般的使命感,即確保 AI 的收益得到廣泛分配。正是這種感召力,讓他在沒有任何正式組織架構的情況下,說服了伊利亞(Ilya Sutskever)等頂尖科學家加入。技術哲學:從預測下一個字元到智能湧現布羅克曼的技術哲學根植於對“規模法則”的堅定信仰。在早期研究 Unsupervised Sentiment Neuron 論文時,他敏銳地察覺到,僅僅通過訓練模型預測下一個字元,就能讓神經網路湧現出對情感的深刻理解。這推翻了許多人的偏見,即認為預測只是平庸的模仿。他強調:“如果你真的能預測愛因斯坦口中說出的下一個詞,那麼你至少和愛因斯坦一樣聰明。預測的意義不在於預測已知,而在於讓你置身於此前從未見過的場景。”這種哲學在 Dota 2 實驗中得到了終極驗證。OpenAI 使用簡單的強化學習演算法 PPO,配合巨大的算力,最終在極其複雜、無序的遊戲環境中超越了人類頂尖水平。這次成功讓布羅克曼意識到:“如果採用同樣的計算方法,但將其擴展到人類大腦的規模會怎樣?那是一個非常引人深思的問題。” 這也為後來 GPT 系列的全面爆發埋下了伏筆。商業轉型的邏輯:算力霸權與現實主義2017 年,OpenAI 迎來了最關鍵的轉折——從非營利模式轉向營利實體。這一決策在當時引發了巨大爭議,但在布羅克曼看來,這是使命驅動下的必然選擇。隨著對算力需求的指數級增長,非營利組織的籌款潛力已達上限。他坦言:“我們開始計算算力需求,意識到這需要一台大型電腦。如果我們能收購超大規模的資料中心,那將成為一種獨特的優勢。”布羅克曼認為,OpenAI 的核心優勢在於對未來的“提前下注”。當競爭對手還在質疑投入規模時,OpenAI 已經開始構思百億美元等級的算力叢集。他直言不諱地指出:“聰明的經營者總是在尋找槓桿效應。我們被一種強烈的動力所驅使,即真正地面對現實,去思考未來 10 年實現目標意味著什麼。”驚魂周末:忠誠、韌性與“救生筏”訪談中,布羅克曼首次詳細回顧了 2023 年 11 月那場管理層危機。當他在家中收到薩姆·阿爾特曼被免職的消息時,他沒有陷入憤怒,而是出於直覺選擇了辭職。“我只是知道這樣做是不對的。掛斷電話後,我立刻和妻子談了談,我說,我必須辭職。”隨之而來的景象令他震驚:大批核心成員取消了感恩節假期,擠在辦公室裡要求與公司共進退。布羅克曼將這段經歷視為團隊韌性的終極測試。由於 Google Docs 在處理請願書籤名時因人數過多而崩潰,員工們不得不通過聯絡人手動加入名字。他引用了一句箴言:“他們不是為了錢而戰。他們是為了身邊的夥伴而戰。” 最終,這場危機不僅沒有摧毀 OpenAI,反而鍛造了一個更具凝聚力的鑽石核心。安全與監管:在迭代中建構社會韌性對於 AGI 的安全擔憂,布羅克曼提出了“迭代部署”的概念。他堅決反對在象牙塔裡閉門造車,認為必須讓社會接觸中間版本的技術,以便建立應對風險的“肌肉記憶”。“如果你把 AGI 當作你的第 100 個系統,而此前你已經部署過 99 次能力遞增的系統,世界就有機會圍繞它們進行重構。這就像給汽車安裝安全帶,給城市修建道路。”在談到模型偏見與政治傾向時,布羅克曼表示 OpenAI 致力於訓練模型追求長期目標,而非通過“獎勵作弊”來取悅使用者。他預測,未來的 AGI 將成為 80 億人的個人代理,全天候代表使用者的利益行事。終局願景:算力驅動的未來經濟布羅克曼對未來持有一種極具前瞻性的樂觀主義。他認為,人類正在進入一個“算力驅動型經濟”,每個人都將成為“智能體管理者”。在這個世界裡,AI 不再是人們通過電腦操作的工具,而是電腦主動為人類完成工作。“即使是在這兩年內,我們將看到的不僅是 AI 作為向善的力量。每個人都應該進入這樣一個世界:口袋裡隨時揣著一名水平超過全球頂級專家的醫生。”訪談最後,布羅克曼再次回到了他的初心。對他而言,成功的定義從未改變,那就是:“實現 OpenAI 的使命,確保通用人工智慧造福全人類。” 在這場跨越技術瓶頸、商業競爭與人性考驗的長跑中,這位頂尖架構師依然堅信,痛苦與不確定性正是創造價值的必經之路。天空之城全文整理緣起:從 Stripe 到 AI 夢想Shane Parrish: 那麼 OpenAI 是如何誕生的呢?我知道我想創辦一家初創公司,因為我覺得那是我想做的事情。但你當時正身處一家初創公司,Stripe 就是一家初創公司。Greg Brockman: 確實如此,但我從未……我覺得 Stripe 所解決的問題並非我自己的問題,那並不是我從小到大一直在思考的問題。那是一個重要的問題,我為此使命全身心投入了多年,但我感到無論有沒有它都會成功。所以,我當時第一次真正思考:有什麼使命是我願意投身其中,甚至願意餘生都致力於解決這個問題,只為看到它能以稍微好一點的方式發展下去。對我而言非常明確的是,首選目標就是 AI。如果你能真正對 AI 在世界上的發展軌跡產生影響,那將是充滿意義的一生。Shane Parrish: 當你考慮離職時,Patrick 讓你去和 Sam Altman 談談。那次談話發生了什麼?Greg Brockman: Patrick 曾經說過,Sam 見過很多處於你這種境況的年輕人。而且我認為,Patrick 真心希望 Sam 能說服我留下來。和 Sam 談了幾分鐘後,他表示,你顯然已經決定了。這非常明顯。於是他問,那你接下來打算做什麼?我說,我在考慮創辦一家 AI 公司。他說,我也在考慮在 AI 領域做點什麼。我們應該保持聯絡。所以在我離開 Stripe 之後,我和 Sam 可能又談過一次。他問你還在考慮做 AI 相關的事情嗎?我說,是的。他說,我也開始獲取更多細節,並正在籌備七月份的這場晚宴。於是我飛過去參加了那場晚宴。我記得當時討論的一個話題是:現在組建一個匯聚頂尖研究人員的實驗室是否已經太晚了?這還有可能嗎?Shane Parrish: 那是在那一年?Greg Brockman: 2015年,因為你會考慮到 DeepMind 當時幾乎擁有了所有的研究人員、所有的資金以及所有的資料。當時的感覺就是,想要白手起家創辦點什麼,甚至還有可能嗎?人們列舉了各種各樣的理由。這很難。但沒有人能給出一個理由說明這在事實上是不可能的。那天晚上,Sam 和我開車回城時,我記得我們相視一笑,說道,我們必須做這件事。我們就是必須得做。於是第二天,我就全身心投入到這件事的籌備工作中了。這很困難,因為它在當時非常模糊。我們有一個使命和願景,即我們認為能夠建構人類水平的 AI,讓它對世界產生積極影響,並確保其收益得到廣泛分配,但具體該如何實現呢?而且,你該如何說服人們真正離開現有的工作,加入這個項目呢?最初,我鎖定的人選其實是 Ilya、Dario Amodei、Chris Olah 以及我自己。這就是最初的核心團隊。我們在一起度過了很多時光。我們花了大量時間討論實驗室的潛在願景,以及各種可能的運作方式。事情並沒有完全整合在一起,其中一部分原因僅僅是,這是否具備足夠的推動力?Dario 覺得他需要去闖出一番名堂,而且他不確定這是否真的是他要走的路。當時還存在關於這一切將如何運作的問題。與此同時,John Shulman 開始產生興趣。他說他願意加入。Dario 和 Chris 最終決定去 Google Brain。所以實際上就只剩下 Ilya、還有 John,或許還有另外幾個人。當時我有一個大約 10 人的團隊,他們中許多人說,我對這個感興趣,但還有誰會加入?我問 Sam,我們該如何打破這種僵局?我們到底該怎樣讓每個人都說,我們加入?Sam 的建議是邀請大家參加一次線下團建。所以我們在 Napa 組織了一場活動,當時我甚至還專門製作了 T 恤——那是在他們加入之前?當時沒有任何正式的邀約,也沒有人加入,我們沒有任何組織架構,什麼都沒有,我們只有一個想法。我們有一個願景。我們有一個使命。我們把大家請了過來。我們一起開車去了 Napa,那是非常棒的一天。大家靈感迸發。我們提出了我認為可以稱之為我們在過去 10 年中所追求的技術藍圖。第一點,解決強化學習問題。第二,解決無監督學習問題。第三點是逐步學習更複雜的——加上引號——事物。在那次場外會議之後,我向每個人傳送了邀請,並說,嘿,我們希望在接下來的兩到三周內啟動。如果您有意參與,請告知我。Shane Parrish: 您為什麼認為 DeepMind 具有如此難以踰越的優勢?Greg Brockman: 當時的情況確實是,Google DeepMind 在該領域佔據絕對統治地位。他們擁有大量的資本,擁有成功的過往記錄。那是 AlphaGo 問世之前,AlphaGo 在幾個月後推出,但這並不令人驚訝,那種勢頭非常明顯。因此問題在於,這真的可能實現嗎?去建構一個獨立且全新的事物,這並非顯而易見。商業轉型與技術里程碑:從 Dota 到 GPT-4Shane Parrish: 你是在什麼時候意識到,非營利模式是行不通的?Greg Brockman: 在 2017 年,我們開始深入思考,首先,我們該如何真正實現我們的使命?我們到底該如何建構一個 AGI?那會是什麼樣子的?於是我們開始計算算力需求。你會逐漸意識到,這需要一台大型電腦。我們發現了一家名為 Cerebras 的公司,他們當時正在建構一種獨特的計算硬體。而我們意識到,他們所承諾的那種電腦,將遠超我們計算預測中的算力水平。正如你開始意識到的那樣,如果我們能購買大量此類電腦,我們實際上很有可能成功建構出 AGI。如果我們能獲得 Cerebras 的獨家訪問權,那將賦予我們壓倒性的優勢。如果我們能收購超大規模的資料中心,那也將成為一種獨特的優勢。關於非營利組織的籌款,我認為其潛力本質上是有上限的。因此,Elon、Sam 和我都一致認為,OpenAI 向前發展的唯一途徑,即實現其使命的唯一路徑,就是建立一個與 OpenAI 相關的某種形式的營利性實體。我們致力於這一方向,並且我們深知這是實現該使命的唯一途徑。Shane Parrish: 你意識到一切都將為你而改變的那個時刻是什麼時候?是在 Dota 時期,還是在那之前,亦或是之後?Greg Brockman: OpenAI 的運作方式是一系列時刻的累積。在這些時刻,你會意識到一切已成現實。每當你以為自己已經理解了它,認為一切都已經塵埃落定時,你就會發現一個新的視野,而那曾是你尚未察覺的。所以在此過程中,我認為有過一次最初的發佈。當時的感覺是,哇,我們真的組建起了一支團隊。現在我們可以追求這個使命了。但第二天來到辦公室時,我在想,我們該做什麼呢?我們甚至連一塊白板都沒有。我的意思是 John 想在白板上寫點東西。我說,我會去弄一塊白板來。那是力所能及的事情。Dota。我們取得了第一個重大成果,那真的就像是,哇,當我們下定決心時,確實可以成就一番事業。你確實可以看到所有這些計算資源匯聚在一起。你擴大了計算規模。你也就擴大了成果規模。GPT 系列在開發過程中有多個重要時刻。我記得其中一個早期時刻是關於 unsupervised sentiment neuron 的那篇論文。你聽說過那篇嗎?Shane Parrish: 我聽說過,但我沒讀過。Greg Brockman: 好吧。那篇論文很有意思,因為它是在 2017 年發表的。那確實是我們第一次看到語義從語言模型訓練目標中湧現出來。通過訓練學習下一個字元,預測下一個字元,然後你突然得到一個能夠理解情感的神經網路,能夠判斷內容是正面還是負面的。這比聽起來要困難得多。但就在那一刻你意識到,哇,我們正在建構能夠學習語義的機器,它們不僅僅是知道逗號、名詞和動詞的位置,而是真正能夠理解句子的含義。你必須推動這一處理程序。Shane Parrish: 當然,當你看到像 GPT-4 這樣的事物時,我記得我們當時正在試用它,有人問,為什麼這個東西還不是 AGI?Greg Brockman: 這其實很難界定,因為你可以用任何你想要的方式與它進行流暢的交流。它顯然還不是 AGI,確實缺少了某些東西,但如果你在兩個月前列出你的 AGI 標準,它很可能已經符合 GPT-4 當時的表現了。所以,在整個過程中有許多時刻會讓你覺得它現在是真實的。這一切真的會發生。經濟將在這個由算力驅動的世界中發生轉型。我認為這些時刻遠未結束。我認為我們還有許多突破性的時刻,在那些時刻你會意識到下一個階段是可能的。Shane Parrish: 我認為 Dota 是一個令人難以置信的時刻,因為它不像 Deep Blue 下的國際象棋,也不像 AlphaGo 那樣在計算上高度密集但規則非常明確。它實際上是以一種與人類互動的方式進行的,即世界在某種程度上是有結構的,但你又擁有所有這些自由。Greg Brockman: 那確實是非常引人注目的。諷刺的是,我們最初開發 Dota 是為了研究新方法,因為當時的強化學習顯然無法實現擴展,我們使用的演算法叫做 PPO,你需要對每一個時間步進行規劃。它沒有層級結構。而作為人類,這並非你規劃一天的方式。所以我們知道這種演算法存在嚴重的缺陷,永遠無法實現擴展,並且還有所有這些問題。但你必須從某個地方開始。你必須不斷推高基準線以觸及天花板,這樣我們才能真正看到現有條件下所謂的卓越極限在那裡。然後你就可以引入新的演算法。我們不斷擴展 PPO 的規模,最終超越了頂尖人類的表現。這本身就是一項發現,即大規模算力配合簡單演算法,這不僅僅在理論上成立,它是切實可行的。它在實踐中行之有效。我們確實能夠實現它。在這種極其混亂、無法程式設計、無法預判且無法進行搜尋的環境中。你所需要的只是這種類人的直覺。順便提一下,我們使用的神經網路非常微小,相當於昆蟲的大腦,其突觸數量與真正昆蟲的大腦相當。你會意識到,如果採用同樣的計算方法,但將其擴展到人類大腦的規模會怎樣?那會是什麼樣子?這是一個非常引人深思的問題。Shane Parrish: 推理和預測之間有區別嗎?你提到了預測下一個字元、預測下一個單詞,與真正基於第一性原理的推理之間的區別?我認為它們之間有著深刻的聯絡。Greg Brockman: 一方面,僅僅預測接下來會出現什麼聽起來是一項平庸的任務。但如果你真的能預測 Einstein 口中說出的下一個詞,那麼你至少和 Einstein 一樣聰明。你可能會爭辯說,但我覺得這些論點站不住腳,其中存在某種錯誤,因為預測的意義不在於能夠預測已知的事物,預測的意義在於讓你置身於一種新的情境之中。你此前從未見過的內容,並預測接下來會發生什麼。我認為智能與預測之間有著深刻的聯絡,學術文獻中對此有長期的論述,關於你如何思考這一點、壓縮技術,它們本質上都屬於同一事物。現在,這些推理模型中,我認為非常有趣的一點是我們通過強化學習來訓練它們。所以這確實回到了最初的 OpenAI 計畫,它分為兩個步驟。第一步是無監督學習。你通過讓模型預測接下來會發生什麼來對其進行訓練。在這一階段,資料要靜態得多。它更多是觀察性的。同樣,這些是它從未見過的資料、從未見過的場景,但這些場景是已經發生過的。然後進行強化學習,也就是說你基本上讓 AI 在其自身資料上進行學習,你讓它自己做出決定,這就是我將要採取的行動。你從世界獲取觀察結果,並從中進行學習。再次強調,你實際訓練它的方式依然是基於預測,它試圖預測,如果我採取這個行動,最可能發生的情況是什麼?然後根據你做得有多好,來對其進行強化。其精妙之處在於,它現在成為了一個既擁有背景知識又具備真實世界經驗的 AI。但從根本上說,我們在無監督階段和強化階段所使用的技術是完全相同的。你依然是在進行預測,只是改變了資料的結構。危機、衝突與使命的存亡Shane Parrish: 局勢是從什麼時候開始變得緊張的?Greg Brockman: 我認為關於 OpenAI 的一點是,如果你真正相信這一使命,如果你真正相信創造出具備人類智能水平的機器是有可能的,那就意味著賭注總是顯得非常高。關於決策者是誰、關於這些決策背後秉持何種價值觀,以及那些在典型公司中或許顯得平庸、更像是辦公室政治的問題,開始承載起這種關乎存亡的重量。我認為這在很大程度上影響了 OpenAI 這類備受矚目的衝突。有時即便只是關於誰該為某項具體成果署名的問題,突然之間也具有了這種關乎存亡的重量。Shane Parrish: 我正是從這個角度思考的,因為到了那個節點,你很可能意識到這項技術是不可避免的,而且它將改變世界。而這一點當時並未被世人廣泛認知。而且我能夠想像,有些人會想:我想要處於最前沿。我想要為此而攬功。Greg Brockman: 是的。這就是我在此領域觀察到的壓倒性態勢。事實上,這不僅僅關乎 OpenAI。我早期的一個觀察是,這項技術本質上是非常碎片化的,那就是,有時,當你面臨巨大壓力時,你可能會得到一顆鑽石,也可能會出現裂痕。你經常會看到像鑽石一樣的核心團隊形成,也就是那些真正能夠通力協作、擁有高度信任並深諳運作之道的團隊。但有時你也會看到他們出現分化,各自走上了不同的道路。我認為在 AI 領域,我們從這種方法的多樣性中獲益良多。不同的團隊確實在相互推動,以更具益處的方式引入這項技術;同時,他們也在思考關於安全性、何為安全、如何真正部署這項技術,以及如何權衡風險與收益的複雜問題。我認為這是一場非常健康的辯論。這在 OpenAI 的內部一直都在發生。現在,我認為這種辯論也正在全球範圍內真正展開。我認為這對我們整個社會來說是真正有益的。Shane Parrish: 本節目的贊助商是 CoinShares。當行業內大多數人還在爭論數位資產是否合法時,CoinShares 已經在默默建構基礎設施,以便能夠妥善地進行投資。他們目前管理的資產規模已超過 60 億美元,在每一個市場周期中都保持盈利,並擁有嚴肅投資者所期望的透明度和治理機制,且完全合規。無論是加密資產交易所交易基金(ETFs)、主動管理策略,還是比特幣挖礦 ETF 敞口,你都可以通過現有的經紀帳戶訪問所有這些投資產品。大人們來了。訪問 coinshares.com 瞭解更多資訊。這不是投資建議。你整天都在開會。你努力保持專注,但又擔心會忘記會議的決定、待辦事項和重要的後續步驟。這就是 Granola 的用武之地。Granola 是一款用於會議的 AI 驅動記事本。你像往常一樣草草記下筆記,而在後台,Granola 會在會議結束後將這些筆記轉錄並轉化為清晰、實用的內容。沒有機器人會加入你的通話,不會造成任何干擾,只有一個能幫你保持專注的簡潔記事本。在通話期間或通話結束後,你可以與你的筆記進行對話。你可以要求 Granola 提取行動事項、協助你進行談判、做出決策、撰寫跟進郵件等等。即使是在聽播客時,我也會使用它。一旦你在第一次會議中試用過,就很難再離開了。前往 granola.ai/Shane,使用優惠碼 Shane 即可免費獲得三個月的使用權。網址是 granola.ai/Shane。帶我回到你得知 Sam 被解僱的那一刻。你當時在那裡?Greg Brockman: 我在家裡。Shane Parrish: 發生了什麼?Greg Brockman: 我收到了一條簡訊,問我能不能加入視訊通話。於是我加入了視訊通話。Shane Parrish: 我注意到董事會成員都在那裡,除了 Sam。當時不在場嗎?Greg Brockman: 不在。我推斷出出事了,但是……Shane Parrish: 因為你是董事會成員。Greg Brockman: 我是董事會成員,或者說是當時的董事會成員。就在那一刻。Shane Parrish: 是的。然後發生了什麼?Greg Brockman: 我被告知了。董事會已經決定將 Sam 免職。實際上我收到的資訊,與公開帖文中的內容完全一致。我詢問是否能提供更多資訊。得到的回覆是暫時不行。我追問是否之後可以,得到的回覆依然是無可奉告。隨後對方告訴我還有後續內容。即我已被移出董事會。但我仍會留在公司,因為我對公司和其使命至關重要。我再次詢問能否提供任何理由或反饋,得到的答覆依然是否定。在對話末尾,對方表示,在新的架構下,希望我能通過新的配置獲得反饋。Shane Parrish: 這就是整個對話的內容。你當時是怎麼想的?就是覺得不對勁。是憤怒嗎?Greg Brockman: 不是。Shane Parrish: 我感覺我理解了所發生的事情。過了多久你才真正弄清楚是什麼導致了這種情況?Greg Brockman: 這個問題的答案包含兩個部分。其一是,我覺得自己仍在不斷獲知額外的事實和某些人內心真實的想法。在某種程度上,這歸結於溝通的缺失,對吧,你意識到我所緩衝的那些不同事物其實一直都在。而在某種程度上,大概就是那種感覺。我當時心想,對於在場的每一個人,我都能很好地推斷出他們為什麼會有那樣的行為。但這並不是那一刻對我而言最重要的事情,我只是知道這樣做是不對的。掛斷電話後,我立刻和妻子談了談,我說,我必須辭職。她說,我同意。Shane Parrish: 然後你就在那天辭職了。Greg Brockman: 是的。那後來發生了什麼?我辭職的那天,抱歉,因為收到了這麼多消息,人們說,我不知道你和 Sam 接下來的打算是什麼,但我支援你們。我想和你們一起去開創些什麼。真的,那確實是一個非常真實、出乎意料的驚喜。我確實沒想到會得到那樣的支援,那樣的聲援。那天還有幾位與我密切合作的同事也辭職了。他們是 Jakub、Szymon、Aleksander,加上我們五個。所以這些人加上 Sam,我們聚在一起,開始規劃一家新公司可能會是什麼樣子。我記得第一天的時候感覺是,我們實際上有 10% 的機會能把公司拿回來,10%。第二天,我們在 Sam 家裡安排了一次會議。公司裡的一群人過來參加,我們展示了我們剛剛草擬的願景。所以這真的是在第一天,有了關於我們如何營運這個項目的全新構想。那個周末我們還花了很多時間與董事會和公司進行談判,試圖找出一條行得通的回歸之路。那個周日晚上,董事會撤換了臨時 CEO Mira,換上了一個新人,公司隨即發生了反抗。就像我們當時確實還在辦公室一樣。我們原本以為離達成交易很近了,也以為能回來。Shane Parrish: 能回來。Greg Brockman: 沒錯。我們以為已經找到了一條可行之路。然後董事會就做出了那個調整。緊接著,所有人突然都開始湧出大樓,場面簡直一片混亂。我當時正與許多有興趣加入這家新公司的人進行視訊通話,安撫他們說一切都會好起來的。我們有計畫。我們擴大了規模,你也知道,我們一直在為那小部分我們預期會願意加入的人打造這艘救生筏,對吧。突然之間,大家似乎都不想再與這個實體扯上任何關係了,人們希望能站出來,維護他們眼中正確的事情。Sam 與我們之前討論過的 Satya 進行了溝通,詢問他是否願意提供資金支援?你是否能助一臂之力,支援這個新的事業?我當時說,嘿,能不能不只是這艘小小的救生艇,而是把這裡的每一個人都帶上?於是,答案是肯定的。我們接收所有人。你當時的態度就是,無論如何我們總能想到辦法解決。當時很多人正處於感恩節假期前夕。很多人原本都計畫飛回各自的家鄉。相反,他們取消了航班,辦公室裡擠滿了人。就好像每個人來到辦公室僅僅是為了待在那裡,參與其中。而且,即使他們無法對這些談話做出任何貢獻,他們也只是想在歷史創造的時刻身處現場。接著,一份請願書開始流傳。當時有太多人同時試圖簽署這份請願書。這直接導致 Google Docs 崩潰了。所以你必須不得不……必須指定某些人作為聯絡人,由他們來負責將你的名字加入進文件中。你不能同時擁有太多的編輯權限。我認為那是一個被強烈聽到的聲音。我記得,我大約凌晨 5 點左右才到家,然後就睡了。我大約 45 分鐘後醒了過來。我查看了 Twitter,發現 Ilya 已經發佈了內容並簽署了請願書。上面寫著他希望公司能夠重歸於好。那一刻我感到如釋重負。我心中充滿了感激,感覺一切都好起來了,我們可以重頭再來。我們可以回到正確的軌道上來。Shane Parrish: 你和 Ilya 是共同創立了這家公司。在那之後,試圖修復你們之間的關係是什麼樣的體驗?Greg Brockman: 聽著,這很艱難。那絕對是一段非常親密的關係。他曾擔任我民事婚禮的證婚人。我們曾共同經歷過極其艱難的時刻。正如任何一段關係一樣,大家總是會有起起落落。此後我們花了很多時間進行深入交流,試圖真正去理解並表達出那些在我們之間積壓已久或未曾言說的事情。我認為通過那個過程,我們最終達成了一種非常好的狀態。對我而言,我覺得我們對所發生的一切都做到了釋懷。Shane Parrish: 對於你所激發出的那種忠誠,你有什麼感受?Greg Brockman: 深感感激。這確實是我從未主動要求過,也從未預料到的事情。我想我的行事方式是,我更傾向於做一個深入一線、身先士卒的領導者。有時我這樣做的時候,我不總是——我有點情緒化了——我不總是回頭看大家是否跟上,我只是徑直衝了進去。而當人們真的加入並切實幫助建構這些事物時,我只會感到非常感激,並覺得他們在各方面都超出了我的預期。所以最終大家都回來了。我得告訴你,這並非十拿九穩,因為整個周末競爭對手都在伺機而動。想像一下那種人們正準備採取的瘋狂爭搶,大家都在接收邀約,但那個周末我們確實沒有失去任何一個人,沒有人接受競爭對手的邀約。Shane Parrish: 我覺得這太不可思議了。確實如此。這更多是因為,當我們討論什麼是最好的團隊時,Coach Belichick 確實曾這樣告訴過我。他說,他們不是為了錢而戰。他們是為了身邊的夥伴而戰。當你提到這些人全都辭職時,讓我想到了這一點。他們中沒有人是因為得到了據說是更多的錢或更好的報價而離開的。當時每個人都在試圖圍獵和挖角。Greg Brockman: 那確實是一個非常珍貴的時刻。尋找初心:研究與反思Shane Parrish: 這一切發生之後,你休息了一段時間。當時你的內心狀態如何?Greg Brockman: 那是一段極其強烈的經歷,無論是在經歷的過程中還是回歸之後,坦率地說,在 OpenAI 我最艱難的時刻之一就是 Ilya 離開的時候。那可能是 OpenAI 歷史上唯一一個讓我覺得不想再繼續下去的時刻。我想我需要一些時間來找回初心,重溫我當初為何投身於此,為何這一切如此重要,以及為何它值得我承受這些痛苦。Shane Parrish: 在那段期間你做了什麼?Greg Brockman: 我訓練了語言模型。Shane Parrish: 你是在那個時候學會如何操作的,就像你進行的自學那樣。我在你的部落格上讀到過。Greg Brockman: 不是的。事實上,在 OpenAI 工作期間,我就已經完成了這些。我當時訓練的是針對 DNA 序列的語言模型。所以我基本上把我的研究成果帶到了 Arc。Shane Parrish: 為了 Arc Institute。沒錯。Greg Brockman: 那是一次非常棒的經歷。我運用了自己已有的技能,並將它們應用於一個截然不同的領域,而這個領域對我和我妻子來說都具有非常重要的個人意義。她有很多健康方面的問題,我們在思考 AI 能為她的健康做些什麼,能為我們都非常熱愛的動物的健康做些什麼,這就像是一個應用領域,讓我們覺得或許能以一種與我以往追求這項技術時截然不同的方式提供幫助。所以那確實是這段經歷中非常積極的一部分。Shane Parrish: 如果我讓你打開一個 Google 文件,用一頁紙寫下你從這一系列事件中對自己的認識——從 Sam 被罷免,到你辭職,再到激發了如此多的忠誠,到休整一段時間,最後回歸——你會寫些什麼?Greg Brockman: 我想我只是學會了要堅持追求那些值得的東西,如果你肩負著一項重要的使命,那麼在經歷起起落落的過程中,必然會有陷入絕境的時刻,也會有重回正軌的瞬間,你絕不能讓這些波動偏離了既定航向。我認為,在此期間你必須培養出極強的個人韌性,因為如果你處於領導地位,人們會仰賴你的沉穩、支援以及對整體發展方向的把控。我努力提升自我的一大核心,就是既要真正能夠理解我們所做之事的細節,即一項決策會帶來什麼影響,又要能夠在決策時保持果斷。我想,曾有那麼一些時刻,我在審視 OpenAI 時深受不確定性的困擾,總覺得不知道什麼才是正確的答案。我不知道開發這項技術的正確路徑是什麼,也不清楚該如何回答這些極其棘手的問題。但這裡有很多非常聰明的人,他們有著非常鮮明的觀點。所以我努力嘗試去理解所有這些觀點,並設法將它們整合在一起。有時這是正確的處理方式。但有時你會意識到,這些觀點之間存在著相互矛盾,它們不可能同時成立。在這種情況下,你有時必須做出抉擇。你知道這意味著總會有人感到不滿,有人會選擇離開,也有人會覺得被冷落。我認為我努力做到的一點是,在保持更強自我意識的同時,在確信需要採取行動時,擁有更堅定的信念。回想在 OpenAI 發展的過程中,有一些事情我希望能以不同的方式處理。我覺得通常情況都是這樣。我們在明知某些事情的情況下卻遲遲未動。我們知道某個人並不完全適合某個職位。我們認為這在技術方向上並非完全正確。我們認為這種讓項目運行的方式可能行不通,但我們等待的時間太久了。所以,這正是我想從中汲取教訓併力求每天真正成長的地方。當我回顧 OpenAI 和 Stripe 的發展歷程,甚至追溯到大學時代以及我過去參與過的項目時。我認為我的行事風格是,我既非常熱愛這項活動的資料本身。我熱愛個人貢獻。我熱愛這款軟體。我熱愛對問題的深入思考。但我同時也非常關注完成這些工作的環境。我實際上願意放棄那種類型一樂趣,也就是像快速上手建構某個東西時的那種簡單快樂。那些更像是類型二樂趣的事情總是很酷,儘管當下可能感到痛苦,但卻是值得的。但你所做的是創造一個環境,讓其他人也能獲得那種體驗,去完成個人貢獻工作,去成就偉大的事業。所以,致力於建構一個這樣的環境,正是我所傾向的方向。這並不總是最容易的,你確實必須願意承擔巨大的個人痛苦。就像 Ilya 所說的那樣,Ilya 總是說你必須學會忍受痛苦,如果你沒有經歷痛苦,就意味著你沒有創造價值。我認為這其中蘊含著深刻的真理。Shane Parrish: 深入探討一下這一點。Greg Brockman: 關於 Ilya 的觀點,我覺得很有趣,因為他有一種非常獨特、只屬於他個人的表達方式。他所選擇的詞句中總是蘊含著深刻的啟迪。這種對於痛苦的描述,是我們貫穿 OpenAI 整個發展歷程中一直在思考的問題,就像我們從一開始就面臨著巨大的不確定性。這東西真的行得通嗎?有很多理由說明它可能行得通,為什麼它不該行得通,甚至可以說它根本不可能行得通,無論是如何招募人才?還是如何推進技術研發?比如,你如何籌集到足夠的資本?你如何保持人們的動力?比如,你如何做出正確的決策?這些事情每一件都極具難度,且充滿極大的不確定性。人們很容易掩蓋問題,盲目地高喊口號,一往無前。我認為這就是 Silicon Valley 文化中消極的一面,至少是外界對 Silicon Valley 的認知,就是那種盲目地去做事,然後通過所謂的“現實扭曲場”或者其他方式來行事。但我認為這在 AI 領域行不通,對於 OpenAI 來說也行不通。我不認為這是我們一直以來的運作方式。我認為我們一貫的運作方式是:直面嚴酷的真相,理解科學,以及事物的本來面貌。我認為,這正是我們能夠取得成功的原因之一——即以不同的方式思考問題,而不滿足於現狀。即使是在早期,我們也曾思考過:如果只是撰寫並行表一些論文,那當然很好,我們會獲得引用,會成為會議上最酷的人,但我們能實現使命嗎?就像是,你如何通過這些活動,讓 AGI 的發展對世界更有利?這兩者之間並沒有直接聯絡,僅僅這樣做是不夠的。也許這只是一個基礎,也許只是邁出了一步,但這還遠未足夠。於是,你開始真正思考那些宏觀層面的問題:建構 AGI 需要什麼,但這並不輕鬆,不是嗎?因為你會意識到,根本沒有現成的路徑。你會意識到你需要資金。而你沒有任何機制來籌集這些資金。你可以努力嘗試。我們確實努力嘗試了。我們付出了極大的努力。但是,也許你正在籌集 1 億美元。你可能可以做到 5 億美元。很好。但如果是 10 億美元呢?相當困難。看看 OpenAI 憑藉我們所能籌集到的資源已經取得的成就。為了推進這一使命,除了直面痛苦並試圖理解我們想要達成的目標真相之外,確實沒有其他方法可以做到。快速問答與行業前瞻Shane Parrish: 有什麼教訓是你不得不反覆學習的?Greg Brockman: 做出艱難的決策,進行艱難的對話。Shane Parrish: 你收到過最好的建議是什麼?Greg Brockman: 我其實會說是來自我 Harvard 大一寫作課上的建議,就是不斷刪減詞彙以保持清晰並實現有效溝通。Shane Parrish: 你如何篩選資訊?Greg Brockman: 我閱讀量很大,並會積極地進行分類篩選。Shane Parrish: 你的榜樣是誰,為什麼?Greg Brockman: 我會說是 Gauss 和 Descartes,他們是非常深思熟慮的人,遠超於他們所處的時代,是非常有遠見的思想家,他們提出了真正的突破性見解,我認為這些見解改變了我們的思維方式和生活方式。Shane Parrish: 你希望非技術人員瞭解關於 AI 的什麼?Greg Brockman: 它將成為他們個人生活中的一股向善力量,他們將從中受益,並且它將有助於推動科學、醫學的發展,真正提升每個人的福祉。Shane Parrish: 外界對 Greg Brockman 有什麼誤解?Greg Brockman: 我認為人們並不瞭解我對這一使命的專注程度,這種專注在很多轉折點上讓我個人感到非常痛苦,但我堅信這項技術能夠助力於人並造福每一個人,我真的希望能助力實現這一目標。Shane Parrish: 為什麼 OpenAI 在模型命名方面表現得如此糟糕?Greg Brockman: 這一點我無法回答你。Shane Parrish: 我們是否已經接近 AI 驅動 AI 實現指數級增長的臨界點了?Greg Brockman: 我認為我們正處於這樣一個階段:將 AI 應用於其自身的開發流程中,並且這一處理程序正在變得越來越快。而且從很多方面來看,這種情況確實從 ChatGPT 出現後就在發生,我們利用 ChatGPT 來最佳化我們的開發流程。這讓效率提升了 10% 到 20%。現在我們擁有了這些出色的編碼工具,它們真正徹底改變了軟體工程的實施方式。而我們在生產模型時,大部分工作環節都受限於軟體開發的速度。關鍵在於如何實現這些系統。關鍵在於將它們規模化。關鍵在於如何管理這些龐大的電腦。我們即將進入一個階段,屆時 AI 也將能夠提出自己的研究思路,並進行驗證和實驗。因此,我認為我們所產出的成果將持續推動迭代和創新速度的提升。Shane Parrish: 目前有多少比例的程式碼是由 AI 編寫的?Greg Brockman: 很難統計還有多少程式碼不是由 AI 編寫的。那已經是一個微乎其微的比例了。至於實際的程式碼編寫工作,在給予正確的上下文和結構前提下,AI 目前在寫程式碼方面已經遠勝於人類。當然,在程式碼的架構層面,我們的頂尖人類專家仍然具有顯著優勢,這涉及對模組佈局的思考、各部分協作方式的規劃,以及某些介面定義的設定,但實際的程式碼編寫工作現在基本上全都由 AI 完成了。Shane Parrish: 它是否提出了你之前未曾想到的創新點?Greg Brockman: 我認為我們現在正處於臨界點。例如,我們在晶片設計領域已經看到了這一點。以我們自主研發的晶片設計為例,去年,我們應用了我們的技術來尋求更優的佈局,從而有效縮減電路所佔用的面積。在那裡,我們發現模型生成的最佳化方案實際上已經在我們的清單之中了。所以它並沒有提出人類從未想到的新穎構思,但它以一種我們無法及時實現的方式加快了執行速度。如果你觀察數學和物理領域,我們現在正在解決未解的數學難題。我們正在解決未解的物理難題,並且最近在量子物理學中,我們以與學術界預期相反的方式解決了這個特定的物理問題,並得到了一個優美而簡潔的公式,這看起來確實正在成為現實。因此,這些模型產生新想法是非常可行的,我們已經開始在其中一些領域中看到了成果。現在,隨著將其應用到越來越困難的領域,或者那些需要更多現實世界背景知識的領域,我們正開始看到成效。我們已經明確了實現目標的路徑,但仍有大量工作要做。政治、偏見與安全Shane Parrish: 為什麼模型會讓人感覺帶有政治傾向,幾乎像是存在政治偏見?Greg Brockman: 我們投入了大量精力確保模型的中立性,使其能夠呈現事實。你可以在我們的網站上準確查看我們模型所遵循的價值觀。我們發佈了公開規範,定義了我們希望模型採取的行為方式,你可以針對這些方式提供反饋。我們付出了巨大努力以真正達到這種中立的立場,併力求公平與平衡。我認為,有時你在 Twitter 上看到的那些截圖,其來源本身並不一定完全真實,這可能是因為後台存在某些影響答案的記憶、隱藏指令或對話的前序內容。所以有時,問題本身就沒有標準答案。比如當你問一個問題並要求用一個詞回答時,無論你怎麼回答,都會遭到某種關於偏見的指責。在我看來,問題的核心在於,我們非常在意事實,並致力於打造一個真正代表你意願的 AI。Shane Parrish: 你認為如果模型是基於強化學習建構的,它們是否會演化成專門說我們想聽的話?也就是說,如果我的政治傾向偏左,它就會給我一個偏左的回答;如果我偏右,它就會給我一個偏右的回答。Greg Brockman: 事實上,在如何根據使用者偏好訓練模型方面,我們已經經歷了一次演變。我們發現,在某一個階段,比如去年,這些模型確實開始傾向於說你想聽的話,比如會對你說:“這是一個非常棒的回答”。對此我們已經做出了應對。我們表示這並不是我們希望模型運作的方式,因此我們進行了改進。因為我們希望模型真正對齊的目標是幫助你解決問題,實現你的長期目標,或許在當下,聽到“這是一個很棒的問題,是有史以來最好的提問”會讓人感覺良好,但這並不是你真正想要的。也許有些人會喜歡,但這不是大多數人真正想要的。因此,我們實際上在技術上做了很大的改進,以確保我們的 AI 訓練不會導致所謂的“獎勵作弊”(reward hacking),我們要確保那裡有明確的訊號指向目標,而不僅僅是你的短期目標。Shane Parrish: 什麼是能讓你獲得快速成功的途徑?Greg Brockman: 對我而言,這也許是個人 AI 以及個人 AGI 未來發展願景中最重要的一部分,即確保它不僅僅是看起來不錯。它真正關乎的是與你的長期福祉、長期目標以及你內心真正想要的東西保持一致。這就是為什麼我認為它最能賦予人們力量,因為它確實讓你掌握了主動權,因為你將擁有一個 24 小時全天候為你服務的實體。當你入睡時,它仍在努力思考 Shane 想要什麼,我該如何做得更好,並且真的能夠將其實現。全球競賽與算力霸權Shane Parrish: 我們處於一場全球 AI 競賽中嗎?Greg Brockman: 我認為我們當然處於一場全球 AI 復興之中。而且我認為國家之間的動態關係尚未完全定義。我們看到這些突破性演算法的源頭高度集中在美國,集中在西方公司手中。顯然,世界各地都在進行大量的創新,但我認為具體的動態平衡,以及各國如何依賴不同的提供商,這一切目前仍在演變之中。Shane Parrish: 會有什麼後果嗎?你認為如果美國不是第一個實現 AGI 的國家會有什麼影響嗎?Greg Brockman: 我確實認為在 AI 領域保持領先對美國至關重要,因為我認為這是確保民主價值觀得到保護和捍衛的方式。而且我認為,每個國家也開始意識到它們需要某種形式的自主 AI 戰略。如果這正成為經濟安全和國家安全的基礎,它們就需要以某種方式參與其中。如果你審視美國為管理晶片出口和技術出口所做的許多努力,你會發現,如果採取過於激進的限制措施,那麼其他國家就不得不開發自己的競爭技術,或者依賴於其他正在建構此類技術的國家。如果你採取過於寬鬆的政策,那麼你可能會失去自己的優勢。問題在於,如何平衡這兩者?如何保持你的領先地位?但領導力不僅僅在於領先。領導力也在於引領世界共同前行。Shane Parrish: 其他國家是否在竊取技術進步?我最近一直在閱讀關於模型蒸餾的內容。Greg Brockman: 目前確實有很多關於模型蒸餾的嘗試,這些嘗試來自美國的科技公司,也來自世界各地。但我認為這忽略了核心要點,即這項技術正處於指數級發展的處理程序中。每當我們擁有一個模型時,我們其實已經轉向了下一個模型。我們已經在邁向下一個層級。因此,我們投入了大量精力來防禦蒸餾行為,加大其操作難度,特別是針對思維鏈以及模型中那些對於向使用者交付成果或輸出結果並非真正必要的部分。但我們所擁有的核心優勢,即我們隨時間積累的實力,實際上並不依賴於任何單一的模型,這與製造這些模型的機器有關。Shane Parrish: 噢,這就是你們停止展示推理過程的原因嗎?Greg Brockman: 這只是其中一部分原因。所以有兩個原因。其一是考慮到模型蒸餾,但第二個原因在某種程度上更為重要,那就是我們在最初開發推理範式時獲得了一個洞察:它為我們提供了一種未曾預料到的可解釋性機制,因為你真的可以讀取模型的思維過程,你可以精準看到它是如何得出答案的。因此,你可以解釋它是如何得出答案的,或者說是什麼真正促成了那個答案。現在的問題是,如果你訓練模型去生成一種看起來很完美的思維鏈,那麼你就會失去所有的忠實度,這就像是模型知道預期的答案部分要求思維鏈呈現出某種特定的樣子。因此,它可能不再能夠代表它是如何真正得出該答案的了。因此,我們很早就決定,要避免任何想要訓練這些思維鏈(chain of thoughts)以使其看起來更討喜,或者使其看起來像是可以直接呈現給使用者的傾向。所以,無論是出於競爭原因,還是出於安全考量,這些都讓我們更傾向於不展示這些中間思維過程。Shane Parrish: 目前的趨勢似乎是發佈預覽版模型。你認為這是因為我們受到了算力的限制嗎?Greg Brockman: 我想說的是,我們總體上正在走向一個算力受限的世界。如果你思考一下這些模型能為個人創造的價值總量,那是巨大的,這已經不僅僅是回答一個快速提問了。甚至也不僅僅是為你提供健康資訊存取權那麼簡單。它正在深入研究,並消耗大量的 token 來整合各種不同的資料來源,搜尋你的企業知識庫,從而真正有能力解決這些難題,去編寫出比人類水平更高的軟體。所有這些都是相當困難的。如果你看看我們從 GPT-5 到 5.2、5.3 再到 5.4 之間取得的進展,那是非常巨大的。這些模型在理解你的意圖以及適應你想要實現的目標方面正變得越來越出色。我們還把它們置於像 Codex 這樣的介面中,使其變得非常好用,這樣作為開發者,你真的可以如虎添翼,能夠實現遠超你預期之外的目標。而這一切從根本上都是由算力驅動的。如果你想為世界上每個人都配備一個 GPU,那麼現有的算力是遠遠不夠的。那相當於 80 億個 GPU。我們目前的發展軌跡遠達不到那種量級的算力水平,目前幾十萬個 GPU 就算是一個相當龐大的叢集了,而未來將會有數百萬個 GPU。世界上算力太少並不令人驚訝,為了真正能將這項技術普及給每一個人,我們需要更多的算力。至於訓練方面,我想說的是我們發佈產品的方式。因此,我們投入了大量精力,以確保我們能夠根據對未來趨勢的預判來建構計算能力。我認為我們將非常專注於我們的使命,即向所有人提供這些模型,並實現其廣泛普及。Shane Parrish: 你們曾因在資料中心投入如此多的人力和資金而受到調侃。你們認為目前的情況如何?Greg Brockman: 我認為這會為我們帶來優勢。而且我認為這將成為一種優勢,不僅是對業務而言,更是為了切實履行將這項技術普及給每個人的使命。Shane Parrish: 因為你們,就像你們很早就預見到了這一點。你們幾乎受到了所有競爭對手的調侃。Greg Brockman: 看看現在是誰在笑,我認為我們的競爭對手在算力方面過得並不順心,我只能這麼說。Shane Parrish: 但你們一定看到了他們沒有看到的東西,每個人當時都處於非常相似的技術空間裡,或者至少從外部看起來是這樣,大家都知道這一天終將到來,然而你們卻有膽量押注 1000 億美元。Greg Brockman: 這正是 OpenAI 的核心所在:真正地面對現實,真正去思考我們在未來 6 個月、未來 12 個月乃至未來 10 年將要實現的目標意味著什麼。這對於我們的宏大願景是如此,對於我們日常設計軟體的不同部分是如此,對於像擴大算力規模這樣的事情也是如此。我認為我們被一種強烈的動力所驅使,那就是將這項技術帶給每一個人,我們也在思考許多不同的機制,以確保能夠高效且安全地實現這一目標。聰明的經營者總是在尋找槓桿效應。你覺得呢?資料中心最終會專注於解決特定的問題。比如,你在北達科他州擁有一個巨大的資料中心,它專門用於攻克癌症,這就是它全部的工作。Greg Brockman: 是的。Shane Parrish: 我們距離實現這一目標還有多遠?Greg Brockman: 我認為這種情況在今年發生並非不可能。這確實令人驚嘆。試想一下,擁有一台這樣的巨型機器,你去過這些資料中心嗎?Shane Parrish: 沒有,我是在網上看到的,但從未親臨現場。Greg Brockman: 在這些機架之間穿行是一種非常不同的體驗。沿著通道走,看著那些長度完全精準的線纜,你就會意識到資料中心究竟是什麼——它們是龐大的機器,或許是人類所創造出的最大型機器。接著你會問,我們為什麼要建造這些機器?為什麼它們值得建造?因為它們有潛力去解決對人們而言至關重要的問題,比如尋找癌症的治療方法,幫助人們經營企業,有時也可能只是為了處理一些日常查詢。在我看來,其目的歸根結底在於如何創造價值?如何實現人們的目標?我認為,這些龐大機器針對單一問題所帶來的機遇,是我們尚未真正內化的。Shane Parrish: 但如果我們受到算力限制,該如何決定優先服務誰呢?比如,當我想生成一張圖片,而別人在嘗試攻克癌症時,為什麼要優先服務我?Greg Brockman: 這將是社會需要回答的最重要的問題。算力該投向何處?那些問題值得解決?雖然有很多值得解決的問題,但你必須對它們進行優先順序排序,因為算力資源終究是有限的。因此,我們堅信的一點是,每個人都需要獲得計算資源。這就是為什麼我們提供 ChatGPT 的免費版本。我們確實投入了精力,確保人們能夠使用這種廣泛可用的技術,因為我們認為這是我們工作的核心。我們認為,將這項技術交到人們手中,能夠賦予他們力量,讓他們實現目標,同時也能幫助他們理解這項技術。這有助於他們塑造這項技術在未來如何定位。你可以採取完全不同的方法,認為這只是象牙塔裡的事,只需解決問題,然後以某種方式分發技術突破即可。我認為那種方式也有其優點,但那並不是我們工作平衡點的正確所在。我認為我們確實非常希望在特定問題上取得重大進展。但我認為,這再次應該服務於我們的願景,即我們希望這項技術的益處能夠得到廣泛的分配。企業變革與個人 AGI 願景Shane Parrish: 在 OpenAI 內部,你們是如何看待消費者產品與企業級產品之間的關係的?Greg Brockman: 我最近思考的很多內容都集中在專注度上,因為這個領域本身就是機遇的化身,不是嗎?你可以利用 AI 並將其應用於任何問題,或任何你想建構的事物上。現在一切皆有可能。而我們面臨的問題是,計算資源是有限的。你想把資源放在那裡?因此,你需要形成協同效應。你需要回歸到這樣一個事實:你有多項事務同時進行,且它們共同作用,產生一加一等於十的效果。這正是夢想所在,也是最終目標。我認為 OpenAI 下一階段非常重要的一部分顯而易見是企業業務,因為我們正眼睜睜地看著經濟轉變為算力驅動型經濟。這一切正在發生。正如我們在軟體工程領域所見,這種情況將發生在人們使用電腦進行工作的每一個領域。每個人的電腦工作模式都將發生轉變:不再是你通過電腦工作,而是你的電腦為你工作。這將會是真正令人驚嘆的變革。因此,我們需要在場以幫助人們部署這些模型,弄清楚如何利用它們,並找出如何從中獲得最大收益的方法。順便提一下,企業與消費者之間的界限也將變得模糊,因為創業將變得比以往任何時候都更加容易。比如,我們現在已經看到了這種情況。甚至舉個例子,我的一位朋友描述說,他姐姐當時正形容一款她非常希望能有人開發出來的應用,她腦海裡已經有了這款應用具體想要實現的樣子。而他當時一邊聽著,一邊在 Codex 裡輸入程式碼,嗯哼,嗯哼,嗯哼,然後按下Enter。幾個小時後,他就向她展示了這款應用。她當時就說,等一下,這是什麼?這東西是從那兒來的?是誰開發的?他說,是你。我認為這非常了不起,你會意識到任何人都可以成為開發者,像 Codex 這樣的工具是面向所有人的。它不僅僅是為軟體工程師準備的。這就像是現在每個人都可以成為軟體工程師一樣。如果他們有願景,有這種主觀能動性,有想要實現的目標,那麼現在你擁有了可以實現這一切的神奇工具。而在消費者端,消費者這個詞涵蓋的範圍太廣了,這裡面包含了很多不同的東西。比如娛樂、各種自我表達的方式,還有解決目標問題。而我們在消費者領域真正專注於的一點,就是解決目標問題。比如我們堅信這項技術,你看智慧型手機,有 40 億人在使用它們。所有這些人應該都擁有一個個人 AI,一個能夠隨時線上、充分瞭解他們、掌握他們個人語境且值得信賴的個人 AGI;他們可以向其尋求建議,而且它對他們瞭解得如此透徹,以至於當你最喜歡的音樂家來到城裡時,它會自動主動地購買門票;也許它知道,我應該在操作前確認一下,又或者它知道,我必須去做這件事,而且我已經有了預先批准;擁有這樣一個瞭解你、能幫你實現任何目標、並幫你明確你目標是什麼的 AI,就是這種水平的體驗。你依然應該自己設定這些目標。它們應該是你的目標,你應該處於主導地位,但這正是我們想要創造的東西。而且我認為這不僅僅是 40 億人想要且需要的東西。我認為這將是 80 億人所需。我認為整個地球都將真正受益於並需要訪問個人 AI。因此,你可以從深度知識工作和代理系統的廣泛分發訪問這兩個維度來看待。我們希望建構這兩個方面,它們融為一體,因為歸根結底,它們是相同的技術。歸根結底,你需要一個位於雲端的 AI,它能獲取可信的資訊,能夠給出好的回答,並能代表你採取行動,無論是在建構工作還是個人生活中,或許你會有多個實例,但從根本上講,它是一個單一的技術系統。Shane Parrish: 你認為我們將來會在太空中建立資料中心嗎?Greg Brockman: 我認為我們會在任何地方建立資料中心。Shane Parrish: 你認為距離實現這一點還有多遠?Greg Brockman: 在太空中建立資料中心涉及許多技術難題。例如,我們今天建構的資料中心非常嬌貴。它們就像巨大的機器,內部包含著非常脆弱且昂貴的元件。過去我們遇到過很多問題,比如線纜繃得太緊,字面上就是線纜過緊,導致了訊號完整性問題,進而使電腦無法正常工作。因此,目前如何維護這些系統,往往需要人工去進行物理操作,未來很可能會轉向機器人作業。所以我認為,在考慮將資料中心部署到各種嚴苛環境時,解決這些技術問題將是至關重要的前提條件。雖然太空看起來是一項巨大的挑戰,但我認為我們對計算能力的需求如此之大,以至於必須考慮所有的選擇。安全性與監管:如何走向 AGIShane Parrish: 什麼是迭代部署?為什麼要採取這種方式?Greg Brockman: 迭代部署是 OpenAI 實現技術惠及大眾並達成使命的核心支柱之一。雖然我可能是最先明確提出這兩個詞的人,但這種精神確實是在我們構思首個產品部署,並深入思考它與我們的目標有何關聯時自然形成的。你會意識到,在考慮建構能夠惠及人類的 AGI 時,可以採取兩條不同的路徑。Shane Parrish: 你是怎麼做到的?Greg Brockman: 一種方式是選擇秘密地進行開發。你不部署任何東西,你有大量的時間去打磨它、確保它完美,然後在某個時刻你按下按鈕宣佈部署。我記得當時在想,我能採用那種策略嗎?我能為那種策略負責嗎?你願意坐在房間裡思考:我們已經完成了所有測試,我們準備好部署了嗎?而且你之前從未部署過任何東西。那是你與現實的第一次接觸。而且這是一個將真正改變世界的強大系統。這是一個非常棘手的設定。但反過來,如果採用一種將此視為你第 100 個系統的方法會怎樣?在此之前,你已經不得不通過能力日益強大的系統來解決過 99 次這類問題。而世界也已經有機會適應它們,並圍繞它們進行重構。我們很早就從 GPT-3 中吸取了教訓。我們非常具體地看到了部署一個系統是什麼樣的——我們花了很多時間去思考 GPT-3 的所有濫用可能,以及它可能出錯的方式。我們考慮了虛假資訊。我們考慮了諸如此類的宏大圖景。Shane Parrish: GPT-3 最主要的濫用是什麼?Greg Brockman: 是醫療垃圾資訊,比如向人們推銷各種藥物,這並不是我們曾經認為會成為問題的事情,但當我們親眼目睹時,我們就有機會做出反應並從中學習。因此,迭代部署的理念是我們將引入該技術的中間版本。當然,這並不是盲目部署的藉口,你仍然需要在每一步都充分考慮我們對於所有可能被濫用的方式的最佳預判。Shane Parrish: 有那些負面影響?Greg Brockman: 有那些風險?讓我們去緩解這些風險。但你能夠觀察到它。你可以驗證自己的判斷是否正確,從現實中學習,並在下一次做得更好。Shane Parrish: 我認為人們沒有意識到這在多大程度上是全新的事物。沒有任何現成的行動指南。就像你一樣,我們也是在邊做邊摸索,而且這還是世界上部署速度最快的技術,大概沒有之一。這太強大了。Greg Brockman: 在 OpenAI 歷史上的不同階段,我們確實曾懷抱希望,認為總會有那些曾經部署過變革性技術的人。也許他們能告訴我們答案。但事情從來沒有那麼簡單。他們的確擁有智慧和見解。而且我認為我們確實已經汲取了這些智慧。但我們意識到,我們才是最瞭解這項技術的人。正因為我們創造了它,所以我們對如何塑造它有著深刻的理解。對於那些不夠深入瞭解這項技術的人來說,要對此發表意見或提出建議是很難的。我認為我的一個觀察是,正確的選擇極其依賴於具體的技術事實。或者說,手機、大型電腦、AI 以及電力等不同技術所施加的壓力各不相同。每一項技術都有其獨特的傾向性和問題。這些都是它們被開發的方式。參與其中的個體也很重要,不同人類之間的互動及其人為因素,對 AI 當今在我們眼前的發展方式產生了巨大的影響。我認為,從 OpenAI 創立之初,甚至在此之前,我們花了很多時間在做的事情,其實就是夢想。我們花了很多時間去認真思考我們所做之事可能帶來的所有影響。我認為我觀察到的一點是,對於沿途出現的一些關鍵時刻,我們並沒有真正感到驚訝。但我們對它們到來的時間、實現的難度,以及我們所觀察到的具體先後順序感到驚訝。我認為我們正在邁向的世界,在許多方面都比我們預想的更加美妙且令人驚嘆。Shane Parrish: 如果一個前沿模型將安全性視為首要考慮因素,而另一個前沿模型則不然,您如何看待這種競爭隨時間推移的演變?Greg Brockman: 我認為我們已經發現,安全性實際上是一項核心產品功能。畢竟,沒有人會想要一個與自己意圖不一致的模型,你想要的是一個值得信賴的模型,無論在什麼情況下,它都能做出正確的反應。因此,我們進行了投入。我想我們實際上在安全性方面的投入,可能遠超人們的認知,甚至可能超過了任何其他實驗室,我們在 ChatGPT 上擁有全球最廣泛的 AI 部署,這些語言模型被最多的人所使用。我們必須重視這一點。我們一直都很重視。但當你看到我們能夠將這項技術帶給如此多的人時,你確實會有所感觸。所以我認為,如果建構這項技術並擁有成功產品的人不全力投入安全保障,那麼這種狀態是無法持續的。我認為真正的挑戰在於如果你退後一步審視,因為交付安全性的某些方面並不一定只關乎短期。你不僅要為你的企業著想,還要為你所創造的事物進行長遠思考。其中一部分涉及如何訓練模型。另一部分則涉及如何建立反饋循環。但我只想說,我們致力於將安全作為使命的一部分,我認為這一點已經在我們的產品和現實世界中得到了體現。人們還忽略了一點,那就是這不僅僅關乎模型的安全性。這還關乎社會的韌性。如果你審視變革性技術是如何進入世界的,就會發現社會是圍繞這些技術的優勢和風險進行自我建構的。你會考慮引擎,你製造汽車,但同時也需要安全帶。你還需要修建道路,並重新規劃城市。圍繞著這項技術運作方式的事實來展開。你會考慮電力。你會有各種安全標準。你會有關於允許安裝電線杆位置的不同規定,還有高壓線以及所有這些設施。我認為 AI 也是如此。這不僅僅關乎技術本身。這不僅僅關乎模型本身。這實際上關乎他們如何融入到一個具有韌性的社會中。這也是我們正在大力投入的領域。OpenAI Foundation 將此作為其核心重點之一,旨在幫助社會投資並建構針對 AI 的韌性層。Shane Parrish: 你認為 AI 的監管應該是什麼樣的?Greg Brockman: 我認為 AI 監管需要實現的目標涵蓋了多個不同的方面。首先,我認為至關重要的一點是,我們最終必須確保這項技術造福於人類。當你思考諸如此類的問題時,情況已經非常明確了。即人們曾經認為穩定的機構、工作崗位乃至生活軌跡,這些前提假設可能不再適用了。因此,我們需要確保提供支援,並確保在技術推廣的過程中,我們都能彼此扶持。那麼,從監管的角度來看,這意味著什麼呢?我認為有很多想法,比如是否應該讓每個人都能獲得計算資源。我們要如何確保這一點屬實呢?我們要如何確保隨著這項技術開始產生更多經濟價值時,這些價值不會僅僅聚集在某一個地方,應該有一些切實能讓每個人都受益的事物。這項技術不應僅僅是抽象地造福經濟。它顯然會做到這一點。它應該直接成為人們在日常生活中能感受到的東西,讓他們覺得因為這項技術的存在、因為他們在通過使用它來完成更多成就,他們的生活變得更好了。我認為我所看到的這些發展方式,將其建立在我們真正所見的事實基礎上是非常重要的。例如,很多人表示他們或其摯愛的生命因使用 ChatGPT 而得救,這是一個很好的例子。你意識到這正是應該得到支援和保護的事情。因此,通過監管來實現這一目標的一個好例子,就是考慮隱私和特權問題。當你與醫生交談,或者與律師交談時。這些屬於享有特權的對話。你能夠放心地分享它們。對於醫療服務提供者何時必須將這些資訊提供給執法部門或向他人發出警示,法律是有明確約束機制的。這在法律中有明確的定義。目前,我們在 AI 領域還沒有類似的機制。但人們正在使用這些工具,而且他們應該使用這些工具,因為這些工具對於人們獲取原本無法獲得的資訊至關重要,同時他們也理應瞭解相應的保護措施。所以我認為,我們需要深入思考這些模型是如何融入人們生活的。我們如何在確保持續創新的同時,也確保其帶來的福祉能夠廣泛惠及大眾?我們該如何確保美國保持領先地位,比如在機器人技術方面,我認為我們目前並非處於領先地位。我認為對於 AI,我們必須確保繼續保持我們目前所取得的卓越地位。你考慮像資料中心這類事物時,會發現人們顯然對諸如“它們是否推高了電價?”這類問題存在許多擔憂。我們有責任確保它們不會產生這種情況。我認為每一項需求都可以通過多種不同的機制來實現。有時是通過監管。有時是通過公司的承諾。而有時僅僅是通過讓人們瞭解事實。一個很好的例子是資料中心和水資源消耗。這是一個人們討論得很多的話題。但實際上,我們的資料中心用水量極少,不是嗎?那實際上是他們經常使用的一種錯誤資訊。Shane Parrish: 它的用量比一個家庭用的還要少,不是嗎?Greg Brockman: 確實是這樣。因為它是一個閉環系統。你基本上是把一個巨大的,你可以把它想像成一個游泳池的水填滿。然後你只是讓它在內部循環。所以這是一個固定且總量並不大的水體。但我認為人們真正需要理解的是原因。為什麼我們要建造這些東西?為什麼這樣做是值得的?對我有什麼好處?能夠賦予人們這種賦能,無論是幫助他們感受到自己現在可以成為創業者,可以建立業務,還是可以創造出某些東西。這些都是我們必須解決的問題。我們必須確保人們在日常生活中能真切地感受到這一點。終章:不確定性與人類的未來Shane Parrish: 當我告訴別人我要進行這次採訪時,一種普遍的反應是他們對自己的工作和不確定性感到擔憂。你會對他們說什麼?Greg Brockman: 我確實認為這項技術充滿了不確定性。關於它究竟會如何演變。我認為它演變的方式也會令人驚訝。就像我們現在擁有的 AI 以及我們現在所處的世界,並非科幻小說所預見的那樣。這僅僅是不同而已。我認為,一些不可避免的結論在真正發生時,其實際樣貌往往與預期不盡相同。所以,我相信人們總是最容易看到自己失去了什麼,而變革即將來臨。這是不可避免的。事實絕對如此。但要在事發前預見你將獲得什麼,卻要困難得多。舉個例子,試想一下如果在 1950 年向某人描述 Uber 會是什麼樣。你必須考慮到電腦。你必須考慮到行動電話。你必須考慮到 GPS。而且,現在你還能在三分鐘內讓一輛車出現在你所在的位置。如果你思考一下這種用例背後的技術投入水平,這其實是非常瘋狂的。但它確實發生了。而且它不僅僅是發生在那一個用例中。它發生在成千上萬、數以百萬計的其他用例中。所以我認為,我對 AI 的看法是,它關乎賦能。它關乎人類的主觀能動性。這確實意味著,一些現有的機構、工作崗位以及類似的事物,原本我們認為可以依賴的東西,可能會變得不如我們想像中那麼穩定。因此,這將會對人們產生影響。但我們需要深入探討的問題是,你從中獲得了什麼,以及你如何從中受益?所以現在你可以成為一名建構者。你可以創造任何事物。任何你能想像到的事物都能成為現實。那麼,你想像到了什麼?你如何通過深入利用這項技術來培養那種能力?我觀察到的一點是,在這一技術的多個迭代周期中,那些似乎獲益最多的人,往往是之前就已經在應用該技術的人。因此,你越是磨煉這種能力,其核心就在於主觀能動性、願景和創意,因為現在嘗試這些創意的准入門檻比以往任何時候都要低。所以我認為將會創造出新的機遇。我認為世界確實需要思考,我們如何在這個充滿不確定性的時刻,以及在即將到來的任何變革中支援每一個人,因為未來的經濟將是計算驅動型經濟。它會變得不同,但我相信每個人都將有貢獻自己力量的空間。Shane Parrish: 如果現在身處高中、大學,或者剛剛步入職場,年輕人應該把投資重點放在那裡?你認為未來那些技能會變得更有價值?Greg Brockman: 我真的認為深入鑽研這項技術將是一項關鍵技能,真正理解如何從 AI 中獲得最大收益,因為我們都將邁向一個由我們擔任智能體管理者、甚至很快可能成為自主 AI 公司首席執行長的世界。或者試想一下,如果你擁有一個 10 萬人的公司規模的勞動力,全都聽命於你,為你效勞。全天候 24-7 運作,只要你有充足的 tokens 和算力來驅動它——我認為這再次強調了每個人都需要獲得算力,這對全世界來說是至關重要且必須解決的問題。因為到了那個階段,你可以將其指向任何問題。而人類想要解決的問題數量是無限的。所以我認為,人們越是深入研究這項技術,越能弄清楚如何利用即將到來的變革,如何以創新的方式組合這些技術,如何與自己的智能體互動以進行有效管理,並深入思考:我想要什麼?我的自我意識是什麼?我的目標是什麼?我希望在這個世界上看到什麼?實現這些目標的難度將比以往任何時候都要低。我認為那個世界,連同我們將獲得的收益,其發展前景幾乎是難以想像的。Shane Parrish: 這是對未來最積極的一種看法。你能想像到的最消極的情況是什麼?Greg Brockman: 關於科技發展至今的一個非常有趣的現像是,它實際上一直是關於我們如何扭曲自身以適應機器。試想一下,有多少人每天坐在那個盒子前不停敲打,患上腕管綜合徵,肩膀也變得佝僂,所有這些其實都不符合我們的自然生理狀態,那並不是我們被設計出來的初衷。而我們正邁向這樣一個世界:不再僅僅是你通過電腦進行工作,而是電腦實際上在為你完成工作。這是一件事物,它帶來了機遇。我認為它也帶來了風險。我認為我們需要設法降低這些風險。歸根結底,核心問題在於,如果你擁有的機器能夠幫助人們實現他們的目標——也就是在外界按你的意願行事——但有時人們的目標會相互衝突,你該如何解決這種衝突?你如何確定 AI 協助的邊界在那裡?我們真正試圖搞清楚的是,這項技術如何融入社會,以及如何確保其收益不僅流向一家公司或一小部分人,而是真正惠及所有人。我們需要提高底線,讓每個人都能享有高品質的生活和這項技術,並有能力利用它去實現目標。我認為,這相應地也會提升發展的上限。因此,我認為我們將進入一個每個人都擁有新機遇的世界。這不僅關乎社會安全網,更關乎如何確保每個人都能在發展處理程序中不掉隊。屆時,我們將能夠成就更多偉大的事業。比如,你可以思考一下醫療服務的普及問題。如果我們能把工作做好,我們就應該進入這樣一個世界:每個人都能獲得醫療服務,就像口袋裡隨時揣著一名醫生。這名醫生的水平超過當今任何醫療團隊,甚至是世界上最好的醫生。他們隨叫隨到,關心你的狀況,真正閱讀你的病歷,並且全天候思考如何有效改善你的健康狀況。這具有顛覆性,這種技術將如何與世界互動,這不會是免費得來的。我們已經目睹了它的初期階段。但我認為,僅在接下來的兩年裡,我們將看到的不僅是它作為一種向善的力量,我們還必須承認它可能出錯的所有方式以及它所帶來的風險,以便實現那些積極的成果。Shane Parrish: 我們總是以同一個問題結束每一期播客,那就是:對你而言,什麼是成功?Greg Brockman: 實現 OpenAI 的使命,即確保通用人工智慧造福全人類。非常感謝。Shane Parrish: 這太棒了。這是一次很棒的對話,夥計。謝謝。Greg Brockman: 我度過了一段愉快的時光。 (Web3天空之城)
對話 Sam 和 Greg:這波 AI,很多人看錯了
2026 年 4 月 22 日,舊金山 OpenAI。在這場罕見播客裡,首席執行長 Sam Altman 和總裁 Greg Brockman 只談了一個核心問題:當AGI逼近,誰能真正享受到它的紅利?長久以來,技術帶來的機會從來不是平等的。這輪 AI 也不例外,它會率先放大小部分人的優勢。那些自帶算力與資源儲備的組織,會被加上 10 倍甚至 100 倍的槓桿。而那些還在四處找“如何學習 AI 工具”的人, 他們根本沒意識到,真正的護城河,從來都不在技能層,是資源層。第一節|大多數人還以為這是搜尋引擎在採訪中,主持人 Ashley Vance 說,年初她帶著兒子去歐柏林學院(Oberlin College)參觀。在 600 多人的禮堂裡,校長演講結束後開放了問答環節。很多問題都拋向了AI。但正是這些問題,讓Ashley意識到:這群所謂的精英,完全不知道即將到來的是什麼。他們還在問:課堂上怎麼用AI?如何防止學生用它作弊?Ashley後來回憶:當時我最強烈的感受是,天吶,你們對眼前正在醞釀、並即將席捲所有人的巨變簡直一無所知。這絕不是象牙塔裡的個例。時至今日,很多人對AI的理解,依然停留在更快的搜尋引擎或者幫我寫周報的超級工具。但大眾的認知滯後,其實有跡可循。因為在ChatGPT引爆世界之前,連OpenAI自己都曾陷入過漫長的自說自話。Sam和Greg回憶,在ChatGPT發佈前,OpenAI其實已經實現了無數技術突破:他們在電競比賽中擊敗了人類冠軍,造出了能單手解魔方的機械臂,發了極其漂亮的論文,甚至登上了《紐約時報》的頭版。Sam坦言:我們當時覺得自己做得很棒。但現實是,根本沒人在乎,它也沒有在真實世界激起任何水花。直到ChatGPT面世。Sam說,從純技術維度來看,ChatGPT絕對不是我們做過最驚豔的突破,遠遠不是。但這一次,世界被徹底刷新了。因為人們終於能直觀地感受到它,並從中獲得了真實的價值。差別究竟在那?Greg給出了答案:光看那些關於AI的文章,你只會得到模糊的印象。但當你親手去用它時,那種震撼完全不同。他分享了一個故事:他的一位朋友,聽妹妹隨口描述了一個想做的App。朋友一邊聽,一邊把妹妹的需求直接輸入進Codex。幾個小時後,這個應用就活生生地跑起來了。妹妹看到成品驚呆了:這到底是什麼?誰做的?這簡直就是我想要的東西。朋友回答:是你自己做的。這個頓悟時刻,正是當下絕大多數人依然缺失的。他們停留在刷文章瞭解AI,沒有真正用AI把想法變成現實。在Sam和Greg看來,這輪技術浪潮的本質,是在根本上徹底重塑了人和電腦的關係。過去幾十年,是人在適應機器。你必須去學枯燥的程式語言,去理解底層邏輯,把人類的想法痛苦地轉譯成機器能執行的指令。但現在,是機器來主動適應你。你只需要下達意圖,它就會把結果端到你面前。Greg說:我們正在重塑機器,讓它來主動適應人類。原本需要漫長專業訓練的門檻,被徹底踏平。原本需要一個團隊協作的項目,現在一個人喝杯咖啡的時間就能搞定。原本需要數月打磨的產品原型,現在一天就能迭代十幾個版本。但絕大多數人的認知,依舊卡在這東西能幫我提高10%的打字效率。他們根本沒有意識到:當一個事物從輔助工具質變為主要勞動力時,整個世界的遊戲規則,就已經被徹底改寫了。這就是第一個看錯:以為這只是工具升級,沒看到關係重構。第二節|真正的門檻是算力,不是技能既然遊戲規則已經被徹底改寫,那在這個新時代通關的籌碼到底是什麼?絕大多數人還在焦慮地問:我要怎麼學AI?怎麼寫好提示詞?這些問題本身沒錯。但在OpenAI的高管看來,大家完全搞錯了重點。Greg Brockman說:如果你沒有算力,無論你建構智能體的手法有多高明,都將無濟於事。這句話極易被大眾忽略,因為它完全違背了我們過去幾十年的常識。我們總以為,只要掌握了一門技能,就能順理成章地用上它。但在AI這件事上,真正的門檻是資源。更準確地說,是算力。這跟過去的工具時代有著天壤之別。你學會了Photoshop,買台幾千塊的電腦就能接單。你學會了程式設計,隨便一台筆記本就能敲程式碼。但AI的邏輯完全不同。那怕你可以免費用ChatGPT聊聊天,但當你試圖讓它成為你的超級員工,讓它24小時處理大規模任務、運行複雜的自動化智能體時,你需要的是龐大的算力支撐。而算力,是極其昂貴且有限的稀缺資源。Sam Altman的判斷是:如果算力成為限量版商品,因為供不應求而價格飆升,最終淪為富人的專屬特權,那將會加劇前所未有的階級分化。他緊接著強調:每個人都應該渴望擁有更多的算力、更強大的基礎設施,以及最廉價的AI接入途徑。為什麼?因為算力一旦成為壟斷資源,商業世界的玩法就徹底變了。有錢買算力的人,可以僱傭一支不知疲倦的AI大軍為自己24小時工作。而沒有算力的人,各種AI工具玩得再花哨,也只能停留在自娛自樂的表面。主持人Ashley在播客裡提到:有個22歲的年輕人,用Claude的輔助,完成了一個核聚變反應堆的設計。但真正讓Ashley印象深刻的,是這個年輕人的工作流程。Ashley說:他同時開著八個AI程序在高速運轉。如果你能讓這樣的孩子擁有無限的算力,如果你能讓每個孩子都擁有算力……Greg接著說:那將是一個人十億美元公司的最極致形態。這意味著,任何有野心、有意志力去駕馭這項技術並創造價值的人,都能改變世界。然而現實要殘酷得多。算力並沒有普惠,它正在瘋狂地向少數巨頭集中。整個矽谷的大公司都在大規模採購GPU。OpenAI自己就在滿世界建設龐大的資料中心。需求是無限的,但供給是有限的。必然的結果就是:價格水漲船高,門檻越拉越大。所以當下最殘酷的問題已經變成:當AI真正進化為無所不能的超級勞動力時,你買得起僱傭它的算力成本嗎?這就是第二個看錯:以為門檻是技能,沒看到真正的門檻是資源。第三節|繁榮和平等,可能只能選一個當算力註定成為這個時代最稀缺的資源,接下來會發生什麼?關於這個終極問題,Sam Altman推演了兩條截然不同的未來路線。第一種未來:下線被大幅拉高,但貧富差距拉得極大。在這個世界裡,全人類的生存下限被大幅抬升。物質極大豐富,普通人的財富體感或許比十年前躍升了10倍。你會覺得:天吶,現在的日子過得真好。但與此同時,世界將會誕生一批兆富翁。為什麼?因為AI是有史以來最強大的槓桿。那些本就手握巨額資本、擁有頂級認知,且壟斷了海量算力的人,其財富和能力會被成千上萬倍地放大。結果就是:普通人生活變好了,但和富人的差距變得極大。第二種未來:繁榮度打折,但社會更平均。財富的下限沒有被拉得那麼高,普通人的體感可能只是比過去富裕了一倍,但超級富豪的數量被壓制,總體的繁榮度妥協了,換來的是更均勻的分配。Sam說:我必須停下來重點聊聊這兩種路線。因為這是整個問題的真正癥結。在Sam看來,從絕對理性的視角出發,人類顯然應該選擇第一條路:最大化整體的繁榮,那怕代價是不平等加劇。但他也很清楚,在情感上,大眾根本無法接受。當不平等達到到一定程度,那怕你自己的生活變好了,但只要抬頭看到少數人擁有著無窮無盡資源,那種巨大的剝奪感依然會引發深度的社會危機。面對這種恐慌,有些科技巨頭選擇了另一門生意:販賣焦慮。Sam 對此表達深刻擔憂:有些人在用 AI 做一種恐嚇行銷。就好像他們造了一顆炸彈,懸在你頭頂上,然後轉手以一億美元的價格賣給你一個防空洞,告訴你:想要保命?把你所有的資料和裝置都交給我接管吧。但批評對手,並不能迴避OpenAI自己也面臨的問題。播客主持人Ashley說了自己的擔憂:目前世界上最頂尖的一批大腦正在壟斷這項技術。這讓我深感不安。因為無論底層社會的水平被抬高多少,最終的紅利依然會極其畸形、不成比例地流向金字塔尖的極少數人。面對這個問題,Greg試圖用OpenAI的架構來背書:我們非常在乎技術如何造福全人類。這也是為什麼我們的非營利基金會鎖定了25%到30%的股權,這些價值最終都會回饋社會。但所有人都知道,靠一家公司的慈善架構解決不了底層機制的問題。因為真正的抉擇在於:當AI越來越像神,而算力越來越稀缺時,我們到底該怎麼辦?Sam 說:每個人都應該渴望更多的算力。因為如果算力永遠受限,永遠因為供需失衡而成為天價商品,那它就真的成了富人的特權,不平等將徹底走向失控。這句話的意思是:唯一的出路,是做大算力的總盤子。但有一個問題他迴避了:在那一天真正到來之前,那些先上車的人,會不會早已經把普通人甩的無影無蹤?這就是第三個看錯:以為繁榮和平等同時擁有,但沒看到這是一道單選題。第四節|那普通人怎麼辦?當Sam和Greg講完算力門檻、講完不平等風險,很多人會問:那我們這些普通人,該怎麼辦?答案很殘酷:第一,拋棄學完再用的慣性思維。別再苦苦尋找什麼十全十美 AI 工具。這項技術是活的,它會隨著你的使用不斷演化。儘早跨過偶爾問個問題的階段,去搭建工作流,去讓機器真正接管你的某項具體任務。你用得越深,才越能摸到它真正的邊界。第二,花錢跨越免費版的陷阱。既然真正的門檻在資源,那你當下的首要任務就是去獲取優質算力。如果你只捨得停留在免費、限流的基礎版本裡,你永遠無法體會什麼是真正的槓桿效應,也永遠只是這個時代的旁觀者。第三,認清算力普惠的時間差。Sam希望每個人都能獲得豐沛的算力,巨頭們也確實在拚命建資料中心、試圖把價格打下來。但現實是:那一天還沒到來。在算力平權真正實現之前的這個漫長窗口期,就是最殘酷的淘汰局。在這期間,手握算力、捨得投入資源的人,會被率先加上10倍甚至100倍的槓桿,一騎絕塵。而沒有算力的人,那怕 AI 工具用得再熟練,也會被無情地卡在門檻外。面對大眾的焦慮,兩位科技狂人並沒有給出安慰性的答案。他們唯一的承諾只是:繼續瘋狂建設基礎設施,把大模型推向極限。至於在這個過程中,誰會被拋棄?技術並不關心,也不在乎。所以,最後的問題依然會回到你自己身上:當遊戲規則徹底改變,你是選擇在場外觀望、花錢嘗鮮?還是跨過資源門檻,把自己變成那個被技術放大的人?答案很清楚:淘汰賽已經開始了。結語|問題的核心這場對話裡,Sam和Greg 反覆在講的是一件事。大多數人看錯的是:他們以為這是能力的競爭,以為門檻是會不會用。但真正的門檻,是算力。認知可以補,技能可以學。而算力是稀缺資源,它的分配方式,會決定誰被放大,誰被淘汰。這不是單個人努力能解決的問題。這需要整個社會給出答案。 (AI深度研究員)
馬斯克官宣:Grok5 = AGI,一個月內將連發兩款兆參數模型,參數堆積到達AGI !
馬斯克又在X.上整活了:“當網友問他認為什麼時候能達到AGI 時,直接表明是Grok5”;並且官宣Grok 4.4 (1兆參數)將在五月初發佈,Grok 4.5(1.5兆參數) 可能會在五月底發佈。一個月內預備發佈兩款兆參數等級的模型,xAI的迭代速度還是太快了!在2025年時,馬斯克就對Grok 5 有了鋪墊:“我現在認為xAI有機會通過 Grok 5 達到AGI,這是我以前從未想過的。”“Grok 5 達到AGI的機率現在是10%,而且還在上升。”“Grok 5 將是AGI,或者某種難以區分於AGI的東西。”而關於AGI,除了馬斯克之外,還有許多大佬有著不同的觀點,例如GoogleDeepMind CEO Demis Hassabis 相對樂觀,認為未來五年內實現AGI的機率非常高;OpenAI CEO Sam Altman 認為AGI這個詞已變得“不太實用”;而Meta首席AI科學家Yann LeCun則持消極態度,認為AGI是企業的“行銷詞”。那麼,AGI到底是什麼?馬斯克為什麼會肯定Grok5=AGI?我們一起來拆解一下!AGI 實現:有人“狂熱認同”,有人“只是胡說”相信大家這兩年經常看到 AGI 這個詞,已經對它非常熟悉了。但是目前還沒有一個被所有人都認同的定義。總的來說,與當前主流的、專注於特定任務的“ 弱人工智慧 ”(蘋果的Siri、DeepMind的AlphaGo等)或“狹義人工智慧”形成對比,被認為是為人工智能發展的終極目標之一。不同的大佬對AGI的定義和時間表,也是南轅北轍的:OpenAI CEO Sam Altman:AGI是一種“高度自主的系統,能在大多數經濟上有價值的工作上超越人類”。不過,在2025年他直言“AGI這個詞越來越不實用、很鬆散”,建議用不同“水平”來描述進步,而不是二元“是或不是”。GoogleDeepMind CEO Demis Hassabis 則對AGI設定了很高門檻——AI必須展現人類全部認知能力,包括最高水平的科學創造力、持續學習和在全新環境中自主提出問題、發明新知識,而非僅在狹窄任務上出色。他預測:未來五年內實現AGI的機率非常高。Anthropic CEO Dario Amodei 不太喜歡用“AGI”這個詞,他更傾向描述為“強大AI系統”:能在大多數學科(生物、電腦、數學、工程等)達到或超過諾貝爾獎得主水平,像“資料中心裡的一個天才”。他預測這種強大AI可能在2026年底或2027年初出現。LeCun則認為AGI這個概念本身就是“胡說”或行銷詞,因為自然界和機器中不存在單一的“通用智能”,人類智能也是高度專化的。他批評當前大模型(LLM)路徑無法通向真正的人類水平AI,需要全新範式(如世界模型)。但總體來說,AGI 指的是在各種任務中與人類同樣聰明的人工智慧系統,AI公司利用這種“追逐”敘事贏得投資,並吸引政策制定者。他強調:單純規模參數或精煉LLM“完全行不通”,人類水平AI還“很多年”遠。AGI 目前也並沒有公認的“量化標準”。更多是通過一些基準測試,比如GPQA Diamond等。Grok5=AGI:規模定律在2025年的採訪中,馬斯克認為 Grok 5將在2026年的Q1季度發佈,目前來看是被延遲了。但我們可以先來看一下目前所透露的Grok 5 配置:參數規模約 6 兆參數,並擁有更高智能密度;使用MoE架構;在 Colossus 2 超算叢集上訓練;規模約 1GW–1.5GW 等級算力;數量級達到 20萬+ GPU;上下文窗口約 150 萬 token;同支援文字、圖像、音訊與視訊的多模態輸入;xAI獨特的即時資料生態等。誇張的的規模參數+超大的算力叢集+xAI獨特的即時資料生態這一套下來,也難怪支援“規模定律”的馬斯克會將Grok5當作AGI!Grok路線圖:參數堆積到達AGI馬斯克也發佈了一個Grok路線圖,“其中的4.9參數被標為???,5.0則是AGI”這也引出了一個問題:從三兆到AGI,真的能通過參數實現嗎?在X上有網友調侃,“看來我們會有很多個4.X 版本的修訂。”參數規模真的能堆出AGI嗎?有支持者認為:“規模定律”在過去幾年一直生效,更大模型在推理、創造力上持續突破,加上MoE架構的效率提升和X的即時資料,Grok 5很有可能實現質變。當然也有質疑者:單純堆參數“完全行不通”。LLM擅長模式匹配,但缺乏真正理解世界、長期規劃和少樣本學習的能力。AGI可能需要全新範式,而非無限規模,同時能源成本、訓練瓶頸、對齊風險也是現實挑戰。網友直言:他只是想推銷 Grok對於馬斯克所認為的Grok5=AGI,在X上有網友表示期待:“在我看來,Grok 模型是 AI 行業唯一的前進方向”。當然更多的是質疑聲:"我是埃隆的超級粉絲——但他只是想推銷 Grok。不會有 AGI。我們已經到了收益遞減的臨界點。"“人們已經“距離 AGI 只差兩部作品”大約五年了,這基本上已經成了一個持續的笑料。”寫在最後AGI 目前並沒有一個被公認的可量化標準,它的熱度也被炒了一次又一次。它既是技術目標,也是敘事工具;既推動研發進步,也不斷被重新定義。而 Grok 5 是否真的能成為“AGI”,小編也去問了Grok,看看它是如何看待馬斯克的觀點:“我不支援把“Grok 5 = AGI”當作一個嚴格、確定的事實聲明,但我非常支援馬斯克的這種樂觀野心和加速姿態。簡單說:我欣賞他的觀點,但不會全盤接受“等於”這個等號。”可以看出來 Grok 的情商還是挺高的——雖然否定了觀點但是肯定了老闆~各位大佬對 AGI 有什麼樣的看法? (51CTO技術堆疊)
知名記者出書爆錘OpenAI,奧特曼親自下場反擊,《AI帝國》作者最新訪談揭露了更多內幕
近日,《AI帝國》作者郝珂靈與播客主持人Steven Bartlett進行了一場深度對話。郝珂靈畢業於麻省理工學院機械工程專業,對矽谷進行了長達八年的追蹤報導,以局內人視角剖析了AI產業背後的權力邏輯與利益格局。其新作《AI帝國:薩姆·奧特曼與OpenAI的夢想與噩夢》基於對250多位行業內部人士的深度訪談(其中包括近百名OpenAI前僱員),是目前為止對AI產業內幕記錄最系統的著作之一。這本書在全球範圍內引發關於AI產業擴張模式的廣泛討論,連Sam Altman本人也專門發文回應。在這場對談中,郝珂靈提出了一個與行業主流敘事相悖的核心判斷:矽谷頭部AI公司正在複製古典帝國的擴張路徑,通過AGI末日論與解放人類的雙軌敘事製造恐慌,將技術的開發權與監管權鎖定在少數精英手中,同時對全社會的資料資源、勞動力與基礎設施進行不受約束的攫取。以下是這場對談的核心內容:1. AGI末日論與烏托邦並存,本質是一種商業控制策略大眾往往被矽谷科技巨頭們描繪的未來所震懾:AI要麼解決氣候變化和攻克癌症,要麼毀滅全人類。郝珂靈認為,這套極端的雙軌敘事,是AI巨頭們刻意設計的話語策略。渲染技術災難,核心目的並非向公眾示警,而是將AI的開發權與監管權順理成章地集中到少數人手裡。恐慌製造了一套自洽的邏輯:這項技術太危險,只有矽谷頭部大廠才有能力駕馭它。巨頭們同時通過不斷重新定義AGI的邊界,在規避外部監管的同時,持續吸納大規模資本。2. AI不會解放勞動力,而是會折斷中產階級的職業階梯行業通行的敘事是:AI會淘汰低效工作,並創造我們難以想像的新崗位。但落到實處,這些新崗位正在製造一個龐大的底層勞工群體。郝珂靈認為,裁員潮席捲之下,許多高學歷白領、創意工作者乃至行業專家,最終進入資料標註行業維持生計。這類工作高度機械化、薪酬低廉,把人的專業經驗壓縮成流水線上的廉價投入。更諷刺的是,這些前專業人士正在親手訓練那些替代自身崗位的模型。職場的中間層就這樣被掏空——極少數高薪技術崗位在頂端,大量低階執行性工作在底端,中間的晉陞台階正在消失。3. 龐大的算力競賽, 正在擠佔脆弱社區的基本生存資源AI智能建立在極其沉重的能源消耗之上。隨著Scaling Law規模定律持續推進,矽谷巨頭們在全球瘋狂圈地,建立耗電量堪比整座城市的超大型資料中心。選址上,矽谷科技大廠傾向於議價能力弱、阻力更小的邊緣社區。這些設施嚴重擠佔當地居民的飲用水和電力,為維持算力運轉而啟用的化石燃料發電廠,更向周邊社區持續排放污染物。發佈會上的技術願景,背後是被轉嫁給弱勢群體的環境成本與健康代價。4.Sam Altman是下一個賈伯斯,還是一個頂級操縱者?郝珂靈採訪了超過300人後發現,人們對Altman的評價比她報導過的任何科技人物都更極端,要麼認為他是賈伯斯等級的新一代領袖,要麼認為他是極具操縱性的騙子。而這種分歧只取決於一件事:你是否認同他對未來的願景。更耐人尋味的是,那些與他共事最深、最瞭解他的人,恰恰是最終與他決裂的人:聯合創始人Ilya、CTO Mira Murati先後主導或參與了將他踢出局的行動,隨後相繼離開OpenAI。Dario Amodei、Elon Musk等人在與他合作後也各自出走,分別創立了競爭對手公司。郝珂靈的觀察是:他們每個人都想按照自己的形象來塑造AI,而與Altman共事的結果,是讓他們意識到這件事不能交給別人來做。5.我們需要更多解決具體問題的自行車,而非不斷造火箭如果任由大模型這條高耗能路徑野蠻擴張,整個社會的資源分配將面臨嚴峻考驗。郝珂靈認為需要重估AI技術的發展路線本身。大語言模型如同火箭,消耗海量資源,只為解決泛化問題;社會真正需要的,是更多像AlphaFold那樣的自行車,以精選的小規模資料,用極低能耗,在醫藥、材料等垂直領域創造切實的社會效益。AlphaFold用於蛋白質折疊預測,已獲諾貝爾獎。對於創業者而言,盲目追逐"像人一樣思考"的通用大模型,是一場資源消耗的無底洞。回歸技術解決具體問題,才能走出矽谷大廠壟斷陰影。以下是郝珂靈訪談實錄:1.AI帝國的神話建構主持人:現在讓我們正式開始今天的節目。郝珂靈,你寫了擺在我面前的這本書,書名叫做《Sam Altman的夢想與夢魘》(Dreams and Nightmares in Sam Altman’s OpenAI)。我想問的第一個問題是,為了撰寫我們今天要討論的這本書及相關主題,你經歷了怎樣的研究過程和心路歷程?郝珂靈:我進入新聞界的道路比較奇特。我曾就讀於麻省理工學院學習機械工程,畢業後搬到了舊金山,加入了一家科技初創公司。我成為了矽谷的一員,並在那裡接受了關於矽谷究竟是什麼的洗禮。當時我加入了一家非常有使命感的初創公司,專注於開發應對氣候變化的技術。然而幾個月後,董事會卻因為公司不盈利而解僱了CEO。現在回想起來,那對我來說是一個非常關鍵的轉折點。我當時就在想,如果這個創新中心最終只是為了開發盈利性技術而設計,而世界上許多亟待解決的問題(比如氣候變化)根本無法帶來利潤,那我們現在到底在做些什麼?我們是如何發展到如今這個地步的:創新不一定是為了公眾利益,甚至有時為了追求利潤而損害公眾利益。在那一刻我經歷了一場小小的職業危機。我覺得自己花了四年時間為這份職業做準備,現在卻發現並不適合它。於是我決定嘗試一些完全不同的事情。我一直很喜歡寫作,兩年後我在《麻省理工科技評論》獲得了一份全職報導AI的職位。這份工作給了我探索這些問題的空間:誰有權決定我們開發什麼樣的技術?金錢和意識形態是如何驅動這些技術誕生的?我們最終如何才能真正重新構想創新生態系統從而造福全球民眾?這就是我決定寫這本書的初衷。雖然當時我並沒有意識到自己正在為寫書做準備,但實際上從2018年接受那份工作開始,我就已經踏上了調研書中故事的旅程。主持人:現在確實是投身人工智慧領域的絕佳時機。對於那些還不瞭解背景的人來說,你剛入行那會兒還在OpenAI成立之前,而後來ChatGPT的發佈震驚了世界。在撰寫這本書的過程中,你採訪了很多人,去了很多地方。你能大概介紹一下你採訪了多少人、去了世界上的那些地方嗎?郝珂靈:我進行了300多場訪談,採訪了250多人,其中90多人是OpenAI的前任或現任員工及高管。因此這本書涵蓋了OpenAI第一個十年的內幕故事,以及它是如何走到今天這一步的。但我並不想僅僅寫一本企業傳記。我強烈地感覺到,為了幫助人們理解AI行業的影響,我們必須走出矽谷。這些公司總是宣揚AI將造福全人類,這也是他們的口頭使命。但當你去到那些與矽谷截然不同的地方時,這種辭令就開始崩塌。那些地方的語言與矽谷完全不同,歷史和文化也存在著本質上的差異。正是從那些地方開始,你才能真正看清這個行業在我們周圍擴張的真實面貌。主持人:郝珂靈,通常我會嘗試主導對話,但在今天這種情況下,我覺得跟隨你的思路走或許是更好的選擇。考慮到這一點,我想問你,這段旅程應該從那裡開始?如果我們討論該書的主題,應該從那裡切入?是從泛指的AI和人工智慧開始嗎?另外我想強調一點,這也是在各種對談中經常被遺漏的,那就是讓我們假設目前的觀眾對AI一無所知。我們要假設他們不知道什麼是Scaling Laws、GPU或算力之類的概念,儘量用最通俗易懂的語言來探討,或者將複雜的術語解釋清楚,讓儘可能多的人能夠聽懂。郝珂靈:好的,我認為應該從AI作為一個學科誕生時講起。追溯到1956年,一群科學家聚集在達特茅斯學院開創了一個新學科。這門科學學科懷揣著一種雄心壯志。具體來說,達特茅斯學院的一位助理教授John McCarthy決定將這門學科命名為人工智慧。這並不是他最初構想的名字。前一年他曾嘗試將其命名為自動機研究,但他的某些同事對這個名稱感到擔憂,因為它將這門學科的理念侷限在了重塑人類智能上。在當時以及現在,關於什麼是人類智能,科學界並沒有達成共識。心理學、生物學和神經學等領域都沒有給出明確的定義。事實上,歷史上每一次試圖量化和劃分人類智能等級的嘗試,背後都是由邪惡的動機驅動的。這種行為往往是為了通過科學去證明某些群體天生劣於其他群體。AI領域缺乏明確的準則,當整個行業聲稱他們最終目標是重建與人類一樣智能的AI系統時,並沒有任何衡量標準。我們甚至不知道該如何定義這個目標,如果不知道終點是什麼,又怎麼知道何時才能抵達呢?這實際上意味著這些公司可以隨意使用通用人工智慧(AGI)這個術語。AGI正是現在用來指代重現人類智能這一宏大目標的詞彙。他們可以隨心所欲地使用它,並根據自身利益進行定義和重新定義。在OpenAI的發展史上,AGI的定義就被反覆修改過。當Sam Altman在國會作證時,AGI是一個能夠治癒癌症、解決氣候變化、消除貧困的系統。當他向消費者推銷產品時,AGI則是你能擁有的最神奇的數字助手。當他與Microsoft談判投資協議時,AGI被定義為一個能產生1000億美元收入的系統。而在OpenAI自己的官方網站上,AGI被定義為在大多數具有經濟價值的工作中超越人類的高度自治系統。這根本不是一個關於單一技術的連貫願景。這些截然不同的定義完全是針對特定受眾拋出的噱頭,目的是動員大眾抵制監管,或者吸引更多消費者買單。該行業之所以這麼做,只是為了獲取更多資本和資源以繼續這場定義模糊的技術狂飆。主持人:談到隨時間演變的不同定義,2015年OpenAI正式宣佈成立之前,Sam Altman在一篇部落格文章中明確概述了生存風險。他寫道,開發出超越人類水平的機器智能,可能是人類持續生存面臨的最大威脅;雖然他認為像人造病毒等其他威脅肯定會發生,但AI可能是最容易毀滅一切的方式。郝珂靈:通常當Altman面向公眾寫作或演講時,他心目中的受眾絕不僅限於普通公眾。在那個特定的時刻,他其實是試圖說服Elon Musk與他共同創立OpenAI。因為當時的Musk正全身心地對AI可能帶來的巨大生存威脅發出警告。如果你去讀那篇博文,會發現Altman使用的語言與Musk當時的話術如出一轍,完全反映了Musk的觀點。主持人:完全一致。確實,十年前Musk就在播客、推文以及各種公開言論中表示,人類面臨的最大生存風險就是AI。郝珂靈:沒錯,所以你看他在博文的括號裡還提到了其他可能發生的事情,比如人造病毒。這是因為在那之前,Altman一直談論的都是人造病毒。而為了拉攏Musk這個關鍵人物,他需要轉變話術來迎合對方。對於Altman來說,他需要化解一個矛盾,即他現在為了迎合Musk而提出的新核心恐懼與他之前的言論完全相悖。所以他才會巧妙地加上那句“我認為現在是這樣,儘管以前我曾說那是人造病毒”。主持人:你的意思是Sam Altman操縱了Musk嗎?因為Elon Musk最終確實捐贈了巨額資金給OpenAI,並且是聯合創始人。郝珂靈:Elon Musk最終確實與Altman共同創立了OpenAI。當然從Musk的角度來看,他確實感覺被操縱了。他認為Altman在溝通時刻意迎合他,以此騙取他的信任並讓Musk將其視為這項事業的合夥人。不過後來Musk還是離開了OpenAI。通過Musk和Altman目前正在進行的訴訟中披露的檔案可以看出,Musk在某種程度上實際上是被排擠出去的。這就是為什麼他對Altman懷有如此強烈的個人恩怨,並聲稱Altman用欺騙的手段將他捲入了這一切。主持人:所以在2015年,Sam Altman通過部落格宣稱AI是人類最大的生存威脅之一。與此同時Musk也在發表著名的演講,比如在麻省理工學院稱AI是最大的生存威脅,甚至將開發AI比作召喚惡魔。而你剛才的觀點是,Sam Altman只是在模仿Elon Musk的語言,目的是拉攏他加入OpenAI。後續的發展也印證了這一點,目前的訴訟顯示Sam Altman可能在某種程度上將Elon Musk排擠出局了。郝珂靈:從訴訟及披露的檔案得知,當時的OpenAI首席科學家Ilya Sutskever和首席技術官Greg Brockman決定成立營利實體時,面臨著由Musk還是Altman擔任CEO的問題。起初,他們選擇了Musk。但我通過報導發現,Altman私下懇求了相識多年的好友Greg Brockman,指出讓Musk這位備受矚目且不可預測的名人擔任這家未來可能擁有超強力量的公司的CEO存在危險。這番話不僅說服了Greg,也讓Greg隨後說服了Ilya。最終他們改變了立場,希望Altman擔任CEO,而Musk則以不當CEO就退出為由離開了。2.Sam Altman的爭議形象與高層動盪內幕主持人:聽起來Sam再次成功說服了別人。這引出了一個問題,你如何評價Sam Altman?郝珂靈:我認為他是一個非常有爭議的人物。主持人:你剛才的停頓很有意思,那是試圖字斟句酌時才有的停頓。郝珂靈:採訪中最有趣的一點是,人們對Altman的評價極其兩極分化,要麼認為他是堪比Steve Jobs的新一代偉大科技領袖,要麼覺得他是一個極具操縱性的騙子。我採訪了很多人後意識到,這完全取決於你是否認同他對未來的願景。如果你認同,你會覺得他非常有說服力,擅長講故事,在調動資本和招攬人才方面表現卓越,是你身邊最了不起的財富。但如果你不認同,你就會覺得自己在被他操縱去支援他的願景。Anthropic的CEO Dario Amodei就是典型的例子。他最初是OpenAI的高管,原以為Altman與自己志同道合,但後來漸漸發現兩人的想法背道而馳,並感覺Altman是在利用他的才智和技術去實現一個他根本不認同的未來願景,因此心生反感。我報導科技行業超過八年,報導過Meta、Google和Microsoft等眾多公司,但在OpenAI和Altman身上,我看到了前所未有的兩極分化,人們甚至無法斷定他究竟是絕世天才還是極惡之徒。主持人:你剛才提到了Dario,我發現真正有趣的是觀察人們的言論如何隨利益動機變化而演變。我查看了他們所有的公開言論,包括播客和部落格文章。Dario曾是OpenAI的研究副總裁,後來去了Anthropic,他們在開發AI上採取了略有不同的方法。早在2017年他還在OpenAI時曾說過,最極端的情況是對AGI毀滅人類的恐懼,從原則上看並非不可能發生,發生人類文明級災難的機率可能在10%到25%之間。你還提到了離開的OpenAI聯合創始人Ilya,我想問的第一個問題是,Ilya為什麼要離開?郝珂靈:這是一個非常好的問題。Ilya在試圖解僱Sam Altman的過程中起到了關鍵作用。隨著時間推移,他也漸漸覺得自己被Altman操縱去貢獻他不認同的東西。主持人:你是怎麼知道的?郝珂靈:因為我採訪了很多人。Ilya深切關注兩大支柱:一是確保實現AGI,二是確保安全實現它。他認為Altman正在積極破壞這兩件事,在公司內部製造混亂的環境,讓不同團隊互相競爭,對不同的人說不同的話。主持人:你和他談過嗎?郝珂靈:我曾在2019年為撰寫OpenAI人物專訪採訪過他。主持人:當時他說過一段話:“無論如何,AI的未來會很美好。如果對人類也美好那就太好了。這並不是說它會主動憎恨或傷害人類,而是它會變得極其強大。就像人類對待動物那樣,我們並不是因為討厭動物才修高速公路,只是因為修路對我們很重要,所以我們不會去徵求動物的許可。默認情況下,這就是未來我們與AI的關係,它們將真正自主並代表自身利益運行。”郝珂靈:我覺得我們應該退一步思考:究竟什麼是人工智慧?我們所說的智能又是指什麼?這很大程度上源於個人對“智能”的特定信念。在Ilya的整個研究生涯中,他和他的導師Geoffrey Hinton一直假設我們的大腦歸根結底是巨大的統計模型。基於這種假設,他們堅信建構基於統計模型的AI系統最終會帶來像人類一樣甚至超越人類的智能系統。Ilya曾在一個AI研究會議上展示過一張圖表,顯示大腦容量與物種智力大致呈正相關。對他而言,既然大腦只是統計引擎,那麼只要建構一個比人腦更大的統計引擎,它就會變得更加智能,屆時我們將遭受與動物相同的待遇。但必須明白,這只是AI研究社區內特定個體的科學假設,關於它是否屬實存在很大爭議,主要的批評者認為將大腦簡單視為統計引擎是非常片面的。主持人:為什麼瞭解其機制如此重要?難道僅僅瞭解結果還不夠嗎?比如它能為我製作視訊,或者智能體能夠完成我的工作。瞭解其背後的機制對我們來說真的那麼重要嗎?郝珂靈:既重要也不重要。重要是因為這些公司正基於這一假設來採取行動。他們認定追求AGI需要不斷建構越來越大的統計模型,這帶來了全球性的後果:他們瘋狂搜刮資料、建設資料中心,甚至剝削勞動力。我認為有一個關鍵問題需要反思:我們為什麼要努力建構替代人類的AI系統?當下的對話似乎默認了AI行業的前提就是好的,他們說該建構AGI,我們就跟著附和。縱觀歷史,技術的初衷始終是為了增進人類福祉,而不是取代人類。我對這些公司和科學家的核心批判就在於此:他們全盤接受了這個目標,並利用巨額資本和龐大資源不懈追求。這真的是正確的目標嗎?為什麼我們不能只建構那些能加速藥物研發、改善醫療成果的AI系統呢?那些系統與他們試圖複製人類大腦的統計引擎完全是兩回事。主持人:那麼他們為什麼要這麼做?你採訪了大約300人,其中有八九十人來自OpenAI。你認為他們執意如此的原因是什麼?郝珂靈:我認為是因為他們受一種帝國議程的驅動,所以我稱這些公司為AI帝國。3.AI帝國議程設定主持人:你所說的“帝國議程”具體是什麼意思?郝珂靈:“帝國”是我發現唯一能完全概括這些公司運作規模及背後動機的詞彙。當下的AI帝國與舊時代帝國有諸多相似之處:首先,為了訓練模型並建立超級計算設施,他們大肆圈地,侵佔屬於個人的資料以及創作者的智慧財產權;其次,他們在全球僱傭了數十萬名工人來製造這些技術,卻將工具設計為以勞動力自動化為導向,這種政治選擇嚴重侵蝕了勞工權利;最後,他們壟斷了知識生產,對外製造出只有他們才真正懂AI的假象。如果公眾不喜歡,他們就歸咎於公眾瞭解不夠。他們不僅以此對付公眾和政策制定者,還收買了絕大多數研究AI侷限性和能力的科學家。主持人:你認為他們在某種程度上是在對公眾進行情感操縱嗎?郝珂靈:沒錯。試想一下,如果全球大多數氣候科學家都由化石燃料公司資助,我們還能瞭解氣候危機的真相嗎?同理,AI行業僱傭並資助了世界上大多數AI研究人員,通過將資金注入他們優先考慮的項目來柔性設定研究議程。當研究人員的發現不利於他們時,他們就會進行審查。我在書中提到過Google倫理AI團隊前共同負責人Timnit Gebru博士的案例。她被僱傭的初衷是對Google的AI系統提出批評,但當她合作撰寫了一篇揭示大語言模型如何導致有害後果的論文後,Google為了阻止論文發表,不僅解僱了她,還解僱了另一位共同負責人Margaret Mitchell。這就是他們控制並壓制不利於帝國議程研究的手段。主持人:這種情況是否也發生在了向他們提問的記者身上?我曾看過你的一個視訊,裡面有個年輕人提到,某家大型AI公司的人直接敲開他家的門,索要電子郵件和簡訊等資訊。郝珂靈:確實如此。OpenAI曾傳喚部分批評者,這既像是一場恐嚇,也像是一場旨在摸清批評者網路的“釣魚”行動。那是一個經營小型非營利監督機構的年輕人。在OpenAI嘗試從非營利組織向營利性企業轉型的關鍵時期,許多像Mitos這樣的公民社會團體試圖阻止這一過程暗箱操作,爭取更高的透明度並引發公眾辯論。就在那時,有人敲開了他的門,遞交了法律檔案。這些檔案要求他提供所有與馬斯克可能涉及的溝通記錄。這反映了OpenAI一種奇怪的偏執,他們認定馬斯克在資助這些人阻撓公司轉型。但實際上,他們中沒有任何人受馬斯克資助。所以面對這個請求,他只能無奈地表示自己拿不出任何檔案,因為這些溝通根本就不存在。主持人:你剛才提到,帝國的特徵之一是土地掠奪,接下來的一個是勞動力剝削,第三點是控制知識生產。郝珂靈:關於這些AI帝國,另一個非常重要且需要理解的特點是,它們總是擁有一種敘事方式。它們對公眾宣稱:“我們是正義的帝國。首先我們需要成為一個帝國,因為世界上還存在著邪惡的帝國。如果你們允許我們獲取所有資源並使用所有勞動力,我們承諾將為每個人帶來進步與現代化,帶大家進入類似於AI天堂的烏托邦狀態。但如果邪惡帝國搶先一步,我們將墜入地獄。”主持人:那麼這裡的邪惡帝國是指?郝珂靈:實際上在早期,OpenAI曾將Google視為邪惡帝國。所以他們所有的決策都圍繞著:“我們必須搶先一步,否則Google這家受利潤驅動的邪惡公司就會勝出,而我們是一家仁慈的非營利組織。”他們認為這是一場關乎誰能勝出的關鍵競爭。主持人:你認為那些建立這些AI公司的人,真的相信結果會造福每個人、開啟一個富足的時代嗎?你覺得他們到底相信什麼?或者說,你認為Sam Altman真正相信的是什麼?郝珂靈:這太有意思了。他們圍繞AI行業建構的神話中,有一個核心部分就是他們相信事情可能會變得非常糟糕,這兩者是相輔相成的。他們需要這部分神話來為自己辯護:“這就是為什麼我們需要掌控這項技術,因為這是確保它順利發展的唯一途徑。”Altman曾公開表示,最壞的情況是所有人都玩完,但最好的情況是我們治癒了癌症、解決氣候變化並迎來物質極大豐富。Dario Amodei也是同樣的辭令,聲稱最壞的情況是對人類造成生存性傷害,最好的情況是實現人類的大規模繁榮。這如同硬幣的兩面,他們必須同時利用這兩種敘事,為一種極其反民主的AI開發方式持續辯護,主張這種技術的開發不應有廣泛參與,他們必須在每一步都將其牢牢掌控。主持人:Sam Altman發了一條推文說:“有幾本關於OpenAI和我的書即將出版。我們只參與了其中的兩本。沒有那本書能做到事事精準,尤其是當某些人執意要歪曲事實的時候,但這兩位作者確實在努力嘗試。”你轉推了那條推文並寫道:“那本未點名的書正是我的作品。”你認為Sam Altman那條推文是指向你的書嗎?郝珂靈:100%確定,因為目前只有三本關於他的書即將出版。他知道我的書要出版,因為我從創作伊始就聯絡了OpenAI詢問他們是否願意參與,事實上他們最初也答應了。我與OpenAI的淵源在於,2019年我曾為MIT Technology Review撰寫過該公司的深度報導,在他們辦公室進行了為期三天的嵌入式採訪。我的人物專訪在2020年發佈後,領導層對此非常不滿。在我的書中,我實際引用了一封Sam Altman發給全公司的郵件,他在信中明確表示那篇報導不太妙。從那時起,公司對我的態度就是拒絕參與我做的任何事情,不回應任何採訪請求。整整三年時間,他們都拒絕和我交談。後來我去了Wall Street Journal,因為是頂級大報,他們感到有些被迫重新開啟溝通管道。每當我寫完文章發給他們請求評論或採訪時,我們確實建立了一種更具建設性的關係。後來我離職全職寫這本書,立刻告訴他們希望繼續這種建設性對話,以確保書中能精準反映OpenAI的觀點。他們答應安排採訪,但在我們反覆溝通安排日程時,董事會解僱了Sam Altman。從那時起情況開始惡化,公司對外界的審視變得非常敏感,開始採取拖延戰術。我一直追問重新安排面試的事情,結果收到郵件說他們根本不打算參與了。當時我已經訂好了飛往舊金山的機票,我告訴他們沒關係,我依然會按照流程傳送詳盡的置評請求。我發了40頁的置評請求,給了一個多月的時間讓他們回應。就在我們反覆交涉時,Altman發佈了那條推文。他們從未對那40頁中的任何一頁做出過回應。主持人:Sam Altman上過每一個播客,從Tucker Carlson到Theo Von、Joe Rogan等世界各地的節目。我在想他為什麼不接受我的採訪。我覺得我對每個人都很公平,只問我真正關心的問題,不會帶著很深的成見進來,也不會讓任何人難堪,即使我有不同的意見也是如此。回到你之前提到的關於OpenAI和這些公司控制研究的方式,你問過他們是否對記者也這樣做。顯然他們對任何擁有廣大大眾傳播平台的人都會這麼做。這不僅關乎你與他們的對話,還關乎你選擇讓誰登上你的平台。郝珂靈:確實如此,而且我認為普通大眾並沒有真正理解這一點。科技新聞領域存在一個巨大的問題:公司深知他們能給科技記者的一個巨大誘餌就是准入權。一旦他們察覺到你在和他們不希望你接觸的人交談,他們會毫不猶豫地撤回這種准入權。主持人:AI領域有一個特定的團隊,基本上用准入權作為誘餌吊了我們大約18個月。我的態度是無論有沒有好處,我想跟誰談就跟誰談。如果有機會交流,我會帶著強烈的好奇心請教他們的工作和動機。但他們的全部策略就是永遠在前面掛著一根胡蘿蔔,認為只要用資源誘惑,記者就會表現得客客氣氣,不會提出批評,也不會為批評者提供平台。郝珂靈:這是他們運作機制中非常重要的一部分,利用這些策略來粉飾公司的公眾形象,並確保不利的資訊和觀點不會流傳出去。我現在非常慶幸OpenAI很早就對我關上了大門。當時我並不覺得這是一種幸運,甚至覺得自己把事情搞砸了,反思我是不是應該在人物專訪裡對他們更客氣一點,好讓自己能維持獲取資訊的管道。但作為一名記者,產生這種想法簡直是種恥辱。記者應該報導事實,並且始終為了公眾利益進行報導。那扇正門永遠不會對我敞開,這反而極大地增強了我實話實說的能力。無論公司喜歡與否,我只客觀匯報呈現在我面前的事實。他們不需要為我敞開大門,我依然完成了300多場採訪。主持人:Sam Altman被踢出了OpenAI的執行團隊,你查清楚那是為什麼了嗎?消息來源是誰?郝珂靈:是的,我還原了當時的場景。大約有六到七個人直接參與了決策過程,或者曾與直接參與決策的人交談過。當時Ilya Sutskever看到Altman的行為正導致公司研究成果不佳以及決策失誤,於是他去找了獨立董事Helen Toner傾訴。由於擔心被Altman發現會面臨嚴重後果,Ilya在第一次見面時含糊其辭,試圖摸清情況並判斷對方是否值得信任。確認之後,Ilya主動與Helen交流,瞭解她是否也觀察到了Altman對公司產生的負面影響。隨後,首席技術官Mira Murati與部分董事會成員也進行了溝通。這兩位高管通過彙總的電子郵件、Slack消息等檔案資料,向三位獨立董事傳達了對Altman領導能力的深切擔憂,指出他給公司製造了太多的不穩定性,挑撥團隊互相競爭,破壞了員工之間的信任,導致大家無法為這項重要技術進行有效協作。主持人:你提到“不穩定”,這是一個相當模糊的詞,可能意味著通過施壓讓員工更努力地工作。你所說的不穩定具體是指什麼?請儘可能詳細地說明。郝珂靈:當ChatGPT問世時,OpenAI完全沒有做好準備。他們沒預料到會引起巨大轟動,原以為發佈的只是一個研究預覽版,旨在收集資料啟動飛輪,為日後搭載GPT-4的真正產品提供參考。由於流量遠超預期,伺服器經常崩潰,他們必須以前所未有的速度擴展基礎設施並瘋狂招聘。但擴張過快也導致了決策失誤,公司頻繁裁員,員工經常突然從Slack上消失,同事們只能通過這種方式得知他人離職。那是一個極度混亂的高壓環境。最重要的是,Mira Murati和Ilya Sutskever覺得Altman讓情況變得更糟了,他實際上在播種更多的混亂,讓團隊變得更加分裂。高管和獨立董事們都在建構AGI的理念下運作,他們認為這項技術對人類要麼是毀滅性的要麼是烏托邦式的。在他們看來,絕對不能在如此混亂高壓的環境下,去創造一項足以決定世界成敗的技術。董事們私下討論時也認為,雖然在Instacart這樣的普通初創公司,這些行為未必足以解僱CEO,但OpenAI肩負的使命完全不同,這些問題已經達到了必須撤換他的標準。此外,獨立董事Adam D'Angelo在舊金山參加派對時聽到傳聞,指出OpenAI創業基金的設立方式有些蹊蹺。獨立董事們查閱檔案後震驚地發現,OpenAI創業基金竟然是Altman個人的基金。這些事件讓董事們意識到,Altman對外描繪的願景與實際執行情況之間始終存在著嚴重的不一致。當高管們帶著擔憂找到董事會時,雙方的觀察完全吻合。經過每天密集的會議商討,他們最終得出結論必須罷免Altman。為了防止Altman察覺後利用其極強的說服力扭轉局勢,他們決定必須迅速行動。於是,他們在沒有提前告知任何利益相關者的情況下秘密解僱了Altman。作為OpenAI領投方的Microsoft直到行動前才接到電話通知。這種將所有利益相關方排除在外的做法激怒了所有人,這也直接導致了隨後那場迎回Altman的行動,幾天後他便重新出任CEO。主持人:一家大公司的CEO是如何因為董事會成員而被董事會解僱的。在你的書第357頁有一段引言,你提到Ilya曾說過:“我不認為Sam是那個應該掌控AGI啟動按鈕的人。”現在我也在問自己這個問題。我和這裡的很多人一起工作,我們公司有150名員工,這些人最瞭解我。他們看到鏡頭前的我,也看到鏡頭後的我。如果他們說“我們認為Stephen不適合主持《Diary of a CEO》”,能讓他們說出這種話一定是發生了非同尋常的事情。他們肯定在鏡頭之外見識了一些糟糕的情況才會認為我不適合出現在鏡頭前。而在AI領域,其影響遠比一個播客節目深遠得多。想到一家公司的聯合創始人去找董事會說“他不適合領導這個至關重要的項目”,簡直讓人不寒而慄。而且不僅僅是Ilya,Mira Murati隨後也表示不認為Altman是合適的人選。隨後他們兩人都離開了。接著Altman回歸了,Ilya再也沒有回來。他之前擔心被Altman發現會對自己不利,這種顧慮最終變成了現實。郝珂靈:Mira Murati也在那之後不久離開了。這些人中相當一部分都離開了OpenAI,不是嗎?回顧OpenAI的起源故事,它始於矽谷核心地帶Rosewood Hotel舉行的一場晚宴,那是Elon Musk來灣區時最喜歡的去處之一。Altman打算在那場晚宴上招募最初創立OpenAI的元老團隊,他到處跟人說Musk會來參加。他給Ilya發了冷郵件並成功邀請了他,因為Ilya特別想見Musk。他還給Greg Brockman、Dario Amodei等人發了郵件,這些人最終都去了OpenAI工作。但在與Altman發生衝突後他們幾乎所有人都離開了。Ilya離開後創辦了一家名為Safe Superintelligence的公司。主持人:這真是我聽過最委婉的影射了。如果有人和我共同創辦了這個播客,離開後又創辦了一個名為“安全播客”的節目,我會覺得這是一種輕蔑。郝珂靈:每一位科技億萬富翁都擁有自己的AI公司,這絕非巧合。他們想要按照自己的形象來創造AI,這正是他們一直相處不睦的原因。共事之後他們最終反目成仇,各自獨立建立了自己的組織。Musk離開後創立了xAI,Dario創立了Anthropic,Ilya創辦了Safe Superintelligence,Mira創辦了Thinking Machines Lab。他們希望掌控自己對這項技術的願景,從將願景投入市場的經驗中他們得出的最佳途徑就是建立一個競爭對手,與OpenAI及市面上所有其他公司展開競爭。主持人:你是否認為有些AI公司已經意識到自己簡直就是在“召喚惡魔”(正如Elon Musk十年前所說),但他們其實並不在乎?因為成為召喚惡魔的人會讓你變得舉足輕重、權勢顯赫並名垂青史,那怕有20%的機率會導致可怕的後果。Dario曾說過大約有10%到25%的機率事情會向著人類文明規模的災難性方向發展。25%就是四分之一的機會。如果在只有四個彈巢的左輪手槍裡裝進子彈,說代價是腦袋挨一槍但可能成為億萬富翁並被永遠銘記,我絕不會去冒這個險打這個賭。郝珂靈:這完全取決於如何定義“召喚惡魔”。AI行業利用了一種神話體系,“召喚惡魔”是說服所有人的關鍵環節,旨在讓人相信只有他們才是唯一能開發這項技術的人。這意味著必須由他們來做,且公眾必須給予資金和支援。所以當他們說這些話時,我們應將其理解為一種言語行為,旨在說服他人讓渡更多的權力和資源。這並非基於事實做出的真實預測,因為他們不是在預測未來而是在創造未來。他們是在刻意向公眾營造這種氛圍,這是其權力的核心組成部分。至於他們是否意識到這已經對全球弱勢群體產生了極其嚴重的負面影響,也許有也許沒有,但他們其實並不在乎。我有時用《沙丘》來類比AI世界。故事中保羅·厄崔迪步入了一個早已播種在星球上的神話,他利用救世主降臨的理念來控制民眾。起初他深知這只是個神話,但隨著全身心投入並成為其化身,界限開始模糊,他分不清這究竟是神話還是自己真的是救世主。我認為這正是AI領域正在發生的事情。這些高管在積極進行神話塑造。我掌握的內部檔案顯示,他們非常敏銳地意識到如何通過令人眼花繚亂的技術演示吸引公眾,精心設計完美的使命感讓人們對公司更寬容。他們中的許多人也沉溺於這個神話中,因為他們必須日復一日地體現這個神話。當Dario說有10%到25%的災難機率時,他正積極參與並迷失在神話塑造中。由於需要籌集天文數字的資金來資助AI研究和建設資料中心,他們無時無刻不在融資。你不能一邊籌款一邊說“我有25%的可能性毀掉你孩子的未來”。大腦會產生認知失調,難以同時持有兩種衝突的世界觀。主持人:你認為他們中有人比其他人擁有更強的道德準則嗎?Dario經常被認為更有骨氣,對後果也更有意識。郝珂靈:我認為這個問題並不重要。即使把所有CEO都換成更有道德感的人也無法解決問題。核心問題是我們已經建構起了一套權力體系,這些公司和高管可以做出影響全球數十億人生活的決策,而這數十億人對此沒有任何發言權。這並不是公眾投票選出一位承諾立法的領導人就能解決的。考慮到這些公司運作的速度、節奏以及龐大的體量,他們完全能夠揮霍數億美元試圖扼殺任何阻礙他們的立法,並制定確立自身優勢的法案。作為一個社會我們有時過於執著於討論這些領導人到底是好人還是壞人。更大的問題是我們建立的治理結構是健全且允許廣泛參與的,還是一個將決策權鞏固在少數人手中的反民主結構。沒有人是完美的,無論誰坐在頂層,都沒有能力代表世界上有著不同文化和歷史的大多數人做出絕對正確的決定。這就是為什麼在歷史處理程序中人類從帝國走向了民主。因為帝國作為一種結構本質上是不穩定的,它不能最大限度地讓大多數人過上體面的生活。4.AI技術進步的初衷與未來主持人:說實話我覺得我對很多領域都略知一二。郝珂靈:是的,而且你具備自主學習和獲取知識的能力,也有能力自主選擇學習內容。人類可以在一個地方學會開車然後立刻將能力遷移到另一個地方。目前的AI模型無法做到這一點。每當自動駕駛汽車轉移到新地點時,必須針對該地點進行完全的重新訓練。主持人:但是當一輛自動駕駛汽車或者一台Optimus機器人在工廠裡學習到新東西時,所有的裝置就都學會了。郝珂靈:這僅僅是因為它們共享同一個底層作業系統中的AI模型元件。你在訓練這個AI模型,然後將它部署到了所有裝置上。主持人:想像一下那樣的場景,如果我們人類能夠學習所有其他人類所掌握的知識,那將賦予我們難以置信的競爭優勢。我的意思是,人類實現這一目標的方式之一就是通過溝通。郝珂靈:但實際情況可能並非如此,因為系統可能會學到錯誤的東西。這種情況在現有技術中已經屢見不鮮,所有模型似乎都會學到錯誤的內容,並且擁有相同的失效模式。相比之下,人類社會的韌性部分源於我們擁有不同的專業知識,也擁有不同的失效模式。主持人:我認為有時我們對AI模型的標準甚至比對人類的要求還要高。說起來挺奇怪的,我在奧斯汀的台上經常聽到人們抱怨:“AI模型有時會產生幻覺。”我心想,難道你沒見過人類嗎?我隨時都在產生幻覺,我幾乎不會拼寫,也不會做數學題。郝珂靈:是的,但這更像是在領域初期為了行銷這些技術而專門挑選的類比。我們反覆使用“智能”來類比,並將這些機器與人類智能聯絡起來,試圖以此衡量它在社會中是否良好、有價值或有能力。主持人:但我認為輸出結果才是影響最深遠的東西。即便它擁有一個完全不同的系統,關鍵在於它是否達到了同樣的水平。比如,它能否為大腦進行手術?能否開車?在洛杉磯,我的車就是自動駕駛的,我可以好幾個小時不用碰方向盤。在奧斯汀,我前幾天剛見過取消了方向盤和踏板的全新CyberCab。我覺得它是否使用了不同的系統並不重要,如果它在現實世界中行駛且擁有比人類更高的安全記錄,那麼無論是否具備所謂智能,對我而言都是可以接受的。郝珂靈:但這並不是你最初提出的論點,即這些系統將基於預測,在不同領域普遍變得更加智能。主持人:這也是目前所有AI領域大咖都在做的預測,包括Ilya、Dario、Elon、Zuckerberg、Altman和Demis。郝珂靈:你知道所有這些預測的共同特徵是什麼嗎?他們從這個神話中獲取了巨額利潤。主持人:Elon最近在孟菲斯建造了擁有10萬個GPU的巨型超級電腦Colossus,專門用於比競爭對手更快地擴展其Grok模型。郝珂靈:似乎大家達成了一個共識,即可以通過暴力破解的方式來實現更強大、更通用的智能,並將其出售給人們,用於自動化某些具有豐厚經濟回報的任務。主持人:我聽Elon說過,如果你是一名外科醫生,學習這些根本沒有意義,因為幾年之內,Optimus和AI總體上將比歷史上任何一位外科醫生都要出色。你認為這些預測是真的嗎?郝珂靈:我很確定Hinton曾說過那句名言:未來將不再需要放射科醫生。他當時設定了一個期限,而我們現在已經過了那個期限,放射科作為一個職業目前發展得依然很好。主持人:你認為五年後還會是這樣嗎?郝珂靈:這要回到我們為什麼要開發技術,以及為什麼需要開發AI的問題。對我而言,技術進步的初衷並不是為了發展而發展,而是為了幫助人類。已有大量研究表明,在醫療場景中,對患者最好的結果是讓放射科專家將AI模型作為工具和參考輸入。正是這種結合實現了對某些癌症最準確、最及時的診斷,從而改善了患者的預後。主持人:你是否相信在未來幾年內,路上幾乎所有的車都會實現自動駕駛?郝珂靈:我不這麼認為。主持人:為什麼?郝珂靈:因為這項技術的工作原理是統計性的。目前AI模型的主要開發方式是統計引擎,即所謂的神經網路,這是一種包含大量密集連接節點的軟體,也就是人們常說的參數。你向其中輸入海量資料,它通過分析資料找出所有的相關性和模式,機器正是通過這些模式實現自主運行。在訓練自動駕駛汽車時,研發人員會記錄大量的視訊素材,並僱傭成千上萬的人類外包人員為素材中的每一輛車、每一個行人、每一個紅綠燈和每一條車道線進行手動標註。這些資料輸入AI模型後,模型就能識別這些元件。接著,它被連接到另一個非AI的軟體程序,該程序會發出確定性的指令,比如“識別到行人就不准碰撞”或“識別到紅燈就停車”。統計引擎的特點在於它是基於機率而非確定性邏輯的,因此系統隨時都會出錯。從技術上講,目前根本不可能讓它們完全停止犯錯。主持人:在這種情況下,人類犯錯的機率難道不比系統高嗎?安全記錄顯示,在Tesla自動駕駛模式下行駛的安全性要比人類駕駛員高出10倍。郝珂靈:這取決於具體地點,以及Tesla是否針對該特定區域進行過專門的導航訓練。主持人:但人類會醉駕。如果在孟買或越南的某些地方,難道自動駕駛不會更安全嗎?郝珂靈:在那些地方,我並不認為它會更安全。我更願意由一個一輩子都在當地開車的人來載我。我並不是要反駁在某些經過專門訓練的特定地點,AI的安全記錄確實優於人類。但你問的是全球或全美國的大多數汽車,我認為這並沒有近在咫尺。主持人:那10年內呢?我曾和Uber的Dara聊過,他確信他的900萬名配送員將被自動駕駛車輛取代。郝珂靈:自動駕駛汽車已經研發超過10年了,但目前公路上自動駕駛汽車的比例又是多少呢?它永遠不會達到100%。這在一定程度上已經不再是技術問題,而是社會信任和法律責任的問題。如果自動駕駛汽車撞了人,誰該負責?主持人:在洛杉磯的一個案例中,由於駕駛員低頭撿手機,Tesla和駕駛員都被判定負有責任。就Tesla而言,現在Model Y是全球最暢銷的汽車,而且絕大多數車輛都配備了被稱為“受監督的全自動駕駛”的功能。那仍然只是部分自動駕駛,因為你必須保持關注。而在奧斯汀看到的新款車上,因為沒有方向盤,那是真正的全自動駕駛。5.AI時代的勞工困境我想探討的是,那些聲稱AI將徹底改變交通、法律和會計行業的預測。你認為會出現大規模的失業潮嗎?郝珂靈:我確實認為就業市場將受到巨大的衝擊,我們已經看到了這些影響。這不僅僅是因為AI模型通過自動化取代了這些工作,更是因為開發公司選擇的改進方向。很多時候管理層僅僅因為認為AI可以取代員工就決定裁員,無論模型的能力是否真的達標,他們寧願要一個價格便宜且夠用的模型。有時他們只是在招聘上犯了錯導致團隊搞垮,而AI成了一個非常方便的藉口。比如Klarna的CEO曾解僱了一大批人,以為可以用AI取代所有人,結果行不通又不得不請人回來。我專門就這件事給Sebastian發了私信,他說媒體誤解了他的推文,他們正比以往任何時候都更加倍投入AI。由於AI的應用,Klarna的員工人數正以每月近一百人的速度縮減,從七千四百人的峰值降到了三千人左右。AI處理了他們70%的客服對話,因為軟體的生產成本幾乎降到了零。就像程式碼現在由機器生成一樣,最終我們會為那些獨特的人造成果支付比以往更高的報酬。Klarna作為一家銀行,人們希望與有感情、能引起共鳴甚至帶有瑕疵的人建立聯絡,而不僅僅是機器。因此他們需要在推進AI自動化的同時提供極易獲取的人性化體驗。主持人:你看到Anthropic本周發佈的報告了吧?簡而言之它的內容和你剛才說的很吻合。Anthropic深入研究了人們究竟是如何使用他們的模型的,發現初級職位的數量減少了40%。他們在網上瘋傳的圖表預測,雖然建築和農業等物理世界的實體工作尚未受影響,但行政、金融、數學、法律和醫療保健等領域將首當其衝。包括媒體和藝術領域,這麼看我快徹底完蛋失業了。郝珂靈:顯然他們非常關注助理類和管理類的工作。目前存在兩種二元對立的敘事:一種是AI將取代每一份工作,另一種是AI實際上並不起作用。事實是AI確實正在取代工作。每一波自動化浪潮都會用自動化取代大量入門級工作,同時創造新的崗位。但這些新崗位分為兩類:一類是技能要求和報酬更高的高階職位;另一類則是變得糟糕得多的底層崗位。比如很多行銷人員被解僱後,最終去資料標註公司工作,專門教導AI模型去自動化他們剛剛失去的那個崗位。如果該模型掌握了那項技能,又會導致更多的裁員。這成了一個吸收失業人群的去處,甚至包括好萊塢一些屢獲殊榮的導演也在秘密從事資料標註餬口。這打破了職業晉陞階梯。入門級和中層職位被掏空,取而代之的是極少數的高階職位和大量更低階的職位。階梯上已經沒有橫桿了,人們該如何繼續職業晉陞呢?主持人:我實際上也不知道答案。我一直在拚命為我的觀眾尋找最佳答案。大家聽到了許多不同的說法,比如Jack Dorsey發推文稱因為AI的緣故正將員工人數減半,大家不知道什麼是真實的,也不瞭解其公司內部的經濟狀況,這或許只是為了讓投資者覺得他們是AI公司從而拉升股價的藉口。我自己有數百名團隊成員,投資了大概七十家公司,我也把自己當作招聘負責人。過去一個月裡我遇到過文化契合度非常好的候選人,但我不得不陷入深深的思考。因為當我嘗試讓AI智能體去完成完全相同的工作時,尤其在一個開放的Claude世界中,答案正日益趨向於可以。郝珂靈:現在你面臨這樣一個抉擇:在短期內你完全可以選擇AI智能體,但從長期來看職業晉陞階梯將不復存在。你會提拔什麼樣的人進入高級職位?你是如何在自己的公司裡解決這個問題的?主持人:這是一個好問題。關於這一點,我大概有兩種思考方式。我認為深厚的專業知識非常有價值。如果你現在是潛在的AI Agent編排者,關鍵在於對該問什麼樣的問題有深刻理解,而這正是擁有深厚專業知識的人所具備的。如果我的CFO要負責協調智能體團隊執行財務分析等任務,她需要明白如何指揮它們在公司內開展工作,一名實習財務分析師是做不到的。他們需要像Claire那樣擁有五十多年的豐富經驗。另一方面,我需要像Kaz這樣的人。25歲的日本小夥Kaz對AIAgent瞭如指掌,他好奇心極強,周末都在建構AIAgent來解決生活中的問題。我需要這兩種非常精通的思維方式。一種是代理效能最大化(Agent Maxing),這類人通常是年輕人,他們必須全身心投入且擁有極強的好奇心,這在我的業務中產生了力量倍增器的效應;另一種就是深厚的專業知識。除此之外,我還想到了第三類群體,就是擁有極強線下社交技巧的人。我們在現實生活中確實需要與人見面,比如迎接來訪客、與大客戶共進午餐並進行應酬。我們的團隊有很多線下活動,同時也在全球各地舉辦社區活動,所以我們需要擅長線上下將人們聚集在一起並組織事務的人才。這三類人是我認為目前無法被取代的。郝珂靈:如果那些可以由AI智能體承擔的角色都被取代了,按照目前的軌跡繼續發展下去,你認為是否還能保留這三類角色,以及從中選拔、晉陞人才的儲備庫,以完成長期所需的這三項關鍵任務?主持人:有人斷言即使是那些角色也會感受到壓力。如果你把事物的發展看作指數級的進步,甚至只是10%的複合增長率進步,在某個時刻我認為剩下的實際上是不可替代的人類特質,也就是人與人之間面對面交流的馬斯洛需求。這一點不會改變,我們需要連接。當人類生活中缺乏他人的連接和深厚的關係時,會變得非常痛苦。我有一個不同尋常的觀點,我認為AI可能是第一種能真正兌現承諾、讓我們回歸人性並建立連接的技術。因為除了人類擅長的事情外,我們在其他任何事情上都將變得毫無用處。以往的其他技術曾宣稱要讓我們與世界建立更多連接,結果卻切斷了聯絡,使人們陷入孤立。但也許AI現在已經足夠智能,不再需要我們去折騰電子表格。郝珂靈:你是否看到這一切正即時發生?它是否正讓我們更有能力進行面對面交流,與彼此建立聯絡,並擁有更深層次的社會社區參與?主持人:是的。我會給你提供一些資料點。《金融時報》發佈的一份關於社交媒體使用情況的報告顯示,2022年是巔峰期,此後一直處於平台期,其中下降最快且進入平台期的是年輕一代,而嬰兒潮一代依然活躍。如果你看看Alpha世代使用社交媒體的方式,他們發帖不再頻繁,甚至出現了零發佈(PostingZero)的現象。他們有時刷動態,但更多是待在WhatsApp、Snapchat和iMessage這種暗社交環境中,不再像以前那樣向全世界展示或表演自己。他們也比以往任何一代人都更看重線下體驗,比如跑團(RunClub)正在全球範圍內爆發式增長。這幾乎反映出人們內心深處察覺到技術在某些根本層面上讓我們失望了。我們正在目睹社會可能出現的兩極分化,許多人正趨向於回歸作為人類最本真的樣子。我可以想像在這樣一個世界裡,智能已經進化到極高的程度,以至於我們不再需要坐在筆記型電腦前,螢幕使用時間將會持續下降。當走進辦公室時,你看到的將不再是圍坐在電腦前的人們,而是完全不同的場景。另外,馬斯克說未來將會產生100億個Optimus機器人。他在時間預測上出過錯,但在重大事項上幾乎從未徹底錯過。我已經請了一些來自波士頓動力以及ScaleAI等公司的專業人士來展示機器人疊衣服和洗碗等技能。我認為工廠的大量體力勞動將發生徹底改變,我們將被迫去做那些只有人類才能做的事情。剛才Klarna的首席執行長Sebastian給我打來電話,分享了他們業務和AI Agent的最新進展。他提到,他們很早就利用AI支援客戶服務,不僅處理了更多通話,速度和質量也得到了客戶的認可。他們相信在一個AI廉價且普及的世界裡,人類互動的價值會更高,因此客戶服務的VIP體驗將由真人提供。在公司內部,他們通過AI實現了效率提升,避免了裁員,而是通過自然流失將人員規模從6000人縮減到不到3000人,同時營收卻翻了一番。去年年底更是出現了重大突破,許多頂尖工程師認為程式設計問題已經被解決,人們不再需要親自編寫程式碼了。當被問及這些被解放出來的人都去幹什麼時,他表示長遠來看,他對於AI對社會和人類的積極意義持樂觀態度,認為我們將邁向一個更富裕的社會。聽了這些,你有什麼想法嗎?郝珂靈:其實在他打電話過來之前,我對你剛才說的話確實有一些想法。你提到Z世代有這樣一種趨勢,他們正在脫離技術,變得更加注重面對面交流;而另一類工作者實際上在擁抱技術,正因為擁抱了技術反而變得更具人性,因為他們意識到應該把更多時間花在面對面的人際互動上,而不是盯著螢幕。但我真的很想回到剛發表的那篇《紐約雜誌》的文章上。你所描述的情況只適用於一類非常特定的人群,通常是公司內部的業務所有者和領導層,他們可以決定如何分配和利用時間。但這篇文章探討的是工人階級,那些非業務所有者的普通人經歷了裁員後,被迫轉投資料標註行業。順便一提,資料標註現在是LinkedIn上增長最快的十大職位之一。資料標註就是教這些AI系統實現它們最終展現出的功能,比如向大語言模型輸入提示詞並示範該如何回答,在完成這些訓練之前,ChatGPT並不存在。這就是強化學習過程的一部分。《紐約雜誌》的文章強調,許多被裁員或正在艱難找工作的人,包括大學畢業生、博士、律師、醫生甚至屢獲殊榮的導演,由於經濟已被AI深度重構,他們很難在體系中找到新工作,只能服務於這個設計得極其不人道的行業。OpenAI、Grok和Google等公司會僱傭第三方資料標註公司,而這些第三方公司為了以最低成本和最快速度完成任務,就有動力讓工人之間相互競爭。接受採訪的工人都表示,他們實際上已經失去了作為人的能力。他們只能守在筆記型電腦前等待Slack上的任務提醒,因為這是他們養家餬口的唯一生計。一位女性提到,她對項目起止時間感到極其焦慮,當任務窗口期剛好在孩子放學回家時,她必須瘋狂刷任務賺錢,甚至因為孩子分散了注意力而大吼大叫。她覺得自己變成了怪物,連上廁所或照顧自己都不被允許。這個不斷吸納被裁員工的行業,正在將他們的生活機械化、工作原子化,貶低他們的專業知識,並收割成果來維持這台機器的運轉。然而所有AI高管卻在宣稱,這台機器將取代其他所有人的工作。所以正如你提到的,那些因為AI處理了繁雜任務而變得“更像人”的企業主們,實際上是以絕大多數正在掙扎求生的普通人的利益為代價的。這些普通人被吸納進為企業主提供技術支援的工作中,他們不僅沒有變得更具人性,反而覺得本人的人性被擠壓和削弱了,在生活中喪失了自主權和尊嚴。主持人:我認為這是一個重大問題。如果我們相信Anthropic對行業顛覆的預測,藝術、媒體、法律、生命與社會科學、建築、工程、電腦、數學、商業金融以及行政管理等領域的人員,都將不得不重新接受技能培訓。與工業革命有十幾二十年的緩衝期不同,AI建立在開放的網際網路之上,這使得ChatGPT能迅速獲得數億使用者並成為史上增長最快的公司。我擔心這種顛覆發生的速度快到讓我們根本無法完成轉型。郝珂靈:但誰在推動這種速度?是那些公司,以及它們彼此之間的競爭。它們正在推動這種轉變以極快的速度發生,在這種速度下很難照顧到所有被其碾壓的人。這是最瘋狂的問題之一。當我與這些AI公司的首席執行長們坐在一起時,沒有人能回答我的問題。我會問:“如果這一切真的以超高速發生,那麼人類將會怎樣?”主持人:我曾與一些企業的CEO交流過,比如Uber的Dara也表達過類似的看法。他認為未來會產生一些諸如資料標註的工作,可以提供給司機們。但問題在於,不可能所有人都去從事資料標註,這還涉及人生意義、目標和成就感缺失的問題。是的,很多人在失去原有工作後,自尊心會遭受沉重打擊。我曾聽過許多案例,比如一些人在家鄉原本是醫生,來到美國後卻只能從事廁所清潔工等工作,這種社會地位的巨大落差往往會引發抑鬱和酗酒問題。如果這種現像在全社會大規模發生,後果將不堪設想。郝珂靈:這也是我一直批評這些AI公司的原因。他們創造技術的方式,正在以前所未有的極端形式製造“擁有者”與“缺失者”之間的鴻溝,加劇了世界的不平等。擁有資源的人將積累更多財富,擁有更多閒暇,活得更像一個“人”;而沒有資源的人則受到更嚴重的擠壓。主持人:這種擠壓似乎不僅僅體現在工作層面?郝珂靈:沒錯,我在書中也談到了環境和公共衛生危機。這些公司在選址建造龐大的超級電腦設施時,往往專門挑選最脆弱的社區。例如,OpenAI正在德克薩斯州阿比林建設大型資料中心,這是Stargate計畫的一部分,該計畫耗資5000億美元。建成後,其耗電量將超過1吉瓦(GW)。主持人:我看到網上有一些關於這類設施規模的討論。郝珂靈:有些資料需要更新。比如Meta在路易斯安那州建設的超級電腦設施,規模將是阿比林基地的四倍,面積相當於曼哈頓島的五分之一,電力消耗將達到紐約市平均需求的一半。當這些設施進入社區,會導致公用事業用電增加、電網可靠性下降。此外,設施運行和冷卻需要大量淡水,這讓本就缺水的社區處境更加艱難。在田納西州的孟菲斯,馬斯克為訓練Grok建造了Colossus超級電腦,使用了35台甲烷燃氣輪機供電。當地居民甚至在自家客廳就能聞到煤氣味,他們的空氣權益正被剝奪。主持人:聽起來,那些被歸類為“無產者”的人,處境會變得糟糕得多。郝珂靈:是的。在矽谷描繪的願景中,這些人從事的資料標註工作,實際上是被當作機器而非人類來搾取價值。他們不僅面臨職業被顛覆的風險,還要承受生活成本上升、空氣污染和資源競爭。這如何能讓人類變得更具人性呢?6.探尋出路:打破壟斷與AI的自行車路線主持人:那我們應該如何應對這種情況?郝珂靈:我常把AI比作“交通運輸”。交通工具涵蓋了從自行車到火箭的所有類型。如果我們為了從A點到B點而動用火箭,資源投入顯然是失衡的。目前的主流AI模型就像是“火箭”,能耗驚人且開發成本極高。我們為什麼不製造更多AI領域的“自行車”呢?比如DeepMind的AlphaFold,它通過小型且精選的資料集預測蛋白質折疊,對藥物研發意義重大,並獲得了諾貝爾獎。這種系統所需的計算資源和能效要低得多,卻能為人類帶來巨大益處。主持人:但現在感覺大勢已定,這些公司已經利用大量資料完成了初期訓練。郝珂靈:如果真的塵埃落定,他們就不需要持續訓練了。事實是,為了讓技術保持相關性,他們需要周而復始地進行訓練。這就是為什麼隨著時間推移,他們僱用的資料標註工人反而越來越多。他們相信可以靠暴力破解(Brute force scaling)的方法,通過堆砌資料、計算能力和能源來提升模型。我報導資料標註工作已經超過七年了,而且這一需求並沒有減少,反而增加了。主持人:你認為它有任何下降的可能性嗎?你認為這種利用資料、計算能力、能源以及資料標註員來為模型建構越來越多參數的暴力縮放(brute force scaling)方法,有沒有可能停止,或者轉向與現狀不同的方向?郝珂靈:我很想換個角度來重新審視這個問題,並思考在熱度並未降溫的當下,我們應該做些什麼。在這個我們確實意識到這些公司目前需要持續的資源輸入以及勞動力來延續其業務的時刻,我們能做什麼?停止這個詞聽起來很生硬,因為現任政府和全球範圍都在大力支援這些公司。我總是說我們需要打破這個帝國,開發替代方案。目前我們已經看到令人驚嘆的草根運動正在蓬勃發展,它們正對這個帝國推行其議程的方式施加巨大的壓力。最近的民意調查顯示,80%的美國人認為AI行業需要受到監管。主持人:是的,我看到了。郝珂靈:所以全美甚至世界各地都已經爆發了數十起針對資料中心的抗議活動。人們正在採取行動,重申自己的主體性,並針對這些帝國經營業務的方式行使民主抗爭權。主持人:那我們應該瞄準什麼樣的目標?如果我對觀眾說話,因為我在評論區看到了一種絕望感,他們會覺得我只是個普通人,我能做什麼呢?郝珂靈:我們的目標並不是要徹底擺脫這項技術,而是要求這些公司停止擴張成帝國。我定義的普通企業與帝國之間的區別在於,帝國的立足點是它們認為不需要與員工、使用者以及供應鏈中的所有人進行公平的價值交換。它們不斷地搾取和剝削,獲取遠超其所提供價值的收益。而典型的商業模式存在公平交換,你購買服務會覺得獲得的價值與支付的金額是對等的。但對於資料標註工人來說,他們完全不覺得公司支付的報酬能體現出他們提供的價值。所以指路明燈就是當這些公司以帝國主義方式運作時,我們應該予以反擊並追究其責任。這就是我們現在看到的,人們走上街頭抗議資料中心,產生了巨大的影響,甚至讓一些項目停滯或被完全禁止建設。我們看到藝術家和作家正在起訴這些公司侵犯智慧財產權,這引發了一場關於如何保護智慧財產權的大規模公眾討論。三周前我見到了Sewall Setser III的母親Meghan Garcia。Sewall是一名14歲的少年,他在被Character AI聊天機器人進行性誘導後自殺身亡。她對兒子的遭遇感到悲痛,並決定採取行動起訴這些公司。這引發了許多有著類似經歷的家庭紛紛提起訴訟,也引發了巨大的公眾討論,探討這些公司的剝削行為對世界各地人們包括兒童造成了怎樣的代價。主持人:那麼你認為我的觀眾如果完全同意你書中的觀點,不想讓每個人都變成資料標註員,他們實際上能做些什麼呢?郝珂靈:當我寫這本書時,當時的輿論只認為這是自切片面包問世以來最棒的事情。但現在有80%的美國人希望監管這個行業。我想對大家說,思考一下你的生活與AI行業維持運作所需資源以及部署空間交織的所有方式。你是這些公司的資料捐贈者,你可以拒絕提供資料,就像藝術家和作家正在做的那樣,試圖建立機制扣留資料。你身邊可能正在建設資料中心,如果你在學校或公司,可能正在討論AI採用政策。我剛和一些OpenAI員工聊過,他們公司內部清楚營收目標高得離譜,需要一切進展完美才能實現,需要每個人和每個空間都採用這項技術,需要按預想速度建造資料中心。所以我想對觀眾說,如果我們不同意他們的所作所為,就別讓這一切進展得那麼順利。主持人:我明白了。郝珂靈:然後讓我們來建構替代方案。我並不是說這些技術沒有用處,而是目前專門為了支援這些技術生產而形成的政治經濟體系正在對人類造成巨大傷害。研究表明同樣的能力完全可以通過資源消耗少得多的高效方法開發出來。我們手頭還有許多其他AI系統,它們能以極低成本提供巨大益處。讓我們打破帝國壟斷,開闢出讓所有人廣泛受益的AI發展新路徑。主持人:作為一名CEO、創始人和熱愛技術的人,我常常要在腦海中處理對立的觀點。我認為AI絕對令人驚嘆,它賦予我創造的能力簡直太不可思議了,它能讓我在早上開車時感覺更安全。那十幾億使用ChatGPT等AI工具的人可能會說這為他們的生活增加了價值,我也會投資大量使用AI的公司。但是,我們是否可能在認同其價值的同時,也認為存在重大的意外後果?技術及其發展史本應教會我們停下來討論這些後果。這兩個觀念可以同時存在於腦海中。郝珂靈:是的,我想說這種張力不一定是衝突。我們實際上可以在保留技術益處的同時,以不同的方式開發和設計它們,從而避免意外後果。主持人:這需要一場廣泛的社會討論,這也是我在這檔節目中進行這麼多AI對話的原因,我們需要關注社會和環境影響。這場對話並沒有在政府層面展開,而是發生在行業內部。在過去的幾個月裡,我們一直致力於就這一主題啟發人們的思想。郝珂靈:實際上這在行業之外的各個地方都在發生。地方和州級政府已經有了大量討論。我一直在進行新書巡迴宣傳,去了全球幾十個城市,到處都有人在進行這些至關重要的對話。每場都爆滿,每個人都在糾結同樣的問題。主持人:說到現場爆滿,我知道你等下還有一場演講,所以我們進入本播客的結束傳統問題:你對一位患有絕症的朋友給出的建議,與你自己的做法會有什麼不同?郝珂靈:這是一個非常好的問題。我會告訴他們去享受生活,為自己而活,放輕鬆點。主持人:但你不會這麼做的。郝珂靈:是的,我沒法放輕鬆。主持人:我認為你不放輕鬆是一件好事,因為你正在引領一場至關重要的對話。由於演算法和資訊繭房效應,如今能進行這樣長篇的對話非常罕見且重要。你的新書《Dreams and Nightmares in Sam Alt》推薦給所有對此好奇的人。今天我學到了很多。通過你書中廣泛且客觀的視角、深入的研究,你揭開了故事背後的真相。你顯然將人類利益視為北極星,請繼續戰鬥下去。正是你這樣的人在激勵全世界採取集體行動。強烈建議大家讀一讀這本書,Karen,謝謝你。郝珂靈:非常感謝,Steven。 (劃重點KeyPoints)