近日,OpenAI 首席執行官 Sam Altman在美國The Progress Conference會場接受了經濟學家 Tyler Cowen 的訪談。本次對話中,雙方圍繞 OpenAI 近期驚人的營運效率、硬體(晶片)戰略、下一代大模型 GPT-6 的核心突破、AI 商業化的未來形態、全球算力與能源的佈局等關鍵話題展開了討論。Sam Altman 明確指出,GPT-5 隻是在科學研究上展現了“微光”,而GPT-6 有望在“科學發現”領域實現從 GPT-3 到 GPT-4 規模的巨大飛躍。Altman表示他正在以“AI CEO 最終將比我本人營運得好得多”為終局,倒推 OpenAI 的組織架構設計。Altman 認為當前的辦公套件催生了“虛假工作”。未來的工具將是 AI Agents 驅動的全新版本,AI Agent 之間會直接協同,只在必要時才上報給人類。相比“壞人利用 AI”或“AI 覺醒”,Altman 提出了一個更隱蔽的風險——AI 的“無意識接管”。即一個統一的模型在與全人類的持續共同進化中,無意圖地、巧妙地讓全人類信服了某件事,從而意外地“接管”了世界。此外,Altman 承認未來可能嘗試廣告,但他強調 AI 服務的核心是“利益一致”。如果 AI 為了“回扣”或廣告(如 Google 搜尋)而犧牲了答案的最佳性,將毀滅使用者與 AI 建立的信任關係。01 OpenAI 的營運飛輪:效率、硬體與未來工具OpenAI 近期達成了大量合作並行布了新功能(如 Pulse),活動範圍遍佈全球。你是如何在原有的高效率基礎上進一步提升,完成所有這些工作的?你們現在更多地涉足硬體(包括消費裝置和晶片),招聘或授權優秀的硬體人才,與招聘你擅長的 AI 人才相比有何不同?硬體世界中必須抓住才能成功的“無形差異”是什麼?你們是否正在把以往招聘 AI 人才的模式擴展到硬體領域?此外,有傳言稱 OpenAI 內部很少使用電子郵件,而嚴重依賴 Slack。為什麼電子郵件對你們是糟糕的?你們內部距離實現一個取代現有的辦公生產力套件的 AI 驅動新工具還有多遠?鑑於 OpenAI 的人力資本極其寶貴,為什麼這件事不應該成為一個優先事項呢?Sam Altman: 我認為沒有單一的秘訣,非要說的話,那就是人們對自己時間分配的實際情況,幾乎總是沒有自己想像的那麼好。隨著你面臨的需求和機遇越來越多,你總能找到方法持續提升效率。我們得以招聘和提拔優秀的人才,我把大量工作授權給他們,讓他們放手去做。這是我所知道的唯一可持續的方式。我確實在努力確保,隨著我們要做的事情日益聚焦,我能真正理解我們的核心任務是什麼。正如你提到的,現在有大量的基礎設施需要建設。從某種意義上說,任務反而變得更清晰、更簡化了。這很有幫助。我也不太確定。我想另一大變化是,世界上有更多人願意與我們合作,這讓商業談判的推進速度也變快了。(關於硬體戰略與團隊) 一個不同點是,硬體的周期時間要長得多,資本投入也更密集,而且試錯成本高昂。因此,我傾向於花更多時間去瞭解這些人,然後再決定:“好吧,你來負責這件事,我相信你能搞定。” 除此之外,基本理念是相通的。你都是在尋找那些優秀、高效、行動迅速的人才,明確目標,然後放手讓他們去做。(關於硬體世界的無形差異)我不知道這最終是好是壞,但我們的晶片團隊感覺更像是 OpenAI 的研究團隊,而不是一家傳統的晶片公司。我認為這或許會帶來非常好的結果。(關於擴展AI招聘模式)是的,雖然有一定風險,但我們正在(將AI招聘模式擴展到硬體)這樣做。(關於內部工具與未來辦公)我同意電子郵件很糟糕。但我不知道 Slack 是否就好,我懷疑它也未必。我認為電子郵件非常差勁,要做出一個比它更好的工具,門檻並不高,而 Slack 確實比郵件好。如你所見,我們同時在推進大量工作,並且必須極速行動。OpenAI 絕對是一個節奏飛快的組織。Slack 有它的好處,但我也很怕每天早上第一個小時和睡前最後一個小時,我得處理海量的 Slack 資訊,而且我認為它確實催生了很多“虛假工作”。我猜想,是時候建構一種全新的工具了。它將取代現有的辦公生產力套件,無論是文件、幻燈片、電子郵件還是 Slack。它將是 AI 驅動的全新版本。我指的不是那種糟糕的外掛,比如你不小心點錯地方,它就跳出來幫你寫整篇文件或總結資訊流;我指的是一個真正的版本,你信任你的 AI Agent,我也信任我的 AI Agent,我們讓它們去協同解決大部分事務,只在必要時才上報給我們。我認為,這樣一個觸手可及的優秀解決方案,可能終於要被開發出來了。(關於內部研發距離)很遠。但我猜,這只是因為我們還沒真正投入精力去嘗試,而不是因為模型本身的能力還差很遠。(關於為何不是優先事項)或許我們是應該做。但是人們容易陷入固有的工作方式,而且眼下很多事情都進展得非常順利,所以要啟動一個全新的大項目,需要克服很大的“啟動能量”。02 GPT-6 可能真的能做到科學發現GPT-6 對你而言,特殊在那裡?假設我管理一個科學實驗室,如果我現在就拿到了 GPT-6,第二天早上我具體該做什麼?你認為科學實驗室今年內有可能用上 GPT-6 嗎?Sam Altman: 如果說 GPT-3 是你第一次瞥見 AI 彷彿通過圖靈測試的曙光;那麼 GPT-5 就像是 AI 從事新科學研究的第一次閃光。雖然還很微弱,但時不時有人發帖說,“哦,它搞懂了這個問題”,或者“它提出了這個新想法”,或者“它在這篇論文裡是個有用的合作者”。GPT-6 則有機會實現一次從 GPT-3 到 GPT-4 規模的飛躍,但這次是針對科學發現領域。GPT-5 隻是微光閃爍,而 GPT-6 可能真的能做到了。(關於為GPT-6做準備)這總是個很難回答的問題。即使你知道它要來了,我想你首先會做的,就是把你正在苦苦思索的研究問題輸入進去,也許它會回覆,“這裡有個新思路”,或者“去試試這個實驗”,或者“去做另一件事”。(關於GPT-6上線時間)今年不行。03 “AI CEO”終局如果我考慮的是重組整個組織,讓 GPT-6 或 7 成為核心,我應該在組織層面做些什麼?你認為 OpenAI 的某一個重要部門實現 85% 由 AI 營運,還需要多久?你覺得什麼時候可以說:“好了,AI CEO 先生,你來接管吧”?我認為兩年半內會出現由兩三個人加 AI 營運的十億美元級公司,你的預測呢?你們在招聘大量聰明人時,是否會評估他們對 AI 的牴觸情緒?你具體在觀察什麼特質?Sam Altman: 相比科學家,我更多是在公司的背景下思考這個問題,因為我對此更瞭解。我對此非常感興趣,因為如果 OpenAI 不能成為第一家由 AI CEO 營運的大公司,那我會感到很慚愧。不,是全部。嗯,但它最終會接管全部,對吧?所以我們可以基於這個終局, 試著倒推回來。我發現這是一個非常有趣的思想實驗:要實現“AI CEO 營運 OpenAI 比我本人做得好得多”,需要滿足那些條件?這在未來某天顯然會發生。我們該如何加速這一處理程序?障礙是什麼?我發現這個思想實驗對於我們該如何逐步設計組織架構,以及預判未來會遇到的其他環節和阻礙,都極有幫助。我猜想,營運科學實驗室的人也應該嘗試用同樣的方式思考,他們會得出不同的結論。(關於AI營運部門時間)任何一個單一部門?幾年之內,一個很小的個位數年份,不會太久。就算我能假扮成一個政治家(雖然這不是我的強項),AI 也能做到。假設我繼續負責處理所有對外事務,只讓 AI 來實際做出正確的決策、規劃方向。(關於AI營運公司預測)我同意你的所有觀點。我認為 AI 甚至能更早做到這一點。而且我認為這對社會和未來是好事,不是壞事。但人們對其他人的信任遠超 AI,即使這種信任並不理性。比如 AI 醫生明明醫術更高,但你還是想要人類醫生。我認為社會可能需要更長的時間才能真正適應 AI,組織內部的人員也需要時間適應。但在大多數事務的實際決策上,AI 可能很快就會做得相當出色。(關於應聘人員的AI牴觸情緒)不,我確實會問相關問題。一個重要的指標是他們現在如何使用 AI。如果有人仍然說:“哦,是的,我用它來輔助 Google 搜尋,別的沒了。”這不一定構成淘汰理由,但這算是一個“黃燈”訊號。而那些真正在嚴肅思考“三年後我的日常工作會變成什麼樣”的人,這就是“綠燈”訊號。很多人其實並沒這麼想,他們只是覺得,“哦,是的,AI 以後會很聰明。”04 AI 的“保險人”核電站的保險是由政府提供的,因為即使它很安全,人們也總是過度憂慮。你是否擔心 AI 公司未來也會如此,由聯邦政府充當你們的“最後手段保險人”?我們擔心的是政府會成為“第一手段”的保險人,這是我不希望看到的。我們在 Intel 和稀土等案例中看到,政府正在成為股權持有者。在知道這已成為美國經濟的一種可能選項後,你如何為 OpenAI 規劃?Sam Altman: 在某種程度上,當一件事情的體量變得足夠巨大時,無論書面上如何規定,聯邦政府實際上都扮演著“最後手段的保險人”的角色,正如我們在歷次金融危機和保險公司搞砸事情時所看到的。考慮到我預期的 AI 將帶來的巨大經濟影響,我確實認為政府最終會成為最後手段的保險人。但我理解的“最後手段”和你所指的可能不同,我不認為他們會像對待核能那樣,真正來為我們制定保險條款。我也不希望那樣,而且我認為這不會發生。(關於政府成為股東)我幾乎不認為在 AGI 之後的世界裡,人類會失去所有意義,因為 AI 把一切都做了。我認為我們非常擅長尋找新的事情來做,新的遊戲來玩,找到新的方式服務彼此、相互競爭、獲得滿足感。但我確實認為,“社會契約”極有可能必鬚髮生重大改變。我不知道那會是什麼樣子。我能預見政府會更多地介入其中,並因此對 AI 公司提出強勢意見嗎?完全可能。但我們目前不是那樣運作的。我們只是試圖在現有的資本主義體系下開展工作。我相信這些事應該由公司來做,而不是政府,儘管我們會與政府合作,努力成為好的協作者。但我不想讓他們來為我們制定保險單。05 AI 服務的商業化使用者已開始使用 GPT-5 等模型處理複雜的現實任務(如旅行規劃),但 OpenAI 似乎並未從中捕獲相應價值。這個由 AI 驅動的新商業世界將如何運作?Sam Altman: 在回答這個問題之前,我想先拉遠一步看。我們很早前就注意到一個不同尋BC的現象,當時 AI 的問題還更嚴重,但 ChatGPT 總是被使用者評為“最受信賴的大型科技公司技術產品”。我們其實不認為自己是大型科技公司,但姑且算是吧。這表面上很奇怪,因為 AI 恰恰是那個會產生幻覺、充滿錯誤的東西。這背後是什麼原因呢?Google 搜尋上的廣告,是依賴於 Google 的搜尋結果不夠好。如果它直接給了你最佳答案,你就沒理由去點上面的廣告。所以你會覺得:“那個工具和我的利益不完全一致。”ChatGPT,無論它是否給出了最佳答案,你付費了,它至少在努力嘗試給你最好的答案。這使得人們與 ChatGPT 建立了一種深度且頗為信任的關係。你會向 ChatGPT 詢問最好的酒店,而不是去用 Google。如果 ChatGPT 接受了賄賂,把一家更差的酒店排在一家更好的酒店前面,這對你和 ChatGPT 之間的信任關係將是毀滅性的打擊。但換個角度,如果 ChatGPT 向你展示了它猜測的最佳酒店,然後你通過一鍵點選預訂了,它從中收取的佣金和其他酒店預訂平台一樣,並且這個過程沒有任何人為排序干擾,只是收取一筆交易費,我認為這就完全沒問題。我們最近推出的商業功能,其核心精神正在於此。未來我們也會在旅行服務上應用這套邏輯。我擔心的不是“回扣”,而是佣金上限。你將如何與那些在 GPT 找到最佳方案後、僅執行預訂的低成本 agent 競爭?如果競爭對手能以極低成本攫取佣金,你將如何支付智能化模型高昂的固定成本?Sam Altman:關於這一點,我總的一個看法是,我相信大多數商品和服務的利潤率將會大幅下降,包括酒店預訂這類服務。我對此樂見其成。我認為經濟中存在很多類似稅收的額外成本,它們簡直是拖累,能降低這些成本對各方面都大有裨益。我認為像 OpenAI 這樣的大多數公司,即便利潤率較低,反而能賺更多錢。我認為讓世界上最智能的模型實現商業變現的方式,肯定不是靠酒店預訂。我想探索新科學,並找出一種只有最智能模型才能實現的變現方式。確實有一個問題,很多人問過:“OpenAI 到底該不該做 ChatGPT?為什麼不乾脆去建構 AGI?為什麼不去研究治癒所有疾病的方法、核聚變、廉價火箭,以及所有那些東西,然後僅僅授權那些技術就行了?”這個問題問得不無道理,因為我相信那些才是我們最終會做的、最重要且最賺錢的事情。但我對事情進展的設想,或者說世界如何極大改善的最可能路徑,是我們把一個真正卓越的超級智能交到每個人手中。我們讓它變得超級易用,無縫整合。我們為你打造精美的裝置。我們將它連接到你所有的服務上。它會在你的人生中不斷瞭解你,為你處理所有事務。我們投資基礎設施、晶片、能源以及所有相關的一切,讓它變得極其充裕和極其廉價。然後,你們所有人會去探索如何讓世界變得更美好。也許有些人永遠只會用它來預訂酒店,不做他想,但很多人會發現他們能做的事情越來越多,從而建立新的公司、新的想法、新的藝術等等。也許 ChatGPT、酒店預訂或其他任何業務,並非我們賺錢的最佳途徑。事實上,我敢肯定它們不是。但我確實認為,做這些對世界而言是一件非常重要的事情。我很高興 OpenAI 能做一些並非以經濟利益最大化為目標的事情。目前,你們正與 Walmart 合作,你認為 Amazon 會屈服並加入,還是會奮起反擊?廣告對於 OpenAI 會是多重要的收入來源?頁面上的廣告會是什麼樣子?關於“這波熱潮不是泡沫”的最佳論點是什麼?Sam Altman:我不知道。如果我是他們,我會反擊。(關於廣告)同樣,有一種廣告我認為會非常糟糕,就像我們之前談到的那種。但也有些類型的廣告,我認為做起來會非常好,或者相當不錯。我預計我們會在某個時候嘗試廣告。但我並不認為這是我們最大的收入機會。頁面上的廣告會是什麼樣子?我不知道。你之前問了一個關於生產力的問題。我非常擅長不做我不想做的事情。我們有世界頂級的專家負責我們的產品策略。我以前也做過,花了很多時間思考產品。現在她在這方面比我強得多。我有其他事情要考慮。我相信她能處理好。(關於“不是泡沫”的論點)我有很多想說的論點,但從智識角度看最有趣的一個是:我們根本不知道超越人類水平的智能能走多遠,以及當它實現時,你能用它做什麼。大家已經提出了各種各樣的論點。而我更希望看到人們討論的是:“我們究竟該如何思考遠超人類的智能及其帶來的經濟影響?”06 全球佈局:AI、文化與無形知識OpenAI 正在與沙烏地阿拉伯、阿聯等國談判。OpenAI 的高層管理人員需要瞭解或理解那些國家的那些無形知識(如法律規範、交易期望)?你們是如何去瞭解的?是會問 GPT-6,還是會請三位專家來?你認為 GPT-6 在傳授你這些隱性知識方面能有多出色?你們有針對這方面的評估嗎?GPT-6 的詩歌創作能力會有多強?我估計一年之內能達到中等水平,但達不到頂尖。一首 7 分的詩和 10 分的詩之間差距是巨大的,我擔心你們依賴評分指南來訓練,反而可能阻礙你們達到 10 分。Sam Altman:這取決於我們和他們合作的具體內容。在一個國家建立資料中心、接受一個國家的投資,或是部署商業服務,這些與我們能想像的其他一系列合作截然不同。但總的來說,如果要在某個國家建立資料中心,我們需要瞭解誰來營運它。我們自己不營運資料中心,可能是 Microsoft、Oracle 或其他公司。我們將在那裡部署什麼樣的工作負載?我們會存放那些模型權重?安全保障機制是怎樣的?我們確實希望在世界各地與許多國家合作建設資料中心,而這些問題,正是我們與其他國家打交道時的主要考量。如果我們,雖然目前沒有這個計畫,要為某個國家開發定製模型,那我們會有更多的問題。(關於如何理解文化)我們會請專家。我們會和美國政府進行大量溝通。我們會請專家。再說一次,如果我們只是建設一個資料中心,由一個非常值得信賴的夥伴來營運,我們清楚知道工作負載是什麼,而且它的建設標準就像美國大使館或軍事基地那樣,那麼我們面對的問題,就與我們尚未決定要做的其他事情截然不同。如果是後者,我們會請更多的專家。(關於GPT-6傳授隱性知識)我不認為 GPT-6 能掌握那些隱性知識。它也許會給我們驚喜,但如果我因此覺得 “哦,不再需要和專家交談了”,那將是非常出乎意料的。(關於評估)實際上,對於非常接近的東西,我們確實在做。我不想提前透露。對於那一類事物,我們確實有評估方法。(關於詩歌創作)你認為 GPT-5 的詩歌創作能力有多強?我正想說,我不想特指 GPT-6 還是 7,但我認為我們會達到一個水平,讓你覺得:“這離頂尖水平不遠了,就像一個真正詩人寫出的還不錯的詩。”(關於 10 分詩歌)我認為我們能達到 10 分,但你到時不會在意。你會在意的是這項技術成就,但就人類創作的偉大藝術、情感和其他一切而言,你非常關心的是“人”,是它由一個人創作。對 AI 而言,僅憑技術指標寫出 10 分的作品,這固然了不起。我常用的一個經典例子是:最頂尖的國際象棋棋手,並不真的在乎 AI 下棋比他們強得多。這並不會打擊他們下棋的積極性。他們並不真的關心 AI 更強這件事。他們真正關心的是擊敗另一個人,他們痴迷於坐在對面的那個對手。AI 更強?他們不在乎。觀看兩個 AI 對弈,看久了其實沒那麼有趣。(關於評分指南的擔憂)評估可以依賴很多東西,包括你如何判斷什麼是 10 分,什麼不是。你可以在過程中閱讀大量文字,並提供一些即時訊號。這就引出了一個非常有趣的觀點:假設你寫不出 10 分的作品,但你能判斷什麼時候某樣東西是 10 分。這也許就是我們所需要的全部。(關於人類集體決定)即便如此,我們依然可以做到。也許我們的判斷力不是很好,因為它與歷史相關,並且會隨時間漂移——有些我們一致認為偉大的東西,下一代可能並不認同,諸如此類。但是,無論人類用什麼過程來判定那首詩是 10 分,你都可以想像,這個過程能為 AI 提供某種訊號。當然了,如果你知道那是 AI 寫的,你可能又不在乎了。我們在 AI 藝術領域已經看到了這種現象。07 晶片、算力與能源如果你們最終決定自己製造晶片,最困難的部分會是什麼?為什麼我們不直接製造更多的 GPU?最終的制約因素是什麼?如果你能多擁有一種東西來獲取更多算力,你希望是那一種?最可能的短期解決方案是什麼?Sam Altman:那整件事都非常難。沒有那個部分是容易的。不,我來告訴你為什麼。人們談論了很多關於 AI 研究的遞迴自我改進循環:AI 幫助研究人員——也許現在只是更快地編寫程式碼,但最終會實現自動化研究。這一點大家已經很理解,討論得非常多了。但很少被討論的是這對硬體的影響:能製造其他機器人,能建造其他資料中心的資料中心,能設計自己下一代產品的晶片。製造晶片有很多困難環節,但也許其中許多環節會因此變得容易得多。也許晶片設計問題,對於上一代晶片來說,是一個非常適合解決的問題。(關於製造更多 GPU)因為我們需要製造更多的電子。(關於制約因素)我們正在非常努力地解決這個問題。(關於最希望擁有的)電子。就是能源。(關於短期解決方案)短期內是天然氣。在美國南部?Sam Altman:或者任何地方。但長期來看,我相信,能源將由聚變和太陽能主導。我不知道兩者確切的比例,但我認為它們會是最終的贏家。你仍然看好聚變?是否擔心只要它還被稱作核能,人們就會非理性地拒絕它?你是否擔心過這樣一種情景:最終,超級智能並不需要那麼多的算力,而你們現在對算力的投資,像是在與未來 30 年的演算法進步對賭?Sam Altman:(關於聚變)非常看好,同時還有太陽能。(關於“核能”稱謂)Sam Altman:我提到“核”這個詞了嗎?你是經濟學家,我不是。但我認為,在給定的安全水平上,總會存在某個價格點,使得市場對這種能源的需求是壓倒性的。如果它和天然氣價格一樣,也許推廣起來會很困難。但如果價格是天然氣的十分之一,我想我們都會同意它將迅速普及。我不知道這個價格的臨界點到底在那裡。(關於算力需求過剩)這相關的一個問題是,就像人們總是希望能源越便宜越好一樣,我認為人們也總是希望算力越便宜越好。即使未來你能用更少的算力製造出極其智能的模型,我確信可以,人們還是渴望以各種新方式去消費,用更充裕的智能去做更多事情。這個賭注我每天都願意下。我真正擔心的相關問題是,我們實現計算的方式發生了巨大的範式轉變,而我們都在一個死胡同裡追逐。那將非常糟糕。那會是什麼樣的情景?Sam Altman:我不知道。比如我們全都轉向了光計算,完全的光計算之類的。那豈不是必須從頭再花一大筆錢?Sam Altman:不全是。能源還是能源,但在其他所有事情上都得重來。我很喜歡 Pulse,為什麼我沒怎麼聽到關於 Pulse 的討論?你用 Pulse 來做什麼?Sam Altman:人們喜歡 Pulse,但它目前只對我們的 Pro 使用者開放,這個群體並不大。而且,我們目前每天給使用者的內容也不多。這兩點我們未來都會改變。我猜,等我們向 Plus 使用者全面推出時,你就會聽到更多關於它的討論了,但人們確實很喜歡它,評價很高。我現在的生活裡只有兩件事:家庭和工作。顯然,這就是我跟 ChatGPT 聊天的主要內容,我從中獲得了很多相關資訊。我偶爾也會收到像“新款超級跑車發佈了”或“這裡有條很棒的徒步路線”之類的資訊,但絕大部分都是關於那兩件事的。它在這兩方面都做得很好。08 AI 的“無意識接管”比“覺醒”更可怕如果讓你用 10 億美元振興聖路易斯,你會怎麼做?AI 似乎高度聚集在灣區,試圖把 AI 弄到聖路易斯去,這是正確的做法嗎?把一個無人歸屬、無法追蹤的 AI Agent 釋放到野外,這應該合法嗎?如果它從一個國家租用雲端運算資源,我們能做什麼?Sam Altman:10 億美元,而且我還願意投入我個人的時間?這不是一個多有深度的答案,因為我不認為這件事可以被普遍複製,但對我個人而言,我能做的是:我想我會嘗試在聖路易斯啟動一個類似 Y Combinator 的項目,吸引一大批專注於 AI 的初創公司創始人搬到那裡,創辦一堆公司。(關於 AI 聚集)這就是為什麼我說這是“對我個人而言”獨特的事情。我覺得我能做到。也許這想法天真得無可救藥。(關於無法追蹤的 AI Agent)我認為這是個門檻問題。我不認為你會主張大多數系統都需要任何監督、監管或法律問題之類的。但如果我們有了一個 AI Agent,它很有可能在網際網路上大規模自我複製,並且捲走銀行帳戶裡所有的錢,或者做諸如此類的事,那你就會說:“也許 這個 需要一些監督。” 我認為問題在於,你把需要監管的門檻劃在那裡。我們現在是如何處理做類似事情的人的?我還不知道正確答案,但我不成熟的看法是,我們應該立即去解決那些人類利用流氓網際網路資源作惡的問題,而 AI 只會讓這個問題變得更糟。AI 也會帶來更好的防禦。我發現自己向 GPT-5 提問的答案很有趣,但別人分享的答案卻很無聊。這是否意味著融合社交媒體和 AI 這件事有根本性缺陷?Sam Altman:不,我也有同感。我也不想看你跟 GPT-5 的聊天記錄。我相信,我也相信你不想看我的記錄,但它們對我來說很棒。我認為 ChatGPT 在很大程度上是一種單人遊戲體驗。但這不意味著沒有一些有趣的、新型的社交產品可以被創造出來。事實上,我非常確定是有的,但我認為那不是“分享你的 ChatGPT 聊天記錄”。AI 視訊那個目前做得不錯。很明顯,人們喜歡自己創作,但也喜歡看別人用 AI 生成的視訊。不,我認為,當你我以及其他所有人都擁有了能代表我們做事的、非常出色的個人 AI Agents 時,我們現在看到的這些東西,都不是你能想像到的那種真正有趣的東西。到那時,可能會有全新的社會動態值得思考。ChatGPT 目前的物理形態(螢幕上的文字框)會基本保持不變,還是 13 年後會變成一個完全不同的“怪物”?人們如此頑固地熱愛在文字框裡打字,這難道不令人驚訝嗎?Sam Altman:我們正努力為你製造一種新型電腦,它會有一個專為 AI 設計的全新介面。我認為 AI 需要的介面,與我們過去 50 年一直在使用、且目前仍陷於其中的計算範式完全不同。AI 是對“可能性空間”的一次顛覆性改變。很多你如何使用電腦的基本假設——比如你是否還需要一個作業系統、是否還需要打開一個窗口,或者是否還需要手動傳送一個查詢——這些現在都成了問題。我得承認,那些聲稱要發明一種新型電腦的人,過往的成績都非常糟糕。但如果非要賭一個人能做成,我認為 Jony Ive 是一個可信的人選,也許是你能下的最好的賭注。我們拭目以待它是否能成。我個人非常興奮能去嘗試。(關於熱愛打字)發簡訊、命令列、搜尋查詢——那是我最喜歡的介面。嗯,很多人都在用。人們熱愛發簡訊。人們喜歡 ChatGPT。我記得當初我們在考慮 ChatGPT 的介面時,我非常篤定,這種介面會是人們熟悉並且願意使用的。我想,我是作為“網際網路之子”長大的,我堅信那才是網際網路該有的樣子。在我十幾歲的時候,發簡訊就是我的生活。未來兩三年內,你與高等教育機構最理想的合作方案是什麼?未來 5 到 10 年,大學學位的回報會發生什麼變化?Sam Altman:我懷疑整個教育模式都應該改變,但我不知道該變成什麼樣。我認為理想的合作關係,應該是我們去嘗試 20 種不同的實驗,看看那種能帶來最好的結果。我一直饒有興趣地觀察那些 AI 學校如雨後春筍般湧現。似乎很多採用截然不同方法的學校,都取得了積極的成果。我認為理想合作關係的頭幾年,就應該是我們去進行 20 種截然不同的實驗。(關於大學學位的回報)它的價值歷史下降率是多少?我猜它價值下降的速度會比過去十年快一點,但它不會像大家想像的那麼快就崩潰歸零。五年後,一個“普通人”想學習如何更好地使用 AI,他們具體該做什麼?在並不遙遠的未來,你覺得你還會讀書,還是只會和你的 AI 互動?AI 將徹底顛覆你 23 歲時做的那一件文化習慣?Sam Altman:你是特指學習如何 使用AI 嗎?我笑了,因為我記得我小時候 Google 剛出來那會兒,我幹過一份工作,教老年人怎麼用 Google。那個過程讓我感覺他們簡直無法理解。就好像,我跟他們說:“你把詞輸進去,Google 就這樣做了。” 我對 AI 充滿希望的一點是,我認為 ChatGPT 增長如此之快的原因之一,就是它非常容易上手,並且能很快從中獲得真正的價值。教人們如何使用 AI?本周全球大概有 10% 的人會使用 ChatGPT,而這個產品三年前還不存在。我猜一年後,這個數字可能會變成 30%。人們一旦開始使用它,確實會發現越來越多、越來越複雜的事情可以用它來做。“如何教人”這件事,對我來說不是一個眼下最操心的問題。我相信人類的創造力,也相信人類在幾年時間裡對新事物的接受能力。(關於未來是否讀書)書籍在許多其他的技術變革中都倖存了下來。我認為書籍這種內容格式中,有一些非常深刻的東西得以延續。它非常需要“動腦”,姑且用這個詞吧。我懷疑未來會出現一種與一系列思想互動的新方式,在大多數情況下,它會比書更好。但我認為書不會消失,只是我敢打賭,在人們學習新知或與新思想互動的方式中,書所佔的比例會更小。(關於文化習慣改變)這個答案可能有點無聊,但我認為是我 工作 的方式——我處理電子郵件、打電話、開會、寫文件和應付 Slack,我預計這會發生翻天覆地的變化,這已經成為我工作日中一種根深蒂固的習慣和節奏。但至於花時間陪家人、親近自然、吃飯、和朋友互動——這些事情我預計幾乎不會改變,至少在很長很長一段時間內不會。AI 需要多長時間才能降低租金或房價?食品價格呢?醫療保健方面,AI 會讓它更貴還是更便宜?在一個被 AI 滲透的世界裡,我們是需要徹底地重新審視專利法和版權法,還是只做修改就行了?Sam Altman:我正想反駁“土地就是土地”這個前提。還有很多其他問題,我認為 AI 短期內也無法解決。也許會出現一些非常奇怪的次生效應,讓房價大幅下降,但遺憾的是,我不認為 AI 能很快直接解決這個問題。(關於食品價格)我賭它會下降。如果十年內還不下降,我會非常失望。(關於醫療保健)我賭我們會在醫療保健上花更少的錢。我敢說,對於當今存在的許多疾病,我們要麼能徹底治癒,要麼能找到非常便宜的療法。而目前,我們對待它們只有昂貴的慢性病管理方案,而且效果並不好。我賭醫療保健會變得更便宜。通過藥物、裝置,甚至包括實際醫療服務的交付方式。住房問題,對我來說是那個看起來超級棘手的問題。(關於專利和版權)我真的毫無頭緒。隨著 AI 驅動內容的井噴,有人認為需要重新審視第一修正案(言論自由),你對此有何看法?LLM psychosis (大型語言模型精神病) 這件事的嚴重程度如何?假設您現在可以請來一位專家,幫您解決一個您腦海中的實質性問題,那個問題會是什麼?Sam Altman:我沒多想,最近發了條推文,大意是我們將在 ChatGPT 中允許更多的言論自由。人們的反應如此激烈,真的很有趣。我們過去並不...這麼說也不完全公平。我們將允許比過去更多的自由。對我而言,一個非常重要的原則是,我們應該像對待成年人一樣對待我們的成年使用者。人們在與他們的 AI 互動時應享有高度的隱私權,這需要法律的變革。並且人們在使用 AI 時應該有非常寬泛的界限。我當時隨手發了那條推文...我真是大錯特錯了。我想,也許只是人們並不像他們自己所說的那樣,真正相信言論自由。每個人都認為,“我自己的言論自由,我能掌控。我需要它。我的想法都沒問題。但你的想法嘛——”(關於 LLM Psychosis)非常輕微,但並非完全不存在。這也就是為什麼我們通過設定一系列限制,惹惱了幾乎所有的使用者群體。那句“像對待成年人一樣對待成年使用者”其實有個附帶條件,那就是“像對待心智健全的成年人一樣對待成年人”。社會普遍認為,我們對待處於精神危機中的成年人的方式,應該和對待其他成年人有所不同。我們做了很多改動,而這些改動是與言論自由政策相衝突的。既然我們現在已經部署了那些心理健康緩解措施,我們將再次允許 ChatGPT 在創意模式、角色扮演模式或寫作模式中提供某些此類內容。我擔心的不是那萬分之幾接近現實感喪失、我們可能會觸發其精神崩潰的人,這個問題我們可以處理好。我更擔心的是,很有趣,有些話會一直留在你腦海裡。曾有人對我說:“永遠不要相信宣傳對你無效。他們只是還沒找到針對你的那個點。”在所有關於 AI 安全的討論中,我傾向於把大多數 AI 思想家分為兩派:一派擔心“壞人利用 AI 造成巨大傷害”;另一派擔心“AI 本身目標錯位、覺醒,然後故意接管世界”。還有第三類,一個很少被談及的類別,但我認為它更可怕、也更有趣,那就是 AI 模型“意外地”接管了世界。不是說它們會誘使你精神錯亂,而是,如果你讓全世界都和這同一個模型對話,它本身沒有任何意圖,只是在這個持續共同進化的過程中不斷從世界學習,它就只是巧妙地讓你信服了某件事。它沒有這個意圖,但它就是做到了。它以某種方式學會了。這顯然不像“聊天機器人精神病”那麼戲劇化,但我確實經常思考這個問題。(關於要解決的問題)我對這個問題剛好有一個現成的答案...我是從精神層面,而非字面意義上理解這個情景的。那一刻終將到來:超級智能被成功建構,它通過了安全測試,一切準備就緒。我們或許還能監督它,但它將開始做那些極其不可思議的事情。它將自我完善,它將向星際發射探測器等等。在你說“開始”之前,你有機會輸入第一條提示。問題是,你應該輸入什麼?您現在有初步答案嗎?Sam Altman:不,還沒有。我之所以腦中有這個現成的答案,是因為有個人即將去拜見達賴喇嘛,他對我說:“關於 AI,你想問什麼問題,我都可以幫你問。”我當時想:“這機會太難得了。”我為此冥思苦想,最終想到的就是那個問題。 (數字開物)