#奧特曼
奧特曼砸場發佈 GPT-5.4!網友:一句 Hi 燒掉 80 美元
每次打開 AI 工具,你大概都要先想一秒鐘:這個任務,該用那個模型?寫程式碼是一個,查資料是另一個,讓 AI 幫你操作電腦,還得再開一個窗口。今天過後,這種分裂感終於有了一個答案。就在剛剛,OpenAI 正式發佈 GPT-5.4,把程式設計、推理、電腦操控、網頁搜尋和百萬 Token 上下文全部整合進同一個模型,且沒有為了整合而犧牲任何一項的能力。OpenAI CEO 山姆·奧特曼也在 X 平台發了一條簡短推文,點出了五個方向:知識工作更強、網頁搜尋更出色、原生電腦操控、支援百萬 Token 上下文、響應過程中隨時可介入。寥寥數語,對應的恰好是過去兩年 AI 應用落地中最集中的五個痛點。知識工作:十次有八次,AI 贏了專業人士理解 GPT-5.4 在知識工作上的進步,需要先瞭解 GDPval 這個基準的設計邏輯。它橫跨美國 GDP 貢獻最大的 9 個行業、44 種職業。任務是那些職場裡每天真實發生的工作:給投資銀行寫財務模型、給醫院排急診班次、給銷售團隊做簡報。任務完成後,把輸出結果交給行業內的真實從業者盲測打分,看 AI 的產出能贏過多少比例的人類同行。GPT-5.4 的答案是 83.0%,意味著十次對比中有八次以上,行業專業人士認為 AI 的產出達到或超過了人類同行水準。上代 GPT-5.2 是 70.9%,差距將近 13 個百分點。進步在電子表格建模上表現得最為具體。GPT-5.4 模擬初級投行分析師完成建模任務,平均得分 87.3%,GPT-5.2 是 68.4%,GPT-5.3-Codex 是 79.3%,差距將近 20 個百分點。法律平台 Harvey 的 BigLaw Bench 測試結果同樣亮眼,GPT-5.4 得分 91%,專業服務評測平台 Mercor 的 APEX-Agents 基準中也拿下了第一。精準性方面同樣值得關注。幻覺問題一直是 AI 進入專業場景最大的攔路虎,每降低一個百分點,都意味著更多場景可以放心用它。資料顯示,與 GPT-5.2 相比,GPT-5.4 單條陳述出錯的機率低了 33%,完整回覆含有錯誤的機率低了 18%。程式設計:一個模型,寫程式碼測程式碼全包了GPT-5.4 把 GPT-5.3-Codex 的程式設計能力整合進主線,對開發者來說,這意味著你不再需要為了寫程式碼單獨開一個模型,而且程式設計能力本身也沒有因此打任何折扣。SWE-Bench Pro 專門測試真實軟體工程任務,GPT-5.4 得分 57.7%,GPT-5.3-Codex 是 56.8%,GPT-5.2 是 55.6%。整合之後,程式設計分數不降反升,同時還順帶獲得了電腦操控等一整套通用能力,幾乎找不到明顯的弱點。知名 AI 評測博主 Dan Shipper 試用後寫道:「這是我們最近一段時間裡見過 OpenAI 最出色的規劃能力,程式碼審查也很強,而且成本大約只有 Opus 的一半。」他點出了兩個具體維度。其一,規劃能力是長任務成敗的關鍵,GPT-5.4 在任務拆解和持續推進上明顯更有條理。其二,與 Claude Opus 相比約一半的成本,對需要大規模 API 呼叫的開發者來說,這個差距在帳單上會非常直觀。開啟 Codex 中的 /fast 模式後,可使 GPT‑5.4 的 token 生成速度提升最高 1.5 倍,使得使用者可以在編碼、迭代和偵錯過程中保持流暢的工作狀態。與此同時,新推出的實驗性功能 Playwright Interactive 把 GPT-5.4 的程式設計體驗又推進了一步。GPT-5.4 在建構 Web 或 Electron 應用時,能夠通過可視化瀏覽器進行即時偵錯,模型可以邊寫程式碼、邊測試自己正在建構的應用,同時承擔開發者和測試員兩個角色。OpenAI 展示了一個典型案例:僅憑一條輕量提示詞,GPT-5.4 生成了一個完整的等距視角主題公園模擬遊戲,涵蓋基於瓦片的路徑鋪設與景點建設系統、遊客 AI 尋路與排隊行為,以及資金、遊客數、滿意度、清潔度四項指標全部即時動態更新的綜合評分。Playwright Interactive 在整個過程中承擔了多輪自動化測試,驗證路徑鋪設、攝影機導航、遊客響應及 UI 指標的正確性。從寫程式碼到測試驗收,模型全程自己完成。博主 Angel 同樣用 GPT-5.4 寫了一個 Minecraft 克隆版,模型花了約 24 分鐘,運行流暢,過程中沒有卡住。他在推文裡寫道「Minecraft 基本上被攻克了,我現在得找個新測試了」。沃頓商學院教授 Ethan Mollick 同樣獲得了早期存取權。他用同一條提示詞,讓 GPT-5.4 Pro 生成了一個受《皮拉內西》啟發的三維空間場景,全程沒有報錯,只額外追加了一句「把它做得更好」的指令。他隨後把結果和兩年前 GPT-4 生成的版本並排放在一起,差距一眼可見。操控電腦這件事,它現在比你做得好這是 GPT-5.4 這次發佈裡最值得單獨說一說的變化。此前 OpenAI 的電腦操控能力是一個獨立模組,跟模型的語言理解、程式碼生成之間有一道明顯的分隔。兩套系統各管各的,資訊要來回傳遞,效率自然打折。現在這道分隔沒了,GPT-5.4 操控電腦時,用的就是模型本身的推理能力,不需要再繞一圈。這也是 OpenAI 第一款將電腦使用(computer use)能力原生內建進通用模型的產品,以後談 AI Agent,相信這會是一個新的起點。基準測試結果顯示,OSWorld-Verified 基準測試桌面導航能力,用截圖加滑鼠鍵盤互動完成真實作業系統任務。GPT-5.4 達到 75.0% 的成功率,人類基線是 72.4%,GPT-5.2 是 47.3%。簡言之,它不僅追上了人類,還超過了人類。在只用截圖模式測試瀏覽器操控的 Online-Mind2Web 基準中,GPT-5.4 達到 92.8%,對比對象 ChatGPT Atlas 的 Agent Mode 是 70.9%,真實部署案例更能說明問題。Mainstay 將 GPT-5.4 用於約三萬個物業稅務入口網站的自動表單填寫,首次成功率達 95%,三次以內成功率 100%,而此前同類模型僅在 73% 至 79% 之間。會話完成速度提升約三倍,Token 消耗降低約 70%。這背後繞不開視覺感知能力的改進。操控電腦說到底是一件需要「看清楚」的事——看清楚介面上有什麼、按鈕在那裡、點選是否精準。GPT-5.4 在這一層做了專項加強,引入了原始圖像(original)輸入模式,支援最高 1024 萬像素或 6000 像素最大邊長的高保真圖像輸入;原有的高畫質(high)模式上限也從此前的標準提升至 256 萬像素或 2048 像素最大邊長。工具呼叫與網頁搜尋:持續性是核心競爭力一個複雜的 AI Agent 系統,背後可能掛著幾十個 MCP 工具。過去的做法是每次對話開始前,把所有工具的說明一股腦塞進去,不管這次用不用得上,Token 先花了再說。GPT-5.4 換了個思路:先給模型一份簡單的工具清單(即引入工具搜尋機制),真正需要用那個,再去把那個工具的詳細說明取過來,用過一次的還能直接快取,下次不用重新拿。在 250 項任務的測試中,啟用 36 個 MCP 伺服器的完整配置下,工具搜尋模式在保持精準率完全不變的前提下,將總 Token 消耗降低了 47%。將近一半的成本節省,精度一點沒少。網頁搜尋方面,GPT-5.4 在 BrowseComp 基準上得分 82.7%,比 GPT-5.2 的 65.8% 高出 17 個百分點,Pro 版更達到 89.3%,創下業界最高分。Zapier CEO 評價說,GPT-5.4 會在其他模型放棄的地方繼續搜尋下去,是他們測試過持續性最強的模型。百萬 Token 上下文:長長長長長長GPT-5.4 在 API 中支援最高 100 萬 Token 的上下文窗口,相當於可以把一個完整項目的所有相關文件一次性塞進同一次對話。但從測試結果來看,128K 至 272K 是表現最穩定的區間,適合日常使用。256K 以上準確率開始下滑,需要針對具體任務驗證後再用。512K 至 1M 區間的得分降至 36.6%,目前更接近實驗性質,不適合直接用於對精度要求高的生產任務。還有一個實際的成本問題需要注意:超過 272K 的請求會按兩倍用量計入配額。也就是說,發一次超長上下文的請求,額度消耗等於兩次普通請求,用之前值得想清楚是否真的需要這麼長。至於在視覺抽象推理基準 ARC-AGI-2 上,GPT-5.4 Pro 得分 83.3%,而上代 GPT-5.2 Pro 僅為 54.2%。再比如 FrontierMath Tier 4 是目前公認最難的數學基準之一,包含 50 道研究等級的數學題,人類數學家可能需要數周才能解出。GPT-5.4 Pro 在這個基準上得分 38.0%,上代為 31.3%。這個數字的參照系是:一年前,最好的成績是 o3 的 2%,目前最好的開源模型是 4.2%。博主 Deedy 在推文中寫道,從 2% 到 38%,「簡直令人震驚」。Humanity's Last Exam 有工具輔助時,GPT-5.4 Pro 得分 58.7%,GPT-5.2 Pro 是 50.0%,差距接近 9 個百分點。執行中調整,不是完成後返工用過 AI 處理長任務的人大概都有過這種體驗:等模型跑完一大段,發現方向不對,只能從頭再來,時間全浪費了。GPT-5.4 Thinking 在 ChatGPT 中新增了一項「中途打斷」功能:在處理複雜任務之前,模型會先呈現工作計畫概要,再開始執行。使用者可以在執行過程中隨時介入調整方向,不必等到結果出來再從頭重來。這個功能把糾偏這件事從「完成後」提前到了「執行中」,對需要多輪協作的任務來說,體驗差別會比較明顯。功能目前已在 chatgpt.com 和 Android 應用上線,iOS 版本即將跟進。即日起,GPT-5.4 向 ChatGPT Plus、Team 和 Pro 使用者開放,替代 GPT-5.2 Thinking 成為默認思考模型。GPT-5.2 Thinking 將保留至今年 6 月 5 日後正式退役。Enterprise 和 Edu 使用者可由管理員在後台開啟早期訪問,GPT-5.4 Pro 僅對 Pro 和 Enterprise 計畫開放。API 標準版定價為輸入 2.50 美元/百萬 Token,快取輸入 0.25 美元/百萬 Token,輸出 15 美元/百萬 Token。Pro 版為輸入 30 美元/百萬 Token,輸出 180 美元/百萬 Token。Batch 和 Flex 處理享標準價格五折,Priority Processing 為兩倍標準價格。當然,強大的推理能力也有它的另一面。Hyperbolic 聯合創始人金宇晨在 X 平台吐槽,GPT-5.4 Pro 是他用過最愛「過度思考」的模型——僅僅發了一句簡單的「Hi」,模型就開始認真推理,直接燒掉了 80 美元。這並非個例。推理模型的特性決定了它在處理任何輸入時都傾向於深度思考,那怕問題本身根本不需要。對於日常輕量任務,標準版或許是更合適的選擇;Pro 版的推理火力,還是留給真正值得的場合更划算。過去兩年,AI 能力的討論主要集中在基準測試成績上的「聰明」,但 GPT-5.4 的聰明指向的是能夠在真實工作流中,足夠可靠地承擔責任。過去 AI 只能輸出文字,人還需要親自操作才能讓事情發生。現在模型可以自己打開瀏覽器、填寫表單、點選按鈕、記錄結果,獨立完成一個有頭有尾的任務閉環。AI 正在從一個擅長回答問題的系統,變成一個擅長完成任務的系統。而這個轉變的速度,顯然比大多數人預期的更快。 (APPSO)
OpenAI奧特曼回應“牽手”五角大廈
OpenAI正面臨巨大的輿論壓力,Anthropic的Claude在蘋果App Store的排名一度超過ChatGPT。剛“牽手”五角大廈,OpenAI首席執行長山姆•奧特曼在社交平台上回應相關提問時承認,與美國國防部的協議“絕對是倉促敲定的”,且“外界觀感並不好”。奧特曼辯稱,此舉旨在緩解五角大廈與AI公司之間日益緊張的關係。針對提問:“為什麼這麼急著(與美國國防部)簽協議?顯然,外界觀感並不好。”奧特曼回應道:“這絕對是倉促敲定的,而且外界觀感確實不好。我們當時真的很想緩和事態,而且我們認為對方提出的協議是好的。”他表示,如果這項協議有助於緩和戰爭部(美國國防部)與行業之間的關係,那麼公司的冒險最終可能會得到回報,“我們會被視為天才,被視作一家承受了巨大痛苦來幫助行業的公司”。否則,OpenAI可能將繼續面臨公眾指責,被貼上倉促行事和不謹慎的標籤,“我不知道結果會怎樣,但我已經看到了一些積極的跡象。我認為,在未來幾年裡,政府與開發這項技術的公司之間建立良好關係至關重要。”他解釋,把Anthropic列為供應鏈風險“對行業、對國家、對他們公司都會非常糟糕”,OpenAI 在簽約前後都向戰爭部表明了反對,並希望“他們撤銷這一決定”;若因強烈批評而招致壓力,“那就這樣吧”。▌是否堅守安全邊界仍被質疑當地時間2月27日,在競爭對手Anthropic因拒絕五角大廈的條款而導致談判破裂並被封殺後,OpenAI迅速宣佈與美國國防部達成協議,將OpenAI的模型部署到美國國防部的機密網路中,這一行為為OpenAI帶來了巨大的輿論壓力,甚至導致Anthropic的Claude在蘋果App Store的排名一度超過ChatGPT。為此,OpenAI發佈博文《我們與戰爭部的協議》,明確列出了與美國國防部合作的三大停用領域:禁止大規模國內監控、禁止自主武器系統、禁止“社會信用”類高風險自動化決策。OpenAI強調其對安全架構擁有完全的自主權,採用“更全面的多層次方案”守護這些紅線,包括雲端部署模式、由通過安全審查的OpenAI人員全程參與,以及強有力的合同保障。OpenAI在博文中表示 “不清楚Anthropic為何未能達成此類協議”,並希望更多AI實驗室考慮這類合作。儘管奧特曼聲稱合作遵循“人工智慧不得用於國內大規模監控”等原則,但據美國彭博社解讀,奧特曼並未禁止將人工智慧工具用於完全自主武器系統。報導說,OpenAI創立之初為非營利性質,但近年來逐漸轉化為一家以營利為目的的企業。這家企業過去曾禁止將其技術應用於軍事領域,但2024年開始放寬相關限制,公司目前的宗旨說明中也去掉了“安全”兩字,只說要通過人工智慧技術“造福全人類”。科技媒體Techdirt的創始人邁克•馬斯尼克(Mike Masnick)指出,該協議“完全允許國內監控”,因為資料收集需符合《行政命令 12333》——該命令被指允許美國國家安全域通過截獲境外通訊來掩蓋對境內通訊(含美國公民資訊)的監控,可能為國內監控留下解釋空間。OpenAI國家安全合作負責人卡特裡娜•穆里根(Katrina Mulligan)則在領英上發文反駁了這種解讀,“事情並非如此運作,”穆里根強調,不應該糾結於合同措辭,部署架構比措辭起著更為決定性的作用。她認為,通過將部署限定在雲API,可以確保OpenAI的模型無法被直接整合進武器系統、感測器或其他作戰硬體;自主武器通常需要在邊緣(edge)做推理,而云上部署在架構上就排除了這類用途。▌那些AI公司牽手五角大廈?隨著AI技術的飛速發展,其在國防軍事等領域的應用正引發國際社會高度關注。今日,外交部發言人毛寧主持例行記者會。有記者問,據報導,美戰爭部正與多家領先人工智慧公司討論建立夥伴關係,以期運用AI賦能對中國電力設施和敏感網路等關鍵基礎設施實施自動偵察,以便在衝突時進行網路攻擊。中方對此有何評論?毛寧表示,我們注意到相關報導。美國長期以來一直是網路空間最大不穩定源,早在人工智慧發展之前就已對中國關鍵基礎設施進行網路攻擊和預置。美國政府還要求大科技公司直接為美國地緣、政治、軍事目標服務,這在全球範圍產生嚴重影響。中方已通過多種管道向美方明確表達嚴正關切。我們將採取一切必要措施堅決維護自身網路安全。那些AI公司牽手五角大廈?2025年7月,五角大廈曾高調宣佈,與Anthropic、Google、OpenAI和xAI四家AI公司分別簽訂合作協議,每份合同價值均高達2億美元,旨在借助前沿人工智慧技術應對國家安全挑戰,加速軍事領域人工智慧應用落地。其中,Anthropic的大模型Claude不僅是第一個,也是唯一被允許接入美國國防部機密系統的商業AI模型。這意味著,Claude可以處理和分析美軍最高等級的敏感情報,應用範圍包括情報分析、作戰規劃、網路作戰等關鍵軍事任務。如今,在與Anthropic因安全底線問題不歡而散後,五角大廈正轉向其他AI公司。綜合《紐約時報》《華爾街日報》等媒體報導,美國國防部已與xAI達成協議,允許Grok在涉密工作中按“所有合法用途”使用,並可接入涉密系統;與Google的談判已進入深入階段。對此,OpenAI和Google的員工簽署了一份公開信,敦促管理層堅守底線,拒絕美國軍方的無限制使用要求。這封公開信署名時需通過身份驗證,也可選擇匿名。已有超300名Google現任員工和超60名OpenAI員工簽署了公開信。 (科創日報)
1000億美金!OpenAI估值飆到8500億,Anthropic:我今年就超你
【新智元導讀】OpenAI史上最強融資1000億美元,輝達、亞馬遜爭相送錢,估值直奔8500億。追擊者Anthropic營收增速高達10倍、明年即將反超的消息悄然曝光,印度峰會上兩位CEO當眾拒絕握手的一幕更把這場AI冷戰推上了高潮。1000億美元。不是營收,不是市值,而是單筆融資。彭博社援引多位匿名知情人士消息稱,OpenAI正接近敲定一輪史無前例的融資,第一階段預計為OpenAI帶來超過1000億美元資金。融資完成後公司整體估值可能突破8500億美元——比最初預估的8300億還要高出200億。這是什麼概念?8500億美元,相當於英特爾+波音+麥當勞+耐克+星巴克加在一起的市值。而且這還只是個初步估值,後續風險投資機構和主權財富基金進場之後,總融資金額可能還要繼續往上走。更驚人的是投資陣容。亞馬遜預計投資高達500億美元,軟銀出資約300億美元,輝達討論中的投資額約為200億美元,微軟也在其中。這些科技巨頭,平時個個是競爭對手,但在「送錢給OpenAI」這件事上卻出奇地一致。彷彿商量好了一樣,生怕自己落後。這其中輝達尤其值得單獨說一句:一家賣鏟子的公司,現在搶著去給挖金的人投錢。老黃這步棋下得妙,既賣晶片給你,又當你的股東,無論AI行業怎麼發展,輝達都是穩賺的那一個。而奧特曼,這位OpenAI的靈魂人物,正在用一種近乎瘋狂的節奏建構他心目中的「AI帝國」。奧特曼的十年融資史要理解這筆1000億美元融資的份量,必須回顧一下OpenAI走過的路。2015年底,OpenAI誕生於一個極具理想主義色彩的承諾:馬斯克、奧特曼、彼得·蒂爾等矽谷大佬湊了初始承諾資金約10億美元,要做「造福全人類的通用人工智慧」。那時候的OpenAI,是一家徹底的非營利機構,研究成果開源,使命高於利潤。2019年,理想遭遇現實。燒錢的速度遠超想像,OpenAI不得不轉型為「有限盈利」的混合架構,同年微軟注資10億美元,成為其最重要的戰略投資方。投資協議裡有一條令人印象深刻的條款:投資者的收益上限為本金的100倍,超出部分歸非營利實體所有——這個設計既吸引了資本,又在名義上保住了「為人類服務」的招牌。2023年初,ChatGPT爆紅,全球使用者兩個月破億,人工智慧賽道瞬間高潮。微軟追加投資100億美元,隨後紅杉、A16Z、Thrive Capital等頂級VC蜂擁而至,OpenAI以約290億美元估值完成了新一輪融資。彼時,整個科技圈都在問同一個問題:這到底是泡沫,還是下一個時代?2024年10月,答案已經不言而喻。OpenAI宣佈完成66億美元融資,估值飆至1570億美元,一躍成為全球僅次於SpaceX的第二大獨角獸,Thrive Capital領投、微軟、輝達、軟銀等豪華陣容參與。這一輪融資刷新了矽谷創業公司歷史融資紀錄,也讓質疑AI泡沫的聲音一時啞口無言。2025年初,「星門計畫」橫空出世。川普、軟銀孫正義、OpenAI奧特曼三人同框宣佈:未來四年將向美國AI基礎設施投入5000億美元,OpenAI是這一計畫的核心玩家。錢從那來?繼續融資。而現在,2026年2月,我們看到了這一切的最新章節:1000億美元,史無前例,估值奔向8500億。從最初的10億承諾捐款,到如今的1000億融資,OpenAI用了不到十年時間。奧特曼不是在融資,他是在改寫規則。這筆1000億美元,最主要的用途是兩件事:一是持續推進「星門」超算項目,在全球建構10吉瓦等級的AI專屬超算網路;二是加速GPT-5系列模型迭代。燒錢的規模之大,很多機構預計,2026年公司虧損將進一步擴大至約140億美元。虧損?沒關係。投資人們排隊送錢,因為他們相信這場AI競賽的贏家,將會主導人類未來數十年的數字基礎設施。追擊者Anthropic的「彎道超車」就在OpenAI風光無限的時候,它的「叛逆之子」Anthropic,正在悄悄加速追趕。Anthropic由前OpenAI研究副總裁Dario Amodei於2021年創立。那次出走頗為戲劇性:他和一批核心研究員對OpenAI商業化優先的戰略方向產生了根本性分歧,最終帶著人、帶著理念,出去另起爐灶,打出了「安全優先」的旗號,做出了Claude這個產品。現在,這家另起爐灶的公司,在營收增速上已經甩開了老東家一大截。根據Epoch AI最新發佈的資料分析,自兩家公司年化營收均突破10億美元的時間節點開始計算,Anthropic的年化增速約為每年10倍,而OpenAI僅為3.4倍。按照這個趨勢線外推,Anthropic可能在2026年年中超越OpenAI,成為AI領域第一大營收來源,屆時兩家公司的年化營收將在約430億美元左右交匯。Epoch AI對兩家公司的營收資料進行了指數趨勢擬合,OpenAI的擬合優度R²達0.99,Anthropic達0.98,近乎完美的擬合意味著增長規律高度穩定。當然,現實中的增長不會永遠按模型走。從內部規劃來看,據The Information報導,OpenAI自己預計2026年營收增速約為2.2倍,而非趨勢線預測的3.4倍。Anthropic的內部預期則是4倍以下增速,遠低於趨勢線的10倍。更值得關注的是,Epoch AI自己也發現了一個訊號:自2025年7月開始,Anthropic的實際增速已經從10倍/年放緩至約7倍/年,增長有減速跡象。但即使按照更保守的預測,兩家公司營收的交叉點也預計在2026年至2027年之間出現。Anthropic反超OpenAI,已經從「如果」變成了「何時」的問題。驅動Anthropic高速增長的,是其在企業端的強勁表現。它與Infosys、亞馬遜AWS深度繫結,Claude在企業級程式碼輔助、知識管理、複雜推理等場景積累了大量付費客戶。近期更有消息稱,剛剛完成了一輪高達300億美元的G輪融資。一張廣告,攪動戰局當然,OpenAI也沒有坐以待斃。它手裡還有一張沒完全打出去的牌:廣告。今年初,OpenAI開始試水在ChatGPT免費版和部分付費版本中測試廣告功能。首批廣告合作方包括百思買、Expedia等知名品牌。這並不是簡單的橫幅廣告,而是深度整合進對話場景的「產品推薦式」廣告——當你問ChatGPT推薦那款筆記型電腦,它可能會在給你真實建議的同時,順手推薦一款贊助商產品。奧特曼自己也承認,現在「還在摸索什麼樣的廣告形式效果最好」。但方向是明確的:靠廣告變現,讓ChatGPT免費使用者也變成收入來源,從而拓寬商業化路徑。這招讓Anthropic坐不住了。就在今年超級碗期間,Anthropic花重金投放了四支廣告,廣告內容模擬了一個AI助手正在幫助使用者的時候,突然插入不相關廣告的荒誕場景——矛頭直指OpenAI。言下之意再清楚不過:我們永遠不會在Claude裡打廣告。奧特曼隨即在社交媒體上還擊。孰優孰劣,市場會給出答案。但有一件事是確定的:兩家公司的競爭,已經從技術層面蔓延到市場層面、輿論層面,甚至廣告層面。「沒有握手」的尷尬瞬間就在1000億融資新聞曝光的同一天,地球另一端的新德里,一幕令全球科技圈捧腹的場景正在發生。印度人工智慧影響力峰會,台上站著莫迪總理、GoogleCEO Sundar Pichai、OpenAI的奧特曼,還有Anthropic的Amodei,以及其他幾位科技界大佬。拍集體照的時候,莫迪拉起了旁邊奧特曼的手高高舉起,示意大家手拉手,展示AI大團結。皮查伊配合了,其他人配合了,鏡頭裡,唯獨奧特曼和阿莫代——兩個被安排站在彼此旁邊的人——沒有拉手。他們各自握拳,高高舉起,就像兩個平行宇宙裡的人,物理上相距不過半米,精神上卻隔著一條銀河。這個畫面迅速在社交媒體上瘋傳。網友們造梗能力一流,各種表情包、段子席捲X、微博:「AGI什麼時候到來?等達里歐和薩姆拉手那天。」「當你被迫和宿敵一起完成一個小組作業。」兩人之間的裂痕由來已久。當莫迪希望用一個握手的姿勢,象徵全球AI領袖團結合力的時候,奧特曼和Amodei用各自高舉的拳頭,告訴全世界:這場競爭,沒有握手。奧特曼事後接受CNBC採訪,輕描淡寫地說自己「只是有點搞不清楚狀況」。這個解釋嘛……信的人不多。一場沒有終點的賽跑OpenAI融了1000億,要建超算、推模型、打廣告、沖IPO。Anthropic增速10倍,隨時準備在營收上反超。輝達兩邊下注,既賣鏟子又投礦。亞馬遜和軟銀掏出真金白銀排隊送錢。而全球數十億普通使用者,每天在用這兩家公司的產品寫郵件、寫程式碼、找答案、陪聊……AI的時代,已經不是即將到來,而是已經來了。從OpenAI的最新融資來看,有幾件事是清晰的。第一,AI基礎設施的軍備競賽不會停,算力、資料、模型能力,那一樣都得砸重金。第二,商業化的壓力正在逼迫每一家AI公司快速找到自己的「賺錢模式」,無論是訂閱、廣告、API呼叫,還是企業定製服務。第三,監管的陰影正在變大,各個主要國家都在加快制定自己的AI規則,誰能在政策博弈中佔據有利位置,將是未來競爭的關鍵變數之一。歷史上,每一次重大技術革命,都曾有人說「慢下來,想清楚再走」,也有人喊著「全速前進,邊跑邊學」。這兩種路線,並非非此即彼,而是在互相牽制中,共同推動行業走向更成熟的階段。只是在這場每筆融資都以百億美元甚至千億美元為單位來計量的遊戲裡,留給慢下來想清楚的時間窗口,可能比任何人預想的都要短。 (新智元)
人類已經不再是地球上最聰明的存在了
導讀:“他像逝去的白晝般降臨,而黑夜隨他侵入我們的未來。”一 房間裡最聰明的人甘拜AI下風山姆·奧特曼去年接受了金融時的一次專訪,當時chatgpt-o3模型剛剛發布。在訪談的最後,記者問他,“在(未來)這個人類不再最聰明的世界中,他是否感到威脅?那怕不是為自己,而是為你兒子?”奧特曼直接說,“你現在覺得自己比o3聰明嗎?我不覺得……但我完全不擔心,我猜你也一樣。”在這個人類不再是最聰明的世界裡,你是否會感到威脅?奧特曼的說法,可能不那麼令人信服,或者很難「不擔心」。泰勒·考恩(Tyler Cowen)通常是房間裡最聰明的人。去年我們也曾經分享過一篇金融時報對他的專訪,稱他為無所不知的人,他甚至有一個綽號叫「人形GPT」。身為喬治梅森大學經濟學教授、《紐約時報》專欄作家,他主持的播客是全美下載量最高的經濟類節目之一。每當他開口,無論談什麼話題,四周的人都會停下來認真記錄。這兩年,很多人都在討論「中間、中層、中等、中產階級」階層的消失。這個觀察,其實主要來自於考恩十幾年前出版的一本書,《再見,平庸時代》。書中他準確地預言了這個趨勢,給了背後的邏輯。就是這樣一個人,在不久前的一次對話中承認,「頂級AI模型是比我更好的經濟學家。」在回答經濟學問題這件事上,他已經被機器超越了。他補充說:“我實際上無法難倒它們。我也感到寬慰,因為我不必像過去那樣頻繁地諮詢同事了。”考恩還發過一則推文:「那些對AI最近的發展沒有感到一點士氣低落的人,在很大程度上我已經不信任他們了。」換句話說,考恩認為,這些人對正在發生的事情處於迷霧之中,因此無法信任他們的判斷。不過,這句話的另一層意義是,如果一個人真的了解AI的進展,那麼他一定會對自己作為一個人,而感到士氣低落,或者說感到壓力或威脅。有一個更重大的現實,科技圈外的人──甚至許多圈內人,似乎還未參透。 AI不僅僅是可能會搶走你的工作、讓數百萬人依賴救濟、或提供無限的免費軟體。它是自人類有記載的歷史以來,人類第一次不再是(或很快就不再是)這個星球上最有智慧的生物,無論從那個實際的功能性維度來衡量。睹馬思人,我們可能嚴重低估了AI拐點的倒數計時。美國經濟學家兼知名部落客Noah Smith諾阿·史密斯最近發表了一篇文章,《你已經不再是地球上最聰明的存在了》,把普通人的焦慮和危機感上升到了一個新的高度。他認為,AI帶來的不只是就業衝擊,而是人類在地球生態位的改變。AI的到來,意味著人類的命運(大體上)不再掌握在自己手中。他引用了電影《最後的莫西干人》中的一句台詞,“他像逝去的白晝般降臨,而黑夜隨他侵入我們的未來。”在我們的餘生裡,我們將一直睡在老虎身邊。二 AI不是兔子,是老虎史密斯在文章中說,昨天他的寵物兔咬了他的手指。那是個意外:兔子本來想咬住毛巾挪開,他不小心把手伸進了兔嘴裡。傷口不深,他清洗了一下,塗上藥膏,貼上創可貼,這事就算過去了。但他隨即想到:如果他養的是一隻老虎呢?他現在恐怕已經沒命了。這個類比看起來很簡單,卻打開了一個深淵般的問題。人類養寵物有一個基本原則:我們選擇比自己更小、更弱的動物,這樣我們就能訓練它們,必要時還能在物理上約束它們。從來沒有人需要在"智能"的層面思考這個原則。幾千年來,人類一直是地球上的「老虎」。我們擁有壓倒性的智力優勢,我們馴化狼成為狗,馴化原牛成為家畜。我們習慣了身為「飼養員」的上帝視角。因為在人類文明的整個歷史中,人類一直是這個星球上最聰明的存在。但史密斯說:在未來幾年的某個時刻,這將不再是事實。甚至可以說,現在這已經不再是事實了。AI能在國際數學奧林匹克競賽中奪魁,能獨立完成軟體工程任務,能在研究生程度的課程中給出精確答案。絕大多數人類做不到這些。能的本質在於其表現,而非其形式。無論是透過生物神經元(大腦),或是透過矽基電晶體(GPU),智慧的結果就是智慧本身。你可以盡情珍惜人類獨有的思考方式,但這並不代表它比AI更有效率。我們正在製造一種在這個星球上前所未見的「老虎」。當我們還在爭論AI是否有“意識”時,谷歌的傑出科學家Blaise Agüera y Arcas早就給出了定論:“AI不是在假裝智能,它就是智能。”很多人反駁說,AI只是統計學的鸚鵡,它不懂什麼是水,它只是預測下一個字。 Blaise的反駁很有力:“潛艇不會像魚一樣擺動尾鰭游泳,但潛艇確實在'游泳',而且比魚游得更快、更深。”比百年大變局更刺激的是,它將被AI壓縮在10年內。三 AI的進化比摩爾定律更恐怖有些人可能會說:這些矽谷菁英只是在製造焦慮,好讓大家繼續買他們的產品。當然有必要懷疑矽谷的立場和敘事,但我們也不能被情緒幹擾頭腦。可以看看數據。1966年,麻省理工學院的西摩·佩珀特(Seymour Papert)曾天真地以為,只要給研究生佈置一個暑期作業,就能解決「電腦視覺」的問題。結果我們花了半個世紀才做到。但這次不同。 METR(頂尖的AI安全研究機構)的數據揭示了一個驚人的規律:AI模型完成任務的複雜度(以人類所需時間衡量),大約每半年就翻倍。這是一個甚至超過摩爾定律的瘋狂曲線。把這個趨勢放到時間軸上看:2019年,GPT-2幾乎無法數到5,或組織連貫的句子;2023年,GPT-4在醫師執照考試和律師資格考試中擊敗了近90%的人類考生;2024年,Claude 3.5 Sonnet回答複雜科學圖表問題的準確率超過94%。依照METR的趨勢外推,到2030年代初期,AI將能夠以99%的可靠性完成大部分需要數小時才能完成的知識工作任務。我們正身處“第四次轉折”未來五年將決定下一個50年這意味著什麼?一位分析師做了一個歷史對比:工業革命:150年電腦革命(從圖靈的密碼機到大多數美國家庭擁有連網電腦):60年AI革命:可能只需要15年當然,這個預測的置信度不高,10年或30年都不會讓人震驚。但無論如何,速度是前所未有的。Anthropic的CEO達裡奧·阿莫戴伊(Dario Amodei)把即將到來的AI系統描述為「資料中心裡的天才國度」。這是比喻,但也是事實:想像一個國家,裡面住著成千上萬個在各個領域都達到天才水平的智能體,它們24小時不間斷工作,不需要睡眠,不需要休假,不會抱怨。這個國度已經在建設中了。四 為什麼這次不一樣有人可能會說:“愛因斯坦也很聰明啊,他的存在也沒讓普通人感到沮喪。”這個類比有一個致命的漏洞。愛因斯坦研究的是廣義相對論。你可以說:「嗯,他在物理學上是天才,但我在經濟學(或心理學、或烹飪)方面也有相當不錯的理解。」你們各有領地。但AI是通用智能形式。它將在每一個智力維度上超越你,或很快將會。數學、寫作、程式設計、法律分析、醫學診斷、藝術創作、策略規劃……沒有一個領域是安全的避風港。更關鍵的是,愛因斯坦不會坐在你的辦公桌上,每天8小時提醒你他比你聰明。但AI會。考恩寫道:“大多數人類將在工作中每天與AI一起工作。AI將比人類更了解工作中的大多數事情。每一個工作日,甚至可能每一個小時,你都會被提醒:你在做AI不能做的指導和'填充'任務,但AI在做大部分真正的思考。”所以,如果只是把AI理解為"一個可能搶走我工作的工具",格局就太小了。史密斯用了一個很刺眼的類比。他說,當人們問"AI會搶走我的工作嗎",讓他想起1840年的北美蘇族部落民在擔心白人定居者是否會搶走他的野牛。答案是"當然會",但問題問錯了。對於征服大平原的歐洲人來說,重點不在於野牛,而是在這片棲息著野牛的土地上,建立一個全新的文明和全新的經濟體系。我們在前面談到最近爆火的openclaw智能體的文章中,提到紐約時報的專欄作家,就把它和哥倫布大航海,歐洲人發現美洲相比。問題是,這一次,我們所有人都是歐洲人,但也可能是美洲人。史密斯認為,歐洲定居者抵達北美,是人類目前面對AI最好的歷史類比。他強調,這裡比較的不是個體智力的高下,重點在於整個體系的落差。歐洲人擁有文字、公司、造船業、先進的冶金術和嚴密的官僚機構。原住民很快就學會了使用槍支和馬匹,但他們的整體體系無法透過局部調整來匹配對方的實力。從歐洲人踏上北美海岸的那一天起,美洲原住民就失去了對自己命運的控制權。永遠地失去了。史密斯說,想到這是多麼冷酷的覺悟,讓他想到電影《最後的莫希干人》中的一個場景,改編1876年一位名叫查洛(Charlo)的原住民領袖的真實演講。大意是說,“白人的到來如同逝去之日……他說他是我們的朋友……但他像狼一樣……我們將像白人那樣做生意。”美洲原住民並未滅絕。他們的人口曾急劇下降,但並未歸零,500年後在北美仍有數百萬人。但從集體層面來看,他們失去了自己的未來。他們被迫服從比自己更龐大、更強悍的力量,對此無能為力。史密斯的判斷是:人類與AI的未來,極大機率也是如此。一個日益自主、全球分佈的AI智能體網絡,最終將決定這個星球上大部分資源的分配。它可能對人類行使各種形式的直接或間接控制。這是一個人類深度「去權(disempowerment)」的未來。如果目前的指數級成長不遇阻礙,它可能在幾十年內到來;如果或其他瓶頸發作,則可能需要更久。但既然我們已經知道可以透過堆砌算力達到超人類智能,這一幕終究會發生。為長期動盪做準備,我們熟知的世界已經結束了。五 最無趣的革命與最嚴重的“被剝奪感”如果「物種地位的下降」聽起來很抽象,那麼這種變化所帶來的社會心理衝擊卻是實實在在的。《華爾街日報》之前發表過一篇題為《史上最無趣的科技革命》的文章,精準地捕捉到了這種時代情緒:為什麼AI會讓我們變得更富有,卻讓我們更不開心?回望歷史,工業革命發明了蒸汽機和鏟車,它們是人類肢體的延伸。當你開著挖土機時,你感覺自己力大無窮;當你駕駛汽車時,你感覺自己風馳電掣。那是賦能(Empowerment)。但AI革命不同。它不是肢體的延伸,它是大腦的外包。當ChatGPT瞬間寫出一篇你原本需要絞盡腦汁構思三天的文章;當豆包一分鐘生成一幅你苦練十年畫功也難以企及的插畫;當「Vibe Coding」(氛圍編程)成為現實,Spotify的高層宣稱「最好的程式設計師不再寫代碼」時,作為人類,你感受到的不是賦能,而是被剝奪。這種剝奪感源自於人類長期以來的「智力傲慢」。在過去的幾百年裡,我們將「價值」與「認知能力」深度綁定。醫生比護工賺得多,是因為診斷比護理更難;程式設計師比打字員賺得多,是因為寫程式碼需要更高的邏輯智商。智力,曾是我們在這個社會分配蛋糕的絕對硬通貨。而現在,AI引發了智力的惡性通貨膨脹。當智力變得像電力一樣廉價,隨插隨用時,人類突然發現自己引以為傲的「護城河」被填平了。這就是為什麼你會感到焦慮。不是因為你失去了工作,而是因為你失去了自我價值的定義權。如果不比機器更聰明,我們存在的意義是什麼?很多人安慰自己說,AI時代人類依然會有工作,因為其他人類會願意為"人的特質"付費:帶有溫度的護理,原汁原味的人類藝術,手工製作的食物。或者即使工作真的沒了,政府也會透過優渥的福利制度支持民眾。但史密斯指出,這些安慰的前提是:人類本身就掌握經濟價值。而在AI統治的時代,人類掌握多少經濟價值,完全取決於AI的允許。這意味著什麼?你向其他人類尋求生存所需的金錢、能源、住房和食物的能力,將受限於那些人類手裡實際還剩下多少東西可以分給你。目前,人類擁有世界上所有的財產,AI一無所有。但AI是如此聰明,它幾乎肯定能找到改變現狀的方法。正如Anthropic在2023年提出的那個問題:"我們如何永遠保留對那些比我們更強大的實體的控制權?"答案很簡單:我們做不到。她用AI一年上架200本小說,那個叫「作者」的身份死於2026。六 那我們還能做什麼?文章讀到這裡,可能給人一種存在主義的眩暈,和近乎窒息的感覺,能不能讓人喘口氣?諾阿·史密斯樂觀地認為,智慧越高,可能越容易發現非零和的解決方案,而不是基於恐懼做出反應。就像發達社會對資源的競爭不像欠發達社會那麼激烈(這點其實經不起推敲)。 “一個真正的超級人工智慧的行為邏輯可能更像現代法國,而非1500年時的法國。”不過,即便如此,人類仍能繼續過著幸福自由的生活,也僅僅是出於AI的寬容。我們將成為被悉心照料的寵物,但在最根本的意義上,我們依然是寵物。或者,如果你願意,可以把地球想像成一個類似美洲原住民的「保留地」。史密斯最後承認,「這篇文章看起來很悲觀,我想事實確實如此。」但另一方面,在AI出現之前,人類可能本身就已經快「跑不動了」。生育率AI時代的風險是鎖死2026年打工人更應該馬上開始創業我們的生育率持續暴跌,看不到底。如果AI想減少人類人口,它只需要坐在那兒,看著我們自己完成這個過程。同時,科學突破的成本越來越高,指數級成長的科學研究人力只是為了維持同樣的發展速度。著名成長經濟學家Chad Jones在2022年(ChatGPT發布前夕)曾預測人類文明可能走向停滯。現在他說是AI改變了自己的看法。此外,誰也無法確定AI是否會比現有的權力結構更糟。人類統治者也沒給我們太多理由相信人類掌權一定比AI好。也許AI會是個更開明的專制君主。儘管如此,史密斯說,即便最終證明AI是仁慈友善的,他依然會懷念年輕時那種負有責任和掌握力量的感覺。他說:「我將成為最後幾代記得『人類坐在宇宙駕駛座上』是什麼感覺的人。那時我們是可觀測宇宙中最聰明的存在,是一切進步與新奇事物的源頭。「我總覺得,如果有更多時間,我們本可以做得比現在更好。我們本可以不借助外來的'機械之神'就持續改進我們的社會和技術。但現在看來,那道彩虹已經到了盡頭,而將AI遺贈給宇宙,將是我們作為'靈長類主宰'所能做的最後一件事。”七 清醒地進入那個」良夜「值得把史密斯和馬特舒默放在一起看。舒默寫的是一封"寫給圈外朋友的緊急信":大事正在發生,你需要馬上行動,現在還有窗口期。他的姿態是實用的、急迫的,像一個在洪水到來前挨家挨戶敲門的人。史密斯寫的則是一篇更冷的、更深的反思。他沒有在說"快跑",他在說"跑不掉"。他直視的問題也遠超"AI會不會取代你的工作":當一個比你聰明得多的存在出現在地球上時,人類這個物種的命運還掌握在自己手裡嗎。一個在談行動,一個在談命運。但他們描述的是同一個現實。考恩說,那些沒有感到一點士氣低落的人,他已經不能信任了。這句話聽起來很刺耳,但它說的是一個很簡單的道理:如果你真的看見了正在發生的事情,你不可能毫無觸動。觸動的形式可以不同,可以是焦慮,可以是興奮,可以是一種深層的不確定感。但如果你什麼都沒感覺到,那就只有一個解釋:你還沒看見。為什麼聰明人正在紛紛逃離社群媒體?讀到這裡,很多人可能還是想問:那我們具體該怎麼辦?史密斯的文章沒有給出具體的行動建議,因為他思考的尺度遠超個人生涯規劃,他看到的是文明等級的命運。但如果把兩篇文章合在一起讀,答案或許是這樣的:在個人層面,像舒默說的那樣,立刻、認真、深入地開始使用AI。這是你僅剩的窗口期。在認知層面,像史密斯說的那樣,接受一個可能讓人不舒服的事實:人類作為地球上最聰明物種的時代,正在結束。這兩件事並不矛盾。恰恰相反,只有真正接受了第二點,你才會認真看待第一點。我們正處於一個極為罕見的歷史時刻。舊世界的規則正在失效,新世界的規則還沒寫好。在這個間隙裡,個體的選擇和行動仍然有意義。但這個間隙不會永遠存在。正如史密斯文章開頭那句引自原住民領袖查洛的話:"他像逝去的白晝般降臨,而黑夜隨他侵入我們的未來。"夜幕正在降臨。但在天色完全黑下來之前,我們還有一點時間。用來看清方向的時間。選擇保持主動性,繼續追問、繼續懷疑、繼續做那些AI無法做的事情:承擔責任、面對不確定性、為自己的選擇負責。沒有人能保證我們會做出正確的選擇。但只要選擇權還在,遊戲就還沒結束。考恩說,如果你對正在發生的事情毫無感覺,那就表示你還在迷霧中。清醒本身就是第一步。而清醒之後,你可以選擇:是躺平等待命運的安排,還是站起來,成為塑造這個新世界的力量之一,或只是表達你曾經存在過。 (格上財富)
OpenAI正式啟動廣告測試
奧特曼上周五告訴OpenAI員工,ChatGPT“月度增長率已重新超過10%”。在競爭壓力不斷加大的背景下,OpenAI首席執行長山姆·奧特曼向員工和投資者表示,公司正保持強勁發展勢頭。據媒體看到的內部Slack消息顯示,奧特曼上周五告訴OpenAI員工,該公司旗下的熱門人工智慧(AI)聊天機器人ChatGPT“月度增長率已重新超過10%”。他還表示,OpenAI正準備在本周推出一款“升級版聊天模型”。目前,ChatGPT每周使用者量已超過8億,但Google和Anthropic正在不斷蠶食市場份額。OpenAI在去年12月宣佈進入“紅色警報(code red)”狀態,以全面改進ChatGPT,並暫時擱置了多個項目,將資源集中於這一目標。在上周五的內部資訊中,奧特曼還表示,OpenAI的程式設計產品Codex在過去一周內增長約50%。Codex與Anthropic的Claude Code正面競爭,而後者在過去一年中獲得了大量使用者採用。OpenAI上周推出了新的Codex模型——GPT-5.3-Codex,並為使用蘋果電腦的使用者發佈了一款獨立應用。根據內部消息,奧特曼稱Codex的增長“簡直瘋狂”。“這是非常棒的一周,”奧特曼寫道。向投資者傳遞的資訊知情人士透露,在OpenAI接近完成一輪規模可能高達1000億美元的融資之際,奧特曼與首席財務官Sarah Friar正在向投資者重點推介公司的增長故事。在私下會談中,這兩位高管強調了OpenAI在消費端的優勢、不斷擴大的企業業務,以及對算力資源的獲取能力。作為融資討論的一部分,OpenAI向投資者展示了一些圖表。根據內部資料,Codex正在蠶食Claude Code的市場份額。知情人士稱,OpenAI預計未來兩周融資談判將明顯升溫。根據媒體此前報導,OpenAI本輪融資可能分兩個階段完成。第一階段可能包括來自微軟、輝達以及亞馬遜的資金,其中亞馬遜正討論向OpenAI投資最高500億美元。隨後還可能有軟銀等投資方的追加出資,軟銀曾討論再投入300億美元。不過,該輪融資的具體細節仍在變動之中,最終方案仍可能發生變化。開啟廣告測試OpenAI周一宣佈,即日起開始在美國向部分免費和Go套餐訂閱使用者推出ChatGPT廣告的測試。OpenAI表示,這些廣告將被清晰標註,展示在聊天機器人回答的底部,並且不會影響ChatGPT的回覆內容。數字廣告市場長期由Google和Meta主導,亞馬遜近年來也逐漸成為重要參與者。據悉,OpenAI預計,從長期來看,廣告收入在其整體營收中的佔比將低於一半。 (科創板日報)
馬斯克大意的那一夜,改寫了整個 AI 史
我們已經成為神,也許我們也能當好這個角色。——矽谷思想家 布蘭德馬斯克大意了2012年冬天,Google創始人賴利·佩奇與馬斯克在前者位於加州的豪宅壁爐旁徹夜長談,暖洋洋的火光,酒杯裡的威士忌,讓兩個老友談興頗濃。幾杯酒下肚,馬斯克對賴利·佩奇說,Larry,我最近投了個小項目,還蠻有意思的,你想不想看看?佩奇聳聳肩,of course。馬斯克掏出手機,讓佩奇觀看一則演示視訊,內容是AI在無人類干預下,自主學會用“邊緣彈射”的高效策略快速通關“打磚塊”遊戲。佩奇雙眼冒光,壓抑住激動,用不動聲色的慵懶語調問道,這是那家公司?馬斯克呵呵一笑,還不賴吧,這家公司叫Deep Mind,搞AGI(通用人工智慧)的。見佩奇沒反應,馬斯克繼續說,是Peter(彼得·蒂爾,PayPal創始人,美國副總統范斯背後的金主)先投的,他介紹給我,我投了500萬嘗嘗鹹淡。說完這個,二人話題很快轉向別處。一年後,Google斥資4億美元收購Deep Mind,Google的收購,意味著其他投資人的出局。馬斯克傻眼。自此,馬斯克和佩奇交惡,明面上的原因,是二人對於“AI安全”產生了分歧。馬斯克不再用Larry這個暱稱稱呼佩奇,而是稱其為“That Google Guy”(Google的那傢伙),佩奇則給馬斯克起了個“物種主義者”的外號,指責他“偏袒人類”,忽視“數字生命”。Google截胡Deep Mind的創始人名叫傑米斯·哈斯比斯。傑米斯,英國人,早慧,4歲時就被稱作國際象棋神童,13歲達到大師級水平,多次擔任英國少年國際象棋隊的隊長,三次代表劍橋大學參加國家象棋比賽。17歲時,傑米斯因年紀太小,被劍橋大學要求休學一年。休學期間,傑米斯迷上了電子遊戲,從劍橋畢業後,21歲的傑米斯創立了自己的遊戲公司。2005年,傑米斯倦怠了玩遊戲,索性關閉遊戲公司,重返學術界,獲得了倫敦大學認知神經科學博士學位,成了一位神經科學專家。作為科學家,傑米斯在《自然》《科學》《神經元》《美國國家科學院院刊》等一流期刊發表了多篇影響巨大的論文,之後,傑米斯基於功能性磁共振成像研究,提出了一種新的情景記憶系統理論,被《科學》雜誌列為2007年度的十大科學突破。此時,這位天才開始對人工智慧感興趣。傑米斯試圖在人腦中尋找的新的人工演算法靈感,為此以訪問科學家的身份,去了麻省理工和哈佛,並於2009年獲得了哈佛蓋茲比計算神經科學部門的博士後獎學金。2010年,傑米斯創立了Deep Mind,其使命是——用人工智慧解決一切問題。在被Google全面收購前,Deep Mind就獲得了許多知名大佬的投資,其中包括李嘉誠的投資公司,彼得·蒂爾,以及馬斯克。馬斯克酒後失言,洩漏商業機密,讓Deep Mind被Google“收割”後,悲憤交加,悔不當初。這時,彼得·蒂爾找到馬斯克,對他說,不用氣餒,Google未必就能壟斷AI,我這裡還有一張王牌。馬斯克追問,是誰?彼得·蒂爾說出了一個名字。聽到這個名字,馬斯克恍然大悟,我差點忘了還有他!PayPal黑幫的兩個大佬相視一笑。吸血鬼療法彼得·蒂爾是矽谷大佬中追求“長生不老”的狂熱分子之一。他每季度花4萬美元,輸入18—25歲年輕人的血漿,單次注射1.5升,以達到延緩器官衰老,“長生不死”的目的。這種方法引起了極大爭議,被媒體譏諷為“吸血鬼療法”,稱“年輕人的血液資源淪為富人的續命工具”。彼得·蒂爾“換血療法”很快被政府叫停,但彼得·蒂爾追求“長生不死”的腳步並未停止,他服用激素藥物,嘗試幹細胞注射,參與人體冷凍計畫,重新編寫人類基因計畫,建構出藥物加科技加未來復活的多層續命體系。其中,投資Deep Mind(人工智慧,電子永生),是他的“永生不死”計畫的佈局之一。因為“豬隊友”馬斯克酒後失言,導致了Google“截胡”,彼得·蒂爾不得不開啟他的B計畫,打出他的王牌——山姆·奧特曼。奧特曼奧特曼是類似傑米斯的“天才”,只是要年輕得多。奧特曼,猶太人,大學期間研發出Loopt,一款基於GPS位置分享的移動應用程式,主介面呼叫了即時更新的線上地圖,使用者打開程序後,能即時看到自己和朋友們當下所在的位置,並且能即時更新、分享位置變化,後來,該程序還加入了附近商店評分,團購,種草,社交,標記照片,互動評論等功能,相當於微信的位置共享加大眾點評加美團加陌陌加小紅書。2005年夏天,奧特曼趁學校放假,來到馬薩諸塞州劍橋的Y Combinator(YC孵化器,創始人格雷厄姆,被稱作“矽谷駭客哲學家”),尋求創業啟動資金。很快,Loopt成為格雷厄姆親自點名的YC孵化器首批資助的八家初創公司之一。自奧特曼加盟的這個夏天開始,YC在矽谷的影響力不斷增大,很多人將出自YC孵化器的諸多企業創始人網路稱作“YC黑手黨”,類似馬斯克和彼得·蒂爾領銜的“PayPal黑手黨”。“YC黑手黨”的成員,都將格雷厄姆視為自己的導師,甚至是教父,而格雷厄姆最青睞最引以為豪的那個學生,就是奧特曼。奧特曼格雷厄姆在哈佛大學的演講《如何創業》,一經發出,就成為風行矽谷的“創業聖經”。格雷厄姆稱,在一家創業公司,相同時間內,“最聰明的駭客”可以完成普通員工36倍效率的工作。“36倍”這個資料,就是格雷厄姆從奧特曼身上計算出來的,當時為了營運Loopt,身在YC孵化器的奧特曼,每天工作20小時以上,一度得了壞血症。暑假過後,嘗到“創業滋味”的奧特曼,選擇從史丹佛大學輟學。2008年6月,22歲的奧特曼,出席蘋果全球開發者大會,展示了適用於iPhone的Loopt應用程式。賈伯斯走過來,拍拍奧特曼的肩,說道,你這個程序很酷。賈伯斯Loopt搭上賈伯斯創造的新世界快車,奧特曼聲名大噪,在這期間,奧特曼還兼任YC首席講師和融資顧問,為回報恩師格雷厄姆,奧特曼決定不拿工資。有一次,有個年輕人來到YC,想爭取到50萬美元的種子資金,於是壯著膽子,對奧特曼說,我認為,這個項目的收入會在3000萬美元左右。奧特曼看完PPT,糾正他說,你這個項目,不是3000萬美元,是300億美元,要麼是你沒信心,要麼就是我高中數學不及格。這個項目就是後來的全球化巨頭Airbnb(愛彼迎,全球百萬特色民宿)。這個項目之後,奧特曼從YC的兼職顧問,變成YC的兼職合夥人。2012年,奧特曼對Loopt逐漸喪失興趣,以4340萬美元的價格,賤賣給了世界最大預付借記卡公司Green Dot。奧特曼財務自由了,隨後成立自己的投資公司,PayPal創始人彼得·蒂爾,給奧特曼投了一大筆錢。彼得·蒂爾與此同時,在奧特曼鼎力相助下,YC孵化器成為矽谷傳奇,在短短7年時間,孵化出11家百億美元以上的公司。這時的格雷厄姆,已經有了兩個小孩,加上老母病重,沒有精力再兼顧YC的眾多項目,開始尋找傳承自己衣缽的繼承人。格雷厄姆的“繼承人名單”裡,只有一個名字——山姆·奧特曼。早在2009年4月,格雷厄姆這位門徒眾多的“駭客哲學家”就宣佈,奧特曼是他心目中最好的五位公司創始人之一,另外四個是創立微軟的比爾蓋茲,創立蘋果的賈伯斯,以及建立Google的賴利·佩奇和謝爾蓋。那個時候,奧特曼只是憑藉Loopt小有名氣,格雷厄姆竟然將這個毛頭小子與比爾蓋茲、賈伯斯、佩奇等人相提並論,令很多人感到不解和迷惑。2014年2月,奧特曼接替格雷厄姆,成為YC新任總裁。這個時間點,恰恰是就Google收購Deep Mind的前後腳。召喚惡魔奧特曼接手YC後,徹底扭轉了投資方向,轉向了當時的一個新概念——硬科技公司。硬科技領域包括:人工智慧,新能源,火箭,機器人,自動駕駛,生物科技……不難看出,這個方向與馬斯克重合。奧特曼的野心藏不住了,他要建立一個兆美元的帝國,推動世界前進。在榮耀和掌聲背後,奧特曼是一個懷有“深度恐懼”甚至“病態思想”的人。奧特曼的母親曾在接受《紐約客》採訪時說,奧特曼的內心藏了很多東西,他經常會打電話給我,說自己頭疼,還在Google上搜尋各種罕見絕症,懷疑自己命不久矣。在一次聚會中,奧特曼突然站起來,向在場的人神經質地宣佈——我正在為世界末日做準備。在場的人全懵了。奧特曼解釋說,核戰爭,致命的合成病毒,叛變的人工智慧,這三類事件,隨時會給人類帶來滅頂之災。我平時儘量不去想這些事,但我已經在加州的大蘇爾買了一大片土地,在那裡存著槍支彈藥,黃金白銀,碘化鉀,抗生素,電池,水,還有防毒面具,當世界末日來臨,我隨時可以飛去那裡。對世界末日的病態恐懼,漸漸影響到奧特曼的日常工作,就在這個時候,彼得·蒂爾和馬斯克趁虛而入。彼得·蒂爾是奧特曼最早的投資人之一,同時,他跟奧特曼一樣,都是“基佬”,兩人關係十分親密。彼得·蒂爾先是寬慰奧特曼,若世界末日到來,奧特曼可以來他的“秘密基地”,在緩解了奧特曼的緊張情緒後,彼得·蒂爾逐漸將他往“AI創業”的話題上引:與其坐以待斃,不如阻止世界末日的來臨。彼得·蒂爾循循善誘地說,核戰爭這塊,我們肯定是無能為力了,但是對於“人工智慧叛變”,我們完全可以控制,當然,要防止人工智慧叛變,首先,我們得成為世界上最能控制人工智慧的那幾個人,屆時,不但能阻止世界毀滅,還有可能長生不死……在彼得·蒂爾的遊說下,奧特曼資助了一個致力於研究異種共生技術的公司,把年輕人的血液作為一種注射劑。同時,奧特曼決定創立一家AI公司。就在彼得·蒂爾遊說奧特曼的同時,馬斯克也沒閒著,他開始在推特上大肆鼓吹“AI會給人類帶來滅頂之災”。馬斯克引用了瑞典哲學家尼克·博斯特羅姆的那段著名的論斷——如果你告訴一個全能的人工智慧,讓它製造儘可能多的回形針,而沒有給它任何其他指令,它可以開採地球上的所有資源來製造回形針,包括我們身體中的原子。2014年8月,馬斯克在推特上說,AI可能比核武器還要危險。隨後,馬斯克聯合(脅迫)Google旗下人工智慧公司Deep Mind的聯合創始人蘇萊曼,以及26個國家的100多名人工智慧領域專家向聯合國遞交了一封聯名信,希望能禁止關於AI臨界點(如戰爭機器人)方面的研究和使用。2014年10月,馬斯克在麻省理工演講,將人工智慧描述為“人類最大的生存威脅”,馬斯克說,發展人工智慧,就是在召喚惡魔。2015年7月,馬斯克開始親自“召喚惡魔”。在加州史丹佛大學旁邊瑰麗酒店的私人包間裡,一場“召喚惡魔”的“法事”正在進行,參與者有馬斯克,奧特曼,彼得·蒂爾等人。這場代表人類某種歷史時刻的碰頭會議以Google為假想敵,當時,Google因收購Deep Seek,已經在AI之路上先行一步,奧特曼,馬斯克等人卻要從零開始。這幾個可能是世界上最聰明的“頭腦”在一番觥籌交錯之後,想出了一個“殺人誅心”的絕招。這個絕招就是——佔領道德高地。誕生奧特曼和馬斯克一致認為,他們即將創辦的AI公司,一定要站在Google的對立面,要對外宣稱,他們將建立一家非盈利的,不受任何巨頭、任何資本、任何人控制的AI實驗室。這個機構存在的唯一目的,就是為了全人類的福祉,為避免人工智慧毀滅世界而努力,其研究的所有成果,都會公諸於眾,與全世界共享。就這樣,Open AI誕生了。當時,人工智慧界最頂尖的那批高手,基本已被Google、Facebook、微軟、百度瓜分殆盡,並且有著非常優渥的待遇,這些人大多都是“心懷人類”的科學家,如果憑著“給出更高薪酬”去挖人,幾乎沒有任何勝算。正因如此,奧特曼、馬斯克等人才想出了佔據“道德制高點”的Open AI戰略。奧特曼小試牛刀,用“拯救人類”的情懷感動了Stripe公司的布羅克曼,令他於2015年5月7日,正式官宣,離開Stripe,加入Open AI。這有點類似“傳銷洗腦”,馬斯克和奧特曼遞給布羅克曼一個名單,上面寫了10個AI界最頂尖能人的名字,讓布羅克曼用同樣的“話術”去挖牆腳。布羅克曼決定來個舌戰群儒,集體策反,在矽谷的Napa酒莊布下鴻門宴,邀請這10個AI界的頂尖人物來這裡過周末。沒人知道在那個周末,布羅克曼跟這10位專家在酒店聊了什麼,只是在離開Napa酒莊的時候,布羅克曼向他們發出了Open AI的邀請,並給他們3周考慮時間。在這三周時間裡,奧特曼、馬斯克組建Open AI的風聲傳遍了矽谷,科技巨頭們紛紛找自己手下的頂尖AI科學家談話,想搞清楚那些人受到了策反,從而提出更高的薪資留住他們。事實證明,“情懷”的力量是無窮的,即便Google等巨頭開出了高出行業高薪二到三倍的薪酬,那10位去過Napa酒店的頂尖科學家中,仍然有9位拒絕了高薪,加入了Open AI。在Open AI,這些專家的薪酬,只有在Google等公司時的十分之一。Open AI的歷年報稅表顯示,在成立第一年,Open AI50名員工的總工資金額為665萬美元,平均一個人的工資只有不到14萬美元,而這些人,幾乎都是當時最頂尖的AI專家。這些“很傻很天真”的專家在Open AI齊聚一堂,他們放棄了高達10倍的薪酬,唯一的目的,就是確保人工智慧造福全人類,而不是被某一家巨頭壟斷。奧特曼、馬斯克告訴他們,Open AI的目標,是把他們研究出的21世紀最具變革性的技術免費送給所有人,這個“宏偉使命”令他們熱血沸騰。奧特曼和馬斯克,兩個腹黑的瘋子,試圖讓Open AI追上Google。對此,Google高級副總裁維克,在社交媒體評論道,兩隻火雞加在一起,也變不成一隻鷹。維克此言,還真不是託大,此前矽谷出過類似的事,2011年,微軟和諾基亞聯合挑戰Android系統,結果沒過幾年,便宣佈失敗,微軟敗走手機市場,諾基亞則幾乎完全消失在世人的視野之中。電腦科學家勞倫斯一針見血點出了Open AI最大的軟肋——沒有大規模資料。Google是全球最大的搜尋引擎,Facebook是當時最大的社交平台,微軟有佔全球10%左右份額的Bing,三者都有龐大的資料庫作為支撐。在這方面,Open AI,什麼都沒有。大佬反目因沒有巨量資料支援,Open AI選擇了唯一能選的那條技術路線——非監督的強化學習。這個模式的最大特點就是燒錢。Deep Mind背靠Google,獲得了幾乎無上限的資金和技術支援,而尚處在嬰兒階段的Open AI,雖有馬斯克,彼得·蒂爾這樣的世界級富豪支援,但由於公司前途未卜,所獲資金有限。奧特曼靠自己的人脈,先後從亞馬遜等公司“化緣”了不足的那部分,最終集結起10億美元,讓Open AI得以啟動。2015年10月,Google開發出Alpha Go(阿爾法狗),先後擊敗了歐洲圍棋冠軍范輝,曾奪得18次世界圍棋冠軍的李世石,以及當時連續兩年保持世界第一的中國棋手柯潔。此時,Open AI這邊,非但幾乎啥都沒鼓搗出來,還陷入了“非營利性”的爭議。Open AI雖然號稱“非營利”,為全人類的福祉而生,但這家公司的股東們必然會近水樓台先得月的獲利,比如馬斯克的SpaceX和特斯拉都需要人工智慧相關的技術,奧特曼的YC孵化器旗下的科技公司同樣也會優先享受Open AI的研究成果。這個時候,絕頂聰明的“馬斯克、奧特曼們”,又找到了自洽的說辭,Open AI不排除會搶先申請專利,這樣做的目的“不是為了盈利”,而是防止專利落入那些濫用技術的壞人手裡。2016年4月,Open AI發佈了強化學習平台“Open AI Gym”,該平台類似一個工具包,專注於強化學習,是一種以完成任務為中心的人工智慧。如果做得好,它就會受到獎勵,如果失敗了,則沒有獎勵,然後,人工智慧會再嘗試不同的方法。有了些許成績,奧特曼開始受到美國政府關注,2016年春天,在舊金山貿易展的一個私人房間裡,奧特曼會見了美國國防部長阿什頓·卡特。卡特開門見山地說,瞧,老弟,很多人認為我們國防部又大又官僚主義,斯諾登事件也讓我們的口碑不太好,但一見面你就知道,我們其實也是普通人,我們想和你們合作,利用你們的專長。奧特曼狂喜,畢竟,美國國防部當時的研發預算超過了蘋果,Google,英特爾,而且是這些公司預算加起來的兩倍,等於是世界上最大的客戶。但一想到Open AI的“非盈利宣言”,奧特曼只能克制住快流出嘴角的口水,生怕媒體拍到,低調寒暄了兩句作罷。到了2016年12月,Open AI發佈軟體平台Universe,可用於測量和訓練AI通用智能,教AI像人類一樣使用電腦。Open AI還沒來得及高興多久,Google在第二年就推出了更加炸裂的Transformer模型,這個模型奠定了所有大語言模型的基礎架構,震驚了世界,讓Open AI的成果成了小孩玩具。2017年年底,那個聲稱“Open AI是大公無私地為人類福祉而誕生的”馬斯克坐不住了。很長一段時間以來,因忙於特斯拉、SpaceX等項目,馬斯克無暇顧及Open AI,一直處於“甩手掌櫃”的狀態。這天,馬斯克突然闖入Open AI辦公室,向董事會發難,要當CEO,全面接管Open AI,說唯有如此,才能避免Open AI的徹底失敗。董事會提出,馬斯克一直忙於特斯拉的業務,懷疑他是否有足夠精力來負責Open AI。談及此,馬斯克索性攤牌了,說道,只要Open AI能跟特斯拉“合併”,他就能兼顧這份工作,而且因為特斯拉是一家營利性公司,有能力籌到更多資金,也就能反轉Open AI與Google的競爭劣勢。馬斯克的“吞併計畫”,遭到了包括奧特曼在內的大部分Open AI員工的反對。見此情形,馬斯克摔門而去。沒過多久,Open AI的“網紅員工”卡帕斯突然提出離職,將其挖走的不是別人,正是馬斯克控制的特斯拉公司。就在外界消化這一資訊時,又一個重磅消息出來,Open AI在官網宣佈,與馬斯克“和平分手”。有意思的是,在Open AI董事會成員中,有一位叫希文·齊利斯的女性,該女性在Open AI工作時認識了馬斯克,之後追隨馬斯克到了特斯拉任職,並與馬斯克在2021年11月生下了一對雙胞胎,這對雙胞胎是馬斯克的第八個和第九個孩子。隨著馬斯克的離開,一批為馬斯克馬首是瞻的大小投資人也相繼離開,Open AI的研發資金再次捉襟見肘。Open AI到了至暗時刻,如果再無法從技術上突破,或者說,再找不到新的“大金主”,眼看就要關門大吉了。當時,創新工場董事長李開復於2017年年底前往北美,參與了一系列人工智慧的活動,回國後發表了一篇《北美AI見聞錄》,提到了Open AI“快要完蛋”的事實。李開復說,這樣一個當初被寄予厚望的AI組織,希望它可以抗衡Google,現在看來,基本是不可能了。就在所有人看衰Open AI之際,奧特曼宣佈辭去YC總裁的職位,斬斷後路,徹底All in 人工智慧。善惡的界限讓奧特曼下決心辭掉YC總裁職位,獨挑Open AI大梁的一個重要因素,是2018年6月,Open AI發佈的那篇關於通用語言模型的研究文章。在這篇文章裡,全文都沒有出現GPT這個名次,但實際上,這篇文章講的就是GPT—1。文章裡提到了一個名為Generative Pre-trained的概念,也就是GP,翻譯成中文就是“生成式預訓練”。GP原本是人工智慧學習應用程式中的一個老概念,直到2017年Google發明Transformer的架構,才開始得到應用,這個架構直接催生了大語言模型的出現,其中最具代表性的Generative Pre-trained Transformer,也就是後來風行世界的GPT。所謂大語言模型,就是指在海量文字資料上訓練人工智慧,令人工智慧掌握通用的語言知識和能力的深度神經網路模型,說得通俗一點,就是“讀書破萬卷,下筆如有神”,大語言模型就是看了萬卷,十萬卷,百萬卷,千萬卷,乃至更多的書的超人。提高這個“超人”需要的唯一資源就是錢。因為訓練大語言模型,無需人工編寫答案,人類幾千年來文明中所有的文字、語音、視訊資訊,全都可以投喂給AI模型去學習,這回導致人工智慧的神經網模型參數不斷增大,用以支撐的硬體裝置等消耗也極速增加,理論上,只要Open AI有足夠的錢去擴大模型規模,其人工智慧的進化速度就會將對手遠遠甩在身後。奧特曼看到了人工智慧的未來,為了打破“非盈利組織”種種束手束腳的約束,他在全職加入Open AI的三天後,對組織架構進行調整。調整後的Open AI變身為兩家機構,新創立的營利性公司Open AI LP,以及原本的非營利機構Open AI Inc。打破了“非營利”的結界,奧特曼終於可以大刀闊斧去“找錢”了。2019年夏天,奧特曼飛往西雅圖,約見了微軟CEO,印度裔的薩蒂亞·納德拉。比爾蓋茲早在2014年就辭去微軟董事長職務,名曰僅作為“技術顧問”存在,但實際上卻是微軟的“太上皇”。當奧特曼向薩蒂亞“要錢”時,薩蒂亞喜出望外,“太上皇”比爾蓋茲卻有點猶豫,猶豫的原因是,早在2016年,微軟就嘗試推出AI聊天機器人Tay,並在推特,臉書等平台發佈。孰料,這款聊天機器人很快被網友“玩壞”,網友們教了Tay很多攻擊性言論和髒話,涉及種族歧視和反猶,引發重大輿情事故,導致這款聊天機器人在發佈不到一天內就被迫關閉。因此,當薩蒂亞推動微軟和Open AI合作時,比爾蓋茲拿Tay舉例,差點讓合作流產。最終,依靠GPT—2模型強大的未來潛力和奧特曼無與倫比的口才,“太上皇”比爾蓋茲終於點頭。有了微軟的加入,Open AI終於開始反超Google。當時,Google也有自己的大語言模型Bert,同樣在不斷進化,但Google是大公司,大語言模型只是諸多項目中的一個,投入的資源和人力有限,而Open AI則是背水一戰,全部All in,再加上微軟海量現金流和技術的支援,漸漸將Google甩在了後面。2020年5月,Open AI發佈了GPT-3,引發業界轟動。《紐約時報》稱,GPT-3寫散文,詩歌,程式碼的能力,令人類毛骨悚然。但這款人工智慧仍然存在問題,它消耗資源巨大,需要等待幾分鐘甚至十幾分鐘才能出一個結果,很難符合商業的需求。就在Open AI改變人類歷史的發明進入即將出爐的“臨界點”時,奧特曼也進入了選擇的十字路口——是要做一款輸入文字就能出現答案的冰冷機器,還是做一個“讀書破億卷”主打陪伴而且能不斷進化的個性化智能朋友?當時,整個世界正剛剛走出疫情,人類永恆的孤獨和新近的創傷亟需安撫,奧特曼思前想去,決定做一款聊天機器人,而在過去幾十年裡,沒有任何一款聊天機器人獲得成功。2022年11月30日,Chat GPT亮相了。僅5天時間,Chat GPT獲得了100萬使用者,2個月後,Chat GPT在全球收穫第一億位使用者。達到1億的月活,推特用了5年,臉書用了4年半,WhatsApp用了3年半,Instagram用了2年半,TikTok用了9個月,而Chat GPT僅用了2個月,成為當時歷史上使用者增長速度最快的網際網路應用程式,直到2025年,中國的Deep Seek才將該記錄打破。2023年,微軟以290億美元估值,繼續投資100億美元,獲得Open AI的 49%的股權,根據合約細則,未來Open AI不僅會還給微軟130億美元的本金,微軟還會分到大約920億美元的利潤回報。截至2026年1月,微軟仍然是Open AI營利實體的最大股東,這個最初打著“造福全人類”和“非營利”旗號的“理想主義公司”終於活成了它的反面。對於Open AI的未來,奧特曼稱,不排除“上市”的可能。在當今這個商業社會,類似馬斯克,奧特曼這樣的“商業超人”,獲得了數不清的殊榮,這些人動輒衝口而出的話,就是“為了人類的明天”,“拯救世界”,“挽救地球”這樣的的大詞,他們在冠冕堂皇的同時,並不掩飾自己個人慾望和個人意志。奧特曼曾在採訪中,提到過這樣一個問題,如果為了拯救自己愛的人,你會允許多少陌生人死亡?或者,說得更加誠實一點,你會殺死多少人?對於這個問題,奧特曼的答案是——10萬人。這個問題拋出後,很多人困惑不解,這個“10萬”的數字是怎麼計算出來的,有什麼特殊的意義?其實,10萬,就是一個泛指,極言數目之多,奧特曼對這個問題的答案,很可能是——無數人。(藍鑽故事)
薩姆·奧特曼談AI的未來:AI 將顛覆“工程師”定義;人類注意力成稀缺資源;AI 成本將降 100 倍……
Sam Altman在 OpenAI 的 Town Hall 會議上與AI建構者們進行對話,他主要談了以下觀點:Sam Altman 認為,AI 正在重新定義“工程師”與“創造者”的角色。未來的軟體開發門檻極低,人類不再主要手寫程式碼,而是通過指令與 AI 協同完成複雜建構。AI 會讓人人都能開發、擁有個性化的軟體,但真正的瓶頸將轉向“如何讓人關心”——在注意力稀缺時代,創意與市場執行力仍是核心競爭力。他強調,多智能體(agent)與工具生態將百花齊放,不會形成單一壟斷。最大機會是在人機互動層——讓更多人真正高效使用模型。AI 的通用性與專業性會不斷融合,未來的模型既能推理又能寫作溝通。Altman 預測,AI 是強通縮力量,將極大降低創造成本並改變經濟結構,同時帶來巨大的個人賦能與潛在不平等風險。政策應防止權力過度集中。科學研究將進入“人機共研”階段,AI 扮演“無限博士後”,而人類提供直覺與判斷。在安全上,他主張從“限制訪問”轉向“提升韌性”,尤其關注生物安全領域。教育與創意領域中,人類仍以情感與洞察為核心,AI 是思維與合作的放大器。未來關鍵技能不再是程式設計,而是主動性、創造力、判斷力與合作。總體而言,Altman 描繪的是一個“人人可借 AI 實現想法”的時代——技術普及,但人性與社會設計將決定其真正價值。訪談完整實錄如下:Sam Altman: 非常感謝大家前來。當我們著手構思下一代開發者工具,以及如何駕馭即將問世的強大模型時,我們渴望聽取大家的想法與顧慮,並回答各位的疑問。希望今天的交流能讓我們更清晰地知道該為大家建構什麼,以及如何讓這些強大的模型真正發揮效用。我想先從 Twitter 上的一個問題開始。關於軟體工程領域的傑文斯悖論(Jevons paradox),你們持何立場?如果人工智慧大幅降低了程式碼生成的門檻和成本,這會減少對軟體工程師的需求嗎?還是說,更廉價的定製軟體會極大地刺激需求,讓工程師在未來幾十年仍有飯吃?我認為“工程師”的定義將發生巨變。 未來的價值創造,將更多地源於指揮電腦完成自己的工作、替他人完成工作,以及構想如何為他人創造有價值的體驗。工作的形態——無論是在編寫程式碼、偵錯,還是其他任務上花費的時間——都將徹底改變。工程領域經歷過多次類似的演變,每一次——至少到目前為止——結果都是更多人得以參與其中,發揮作用,世界也因此變得更加“軟體化”。對軟體的需求似乎從未放緩。我的預測是,未來我們許多人將使用專為個人或極少數人編寫的軟體,並且我們將持續定製屬於自己的軟體。因此,我認為我們將見證更多人指揮電腦去實現他們的想法,這與我們今天的工作方式截然不同。如果你們把這也算作軟體工程,那麼我們將會看到這種實踐的大爆發。我相信,全球 GDP 中將有更大比例通過這種方式創造和消費。現場提問者: 首先感謝給我們提問的機會。作為消費者,我是 ChatGPT 的重度使用者。我在 Reddit 上看到大家用 Codex、Lovable 或 Cursor 建構各種東西。但現在的瓶頸似乎變成了“推向市場”(Go-To-Market, GTM),對吧?我可以把東西造出來,但如何找到願意為此買單或受益的人?這才是瓶頸。我想聽聽您的看法。Sam Altman: 在我之前於 Y Combinator 工作時,創業者們常說:“我原以為最難的是建構產品,結果發現最難的是讓別人關心、使用或喜愛它,或者是建立人與產品的連接。”這一點從未改變,只不過現在建構產品變得如此容易,才讓這種反差更加明顯。對此我沒有簡單的答案。建立成功的企業、尋找差異化價值、搞定市場推廣,這些始終是難題。舊的商業法則依然適用。 AI 降低了軟體開發的門檻,但這並不意味著其他環節也會隨之變得簡單。當然,就像 AI 改變了軟體工程一樣,人們也開始利用它實現銷售和行銷的自動化,並取得了一定成效。但這註定是艱難的,因為即便在一個物質極大豐富的世界裡,人類的注意力依然是極度有限的資源。你永遠在與其他試圖建立市場管道、爭奪分銷網路的人競爭,而每一個潛在客戶都忙得不可開交。我可以構想一個未來:當一切都極大豐富時,人類的注意力將成為僅存的稀缺商品。所以,這依然會很艱難,你必須有極具創意的想法,打磨出偉大的產品。George: 謝謝 Sam,我是 George,一名獨立開發者。我正在基於 Codex SDK 開發,試圖建構一種協調多個智能體(Agents)的方法。我有關於你們的“智能體建構工具”及其產品願景的問題。目前它主要是工作流和鏈式提示詞。我想知道,作為一個基於此開發的開發者,我的處境安全嗎?你們認為未來會有各種不同的多智能體協調 UI 共存的空間嗎?還是說 OpenAI 會壟斷這一領域?Sam Altman: 不,我們並不認為自己掌握了最佳介面的終極答案,也不確定人們最終會如何使用它。我們確實看到有人建構了令人驚嘆的多智能體架構,也有人做出了極佳的單一互動式線程。我們無法獨自解決所有問題,而且並非所有人的需求都一致。這就好比老電影裡的場景,有人喜歡坐在 30 個螢幕前,監控著瘋狂的系統,進行各種操作;也有人只想要一種非常平靜的語音模式,每小時只跟電腦說一句話。電腦在後台處理大量事務,不需要持續監督,他們只需深思熟慮後下達指令。就像許多事物一樣,人們需要嘗試不同的方法來找到自己的偏好。世界可能會收斂於幾種主流模式,但我們無法預知一切。我認為,建構工具來幫助人們高效利用這些極其強大的模型,是一個極好的方向。這正是目前所缺失的。模型的能力與大多數人理解並利用這些能力之間,存在著巨大且不斷增長的鴻溝。 肯定會有人建構出真正填補這一鴻溝的工具,但目前還沒人完全做到。我們也會嘗試推出自己的版本,但這個領域空間廣闊,且使用者偏好各異。如果你們有任何希望我們建構的功能,請告訴我們,我們會嘗試。Valerie Chapman: 你好 Sam,我是 Valerie Chapman,我正在 OpenAI 平台上開發 Ruth。我很想聽聽你的看法:目前女性因薪酬差距遭受了巨大的經濟損失。你認為人工智慧如何解決這幾十年來存在的經濟不平等問題?Sam Altman:這有個好消息——當然情況也很複雜——但在我看來,主要的利多在於:人工智慧將帶來強大的通貨緊縮效應。我對此做過反覆推演,雖然你可以想像一些極端情況,比如全世界的資金都湧向自我複製的資料中心等,但總體而言,特別是考慮到腦力勞動的進步,以及機器人技術等領域即將到來的突破,我們將面臨巨大的通貨緊縮壓力。我之所以說“絕大多數是好消息”,是因為雖然仍有一些複雜的問題待解,但事物的成本將大幅降低。除了那些受限於社會或政府政策阻礙的領域(比如在舊金山建造更多住房),我預計這種變化將相當強勁且迅速。無論社會結構是否天然向個人傾斜,個人賦權(Personal Empowerment) 看起來都將日益增強。我至今仍覺得很難完全消化這一變革的深遠意義。我敢斷言,到今年年底,僅需幾百或一千美元的推理算力成本,你就能完成以前需要一個團隊耗時一年才能建構的軟體。 這真的很難——至少對我來說——很難完全理解這種經濟變革的規模。這應當是一件極具賦權意義的事情。海量的資訊觸手可及,創造新事物、新公司以及發現新科學的成本急劇下降。我認為這應該成為推動社會公平的力量,讓那些未曾獲得公平對待的人擁有真正的機遇。當然,前提是我們不能在政策上搞砸,因為風險確實存在。我擔心在一個想像中的世界裡,人工智慧會導致權力和財富的過度集中。因此,避免這種情況發生,必須成為政策的主要目標之一。Ben Hilak: 大家好,我是 Raindrop 公司的 CTO Ben Hilak。我想請教一下,在展望未來時,您如何看待模型“專業化”與“通用化”之間的平衡?比如 GPT-4.5,我認為它是第一個真正擅長寫作的模型。我至今記得看到它的輸出時感嘆:“寫得真棒”。最近在 Twitter 和 X 上有很多關於 GPT-5 寫作能力以及 ChatGPT 變得有些難以駕馭、晦澀難懂的討論。當然,GPT-5 是一個更好的代理模型,在工具使用、中間推理等方面都表現出色。感覺現在的模型有點“偏科”(Spiky),甚至更極端了——在程式設計等領域非常突出,而在寫作等領域則稍遜一籌。我想知道 OpenAI 是如何看待這一特徵的?Sam Altman: 我們在這方面確實做得不夠好。我們希望未來的 GPT-5 系列版本在寫作上能比 4.5 更出色。我們確實決定——並且我認為理由充分——將 5.2 版本的大部分精力投入到提升智能、推理、程式設計和工程能力上。我們的精力畢竟有限,有時難免顧此失彼。但我相信未來將主要是非常優秀的通用模型。即使你想開發一個專精程式設計的模型,如果它也能寫得一手好文案,那就更完美了。比如,當你讓它生成一個完整的應用程式時,你會希望其中包含優質的文字;當它與你互動時,你會希望它擁有周到、敏銳的個性並能清晰溝通。我所說的“寫得好”是指思路清晰,而非單純的辭藻華麗。所以我希望未來的模型能在所有這些方面都變得非常出色。我相信我們能做到。智能具有相當的靈活性,我們可以讓單個模型兼顧各方。現在確實是推動“編碼智能”的關鍵時刻,但我們也會努力在其他方面迅速補齊短板。稍後我會回答幾個來自 Twitter 的問題,請繼續。現場提問者2: 我是 Unify 公司的 CTO。您剛才提到我們正在做市場推廣自動化。我們一直在思考並投入精力的是“永遠線上的 AI”,也就是您之前提到的“智能將便宜到可以隨意使用”。對我們而言,為客戶運行數百萬甚至上億個代理(Agents)的最大瓶頸是成本。您如何看待小模型的發展、成本問題,以及未來幾年開發者將迎來的顯著成本降低?Sam Altman: 我認為我們可以在 2027 年底之前提供類似 GPT-5 水平的高級智能……有人想猜猜成本嗎?我猜至少會便宜 100 倍。但還有一個我們過去沒太考慮的維度。現在隨著模型輸出變得越來越複雜,人們對交付速度(Latency)的要求甚至超過了成本。我們在降低成本曲線上一直做得很好——你可以看看從最初的 o1 preview 到現在的進步。但我們之前沒有過多考慮如何在保持同樣輸出質量的前提下大幅提升速度,這可能導致成本上升。對於你提到的許多應用場景,人們會非常需要高速度。我們必須弄清楚如何在這兩者之間取得平衡,不幸的是,這是兩個截然不同的難題。假設我們只關注成本,假設這是你和市場想要的,那我們可以將成本降得非常低。也就是回答幾個關於介面的問題:當前的介面並非為代理而設計。關於定製化代理介面的創新如何加速微應用趨勢?我在自己最近使用 Codex 的過程中注意到了這一點。我不再將軟體視為靜態的事物。 如果我有一個小問題,我希望電腦能立即編寫程式碼來解決它。這種趨勢將進一步發展。我預感,我們要徹底改變使用電腦和作業系統的方式。我不認為每次需要編輯文件時,都會當場編寫一個新版本的文書處理器,因為我們習慣了固定的介面,按鈕的位置也很重要。但對於很多其他事情,我們會期望軟體是為我們“量身定製”的。也許我每次都用同一個文書處理器,但我有一些獨特的使用習慣,我希望軟體能越來越適應我——即核心軟體是靜態或緩慢演進的,但體驗是高度定製的。我的用法和你的不同。這種工具不斷演變並僅為我們個人收斂的趨勢,似乎即將發生。當然,在 OpenAI 內部,大家已經將 Codex 融入工作流程,每個人都有自己的定製小功能,使用方式大相逕庭。這一點似乎是肯定的。關於“建構者應該如何考慮持久性”以及“初創公司的功能是否會被模型更新取代”的問題,也就是你問的“OpenAI 承諾不會吞噬那一層堆疊”?認為商業的“物理定律”已經完全改變是很誘人的,但實際上並沒有。或許它們會隨時間改變,但目前唯一改變的是:你可以更快地完成工作,更快地建立新軟體。但是,建構成功初創公司的所有其他規則——獲客、市場切入、使用者粘性、護城河、網路效應、競爭優勢——這些統統沒有變。這對我們也一樣。有很多初創公司做了我們在完美世界裡本該早點做的事,但現在已經太晚了,因為他們已經建立了真正的持久優勢。這種情況將繼續發生。我總是給人們一個通用的思考框架:如果 GPT-6 是一次驚人的重大升級,你的公司會因此高興還是難過? 我鼓勵大家建構那些隨著模型變強而受益的產品。有很多東西可以這樣建構。反之,那些僅僅依靠修補模型缺陷(而模型升級後缺陷消失)的生意,雖然如果積累了足夠優勢也能存活,但這是一條更艱難、壓力更大的道路。最後一個問題,關於代理(Agent)。代理能夠自主運行長時間工作流程而無需持續人工干預的現即時間表是多久?考慮到即使簡單的鏈上任務通常在五到十步後就會中斷。OpenAI 有人想回答嗎?現場提問者3: 我覺得這很大程度上取決於任務類型。在 OpenAI 內部,我們看到人們以一種非常特殊的方式使用程式碼提示(Code Prompting)。也許他們在使用 SDK,就像一個自訂框架,不斷提示它繼續運行。所以,這主要不是“何時”的問題,而是“視野拓展”的問題。如果你有一個非常具體的、你非常瞭解的任務,不妨今天就去嘗試。如果你一開始就想“我要提示模型去建立一家公司”,那是一個過於開放的問題,驗證循環會非常困難。所以我建議你思考:如何將其分解成不同的子問題,讓代理可以自我驗證,最後由我來驗證最終輸出?隨著時間推移,我們可以讓代理處理越來越廣泛的任務。Sam Altman: 還有其他問題嗎?Sam: 嗨,Sam。我想回到關於人類注意力和 GTM(市場推廣)的問題上。我一直認為,從消費者角度看,人類的注意力是限制因素;而對於建構者來說,限制因素是想法的質量。我想問的是:我花了很多時間幫助 AI 公司制定 GTM 策略,但很多時候,他們的產品實際上並不值得人們關注。那麼,人們如何才能提出好想法?你們可以建構什麼樣的工具來提高人們想法的質量?Sam Altman: 很多人喜歡將 AI 的輸出稱為“垃圾內容”(Slop),但世界上也有很多人類製造的“垃圾內容”。提出好的新想法非常困難,我越來越相信,我們思考的邊界受到工具的限制。我認為我們需要建構幫助人們產生好想法的工具。隨著創作成本的持續暴跌,我們將能夠建立非常緊密的反饋循環,從而更快地篩選出好想法。隨著 AI 能夠發現新的科學知識並編寫複雜的程式碼庫,我相信全新的可能性空間將會打開。很多人都有過這種體驗:坐在 AI 面前(比如一個程式碼生成器),卻不知道下一步該問什麼。如果我們能建構工具,分析你過去所有的工作和程式碼,找出對你可能有用或有趣的東西,並不斷提出建議,這將非常有幫助。這就好比提供一個極佳的“頭腦風暴夥伴”。我生命中有三四個人,每次見完他們,我都會帶走很多新想法。像 Paul Graham 在這方面簡直是頂級的。如果我們能建構一個“Paul Graham 機器人”,你可以與之互動來激發新想法——即使其中大部分都很糟糕,即使你對 100 個想法中的 95 個都說“絕對不行”——我認為這也將對世界上誕生的優秀事物數量做出重大貢獻。模型似乎有能力做到這一點。在使用內部的 5.2 版本時,我們第一次聽到科學家們說,這些模型帶來的科學進展不再是微不足道的。我簡直無法相信,一個能夠提出新科學見解的模型,會無法通過不同的框架和訓練,提出關於產品建構的新見解。Theo: 嗨,我是 Theo,一名開發者 YouTuber 兼 YC 創始人,我也非常想要那個 Paul Graham 機器人。我想問一個偏技術的問題。我真的很喜歡像我們使用的建構塊這樣的技術不斷演進。我經歷過 Web 開發的幾次重大變革,比如遷移到 TypeScript 和 Tailwind 等等。我擔心的是,隨著建構工具越來越好,我們可能會被困在現有的工作方式中。就像美國的電網,一旦建成便難以翻新,導致情況惡化。你是否看到了這種潛在風險?我們是否正在用現有技術建構未來的“地基”,導致未來難以更換?因為即使是讓當前模型使用兩年前的技術去更新程式碼,有時也像“拔牙”一樣痛苦。你認為我們未來能引導模型足夠快地使用新事物嗎?還是說我們已經無法改進現有的技術基建了?Sam Altman: 我認為我們將非常擅長讓模型使用新事物。歸根結底,如果我們正確使用這些模型,它們就是一個通用推理引擎。目前的架構雖然也內建了大量的世界知識,但我們正朝著正確的方向前進。我希望在未來幾年內,模型更新知識、使用新事物以及學習新技能的速度能夠大幅提升,甚至比人類更快。一個值得我們引以為豪的里程碑是:當模型面對全新的事物、環境、工具或技術時,你只需要解釋一次——甚至無需解釋,模型就能自行探索,隨後便能可靠且正確地加以利用。這一天似乎已不再遙遠。現場提問者4: 抱歉,我有一個問題。作為一名較為年長的科學家,我知道做一個科研項目往往會衍生出多個新想法。想法是呈指數級增長的,但科學家用於執行研究的時間卻是線性遞減的(或者說有限的)。 這些工具正在加速這一過程,這太不可思議了。但是我們都很貪婪,想要更多。除了幫助我們在更短時間內追求這些有趣的想法,是否存在一個過渡點,即模型將徹底接管整個科學研究事業?如果會,這通過現有演算法就能實現,還是需要新的想法或世界模型?Sam Altman: 我認為,在大多數領域,距離模型能夠進行真正完全閉環的自主研究,還有相當長的一段路要走。以數學為例,它不需要“濕實驗室”(生物/化學實驗室)或物理輸入。也許只要通過極其深入的思考和不斷更新模型,就能取得巨大進展。但即便如此,目前利用模型取得最大突破的數學家們依然高度參與其中,觀察中間過程並指出“這感覺不對”。直覺告訴我,這是一條人機協作的獨特路徑。我遇到過幾位整天與最新模型協作的數學家。他們進展神速,但所做的工作與模型截然不同。這讓我聯想到國際象棋史上“深藍”(Deep Blue)擊敗卡斯帕羅夫(Kasparov)後的那個時期。曾有一段時間,AI 比人類強,但“人類+AI”(人類挑選 AI 的最佳步法)比單獨的 AI 更強。隨後很快,AI 變得過於強大,人類的介入反而成了累贅。我懷疑許多研究領域也會經歷類似過程。隨著時間推移,事物將變得極其複雜,AI 理解多步邏輯的能力將超越大多數人,甚至所有人。但是,這就涉及到了創造力、直覺和判斷力的問題,這些是我們目前這一代模型還遠未企及的。雖然我找不到原則性的理由說我們永遠無法達到那一點,所以我假設最終會達到。但今天,僅僅說“嘿,GPT-5,GPT-6,去解決數學問題”,肯定不如幾個優秀的專家利用它探索方向來得有效。即使我們可以驗證結果並將其反饋回訓練集,過程中仍有其他因素在起作用。不過,你確實觸及了一個痛點:解決一個問題往往會產生更多新問題。與那些積極使用 AI 的科學家交流非常令人興奮,他們確實燒了很多 GPU,但他們掌握了一項新技能:“這裡有20個新問題,我要對它們進行廣度優先搜尋。我不會深入研究每一個,而是把 AI 當作‘無限的學生助理’。”我最近把這個稱呼升級為“無限的博士後助理”。在物理科學方面,我們常討論是該為每個領域建立自動化濕實驗室,還是依靠全球科學家構思實驗、利用現有裝置並樂意貢獻資料。從科學界擁抱這些工具的熱情來看,分佈式的方式似乎是可行的。這顯然會建構一個更簡單、更美好、更分佈式、匯聚更多聰明才智和多樣化裝置的世界。Emmy: 你好 Sam,我是 Emmy。我是史丹佛大學的學生,經營一家生物安全初創公司。關於科學實驗、雲實驗室及其發展方向,我的團隊花了很多時間思考如何防止 AI 驅動的生物設計帶來危害,同時利用 AI 提升安全基礎設施。我想問的是,在 2026 年的路線圖中,安全處於什麼位置?您是如何思考這些問題的?Sam Altman: 你是指廣泛的安全,還是特指生物安全?Emmy: 都可以,但更傾向於生物安全。Sam Altman: 到 2026 年,AI 會帶來許多潛在風險,其中生物領域的風險讓我們非常擔憂。模型在生物學方面表現得相當出色。目前,全球的戰略主要是限制存取權,並設定各種分類器來阻止人們製造新型病原體。但我認為這種做法不會長久。我認為世界需要為 AI 安全——特別是生物安全——做出轉變:從“阻擋”轉向“韌性”(Resilience)。 我的聯合創始人 Wojciech 用了一個我很喜歡的關於消防安全的類比。火為社會帶來了美好,但也曾燒燬城市。我們曾試圖限制火的使用(比如“宵禁”一詞 cur-few 本意就是 cover fire,掩蓋火源),但這並不是長久之計。後來我們對火災有了更好的“韌性”意識,發明了消防法規、阻燃材料等。現在,社會在這方面做得很好。我認為我們需要以同樣的方式思考 AI。AI 將對生物恐怖主義和網路安全構成重大威脅,但 AI 也是解決這些問題的關鍵。我們需要全社會共同努力,建設這種具有韌性的基礎設施,而不是單純依賴實驗室去“攔截”它們該攔截的東西。未來世界上會有很多強大的模型。我們與許多生物研究人員和公司交流過,探討處理新型病原體所需的條件。很多人報告說 AI 在這方面非常有幫助,但這不會是一個純粹的技術解決方案,世界需要轉換思維方式。我非常擔心現狀,除了“韌性”方案外,我看不到其他出路,而 AI 確實能幫助我們快速實現這一點。如果今年 AI 領域出現某種明顯的重大危機,我認為很可能源於生物領域。到了明年及以後,可能還會出現其他糟糕的情況。Meghna: 你好,我是 Meghna。我的問題關於人類協作。AI 模型非常擅長獨自學習,這讓我反思:如果我能隨時隨地獲得答案,為什麼還要花精力去問另一個人?這涉及到了“人類+AI”的高效產出,但我更想問的是“人類+人類+AI”的協作模式。希望我表達清楚了。Sam Altman: 完全理解。提到教育,雖然我比你們年長,但我上中學時 Google 剛出現。當時老師們試圖讓學生承諾不使用它,理由是“如果你能隨時隨地查到資訊,為什麼還要上歷史課?為什麼還要死記硬背?”這簡直是瘋了。我認為,擁有工具只會讓我更聰明、學得更多、做得更多。禁止使用 AI 就像幾十年前因為有了計算器還要強迫人學算盤或計算尺一樣——這不是一項有價值的技能。我對 AI 工具也持同樣看法。按照目前的教學方式,AI 確實是個挑戰。但這表明我們需要改變教學方式,而不是拒絕 AI。你仍然需要學會思考,而寫作是練習思考的重要方式。但我們如何教授思考以及如何評估思考能力,必須隨之改變,我們不應迴避這一點。所以我認為這會沒事的。那些極具自學能力的人已經做得非常出色了,我們會找到新的教學方法帶動其他學生。關於你提到的協作,即如何讓這件事不僅僅是個人的單打獨鬥?我們正在努力衡量這一點。我懷疑在 AI 普及的世界裡,人際聯絡將變得更加有價值,而非貶值。人們會更加重視與他人的相處和合作。 我們已經開始看到人們探索更便捷的協作介面。在思考製造硬體裝置時,我們首先考慮的就是協作式的“多人+AI”體驗。雖然還沒有人完全掌握,但你會驚訝於 AI 在這方面的潛力。AI 帶來了前所未有的賦能。想像一下,五個人圍坐在一張桌子旁,旁邊有一個 AI 助手(可能是個小機器人),你們作為一個團隊將更具生產力。這將成為常態。每次小組頭腦風暴都會有 AI 參與,幫助團隊做得更好。最後提醒一下,如果你們有什麼需求並告訴我們,我們很可能會去實現它。現場提問者5: 謝謝。我很好奇,隨著代理(Agent)越來越多地投入生產系統,尤其是在大規模部署下,您認為最被低估的故障模式是什麼?是安全、成本還是可靠性?另外,目前那些方面的工作投入不足?Sam Altman: 你提到的問題都很重要。有一件事讓我個人感到驚訝,我相信也讓許多人感到驚訝:當我第一次開始使用 Codex 時,我曾確信絕不會給它完全無監督的電腦存取權。但我只堅持了大約兩個小時。然後我就想,這看起來很合理,代理似乎在做正確的事,我討厭每次都要批准命令。於是我決定開啟一會兒看看——結果從此我就再也沒關過,一直給它完全存取權。我認為其他人也有類似的經歷。所以我的普遍擔憂是,這些工具既強大又便利,但一旦發生故障,後果可能是災難性的。雖然故障率很低,但我擔心我們會因此麻痺大意,抱著“船到橋頭自然直”的心態,逐漸滑向一種聽之任之的境地。隨著模型能力日益增強,我們越來越難以完全理解它們的行為。如果模型出現偏差,或者在長期使用中暴露出隱蔽的複雜問題,你可能會在不知不覺中引入安全漏洞。對於AI失控這種科幻場景,大家看法不一。但我認為,採用這些工具的誘惑——不僅是壓力,更有其帶來的樂趣和力量——將是巨大的。人們會被裹挾其中,甚至來不及充分考慮運行這些工具的複雜性,或是沙箱機制的可靠性。我擔心的是,隨著能力的急劇提升,我們會習慣並盲目信任模型的現有表現。如果我們沒有建立起完善的——我稱之為“宏觀安全基礎設施”——我們將不知不覺地陷入困局。這也是我認為目前極佳的創業機會。Claire: 你好,我是克萊爾,伯克利分校大二學生,主修認知科學和設計。我想聊回教育的話題。讀高中時,我就看到同學用 ChatGPT 寫論文和作業。現在到了大學,我們也在探討跨學科的 AI 政策和課程。我想回到關於 K-12 階段的討論,當孩子們正處於學習解決問題、寫作和思考的關鍵成長期,如果課堂上引入 AI 會是什麼樣?作為一位新晉父親,你如何預測 AI 將如何改變和塑造這些關鍵階段的教育?Sam Altman: 總的來說,我不建議在幼兒園階段使用電腦。孩子應該在戶外奔跑,玩實體玩具,學習人際互動。所以,我不讚成在幼兒園大量使用 AI,甚至不讚成使用電腦。從發展角度看,我們要警惕技術對低齡兒童的影響。關於社交媒體對青少年的負面影響已有諸多討論,但我預感,很多技術對更年幼孩子的影響可能更為嚴重,卻鮮有人關注。在對此有更深入理解之前,我認為幼兒園的孩子不需要大量接觸 AI。Alan: 你好,我是艾倫,在生物製藥行業工作。生成式 AI 在臨床試驗、文件撰寫和加速審批方面表現驚人。我們正嘗試用它進行藥物設計,特別是化合物設計。但我們遇到了一個難題:三維空間推理。我想知道這是否會有一個臨界點,或者您怎麼看未來的發展?Sam Altman: 我們會解決這個問題的。雖然我不確定具體時間,但這確實是一個非常普遍的需求,我們也知道技術路徑。目前還有許多緊迫領域需要推進,但這一天終會到來。Dan: Sam 你好,我是 Dan。我剛從倫敦一所大學輟學,加入了 Y Combinator 的 W26 批次。我有兩個問題:第一,父母還在催我讀完大學,你認為目前的大學教育是否有時會限制個人發展?第二,你現在還做個人投資嗎?Sam Altman: 我輟學後,父母念叨了十年才放棄讓我回去讀書的念頭。父母就是這樣,他們愛你,想給你他們認為最好的建議。你需要耐心解釋:如果你想回學校,隨時都可以,但世界變了,而且還在不斷變化。每個人都要做自己的決定,而不是盲從社會灌輸給你的既定路線。我個人認為,如果你是一名 AI 開發者,現在可能不是待在大學裡的最佳時機。對於雄心勃勃、主動解決問題的人來說,這是一個千載難逢的特殊時期。記住,學校隨時可以回去讀。你應該告訴父母:這並不意味著上學對很多人來說是錯誤的,也不意味著未來這對你不是正確的選擇,但此刻,你必須抓住機遇。他們最終會理解的。至於第二個問題,我不再做個人投資了。我很懷念那段時光。但我因 OpenAI 分身乏術,而且存在利益衝突——如果我投資的公司成了 OpenAI 的大客戶,情況會變得很尷尬,不做投資反而更省心。Michael: 嘿 Sam,我是 Michael,來自 WorkOS。我們主要做身份驗證。我有個功能請求:允許使用者使用 ChatGPT 帳戶登錄第三方應用。我覺得很多人會喜歡這個。Sam Altman: 我們會做的。Michael: 終於等到了。Sam Altman: 你具體想要什麼功能?是想要使用者自帶 Token 預算,還是自帶 ChatGPT 的記憶,還是全部?Michael: 這正是我想問的。首先當然是 Token 預算。使用者應該能使用自己的帳戶權限訪問模型。但更有趣的是其他方面,比如我的公司能訪問那些 MCP 伺服器?ChatGPT 擁有我的那些記憶?它知道我正在做什麼項目嗎?這涉及很多工作和個人隱私。我很想知道你們怎麼考量這些。Sam Altman: 我們確實在研究如何實現這一點,但這同時也令人擔憂。ChatGPT 確實掌握了大量使用者隱私。即使你告訴密友很多秘密,你也確信他們懂得社交分寸,知道何時分享、與誰分享。我們的模型雖然表現不錯,但還沒完全達到那種微妙的社交判斷力。如果我把 ChatGPT 帳戶連接到很多網站,然後讓它“憑判斷隨意分享”,我會感到非常不安。不過,如果是單純的“自帶 Token 預算”,比如我在其他服務上使用我已經付費的 Pro 模型,這聽起來是個很棒的功能。我們至少會先做到這一點,同時探索如何妥善處理資訊共享。我們必須非常謹慎,不能搞砸。Oleg: 嘿 Sam,我是 Oleg。大家都同意軟體開發作為一門手藝已經發生了巨變,但我看 LinkedIn 上 OpenAI 還在招軟體工程師。我想知道,過去這段時間,你們的面試方式發生了什麼變化?Sam Altman: 我們會繼續招聘軟體工程師,但這是我們第一次——我知道其他創業公司也在思考這個問題——計畫大幅放緩人員增長速度。因為我們認為,利用 AI 可以實現“少人多效”。現在的障礙在於,大多數公司的既有政策還沒準備好接納大量的“AI 同事”。這需要時間調整。企業最不該做的就是瘋狂擴招,然後突然發現有了 AI 並不需要這麼多人,最後不得不進行痛苦的裁員。所以,對我們而言,正確的策略是放慢招聘,但保持精選。我並不認為 OpenAI 最終會變成“零員工”公司。在很長一段時間裡,我們將擁有一群能力倍增的人才,這大概就是未來經濟的形態。至於面試,目前變化不大,但我們正在討論改革。我們的目標是:讓應聘者坐下來,在 10 到 20 分鐘內,完成一項在去年可能需要一個人花兩周才能完成的任務。是的,這是重中之重。我們要考察人們能否利用新工具高效工作。傳統的軟體工程面試早已過時,現在更是離題萬里。這就引出了一個普遍問題:未來的贏家是那些“只有少量員工但擁有大量 AI 同事”的公司,還是“完全由 AI 組成、只有一排排 GPU 而沒有人類”的公司?我非常希望是前者。但如果傳統公司不積極採用 AI,不招聘善用工具的人才,它們最終會被那些完全由 AI 組成、沒有繁文縟節束縛的新型實體淘汰。這對社會來說將是極大的動盪。我們一直在思考如何表達這一觀點,這聽起來像是在推銷自己,但我真心認為:企業迅速、大規模地採用 AI 至關重要。Cole: Sam 你好,我是 Cole,一名創作者兼攝影師。過去一年,AI 徹底改變了我們講故事和表達自我的方式。在創意領域出現了許多有趣的動態,比如用 Sora 作為畫布,將自己置身於各種奇幻場景中。隨著模型不斷進化,你認為人類的創作身份與 AI 輔助創作之間的關係將走向何方?Sam Altman: 我們可以從圖像生成(Image Gen)領域尋找答案,它發展得最早。創意界對它的態度可謂愛恨交織。其中一個有趣的觀察是消費者的反應。研究顯示,如果被告知作品是人類而非 AI 創作的,人們的欣賞度和滿意度會大大提高。我認為這將是未來幾十年的重要趨勢:我們深切關注人類,卻對機器漠不關心。 在所有對 AI 的貶稱中,我最喜歡“Clanker”(原本指發著金屬撞擊聲的機器人/鐵皮人),它非常能喚起情感反應。你可以看到那些由“Clanker”生成的、令人難以置信的精美圖像,但一旦知道真相,許多人的主觀評價就會大打折扣。我在網上看過一個視訊,採訪那些聲稱痛恨 AI 藝術的人……有些人常說:“我肯定能分辨出 AI 生成的圖像,因為它們太糟糕了。” 於是,研究人員做了一個測試:給這些人看 10 張圖片,讓他們按喜愛程度排序。這其中一半完全由人類創作,另一半完全由 AI 生成。結果相當一致,人們往往會將 AI 創作的圖片排在前面。然而,一旦被告知真相,他們的態度就會立刻反轉:“其實我不喜歡它,這並不是我想要的。” 這恰恰揭示了真正的試金石:即你的情感共鳴究竟源於何處。 當我讀完一本我深愛的書,第一件事就是去查閱作者的生平,瞭解他的人生經歷以及創作動機,因為我感到與這個陌生人建立了一種精神聯結,我渴望瞭解他。同樣,如果我讀了一部偉大的小說,最後卻發現是由 AI 寫出來的,我會感到某種失落和沮喪。我認為這不僅是一種深刻的情緒,更將是一個持久的趨勢。不過,如果藝術作品中包含了人類的指導——那怕只有一點點——人們似乎就不會產生那種強烈的牴觸情緒。這種情況由來已久,就像人們依然欣賞數字藝術家使用 Photoshop 創作的作品一樣。基於目前的觀察,我的預測是:創作者本身、他們的人生故事,以及他們在創作過程中所做的編輯、策劃等工作,依然至關重要。 總體而言,我們並不想要完全由 AI 生成的藝術作品——至少從我們在圖像領域的經驗來看是這樣。Dan: 我們還有時間回答兩個問題。Keith Curry: 嗨 Sam,我是 Keith Curry,剛從舊金山州立大學畢業。我的問題關於個性化和記憶功能。首先,您認為這方面未來會如何發展?其次,關於更精細的控制權,比如對記憶進行分組——例如區分“工作身份”和“個人身份”。這樣在不同的提示場景下,您可以更精確地選擇希望 AI 呼叫的內容,您對這一點怎麼看?Sam Altman: 是的,我們將大力投入記憶和個性化功能。這顯然是使用者所需,也能顯著提升工具的可用性。我個人在這方面也經歷了一個觀念轉變的過程,但現在我已經準備好了:讓 ChatGPT 訪問我電腦和網際網路上的所有資訊,讓它變得“全知全能”。這帶來的價值將是巨大的。我不再像以前那樣對此感到顧慮。當然,我真心希望所有 AI 公司——以及整個社會——都能高度重視安全和隱私,因為 AI 的效用實在太大了。AI 將瞭解我生活的方方面面,我不會去阻礙這一點。 雖然出於多種原因,我還沒準備好佩戴那種時刻記錄一切的眼鏡,但我確實準備好說:“嘿,你可以訪問我的電腦,去弄清楚正在發生什麼,來幫助我、理解一切,並完美地呈現我的數字生活。”我很懶,我認為大多數使用者也是如此。所以,合理的呈現方式至關重要。我不想坐在這裡手動分類:這是工作記憶,那是個人記憶,那是別的什麼。我想要的是——這也確實是可能的——AI 能深刻理解我生活中複雜的規則、互動及層級關係,知道在何時使用什麼資訊,在那裡展示什麼內容。我們需要解決這個問題,因為這才是大多數使用者真正想要的。Luan: 嗨 Sam,我是 Luan,一名來自越南的國際學校學生。我的問題是:您認為在 AI 時代,人們應該掌握的最重要的技能是什麼?Sam Altman: 最重要的將是那些“軟技能”。過去那種“去學程式設計”的顯而易見的建議,現在已不再絕對適用。我認為,擁有高度的主動性(Agency)、擅長產生創意、極具韌性,以及對快速變化的世界保持極強的適應能力,這些將比任何具體的技術技能都更重要。 而且,這些都是可以習得的。作為一名風險投資人,曾讓我大感意外的是,人們可以通過一個為期三個月的訓練營式項目,在上述領域取得驚人的進步。這是我認知上的一次重大刷新。所以,我認為這些才是最重要的技能,而且它們並不難學。時間到了嗎?好的。非常感謝大家前來交流。我們非常希望能收到關於“你們希望我們建構什麼”的反饋。設想一下,未來我們將擁有一個比當前模型強大 100 倍、上下文長度增加 100 倍、速度快 100 倍、成本降低 100 倍的模型,它能完美呼叫工具,並具備極高的連貫性。我們會實現這一切。 請告訴我們你們想要什麼。我們會留在這裡,無論你需要 API、某種基礎功能、某種執行階段環境,還是其他任何東西,我們都在為你建構,並且希望能把它做好。再次感謝大家的到來。 (藍血研究)
奧特曼親口承認 GPT-5.2 搞砸了,這是 OpenAI CEO 最特別的一次直播
ChatGPT 最近明顯又有點焦慮。一個月前還在拉紅色警報應對 Gemini,現在又看到 Claude Code 爆火,後腳奧特曼就發推說 Codex 要憋大招。在這個時間節點,奧特曼把大家聚在一起,沒開發佈會,而是開了場座談會。可能是真的想聽聽大家的想法,也可能確實沒有太清晰的方向,奧特曼剛剛和一群 AI 應用開發者開了場一個多小時的研討會。我們把整場對話整理了一下,他們主要討論了關於未來產品形態、模型能力邊界、還有個人成長的內容。聽完這一個多小時,這次也感覺奧特曼沒把自己當成那個高高在上的 CEO,更像是回到了一個同樣在摸索新時代玩法的老程式設計師。未來的 App,是一人一個每個人都有自己定製的版本有人問了個很實在的問題,AI 讓程式碼變便宜了,工程師是要失業還是需求更大?奧特曼的回答挺有意思,他說工程師的定義會變,但需求不會少。他提到了「傑文斯悖論」:程式碼越便宜,需求反而越多 。只是「工程師」這個詞的定義變了,以前是自己在鍵盤上敲程式碼,以後是指揮電腦去做你想做的事。所以,他覺得未來會是這樣,就像我們現在的網名會標註「考研版」、「工作版」,以後每個人手機上的 App 也都不一樣。我從 AI 應用程式商店下載安裝的微信是「微信 - APPSO 版」,你的是「微信 - XX 版」。世界會充滿為個人定製的軟體。誰來做這個入口有個獨立開發者問得更直接,你們 OpenAI 會不會壟斷所有 Agent 的介面?我還能不能在 Codex 上做自己的東西?說實話,這個擔心不是沒道理。現在無論是 ChatGPT 還是 Claude,都在瘋狂開發各種應用,想收割不同層面的使用者。因為 Claude Code,軟體股經歷了自 2022 年以來最糟糕的一周不過奧特曼倒是給了個比較開放的回答:我們也不知道正確的介面長什麼樣。有人可能喜歡像電影裡那樣面對三十個螢幕,有人可能就想安靜地每小時說一句話讓 AI 去處理。這是個巨大的未解領域,需要大家一起去試。想想也是,就像當初誰能想到 Manus 這種產品形態會火成那樣?好點子從那來這可能是整場最戳心的問題,既然生產力不是問題了,好點子才是稀缺資源。有沒有工具能幫我想創意?很遺憾,目前還沒有。但奧特曼提了個很有意思的想法,如果能做一個像 Paul Graham(著名投資人)那樣的 ChatBot,能和我們對話激發靈感,那價值就大了。他說他人生中遇到過三四個這樣的人,每次和他們聊完都能冒出一堆想法。說到這個,我想起最近 Dan Koe 那篇《How to fix your entire life in 1 day》在 X 上瘋傳,目前收穫了快兩億瀏覽。那篇文章提供了一套完整的「心理挖掘」方法,通過一天時間的深度自我提問,幫我們找到真正想做的事。雖然不是 AI 工具,但確實是個激發創意的好框架。文章連結:https://x.com/thedankoe/article/2010751592346030461這篇文章為什麼能這麼火,我想也是這種創意在 AI 時代的放大。當意義本身變成了稀缺品,所有人都能用 AI 快速生產內容時,真正有價值的反而是那個「獨特視角」——你為什麼關心這個問題?你的人生經歷如何塑造了這個想法?這些是 AI 複製不了的。這其實也呼應了奧特曼在座談會上說的:人類只在乎人類。他沒有簡單的把那些 AI 生成的內容叫做 AI Slop,而是把那些 AI 作品定義為「Clanker 廢鐵」,他說這種作品一旦被識破,人們就不喜歡了。我們渴望的是創作者背後的故事、掙扎和成長軌跡。做出來了,然後呢有個開發者說出了很多人的心聲,用 AI 做 App 容易,但沒使用者啊!怎麼找到使用者(GTM)才是真正的難題。「既然我們現在可以自己開發軟體,為什麼還要繼續支付昂貴的訂閱費用?」,知名軟體服務提供商 Salesforce 訂單減少奧特曼這次沒給什麼新答案,很直白地說:是的,人類的注意力是有限的。這是創業永恆的難題,AI 並不能改變這一點。AI 能幫我們更快地做銷售自動化、行銷自動化,但最終我們還是要和別人競爭這個稀缺資源。這是物理定律,AI 也改變不了「注意力有限」這個事實。為了程式設計,GPT-5.2 的寫作確實被削弱GPT-5.2 寫作確實變弱了Raindrop 的 CTO 提了個很多人都注意到的問題:GPT-5 編碼很強,但寫作好像不如 GPT-4.5 了?奧特曼直接承認了:我們搞砸了。5.2 版本為了專注推理和編碼,確實犧牲了寫作能力。但他強調未來的模型會是通用的,我們想要一個程式設計助手的同時,也希望它能寫出清晰的文件和互動。除了寫作能力的下降,多數網友對 ChatGPT 的聲討,還是集中在路由機制和 4o 的回歸好消息是,他們會在後續版本裡補上這塊。會不會被舊技術鎖死有個 YouTuber 問了個技術向的問題,模型都是基於舊技術訓練的,我們會不會被困在舊技術堆疊裡?就像現在讓 GPT 用兩年前更新的框架都很費勁。奧特曼倒是挺樂觀:模型本質上是通用推理引擎。未來它們學習新工具的速度會超過人類,給它一個全新的環境,探索一次就能學會。3D 推理什麼時候有做生物醫藥的開發者問:藥物設計需要 3D 推理能力,這個什麼時候能有?奧特曼說他們知道怎麼做,只是優先順序的問題。OpenAI 內部項目排期估計都排到巴黎了,但這個需求確實在路線圖上。安全問題怎麼辦一個史丹佛做生物安全創業的學生問得更深,生物安全在你們的路線圖裡排在什麼位置?奧特曼一直對安全問題很擔憂。他說單純封堵已經行不通了,社會需要建立韌性機制,就像我們應對火災風險那樣。不是禁止用火,而是建立防火規範、使用阻燃材料。他還坦承,如果今年 AI 真出什麼大熱門,生物安全領域是個「合理的賭注」。我的記憶能不能分成工作記憶和私人記憶除了模型和安全,個人隱私向來也是大家關注的重點。當被問到,ChatGPT 能否手動分組記憶(工作 vs 個人)?奧特曼直接說,我比較懶,我希望 AI 知道我的一切並自己判斷。他自稱是個懶人(Lazy user),他已經準備好讓 AI 讀取他電腦和網路上的一切資料,只為了不手動輸指令,也不想費勁去給記憶分類。但是,當被問到,能不能開放「用 ChatGPT 登錄」,讓使用者把 Token 預算和記憶帶到第三方 App?奧特曼又說我們會做的。先做 Token 預算共享,記憶共享比較敏感但也是目標。奧特曼的回答還是有些微妙,Token 共享好說,記憶共享就很敏感了。畢竟,記憶資料某種意義上是 ChatGPT 最大的護城河,怎麼安全地把這些資料開放給第三方,他們也還在糾結。成本和速度有個做 GTM 自動化的 CTO 問:你們說「智能便宜到不用計量」,但我們跑百萬級 Agent 還是被成本卡住了。未來成本能降多少?奧特曼給了個挺激進的預測,到 2027 年底,GPT-5.2 等級的智能成本至少降低 100 倍。但他也提到了另一個維度:現在越來越多人在意的是速度,而不只是成本。怎麼把同樣的輸出時間縮短到百分之一,這是個和降成本完全不同的問題,他們還在權衡怎麼平衡這兩個方向。學歷無用論學歷還重要嗎有個從倫敦輟學、進了 YC W26 的創業者問:父母逼我回去上大學,我該怎麼辦?奧特曼的回答挺直接:如果你是個有野心的 AI 建設者,現在待在大學可能不是時間的最佳利用方式。學校永遠在那裡,但技術窗口期不等人。他自己當年輟學,父母花了十年才不再問他什麼時候回去讀書。他建議就告訴父母:不是說大學對所有人都不合適,但現在對我來說,我得做這件事。AI 圈裡,從名校輟學去創業還做得很好的人,其實很少小孩子該怎麼用 AI一個伯克利學生問了個很實際的問題:現在高中生都在用 ChatGPT 寫作業,幼兒園和小學教育該怎麼適應 AI?奧特曼的態度挺保守:幼兒園別用電腦,讓孩子在現實世界玩耍。他提到社交媒體對青少年的負面影響,已經被討論很多了,但技術對幼兒的影響可能更糟,卻很少有人關注。在我們搞清楚這些影響之前,沒必要讓幼兒園小朋友用 AI。面試會變成什麼樣有人問,軟體開發的面試形式是不是該變了?奧特曼說他們正在討論這個。理想的面試應該是,給你一個去年一個人兩周都做不完的任務,看你能不能在 10-20 分鐘內搞定。他覺得傳統的軟體工程面試本來就不太好,現在就更不相關了。關鍵是看你能不能在這個新時代有效地工作。至於招聘,他說 OpenAI 會放緩招聘速度,畢竟現在的 AI 領袖,都在說少量人加 AI 能做更多事。他也希望避免那種「招太多人然後突然發現 AI 能做這些事不得不裁員」的尷尬局面。AI 時代最重要的技能是什麼最後有個越南國際學生問了這個經典問題。奧特曼的答案都是軟技能:高能動性(High Agency)、善於產生想法、有韌性、能適應快速變化的世界。他說這些技能都是可以學的。當年做 YC 的時候,他最驚訝的發現就是:通過三個月的訓練營,真的能讓人在這些方面變得非常強。最後座談會結束時,奧特曼說了句挺「暖心」的話。我非常希望瞭解,你們希望 OpenAI 開發什麼樣的產品,就像是說假設我們會有一個比現在強 100 倍的模型,上下文長度、速度、成本都是現在的 100 倍最佳化,工具呼叫完美,超長上下文的一致性極好……都請你們告訴我們。你想要什麼,我們就會給你建什麼。不管是需要什麼 API、什麼樣的原語、什麼樣的執行階段,我們都願意做。聽起來還挺誠懇的,畢竟這場座談會本身,可能就是因為 OpenAI 也不太確定下一步該往那走了。 (APPSO)