#下一個OpenAI
GPT-6,曝光了
OpenAI簡直漏風漏得跟篩子一樣,關於最新Spud(土豆)模型的消息,又双叒叕來了。這顆「土豆」,就是萬眾矚目的GPT-6。據爆料,這顆「土豆」已經徹底煮熟了,4月14號就會發佈。知情人士表示,這是個徹底奔著AGI去的模型——性能暴漲40%,在程式碼、推理、智能體任務上,全方位碾壓GPT-5.4。原生多模態,一套架構搞定文字、音訊、圖像、視訊。更有著2M的超大上下文窗口。它的終極形態更為關鍵——GPT-6將化身為一個超級引擎,負責把ChatGPT、Codex和Atlas瀏覽器徹底熔煉,融合成一個統一的智能體。沒錯,就是OpenAI念叨了很久的那個桌面級「超級應用」。而最抓眼球的還是OpenAI內部對這個模型的定位。內部員工的說法是:這是AGI的「最後一公里」,他們要砍光一切來賭。GPT-6要來了?替大家帶來大量內幕消息的事自草莓哥@iruletheworldmo。這老哥是有點實力在身上的, 龍蝦之父Peter、Gavin Baker、Jim Fan等大佬都是他的𝕏粉絲。草莓哥興奮地表示,最近OpenAI內部簡直漏風漏得像篩子,他從中搞到了不少猛料。首先,OpenAI砍掉一切旁支的原因,就是為了把所有資源全部傾注給GPT-6。Brockman在此前採訪中表示,邁向AGI的進度已經完成了差不多80%。而在OpenAI內部員工看來,GPT-6,就是剩下的那20%。怎麼說?拿資料說話~一個原生多模態模型,卻依然實現了基準測試的全面飛躍。在程式碼、推理、智能體任務上,據說比GPT-5.4強了40%。上下文窗口也達到了驚人的200萬Token,是GPT-5.4和Opus 4.6的兩倍。定價方面,也延續了OpenAI的「優良傳統」,每百萬Token輸入2.5美元,輸出12美元,基本沒比GPT-5.4貴多少。如果拿Claude來對標,那就是擁有Mythos(神話)等級的智能,卻只收Sonnet等級的定價。據說,GPT-6的預訓練在3月17號就已經完成了,後訓練和安全工作也都搞定,隨時可以上線。粗布內定的發佈日期是4月14日。隨著風聲走漏,關於OpenAI和GPT-6的更多內部細節也露了出來。從2025年12月開始,OpenAI 內部就一直處於「程式設計紅色警報」狀態。最近Brockman親自在播客上承認了,OpenAI之前光顧著刷榜單,結果在程式設計領域被Anthropic狠狠擺了一道,大量使用者被搶走。Claude Code、Cowork、OpenClaw這類基於AI程式設計產品的爆火,讓OpenAI猛然意識到「原來只靠文字,真的有可能通往AGI」。這逼得奧特曼走投無路,不得不咬牙砍掉了幾乎所有非核心產品線。被砍掉的最重要項目,當屬高開瘋走又突然落幕的Sora,這也間接導致OpenAI和迪士尼(傳得沸沸揚揚)的十億美元合同徹底沒戲。然而這還不是全部。新消息是,奧特曼現在演都不演了,一門心思撲在資料中心上,安全問題啥的以後再說!目前,OpenAI安全團隊被劃歸到CRO(首席風險官)下面。同時,OpenAI負責產品的部門名稱換成了AGI Deployment(AGI部署部),足見野心。一番大動作下來,奧特曼終於憋出了一個(或許)足以回應Anthropic的大殺器,GPT-6。不過評論區也有人提醒,草莓哥的這一爆料,並不一定十分準確。不過,也有人出來站台,說雖然具體資訊存疑,但大方嚮應該是對的。真·GPT Image 2GPT-6到底啥時候來還沒個准信,但GPT-Image 2,是真的要來了。畢竟已經昨日在Arena短暫出現過,一亮相就引起一陣不小的騷動。為何?看看下面這些圖你就知道了——朋友們,我沒貼錯圖片,也不是摸魚在玩《我的世界》。這玩意兒……真就是網友用GPT生成出來的。基本上啥遊戲都能1:1復刻,完全沒有AI那種模糊感,根本分不清真假了。還有這張Windows桌面,我看到時都愣了半天,尋思這人幹嘛要放張截圖上來。然後才反應過來,哦,這是人家拿GPT-Image 2生成的。如果提示詞清晰一點,GPT-Image 2可以直接奪舍Youtube首頁。世界認知能力也大幅提升,徹底和Nano Banana Pro對齊。審美也蠻不錯,不是一般生圖模型固有的亮藍色科幻風AI色調。畫人體結構圖,效果看上去就像教科書裡的插圖一樣。真實感也大幅提升。終於,那個醜陋的黃色濾鏡沒了,色彩看上去正常了很多。期待上了,如果表現真的這麼穩定,這無疑將成為迄今為止最實用的生圖模型。可惜,這款模型昨天已經從Arena下架,暫時測試不了。算力才是操盤手說一千道一萬,AI競賽走到今天,所有的模型背後都直指一個東西——算力。而且它的重要性已徹底顯化了。最近發生的一系列事件,背後都隱隱有算力的影子。Anthropic停止為OpenClaw的訂閱使用者提供授權管道,除了是為自家KARIOS提前鋪路,另一方面,恐怕也是無奈之舉——真的撐不住了。Anthropic估計也沒想到,這玩意兒需求量這麼大。最近Token耗這麼快可能也是這個原因,OpenClaw得「背大鍋」,搞得我都Token焦慮了。而如今,Sora被砍,迪士尼合同被撕,也都是OpenAI為了給新模型的算力需求讓路做出的無奈之舉。去年,大家談論資料中心時,好像還是個和生態環保一樣,聽上去很遙遠的問題。而現在,基礎設施的衝擊波,已經順著產業鏈條,傳導到了應用端。這場比賽,真的越來越精彩了。在算力稀缺的限制條件下,即便像奧特曼這樣會融資的CEO,也沒法給OpenAI留後路。拼的,就是誰敢孤注一擲,賭對那唯一的、通往未來的方向。 (量子位)
OpenAI關閉Sora之後 | OpenAI總裁對話實錄
4月2日,OpenAI 聯合創始人兼總裁 Greg Brockman 接受海外播客Big Technology 的深度訪談。本次對話中, Greg Brockman 首次回應了OpenAI 為何在視訊生成風頭正勁時選擇關停Sora APP,在 AI 競爭進入白熱化的當下,OpenAI 轉向全速推進“超級應用”與“推理模型”的真實意圖以及戰略抉擇。此外介紹了超級應用的終端形態、揭秘了代號為“Spud”的新一代預訓練模型,詳細探討了Scaling Law 在推理側的演進以及算力經濟學等話題。Greg Brockman指出,公司正處於從能力展示向現實效能轉化的轉折點,核心邏輯已從“驗證技術可行性”轉向“獲取知識工作的深度反饋”。他透露,即使擁有全球頂尖的算力儲備,也無法同時支撐視訊生成(Sora)與核心推理(GPT)這兩個完全不同的技術樹分支,OpenAI 現階段選擇收縮 Sora 的商業化投入,是為了確保資源向具備更高協同效應、能解決物理與科學難題的推理路徑絕對對齊。關於 AGI的進度,Greg Brockman認為 AGI 已經完成了 70% 到 80%,並將在未來幾年內實現。他指出,AGI 的判斷標準不應是圖靈測試或感官上的智力構想,而應是“經濟模式全面轉型的時刻”,即 AI 能夠自主勝任幾乎所有電腦端的智力任務。針對超級應用,他指出,未來的超級應用是程式設計、瀏覽器與對話的合體,未來的 AI 不應讓人類去適應電腦的操作邏輯,而是由 Agent直接操控網頁並處理複雜背景資訊,人類則演變為管理成千上萬 Agent 艦隊的CEO,承擔最終的問責制。關於代號為“Spud”的全新預訓練基礎模型,他指出,預訓練的提升具有巨大的乘數效應,基礎能力的跨越能顯著降低後續強化學習與推理的成本。同時,他詳細闡述了即將發佈的自動化研究員路徑,該系統能接管研究科學家的端到端工作流,通過 AI 反哺 AI 研發實現技術騰飛。在算力經濟,他提出,算力不是“成本中心”,而是像僱傭銷售人員一樣的“收入中心”,算力的建設規模直接決定了企業收入的邊界。01放棄 Sora的戰略取捨OpenAI 目前在消費級市場已取得領先,但近期似乎在收縮Sora方面的投入,轉而集中精力開發結合商業和程式設計場景的“超級應用”。作為外界觀察者,我們很好奇這種資源轉移背後的真實考量是什麼?你們在優先順序排序上是如何權衡私人助手與生產力工具的?Greg Brockman: 我是這樣看的,我們一直處於開發深度學習技術的世界中,真正的目標是驗證這項技術能否產生我們預想中的正向影響,以及它能否被用來建構改變人們生活的應用程式。此前,我們一直有一支專門的力量在嘗試實際部署,無論是為了維持業務運轉,還是為了在技術真正成熟並實現我們創立公司時的願景之前,積累現實世界的應用經驗。我認為我們正處於一個轉折點,我們已經看到這項技術確實有效。我們正在超越單純的基準測試和能力展示,進入一個新的階段:為了進一步開發,我們需要將其投入現實世界,從知識工作和各種實際應用中獲取反饋。由於技術發展階段的變化,這是一個重大的戰略轉移。這並不代表我們正從消費者市場轉向 B2B,我們真正想表達的是,面對眾多的可能性,那些是最核心的應用?因為我們無法面面俱到,我們需要專注於那些在建構時能產生協同效應,並能提供深遠影響,從而提升每個人效率的功能。在我們的願景中,消費級應用涵蓋很多方面。它可以是私人助手,瞭解你、與你的目標一致並協助你達成人生目標,也可以是創意表達或娛樂工具。而在商業領域,核心其實是一件事:當你有一個困難的任務時,AI 能否利用所有的背景資訊去完成它?對我們來說,優先順序排序中排在最前面的是兩件事:一是私人助手,二是能幫你解決難題的 AI。即便以我們目前擁有的算力,甚至都不足以同時支撐這兩件事。如果我們繼續增加更多其他非常有用的 AI 應用場景,資源會更加捉襟見肘。這是對技術快速成熟及其巨大影響的預判,我們需要明確優先順序,挑選出最能造福世界的應用集。02Sora 與 GPT 屬於不同技術分支,必須放棄全面開花你曾用迪士尼的“米老鼠”模型來類比 OpenAI:以模型為核心衍生出視訊、助手和企業服務。現在 OpenAI 是否已經無法再維持這種“全面開花”的狀態,必須在不同產品方向間做出殘酷的取捨?此外,既然視訊生成的進步有目共睹,為什麼你們最終押注 GPT 推理模型,而不是在 Sora 這樣理解世界物理規律的“世界模型”領域繼續投入?Greg Brockman: 實際上我認為這個類比現在比以往任何時候都更貼切。但在技術層面必須理解的是,Sora 模型雖然非常出色,但它與核心推理模型 GPT 系列屬於不同的技術樹分支。它們的建構方式完全不同。在某種程度上,同時追求這兩個分支對我們目前的資源來說確實太難了。目前,我們依然在機器人領域繼續進行 Sora 的研究計畫,因為機器人顯然將是一個變革性的應用,儘管它仍處於研究階段。機器人技術還沒有像知識工作那樣成熟到可以大規模部署的程度。這是一種戰略選擇:在當前這一時刻,我們需要將主要精力放在 GPT 系列的開發上。這並不意味著我們只做文字或腦力工作。例如,雙向通訊、出色的語音互動介面,這些都能讓技術變得非常易用且實用。但這些並不屬於不同的技術分支,它們源自同一個模型,只是進行了不同的微調。如果你把戰線拉得太長,在算力有限且需求極大的世界裡,是很難維持兩個不同產品方向的。(關於為何押注推理)這個領域最大的問題是機會太多了。我們在 OpenAI 早期就觀察到,只要是能想像到的技術路徑幾乎都行得通。雖然工程難度和算力需求各不相同,但只要數學邏輯成立,都能產生不錯的結果。這證明了深度學習底層的力量,它能觸及問題的實質,讓 AI 真正理解生成資料的底層規則。這不只是關於資料本身,而是理解底層的運作過程並將其應用到新語境中。無論是世界模型、科學發現還是程式設計,都是如此。關於文字模型能走多遠、文字智能是否能真正構築世界觀,這些爭論曾非常激烈。我認為我們已經給出了明確答案:它將通向 AGI。我們已經看到了實現這一目標的清晰路徑,也看到了今年即將推出的更強大的模型。在內部,關於如何分配算力的決策確實越來越痛苦。我們的核心邏輯是聚焦順序和時機。目前,一些曾被視為夢想的應用已觸手及輕。例如,解決未解決的物理難題。最近一位物理學家將困擾他許久的問題交給了我們的模型,12 小時後就得到瞭解決方案。他說這是他第一次感覺到模型在思考,解決了一個人類可能永遠無法攻克的難題。當你看到這種潛力時,你必須傾注所有資源去加倍投入,因為這能為全人類釋放巨大的潛能。對我來說,這不僅是重要性的比較,更是關乎 OpenAI 的使命:將 AGI 帶給世界並讓每個人獲益。03未來的超級應用是程式設計、瀏覽器與對話的合體GoogleDeepMind 的 Demis Hassabis 曾認為圖像/視訊生成器最接近 AGI,因為它們需要理解物理世界。如果你放棄這個分支,是否會錯失關鍵機會?另外,你心目中那個整合了所有核心能力的“超級應用”到底是什麼樣的?它針對的是商業還是個人場景?Greg Brockman: 兩個回答。第一,絕對存在這種可能(錯失機會)。在任何領域,你都必須做出選擇和博弈。OpenAI 的起點正是基於我們所堅信的實現 AGI 的路徑,並為此全力以赴。隨機向量的總和為零,但如果你能對齊向量,你就能朝著一個方向突圍。第二點是,圖像生成在 ChatGPT 中非常受歡迎,我們會繼續優先投資。之所以能做到這一點,是因為我們的圖像生成並非基於擴散模型分支,而是基於 GPT 架構。雖然資料分佈不同,但底層核心技術是統一的。這就是 AGI 奇妙的地方:語音互動、圖像生成、文字、科學研究和程式設計,這些看起來迥異的應用,其實都可以在同一個技術框架內實現。我們正在努力實現技術上的最大統一,因為這項技術將驅動整個經濟體。雖然我們無法獨自完成所有事情,但我們會盡力做好核心部分。(關於超級應用形態)我心目中的超級應用將把程式設計、瀏覽器和 ChatGPT 結合在一起。我們要建構一個終端應用,讓你真正體驗到 AGI 的通用力量。現在的對話功能將演變成你的個人 AGI 助手,它瞭解你、與你目標一致且值得信賴,在數字世界中代表你。目前的 Codex 可能更像是一個面向軟體工程師的工具,但它正在進化為面向每個人的工具,讓任何人都能通過它指揮電腦完成任務。它不再僅僅關乎軟體,而是關乎如何使用電腦。比如我想設定筆記本的複雜選項,直接告訴 Codex,它就會幫我完成。這才是電腦該有的樣子:順應人類的習慣,而不是讓人類去適應電腦。想像一下,一個應用就能處理你對電腦的所有需求。它內建了瀏覽器功能,AI 能夠實際操作網頁,並讓你負責監督。無論是聊天、程式碼還是知識工作,所有的對話都將統一,AI 擁有記憶並深刻地瞭解你。但這只是冰山一角。更重要的是技術底層的統一。現在不再僅僅是模型本身的問題,而是框架的問題。模型如何獲取背景資訊、如何與世界連接、能採取什麼行動,以及互動的循環如何運作。這些環節我們原本有多個不同的實現,現在正在進行融合。最終我們會形成一個強大的 AI 層,通過非常輕量化的方式指向特定的應用。你可以為金融或法律領域建構外掛或介面,但通常情況下,你只需要這個功能極度廣泛的超級應用。(關於應用場景)兩者兼顧。這正是它的核心。就像你的筆記型電腦一樣,它既是生產力工具,也是生活工具。它是你的個人機器,為你提供了一個進入數字世界的介面。04競爭白熱化的當下,OpenAI 追趕並反超的機會在那?Anthropic 已經通過 Claude 建構了屬於自己的超級應用,並搶佔了先機。你認為 Anthropic 敏銳察覺到了那些你們此前忽略的痛點?在競爭白熱化的當下,OpenAI 追趕並反超的機會在那裡?Greg Brockman: 回看過去一年多,我們一直將程式設計視為核心領域。在各類高難度程式設計競賽中,我們的模型表現始終處於頂尖水平。但我們此前在應用落地的最後一公里上投入不足。儘管AI 非常聰明,能解決複雜的競賽題目,但它從未接觸過現實世界中雜亂的程式碼庫,真實環境遠不如競賽環境那樣純淨,這正是我們之前的短板。(關於追趕進度)但從去年年中開始,我們開始認真解決這個問題。專門的團隊在研究現實世界的複雜性,包括如何獲取訓練資料、建構訓練環境,讓 AI 體驗真實的軟體工程流程,應對各種異常幹擾。目前我們已經追趕了上來。在與競爭對手的直接對比中,使用者往往更傾向於我們的產品。這證明了擁有優秀模型的同時,不能只盯著競爭對手。如果只關注對手的位置,當你到達時,對方已經移動了。現在情況發生了逆轉,很多人在盯著我們的位置,而我們已經邁向了下一步。我非常看重公司內部的這種合力。以前我們將研究和部署視為獨立環節,現在我們實現了深度整合。目前的狀態讓我感到踏實。外界的評價往往毀譽參半,但我們始終保持著穩健的節奏。在模型生產的核心環節,我對路線圖和研究投入充滿信心。在產品側,全公司的能量正匯聚在一起,將成果交付給世界。05下一代模型揭秘自2022 年以來 OpenAI 雖是領導者但競爭已白熱化,公司內部是否已進入“戰時模式”並取消了無關副業?傳聞中已完成預訓練的 Spud 模型到底是什麼?它與 Sam Altman 所說的“幾周內面世的強大模型”有何關聯?相比GPT-4 剛發佈時公眾的遲鈍,你認為下一代模型是會讓某些行業產生巨變,還是那種每個人都能感受到的普遍提升?它能做到那些今天模型做不到的事?Greg Brockman: 對我個人而言,最令人警惕的時刻是ChatGPT 發佈後的節日派對,當時全公司都瀰漫著勝利的氣息。但我從未有過那種感覺,我始終認為我們是挑戰者。在這個領域,競爭對手都是擁有雄厚資本、人才和資料的巨頭。OpenAI 能夠參與競爭,很大程度上是因為我們從不自滿,始終保持危機感。看到市場中出現競爭對手,看到敘事方式發生轉變,讓團隊每個成員都意識到這一點,其實是非常健康的,我非常歡迎這種變化。(關於 Spud 模型及個人投入)這個名字很有意思,我不會證實或否認具體的名稱。但這不僅僅關乎某一個模型。我們的開發流程是先進行預訓練,產生新的基礎模型,以此作為後續改進的根基。這需要全公司巨大的協作投入。在過去 18 個月裡,我個人的大部分精力其實都花在了 GPU 基礎設施上,全力支援團隊在大規模訓練任務中擴展架構,這是支撐這一切的底層基石。隨後是強化學習過程。AI 會應用學到的知識,接著通過後訓練過程來打磨其行為和可用性。你可以將 Spud 理解為一個凝聚了過去兩年研究成果的全新預訓練基礎。使用者將感受到能力的提升。單一版本的發佈並不是終點,它只是我們持續進化過程中的一步。我們正建構一個不斷加速的進化引擎,Spud 只是其中的一個階段。(關於模型能力的提升)新模型將能解決更難的問題,處理細節也更細膩。它對指令和上下文的理解會深刻得多。當模型真正變得更聰明時,會更順應使用者的意圖。如果 AI 不理解問題,還需要使用者反覆解釋,那種體驗是很糟糕的。這種提升是定性的。以前你可能因為 AI 不夠聰明而放棄某些場景,但現在你會不假思索地去使用。這種提升是全方位的。我非常期待它能如何拉高能力的上限。我們已經看到了在物理學等領域的應用。未來,它將能解決更多開放性、長周期的問題。同時,它也能提高能力的底線,讓任何任務都變得更加高效。(關於使用者感知的差異)我覺得情況會類似(GPT-4 剛發佈時)。剛發佈時,一部分人會覺得它帶來了翻天覆地的變化。但在某些不以智能為瓶頸的應用場景中,這種提升可能就沒那麼明顯。隨著時間推移,這種變化會深入人心,因為它從根本上改變了使用者對系統的依賴程度。使用者與 AI 互動時的心理模型更新較慢。直到它完成了一些超出想像的事,使用者才會意識到它的潛力。比如在醫療領域,有人通過 AI 研究出了癌症的治療思路,並在醫生無能為力的情況下獲得了治療方案。這需要使用者對 AI 有信任基礎,才會投入精力去挖掘。未來,AI 在各個領域的輔助作用會變得更加顯而易見。這既是技術的進步,也是人類認知的追趕。06自動化研究員與技術“騰飛”OpenAI 預計在今年秋天發佈的“自動化研究員”具體是什麼?它如何實現技術“騰飛”並反哺 AI 的進化?你是否擔心這種勢不可擋的進化處理程序會失控?Greg Brockman: 我們正處於技術騰飛的早期階段。騰飛意味著隨著AI 沿著指數曲線進化,我們可以利用 AI 來反哺,讓 AI 變得更強,從而加速開發處理程序。這種騰飛也體現在現實影響力上。技術研發正在飛速積聚動力,晶片廠商投入了大量資源,經濟生態也在蓬勃發展。AI 正在從邊緣輔助變成經濟增長的主引擎。這不僅僅是 OpenAI 圍牆內的事,而是全球經濟在共同推動技術的進步。(關於自動化研究員細節)自動化研究員將承擔更多原本由人類處理的任務。我們可以讓它自主運行,但這並不意味著放任不管。我們依然會深度參與管理。就像指導初級研究員,放任不管可能會誤入歧途。資深研究員即使不親自動手,也可以通過提供反饋、審查結果和指明方向來發揮作用。這個系統將極大地加速我們生產模型和實現研究突破的速度,讓模型在現實世界中更加實用。簡單來說,它能夠接管研究科學家完整的端到端工作流程,並在電腦模擬環境(in silico)中完成。(關於進化速度與風險)我覺得機遇和風險並存。我們必須在追求技術紅利的同時,深刻思考風險中的防範。在技術層面,我們在安全和保障上投入了巨大精力,比如防禦提示注入。必須確保 AI 不會被惡意指令誤導。我們將人類容易受欺騙或忽略背景資訊的特點引入開發過程,確保 AI 與人類對齊。這需要綜合考慮社會和經濟等宏觀問題。我不僅在推動技術進步,也在思考如何確保其潛能轉化為積極的影響。07AGI 的進度條:完成了70% 到 80%黃仁勳認為AGI 已經基本實現,你認同嗎?OpenAI 內部對 AGI 的定義是否發生了演變?在你的視角裡,我們距離那個“無可爭議”的臨界點還有多遠?Greg Brockman: 每個人對AGI 的定義都不盡相同,肯定有很多人認為我們現狀已達成了 AGI。這雖然可以辯論,但有趣的是,當下的技術表現呈現出明顯的鋸齒狀。AI 在許多工上表現出絕對的超人水平,例如編寫程式碼,AI 能夠直接完成任務並顯著消除創作過程中的阻礙。然而,在一些人類看來非常基礎的任務上,AI 依然表現掙扎。因此,這取決於你如何劃定界限。在某種程度上,這更多是一種感官上的直覺判斷,而非硬性的客觀標準。OpenAI 在 2017 年曾對 AGI 下過內部定義,目前的成果早已遠遠超越了那個標準。但人們的目標也在不斷演進,正如曾經被視為終極標準的圖靈測試,當我們的模型通過測試時,大家反而覺得這雖然有趣,但還不足以定義 AGI。我確實認為我們正在接近大眾認知中的 AGI,但我不認為我們已經完全抵達終點,真正的科學進步仍有待突破。我將 AGI 視為經濟模式全面轉型的時刻,即你可以直接引入一個系統,讓它真正具備勝任幾乎任何人類工作的能力。目前我們尚未完全達到這一水平,只有到了那一刻,AGI 的實現才會成為無可爭議的事實。在最後這幾步中會發生什麼是一個有趣的問題,但我確信我們終將達到一個讓所有人產生共鳴的臨界點。回顧過去十年我與這項技術打交道的經驗,以前我們通過數學計算來預測 Scaling Law 及其前景,我雖然在理性上堅信不疑,但內心並沒有實感。直到 GPT-4 問世,我第一次真切地感受到了它的力量。那一刻我意識到,這不再僅僅是一個智力構想,而是真實的科學突破。如果你在五年前向我展示現在的系統,我會認為這就是我們追求的目標,但真實的體驗卻與我們曾經想像的完全不同。我們必須相應地調整自己的心理模型。(關於實現進度)我認為大約完成了 70% 到 80%,我們已經非常接近了。未來幾年內,我們顯然會擁有 AGI。雖然它的能力分佈可能依然不均,但它處理智力任務的下限將極大提升,幾乎任何在電腦上進行的操作,AI 都能勝任。我現在很難給出確切答案,因為這裡存在一種類似測不準原理的情況。從我個人的定義來看,我們已近在咫尺,只要再往前邁出一小步就絕對會實現。08AI 從錦上添花的邊緣工具躍升為重構工作流的核心引擎回顧2022 年底,是什麼讓模型實現了從 20% 到 80% 的任務覆蓋跳升?有使用者利用 Codex 輔助視訊編輯,它自動為 Adobe Premiere 建構了外掛、劃分章節並開始剪輯。這種非技術人員的自發應用,是否改變了你認為 Codex 僅限程式設計師使用的看法?Greg Brockman: 新模型的發佈讓AI 能處理的任務佔比從 20% 直接跳升至 80%。這是一個巨大的轉變,AI 從一個錦上添花的工具,變成了你必須圍繞其重新建構工作流的核心。我有一個沿用多年的測試提示詞:幫我建一個網站。當年我學程式設計時,花了好幾個月才做出來。2020 年或 2021 年時,AI 通常需要四小時並經過反覆提示才能搞定。但在 12 月那次,它一次性就完成了任務,而且質量非常出色。這很大程度上歸功於更優的基礎模型。OpenAI 在改進預訓練技術方面深耕已久,那一刻我們只是預先窺見了未來的變革。但這並非單點技術的突破,而是在創新的每一個維度上不斷推動的結果。這些模型的神奇之處在於,雖然你期望進步是線性的,但它有時表現為飛躍,有時又表現為連續的演進。它不是從 0 跳到 80,而是從 20 提升到 80。在後續的每一個小版本更新中,我們都看到了這種持續的改進。在 GPT-4 和 GPT-4.5 之間,我的一位負責硬核底層系統工程的同事發現,AI 從完全無法幫忙變成了得力助手。他給 AI 一份設計文件,AI 就能完成實現、加入指標和可觀測性、運行性能分析器(Profiler)並進行最佳化,直到產出完全符合預期的成果。這種進步通常是極其緩慢地積累,然後突然在某一刻爆發,而這一切在目前的技術進展中早有預兆。在一年甚至更短時間內,它將變得極其可靠。(關於 Adobe Premiere 外掛案例)關於你提到的那個視訊編輯案例,這正是我最想聽到的反饋。Codex 最初是為程式設計師設計的,對非技術人員來說門檻其實還很高。比如遇到報錯時,開發者知道怎麼修,但普通人會覺得莫名其妙。即便如此,我們依然看到很多從未程式設計過的人在用它建構網站、自動化辦公。最難的部分,也就是建構一個聰明且有能力的 AI,我們已經完成了。現在的任務是完成那個相對簡單的部分:消除准入門檻,讓它變得真正通用。(關於 Codex 普及)我之前一直關注 Codex,認為它是給程式設計師準備的。考慮到 OpenAI 內部很多都是為自己開發工具的工程師,這種慣性思維很自然。但隨著技術演進,我們意識到其底層技術的本質並非關於程式碼,而是關於解決問題。它關乎如何管理上下文、利用測試框架(Harnesses)以及思考 AI 應該如何深度整合到工作中。這意味著,那怕是寫程式碼,普通人也能上手,因為你現在管理的是一個能真正幹活的實體。只要你有願景和目標,描述出意圖,AI 就能幫上幫。這也引發了我的反思,為什麼只盯著寫程式碼呢?在 Excel 表格處理或幻燈片製作中,其實有大量機械化的技能。只要 AI 掌握了背景資訊,它現在的原生智能足以高水平地完成這些任務。只要我們降低門檻,Codex 就不再僅僅屬於程式設計師,而是屬於每一個人。09人類將任務委派給 Agent,但必須保持對核心細節的敏銳掌控與最終問責矽谷出現了Open Claw 現象,人們授權 AI 訪問桌面、郵件、日曆並由其代勞。OpenAI 招攬其創始人是否意味著你們的願景是讓 AI 深度管理生活?當你像首席執行長一樣指揮成千上萬個 Agent 艦隊為你工作時,這種新的模式是否會讓你覺得對問題的敏銳掌控正在消失?Greg Brockman: 這項技術的核心難點在於發掘它的用處、使用者的使用偏好、AI Agent 的願景以及它如何融入日常生活。我觀察了多代技術的發展,發現那些全身心投入、充滿好奇心和遠見的人,才真正擁有一種極具價值的新興技能。Open Claw 的創始人 Peter 就擁有非凡的眼光和創造力。這在某種程度上關乎特定技術,但更多時候是關於我們如何轉化這些能力,找到它們在人們生活中的位置。作為技術人員,我對此感到興奮。而作為一個致力於提供實用工具的人,這是我們正在加倍投入的方向。(關於能動性與掌控)我認為這有利有弊。我們需要做的是發揮這些工具的優勢並規避其弱點。它給人們提供了槓桿和能動性,讓你有願景就能指揮 Agent 艦隊去實現。但歸根結底,必須有一個負責方。如果你建網站時 Agent 辦砸了並影響了使用者,那不是 Agent 的錯,而是你的錯。為了用好這些工具,你必須意識到人的能動性和問責制是系統的核心,人如何使用 AI 是極其根本的問題。作為這些 AI Agent 的使用者,你不能推卸責任,不能當甩手掌櫃。(關於失去掌控的風險)對我來說,這兩者是緊密相連的。如果你作為 CEO 卻脫離了細節,對實際情況失去了敏銳的觸覺,那是不會有好結果的。我並非認為人類不瞭解現狀是好事。有些細節是可以信任的,比如你找建築承包商蓋房子,很多細節你確實不需要操心,因為你相信他們能處理好。但最終如果細節出了錯,你必須在乎並保持知情。這是一個微妙但重要的區別。你不能盲目地接受失去對實際情況的掌控。相反,我們需要深入其中,為了真正理解優勢和弱點而保持敏銳。當你從那些低等級的機械性事務中抽身時,應當是因為你已經通過建立信任,確認了系統能出色地完成任務。10未來 AI 將通過電腦操控能力實現跨領域的創造力大爆發模型在工具使用後的下一步進化方向是什麼?如果AI 能操控桌面,它能為普通人帶來什麼?既然模型已經如此強大,為什麼這種變革還沒有全面發生?另外,對於 Peter Thiel 提到的數學型人才面對 AI 衝擊更危險的觀點,你作為數學俱樂部成員是否感到擔心?Greg Brockman: 我們正身處一個機器能力和深度持續增長的世界。除了工具使用,我們現在還需要建構強大的配套設施。比如電腦使用能力,如果AI 能真正操控桌面,它就具備了人類能做的一切能力。同時,我們也得為機器進行針對性的建構,例如在企業環境中,憑證管理、審計追蹤和可觀測性如何實現。我們要建構大量技術,才能跟上核心模型本身的能力。整體發展方向包括極佳的語音互動介面,讓你能自然地與電腦交流。它理解你,執行需求,並給出建議。它能主動反饋工作進展,甚至能為你經營一家公司。我認為創業的民主化時代絕對正在到來。它會提醒你,這裡有些問題,有位客戶不太高興,他們想和真人溝通,你應該去跟進一下。這些都會變為現實。提高人類雄心的天花板,解決更具挑戰性的難題,也是這項技術的下一步。我們正處於這種趨勢的最前沿。未來一年,我們將看到人們利用這種能力實現大爆發。我最期待的是,就像當年 AlphaGo 的第 37 手一樣,那一招任何人類棋手都想不出來,它充滿了創造力並改變了人類對博弈的認知。這種現象將發生在科學、數學、物理、化學、材料學、生物學、醫療和藥物研發等每一個領域,甚至文學和詩歌。它將以我們現在無法想像的方式,釋放人類的創造力、認知和構思。(關於效能滯後)模型的潛在能力與其實際應用之間存在一種效能釋放滯後。我們對模型潛力的理解仍在不斷加深,即便技術不再進步,現有的存量技術也足以引發巨大的經濟變革。由算力驅動的經濟模式終將到來。目前我們非常擅長在可衡量的任務上訓練模型,比如數學題和程式設計題,這些都有完美的校驗器。要把這種能力引入更開放的問題,關鍵在於擴大可評分的範圍。AI 本身就能幫上忙,如果你給它一個評分準則,它就能評估任務完成的好壞。當然,像創意寫作這類事情,評分要難得多。目前我們教導 AI 學習這類事物的能力還較弱,但這一切都在改變,目標已經非常清晰。(關於數學與人文)人總是更容易看到失去了什麼,而很難看到得到了什麼。我們對自己熟悉的東西被 AI 取代有著深刻的危機感,但驅動人類進步的從來不是數學競賽本身。如果你看我們現在的工作方式,躲在盒子後面敲字其實並不自然。我們被捲入了這個數字世界,但這並非人類存在的真諦。做人的真諦在於當下、在於臨場感、在於人與人之間的連接。我們將看到,AI 將釋放出大量的時間,讓我們去增強人際連接,建立更深的情感紐帶。這才是讓我感到無比興奮的地方。11算力經濟邏輯與 Scaling Law 的乘數效應當重心轉向推理應用,是否還需要進行大規模訓練和購買輝達GPU?建設資料中心的數學邏輯是什麼?你們籌集 1100 億美元的邏輯如何回報投資者?面對 Dario Amodei 關於“基礎設施豪賭可能導致破產”的警告,你作何回應?Greg Brockman: 我認為這種觀點(預訓練已足夠)忽略了技術發展中非常關鍵的一點。模型生產鏈條的每一個環節都有乘數效應,因此必須改進所有環節。我們發現,只要改進了預訓練,後續的所有步驟都會變得簡單得多。這很好理解,因為預訓練出的模型學習速度更快。由於起步能力更強,模型在嘗試新想法和從錯誤中學習時的效率就更高,而且能通過Scaling Law 更有效地減少錯誤。過去我們認為只是在獨立訓練一個大腦系統,然後讓它越變越大,但現在的重大轉變是:你需要讓模型去嘗試、去理解現實世界中人們的使用方式,並將這些反饋整合回訓練中。但這並不意味著預訓練研究不再重要。另一個變化是,過去我們只關注原始的預訓練能力,而不太考慮推理效率。這是過去兩年的一個大變化,我們意識到需要一種平衡。基礎模型可以擁有各種優異屬性,但你必須保證它的推理效率,因為你需要進行強化學習,需要面向全球提供服務。這意味著你不一定非要追求極致的規模,因為你必須考慮下游的實際應用。你真正想要的是智能與成本的最佳平衡點,並同時最佳化這兩者。(關於輝達)絕對需要。原因有很多。首先,即便推理和訓練的比例在變,但除了將算力集中在單一問題上進行大規模訓練,目前還沒有其他路徑。我們投入到預訓練模型中的算力量只會持續上升。雖然部署端的規模會大幅增長,但當你進行超大規模預訓練時,依然需要極其密集的算力。此外,Nvidia 團隊非常出色,做了非常了不起的工作,我們之間的合作非常緊密。(關於預訓練上限)這就像在問,是不是等人類解決了眼前的所有問題,我們就可以止步不前了。我們的願景非常宏大,也許在過去 50 年裡人們有些退縮了。看看那些顯而易見的問題,比如我們能否實現全民醫療,而且不是等病了才治,而是真正的預防性醫療。不只是建議生活方式,而是如何在大病發生前檢測到潛在疾病。我認為更智能的模型能解決這些問題。也許達到某個水平後能解決這個問題,那時你會問,我還需要模型再聰明兩倍嗎?但還會有其他更難的問題需要更強的模型。(關於 1100 億籌資邏輯)邏輯很簡單,我們面臨的最大支出就是算力。但你可以把算力看作收入中心,而不是成本中心。這就像雇銷售,你想雇多少人?只要產品賣得出去,只要銷售模式可擴展,銷售人員越多,收入就越高。現實情況是,我們發現算力的建設速度永遠趕不上需求。自那以來每年都是如此。挑戰在於,購買算力需要提前 18 到 24 個月甚至更久鎖定訂單,這意味著你必須具備超前的預判。目前我們大部分收入來自消費者訂閱,這很重要。但新的機會顯然是知識工作。我們看到各大企業都意識到這項技術真實有效,為了保持競爭力,他們必須採用。無論是軟體工程師的自發使用,還是企業內部各種知識工作的滲透,付費意願和收入增長都非常明確。我們能看到一些外界看不到的趨勢,即這些模型改進的明確路徑。綜合來看,整個經濟的增長,其核心驅動力都將圍繞 AI 展開,取決於你利用 AI 的程度,以及支援運行的算力儲備。(關於企業端反超)企業端的增長非常迅速,而且企業端的定義也在演變,本質上是人們將其用於高效的知識型工作。在定價方面,以 Codex 為例,如果你有 OpenAI 帳號或 ChatGPT 訂閱就能使用。我認為未來的界限不會那麼死板,核心在於使用者擁有了一個通往數字世界的門戶,這才是收入的根本來源。(關於破產風險警告)我不認同(Dario 的觀點)。我們一直很清醒,也看到了未來的趨勢。今年大家就會發現,所有參與者都會面臨算力短缺。我們是最早預見到這一趨勢並提前佈局的。其他玩家可能去年底才反應過來,開始到處找算力,但那時已經沒貨了。發表評論很容易,但事實是大家都意識到這項技術是玩真的。軟體工程只是開端,我們目前的瓶頸完全在於算力不足。我們有更多的緩衝餘地。如果你擔心下行風險,這確實是個好問題。但在某種程度上,這不只是對某一家公司的豪賭,而是對整個行業的信心。關鍵在於,你是否相信這項技術能產生我們預見的巨大價值。看看軟體工程吧,如果你沒試過,你很難想像它的變革性。它徹底改變了寫程式碼的方式,而這種改變正在發生在所有領域。12公眾的AI偏見、能源轉型與個體的未來準備你平時怎麼使用AI Agent?為什麼 AI 在公眾中並不討喜?看空 AI 的人遠多於看好的。面對人們對失業、能源、環境污染和電費上漲的恐懼,你認為他們錯了嗎?以及給普通人的未來建議。Greg Brockman: 我用它為團隊開發內部工具,比如同步視訊進度和縮圖設計。我還用它整合YouTube 資料,根據縮圖預測視訊表現,這相當於為我定製了一個我原本絕不會花錢去買的軟體。這就是目前的有趣之處,雖然軟體可以大規模普及,但很多細節並不是為你量身定製的。而 AI 讓我們能以更自然的方式與軟體互動。這是關鍵。現在的電腦其實是把我們拉進了一個生硬的數字世界,你需要不停地刷手機、點按鈕。為什麼非要這樣?AI 的本質是讓機器更貼近人,實現個性化,理解你的意圖。流行文化裡那種能對話、能替你辦事的電腦正成為現實,這種奇妙的體驗必須親自嘗試才能理解,我們正處於一個非常特殊的時刻。(關於公眾偏見)我們需要向公眾展示 AI 到底能給他們帶來什麼好處,而不僅僅是宏觀經濟或生產總值的增長。我每天都聽到很多真實感人的案例。比如有一個家庭,孩子生病需要做核磁共振卻被保險公司拒絕,他們用 ChatGPT 研究症狀,找到了申訴理由並成功拿到了檢查機會,結果發現了腦腫瘤並救了孩子的命。這樣的故事還有很多,人們的生活正因為與 AI 合作而發生翻天覆地的改變。但這些故事沒有被廣泛傳播。相反,大量流行文化充斥著對 AI 的負面想像。但當人們真正開始使用它,他們會發現它的價值。我確實擔心我們還沒能讓大家理解,這股技術浪潮是為了改善生活和人類聯絡。這關係到未來的經濟和國家安全,關乎國家競爭力。在全球範圍內,不同地區對 AI 的應用方向和治理理念存在差異。我們必須確保這項技術能讓每個人受益。(關於能源與環境擔憂)關於資料中心確實存在誤讀。比如耗水,我們在 Abilene 的超級電腦,其用水量其實僅相當於一個普通家庭的一年用量,幾乎可以忽略不計。關於電費,我們承諾會承擔自己的用電成本,不推高民眾的負擔。作為行業成員,我們有責任回饋當地社區,創造稅收和就業。引入更多電力並不意味著更多污染。目前的電網中存在大量無法利用的擱置電力,且傳輸系統急需升級。由我們來承擔這些升級費用,而不是讓納稅人買單,這對社區是有利的。在北達科他州,因為資料中心的入駐和對公用事業的投資,當地居民的電費反而下降了。(關於未來建議)對那些害怕 AI 的人,最重要的一點是去試用這些工具。只有親身體驗,你才能理解它能為你做什麼。它能賦予從未建過網站的人建站的能力,能幫創業者處理繁瑣的後台流程,能幫你管理健康、賺錢省錢。人們往往更容易看到變動帶來的危機,而忽略了潛在的收益。核心是保持好奇心。從技術中獲益最多的人,往往是那些敢於在工作流中嘗試的人。要克服面對空白輸入框的迷茫,培養自己的主體性,把自己定位為管理者,去設定方向、委派任務並進行監督。這種管理技能在未來至關重要。我們開發 AI 是為了讓人類有更多時間做自己想做的事。所以,看清自己真正想要什麼,並利用 AI 去實現它,這就是最重要的事。 (數字開物)
創紀錄!OpenAI完成1220億美元融資
OpenAI周二宣佈,已完成一輪創紀錄的融資,投後估值達8520億美元。本輪融資總規模達1220億美元,高於公司今年2月披露的1100億美元承諾資金額度。其中,軟銀領投,Andreessen Horowitz及D. E. Shaw Ventures等機構也參與投資。這標誌著OpenAI迄今最大規模的一輪融資,同時也創下全球私募融資紀錄。這筆資本將為其在晶片、資料中心和人才方面的昂貴投入提供了支援。這筆籌備數月的融資中,大部分資金來自三家大型科技公司。今年2月,OpenAI曾公佈戰略投資方1100億美元的出資承諾:亞馬遜同意出資500億美元,輝達和軟銀集團各出資300億美元。在融資結構上,新增的120億美元資金來自更廣泛的投資者群體。其中,該公司首次通過銀行管道從個人投資者那裡籌集了超過30億美元。此外,OpenAI的長期合作夥伴微軟也參與了本輪融資,但具體投資規模未披露。截至去年年末,微軟對OpenAI 的累計投資已超130億美元。自2022年推出ChatGPT聊天機器人並掀起人工智慧熱潮以來,OpenAI已迅速成長為全球發展最快的商業實體之一。截至今年3月,ChatGPT的周活躍使用者已超過9億,付費訂閱使用者突破5000萬。“人工智慧正在推動生產力提升、加速科學發現,並拓展個人與企業的能力邊界,”OpenAI在一份新聞稿中表示,“這筆資金為我們提供了繼續大規模引領行業所需的資源。”OpenAI表示,此輪資本將用於建構“智能基礎設施”,並認為隨著時間的推移,其價值終將回流至經濟、企業、社區以及個人。隨著最新一輪融資的完成,OpenAI首席執行長Sam Altman將面臨證明其公司巨額估值合理性的壓力,尤其是在公司籌備潛在的首次公開募股(IPO)之際。近幾個月來,為了控製成本,這家初創公司已縮減部分巨額支出計畫,並關停部分功能與產品(包括短影片應用 Sora)。OpenAI 周二還披露,目前公司月營收達20億美元,去年全年營收為131億美元。公司仍處於燒錢階段,尚未實現盈利。 (財聯社AI daily)
Sora 死了,享年 6個月
曾經封神的 AI 視訊模型 Sora 就這麼沒了。前幾天,OpenAI 官方親自發文告別 Sora:應用關停、API 關停、視訊功能不再接入 ChatGPT。聽聞這一消息,有網友直接把 Elon Musk “墓碑梗圖”搬出來祭奠。評論區更是“人類迷惑行為大賞”:有人艾特創始人 Sam Altman 問“到底在幹嘛”。有人直接開噴“那我們憑什麼信你下一個產品”,還有人直接吐槽“死之前也不開源一下。”還有人很淡定:“沒事,還有別家能用。”老狐還記得,2024 年初 Sora 剛出來的時候,幾乎是“核爆級出圈”,堪稱“工業革命”。那會兒大家還在卷文生圖,它直接把“電影級視訊生成”甩到你臉上。雨水打在玻璃上的折射、人物走路的慣性、鏡頭推進的節奏,那種感覺不是“ AI 在畫圖”,是“ AI 在拍電影”。Sam Altman 一邊發 demo,一邊持續加碼預期。全網一度覺得這玩意兒,遲早要幹掉影視工業一部分。再後來,產品上線,會員專屬,邀請碼炒到飛起。再再後來,Sora 2 發佈,補齊音畫同步、角色對話、分鏡控制,甚至去年 9 月做了獨立 App。到這一步,其實路徑已經很明顯了,它不止想做工具,它是想做“ AI 時代的內容平台”。換句話說,它想成為 AI 版抖音。但問題也恰恰出在這。一開始大家玩得很開心,“把自己丟進電影裡”確實很爽。第一次:臥槽好牛;第二次:再試一個;第三次:……好像也就這樣。然後就沒有然後了。這不是技術問題,是典型的“ demo 型產品”困境,它證明了“能做”,但沒有建立“要一直用”的理由。新鮮感一過,使用者就散,留不住,也養不出習慣。相關資料顯示,Sora APP 的 30 天使用者留存率僅為 1%,60 天留存率直接歸零。與此同時,版權開始紛紛找上門。日本內容機構發函,好萊塢開始緊張。那怕後來 OpenAI 拉來了 迪士尼,給了 IP 授權,開放漫威、皮克斯、星戰這些大殺器,看起來像是“終於要商業化了”。但是劇情出現反轉,到今年 1 月份,Sora 的下載量已暴跌 45%。再往後就更乾脆了:Sora 一關,迪士尼同步撤退,合作終止、投資取消,一起按下暫停鍵。你說這是產品問題嗎?不完全是。真正壓垮它的,其實是更現實的一件事:算力。做視訊太貴了,有測算說,Sora 一天燒的錢在千萬美元等級,一年下來就是幾十億美元的等級。一個使用者生成一段視訊,背後燒掉的資源,夠 ChatGPT 回答幾十次甚至更多問題。為了控製成本,OpenAI 不得不把免費使用者每日生成額度從 30 個削減到 6 個。這樣下來,進一步削弱了普通使用者的使用意願,加速了留存崩塌。同時,Google Gemini、Meta,以及國內的可靈、即夢等競品相繼推出視訊生成功能,使用者分流加速,Sora 的壓力驟增。走到這一步,問題就很直接了,那個賺錢就保留那一個。於是再看 OpenAI 最近的一系列動作,就完全順理成章:整合產品線做“超級應用”,All in 程式設計和生產力,把算力、團隊、資源都往能賺錢的地方集中。甚至有消息稱,為了給下一代模型騰算力,像 Sora 這種高消耗、低回報的業務,優先順序直接被往後排。說白了,這不是“做不出來”,是“沒必要做了”。聽起來冷血,但在 IPO 前,砍掉浪漫、留下現金流,是所有公司的必修課。回頭看,Sora 確實在 AI 視訊領域開了個好頭,只不過如今主角換了。字節跳動 Seedance 2.0 在卷真實世界模擬,水、布料、微表情,全在往“像真人拍的”逼近。快手 Kling 3.0 已經把商業閉環跑通,幾千萬創作者、幾億條視訊,直接悶聲賺大錢。這裡有個很關鍵的差異,Sora 是在“創造一個新場景”,而這些產品,是在“吃已有場景”。中國有短影片、電商、微短劇這套完整生態,模型一出來,立刻就有人用、有人反饋、有人變現。這是一個天然飛輪,而 Sora 當初做獨立App,本質是在從 0 開始搭生態。沒有創作者體系,沒有分發管道,沒有內容土壤。技術再強,也很難跑起來。可見,AI 視訊這件事,已經從“誰模型更強”,變成“誰生態更完整”。AI 行業,也已然從“炫技階段”,進入“算帳階段”。 (科技狐)
OpenAI 發佈 12 個 Codex 官方案例庫,手把手教到你會為止
OpenAI 的開發者關係負責人 Romain Huet 宣佈 Codex 上線了一個官方案例庫。12 個實打實的使用場景,每個都帶完整的操作步驟、Prompt 範本,甚至可以一鍵在 Codex 應用裡打開。“我們剛剛發佈了 Codex 案例庫!這是一個涵蓋程式設計和非程式設計任務的實用案例集合,展示了 Codex 的真實使用方式。我特別喜歡的一點是:如果你安裝了 Codex 應用,可以直接一鍵打開每個案例的 Starter Prompt!Codex 案例庫首頁這 12 個案例覆蓋了從程式碼審查到做 PPT、從資料分析到做遊戲的各種場景,有些確實刷新了我對「AI 程式設計工具」邊界的認知。逐個來看。PR 自動審查PR 自動審查案例頁面第一個案例是 GitHub PR 審查,也是上手門檻最低的一個,難度標註為 Easy,耗時大約 5 秒。做法很直接:把 Codex 接入你的 GitHub 倉庫,它會在每個 PR 提交後自動掃一遍,找出潛在的回歸問題、缺失的測試、以及文件漏洞。你也可以選手動模式,在 PR 評論裡 @codex review,它就來了。發現問題之後呢?直接在評論裡回一句 @codex fix it,Codex 會啟動一個雲端任務自動修復。這裡面有個細節值得一提:你可以在倉庫裡放一個 AGENTS.md 檔案,定義審查規則。比如「拼寫和語法錯誤標為高優先順序」「缺少測試覆蓋標為中優先順序」,Codex 會根據離每個檔案最近的 AGENTS.md 來調整審查策略。Starter Prompt:“@codex review,檢查安全回歸、缺失測試、以及有風險的行為變更。算是把 Code Review 這件事從「等同事有空」變成了「提交即審查」。截圖變頁面截圖轉前端 UI 案例頁面第二個案例是前端開發:把截圖和設計稿直接變成響應式 UI 程式碼。難度中等,大約需要 1 小時。流程是這樣的:你把設計參考圖(桌面版、移動版、各種互動狀態的截圖)丟給 Codex,同時告訴它你項目裡已有的設計系統、元件庫、色彩 token、排版規範。Codex 會用你現有的元件和設計 token 來實現,而不是另起爐灶搞一套新的。然後用 Playwright 打開瀏覽器,逐個螢幕尺寸對比。不對?繼續調。Starter Prompt:“用截圖和說明作為參考,在當前項目中實現這個 UI。要求:復用現有設計系統的元件和 token,把截圖翻譯成倉庫裡的工具類和模式,匹配間距、佈局、層級和響應式行為,相容桌面和移動端。這個案例的關鍵在於「復用」二字。Codex 會基於你已有的設計體系來寫程式碼,復用現成的元件和 token,這一點倒是和真人前端工程師的工作方式一致。資料分析全流程資料分析案例頁面第三個案例,也是我覺得最適合非程式設計師的一個:資料分析。難度中等,大約 1 小時。這個案例的完整度讓我有點意外。它不只是「幫我畫個圖」,而是從資料匯入、清洗、合併、建模到最終報告,一條龍。具體的步驟:先定義問題。 比如「高速公路附近的房子,房價是不是更低?」問題越具體,Codex 越好辦事。再設定環境。 在 AGENTS.md 裡定義項目規則:用什麼 Python 環境,資料夾結構怎麼放,原始資料放 data/raw/,清洗後的放 data/processed/,永遠不覆蓋原始檔案。然後讓 Codex 自己看資料。 它會檢查檔案格式、編碼、每個資料集代表什麼、有那些候選主鍵、明顯的質量問題。接著合併和建模。 在合併之前先做資料畫像,測試主鍵的唯一性和空值率,用試探性 join 看匹配率。建模則從可解釋的基線模型開始,statsmodels 和 scikit-learn 為主。最後輸出報告。 可以是 Markdown 給同事看,Excel 給營運看,PDF 或 .docx 給老闆看。這套流程其實就是一個標準的資料分析 pipeline,只不過以前是人寫程式碼跑,現在是 Codex 幫你寫幫你跑。Starter Prompt:“我在這個工作區做資料分析項目。目標:搞清楚高速公路附近的房子是否估值更低。先讀 AGENTS.md 瞭解 Python 環境,載入資料集,描述每個檔案的內容、可能的 join key 和資料質量問題,然後提出一個可復現的工作流程。約束:優先用指令碼而非 notebook 狀態,不要編造缺失值或合併鍵。輸出:環境配置計畫、資料清單、分析計畫、第一批要建立的命令或檔案。做 ChatGPT 應用ChatGPT 應用案例頁面第四個案例是高級玩法:把你的產品做成一個 ChatGPT 應用。難度標註為 Advanced,大約 1 小時。一個 ChatGPT 應用由三部分組成:• MCP 伺服器:定義工具、返回資料、處理認證• 可選的 Widget:一個在 ChatGPT 內渲染的 Web 元件(React 或原生 HTML/CSS/JS)• 模型整合:ChatGPT 根據你的工具中繼資料來決定何時呼叫Codex 在這裡的角色是幫你規劃工具介面、搭建 MCP 伺服器和 Widget 腳手架、配置本地 HTTPS 測試環境、實現認證流程。工作流程分七步:先規劃(別一上來就寫,先想清楚核心使用者場景),然後選技術堆疊,搭腳手架,測試,迭代核心功能,最後才加認證和部署。Starter Prompt:“用 $chatgpt-apps 和 $openai-docs 為 [你的場景] 規劃一個 ChatGPT 應用。要求:從一個核心使用者場景開始,提出 3-5 個工具及其名稱、描述、輸入輸出,建議 v1 是否需要 Widget,TypeScript 做 MCP 伺服器,React 做 Widget。輸出:工具規劃、檔案樹、測試 Prompt 集、風險和待定事項。官方文件裡還貼心地列了常見坑:別一開始就想把整個產品搬過來,先做一個核心功能。別寫一個巨大的 Prompt,拆成「規劃 → 搭建 → 認證 → 部署 → 稽核」五步。別先做 UI,先把工具介面定義清楚。別跳過在 ChatGPT 開發者模式裡的實際測試。iOS 和 macOS 開發iOS 和 macOS 開發案例頁面第五個案例面向 Apple 生態的開發者:用 Codex 搭建 SwiftUI 應用。難度 Advanced,大約 1 小時。核心思路是 CLI 優先。用 xcodebuild 命令列工具,不走 Xcode GUI,保持終端化的工作流程。如果覺得 xcodebuild 太繁瑣,可以用 Tuist 來簡化項目生成。對於已有的 Xcode 項目,可以接入 XcodeBuildMCP 工具來做 Scheme 檢查、模擬器控制、截圖捕獲和 UI 自動化。官方還提供了一系列專項 Skill:SwiftUI 專家、Liquid Glass 專家、性能審計、並行專家、檢視重構……每個都是一個可以載入的專項能力包。Starter Prompt:“搭建一個 SwiftUI 啟動應用,並加入一個建構和啟動指令碼,我可以把它繫結到本地環境的 Build 操作上。瀏覽器遊戲瀏覽器遊戲案例頁面第六個案例畫風突變:做遊戲。難度中等,但官方標註為「長時間運行任務」,因為大量素材生成可能需要幾個小時。流程值得展開說說。先寫一份遊戲策劃文件 PLAN.md,定義玩家目標、核心遊戲循環、操作方式、勝負條件、難度遞進、視覺風格、技術堆疊和開發里程碑。然後在 AGENTS.md 裡配置 Codex 的行為規範:遊戲名稱、類型、技術堆疊(推薦 Next.js + Phaser 或 PixiJS 做渲染),以及要用到的 Skill。這裡用到三個關鍵 Skill:• Playwright Interactive:在真實瀏覽器裡測試遊戲,調整操控和 UI• ImageGen:生成概念圖、精靈圖、背景、各種視覺素材• OpenAI Docs:查最新的 API 文件Codex 根據計畫生成第一版,然後你截圖反饋,它再調整,如此迭代。Starter Prompt:“用 $playwright-interactive、$imagegen 和 $openai-docs 來規劃並建構一個瀏覽器遊戲。實現 PLAN.md,並在 .logs/ 下記錄工作日誌。從寫策劃到出成品,一個人就能做一款瀏覽器小遊戲……這也算是 Vibe Coding 的最佳註腳了。自動做 PPT自動生成 PPT 案例頁面第七個案例回到職場剛需:做 PPT。難度 Easy,大約 30 分鐘。用的是 PptxGenJS 庫來操作 .pptx 檔案,配合 ImageGen 生成視覺素材。幾個關鍵原則:先看再改。 改已有的 PPT 之前,先讓 Codex 檢查現有的幻燈片結構,匹配寬高比,對照渲染截圖來調整。保持可編輯。 文字保留為 PowerPoint 文字對象,簡單圖表用原生 PowerPoint 圖表,不要把整張幻燈片柵格化成圖片。驗證流程。 渲染成每頁 PNG 再檢查,檢測文字是否溢出畫布邊界,報告缺失或被替換的字型。Starter Prompt:“用 $slides 和 $imagegen 編輯這個幻燈片:在每頁右下角加 logo,把文字左移並在指定頁面生成抽象數字藝術插圖,保持文字可編輯,按現有品牌風格新增幻燈片,渲染成圖片稽核,檢查溢出和字型替換問題,保存可復用的生成 Prompt。30 分鐘,即可做一套品牌風格統一的 PPT 出來。死磕難題迭代攻克難題案例頁面第八個案例的思路和其他的都不一樣:它教你怎麼讓 Codex 反覆迭代,死磕那些一次搞不定的難題。這個案例的核心概念是「評估驅動的改進循環」。很多任務並非「做了就對」,需要反覆最佳化。Codex 的做法是:檢查輸出 → 打分 → 決定下一步改動 → 再檢查再打分,循環往復,直到達標。打分機制分兩層:確定性檢查(程式碼能不能跑、測試過不過)和 LLM 評審(可讀性好不好、輸出有沒有用)。Starter Prompt:“這個工作區裡有個棘手的任務,我想讓你用評估驅動的改進循環來做。開始之前:讀 AGENTS.md,找到給當前輸出打分的指令碼或命令。迭代循環:每次只做一個聚焦的改進,每次有意義的改動後重跑評估,記錄分數和改動內容,直接檢查生成的產物,持續迭代直到總分和 LLM 評審平均分都超過 90%。約束:不要在第一個可接受的結果就停下來,除非新結果明顯更差否則不要回退,遇到瓶頸時說明卡在那裡。這其實是把「進化演算法」的思路用到了 AI 程式設計裡,通過反覆評估和微調來逼近最優解,不追求一步到位。Slack 發任務Slack 整合案例頁面第九個案例走的是整合路線:直接在 Slack 裡給 Codex 派活。難度 Easy,5 分鐘搞定。裝好 Slack 應用,連接倉庫和環境,把 @Codex 加到頻道里。然後在任何一個 Slack 對話線程裡 @Codex,附上你的需求,它就會啟動一個雲端任務。做完之後會線上程裡貼回結果連結,你也可以去 Codex 雲端面板查看詳情。Starter Prompt:“@Codex 分析這個線程裡提到的問題,並在 <環境名稱> 中實現修復。官方建議:請求要具體,指明用那個倉庫和環境,大型程式碼庫的話還要引導 Codex 去看那些檔案或目錄。這其實是把 Codex 變成了一個隨時待命的遠端程式設計師。產品經理在 Slack 裡描述 bug,@Codex,然後去喝杯咖啡回來看結果。Figma 變程式碼Figma 轉程式碼案例頁面第十個案例是設計師和前端的橋樑:把 Figma 設計稿直接變成程式碼。難度中等,大約 1 小時。和第二個案例(截圖變頁面)的區別在於,這個直接從 Figma 的結構化資料入手,而不是從截圖。流程分幾步:先在 Figma 裡做好準備工作。用 Variables/Design Tokens 管理顏色、排版、間距,建構可復用的元件,別用散落的圖層,用 Auto Layout 實現響應式行為,命名規範清晰。然後用 Figma Skill 的幾個關鍵命令:get_design_context 獲取節點的結構化設計資訊,get_metadata 獲取更詳細的中繼資料,get_screenshot 獲取精確的視覺參考。最後用 Playwright 做視覺驗證,對比實際渲染效果和設計稿。Starter Prompt:“實現這個 Figma 設計……先用 get_design_context 獲取目標節點或畫面……復用現有設計系統的元件和 token……桌面和移動端都要做響應式……用 Playwright 檢查 UI 是否匹配參考設計。讀懂大型程式碼庫程式碼庫理解案例頁面第十一個案例特別適合新人:快速理解一個陌生的程式碼庫。難度 Easy,5 分鐘。你要做的就是問 Codex:這個系統的請求是怎麼流轉的?那些模組負責什麼?資料在那裡做校驗?改程式碼之前有什麼坑要注意?最後推薦我下一步該讀那些檔案?Starter Prompt:“解釋程式碼庫中 <系統區域> 的請求流轉過程。包括:那些模組負責什麼,資料在那裡做校驗,改程式碼前有那些注意事項。最後告訴我接下來應該讀那些檔案。還可以追問更深的問題:•  那個模組負責業務邏輯,那個負責傳輸層,那個是 UI?•  校驗邏輯在那裡執行,有那些隱含的假設?•  如果我改了這個流程,那些關聯檔案和後台任務容易被忽略?•  改完之後應該跑那些測試?對於新入職的工程師來說,這相當於一個隨時線上的「程式碼庫導遊」。5 分鐘就能對一個模組建立起初步認知,比翻文件快太多了。升級 API 整合API 升級案例頁面最後一個案例是 API 遷移:把現有的 OpenAI API 整合升級到最新版本。難度中等,大約 1 小時。這個案例直面一個現實問題:換模型不是改個模型名就完事的。API 參數可能變了(比如 GPT-5.4 新增了 phase 參數),模型行為可能不同導致 Prompt 需要調整,還需要建評估流水線來防止回歸。Codex 的做法是先盤點:當前用了那些模型、那些 endpoint、那些工具呼叫假設。然後製訂最小遷移計畫,只改必須改的。更新 Prompt 時參考最新的模型指南。最後標記出所有需要人工稽核的 Prompt、工具或響應格式變更。Starter Prompt:“用 $openai-docs 將這個 OpenAI 整合升級到最新推薦的模型和 API 特性。具體來說,尋找最新的模型和 Prompt 指南。盤點當前的模型、endpoint 和工具假設,制定最小遷移計畫,保留現有行為(除非新 API/模型要求改變),根據最新指南更新 Prompt,標記所有需要人工稽核的變更。◇ ◆ ◇回過頭來看這 12 個案例,有幾個觀察。Codex 應該是在有意模糊「程式設計工具」和「通用工作工具」之間的界限。做 PPT、分析資料、做遊戲,這些案例裡有一半和寫程式碼沒什麼直接關係。另一個值得注意的是 AGENTS.md 的檔案。它在幾乎每個案例裡都出現了,承擔的角色類似於「給 AI 的工作手冊」。定義好規則,Codex 按規則辦事。這本質上是一種新的協作範式:你只需要定義規則和目標,剩下的讓 AI 自己去執行。 (AGI Hunt)
在IPO前夕調整業務戰略,OpenAI關閉Sora
2022年,OpenAI憑藉其廣受歡迎的生成式人工智慧(GenAI)工具ChatGPT在科技界乃至全社會引發了一場連鎖反應。自那時起,公司推出了幾款面向消費者的應用程式,如其視訊生成平台Sora,該平台於2024年12月向付費使用者推出。但現在,情況發生了變化。本周,公司宣佈將關閉Sora。"我們要向Sora應用告別。對於所有用Sora創作、分享它並圍繞它建立社區的人們:謝謝你們。你們用Sora創造的作品很重要,我們知道這個消息令人失望。"該公司周二在X平台上發帖稱,並補充說,稍後將提供有關關閉時間表以及使用者如何保存平台上先前作品的更多細節。關閉迄今帶來的最大後果是OpenAI與迪士尼之間價值十億美元交易的告吹。這筆為期三年的交易於去年12月達成,包括對OpenAI的10億美元投資,以及在使用Sora生成視訊時獲得約200個迪士尼角色授權許可。據路透社報導,迪士尼對這一決定"感到措手不及",在兩家公司舉行一次Sora相關會議僅30分鐘後才得知此事。這家媒體巨頭隨後取消了該交易。"隨著新興AI領域的快速發展,我們尊重OpenAI退出視訊生成業務並將優先順序轉向其他領域的決定。"迪士尼在一份聲明中表示。"我們要感謝我們團隊之間的建設性合作以及從中獲得的經驗,我們將繼續與AI平台接觸,尋找新的方式在粉絲所在的地方與他們互動,同時負責任地擁抱尊重智慧財產權和創作者權利的新技術。"究竟發生了什麼?一些人推測,OpenAI正尋求保護其聲譽。與迪士尼交易中斷表明,公司正在從技術要求高且法律複雜的應用類別中撤出。媒體生成系統運行在一個由版權擔憂、許可談判和品牌敏感性所塑造的環境中。通過撤下旗艦視訊產品,OpenAI可能正在減少這些挑戰,同時將注意力重新定向到它可以更快行動並擁有更大控制權的領域。其他假設指向運行Sora的價格標籤。《福布斯》11月的一份報告估計,該應用的推理成本高達每天1500萬美元,即每年54億美元,儘管該媒體承認其估計依賴於"動態目標",如GPU價格、推理效率、使用者數量和每天生成的視訊數量。10月,OpenAI Sora負責人Bill Peebles在X上的一串帖子中表示,視訊平台的"經濟性完全不可持續"。一些人推測,OpenAI的IPO雄心可能也與這一決定有關,並可以解釋為什麼投入產出不再可持續。公司去年5月聘請前Instacart首席執行長Fidji Simo領導其應用業務,據CNBC報導,隨著公司準備備受期待的、據稱將於今年某個時候進行的首次公開募股,她一直在推動"產品專注和紀律"。公司最近召開了一次全體員工會議,旨在向員工明確其優先事項。CNBC報導稱,Simo表示,OpenAI正在"積極向高生產力用例傾斜"。當一家公司準備在美國進行IPO時,它必須向SEC提交註冊聲明,其中包括經審計的財務報表以及有關其成本結構、風險和收入的詳細披露。這一過程,通常通過S-1檔案進行,迫使許多私營公司達到前所未有的透明度水平,特別是在特定產品線的經濟性方面。在OpenAI的案例中,走向IPO可能會對Sora等計算密集型系統的成本概況帶來更嚴格的審查。這種暴露會影響內部關於那些產品在規模上是可持續的,那些可能難以向公開市場投資者證明其合理性的決策。如果Sora現在已不在考慮範圍內,OpenAI的新優先事項是什麼?CNBC稱,在全體員工會議上,Simo告訴員工,公司正專注於其企業業務,並讓ChatGPT使用者更具生產力。ChatGPT目前擁有超過9億周活躍使用者,OpenAI正尋求通過將其Atlas網路瀏覽器、ChatGPT應用和Codex編碼應用合併為一個單一桌面"超級應用"來簡化使用者體驗。Simo和OpenAI總裁Greg Brockman將主導這一努力。"我們現在的機會是將這9億使用者轉化為高計算使用者,"根據CNBC審查的全體員工會議部分記錄,Simo表示。"我們將通過將ChatGPT轉變為生產力工具來實現這一點。"除了超級應用,OpenAI正在開發一個"AI研究員",其被描述為一個多智能體系統,可以自主執行完整的研究工作流程來解決複雜問題。據《麻省理工科技評論》報導,公司新的"北極星"是建構一個"自主研究實習生",它可以在9月之前解決更小、更具體的研究問題,作為"公司計畫於2028年推出的全自動多智能體研究系統的前奏"。該媒體報導稱,這些任務包括數學和物理問題,如建立新證明或猜想,以及生命科學、商業和政策用例。OpenAI首席科學家Jakub Pachocki在接受《麻省理工科技評論》採訪時將"AI研究員"項目定位為將當前模型擴展到可以推理、規劃和在長時間範圍內迭代的系統的努力,而不僅僅是生成響應。他描述的目標是建構可以在問題的多個步驟中操作的智能體,使用程式碼執行和資訊檢索等工具,同時持續改進其方法。Pachocki表示,這種目標導向的行為是邁向更廣泛智能的必要步驟,儘管他也承認,大型語言模型的可靠性和評估仍然是一個開放的挑戰。OpenAI最近向智能體系統和面向企業工具的轉向,反映了一種針對Anthropic的戰略,後者專注於生產力用例和緊密整合的應用程式,而不是消費者實驗。Anthropic對可靠性、編碼和工作流支援的強調,有助於將其模型確立為日常知識工作的實用基礎設施。此外,向"AI研究員"的推進並非OpenAI獨有。它反映了整個行業向推理系統發展的更廣泛趨勢,這些系統可以在有限監督下執行多步驟科學和技術任務。像Ai2和FutureHouse這樣的組織一直是這一方向的早期建構者,推進基於智能體的科學框架的開放研究,旨在使AI系統能夠更多地瞭解物理世界並支援現實世界的問題解決。目前,OpenAI近期的決策表明其大幅縮小了關注範圍。公司正從其最可見的面向消費者的應用之一和主要媒體合作中撤出,同時加速其在智能體系統和企業平台方面的工作。結果可能是其研究議程與商業戰略之間更清晰的一致。這種轉變反映的是暫時性調整還是更持久的戰略變化,還有待觀察。 (Ai時代前沿)
黃仁勳喊出“推理拐點”,邊緣推理的機會窗口打開了嗎
上周,紐約時報報導了矽谷一個新風氣叫 tokenmaxxing,Meta 和 OpenAI 的工程師在內部搞 token 消耗量排行榜,比誰燒得多。黃仁勳在 GTC 2026 上更激進,提議企業給工程師發 token 預算,作為工資之外的第二份薪酬。OpenAI 的資料則顯示,過去一年企業客戶的推理 token 消耗量暴漲了約 320 倍。需求側在爆炸。供給側呢?黃仁勳在同一場 keynote 上搬出了 Tokenomics 這個概念,把它從加密貨幣的語境裡拎出來,重新定義為 AI 推理的經濟學。核心指標叫 Tokens per Watt,衡量每瓦特電力能產出多少 token。他說推理拐點已經到了,NVIDIA 預計 Blackwell 和 Vera Rubin 晶片訂單量到 2027 年將達到 1 兆美元。國內大模型廠商一直在講類似的事情,只是換了說法叫“推理成本”或者“token 單價”。不管那種說法,指向的問題是一樣的,當 token 變成 AI 時代的水電煤,誰來建發電廠和電網?過去三年,行業給出的答案是,建更大的資料中心,塞更多的 GPU。這在訓練時代完全成立。但推理和訓練的邏輯不同。訓練一個模型是一次性工程,推理要做幾十億次,而且對延遲極度敏感。當推理請求像洪水一樣湧來,把所有 GPU 集中在幾個超巨量資料中心裡,可能恰恰成了瓶頸。瓶頸不在算力,在物理。具體來說,在光速。推理時代撞上“光速牆”在今年 GTC 上,有一家公司對這個問題給出了非常系統的回答。Akamai,國內讀者可能不太熟悉這個名字,但在海外,它是 CDN 概念的開創者,也是目前全球最大的分散式運算平台,擁有業內最龐大的邊緣節點網路。1998 年成立,全球前十的視訊串流媒體平台、遊戲公司、銀行基本都是它的客戶。全球擁有超過 4400 個邊緣入網點,覆蓋 130 多個國家,承載全球近三分之一的網際網路流量。這家公司在近三十年裡經歷了三次轉型,從 CDN 到安全,再到雲端運算和 AI。今年 GTC 上,它帶來了兩個 session,核心主題只有一個,為什麼 AI 推理必須走向分佈式。Akamai CTO Office 的 SVP Andy Champagne 在 session 上描述了一個“個人 AI 導播”的場景,非常有畫面感。一場 F1 比賽有 20 多個 4K 機位同時在拍,傳統做法是導播間一個人切鏡頭,幾百萬觀眾看到的畫面一模一樣。但如果每個觀眾都能看到根據自己偏好定製的直播流,喜歡的車手、偏愛的鏡頭角度,那就需要在邊緣即時合成個性化的視訊。幾百萬路不同的 4K 視訊流,不可能從一個資料中心統一往外推。類似的邏輯出現在越來越多的即時場景裡。遊戲 NPC 需要在 50 毫秒內響應,超過這個閾值玩家體感明顯示卡頓。Akamai 產品管理 VP Shawn Michels 在另一個 session 舉了即時廣告插入的例子,從掃描視訊、識別廣告位、競價、生成個性化廣告到拼回視訊流,整條鏈路的預算只有 100 毫秒。這恰恰是 Akamai 的先天優勢所在,它在全球已有超過 4400 個邊緣節點,這種“就近處理”的能力不是純雲廠商從零搭建能輕易追上的。同樣的延遲壓力還存在於 AI 語音助手、電商推薦引擎、智能試衣間、自動駕駛感測器處理和工業產線質檢等場景中。AI 一旦嵌入即時應用,就必須繼承那個應用原本的延遲要求。物理定律不會因為 GPU 更快就網開一面。光在光纖中每秒約跑 20 萬公里,從倫敦到美東資料中心單程延遲約 28 毫秒,往返就是 56 毫秒。從東京出發更遠,往返約 134 毫秒。這還沒算任何計算時間。回頭看上面那些場景的延遲要求,不難理解為什麼把推理全部扔到少數幾個集中式資料中心裡是行不通的。延遲之外還有頻寬。Andy 在 session 裡算了一筆帳,同樣 1GW 的算力,如果集中在一個資料中心用 Blackwell 做視訊推理,出口頻寬需求是 75 Tbit/s。分佈到 20 個區域節點,每個只需 3.75 Tbit/s。集中式的出口流量是分佈式的 20 倍,背後的網路成本差距不言而喻。如果換成下一代 Vera Rubin,集中式的出口頻寬更是飆到 135 Tbit/s。晶片越快,集中式架構的出口瓶頸反而越嚴重。在同一個 session 上,Comcast負責 AI 與邊緣計算方向的嘉賓從等候理論的角度做了更嚴謹的分析。在相同 GPU、相同模型的條件下,集中式和分佈式部署之間僅僅 14 毫秒的往返延遲差異,就導致了約 30% 的 GPU 利用率差距。他的原話是,“這是物理定律層面的優勢,沒法靠 batching 或者提高 tokens/s 來彌補。”一個近三十年的伏筆Andy 在 session 上做了一個很有意思的類比,把 AI 的發展時間線和網際網路做對齊來看。網際網路的普及率已經超過 95%,AI 目前大約只有 7%。他的判斷是,AI 現在大概處於網際網路的 MySpace 時代。想想 MySpace 之後又誕生了多少公司、多少市值、多少技術突破。AI 的好戲才剛剛開始。這個類比其實點出了 Akamai 做分佈式推理的底層邏輯。近三十年前這家公司解決的問題和今天面對的問題,結構上是一樣的,把集中的東西變成分佈的。當年分發的是網頁和視訊,現在分發的是 AI 推理。方法論一脈相承。他在 session 結尾說了兩句話,頗能概括這種邏輯,“AI 工廠創造智能,AI Grid 分發智能”,以及“沒有分佈式推理的 AI,就像沒有 CDN 的網際網路”。GTC 期間,NVIDIA 官方將 Akamai Cloud 和 AWS 一起列為首批提供 RTX PRO Blackwell Server Edition 實例的雲服務商。黃仁勳 keynote 展示的合作夥伴 logo 牆上,Akamai 赫然在列。NVIDIA 電信業務全球副總裁 Chris Penrose 評價說,Akamai 通過營運 AI Grid,正在為生成式 AI、AI Agent 和物理 AI 建構連接組織,將智能直接推送到資料所在的地方。Akamai 也在 GTC 上正式發佈了業界首個全球規模落地 NVIDIA AI Grid 參考架構的方案,將 NVIDIA AI 基礎設施深度整合到自身的分佈式網路中。這不是一個鬆散的合作。Akamai 是首家將 AI Grid 從概念推到營運等級的廠商,底層跑的是 NVIDIA AI Enterprise 軟體棧、Blackwell 架構 GPU 和 BlueField DPU 加速網路的完整技術堆疊。推理基礎設施的幾個現實問題回到地面,對於正在考慮推理部署的 AI 團隊,有幾個繞不開的現實問題。不是所有推理都需要 H100。 這個認知正在被越來越多團隊接受。H100 為訓練和大規模推理而生,但如果跑的是 8B 參數的模型、做的是語音互動或者視訊分析,用 H100 就像開卡車送外賣。Akamai 目前部署的 RTX PRO 6000 Blackwell Server Edition 是一個值得關注的選項。直接看 Token 經濟,$2.50/小時全包價,每美元 Token 產出是同類方案的 2.1 倍。性能層面,這張卡配了 96GB GDDR7 視訊記憶體和 4,000 TOPS FP4 算力,在 NVFP4 精度下推理吞吐量比 H100 高出 60% 以上,對比上一代 RTX 4000 Ada 提升達 19 倍。另一個容易被忽略的差異是視訊處理能力,RTX PRO 6000 原生支援 112 到 132 路視訊編解碼,如果做的是視覺 AI 相關的產品,這個能力是定位於訓練和超算的 H100 不具備的。再加上風冷設計,在邊緣機房有限的空間和功耗條件下部署門檻低得多。Shawn Michels 在 GTC session 裡的觀點說的是未來的推理基礎設施一定是混合架構,不同 GPU 匹配不同的工作負載,沒有萬能卡。Egress 費用是隱性殺手。 很多團隊做預算時只看 GPU 租用價格,忽略了資料出站費。AI 產品服務全球使用者,視訊和模型響應產生的出站流量成本可能比 GPU 本身還貴。邊緣部署的經濟邏輯之一正在於此,推理結果在本地生成、本地交付,不用跨大半個地球回傳。Akamai 的 egress 價格是 $0.005/GB,和三大雲廠商的差距非常明顯。調度比算力更難。 GPU 散到全球各地只是第一步,更難的是讓每個請求找到最合適的那台機器。Akamai 在 GTC 上展示了他們的 AI 編排器(Orchestrator),這不是傳統的根據延遲和負載來分配流量的負載平衡。它會考慮模型親和性(那台機器已經載入了需要的模型)、GPU 視訊記憶體佔用、KV Cache 狀態等 AI 場景特有的因素來做即時路由決策。現場 demo 中,推理請求從巴黎節點即時切換到加州節點,使用者側完全無感知。這背後是 Akamai 做了近三十年流量調度的老本行,在 AI 場景上的自然延續。目前 Akamai 的 Blackwell GPU 節點已覆蓋歐洲、亞太和美洲共 19 個節點,配合 4400 多個邊緣入網點協同工作。對於出海的 AI 團隊來說,東京、新加坡、孟買、雅加達這些亞太節點尤其值得留意。出海 AI 創業者的第三種選擇Akamai 從 CDN 到安全,再到雲端運算和 AI 推理的轉型路徑,本身就是網際網路基礎設施演進的一個切面。它在這條賽道上的差異化在於,不是從零建資料中心,而是把已經運行了近三十年的全球分佈式網路變成了 AI 推理的底座。這步棋能走多遠,取決於它能不能跟上 AI 硬體更新的速度,也取決於邊緣推理的市場需求能否如預期般爆發。但對中國出海 AI 創業者來說,一件事正在變得越來越清楚,全球化部署推理能力正在從“以後再說”變成“現在就得解決”。合規(資料主權、不出境)、延遲(使用者體驗的硬門檻)、成本(egress 和 GPU 租用的真實帳單),這是出海時最現實的三座山。Akamai 的邊緣推理平台提供了一種此前不太存在的選擇,不必自建全球基礎設施,也不必把雞蛋全放在幾家超大規模雲上,而是可以借助一張已經覆蓋 130 多個國家的分佈式網路,把推理跑到離使用者最近的地方去。 (矽星人Pro)
Manus 賣身Meta後,目前正在接受是否違反外商投資相關規則的問詢/OpenAI 下個模型剛訓完,部門先改名成“AGI部署”,Altman 這次太敢了?
Manus 賣身Meta後,目前正在接受是否違反外商投資相關規則的問詢/OpenAI 下個模型剛訓完,部門先改名成“AGI部署”,Altman 這次太敢了?/月之暗面 創始人放話:從今年開始,AI研究會越來越像AI自己做的Meta 一邊裁700人一邊獎高管,祖克柏這把AI賭得有多狠?我看到這條時,第一反應就是:Meta 對 AI 的執念,已經開始直接拿人開刀了。3月25日,Meta 在美國啟動新一輪裁員,涉及數百名員工,核心波及 Reality Labs,也包括 Facebook、全球營運、招聘和銷售團隊;紐約時報給出的數字更狠,僅 Reality Labs 一線就約700人被裁。公司嘴上說是“組織重組”,部分人還能轉崗,甚至要搬城市,但背景誰都看得懂——祖克柏還在往 AI 裡繼續砸錢,要追 OpenAI、Anthropic 和 Google。(CNBC 紐約時報)更擰巴的是,裁員消息傳出的前後,Meta 又給核心高管準備了新的股票激勵計畫,說是為了在 AI 豪賭期穩住關鍵人物。我看著都覺得刺:前腳砍掉 Reality Labs 和業務線員工,後腳給高層加“留任籌碼”,而且公司 1 月才在 VR 部門裁過 1000 多人。Meta 現在像在公開宣佈,舊戰略可以繼續流血,新戰場只能是 AI——可問題是,這場加注最後燒掉的,究竟是成本,還是公司內部的信任?(CNBC 紐約時報)Reddit 終於對機器人動手了!可你上網發言,先要證明自己是人?我最先注意到的,不是 Reddit 要打擊機器人,而是它終於把“誰像人、誰不是人”這件事擺上檯面了。3月25日,Reddit 宣佈,今後會給為使用者提供服務的自動化帳號打標籤,同時要求被懷疑是機器人的帳號完成人類驗證。平台說這不是全站普查,只有在發帖速度、操作模式等訊號“看起來不對勁”時才觸發;過不了驗證,帳號可能直接受限。驗證手段也很現實,點名了 Apple、Google、YubiKey 的 passkeys,甚至 Face ID、World ID。(TechCrunch)這事最有意思的地方在於,Reddit 沒打算禁止 AI 寫帖或評論,只是不想讓機器人假裝成真人混進社區。我一邊覺得它說得很克制,一邊又覺得這幾乎是在承認:今天的社交平台,已經很難單靠內容本身判斷“誰在說話”。同一時間,Reddit 還說自己平均每天移除約10萬個帳號,繼續清理垃圾和可疑 bot。平台想保匿名,又得證明你是人,匿名社區這張老王牌,到了 AI 時代還撐得住嗎?(TechCrunch)Harvey 又融2億美元,法律AI不只是風口,已經開始吞行業了?我看到 Harvey 這輪融資,腦子裡冒出的不是“又一家獨角獸”,而是:律師行業真的開始被 AI 改寫了。3月25日,法律 AI 公司 Harvey 宣佈完成 2 億美元融資,估值達到 110 億美元,這輪由 新加坡主權基金 GIC 和 Sequoia 領投;更誇張的是,它去年 12 月的估值還只有 80 億美元,幾個月就又抬了一截。公司給出的營運資料也很硬,產品已覆蓋 1300 多家機構、超過 10 萬名律師,服務場景包括合同審查、合規、盡調和訴訟。(CNBC)更刺激的是,Harvey 講的已經不是“輔助工具”故事了。公司披露,今年1月年經常性收入已到1.9億美元,客戶裡還有 NBCUniversal 和 HSBC 這種大企業,新增資金則會繼續砸向 AI agents 和全球嵌入式法律工程團隊。我看這已經不是“律師用不用 AI”的問題,而是大所和法務團隊還要不要繼續按舊人海模式運轉。OpenAI、Anthropic 在天上卷模型,Harvey 這種垂類公司,已經開始在地面上直接收行業門票了。(CNBC)川普科技顧問委員會 幾乎半個矽谷都進白宮了,誰還敢說AI只是商業戰?我看到名單時有點恍惚,這那是普通顧問團,簡直像把美國科技權力中樞直接搬進白宮。3月25日,川普任命首批24名總統科學技術顧問委員會成員,名單裡包括 Meta 的馬克·祖克柏、輝達的黃仁勳、甲骨文的拉里·埃裡森、Google聯合創始人謝爾蓋·布林、AMD 的蘇姿丰等重量級人物;委員會由 David Sacks和白宮科技政策辦公室主任 Michael Kratsios共同牽頭,任務是給總統提供科學、技術、教育與創新政策建議。(美國之音 華爾街日報中文網)更有張力的是,這個委員會討論的不只是 AI 本身,白宮明確點到了勞動力市場、國家安全、國土安全和美國科技領導地位。我會覺得這事危險又真實:以前科技公司是去華盛頓遊說,現在更像被請進來一起寫規則。前腳美國還在爭論 AI 該不該被嚴管,後腳最有資源、最有晶片、最有平台的人已經坐到了桌邊——政策是要約束巨頭,還是乾脆由巨頭定義下一輪政策?(美國之音 華爾街日報)PDD 營收還在漲,利潤卻先掉頭,Temu 的低價神話開始疼了?我看到拼多多母公司這份財報,最戲劇化的不是數字差,而是節奏變了。PDD Holdings 3月25日披露,2025年第四季度營收 1239.12 億元,同比增長 12%,折合約 180 億美元;但歸母淨利潤只有 245.41 億元,同比下滑 11%,約合 35.1 億美元,低於市場大約 40 億美元的預期。管理層嘴上講的是“高品質發展”和下一個十年的供應鏈投入,我看到的卻是一個靠效率著稱的平台,開始用利潤給增長續命。(Yahoo Finance 華爾街日報)更微妙的是,外部環境和競爭壓力,PDD 自己也沒再掩飾。財報裡明確說,為了滿足消費者變化、維持生態穩定,公司必須持續投資,而這些投入“不可避免會影響財務表現”;華爾街日報的說法更直接,PDD 正在努力留住平台商家。前腳 Temu 還在全球用低價沖城略地,後腳利潤已經被成本和生態壓力咬了一口。問題來了,平台能一直讓消費者便宜、讓商家留下、還讓股東滿意嗎?(Yahoo Finance 華爾街日報)Arm 不只賣設計了,自己下場做晶片,Rene Haas 這是要掀桌子?我看到 Arm 這一步,真的有種“供應商突然坐上牌桌”的感覺。Arm 不再滿足於給別人授權架構,這次直接推出首款自研資料中心 CPU——Arm AGI CPU,目標非常明確,就是盯著 agentic AI這種持續推理、規劃、行動的工作負載來打;而且它不是概念稿,由 TSMC 用 3nm 工藝代工,官方還給出很硬的參數:最多 136 個 Arm Neoverse V3 核心,主打高密度、高頻寬和低時延。(Arm Newsroom WIRED)更刺激的是,Arm 明知道這會得罪一批老夥伴,還是往前走了。官方宣稱,AGI CPU 單機架性能可達 x86 平台的兩倍以上,早期系統已經可用,2026 年下半年會更大範圍鋪開;WIRED 對 Rene Haas 的訪談則把這層衝突說透了——Arm 一邊談文化轉向,一邊在 SoftBank 支援下自己做晶片,這對過去依賴 Arm IP 的客戶來說,幾乎等於“合作方親自下場競爭”。以前 Arm 是裁判,現在它想當選手,生態還會像以前那樣安靜嗎?(Arm Newsroom WIRED)快手 財報穩住了,真正搶戲的卻是可靈AI開始自己賺錢了!我看快手這份成績單,最扎眼的已經不是短影片主業,而是 AI 終於開始像生意了。快手 3月25日披露,2025 年第四季度總營收 396 億元,同比增長 11.8%,和市場預期基本一致;經調整淨利潤 55 億元,同比增長約 16%。但真正有戲劇性的,是它親手把“可靈 AI”從講故事階段拽進了收入表:Kling AI 單季收入達到 3.4 億元人民幣,說明這類文生視訊產品,終於不只是在刷存在感。(PR Newswire Bloomberg)更猛的是速度。公司還披露,2025年12月,可靈AI單月收入已經超過 2000 萬美元,折算成年化收入跑速約 2.4 億美元。我會覺得這很像一個訊號:平台公司過去總說“AI 會提高效率”,現在終於敢把 AI 單獨拉出來談變現。同一時間,國內大模型和視訊生成都在卷價格、卷效果、卷生態,快手卻先把收入做出來了。問題是,可靈接下來會成為新增長曲線,還是只是財報裡最亮的一塊反光?(PR Newswire Bloomberg)OpenAI 下個模型剛訓完,部門先改名成“AGI部署”,Altman 這次太敢了?我看到這條內部備忘錄消息時,最先愣住的不是模型進展,而是 OpenAI 的語氣已經像在提前宣佈新時代。Alex Heath 援引內部備忘錄稱,Sam Altman 告訴員工,OpenAI 下一代模型已完成預訓練,內部代號叫 “Spud”,並且他直接放話,“幾周內”會有一個“非常強”的模型,足以真正加速經濟。同時,公司還調整組織架構,把 Safety 併入 Research,把 Security 調整到 Scaling 體系。(The Decoder The Information)更耐人尋味的是,Fidji Simo 負責的產品組織被改名為“AGI Deployment”。我讀到這兒的時候,幾乎能感覺到 OpenAI 想傳遞的情緒:它不只想做模型,還想把“AGI 如何落地”先佔個名字。同一時間,外界看到的是 Sora 被收縮、算力往新模型傾斜,內部看到的卻是安全、擴展、產品重新排兵佈陣。前腳還在解釋安全治理,後腳已經把“部署 AGI”寫進組織名裡,OpenAI 這是領先的自信,還是把壓力直接攤在檯面上了?(The Decoder The Information)Manus 賣身Meta後,目前正在接受是否違反外商投資相關規則的問詢路透 3 月 25 日援引英國《金融時報》稱,Manus 聯合創始人、CEO 肖弘和首席科學家季逸超,本月在北京被監管部門約談後,被告知在審查期間不得離境,但仍可在境內活動。被審查的核心,是 Meta 對 Manus 的收購是否違反外商投資相關規則;這筆交易去年 12 月公佈,路透此前引述消息稱,估值大約在 20 億到 30 億美元。(Reuters Financial Times)需要說說明的是,目前審查是完全遵循相關的法律法規,並非所謂的「違法」審查,也並不意味著該筆收購交易就此終止。Meta 這邊的回應很平靜,直接說交易“完全符合適用法律”,並預計會有“適當結果”;而 Manus 則被曝正在積極尋求法律和諮詢支援。(Reuters Financial Times)蔡崇信 說CEO永遠安全!AI都快變虛擬員工了,他還這麼篤定?我看到蔡崇信這句“CEO 崗位永遠安全”時,第一反應不是輕鬆,反而是更刺耳了。3月23日西門子 RXD 大會上,阿里巴巴集團主席蔡崇信和西門子全球 CEO 博樂仁對話時表示,智能體不會取代 CEO,因為 CEO 最稀缺的不是執行力,而是時間和精力。他的邏輯很直接:以前 CEO 得嚴控直屬匯報人數,避免被管理事務拖垮;有了智能體後,CEO 反而能管更多事,把時間騰給戰略和未來。(新浪科技)可我覺得這句話真正的衝擊,不在“CEO 安全”,而在它默認了大量中間層和執行層會先被 AI 重構。同一場對話裡,蔡崇信還強調,阿里的核心戰略是**“未來一切都將由 AI 驅動”**,阿里要靠雲基礎設施支撐所有想用 AI 的企業。前腳說 AI 不會替代 CEO,後腳又說企業未來一切都由 AI 驅動,這種表態聽上去像是在安慰塔尖,可塔身已經開始搖了,不是嗎?(新浪科技)月之暗面 創始人放話:從今年開始,AI研究會越來越像AI自己做的我讀到楊植麟這段發言時,最強烈的感覺是:研究員的位置,可能也要被重新定義了。3月25日,在2026中關村論壇年會上,月之暗面創始人楊植麟表示,從今年到明年乃至未來若干年,AI 的研究和研發方式會發生重大變化,越來越多研究將由 AI 主導完成。他說得很具體,未來每位研究員都會配備大量 AI Token,這些資源能幫助合成新任務、新環境、定義獎勵函數,甚至探索新的網路架構。(新浪科技 東方財富)更有張力的是,他不是在談一個遙遠想像,而是在給時間表。從今年開始,研發會逐步加速,人與 AI 的分工會被重新切開。我看這句話真正刺痛人的地方在於:過去大家還在爭“AI 能不能幫研究員提效”,現在頭部創業者已經直接把 AI 放到“主導研發”的位置上。前腳行業還在追參數、追訓練卡數,後腳討論已經變成“誰先讓 AI 參與設計下一代 AI”,那研究員接下來到底是在做研究,還是在管理研究?(新浪科技 鳳凰網科技)飛豬 把旅行外掛塞進一堆AI應用裡,訂票這件事真要交給助手了?我看到飛豬這次發 skill,最直接的感受就是:旅行平台終於不甘心只做“被搜尋到”的那一端了。3月25日,飛豬發佈首個全品類出行旅遊技能外掛“flyai”,已經上線 ClawHub、GitHub等平台,開發者和使用者可以在 OpenClaw、悟空、Kimi Claw等數十個“龍蝦”應用裡安裝使用。意思很明白,飛豬不想等使用者打開 App 再下單,它要先鑽進各類 AI 助手的工作流裡,把訂機票、訂酒店、做行程這套動作提前佔住。 (AI Daily Insights)