GPT-5.4核心內幕炸裂劇透!或擁有永久記憶,極限推理狂飆

GPT-5.4,馬上就要來了!目前已經開啟測試,一次能寫6000行程式碼。外媒曝出它有極限推理模型,甚至還傳聞擁有永久記憶。

如果你覺得最近AI圈有點安靜,太不刺激,那可能只是暴風雨前的寧靜。

據多方消息,GPT-5.4,已經箭在弦上了!

LMArena上,已經出現了GPT-5.4的身影。

就在剛剛,外媒The Information,劇透了不少關於GPT-5.4的核心內幕。

消息足夠炸裂:它有更長的上下文,更極限的推理模型,甚至,可能出現永久記憶!

如果如傳聞所言,這些都是真的,那這一代模型很可能不是簡單的升級,而是一次能力形態的巨大躍遷。

GPT-5.4提前測試,程式碼炸裂曝光

最近,GPT-5.4簡直在到處洩露。

從Codex錯誤日誌、GitHub PR,到員工誤發截圖,短短幾天時間,GPT-5.4已經被「曝光」了至少三次。

而且,這還都是OpenAI自己意外洩露出來的。

最早,是開發者Corey Noles在使用OpenAI Codex時觸發了一次網路安全限制,系統返回的錯誤日誌裡出現了一串非常長的模型名稱:

gpt-5.4-ab-arm1-1020-1p-codexswic-ev3

這串字元最關鍵的,就是前面三位——gpt-5.4。

總之,這串字串可以認為是OpenAI的內部部署ID,翻譯過來就是「一個真實部署、正在測試中的GPT-5.4實驗版本。」

然後,在OpenAI官方Codex倉庫裡,出現了兩個Pull Request:

一個PR寫著:

minimum model version = (5, 4)

另一個PR更直接:

toggle Fast mode for GPT-5.4

看起來,OpenAI給GPT-5.4加了一個「Fast Mode」開關。幾小時後,兩個PR就被force push刪除了。

接下來,更戲劇性的一幕出現:OpenAI Codex團隊的一名員工Tibo 在社交平台上發佈了一張截圖。圖中,模型選擇器裡赫然寫著GPT-5.4。

沒多久,這條帖子就被刪掉了。

隨後,又有開發者報告,在Codex錯誤資訊中看到類似的模型字串。

這更加說明,GPT-5.4已經部署在內部伺服器,正在進行真實的A/B測試了。

一次提示,生成6000行程式碼?

而且,目前已經有開發者報告了一個明顯變化——速度!

一些測試者表示,模型的推理明顯更快,程式碼生成更長,甚至一次提示可生成 6000+行程式碼!

這在以前幾乎不可能。

一些人還發現一個新特徵——Fast Mode。

這可能意味著,OpenAI正在嘗試新的推理架構,例如多級latency pipeline,或不同速度檔位模型。

另外,新模型介面特徵也被發現了:部分使用者表示,如果在推理摘要(Chain-of-Thought summary)旁邊看到點贊或點踩按鈕,可能意味著帳戶已經被分配到GPT-5.4的測試模型。

極限推理模式,性能拉爆

The Information的爆料,也跟以上資訊完全對上了。

這次爆料中,最亮的就是這個極限推理模式——Extreme Reasoning Mode了。

傳統模型的思考時間都很有限,但這個極限推理模式,直接讓模型的性能拉到爆,在遇到困難問題時,能花費更多時間,呼叫更多計算資源,進行更深層的推理。

有趣的是,根據調查,其實很多普通ChatGPT使用者對於推理功能並不太熱衷。

而且從商業應用的角度來說,這個功能也不很適用,因為企業要的是AI盡快給一個答案。

因此,OpenAI依然如此重視推理能力,倒是顯得動機純粹了不少。

不過,這個消息,對於科研領域和部分企業客戶,倒是重大利多。

顯然,在科學研究領域,許多使用者很願意讓一個模型在有價值的研究問題上運行數小時,甚至數天。

同時,部分企業也會需要用到GPT-5.4更強的推理能力和長周期任務表現,來建構能夠把更複雜業務流程自動化的AI智能體。

根據各方爆料,這個極限推理模式將會很瘋狂,這也就把大家的期待拉滿了。

上下文直接翻倍,達到1M tokens

對於GPT-5.4來說,這是另一個十分硬核的升級——上下文窗口從40萬tokens,升到了一百萬tokens。

這樣一來,GPT-5.4的上下文窗口將超過當前GPT-5.2的兩倍。(當然,也有一些OpenAI模型支援100萬token,比如GPT-4.1,但5.2並不支援)

這下,GPT-5.4可以直接塞進去幾十萬字的文件,分析一整本書,或者長長的程式碼庫和資料了。

這也讓終於讓這個模型在長上下文能力上,重新追平了Google的Gemini和Anthropic的Claude。

畢竟,其他家早就達到了100萬token的上下文窗口,現在GPT-5.4終於補齊了這個短板。

而坊間爆料比The Information更誇張:上下文達到了2百萬tokens!

GPT-5.4,開始擅長「長任務」

爆料中的另外一個點,就是GPT-5.4在需要持續數小時的任務上表現也更好。

也就是說,它在多個步驟中更能記住使用者請求的細節,以及自己被允許或不允許執行的內容,同時也更不容易出錯。

顯然,這對於OpenAI的Codex程式設計工具會極有幫助,因為Codex正是使用AI來自動化複雜的長時間任務。

另外,這種長時間任務能力,對於AI Agent來說也非常關鍵。

Agent可以自己讀取需求、查資料、寫程式碼、修bug,並不是每一步都需要人重新提示了。

GPT-5.4,可能擁有永久記憶?

接下來,最瘋狂的傳聞來了——GPT 5.4,可能擁有永久記憶!

一位工程師在X上給出這個爆料後,立刻炸翻了AI社區,矽谷投資大佬、YC創始人Garry Tan也火速趕來轉發。

在這篇帖子中,爆料人是這樣介紹GPT-5.4的「持久狀態」的。

Jeff Dean在參加latentspacepod播客時就提到了這一點,可以看出,如今各大AI實驗室都在思考這個方向。

有人猜測,OpenAI內部很可能已經發現了,如何大規模地有效結合狀態空間模型(SSM)和Transformer。

其中的關鍵,就是SSM的設計本身就是在每一步計算中持續傳遞隱藏狀態(hidden state),而且它的計算複雜度是線性增長,不像Transformer那樣隨著上下文長度呈二次增長。

這也就和某個傳聞相呼應了:據說,GPT-5.4可能擁有200萬token的上下文窗口。

所謂持久化狀態,本質上意味著AI模型會從電影 《記憶碎片》Guy Pearce的角色一夜之間變成《雨人》裡Dustin Hoffman的角色,前者只能依賴短期記憶,而後者擁有穩定而持久的記憶。

換句話說,這將賦予AI模型真正的長期記憶能力。

如果真的能實現,這將會是一次非常巨大的技術突破!

壓力山大,OpenAI被迫「月更」

顯然,GPT-5之後,OpenAI做了一個明顯改變,模型開始高頻月更。

今年以來,我們已經迎來了GPT-5.1,GPT-5.2,馬上5.4也要來了,更新節奏甚至接近了一個月一次。

顯然,OpenAI也是被對手逼到牆角了。

目前,ChatGPT的周活躍使用者已達9.1億,雖然數字看似很驚人,但依然沒能達到OpenAI 10億WAU(活躍使用者)的目標。

而Google和Anthropic這些競爭對手都在步步緊逼,在長上下文、Agent、推理能力上都在持續加碼。

如果GPT-5.4真的擁有1百萬長上下文、極限推理、持久狀態,那AI形態很可能會變成持續工作的智能體。

而且,如果GPT-5.4真的能開始「記住事情」,這很可能就是大模型歷史上的一個關鍵節點。

奇點已至,我們正在狂飆加速。你,準備好了嗎? (新智元)