#OpenAI下
Fortune雜誌—OpenAI發佈其最強模型GPT-5.4,直指Anthropic核心市場
OpenAI發佈了新一代人工智慧模型GPT-5.4。公司稱,這是其迄今為止面向專業場景能力最強的人工智慧系統。該模型融合了高級推理能力、程式設計能力以及自主操作電腦和軟體的功能,使企業級人工智慧市場的競爭陷入白熱化,而這一領域此前一直是Anthropic的優勢陣地。OpenAI首席執行長薩姆·奧爾特曼。圖片來源:Kyle Grillot/Bloomberg via Getty Images新模型整合了OpenAI此前分散在不同模型中的多項能力,整合了公司領先程式設計模型GPT-5.3-Codex的程式設計能力、更強的推理能力,以及模型能夠自主在桌面、瀏覽器和軟體應用之間操作的智能體能力。該模型於3月5日向ChatGPT Plus、Team和Pro訂閱使用者推出,同時通過公司的API開放。針對需要處理複雜任務、追求更高性能的使用者,OpenAI還提供了更強版本GPT-5.4 Pro。在發佈模型的同時,OpenAI還宣佈推出Excel和Google Sheets版ChatGPT(測試版)。該版本將ChatGPT直接嵌入電子表格中,可以用於建構、分析並更新複雜的財務模型。公司還發佈了一系列新的ChatGPT應用整合,包括FactSet、MSCI、Third Bridge和穆迪(Moody’s),旨在讓團隊能夠將市場資料、公司資料以及內部資料整合到同一工作流程中。此舉也讓OpenAI與競爭對手Anthropic展開了更直接的較量。Anthropic在2025年7月推出了面向金融行業的“Claude金融服務版”(Claude for Financial Services)產品,並在當年晚些時候進一步擴展相關功能。兩家公司正在競相爭奪企業市場,面向已經準備好採用人工智慧的行業推出可以完成實際工作的工具。新模型的發佈還可能引發投資者對人工智慧衝擊傳統金融資料提供商的新一輪擔憂。由於市場普遍擔心人工智慧將顛覆企業軟體行業,這類公司的股價此前已經受到影響。今年早些時候,Anthropic發佈Cowork外掛後,市場一度出現大規模拋售SaaS股票的情況,因為投資者擔心人工智慧工具可能讓傳統軟體供應商被淘汰。新智能體能力對於企業使用者而言,GPT-5.4最重要的升級之一是其“開箱即用”的智能體能力。該模型可以自主操作電腦和軟體,根據需要搜尋並呼叫外部工具,還能夠處理複雜的多步驟任務,而開發者無需自行搭建相應的底層架構。OpenAI表示,GPT-5.4是公司迄今最注重事實、最可靠性的模型。公司在一篇部落格文章中稱,與GPT-5.2相比,該模型產生“幻覺”的機率明顯下降:單個陳述出現錯誤的可能性降低33%,完整回覆包含錯誤的機率降低18%。GitHub的首席產品官馬里奧·羅德里格斯在評價該模型時說:“開發者不僅需要一個可以寫程式碼的模型,更需要一個能夠像他們一樣思考問題的模型。我們看到GPT-5.4在邏輯推理以及執行複雜、多步驟、依賴工具的工作流程方面表現非常出色。”這些新功能使OpenAI在競爭日益激烈的智能體產品領域中,成為更直接的參與者。當前市場上的類似產品包括Perplexity Computer、微軟(Microsoft)的Copilot Tasks以及OpenClaw。近期OpenClaw的走紅也表明,使用者越來越青睞可以在儘量減少人工干預的情況下處理長工作流程的人工智慧系統。OpenAI還指出,與此前的模型相比,GPT-5.4在詞元使用效率方面有明顯提升,也就是說它能夠用更少的詞元解決問題。雖然該模型每個詞元的定價略高於GPT-5.2,但由於完成許多工所需的詞元數量更少,對於部分使用者而言,這種效率提升可能抵消價格上漲帶來的成本。(財富中文網)
OpenAI和輝達,終究還是到了這一步|AGI焦點
AI頂流們正在加緊“梭哈”晶片。Meta、OpenAI和Anthropic等公司今年以來已簽下了數千億美元訂單。憑此賺得盆滿缽滿的,自然還是“賣鏟人”。在本周ASIC晶片龍頭博通公佈的財報中,一季度(2025年11月至2026年1月)AI半導體收入84億美元,同比大漲106%;Q2預期環比再漲27%達107億美元,同比將暴增143%。此前,輝達的業績更是炸裂,公司同期總營收已達681億美元,同比增長73%,新財季營收預期更是增至780億美元,預計同比增長77%。核心指標全都大幅刷新紀錄。這些公司的掌舵者也對未來一致樂觀。博通CEO陳福陽說,明年,公司光AI晶片營收就能超過1000億美元,比上個財年的公司總營收還高出至少五成。輝達CEO黃仁勳說,在截至2026年底的五個季度中,公司主力晶片Blackwell和下一代晶片Rubin的訂單至少有5000億美元,這個數字是輝達此前年收入的兩倍還多。表面上看,“狂飆突進”仍在加速,甚至每一次破紀錄都像是新的指數級增長曲線的起點。但在風光背後,從晶片到雲,從大模型到應用,一系列技術、產業與社會的變化正在發生,某種約束已若隱若現:Scaling Law(縮放定律)和通用GPU多年來的統治地位受到挑戰,雲廠商巨額Capex(資本開支)的驗證時間窗口縮小,“定製化”和“個性化”等分佈式需求愈發吃重,讓集中式的迅猛增長有落潮之虞。一邊狂賺千億,一邊“友誼破裂”作為AI大模型時代並駕齊驅的造浪者,今年以來,輝達與OpenAI之間的關係明顯鬆動。年初,媒體爆出輝達不滿OpenAI的商業策略,欲大幅削減投資。此後,又有消息稱,OpenAI對輝達最新晶片在推理環節的表現不滿,會繼續探索替代方案。傳言難以證實,但輝達在OpenAI新一輪融資中出資300億美元,相較此前的千億美元投資方案明顯縮水。在3月4日的摩根士丹利TMT會議上,黃仁勳親口表示,這次投資“可能是最後一次”,去年11月被他稱為“一代人僅有一次機會”的千億美元合作大機率會不了了之。為什麼會突然發生這樣的轉變?背後有些行業趨勢值得探討。首先是,Scaling Law和GPU性能提升飛輪,已有觸頂跡象。電腦科學家伊利亞·蘇茨維克(Ilya Sutskever)已表示,此前Scaling Law能夠主導大模型發展,是因為預訓練的道路走通了。誰的大模型喂得越飽,就顯得越聰明。但隨著大模型領域競爭白熱化,高品質、結構化的公開資料實際上已被吃盡。光有算力不足以支撐這條路走到頭。業界對Scaling Law的未來,有很多討論,比如轉向後訓練,轉向推理時擴展,或者改進Transformer核心架構。但拆解這些方法,其關鍵詞多與“提升效能”、“合理分配算力”和“特定領域針對性最佳化”相關聯,實際上,也意味著預訓練階段的性能躍遷不會再現。GPU面臨的境況是相似的。在Scaling Law時代,成熟度高、通用性和靈活性強、適合大規模平行運算的GPU,無疑是大模型的最佳搭檔。其性能在近十年間飛速進化,是大模型能力提升和規模化復刻的重要動力。所以,儘管輝達產品售價極高,毛利率常年在75%左右,還是屢屢供不應求。半導體行業知名研究機構SemiAnalysis分析稱,晶片領域先進製程的演進速度已明顯放緩,典型案例是台積電3nm帶來的性能增幅與成本增加已不成正比。全球計算聯盟GCC資料也顯示,摩爾定律放緩正導致AI晶片性能增幅下滑,2018-2022年間,AI晶片性能年均提升50%,到2023-2025年已降至20%以下(未計入尚未量產投入市場的新一代產品)。而就在2025年,追求特定場景下更極致的性能,功耗更低、體積更小、量產後成本更優的定製化AISC晶片強勢崛起。以GoogleTPU的市場良好反饋為標誌,其市佔比開始向GPU發起挑戰。而包括Meta、亞馬遜、微軟乃至OpenAI等都在加緊自研AISC晶片,2026年預計就將迎來量產和商業化的集中爆發期。資料來源:各公司官網、野村證券、公開報導;作者製表這條技術多元化路線的核心,又是“定製化”“高效能”“低延遲”和“性價比”,實際就是通用硬體效率狂飆的階段已經落幕。從這個視角再來看,OpenAI與輝達之間隱現的“友誼裂痕”,所謂不滿晶片推理表現,是因為GPU不再能通過“暴力破局”來“包打天下”。而所謂對商業策略有疑義,則是在大模型能力“無限增長”故事講不下去後,希望確證能有可觀商業回報維持其需求的穩定。是誰在給輝達們“潑冷水”?當然,性能增幅放緩絕不意味著需求會驟降,反而可能推動更加平穩、持續的增長。而在2025年“DeepSeek衝擊波”中,描述效率最佳化往往導致消耗總量增加的“傑文斯悖論”也屢被提及。不過,前提是盡快切換到更加“細水長流”的發展模式,而目前AI產業的慣性動能,卻與此存在一定錯位。最核心的,是拚命壓縮時間周期可能帶來的系統性病灶。早期以GPU為主的AI晶片,迭代周期約為18-24個月。隨著AI熱潮來臨,需求方競爭壓力加劇,對迭代速度的渴求愈發極端,這讓輝達和Google等將晶片迭代周期壓縮到“年更”。但即使這樣還是不夠。目前,頂尖大模型基本每三個月就要迭代一次。SemiAnalysis創始人迪倫·帕特爾(Dylan Patel)此前在參與The MAD Podcast with Matt Turck播客節目時表示,即使晶片廠商將迭代周期壓縮到半年,也無法很好適配模型進步的速度,也難言確保自身優勢。即使晶片和模型的性能增幅雙雙放緩,這種“賽跑”也未見稍顯的跡象。而考慮到前文提到的製程、技術演進等方面的瓶頸,以及美國能源供給方面愈發緊迫的硬性約束,結果可能演變成跑著跑著增長動能斷檔,甚至雙雙“撞牆”,讓原本可能在斜率放緩中更加平衡的供需被打破。更不可小覷的是這種“賽跑”對Capex的依賴。處在晶片與模型之間,被這種“你追我趕”來回拉扯的雲廠商,承擔了最集中的資本支出,他們往往同時也涵蓋AI業務,投資與回報都面臨風險和壓力。根據亞馬遜、微軟、Google、Meta和甲骨文這五大雲廠商披露的資訊,其2026年Capex總額將超過7000億美元。資料來源:公司財報及電話會議;作者製圖按照較為傳統的算力基礎設施五年折舊周期來計算,大約對應1400億美元的AI銷貨成本,這對AI行業目前的ARR(年度經常性收入)來說是天文數字。雖然OpenAI預計2026年ARR能夠突破450億美元,Anthropic也有望達到類似規模,但這兩巨頭本身的市佔比已接近八成,即使不考慮利潤,行業的淨收入也很難支撐資本開支。而正是由於晶片和模型迭代速度越來越快,市場對折舊周期的計算也產生了疑惑。知名投資人“大空頭”麥可·貝瑞(Michael Burry)自去年起,就一再“炮轟”當下的折舊周期不符合實際,認為如今AI晶片的實際經濟價值可能在2-3年內就會因技術過時而大幅衰減。雖然此類觀點爭議頗多,但如果大模型和晶片的“賽跑”繼續,甚至還要加速,那麼,有關折舊周期的質疑只會越來越多。而且,資本端的超額支出,往往以Scaling Law和大模型性能的繼續躍遷為由。從前文提及的趨勢來看,Scaling Law的退潮,也會讓Capex的狂飆不再“師出有名”。2025年下半年至今,雲巨頭的投資回報率(ROI)愈發成為市場矚目的核心指標,美股對缺乏利潤增長的Capex往往報以拋售,典型如微軟,其公佈的財報營收、淨利均超預期,但股價隨即暴跌10%。而晶片企業即使持續創造新的紀錄,但以去年11月輝達市值從5兆高點回落為節點,市場始終未給出匹配增速的估值溢價,空頭聲音反而愈發顯眼。這些,也構成了時下盛行的“AI泡沫論”的核心焦慮。不過,值得注意的是,相較於泡沫本身的存在與規模,人們看待和對待其方式,可能更加重要。當市場持續不給單純的拼規模、拼速度以正向反饋後,這一趨勢更可能會以幾次陣痛為代價放緩步伐。目前晶片大廠和部分大模型、雲廠商對未來兩年已有明確規劃,迭代速度和支出規模可能仍然維持高位,高盛也預測2025至2027年是AI伺服器出貨量增長最迅猛的三年,其中增速峰值出現在2026年。但在這之後,全產業鏈的增長可能都會面臨結構性放緩。如果只在商業和技術層面考慮,對AI增速形成影響的變數還有很多,但最近兩大標誌性熱門事件,為AI產業的發展,蒙上了一層不確定性陰影。其中一個就是,Citrini Research的《2028全球智能危機》(The 2028 Global Intelligence Crisis)。報告幾乎是以“近未來科幻”的方式,描述了從2025年末起Agent(智能體)登堂入室開始,直到2028年人類社會在新的AI時代可能面臨的窘境。圖片來源:CitriniResearch報告本身是虛構,且先進技術替代人類工作種類,也不是什麼新鮮論調,但是,當下的時點討論這個問題,卻意外引發空前共鳴。畢竟,就在2026年初,OpenClaw、Anthropic的Claude Cowork及一系列Agent外掛的出現,將AI的“替代力”十分直接地擺上了檯面。在種種預警和焦慮下,人類社會加以反制AI嗎?AI發展得越快,替代性危機的發酵就可能越快,但AI落地真實工作場景的實戰能力和可持續性,卻需要進一步探索,但顯然,我們正在看到的景像是,大小公司集體AI化的步調已經加快了。 (鈦媒體)
OpenAI與甲骨文的旗艦園區擴建取消,Meta準備補位:OpenAI的算力版圖正在改寫
不是Stargate停了,而是旗艦園區先踩了剎車先把事實說清楚:不是阿比林現有園區停下來了,也不是整個Stargate項目停下來了,而是原本計畫追加到阿比林園區的一段擴建被取消。路透援引彭博報導稱,阿比林現有園區已有八棟由甲骨文營運的建築,其中兩棟已經投入運行;這次暫停的是原計畫新增的約600兆瓦擴建容量。更重要的是,OpenAI與甲骨文更大範圍的資料中心合作並未終止,雙方仍在推進額外4.5吉瓦算力容量,只是不再把新增部分繼續堆在阿比林。這一區分很關鍵。因為“取消擴建”如果被誤讀成“旗艦項目失速”甚至“Stargate停擺”,整件事就會被過度戲劇化。更準確的理解是:Stargate沒有停,但它最具象徵意義的園區,已經開始出現重新分配容量、重新安排節奏的跡象。最早被現實修正的,不是願景本身,而是願景落到具體地塊、融資安排和建設節奏時的推進順序。卡住項目的,不是技術本身,而是融資速度和需求邊界目前公開資訊裡,最核心的原因有兩個:融資談判拖得太久,以及OpenAI自身需求在變化。路透轉述彭博的說法是,雙方放棄擴建,原因在於融資談判拉長,以及OpenAI“changing needs”;英國《金融時報》則補了一層更值得注意的意味:這說明OpenAI在算力採購上正變得更分散,不再像一開始那樣,把最重的籌碼都壓在單一園區。這背後其實不是一個簡單的“項目沒談攏”,而是大模型基礎設施落地時最常見的現實問題開始顯形。AI資料中心本身就是一種高度資本密集、周期長、承諾重的基礎設施。你要先鎖定土地、電力、裝置、融資和客戶需求,再把它們在時間上對齊。只要其中任何一個環節慢下來,園區級擴建就很容易從“按計畫推進”變成“先緩一緩再看”。阿比林這次調整,真正暴露的並不是技術瓶頸,而是AI基礎設施建設天然要面對的那種重資產摩擦:錢能否按時到位,需求是否還值得按原方案落地,項目邊界是否需要重新切分。從這個角度看,“OpenAI需求變化”這幾個字,比“融資拖延”更值得琢磨。融資問題更像短期變數,需求邊界的變化則指向更深的戰略調整。如果OpenAI開始更強調多點部署、彈性調度和多供應方配合,那麼旗艦園區的重要性就不會消失,但它不再是唯一的重心。這也意味著,OpenAI的算力版圖可能會越來越像一個分佈式網路,而不是一個以單一超級園區為絕對中心的結構。這個推斷與當前公開事實是吻合的:更大的4.5吉瓦合作沒有停,只是容量不再繼續落在阿比林。更值得注意的,不是擴建取消,而是Meta準備補位這條新聞最有戲劇性的地方,不在“停”,而在“誰補位”。路透和《金融時報》都提到,在阿比林擴建談崩後,Meta正在考慮從開發商Crusoe手裡租下這塊空出來的擴建容量;更微妙的是,輝達被曝幫助撮合Meta與Crusoe的接觸,以確保這裡繼續使用輝達晶片,而不是轉向AMD。也就是說,OpenAI和甲骨文撤下來的,不一定是“算力需求”,更可能只是“算力歸屬”。這件事會讓整條新聞的含義發生變化。因為如果一塊本來準備給OpenAI的擴建地,很快就能被Meta接住,那就說明當下最短缺的未必只是“項目機會”,而是誰能最快、最穩地把項目轉化為真正可落地的算力供給。過去大家總把AI基礎設施競爭理解成“誰先投得更大”,但阿比林這次調整提醒市場:更真實的競爭,很可能是“誰能更快把地、電、晶片、融資和客戶需求拼到一起”。在這個意義上,Meta的潛在補位,不是旁枝新聞,而是對整個AI基礎設施競爭邏輯的一次補充說明。更值得注意的是輝達的位置。它已經不只是簡單的晶片供應商,而像是在確保某塊新增算力最後仍然留在自己的生態裡。阿比林擴建如果最終轉到Meta手裡,OpenAI未必是唯一的輸家;AMD也未必是唯一的局外人;真正穩住位置的,可能仍然是那個掌握GPU標準答案的一方。這並不意味著輝達控制了全域,而是說明在今天的AI基礎設施項目裡,晶片廠商已經不只是在項目完成後交貨,而是在項目形成階段就開始影響項目歸屬。這個變化本身就說明,產業鏈已經比一年前更深地捲進了資料中心版圖重排。這件事真正暴露的,是Stargate落地沒有想像中筆直Stargate從一開始就是一個尺度極大的基礎設施敘事。2025年9月,OpenAI、甲骨文和軟銀宣佈新增五個美國AI資料中心站點。OpenAI當時表示,這五個新站點,加上阿比林旗艦園區和與CoreWeave的項目,合計把Stargate推到接近7吉瓦的規劃容量,並對應未來三年超過4000億美元的投資;這也被OpenAI描述為通往此前宣佈的5000億美元、10吉瓦目標的一部分。這樣一個量級的計畫,本來就不可能完全按PPT推進。它規模太大,也太依賴多方同步。土地、電力、工程周期、債務融資、裝置供給、客戶需求,任何一環放慢,都會把項目推進從線性改成波浪式。阿比林擴建取消的意義,恰恰不在於“這是不是致命挫折”,而在於它讓市場第一次更清楚地看到:即便是Stargate這種被放在行業中心位置的項目,也會在非常早期就進入現實修正。願景沒有變,但落地路徑已經開始變化。這也是為什麼這條新聞不能只當作“一個園區擴建沒談成”。如果它只是單點波動,後續很快會被其他項目抵消;但如果它反映的是Stargate從“集中落地”轉向“多點分流”的趨勢,那它就是一個方向性訊號。至少從現有公開資訊看,OpenAI和甲骨文並沒有後退到“少建一點”,而更像是在把“如何建設、落在那些園區、由誰承接”重新排序。這個變化不一定意味著Stargate失速,但它足以說明,OpenAI的算力帝國不會按最初的想像那樣,以單一旗艦園區為絕對中心向外生長。對甲骨文和OpenAI來說,這不是小插曲,而是一種訊號對甲骨文來說,這件事會進一步放大市場對其資本開支和財務壓力的擔心。路透3月5日報導,甲骨文正計畫裁員數千人,並考慮籌集45億至50億美元,以支撐AI資料中心擴張;報導還稱,投資者正擔心其資料中心投入過重、財務負擔繼續上升。把這條消息和阿比林擴建取消放在一起看,市場自然會問:甲骨文到底還能以多快速度、用多大槓桿去承接這種等級的AI基礎設施需求。對OpenAI來說,問題則更偏戰略。它當然仍然需要巨量算力,這一點沒有變;但阿比林這次調整至少說明,OpenAI對算力安全的理解,可能不會再簡單等同於“把最大容量集中在同一個地方”。從更大的路徑看,這可能意味著OpenAI正在把自己的算力佈局做得更靈活——一個項目停下,不代表整體停下;一個園區不擴,不代表總盤子縮小;真正重要的,不是某一個旗艦園區能否無限外延,而是整個算力網路是否足夠可調、可替換、可持續。這個判斷仍屬於推理層,但它與現有公開事實是相互支撐的:阿比林擴建停了,整體4.5吉瓦合作還在,其他站點也仍在推進。「 結語」阿比林擴建取消,表面看是一次項目調整,實質上卻很像Stargate第一次被現實掰了一下方向。它提醒市場,AI基礎設施的競爭,並不是誰先喊出最大數字,誰就一定能最順利地落地;真正決定成敗的,仍然是融資能否接上、項目能否按時推進、需求能否持續匹配供給,以及當一家退場時,另一家會不會立刻補位。Meta的潛在補位恰好把這一點寫得很直白:今天真正緊缺的,不只是地塊和GPU,而是誰能最快把園區變成真正可用的算力。阿比林這次變化,因此不只是OpenAI和甲骨文的一次局部調整,更像是整個AI基礎設施時代的一次早期預演。 (視界的剖析)
奧特曼砸場發佈 GPT-5.4!網友:一句 Hi 燒掉 80 美元
每次打開 AI 工具,你大概都要先想一秒鐘:這個任務,該用那個模型?寫程式碼是一個,查資料是另一個,讓 AI 幫你操作電腦,還得再開一個窗口。今天過後,這種分裂感終於有了一個答案。就在剛剛,OpenAI 正式發佈 GPT-5.4,把程式設計、推理、電腦操控、網頁搜尋和百萬 Token 上下文全部整合進同一個模型,且沒有為了整合而犧牲任何一項的能力。OpenAI CEO 山姆·奧特曼也在 X 平台發了一條簡短推文,點出了五個方向:知識工作更強、網頁搜尋更出色、原生電腦操控、支援百萬 Token 上下文、響應過程中隨時可介入。寥寥數語,對應的恰好是過去兩年 AI 應用落地中最集中的五個痛點。知識工作:十次有八次,AI 贏了專業人士理解 GPT-5.4 在知識工作上的進步,需要先瞭解 GDPval 這個基準的設計邏輯。它橫跨美國 GDP 貢獻最大的 9 個行業、44 種職業。任務是那些職場裡每天真實發生的工作:給投資銀行寫財務模型、給醫院排急診班次、給銷售團隊做簡報。任務完成後,把輸出結果交給行業內的真實從業者盲測打分,看 AI 的產出能贏過多少比例的人類同行。GPT-5.4 的答案是 83.0%,意味著十次對比中有八次以上,行業專業人士認為 AI 的產出達到或超過了人類同行水準。上代 GPT-5.2 是 70.9%,差距將近 13 個百分點。進步在電子表格建模上表現得最為具體。GPT-5.4 模擬初級投行分析師完成建模任務,平均得分 87.3%,GPT-5.2 是 68.4%,GPT-5.3-Codex 是 79.3%,差距將近 20 個百分點。法律平台 Harvey 的 BigLaw Bench 測試結果同樣亮眼,GPT-5.4 得分 91%,專業服務評測平台 Mercor 的 APEX-Agents 基準中也拿下了第一。精準性方面同樣值得關注。幻覺問題一直是 AI 進入專業場景最大的攔路虎,每降低一個百分點,都意味著更多場景可以放心用它。資料顯示,與 GPT-5.2 相比,GPT-5.4 單條陳述出錯的機率低了 33%,完整回覆含有錯誤的機率低了 18%。程式設計:一個模型,寫程式碼測程式碼全包了GPT-5.4 把 GPT-5.3-Codex 的程式設計能力整合進主線,對開發者來說,這意味著你不再需要為了寫程式碼單獨開一個模型,而且程式設計能力本身也沒有因此打任何折扣。SWE-Bench Pro 專門測試真實軟體工程任務,GPT-5.4 得分 57.7%,GPT-5.3-Codex 是 56.8%,GPT-5.2 是 55.6%。整合之後,程式設計分數不降反升,同時還順帶獲得了電腦操控等一整套通用能力,幾乎找不到明顯的弱點。知名 AI 評測博主 Dan Shipper 試用後寫道:「這是我們最近一段時間裡見過 OpenAI 最出色的規劃能力,程式碼審查也很強,而且成本大約只有 Opus 的一半。」他點出了兩個具體維度。其一,規劃能力是長任務成敗的關鍵,GPT-5.4 在任務拆解和持續推進上明顯更有條理。其二,與 Claude Opus 相比約一半的成本,對需要大規模 API 呼叫的開發者來說,這個差距在帳單上會非常直觀。開啟 Codex 中的 /fast 模式後,可使 GPT‑5.4 的 token 生成速度提升最高 1.5 倍,使得使用者可以在編碼、迭代和偵錯過程中保持流暢的工作狀態。與此同時,新推出的實驗性功能 Playwright Interactive 把 GPT-5.4 的程式設計體驗又推進了一步。GPT-5.4 在建構 Web 或 Electron 應用時,能夠通過可視化瀏覽器進行即時偵錯,模型可以邊寫程式碼、邊測試自己正在建構的應用,同時承擔開發者和測試員兩個角色。OpenAI 展示了一個典型案例:僅憑一條輕量提示詞,GPT-5.4 生成了一個完整的等距視角主題公園模擬遊戲,涵蓋基於瓦片的路徑鋪設與景點建設系統、遊客 AI 尋路與排隊行為,以及資金、遊客數、滿意度、清潔度四項指標全部即時動態更新的綜合評分。Playwright Interactive 在整個過程中承擔了多輪自動化測試,驗證路徑鋪設、攝影機導航、遊客響應及 UI 指標的正確性。從寫程式碼到測試驗收,模型全程自己完成。博主 Angel 同樣用 GPT-5.4 寫了一個 Minecraft 克隆版,模型花了約 24 分鐘,運行流暢,過程中沒有卡住。他在推文裡寫道「Minecraft 基本上被攻克了,我現在得找個新測試了」。沃頓商學院教授 Ethan Mollick 同樣獲得了早期存取權。他用同一條提示詞,讓 GPT-5.4 Pro 生成了一個受《皮拉內西》啟發的三維空間場景,全程沒有報錯,只額外追加了一句「把它做得更好」的指令。他隨後把結果和兩年前 GPT-4 生成的版本並排放在一起,差距一眼可見。操控電腦這件事,它現在比你做得好這是 GPT-5.4 這次發佈裡最值得單獨說一說的變化。此前 OpenAI 的電腦操控能力是一個獨立模組,跟模型的語言理解、程式碼生成之間有一道明顯的分隔。兩套系統各管各的,資訊要來回傳遞,效率自然打折。現在這道分隔沒了,GPT-5.4 操控電腦時,用的就是模型本身的推理能力,不需要再繞一圈。這也是 OpenAI 第一款將電腦使用(computer use)能力原生內建進通用模型的產品,以後談 AI Agent,相信這會是一個新的起點。基準測試結果顯示,OSWorld-Verified 基準測試桌面導航能力,用截圖加滑鼠鍵盤互動完成真實作業系統任務。GPT-5.4 達到 75.0% 的成功率,人類基線是 72.4%,GPT-5.2 是 47.3%。簡言之,它不僅追上了人類,還超過了人類。在只用截圖模式測試瀏覽器操控的 Online-Mind2Web 基準中,GPT-5.4 達到 92.8%,對比對象 ChatGPT Atlas 的 Agent Mode 是 70.9%,真實部署案例更能說明問題。Mainstay 將 GPT-5.4 用於約三萬個物業稅務入口網站的自動表單填寫,首次成功率達 95%,三次以內成功率 100%,而此前同類模型僅在 73% 至 79% 之間。會話完成速度提升約三倍,Token 消耗降低約 70%。這背後繞不開視覺感知能力的改進。操控電腦說到底是一件需要「看清楚」的事——看清楚介面上有什麼、按鈕在那裡、點選是否精準。GPT-5.4 在這一層做了專項加強,引入了原始圖像(original)輸入模式,支援最高 1024 萬像素或 6000 像素最大邊長的高保真圖像輸入;原有的高畫質(high)模式上限也從此前的標準提升至 256 萬像素或 2048 像素最大邊長。工具呼叫與網頁搜尋:持續性是核心競爭力一個複雜的 AI Agent 系統,背後可能掛著幾十個 MCP 工具。過去的做法是每次對話開始前,把所有工具的說明一股腦塞進去,不管這次用不用得上,Token 先花了再說。GPT-5.4 換了個思路:先給模型一份簡單的工具清單(即引入工具搜尋機制),真正需要用那個,再去把那個工具的詳細說明取過來,用過一次的還能直接快取,下次不用重新拿。在 250 項任務的測試中,啟用 36 個 MCP 伺服器的完整配置下,工具搜尋模式在保持精準率完全不變的前提下,將總 Token 消耗降低了 47%。將近一半的成本節省,精度一點沒少。網頁搜尋方面,GPT-5.4 在 BrowseComp 基準上得分 82.7%,比 GPT-5.2 的 65.8% 高出 17 個百分點,Pro 版更達到 89.3%,創下業界最高分。Zapier CEO 評價說,GPT-5.4 會在其他模型放棄的地方繼續搜尋下去,是他們測試過持續性最強的模型。百萬 Token 上下文:長長長長長長GPT-5.4 在 API 中支援最高 100 萬 Token 的上下文窗口,相當於可以把一個完整項目的所有相關文件一次性塞進同一次對話。但從測試結果來看,128K 至 272K 是表現最穩定的區間,適合日常使用。256K 以上準確率開始下滑,需要針對具體任務驗證後再用。512K 至 1M 區間的得分降至 36.6%,目前更接近實驗性質,不適合直接用於對精度要求高的生產任務。還有一個實際的成本問題需要注意:超過 272K 的請求會按兩倍用量計入配額。也就是說,發一次超長上下文的請求,額度消耗等於兩次普通請求,用之前值得想清楚是否真的需要這麼長。至於在視覺抽象推理基準 ARC-AGI-2 上,GPT-5.4 Pro 得分 83.3%,而上代 GPT-5.2 Pro 僅為 54.2%。再比如 FrontierMath Tier 4 是目前公認最難的數學基準之一,包含 50 道研究等級的數學題,人類數學家可能需要數周才能解出。GPT-5.4 Pro 在這個基準上得分 38.0%,上代為 31.3%。這個數字的參照系是:一年前,最好的成績是 o3 的 2%,目前最好的開源模型是 4.2%。博主 Deedy 在推文中寫道,從 2% 到 38%,「簡直令人震驚」。Humanity's Last Exam 有工具輔助時,GPT-5.4 Pro 得分 58.7%,GPT-5.2 Pro 是 50.0%,差距接近 9 個百分點。執行中調整,不是完成後返工用過 AI 處理長任務的人大概都有過這種體驗:等模型跑完一大段,發現方向不對,只能從頭再來,時間全浪費了。GPT-5.4 Thinking 在 ChatGPT 中新增了一項「中途打斷」功能:在處理複雜任務之前,模型會先呈現工作計畫概要,再開始執行。使用者可以在執行過程中隨時介入調整方向,不必等到結果出來再從頭重來。這個功能把糾偏這件事從「完成後」提前到了「執行中」,對需要多輪協作的任務來說,體驗差別會比較明顯。功能目前已在 chatgpt.com 和 Android 應用上線,iOS 版本即將跟進。即日起,GPT-5.4 向 ChatGPT Plus、Team 和 Pro 使用者開放,替代 GPT-5.2 Thinking 成為默認思考模型。GPT-5.2 Thinking 將保留至今年 6 月 5 日後正式退役。Enterprise 和 Edu 使用者可由管理員在後台開啟早期訪問,GPT-5.4 Pro 僅對 Pro 和 Enterprise 計畫開放。API 標準版定價為輸入 2.50 美元/百萬 Token,快取輸入 0.25 美元/百萬 Token,輸出 15 美元/百萬 Token。Pro 版為輸入 30 美元/百萬 Token,輸出 180 美元/百萬 Token。Batch 和 Flex 處理享標準價格五折,Priority Processing 為兩倍標準價格。當然,強大的推理能力也有它的另一面。Hyperbolic 聯合創始人金宇晨在 X 平台吐槽,GPT-5.4 Pro 是他用過最愛「過度思考」的模型——僅僅發了一句簡單的「Hi」,模型就開始認真推理,直接燒掉了 80 美元。這並非個例。推理模型的特性決定了它在處理任何輸入時都傾向於深度思考,那怕問題本身根本不需要。對於日常輕量任務,標準版或許是更合適的選擇;Pro 版的推理火力,還是留給真正值得的場合更划算。過去兩年,AI 能力的討論主要集中在基準測試成績上的「聰明」,但 GPT-5.4 的聰明指向的是能夠在真實工作流中,足夠可靠地承擔責任。過去 AI 只能輸出文字,人還需要親自操作才能讓事情發生。現在模型可以自己打開瀏覽器、填寫表單、點選按鈕、記錄結果,獨立完成一個有頭有尾的任務閉環。AI 正在從一個擅長回答問題的系統,變成一個擅長完成任務的系統。而這個轉變的速度,顯然比大多數人預期的更快。 (APPSO)
GPT-5.4核心內幕炸裂劇透!或擁有永久記憶,極限推理狂飆
GPT-5.4,馬上就要來了!目前已經開啟測試,一次能寫6000行程式碼。外媒曝出它有極限推理模型,甚至還傳聞擁有永久記憶。如果你覺得最近AI圈有點安靜,太不刺激,那可能只是暴風雨前的寧靜。據多方消息,GPT-5.4,已經箭在弦上了!LMArena上,已經出現了GPT-5.4的身影。就在剛剛,外媒The Information,劇透了不少關於GPT-5.4的核心內幕。消息足夠炸裂:它有更長的上下文,更極限的推理模型,甚至,可能出現永久記憶!如果如傳聞所言,這些都是真的,那這一代模型很可能不是簡單的升級,而是一次能力形態的巨大躍遷。GPT-5.4提前測試,程式碼炸裂曝光最近,GPT-5.4簡直在到處洩露。從Codex錯誤日誌、GitHub PR,到員工誤發截圖,短短幾天時間,GPT-5.4已經被「曝光」了至少三次。而且,這還都是OpenAI自己意外洩露出來的。最早,是開發者Corey Noles在使用OpenAI Codex時觸發了一次網路安全限制,系統返回的錯誤日誌裡出現了一串非常長的模型名稱:gpt-5.4-ab-arm1-1020-1p-codexswic-ev3這串字元最關鍵的,就是前面三位——gpt-5.4。總之,這串字串可以認為是OpenAI的內部部署ID,翻譯過來就是「一個真實部署、正在測試中的GPT-5.4實驗版本。」然後,在OpenAI官方Codex倉庫裡,出現了兩個Pull Request:一個PR寫著:minimum model version = (5, 4)另一個PR更直接:toggle Fast mode for GPT-5.4看起來,OpenAI給GPT-5.4加了一個「Fast Mode」開關。幾小時後,兩個PR就被force push刪除了。接下來,更戲劇性的一幕出現:OpenAI Codex團隊的一名員工Tibo 在社交平台上發佈了一張截圖。圖中,模型選擇器裡赫然寫著GPT-5.4。沒多久,這條帖子就被刪掉了。隨後,又有開發者報告,在Codex錯誤資訊中看到類似的模型字串。這更加說明,GPT-5.4已經部署在內部伺服器,正在進行真實的A/B測試了。一次提示,生成6000行程式碼?而且,目前已經有開發者報告了一個明顯變化——速度!一些測試者表示,模型的推理明顯更快,程式碼生成更長,甚至一次提示可生成 6000+行程式碼!這在以前幾乎不可能。一些人還發現一個新特徵——Fast Mode。這可能意味著,OpenAI正在嘗試新的推理架構,例如多級latency pipeline,或不同速度檔位模型。另外,新模型介面特徵也被發現了:部分使用者表示,如果在推理摘要(Chain-of-Thought summary)旁邊看到點贊或點踩按鈕,可能意味著帳戶已經被分配到GPT-5.4的測試模型。極限推理模式,性能拉爆The Information的爆料,也跟以上資訊完全對上了。這次爆料中,最亮的就是這個極限推理模式——Extreme Reasoning Mode了。傳統模型的思考時間都很有限,但這個極限推理模式,直接讓模型的性能拉到爆,在遇到困難問題時,能花費更多時間,呼叫更多計算資源,進行更深層的推理。有趣的是,根據調查,其實很多普通ChatGPT使用者對於推理功能並不太熱衷。而且從商業應用的角度來說,這個功能也不很適用,因為企業要的是AI盡快給一個答案。因此,OpenAI依然如此重視推理能力,倒是顯得動機純粹了不少。不過,這個消息,對於科研領域和部分企業客戶,倒是重大利多。顯然,在科學研究領域,許多使用者很願意讓一個模型在有價值的研究問題上運行數小時,甚至數天。同時,部分企業也會需要用到GPT-5.4更強的推理能力和長周期任務表現,來建構能夠把更複雜業務流程自動化的AI智能體。根據各方爆料,這個極限推理模式將會很瘋狂,這也就把大家的期待拉滿了。上下文直接翻倍,達到1M tokens對於GPT-5.4來說,這是另一個十分硬核的升級——上下文窗口從40萬tokens,升到了一百萬tokens。這樣一來,GPT-5.4的上下文窗口將超過當前GPT-5.2的兩倍。(當然,也有一些OpenAI模型支援100萬token,比如GPT-4.1,但5.2並不支援)這下,GPT-5.4可以直接塞進去幾十萬字的文件,分析一整本書,或者長長的程式碼庫和資料了。這也讓終於讓這個模型在長上下文能力上,重新追平了Google的Gemini和Anthropic的Claude。畢竟,其他家早就達到了100萬token的上下文窗口,現在GPT-5.4終於補齊了這個短板。而坊間爆料比The Information更誇張:上下文達到了2百萬tokens!GPT-5.4,開始擅長「長任務」爆料中的另外一個點,就是GPT-5.4在需要持續數小時的任務上表現也更好。也就是說,它在多個步驟中更能記住使用者請求的細節,以及自己被允許或不允許執行的內容,同時也更不容易出錯。顯然,這對於OpenAI的Codex程式設計工具會極有幫助,因為Codex正是使用AI來自動化複雜的長時間任務。另外,這種長時間任務能力,對於AI Agent來說也非常關鍵。Agent可以自己讀取需求、查資料、寫程式碼、修bug,並不是每一步都需要人重新提示了。GPT-5.4,可能擁有永久記憶?接下來,最瘋狂的傳聞來了——GPT 5.4,可能擁有永久記憶!一位工程師在X上給出這個爆料後,立刻炸翻了AI社區,矽谷投資大佬、YC創始人Garry Tan也火速趕來轉發。在這篇帖子中,爆料人是這樣介紹GPT-5.4的「持久狀態」的。Jeff Dean在參加latentspacepod播客時就提到了這一點,可以看出,如今各大AI實驗室都在思考這個方向。有人猜測,OpenAI內部很可能已經發現了,如何大規模地有效結合狀態空間模型(SSM)和Transformer。其中的關鍵,就是SSM的設計本身就是在每一步計算中持續傳遞隱藏狀態(hidden state),而且它的計算複雜度是線性增長,不像Transformer那樣隨著上下文長度呈二次增長。這也就和某個傳聞相呼應了:據說,GPT-5.4可能擁有200萬token的上下文窗口。所謂持久化狀態,本質上意味著AI模型會從電影 《記憶碎片》Guy Pearce的角色一夜之間變成《雨人》裡Dustin Hoffman的角色,前者只能依賴短期記憶,而後者擁有穩定而持久的記憶。換句話說,這將賦予AI模型真正的長期記憶能力。如果真的能實現,這將會是一次非常巨大的技術突破!壓力山大,OpenAI被迫「月更」顯然,GPT-5之後,OpenAI做了一個明顯改變,模型開始高頻月更。今年以來,我們已經迎來了GPT-5.1,GPT-5.2,馬上5.4也要來了,更新節奏甚至接近了一個月一次。顯然,OpenAI也是被對手逼到牆角了。目前,ChatGPT的周活躍使用者已達9.1億,雖然數字看似很驚人,但依然沒能達到OpenAI 10億WAU(活躍使用者)的目標。而Google和Anthropic這些競爭對手都在步步緊逼,在長上下文、Agent、推理能力上都在持續加碼。如果GPT-5.4真的擁有1百萬長上下文、極限推理、持久狀態,那AI形態很可能會變成持續工作的智能體。而且,如果GPT-5.4真的能開始「記住事情」,這很可能就是大模型歷史上的一個關鍵節點。奇點已至,我們正在狂飆加速。你,準備好了嗎? (新智元)
牽手五角大廈後,OpenAI擬與北約簽合同
據媒體報導,知情人士稱,OpenAI正在考慮與北約達成一項協議,將其AI技術部署在北約的“非機密”網路上。消息稱,當地時間3月3日,OpenAI首席執行長山姆•奧特曼在一次全體員工會議上表示,該公司正在審查一項合同,該合同旨在將其AI模型部署到北約的機密網路上。但公司的一位發言人後來澄清說,奧特曼說錯了,這份合同機會針對的是北約的“非機密網路”。北約內部存在明確的資訊分類體系,包括“北約機密”“北約秘密”“北約限制”和“非機密受控資訊”(Unclassified Controlled Information)等層級,其中“非機密網路”主要處理後者 。這一“非機密網路”並非指完全開放、不設防的公共網路,而是一個用於處理非機密資訊、但具備高度安全措施的北約內部資訊系統,是北約日常運作、聯盟協作與對外溝通的基礎資訊平台,應用場景包括辦公、後勤、公共事務、對外協作等。就在幾天前,因Anthropic拒絕軟化其產品使用政策中的“紅線”——禁止將AI用於大規模國內監控和自主武器系統,川普政府以“供應鏈風險”為由,下令聯邦機構停止使用Claude。隨後OpenAI迅速宣佈與美國國防部達成協議,將OpenAI的模型部署到美國國防部的機密網路中。一場“QuitGPT”的抵制運動在社交媒體上迅速發酵,不少矽谷的員工也紛紛聲援Anthropic的立場。Claude在美國App Store的免費應用排行榜上名列前茅,下載量也大幅增長。網路分析公司StatCounter的資料顯示,ChatGPT的市場份額在2月份下降了5.5個百分點,而Anthropic公司的“Claude”則上升了2.7個百分點。奧特曼也承認,OpenAI與美國國防部的協議“絕對是倉促敲定的”,且“外界觀感並不好”,這“在短期內為OpenAI帶來了非常負面的品牌影響”。OpenAI 在周一發佈更新聲明,稱其人工智慧系統“不會故意用於對美國公民和個人進行國內監視”,聲明還補充說,五角大樓也確認,人工智慧服務不會被國家安全域 (NSA) 等情報機構使用。在博文《我們與戰爭部的協議》中,OpenAI明確列出了與美國國防部合作的三大停用領域:禁止大規模國內監控、禁止自主武器系統、禁止“社會信用”類高風險自動化決策,並強調其對安全架構擁有完全的自主權,表示將採用“更全面的多層次方案”守護這些紅線,包括雲端部署模式、由通過安全審查的OpenAI人員全程參與,以及強有力的合同保障。儘管奧特曼聲稱合作遵循“人工智慧不得用於國內大規模監控”等原則,但據美國彭博社解讀,奧特曼並未禁止將人工智慧工具用於完全自主武器系統。 (科創日報)
Nvidia黃仁勳:需求"從非常高到更高"
Nvidia首席執行長黃仁勳周三表示,向OpenAI投資1000億美元"不在考慮範圍內",並回顧了公司產品"高於非常高"的需求,同時分享了他的願景,即在不久的將來,算力將等同於全球每家公司的收入。在摩根士丹利科技、媒體和電信會議上發言時,黃仁勳表示,Nvidia已完成對OpenAI的300億美元投資,他將此描述為可能是投資這種重要性公司的最後機會。他補充說,此前熱議的1000億美元交易已不可能實現,因為這家人工智慧公司正在為今年晚些時候的IPO做準備。這家晶片製造商對另一家AI巨頭Anthropic的100億美元投資可能將是"最後一筆"對該公司的投資,黃仁勳補充道。在更廣泛地談及公司發展方向時,黃仁勳表示,Nvidia一直在多個雲平台上擴展OpenAI的容量,包括微軟Azure、Oracle Cloud Infrastructure和Amazon Web Services。公司還在快速擴大AWS業務,並在AWS和Azure上擴展Anthropic的容量。黃仁勳將需求狀況描述為從非常高轉向甚至更高,並表示Nvidia在物理AI和數字生物AI前沿領域處於有利地位。Nvidia負責人還強調,公司已確保其供應鏈安全,包括記憶體、晶圓、CoWos、封裝、連接器、電纜、銅到多層陶瓷電容器。"當Satya(Nadella,微軟首席執行長)要求我建立幾千兆瓦時,答案是沒問題,"黃仁勳說,強調了Nvidia快速擴展的能力。在評論他如何看待AI經濟演變時,黃仁勳表示"算力等於收入",強調每家公司都將需要算力,而算力將等同於GDP。他預測不會缺乏智能,只需要有足夠的算力來執行。 (invest wallstreet)
盤後暴漲超5%!博通業績和指引均超預期!AI收入翻倍,上季營收創新高,擬回購百億 美元!
第一財季博通總營收同比增29%,AI收入同比翻約一倍至84億美元,高於公司指引,軟體業務收入僅增1%,第二財季AI收入預計107億美元,同比增143%。博通料第二財季總營收同比增47%至220億美元,較分析師預期均值高逾7%;電話會稱明年Anthropic將帶來3GW算力需求、OpenAI將批次部署晶片,Meta定製晶片路線圖進展不錯。盤後漲超5%。輝達的挑戰者、ASIC晶片大廠博通又一次交出兩位數大增的成績單,本財季的指引繼續穩健,體現人工智慧(AI)資料中心裝置的需求繼續強勁。博通同時推出高達100億美元的股票回購計畫,被視為該司利用企業客戶AI支出增長的戰略正在取得成效。美東時間4日周三,博通盤後公佈,截至2026年2月1日的公司2026財年第一財季(“一季度”),淨營收同比增長29%至193.1億美元,高於分析師預期的192.6億美元;非GAAP口徑下調整後每股收益(EPS)同比增長28%至2.05美元,也高於分析師預期的2.03美元。驅動博通增長的核心仍是AI相關半導體業務。包括ASIC在內的半導體解決方案業務一季度收入同比超預期增長超50%。其中,一季度AI半導體收入達84億美元,同比暴增106%,高於博通此前業績電話會提供的指引約82億美元,主要由定製AI加速器和AI網路需求帶動。博通CEO陳福陽表示,公司的AI收入將加速增長,預計第二財季(“二季度”)AI半導體收入將進一步升至107億美元。這意味著,博通本財季的AI晶片收入將環比增長逾27%,同比增長143%。博通同時給出了明顯高於市場預期的指引:二季度營收預計約220億美元,同比增約47%,較分析師預期的均值205.3億美元高約7.2%,和一些分析師的樂觀預期一致;調整後EBITDA利潤率預計約68%,持平一季度。同時,公司董事會批准新的股票回購計畫,授權到今年底回購額度最高100億美元。財報公佈後,周三收漲超1%的博通盤後股價先小幅上漲,曾小幅轉跌,後又轉漲、漲幅擴大到5%以上。股價加速上漲期間,博通高管在業績電話會上透露,預計公司客戶Anthropic將在2027財年帶來3 GW算力需求,OpenAI將在2027年批次部署晶片,還稱Meta的定製晶片路線圖“正在推進之中,進展不錯”。分析認為,股價起初轉跌的反應更像是高預期下的再定價,在AI主線擁擠、估值更敏感的背景下,除了一季度和二季度總體資料,部分源於博通一季度軟體業務收入僅小幅增長,投資者也會重新審視增長結構、現金與負債變化以及後續超預期空間,從而引發一定的獲利了結與波動。Q1總營收繼續加速增長 AI收入同比翻倍、Q2目標107億美元財報顯示,一季度博通的總營收刷新了前一季所創的單季最高紀錄,且同比繼續加速增長,增速由前一季的28%提升至29%。陳福陽在財報中強調,本季AI收入84億美元,同比增長106%,高於去年12月陳福陽在業績電話會上預估的82億美元。增長主要來自兩塊:定製AI加速器(custom AI accelerators)需求旺盛;AI網路(AI networking)持續放量。博通預計二季度AI半導體收入將達到107億美元,意味著AI業務仍在加速爬坡,並將繼續成為推動二季度營收躍升至220億美元的關鍵變數。半導體收入高增、軟體“穩而不長”按分業務看,一季度博通增長幾乎由半導體“拉滿”:包括ASIC在內的半導體解決方案業務收入125.15億美元,同比增長52%,增速較前一季的34.5%明顯加快,分析師預期123.1億美元,營收佔比從一年前的55%升至65%,高於前一季的61%。包括VMware在內的基礎設施軟體業務收入67.96億美元,同比僅增長1%,營收佔比從一年前的45%降至35%,前一季度同比增長19%、佔總營收的39%。這組資料體現,博通當前的增量主要來自AI相關半導體周期,而軟體業務更多體現“壓艙石”屬性——規模大、貢獻穩定現金流,但短期增速有限。也正因增長更集中在AI半導體,市場對其客戶集中度、訂單節奏和供需變化會更敏感,這類結構性關注點在財報後往往也會放大股價波動。股東回報加碼:單季回饋109億美元,新增100億美元回購授權博通繼續用真金白銀強化股東回報:董事會批准季度現金股息0.65美元/股,本季股息合計約30.86億美元。首席財務官(CFO)Kirsten Spears稱,公司一季度通過分紅+回購合計回饋股東109億美元,其中回購約78億美元。董事會又批准新的回購計畫:最高回購規模100億美元,有效期至2026年12月31日。回購與分紅對長期股東當然是利多,但在財報後的短線交易裡,市場也可能會同時關注:回購力度很大、現金餘額下降、負債水平不低——這些因素疊加時,股價的即時反應未必只看“回購利多”單一維度。EBITDA創新高、利潤率68% 自由現金流80億 利息支出仍高盈利能力依舊強勁。博通披露,一季度調整後稅息折舊及攤銷前利潤(EBITDA)同比增長30%至131.28億美元,刷新前一季所創最高紀錄,EBITDA利潤率約為68%,高於公司指引67%。。調整後淨利潤為101.85億美元,同比增長30%,前一季度同比增長39%。一季度調整後EPS同比增長28%,較前一季增速37%放緩,但還高於分析師預期。現金流方面,博通延續了“強造血”特徵:經營現金流82.6億美元;資本開支2.5億美元;自由現金流(FCF)80.1億美元,同比+33%,約為營收的41%。對投資者而言,FCF強勁意味著公司在高強度AI投入與股東回報之間仍有較大騰挪空間;但也會帶來另一個現實問題:當公司既要回購分紅、又要管理較高負債成本時,市場會更在意現金流的“分配優先順序”。截至一季度季末,博通資產負債表的幾個變化值得留意:現金及現金等價物141.74億美元,環比前一季末的161.78億美元下降約20億美元。應收帳款84.6億美元,庫存29.62億美元,均環比增長。在半導體快速放量階段,應收與庫存抬升並不罕見,但也會被市場用來觀察需求強度與交付節奏。債務端:短期債務22.52億美元、長期債務638.05億美元;當季利息支出8.01億美元。高利率環境下,利息成本的“粘性”也是科技硬體公司估值敏感點之一。 (invest wallstreet)