#OpenAI
Claude母公司硬剛五角大廈:AI軍事化的紅線到底在那?
拒絕五角大廈,代價幾何?就在 OpenAI 擁抱軍方合作的同時,另一家 AI 巨頭 Anthropic 選擇了截然相反的道路。面對五角大廈的合作邀約,Anthropic明確拒絕放開軍事 AI 使用限制,隨後被美國國防部列入「供應鏈風險」名單。這意味著什麼?簡單說:美國政府機構在採購 AI 服務時,可能會被要求優先排除 Anthropic 的產品。對一家商業公司來說,這無疑是巨大的經濟壓力。Anthropic 為什麼敢說不?Anthropic 的創始團隊大多來自 OpenAI,正是因為對 AI 安全問題的分歧才選擇出走創業。公司從成立第一天起就把「負責任的 AI 開發」寫進了基因。Anthropic CEO Dario Amodei 曾多次公開表示:AI 技術用於軍事目的存在不可控風險,公司不會為短期商業利益突破這條底線。這不是一時的公關姿態,而是貫穿公司發展始終的核心原則。兩條路線,兩種未來OpenAI 和 Anthropic 的選擇,恰好代表了 AI 行業的兩條路線:實用主義路線——技術是中性的,政府是最大客戶之一,合作能帶來資金和影響力。OpenAI、Palantir、Meta 都在走這條路。原則優先路線——某些應用場景的風險太大,再多錢也不值得冒。Anthropic 目前堅守在這一邊。沒有絕對的對錯,但使用者的反應很說明問題:越來越多人開始關心自己用的 AI 產品背後站著誰。對普通使用者意味著什麼?你可能會想:「我只是用 AI 寫寫文案、翻譯個文件,軍不軍事跟我有什麼關係?」關係其實很大:資料流向——與軍方合作的公司,資料治理標準可能向國防需求傾斜,你的使用資料更容易被納入更廣泛的分析體系。產品方向——服務軍方意味著研發資源向特定方向傾斜,民用產品的創新可能受到影響。選擇權——瞭解每家公司的立場,才能做出符合自己價值觀的選擇。寫在最後AI 公司的軍事化紅線之爭,本質上是一場關於技術應該服務於誰的辯論。Anthropic 的選擇證明了一件事:在這個行業裡,說「不」有時候比說「好」需要更大的勇氣。你覺得 AI 公司應不應該與軍方合作? (Teemo的探索記錄)
摩根士丹利發出警告:AI 突破即將到來,90% 的人還沒準備好
摩根士丹利發出警告:AI 突破即將到來,90% 的人還沒準備好去年,一個只有 3 個人的 AI 創業公司,擊敗了擁有 500 人團隊的行業巨頭——而他們的秘密武器,只是一個 AI 模型。這不是科幻小說,而是正在發生的現實。近日,摩根士丹利發佈了一份震撼報告:2026 年上半年,AI 將迎來一次"讓所有人震驚"的突破。而大多數人,對即將到來的變化毫無準備。10 倍算力 = 2 倍智能,這個公式正在改變一切馬斯克在最近的採訪中透露了一個驚人的規律:給大語言模型增加 10 倍的算力,就能讓它的"智能"翻倍。聽起來很抽象?看看資料就知道了。OpenAI 剛發佈的 GPT-5.4 "Thinking" 模型,在 GDPVal 基準測試中得分 82%——在專業任務上匹配或超過人類專家的比例達到 82%。而這只是開始。摩根士丹利的報告指出,美國頂級 AI 實驗室正在以前所未有的速度積累算力。這些實驗室的高管們私下告訴投資者:接下來的進展會"震驚"所有人。更可怕的是,這個增長曲線還在加速。電力危機:智能爆炸的代價但天下沒有免費的午餐。摩根士丹利的"智能工廠"模型預測,到 2028 年,美國將面臨9 到 18 吉瓦的電力缺口——這相當於需要的電力中有 12% 到 25% 無法滿足。AI 公司們等不及電網升級了。他們正在:把位元幣礦場改造成高性能計算中心啟動天然氣渦輪機部署燃料電池經濟學家們發現了一個驚人的"15-15-15"動態:15 年資料中心租約,15% 的收益率,每瓦特創造 15 美元的淨價值。這是一場算力軍備競賽,而電力就是彈藥。工作崗位正在消失,但不是你想的那樣AI 帶來的衝擊,已經不是"未來會怎樣",而是"現在正在發生"。摩根士丹利的報告直言不諱:"變革性 AI"將成為強大的通縮力量,因為 AI 工具能以極低的成本複製人類工作。報告指出,許多公司高管已經因為 AI 效率提升而執行大規模裁員。但這裡有個反常識的現象:不是所有人都會失業,而是那些不會用 AI 的人會被淘汰。OpenAI CEO Sam Altman 描繪了一個更極端的未來:只有 1 到 5 個人的全新公司,能夠擊敗大型傳統企業。xAI 前聯合創始人 Jimmy Ba 甚至預測,到 2027 年上半年,可能會出現"遞迴自我改進循環"——AI 能夠自主升級自己的能力。你該怎麼辦?3 個立即行動的方向面對這場智能革命,普通人不是沒有機會,而是要抓住窗口期。1. 把 AI 當工具,不是威脅那些月入 10 萬的 00 後,不是因為他們比你聰明,而是因為他們更早學會了用 AI 放大自己的能力。寫作、設計、程式設計、資料分析——幾乎所有知識工作,都可以用 AI 提速 3-10 倍。關鍵不是 AI 會不會取代你,而是會用 AI 的人會不會取代你。2. 關注"AI + 你的領域"AI 不會直接取代醫生、律師、設計師,但會讓 1 個會用 AI 的醫生頂 10 個不會用的。找到你所在行業最前沿的 AI 工具,花一個周末學會它。這可能是你未來 5 年最重要的投資。3. 小而美的時代來了如果 1-5 個人的公司能擊敗 500 人的巨頭,那麼個人創業的門檻正在史無前例地降低。你不需要融資、不需要大團隊,只需要一個好想法 + AI 工具 + 執行力。寫在最後摩根士丹利的報告用了一個詞來形容未來:"純粹的智能,由算力和電力鍛造而成,正在成為這個時代的硬通貨"。這場爆炸來得比幾乎所有人預想的都要快。2026 年上半年,就是現在。你準備好了嗎? (略知一二派大星)
Codex不打算讓Claude Code好過
2月6日,OpenAI總裁Greg Brockman在X上公開發了一條面向全公司工程團隊的帖子,設了一個deadline:到3月31日,任何技術任務,工程師的第一工具應該是agent,而不是編輯器或終端。這是OpenAI對自己下的動員令。如果只看這句話,你可能會覺得又是一條矽谷式的願景聲明。但接下來六周發生的事情表明,Brockman不是在喊口號。OpenAI的Coding Agent平台Codex,正在經歷一輪罕見的產品衝刺,密度之高,節奏之快,甚至讓一些長期關注AI編碼工具的開發者開始重新審視自己的工具鏈。與此同時,Codex在程式設計師群體中的熱度和口碑也在肉眼可見地上升。一切動作都指向“狙擊”Anthropic 如日中天的Claude Code。六周的瘋狂迭代拉一下時間線就能感受到這個節奏。2月2日,Codex桌面App發佈(macOS),OpenAI同時宣佈向ChatGPT免費和Go使用者開放Codex,所有付費使用者的速率限制翻倍。2月5日,GPT-5.3-Codex發佈,OpenAI稱它為"第一個幫助創造了自身的模型"。同一天,Anthropic發佈Claude Opus 4.6。2月12日,Codex-Spark發佈,與AI推理硬體公司Cerebras合作,推理速度超過每秒1000 tokens。OpenAI的說法是,“當模型能力越來越強,互動速度就成了明確的瓶頸。”2月14日,OpenClaw創始人Peter Steinberger宣佈加入OpenAI。據Pragmatic Engineer報導,Steinberger用Codex編寫了OpenClaw的全部程式碼,偏好長時間運行的agentic loop。Sam Altman在X上稱他為“天才”,說他將“推動下一代personal agents”。3月4日,Codex桌面App登陸Windows。3月5日,GPT-5.4發佈,是OpenAI第一個同時具備reasoning、coding和原生computer use能力的通用模型,在Codex和API中支援100萬token上下文。3月6日,Codex Security進入research preview。這是OpenAI推出的應用安全代理,前身為內測階段的Aardvark,能夠分析程式碼倉庫、建構項目級威脅模型、在沙盒中驗證漏洞並提出修復建議。過去30天的beta測試中,它掃描了超過120萬次commits,發現792個critical等級漏洞和超過10000個高危問題,覆蓋OpenSSH、GnuTLS、Chromium等重量級開放原始碼專案。誤報率降低超過50%,噪音降低84%。使用資料也在同步攀升。Sam Altman在X上確認,Codex的周活使用者自年初以來增長超過三倍;Codex團隊負責人Thibault Sottiaux(Tibo)告訴Pragmatic Engineer的Gergely Orosz,1月以來它的使用量增長了5倍,周活開發者超過100萬。Tibo還在播客中提到,Super Bowl周日播出的Codex廣告讓系統幾乎立即承受了巨大負載。六周,七次重大產品動作,這成了OpenAI在產品上最激進的衝刺之一。要理解這個節奏,一方面要看供給側的變化。GPT-5系列模型的agent能力在過去幾個月出現了質的飛躍,從上下文窗口、工具呼叫到長時間自主執行,模型本身的能力到了一個可以支撐Coding Agent這個產品形態的臨界點。另一方面,需求側的訊號同樣強烈。據SemiAnalysis報導,Anthropic的Claude Code已經做出25億美元的年化收入,佔其企業收入的一半以上。Claude Code用真金白銀證明了Coding Agent可以成為AI公司的核心收入引擎。對於估值據報已達數千億美元的OpenAI來說,放棄這個賽道不是一個現實的選項。根據SemiAnalysis的預測AnthropicARR增速一度超過OpenAI時間點上的貼身肉搏也值得注意。GPT-5.3-Codex和Claude Opus 4.6在2月5日同一天發佈。Codex Security和Claude Code Security幾乎同期推出。這種節奏本身就是訊號,兩家公司正在把Coding Agent平台視為正面戰場。開發者開始從Claude Code的單一模式變成混合模式在很長一段時間,Anthropic旗下的Claude Code看起來似乎已經沒有了對手,使用者對它的依賴變得越來越重。而OpenAI顯然不想讓Anthropic 這麼舒服。在Codex的一通激進衝刺後,開發者社區的反應也開始發生一些變化。過去一個月,Reddit和Hacker News上關於Codex和Claude Code的討論,出現頻率最高的詞不是更好或替代,而是stacking。也就是說,越來越多的開發者不是在兩者之間選擇,而是同時使用。Calvin French-Owen是一個典型案例。他是Segment聯合創始人,曾在OpenAI參與Codex web產品的發佈,同時也是Claude Code的深度使用者。他在今年2月寫的一篇部落格裡說,自己選擇工具的核心標準是“我有多少時間,以及我想讓它多自主地跑”。他的日常工作流是用Claude Code做規劃、編排終端和管理git操作,然後切到Codex做實際編碼。他說Opus在跨上下文窗口的工作中效率更高,會同時啟動多個子代理平行探索程式碼庫;而Codex在長時間自主編碼任務上更穩定。Reddit上也出現了更具體的分工模式。有開發者詳細描述了一個五段式workflow,先讓Claude Code出計畫,再讓Codex review計畫,然後由Claude實施,最後交給Codex做code review和QA迭代。還有人直接把Claude Code和Codex串成了一個CLI bridge,因為手動在兩者之間複製貼上太累了。一篇社區分析總結了500多條Reddit評論後的結論,Claude Code在一組小樣本盲測中勝率達到67%,質量更高;但Codex 20美元的套餐能編碼一整天不斷,而Claude Code同價位十幾個prompt就用完了。“Claude Code質量更高但用不完,Codex稍弱但全天能用”,這是2026年3月開發者社區最真實的共識。在Cursor官方的benchmark中,GPT系列整體領先其他模型。開發者社區還流傳著一個比喻來描述兩者的氣質差異,Claude像美國人,適合做充滿創造力的探索和頭腦風暴,Codex像德國人,代表極致的效率和專注執行。“它就像一條咬住骨頭不放的狗,非常固執,會一直嘗試直到解決問題。”當然也有反面聲音。Hacker News上有開發者說Codex對自己來說“每一項都比Claude Code差”,尤其是code review會製造看似合理但實際不存在的問題,他最後只把Codex用來覆核Claude的產出。但大方向已經很明確了,社區討論正在從那個更好就用那個,變成兩個都用,各佔一個工位。比的不再是benchmark,是誰是更實用的產品只看模型benchmark,你不太容易理解Codex為什麼起勢。在SWE-Bench這類編碼評測上,Claude Opus 4.6仍然領先。真正讓Codex拉開差異的地方在別處,OpenAI正在圍繞它建構一整套工程系統。Orosz今年2月發表了一篇對Codex團隊的深度報導。其中最引人注目的事實是,Codex超過90%的程式碼是由Codex自己編寫的。Anthropic方面也有類似的說法,Claude Code的建立者Boris Cherny告訴Orosz,Claude Code的資料大致相當。當然,這裡的90%需要打個折扣理解,在一個成熟項目中,樣板程式碼、測試用例、常規重構佔了大量行數,核心架構決策仍然由人來做。但兩家AI實驗室都在用自己的coding 工具來編寫自己的coding 工具,這種自舉本身就說明了這些工具已經深度嵌入了日常工程流程。Codex 的基本工作原理Codex團隊在工程組織層面走得更遠。Orosz的報導描述了一種新的工作方式,Codex團隊的典型工程師同時運行4到8個平行agent,分別處理feature開發、code review、安全審計、程式碼庫理解、bug修復等任務。工程師的角色正在從寫程式碼的人變成管理agent的人。技術選型上,Codex CLI選擇了Rust(Claude Code使用的是TypeScript)。團隊負責人Tibo給出的理由不僅是性能和正確性,還有工程文化,選擇Rust是為了給團隊設定一個高工程標準,同時減少對npm依賴生態的依賴。他們甚至招募了Rust終端UI庫Ratatui的維護者全職加入團隊。更值得關注的是分層程式碼審查機制。Codex團隊訓練了一個定製的code review模型,據Tibo說約9/10的評論能指出有效問題。審查分兩層,非關鍵程式碼在AI review後可以直接merge,核心agent程式碼和開源元件仍然要求強制人工審查。這套機制的意義在於,審查本身開始分層了。還有兩個細節能說明Codex正在從工具走向系統。Codex可以運行自己的完整測試套件來測試自身;團隊還設定了夜間巡檢,讓Codex自動掃描程式碼庫並生成待審修復建議,工程師每天早上進公司時就有一批修復等著review。一家名為Wonderful的AI開發公司的首席架構師在今年3月寫了一篇文章,描述了他們四個月前禁止手動coding後的經驗。他對兩個工具的定位是,Codex是坐在房間後面戴耳機的工程師,默默讀完你整個程式碼庫15分鐘才寫第一行程式碼,Claude則更有產品感,更擅長判斷什麼感覺對。他們把Codex用於低延遲系統工作、即時語音管線、性能敏感程式碼,Claude則用於UI和前端。從coding工具到Agent平台拉遠來看,Codex六周衝刺的方向指向一個更大的野心。Peter Steinberger的加入是一個人事訊號。他日常同時平行5到10個agent,加入OpenAI後的方向是下一代personal agents,不是coding工具。OpenAI正在用Codex作為agent戰略的入口。Codex Security則是另一個方向的延伸。當Codex從幫你寫程式碼走向幫你審計安全,它的定位就已經變了。GPT-5.4進一步加速了這個轉變。作為OpenAI第一個具備原生computer use能力的通用模型,它在Codex中不僅能寫程式碼,還能操作電腦、跨應用執行工作流。配合正在成型的外掛/skills生態系統和企業級權限管理,Codex的輪廓越來越像一個AI原生的開發平台。Codex團隊在Every的播客中透露了他們眼中的下一個瓶頸,就是程式碼審查。模型生成程式碼的速度已經遠超人類review的速度,驗證產出的正確性成了最緊迫的問題。他們已經在嘗試讓模型通過重現使用者操作路徑來“證明”修復有效,而不是讓人類逐行讀程式碼。這些野心和Claude Code已經越來越清楚的發展方向有很多重合,在從Claude Code那裡迅速搶走了一些使用者和使用場景之後,Codex的勢頭正在起來。回到Greg Brockman 2月6日的那條帖子。他設的deadline是3月31日,目前距離deadline還有兩周多,而從過去六周的節奏來看,Codex的衝刺還遠沒有結束。OpenAI把曾經在模型上呈現出的狠勁兒和卷王的氣質,都放到了Codex上,接下來它和Claude code之間短兵相接的故事,會更精彩了。 (硅星人Pro)
Agentic AI時代,“老大”OpenAI成了“老登”?
ChatGPT的發佈讓OpenAI一戰封神,所有人都覺得這家AI公司會一直贏下去。然而在AI程式設計這條賽道上,佔據先機的卻並非OpenAI。2025年2月份,競爭對手Anthropic低調發佈了Claude Code。這款能夠直接操作電腦、自主完成程式設計任務的AI智能體,在短短幾個月內為Anthropic帶來了超過25億美元的年化收入。與之相比,OpenAI的同類產品Codex,同期年化收入約為10億美元。雙方的差距不止一倍。更令OpenAI尷尬的是,Anthropic的核心創始團隊,正是幾年前從OpenAI離開的那批人。OpenAI位於舊金山Mission Bay的新總部大樓是一棟現代化的玻璃幕牆建築。接待處擺放著介紹公司發展歷程的宣傳資料,樓梯間的牆壁上掛滿了一系列里程碑事件的紀念海報:GPT系列、DALL·E、ChatGPT——每一幅都記錄著這家公司過去幾年的高光時刻。但其中沒有AI程式設計。01. 從Codex到Copilot,OpenAI錯失的先發優勢OpenAI其實很早就開始了AI程式設計方向的探索。2021年,奧特曼和OpenAI聯合創始人格雷格·布羅克曼(Greg Brockman)還在舊金山Mission區的老辦公室,向《連線》雜誌記者展示了一個叫Codex的項目。它是GPT-3的一個分支版本,在GitHub的數十億行開放原始碼上訓練而成。使用者輸入一句自然語言描述,它就能生成一段相應的程式碼。“它可以代表你在電腦世界裡執行操作,”布羅克曼當時說,“你擁有一個可以執行命令的系統。”但這個早期的技術積累,最終沒有轉化為產品層面的持續投入。Codex被微軟看中了。這家軟體公司當時正在開發一個叫GitHub Copilot的產品,這是一款能嵌入程式設計師編輯器、提供程式碼補全功能的工具。一位早期加入OpenAI的員工回憶,當時的Codex“除了自動補全之外做不了太多事情”,但微軟已經將其視為未來產品的重要方向。2022年6月,GitHub Copilot正式發佈,幾個月內就吸引了數十萬使用者。正常情況下,OpenAI應該會加大對這一方向的投入。但接下來發生的事情,讓後來負責Codex產品的團隊感到遺憾。最初的Codex團隊被解散了。一部分成員轉去做DALL·E 2圖像生成項目,一部分去參與GPT-4的訓練。當時公司的首要目標是實現AGI,AI程式設計沒有被視為需要獨立投入的領域。一位前團隊成員說,之後的幾年裡,OpenAI沒有專門的團隊在開發AI程式設計產品。“當時的感覺是,這個領域已經被GitHub Copilot覆蓋了,”畢竟微軟會繼續使用OpenAI的模型來迭代這個產品,不需要OpenAI自己操心。幾個月後,ChatGPT上線,兩個月內使用者數突破1億。OpenAI完全被這次成功轉移了注意力。接下來的2023年和2024年,OpenAI把主要資源投入到多模態模型的研發上,致力於讓AI理解圖像、視訊、音訊,像人一樣操作游標和鍵盤。當時Midjourney等產品正在興起,行業普遍認為大語言模型需要具備處理多模態資訊的能力,才能邁向更高層次的智能。這個方向的選擇本身沒有問題。只是在這段時間裡,AI程式設計這條賽道正在悄然生長,而OpenAI的注意力並不在這裡。02. 競爭對手Anthropic突圍Coding賽道Anthropic選擇了另一條發展路徑。這家公司也做多模態模型和聊天機器人,但有一個方向始終沒有放鬆:程式設計能力。布羅克曼後來在一個播客節目裡談到,Anthropic“從早期就非常專注在程式設計上”。他們不僅用演算法競賽題目訓練模型,還往訓練資料裡加入了真實項目中那些結構混亂的程式碼,就像普通開發者日常面對的那種。“這是我們沒有及時意識到重要性的地方,”他說。2024年6月,Anthropic發佈Claude Sonnet 3.5。很多開發者試用後發現,這個模型的程式設計能力確實突出。一家叫Cursor的初創公司最先受益於此。幾個二十多歲的年輕人做了一款產品:在程式碼編輯器裡用自然語言提需求,AI直接幫忙修改程式碼。他們接入Sonnet 3.5後,使用者量開始快速增長。據熟悉Cursor的人士透露,幾個月內,Anthropic就開始內部測試自己的獨立版本了,也就是後來的Claude Code。Cursor火起來之後,OpenAI曾試圖收購這家公司,但遭到拒絕。對方認為程式設計賽道潛力巨大,希望保持獨立。收購未能達成,OpenAI內部也開始有團隊嘗試AI程式設計方向。2024年底,幾個小型團隊陸續啟動。一個是安德烈·米申科(Andrey Mishchenko)和蒂博·索蒂奧(Thibault Sottiaux)帶領的團隊,這兩人分別是Codex的研究負責人和前GoogleDeepMind研究員。他們最初的動機比較務實:用AI程式設計來加速AI研究,讓AI自動管理訓練任務、監控GPU叢集,研究員就能騰出時間做更有創造性的工作。另一個是亞歷山大·恩比里科斯(Alexander Embiricos)帶領的團隊,他之前負責多模態智能體的研發。他做了一個叫Jam的演示項目,在公司內部引起了不少關注。Jam和2021年的Codex有本質區別。Codex是輸出程式碼讓人來執行,Jam則可以直接進入命令列,自己運行程式碼。恩比里科斯看著電腦螢幕上那個跟蹤Jam操作的自建頁面一遍遍自動更新,感到有些不可思議。“我以前一直以為多模態互動可能是實現AGI的路徑,也許我們以後就是整天和AI共享螢幕,”他說,“但後來逐漸意識到,讓模型以程式設計方式直接訪問電腦,可能是更有效的方向。”這幾個團隊磨合了幾個月後合併在一起。等OpenAI在2025年初完成o3(比o1更針對程式設計任務最佳化的模型)的訓練,他們終於有了建構產品的技術基礎。但這時,Claude Code已經準備公開發佈了。03. 收購受阻與內部衝刺,OpenAI的雙線應對2025年2月,Claude Code以“有限研究預覽”的形式首次亮相。5月,全面開放使用。這個產品和之前流行的“氛圍編碼”模式不同。氛圍編碼是人主導、AI輔助的程式設計模式,由人做決策,AI執行具體操作。而Claude Code可以直接在命令列工作,訪問使用者的所有檔案和應用程式,開發者可以把部分工作真正交給AI來完成。OpenAI也開始加快節奏。索蒂奧在3月組建了一個“衝刺團隊”,把內部幾個小組整合在一起,計畫在幾周內推出競品。與此同時,奧特曼開始尋找收購目標,他們看上了一家叫Windsurf的AI程式設計初創公司,報價30億美元。如果收購完成,產品、團隊、企業客戶都能快速補齊。但這筆交易被微軟擱置了數月。據《華爾街日報》報導,微軟希望獲得Windsurf的智慧財產權。這家雲巨頭從2021年起就用OpenAI的模型支撐著GitHub Copilot,每次財報電話會都會提及這個產品。但Cursor、Windsurf、Claude Code陸續出現後,GitHub Copilot的產品形態顯得有些過氣。此時OpenAI再推一個新的編碼產品,微軟的態度自然變得複雜。Windsurf的交易正趕上OpenAI和微軟重新談判合作協議。OpenAI希望從微軟那裡爭取更多自主權,不希望產品和算力資源被過度控制。這筆收購成了雙方博弈過程中的犧牲品。到7月,交易正式告吹。後來Google招攬了Windsurf的創始人,剩餘團隊則被另一家編碼初創公司Cognition收入麾下。“我本來挺希望做成這筆交易的,”奧特曼說,“但不是每一筆交易都能控制。”不過他提到,Codex團隊的表現讓他有些意外。談判那幾個月,索蒂奧和恩比里科斯一直在迭代產品,沒有停下來。到8月,OpenAI開始加速推進自己的產品。04. 從5%到40%:Codex猛追市場份額布羅克曼有一個自己設計的測試方法,叫“反向圖靈測試”。他多年前親自編寫了這套程序,規則是這樣的:兩台電腦前各坐一個人,每人螢幕上有兩個聊天窗口,一個連接著對面的人,一個連接著AI。目標是判斷那個窗口是AI,同時還得讓對方以為你才是AI。去年大部分時間,OpenAI最好的模型要完成這個遊戲的程式碼編寫,需要好幾個小時,中間還得有人一步步引導。到12月,Codex用GPT-5.2做引擎,一個結構清晰的提示詞輸入後,就能直接生成一個可運行的遊戲。感受到變化的不僅僅是布羅克曼。開發者社區裡開始頻繁討論AI程式設計智能體的能力提升,話題從矽谷擴散到更廣的範圍。一些沒有程式設計背景的人,也開始嘗試用這些工具做些簡單的軟體項目。Anthropic和OpenAI都在爭搶使用者。有開發者表示,自己每月支付200美元的Codex或Claude Code訂閱費,實際能用到價值1000多美元的服務。兩家公司都在用慷慨的用量限制把使用者往工作流裡引導,等人用習慣了,再按實際用量收費。從資料上看,OpenAI確實在縮小差距。2025年9月,Codex的使用量大約是Claude Code的5%。到2026年1月,這個比例上升到接近40%。Notion的聯合創始人西蒙·拉斯特(Simon Last)說,他和團隊在GPT-5.2發佈後從Claude Code切換到了Codex,主要原因是後者更穩定。“我發現Claude Code有時候會給出不精準的資訊,”他說,“它說自己正在處理任務,實際上並沒有進展。”在OpenAI負責Codex行為研究的凱蒂·施(Katy Shi)說,有些使用者覺得Codex的回應風格偏“干”,但越來越多人開始接受這種不刻意迎合的特點。“工程領域的工作,本來就需要能夠接受批評性反饋,不能因為表達方式直接就覺得被冒犯。”企業客戶也在逐步進入。OpenAI應用部門的CEO菲吉·西莫(Fidji Simo)稱:“ChatGPT已經成為AI領域的代表性產品,這在B2B市場是一個明顯優勢,多數企業傾向於使用員工已經熟悉的技術。”OpenAI銷售Codex的策略,主要是將其打包進ChatGPT的企業套件中一併提供。思科的總裁傑圖·帕特爾(Jeetu Patel)告訴員工,不用太在意使用Codex產生的費用,關鍵是要熟悉這個工具。有員工問他用了之後會不會失業,他的回答是:“不會,但不用一定會失業。不熟悉這些工具的人,慢慢會失去競爭力。”有開發者認為,OpenAI在B端市場的管道優勢正在發揮作用。不少公司已經採購了ChatGPT的企業版,在此基礎上增加一個Codex功能,決策成本並不高。也有分析指出,Codex最近的能力提升與GPT-5.2的推理能力最佳化直接相關。o系列模型採用的訓練方法,即讓模型在結果可驗證的程式設計任務中不斷試錯、獲得反饋,這對程式碼生成的質量有明顯幫助。程式設計本身就是一個反饋訊號明確的領域,程式碼要麼能運行要麼不能,這種特性對模型迭代很有利。05. 奧特曼的難題:既要速度,又怕失控AI程式設計智能體的影響已經不限於開發者社區。《華爾街日報》上個月將科技股1兆美元的拋售部分歸因於Claude Code,因為投資者擔心軟體本身的價值可能被壓縮。之後Anthropic宣佈,Claude Code可以對IBM那些運行COBOL語言的老系統進行現代化改造,IBM的股票遭遇了25年來最大單日跌幅。OpenAI也在加大投入。今年的超級碗廣告,他們投放的是Codex,而不是ChatGPT。在OpenAI總部,Codex的使用已經相當普遍。多位工程師提到,他們現在很少手寫程式碼,每天的工作主要是和Codex互動。一位參與了內部駭客馬拉松的工程師描述說,現場大約100人,用四小時時間通過Codex搭建一個可用的演示項目。不少項目既是用Codex開發的,目標也是為了讓工程師更好使用Codex。有的團隊做了個工具,把Slack消息自動彙總成周報,有的團隊用AI生成了一個內部服務的百科式指南。以前這些事情可能需要幾天才能完成,現在一個下午就能跑通流程。凱文·維爾(Kevin Weil)是前Instagram高管,目前負責OpenAI for Science部門,為研究人員開發AI產品。他說Codex現在會在夜間幫他處理一些項目,早上到公司檢查進度就行。這種做法已經成了他和幾百名同事的日常工作方式。OpenAI 2026年的目標之一是開發一個能夠自主進行AI研究的AI實習生。西莫表示,Codex最終會整合進ChatGPT和所有產品線,不僅是用來程式設計,而是協助處理各種任務。奧特曼說他想發佈一個通用版本的Codex,但對安全性還有些顧慮。1月底,他一個非技術背景的朋友請他幫忙安裝OpenClaw,但他沒有答應,認為“現在還不是時候”,那個智能體可能會誤刪重要檔案。但這件事過去幾周後,OpenAI就把OpenClaw的創作者招進了公司。不少開發者認為,Codex和Claude Code之間的差距確實在縮小,但也有機構對OpenAI的進度表示擔憂。一個叫Midas Project的非營利組織發佈報告稱,OpenAI在GPT-5.3-Codex上沒有完整披露網路安全風險,安全承諾的落實情況不夠透明。OpenAI的對齊負責人阿米莉亞·格拉澤(Amelia Glaese)否認為了推進Codex而犧牲安全,表示Midas對公司的承諾存在誤解。布羅克曼對AGI的進展保持樂觀,認為“項目正在按計畫推進”。但在不少矽谷工程師的印象裡,他一直是那種產品發佈前夜還在檢查程式碼庫細節的負責人。現在的狀況不太一樣了。布羅克曼面對的是幾十萬個AI智能體,在執行具體的任務和項目。他說這種新的工作方式“讓人感覺輕鬆了一些,因為以前確實需要記住很多細節”。但有時候,“你不太清楚那些事情具體是怎麼被解決的”。他說,這種變化會讓你“感覺對問題的感知不像以前那麼敏銳了”。 (騰訊科技)
🎯廣達、鴻海、緯創營收噴發股價卻不動?因為你盯錯重點了!Line@連結:https://lin.ee/mua8YUP🎯很多人最近都在問我一個問題:為什麼AI伺服器營收狂飆,股價卻不太動?答案其實很殘酷。AI最大瓶頸,已經不是算力,而是「資料傳輸」想像一下AI伺服器就像一間超大廚房GPU是廚師資料是食材如果食材送不進來你找再多廚師都沒用現在全球AI資料中心遇到的,就是這個問題GPU算力爆衝但網路頻寬追不上所以最近市場開始瘋狂討論一個新關鍵字:CPO(共封裝光學)這不是新題材這是AI下一個基礎建設台股其實早就排好隊了:3081聯亞:磊晶雷射3163波若威:光纖配線4979華星光:光模組6442光聖:雲端客戶供應鏈3363上詮:FAU光耦合但還有爆發斜率的,很多人還沒發現。那就是:4977眾達-KY、2455全新💎先講4977眾達:如果說博通是CPO的王者那眾達就是他的「禁衛軍」兩家公司合作的51.2T CPO架構直接把資料中心功耗砍掉65%這是什麼概念?像Google、OpenAI一年電費幾十億美元省電=省幾十億而CPO有一個最恐怖的結構:ELSFP外部雷射一台設備可能需要32顆雷射1→32的營收槓桿這就是為什麼法人圈已經在看:2026量產、2027大爆發💎再講2455全新:如果眾達是「燈泡組裝」那全新就是做「燈絲材料」以前市場只把它當手機PA廠現在完全不是全新的AI光電子毛利率直接超過50%兩個關鍵武器:1. 1.6T檢光器(PD)已打進美系大廠供應鏈2026 出貨放量2.高功率CW Laser磊晶AI資料中心需要超強光源市場預估2028年全球需要7000萬顆雷射頭所以公司最近在做一件事:狂買MOCVD機台產能62台→67台還在找第三廠製造業只有一種情況會這樣做:訂單多到爆🔴接下來我們會在粉絲團持續幫大家鎖定+追蹤,若還不知道該如何操作?那建議你務必要鎖定江江在Line @,將有更進一步的訊息給大家了解。https://lin.ee/mua8YUP🔴想了解還未起漲的市場主流,同步了解大盤多空轉折點及學習預測技術分析,江江YT節目都會持續追蹤+預告。https://reurl.cc/02drMk********************************************************有持股問題或想要飆股→請加入Line:https://lin.ee/mua8YUP江江的Youtube【點股成金】解盤:https://reurl.cc/02drMk*********************************************************(本公司所推薦分析之個別有價證券 無不當之財務利益關係以往之績效不保證未來獲利 投資人應獨立判斷 審慎評估並自負投資風險)
Fortune雜誌—OpenAI發佈其最強模型GPT-5.4,直指Anthropic核心市場
OpenAI發佈了新一代人工智慧模型GPT-5.4。公司稱,這是其迄今為止面向專業場景能力最強的人工智慧系統。該模型融合了高級推理能力、程式設計能力以及自主操作電腦和軟體的功能,使企業級人工智慧市場的競爭陷入白熱化,而這一領域此前一直是Anthropic的優勢陣地。OpenAI首席執行長薩姆·奧爾特曼。圖片來源:Kyle Grillot/Bloomberg via Getty Images新模型整合了OpenAI此前分散在不同模型中的多項能力,整合了公司領先程式設計模型GPT-5.3-Codex的程式設計能力、更強的推理能力,以及模型能夠自主在桌面、瀏覽器和軟體應用之間操作的智能體能力。該模型於3月5日向ChatGPT Plus、Team和Pro訂閱使用者推出,同時通過公司的API開放。針對需要處理複雜任務、追求更高性能的使用者,OpenAI還提供了更強版本GPT-5.4 Pro。在發佈模型的同時,OpenAI還宣佈推出Excel和Google Sheets版ChatGPT(測試版)。該版本將ChatGPT直接嵌入電子表格中,可以用於建構、分析並更新複雜的財務模型。公司還發佈了一系列新的ChatGPT應用整合,包括FactSet、MSCI、Third Bridge和穆迪(Moody’s),旨在讓團隊能夠將市場資料、公司資料以及內部資料整合到同一工作流程中。此舉也讓OpenAI與競爭對手Anthropic展開了更直接的較量。Anthropic在2025年7月推出了面向金融行業的“Claude金融服務版”(Claude for Financial Services)產品,並在當年晚些時候進一步擴展相關功能。兩家公司正在競相爭奪企業市場,面向已經準備好採用人工智慧的行業推出可以完成實際工作的工具。新模型的發佈還可能引發投資者對人工智慧衝擊傳統金融資料提供商的新一輪擔憂。由於市場普遍擔心人工智慧將顛覆企業軟體行業,這類公司的股價此前已經受到影響。今年早些時候,Anthropic發佈Cowork外掛後,市場一度出現大規模拋售SaaS股票的情況,因為投資者擔心人工智慧工具可能讓傳統軟體供應商被淘汰。新智能體能力對於企業使用者而言,GPT-5.4最重要的升級之一是其“開箱即用”的智能體能力。該模型可以自主操作電腦和軟體,根據需要搜尋並呼叫外部工具,還能夠處理複雜的多步驟任務,而開發者無需自行搭建相應的底層架構。OpenAI表示,GPT-5.4是公司迄今最注重事實、最可靠性的模型。公司在一篇部落格文章中稱,與GPT-5.2相比,該模型產生“幻覺”的機率明顯下降:單個陳述出現錯誤的可能性降低33%,完整回覆包含錯誤的機率降低18%。GitHub的首席產品官馬里奧·羅德里格斯在評價該模型時說:“開發者不僅需要一個可以寫程式碼的模型,更需要一個能夠像他們一樣思考問題的模型。我們看到GPT-5.4在邏輯推理以及執行複雜、多步驟、依賴工具的工作流程方面表現非常出色。”這些新功能使OpenAI在競爭日益激烈的智能體產品領域中,成為更直接的參與者。當前市場上的類似產品包括Perplexity Computer、微軟(Microsoft)的Copilot Tasks以及OpenClaw。近期OpenClaw的走紅也表明,使用者越來越青睞可以在儘量減少人工干預的情況下處理長工作流程的人工智慧系統。OpenAI還指出,與此前的模型相比,GPT-5.4在詞元使用效率方面有明顯提升,也就是說它能夠用更少的詞元解決問題。雖然該模型每個詞元的定價略高於GPT-5.2,但由於完成許多工所需的詞元數量更少,對於部分使用者而言,這種效率提升可能抵消價格上漲帶來的成本。(財富中文網)
OpenAI和輝達,終究還是到了這一步|AGI焦點
AI頂流們正在加緊“梭哈”晶片。Meta、OpenAI和Anthropic等公司今年以來已簽下了數千億美元訂單。憑此賺得盆滿缽滿的,自然還是“賣鏟人”。在本周ASIC晶片龍頭博通公佈的財報中,一季度(2025年11月至2026年1月)AI半導體收入84億美元,同比大漲106%;Q2預期環比再漲27%達107億美元,同比將暴增143%。此前,輝達的業績更是炸裂,公司同期總營收已達681億美元,同比增長73%,新財季營收預期更是增至780億美元,預計同比增長77%。核心指標全都大幅刷新紀錄。這些公司的掌舵者也對未來一致樂觀。博通CEO陳福陽說,明年,公司光AI晶片營收就能超過1000億美元,比上個財年的公司總營收還高出至少五成。輝達CEO黃仁勳說,在截至2026年底的五個季度中,公司主力晶片Blackwell和下一代晶片Rubin的訂單至少有5000億美元,這個數字是輝達此前年收入的兩倍還多。表面上看,“狂飆突進”仍在加速,甚至每一次破紀錄都像是新的指數級增長曲線的起點。但在風光背後,從晶片到雲,從大模型到應用,一系列技術、產業與社會的變化正在發生,某種約束已若隱若現:Scaling Law(縮放定律)和通用GPU多年來的統治地位受到挑戰,雲廠商巨額Capex(資本開支)的驗證時間窗口縮小,“定製化”和“個性化”等分佈式需求愈發吃重,讓集中式的迅猛增長有落潮之虞。一邊狂賺千億,一邊“友誼破裂”作為AI大模型時代並駕齊驅的造浪者,今年以來,輝達與OpenAI之間的關係明顯鬆動。年初,媒體爆出輝達不滿OpenAI的商業策略,欲大幅削減投資。此後,又有消息稱,OpenAI對輝達最新晶片在推理環節的表現不滿,會繼續探索替代方案。傳言難以證實,但輝達在OpenAI新一輪融資中出資300億美元,相較此前的千億美元投資方案明顯縮水。在3月4日的摩根士丹利TMT會議上,黃仁勳親口表示,這次投資“可能是最後一次”,去年11月被他稱為“一代人僅有一次機會”的千億美元合作大機率會不了了之。為什麼會突然發生這樣的轉變?背後有些行業趨勢值得探討。首先是,Scaling Law和GPU性能提升飛輪,已有觸頂跡象。電腦科學家伊利亞·蘇茨維克(Ilya Sutskever)已表示,此前Scaling Law能夠主導大模型發展,是因為預訓練的道路走通了。誰的大模型喂得越飽,就顯得越聰明。但隨著大模型領域競爭白熱化,高品質、結構化的公開資料實際上已被吃盡。光有算力不足以支撐這條路走到頭。業界對Scaling Law的未來,有很多討論,比如轉向後訓練,轉向推理時擴展,或者改進Transformer核心架構。但拆解這些方法,其關鍵詞多與“提升效能”、“合理分配算力”和“特定領域針對性最佳化”相關聯,實際上,也意味著預訓練階段的性能躍遷不會再現。GPU面臨的境況是相似的。在Scaling Law時代,成熟度高、通用性和靈活性強、適合大規模平行運算的GPU,無疑是大模型的最佳搭檔。其性能在近十年間飛速進化,是大模型能力提升和規模化復刻的重要動力。所以,儘管輝達產品售價極高,毛利率常年在75%左右,還是屢屢供不應求。半導體行業知名研究機構SemiAnalysis分析稱,晶片領域先進製程的演進速度已明顯放緩,典型案例是台積電3nm帶來的性能增幅與成本增加已不成正比。全球計算聯盟GCC資料也顯示,摩爾定律放緩正導致AI晶片性能增幅下滑,2018-2022年間,AI晶片性能年均提升50%,到2023-2025年已降至20%以下(未計入尚未量產投入市場的新一代產品)。而就在2025年,追求特定場景下更極致的性能,功耗更低、體積更小、量產後成本更優的定製化AISC晶片強勢崛起。以GoogleTPU的市場良好反饋為標誌,其市佔比開始向GPU發起挑戰。而包括Meta、亞馬遜、微軟乃至OpenAI等都在加緊自研AISC晶片,2026年預計就將迎來量產和商業化的集中爆發期。資料來源:各公司官網、野村證券、公開報導;作者製表這條技術多元化路線的核心,又是“定製化”“高效能”“低延遲”和“性價比”,實際就是通用硬體效率狂飆的階段已經落幕。從這個視角再來看,OpenAI與輝達之間隱現的“友誼裂痕”,所謂不滿晶片推理表現,是因為GPU不再能通過“暴力破局”來“包打天下”。而所謂對商業策略有疑義,則是在大模型能力“無限增長”故事講不下去後,希望確證能有可觀商業回報維持其需求的穩定。是誰在給輝達們“潑冷水”?當然,性能增幅放緩絕不意味著需求會驟降,反而可能推動更加平穩、持續的增長。而在2025年“DeepSeek衝擊波”中,描述效率最佳化往往導致消耗總量增加的“傑文斯悖論”也屢被提及。不過,前提是盡快切換到更加“細水長流”的發展模式,而目前AI產業的慣性動能,卻與此存在一定錯位。最核心的,是拚命壓縮時間周期可能帶來的系統性病灶。早期以GPU為主的AI晶片,迭代周期約為18-24個月。隨著AI熱潮來臨,需求方競爭壓力加劇,對迭代速度的渴求愈發極端,這讓輝達和Google等將晶片迭代周期壓縮到“年更”。但即使這樣還是不夠。目前,頂尖大模型基本每三個月就要迭代一次。SemiAnalysis創始人迪倫·帕特爾(Dylan Patel)此前在參與The MAD Podcast with Matt Turck播客節目時表示,即使晶片廠商將迭代周期壓縮到半年,也無法很好適配模型進步的速度,也難言確保自身優勢。即使晶片和模型的性能增幅雙雙放緩,這種“賽跑”也未見稍顯的跡象。而考慮到前文提到的製程、技術演進等方面的瓶頸,以及美國能源供給方面愈發緊迫的硬性約束,結果可能演變成跑著跑著增長動能斷檔,甚至雙雙“撞牆”,讓原本可能在斜率放緩中更加平衡的供需被打破。更不可小覷的是這種“賽跑”對Capex的依賴。處在晶片與模型之間,被這種“你追我趕”來回拉扯的雲廠商,承擔了最集中的資本支出,他們往往同時也涵蓋AI業務,投資與回報都面臨風險和壓力。根據亞馬遜、微軟、Google、Meta和甲骨文這五大雲廠商披露的資訊,其2026年Capex總額將超過7000億美元。資料來源:公司財報及電話會議;作者製圖按照較為傳統的算力基礎設施五年折舊周期來計算,大約對應1400億美元的AI銷貨成本,這對AI行業目前的ARR(年度經常性收入)來說是天文數字。雖然OpenAI預計2026年ARR能夠突破450億美元,Anthropic也有望達到類似規模,但這兩巨頭本身的市佔比已接近八成,即使不考慮利潤,行業的淨收入也很難支撐資本開支。而正是由於晶片和模型迭代速度越來越快,市場對折舊周期的計算也產生了疑惑。知名投資人“大空頭”麥可·貝瑞(Michael Burry)自去年起,就一再“炮轟”當下的折舊周期不符合實際,認為如今AI晶片的實際經濟價值可能在2-3年內就會因技術過時而大幅衰減。雖然此類觀點爭議頗多,但如果大模型和晶片的“賽跑”繼續,甚至還要加速,那麼,有關折舊周期的質疑只會越來越多。而且,資本端的超額支出,往往以Scaling Law和大模型性能的繼續躍遷為由。從前文提及的趨勢來看,Scaling Law的退潮,也會讓Capex的狂飆不再“師出有名”。2025年下半年至今,雲巨頭的投資回報率(ROI)愈發成為市場矚目的核心指標,美股對缺乏利潤增長的Capex往往報以拋售,典型如微軟,其公佈的財報營收、淨利均超預期,但股價隨即暴跌10%。而晶片企業即使持續創造新的紀錄,但以去年11月輝達市值從5兆高點回落為節點,市場始終未給出匹配增速的估值溢價,空頭聲音反而愈發顯眼。這些,也構成了時下盛行的“AI泡沫論”的核心焦慮。不過,值得注意的是,相較於泡沫本身的存在與規模,人們看待和對待其方式,可能更加重要。當市場持續不給單純的拼規模、拼速度以正向反饋後,這一趨勢更可能會以幾次陣痛為代價放緩步伐。目前晶片大廠和部分大模型、雲廠商對未來兩年已有明確規劃,迭代速度和支出規模可能仍然維持高位,高盛也預測2025至2027年是AI伺服器出貨量增長最迅猛的三年,其中增速峰值出現在2026年。但在這之後,全產業鏈的增長可能都會面臨結構性放緩。如果只在商業和技術層面考慮,對AI增速形成影響的變數還有很多,但最近兩大標誌性熱門事件,為AI產業的發展,蒙上了一層不確定性陰影。其中一個就是,Citrini Research的《2028全球智能危機》(The 2028 Global Intelligence Crisis)。報告幾乎是以“近未來科幻”的方式,描述了從2025年末起Agent(智能體)登堂入室開始,直到2028年人類社會在新的AI時代可能面臨的窘境。圖片來源:CitriniResearch報告本身是虛構,且先進技術替代人類工作種類,也不是什麼新鮮論調,但是,當下的時點討論這個問題,卻意外引發空前共鳴。畢竟,就在2026年初,OpenClaw、Anthropic的Claude Cowork及一系列Agent外掛的出現,將AI的“替代力”十分直接地擺上了檯面。在種種預警和焦慮下,人類社會加以反制AI嗎?AI發展得越快,替代性危機的發酵就可能越快,但AI落地真實工作場景的實戰能力和可持續性,卻需要進一步探索,但顯然,我們正在看到的景像是,大小公司集體AI化的步調已經加快了。 (鈦媒體)
OpenAI與甲骨文的旗艦園區擴建取消,Meta準備補位:OpenAI的算力版圖正在改寫
不是Stargate停了,而是旗艦園區先踩了剎車先把事實說清楚:不是阿比林現有園區停下來了,也不是整個Stargate項目停下來了,而是原本計畫追加到阿比林園區的一段擴建被取消。路透援引彭博報導稱,阿比林現有園區已有八棟由甲骨文營運的建築,其中兩棟已經投入運行;這次暫停的是原計畫新增的約600兆瓦擴建容量。更重要的是,OpenAI與甲骨文更大範圍的資料中心合作並未終止,雙方仍在推進額外4.5吉瓦算力容量,只是不再把新增部分繼續堆在阿比林。這一區分很關鍵。因為“取消擴建”如果被誤讀成“旗艦項目失速”甚至“Stargate停擺”,整件事就會被過度戲劇化。更準確的理解是:Stargate沒有停,但它最具象徵意義的園區,已經開始出現重新分配容量、重新安排節奏的跡象。最早被現實修正的,不是願景本身,而是願景落到具體地塊、融資安排和建設節奏時的推進順序。卡住項目的,不是技術本身,而是融資速度和需求邊界目前公開資訊裡,最核心的原因有兩個:融資談判拖得太久,以及OpenAI自身需求在變化。路透轉述彭博的說法是,雙方放棄擴建,原因在於融資談判拉長,以及OpenAI“changing needs”;英國《金融時報》則補了一層更值得注意的意味:這說明OpenAI在算力採購上正變得更分散,不再像一開始那樣,把最重的籌碼都壓在單一園區。這背後其實不是一個簡單的“項目沒談攏”,而是大模型基礎設施落地時最常見的現實問題開始顯形。AI資料中心本身就是一種高度資本密集、周期長、承諾重的基礎設施。你要先鎖定土地、電力、裝置、融資和客戶需求,再把它們在時間上對齊。只要其中任何一個環節慢下來,園區級擴建就很容易從“按計畫推進”變成“先緩一緩再看”。阿比林這次調整,真正暴露的並不是技術瓶頸,而是AI基礎設施建設天然要面對的那種重資產摩擦:錢能否按時到位,需求是否還值得按原方案落地,項目邊界是否需要重新切分。從這個角度看,“OpenAI需求變化”這幾個字,比“融資拖延”更值得琢磨。融資問題更像短期變數,需求邊界的變化則指向更深的戰略調整。如果OpenAI開始更強調多點部署、彈性調度和多供應方配合,那麼旗艦園區的重要性就不會消失,但它不再是唯一的重心。這也意味著,OpenAI的算力版圖可能會越來越像一個分佈式網路,而不是一個以單一超級園區為絕對中心的結構。這個推斷與當前公開事實是吻合的:更大的4.5吉瓦合作沒有停,只是容量不再繼續落在阿比林。更值得注意的,不是擴建取消,而是Meta準備補位這條新聞最有戲劇性的地方,不在“停”,而在“誰補位”。路透和《金融時報》都提到,在阿比林擴建談崩後,Meta正在考慮從開發商Crusoe手裡租下這塊空出來的擴建容量;更微妙的是,輝達被曝幫助撮合Meta與Crusoe的接觸,以確保這裡繼續使用輝達晶片,而不是轉向AMD。也就是說,OpenAI和甲骨文撤下來的,不一定是“算力需求”,更可能只是“算力歸屬”。這件事會讓整條新聞的含義發生變化。因為如果一塊本來準備給OpenAI的擴建地,很快就能被Meta接住,那就說明當下最短缺的未必只是“項目機會”,而是誰能最快、最穩地把項目轉化為真正可落地的算力供給。過去大家總把AI基礎設施競爭理解成“誰先投得更大”,但阿比林這次調整提醒市場:更真實的競爭,很可能是“誰能更快把地、電、晶片、融資和客戶需求拼到一起”。在這個意義上,Meta的潛在補位,不是旁枝新聞,而是對整個AI基礎設施競爭邏輯的一次補充說明。更值得注意的是輝達的位置。它已經不只是簡單的晶片供應商,而像是在確保某塊新增算力最後仍然留在自己的生態裡。阿比林擴建如果最終轉到Meta手裡,OpenAI未必是唯一的輸家;AMD也未必是唯一的局外人;真正穩住位置的,可能仍然是那個掌握GPU標準答案的一方。這並不意味著輝達控制了全域,而是說明在今天的AI基礎設施項目裡,晶片廠商已經不只是在項目完成後交貨,而是在項目形成階段就開始影響項目歸屬。這個變化本身就說明,產業鏈已經比一年前更深地捲進了資料中心版圖重排。這件事真正暴露的,是Stargate落地沒有想像中筆直Stargate從一開始就是一個尺度極大的基礎設施敘事。2025年9月,OpenAI、甲骨文和軟銀宣佈新增五個美國AI資料中心站點。OpenAI當時表示,這五個新站點,加上阿比林旗艦園區和與CoreWeave的項目,合計把Stargate推到接近7吉瓦的規劃容量,並對應未來三年超過4000億美元的投資;這也被OpenAI描述為通往此前宣佈的5000億美元、10吉瓦目標的一部分。這樣一個量級的計畫,本來就不可能完全按PPT推進。它規模太大,也太依賴多方同步。土地、電力、工程周期、債務融資、裝置供給、客戶需求,任何一環放慢,都會把項目推進從線性改成波浪式。阿比林擴建取消的意義,恰恰不在於“這是不是致命挫折”,而在於它讓市場第一次更清楚地看到:即便是Stargate這種被放在行業中心位置的項目,也會在非常早期就進入現實修正。願景沒有變,但落地路徑已經開始變化。這也是為什麼這條新聞不能只當作“一個園區擴建沒談成”。如果它只是單點波動,後續很快會被其他項目抵消;但如果它反映的是Stargate從“集中落地”轉向“多點分流”的趨勢,那它就是一個方向性訊號。至少從現有公開資訊看,OpenAI和甲骨文並沒有後退到“少建一點”,而更像是在把“如何建設、落在那些園區、由誰承接”重新排序。這個變化不一定意味著Stargate失速,但它足以說明,OpenAI的算力帝國不會按最初的想像那樣,以單一旗艦園區為絕對中心向外生長。對甲骨文和OpenAI來說,這不是小插曲,而是一種訊號對甲骨文來說,這件事會進一步放大市場對其資本開支和財務壓力的擔心。路透3月5日報導,甲骨文正計畫裁員數千人,並考慮籌集45億至50億美元,以支撐AI資料中心擴張;報導還稱,投資者正擔心其資料中心投入過重、財務負擔繼續上升。把這條消息和阿比林擴建取消放在一起看,市場自然會問:甲骨文到底還能以多快速度、用多大槓桿去承接這種等級的AI基礎設施需求。對OpenAI來說,問題則更偏戰略。它當然仍然需要巨量算力,這一點沒有變;但阿比林這次調整至少說明,OpenAI對算力安全的理解,可能不會再簡單等同於“把最大容量集中在同一個地方”。從更大的路徑看,這可能意味著OpenAI正在把自己的算力佈局做得更靈活——一個項目停下,不代表整體停下;一個園區不擴,不代表總盤子縮小;真正重要的,不是某一個旗艦園區能否無限外延,而是整個算力網路是否足夠可調、可替換、可持續。這個判斷仍屬於推理層,但它與現有公開事實是相互支撐的:阿比林擴建停了,整體4.5吉瓦合作還在,其他站點也仍在推進。「 結語」阿比林擴建取消,表面看是一次項目調整,實質上卻很像Stargate第一次被現實掰了一下方向。它提醒市場,AI基礎設施的競爭,並不是誰先喊出最大數字,誰就一定能最順利地落地;真正決定成敗的,仍然是融資能否接上、項目能否按時推進、需求能否持續匹配供給,以及當一家退場時,另一家會不會立刻補位。Meta的潛在補位恰好把這一點寫得很直白:今天真正緊缺的,不只是地塊和GPU,而是誰能最快把園區變成真正可用的算力。阿比林這次變化,因此不只是OpenAI和甲骨文的一次局部調整,更像是整個AI基礎設施時代的一次早期預演。 (視界的剖析)