2025 年 10 月 13 日,OpenAI 官宣:將與 Broadcom (博通)深度合作,啟動一項戰略性系統工程:自研定製晶片。並於 2026 至 2029 年之間,部署一整套覆蓋 10 吉瓦(GW)規模的推理基礎設施。
在當天發佈的 OpenAI 官方播客中,CEO Sam Altman 直言:
“我們不是在等晶片,而是在打造全鏈條系統,從電晶體到 ChatGPT輸出Token。這是我所知的,人類歷史上規模最大的聯合工業項目。”
這不再是我們熟悉的“AI 公司買卡訓練模型”的舊故事。
而是一場圍繞基礎設施主權的重新洗牌,OpenAI正積極建構能夠服務全球數十億使用者的智能計算基座。
他們選中的合作對象 Broadcom,也不是傳統意義上的晶片代工廠。
而與博通合作,是 OpenAI 建構未來智能底座的第一步。
這一次,我們不能只看“發佈了什麼”,而要讀懂背後的判斷:
為什麼是現在?為什麼是 Broadcom?為什麼是 10 吉瓦?
這不是新聞,而是節奏訊號。
過去幾年,OpenAI 的發展節奏有目共睹:ChatGPT、DallE、Sora……幾乎每隔幾個月就有新產品出現。 但真正讓這家公司感到壓力的,不是競爭對手,而是一個越來越難解決的問題:
用來支撐這些智能的算力已經嚴重不夠用了。
OpenAI CEO Sam Altman 在播客中說:
“我們最初的叢集只有 2 兆瓦,今年是 2 吉瓦。但我們希望達到 30 吉瓦,甚至更多。”
這相當於過去15 倍以上的增長,背後反映的是一件事: AI 越聰明,大家用得越多,需求膨脹得比基礎設施擴容快得多。
原本以為:
“只要最佳化 10 倍,大家就夠用了。”
結果發現:
“最佳化 10 倍後,需求漲了 20 倍。”
GPU已不再是即買即用的普通資源,其長期短缺的特性,使其成為一種需要持續供應的新型電力。
這就是 Altman 決定不再等待產業鏈的原因:我們開始自己動手,從最底層做起,連電晶體怎麼排布都要參與進來
但這不僅僅是為了省錢,而是為了掌握生產智能的能力。
正如他所說:
“我們不是買一塊卡、接上伺服器就完了,而是要控制從硬體、電力、網路、模型,到最後 ChatGPT 輸出每個詞的全過程。”
這個判斷背後,還有一個更深的趨勢:
OpenAI正在從一家運用智能的公司,轉型為打造智能底座的公司。
其路徑不再是等待他人建構基礎設施,而是親手建造智能發電廠;
而這一切的起點,正是從打破對晶片的被動依賴開始。
在已與 AMD 及輝達建立合作之後,OpenAI 此次與Broadcom 的聯手,標誌了雙方第一次成為關鍵合作夥伴。
為什麼是這家公司?
OpenAI 聯合創始人 Greg Brockman 在播客裡解釋:
“我們不是在市場上買一塊現成的晶片,而是從零開始,為自己的模型量身定做一塊。”
在他們看來,未來的智能並非依靠堆砌計算卡,而是依賴於一條高度精密的智能生產線,其中晶片設計、網路連線與軟體調度等環節必須實現無縫對接。
這正是 Broadcom 能做、別人做不到的地方。
Greg 說,他們甚至在嘗試:
用自己的 AI 模型去幫忙設計晶片。
聽起來反常:本該工程師畫圖,卻讓AI 最佳化方案。結果,AI 的建議竟讓團隊震驚:“模型給出的最佳化建議,很多本來是我們晶片專家‘待辦清單裡一個月以後要做的事’”。
這意味著,AI 不只是用晶片的機器,它已經開始“設計晶片的人”了。
而 Broadcom,正是願意讓出底層架構設計權、與 OpenAI 一起重新搭建這套智能流水線的夥伴。
博通總裁 Charlie Kawwas 強調:
“我們並非簡單地銷售晶片,而是從底層開始,與OpenAI共同建構一個覆蓋晶片製造、電力分配、網路互聯、模型運行直至ChatGPT穩定輸出每一句回應的全球頂級平台。
最後 ChatGPT 怎麼快速穩定地把一句話發給你。
OpenAI 要的不是一個外包工廠,而是一個能一起從頭到尾設計智能產能的工程拍檔。
所以,選博通,不為省錢,而是攜手將“智能怎麼造”從頭梳理一遍。
OpenAI 不只是為了訓練模型才造晶片。
他們的目標是讓每個人都擁有一個專屬的 AI 助手,它能24小時待命,隨時協助完成複雜任務。
但這類智能助理,不可能靠幾張卡、幾個伺服器就能跑得動。
Greg Brockman在播客中指出:ChatGPT 正從對話工具,轉型為後台搭檔,幫你自動完成任務。他舉例:未來,Agent 無需逐條指令,就能懂你的偏好、目標,主動幹活。
但問題是:
“要服務全球幾十億人,每人一個 Agent,現有的基礎條件遠遠不夠。”
所以,OpenAI 想做的,是一條真正能大規模產出“智能助理”的工廠線:
而這條產線,必須實現全鏈路的精準對齊。避免模型快而硬體滯後、網路卡殼、調度慢成本高、任務排隊半小時的斷層。
最終目標非單純提速降價,而是鑄就持續產出智能的生產體系。
OpenAI 正在往“AI 工廠”這條路走:
為此,他們以自身模型最佳化晶片,使其理解模型運行邏輯,以此確保整條產線從設計之初,就服務於生成可用 AI 助手的終極目標。
所以,OpenAI 不是在追一個更強的模型,而是在搭一個能規模化輸出智能的生產邏輯。
他們要做的,是下一代“智能工廠”。
OpenAI 在這次播客和 CNBC 採訪裡,反覆提到一個數字:10 吉瓦(Gigawatts)。
這不是一個普通的技術指標,而是一個能源等級的單位。
你可以簡單理解為:OpenAI 計畫在 2026 到 2029 年之間,打造一套“相當於小國家電網”的智能基礎設施。
Sam Altman 說:
那怕我們今天就有 30 吉瓦的計算能力,依然會被快速用光。
他不是在誇張,而是在描述一個真實、且持續擴大的智能消耗現象:
換句話說,智能也像電一樣,一旦可用,便會被飛速消耗。
Oracle 聯席 CEO Mike Zaccaria 在 CNBC 說:這不是傳統意義上的客戶合作,這是一次對 AI 成功的兆美元等級集體押注。
他說得沒錯。
因為當 OpenAI 要造的,不再是一台模型,而是 一整片智能的“發電網路” 時:投入的就不只是算力,而是整個產業鏈、能源、製造資源的重新配置;跟隨它的也不只是技術公司,而是包括晶片、軟體、雲服務、甚至電力行業。
Greg Brockman 明確表示:
我們現在做的事情,從規模上來說,已經超過了阿波羅登月計畫。
如果說,前幾十年,企業建的是資料中心、伺服器叢集,那 OpenAI 現在建的,是一張能持續輸出智能的能源網路。
它不只是支援 ChatGPT 回答你一個問題,或者幫你寫一篇文案, 而是支撐整個 AI 經濟的“新電力中心”。
而這 10 吉瓦,只是整個計畫的第一步。
從外部看,OpenAI 和 Broadcom 的合作像是一項技術投資項目。 但深入理解其播客內容後,便會發現他們傳遞出的核心資訊高度一致:不能等。
Greg Brockman 說:
“我們不是等晶片造好了再訓練模型,而是先把基礎準備好,然後逼近那個智能峰值。”
過去,許多科技公司都習慣於等待市場準備就緒、技術發展成熟、供應鏈完善跟進之後,才採取行動。
但 OpenAI 不是這樣想的。 他們看到的是 AI 智能的增長節奏,已經快得讓人來不及應對。
他們的經驗告訴:
其核心並非按部就班的精準執行,而是為應對一個已然加速的未來進行動態建構。
這句話的意思是:
如果現在不開始部署,三年後智能爆發時,基礎還沒搭好,只能眼看別人跑在前面。
這就是為什麼他們要選在 2025 年做這件事:
不是等待價格下降,而是要確保未來的可用性; 不是等待他人驗證路徑,而是要親手鋪就智能通路。
OpenAI 不是在追趕,而是在引領整個行業的發展周期。
此刻,正是這一處理程序的關鍵拐點。
通過兩年來的觀察,OpenAI 看到了一個非常清晰的趨勢:智能的使用方式變了,產出方式也要跟著變。
過去十年,智能靠租; 現在開始,智能要造。
Sam Altman 說:
“我們希望這個合作過程能教會我們:怎麼從每一瓦電力裡,榨出儘可能多的智能。”
這句話背後的意思是:
智能,不再是雲端模型單純計算生成的回答;
它將像電一樣,被使用、被消耗、被調度,成為企業營運、個人工作與國家基礎設施建設的一部分。
而誰能提前建構這個平台,誰就有可能掌握未來的智能入口。
OpenAI 的理念並非等待產業成熟,而是立即開闢道路。他們相信,在智能時代,方向本身比確切的終點坐標更為重要。 (AI 深度研究員)