#Broadcom
OpenAI 聯手博通:10 吉瓦、2026 到 2029,為什麼是現在?
2025 年 10 月 13 日,OpenAI 官宣:將與 Broadcom (博通)深度合作,啟動一項戰略性系統工程:自研定製晶片。並於 2026 至 2029 年之間,部署一整套覆蓋 10 吉瓦(GW)規模的推理基礎設施。在當天發佈的 OpenAI 官方播客中,CEO Sam Altman 直言:“我們不是在等晶片,而是在打造全鏈條系統,從電晶體到 ChatGPT輸出Token。這是我所知的,人類歷史上規模最大的聯合工業項目。”這不再是我們熟悉的“AI 公司買卡訓練模型”的舊故事。而是一場圍繞基礎設施主權的重新洗牌,OpenAI正積極建構能夠服務全球數十億使用者的智能計算基座。他們選中的合作對象 Broadcom,也不是傳統意義上的晶片代工廠。是能從電晶體層面參與定製的架構協作方;是能從網路層 + 軟體層共同打通的系統共建者;是能支援OpenAI在推理時代追求極致能效的戰略夥伴。而與博通合作,是 OpenAI 建構未來智能底座的第一步。這一次,我們不能只看“發佈了什麼”,而要讀懂背後的判斷:為什麼是現在?為什麼是 Broadcom?為什麼是 10 吉瓦?這不是新聞,而是節奏訊號。第一節|GPU 不夠用了,OpenAI 要自造智能過去幾年,OpenAI 的發展節奏有目共睹:ChatGPT、DallE、Sora……幾乎每隔幾個月就有新產品出現。 但真正讓這家公司感到壓力的,不是競爭對手,而是一個越來越難解決的問題:用來支撐這些智能的算力已經嚴重不夠用了。OpenAI CEO Sam Altman 在播客中說:“我們最初的叢集只有 2 兆瓦,今年是 2 吉瓦。但我們希望達到 30 吉瓦,甚至更多。”這相當於過去15 倍以上的增長,背後反映的是一件事: AI 越聰明,大家用得越多,需求膨脹得比基礎設施擴容快得多。原本以為:“只要最佳化 10 倍,大家就夠用了。”結果發現:“最佳化 10 倍後,需求漲了 20 倍。”GPU已不再是即買即用的普通資源,其長期短缺的特性,使其成為一種需要持續供應的新型電力。這就是 Altman 決定不再等待產業鏈的原因:我們開始自己動手,從最底層做起,連電晶體怎麼排布都要參與進來但這不僅僅是為了省錢,而是為了掌握生產智能的能力。正如他所說:“我們不是買一塊卡、接上伺服器就完了,而是要控制從硬體、電力、網路、模型,到最後 ChatGPT 輸出每個詞的全過程。”這個判斷背後,還有一個更深的趨勢:OpenAI正在從一家運用智能的公司,轉型為打造智能底座的公司。其路徑不再是等待他人建構基礎設施,而是親手建造智能發電廠;而這一切的起點,正是從打破對晶片的被動依賴開始。第二節|選博通,不是為省錢,是為掌控產線在已與 AMD 及輝達建立合作之後,OpenAI 此次與Broadcom 的聯手,標誌了雙方第一次成為關鍵合作夥伴。為什麼是這家公司?OpenAI 聯合創始人 Greg Brockman 在播客裡解釋:“我們不是在市場上買一塊現成的晶片,而是從零開始,為自己的模型量身定做一塊。”在他們看來,未來的智能並非依靠堆砌計算卡,而是依賴於一條高度精密的智能生產線,其中晶片設計、網路連線與軟體調度等環節必須實現無縫對接。這正是 Broadcom 能做、別人做不到的地方。Greg 說,他們甚至在嘗試:用自己的 AI 模型去幫忙設計晶片。聽起來反常:本該工程師畫圖,卻讓AI 最佳化方案。結果,AI 的建議竟讓團隊震驚:“模型給出的最佳化建議,很多本來是我們晶片專家‘待辦清單裡一個月以後要做的事’”。這意味著,AI 不只是用晶片的機器,它已經開始“設計晶片的人”了。而 Broadcom,正是願意讓出底層架構設計權、與 OpenAI 一起重新搭建這套智能流水線的夥伴。博通總裁 Charlie Kawwas 強調:“我們並非簡單地銷售晶片,而是從底層開始,與OpenAI共同建構一個覆蓋晶片製造、電力分配、網路互聯、模型運行直至ChatGPT穩定輸出每一句回應的全球頂級平台。最後 ChatGPT 怎麼快速穩定地把一句話發給你。OpenAI 要的不是一個外包工廠,而是一個能一起從頭到尾設計智能產能的工程拍檔。所以,選博通,不為省錢,而是攜手將“智能怎麼造”從頭梳理一遍。第三節|不是造晶片,是建智能工廠線OpenAI 不只是為了訓練模型才造晶片。他們的目標是讓每個人都擁有一個專屬的 AI 助手,它能24小時待命,隨時協助完成複雜任務。但這類智能助理,不可能靠幾張卡、幾個伺服器就能跑得動。Greg Brockman在播客中指出:ChatGPT 正從對話工具,轉型為後台搭檔,幫你自動完成任務。他舉例:未來,Agent 無需逐條指令,就能懂你的偏好、目標,主動幹活。但問題是:“要服務全球幾十億人,每人一個 Agent,現有的基礎條件遠遠不夠。”所以,OpenAI 想做的,是一條真正能大規模產出“智能助理”的工廠線:前端是使用者想做什麼,中間是 AI 助手理解並分解,後端是穩定、高效、低成本的智能產出能力。而這條產線,必須實現全鏈路的精準對齊。避免模型快而硬體滯後、網路卡殼、調度慢成本高、任務排隊半小時的斷層。最終目標非單純提速降價,而是鑄就持續產出智能的生產體系。OpenAI 正在往“AI 工廠”這條路走:模型不是產品,而是產能;推理不是服務,而是供應;Agent 不是外掛,而是智能世界的標配。為此,他們以自身模型最佳化晶片,使其理解模型運行邏輯,以此確保整條產線從設計之初,就服務於生成可用 AI 助手的終極目標。所以,OpenAI 不是在追一個更強的模型,而是在搭一個能規模化輸出智能的生產邏輯。他們要做的,是下一代“智能工廠”。第四節|10 吉瓦是智能世界的電力起點OpenAI 在這次播客和 CNBC 採訪裡,反覆提到一個數字:10 吉瓦(Gigawatts)。這不是一個普通的技術指標,而是一個能源等級的單位。你可以簡單理解為:OpenAI 計畫在 2026 到 2029 年之間,打造一套“相當於小國家電網”的智能基礎設施。Sam Altman 說:那怕我們今天就有 30 吉瓦的計算能力,依然會被快速用光。他不是在誇張,而是在描述一個真實、且持續擴大的智能消耗現象:每次模型變得更聰明、反應更快,使用者就用得更多;每次成本降下來,企業就想用它做更多工;智能越容易獲取,它的使用場景就越多。換句話說,智能也像電一樣,一旦可用,便會被飛速消耗。Oracle 聯席 CEO Mike Zaccaria 在 CNBC 說:這不是傳統意義上的客戶合作,這是一次對 AI 成功的兆美元等級集體押注。他說得沒錯。因為當 OpenAI 要造的,不再是一台模型,而是 一整片智能的“發電網路” 時:投入的就不只是算力,而是整個產業鏈、能源、製造資源的重新配置;跟隨它的也不只是技術公司,而是包括晶片、軟體、雲服務、甚至電力行業。Greg Brockman 明確表示:我們現在做的事情,從規模上來說,已經超過了阿波羅登月計畫。如果說,前幾十年,企業建的是資料中心、伺服器叢集,那 OpenAI 現在建的,是一張能持續輸出智能的能源網路。它不只是支援 ChatGPT 回答你一個問題,或者幫你寫一篇文案, 而是支撐整個 AI 經濟的“新電力中心”。而這 10 吉瓦,只是整個計畫的第一步。第五節|為什麼是現在?智能正加速爆發從外部看,OpenAI 和 Broadcom 的合作像是一項技術投資項目。 但深入理解其播客內容後,便會發現他們傳遞出的核心資訊高度一致:不能等。Greg Brockman 說:“我們不是等晶片造好了再訓練模型,而是先把基礎準備好,然後逼近那個智能峰值。”過去,許多科技公司都習慣於等待市場準備就緒、技術發展成熟、供應鏈完善跟進之後,才採取行動。但 OpenAI 不是這樣想的。 他們看到的是 AI 智能的增長節奏,已經快得讓人來不及應對。他們的經驗告訴:一旦模型更聰明、用起來更便宜,使用量就會井噴;一旦讓使用者用上 Agent,需求就會從“對話”變成“自動完成整件事”;一旦智能開始“主動做事”,原有的基礎設施就很快不夠用了。其核心並非按部就班的精準執行,而是為應對一個已然加速的未來進行動態建構。這句話的意思是:如果現在不開始部署,三年後智能爆發時,基礎還沒搭好,只能眼看別人跑在前面。這就是為什麼他們要選在 2025 年做這件事:不是等待價格下降,而是要確保未來的可用性; 不是等待他人驗證路徑,而是要親手鋪就智能通路。OpenAI 不是在追趕,而是在引領整個行業的發展周期。此刻,正是這一處理程序的關鍵拐點。結語|10 吉瓦之後,智能世界的入口已在成形通過兩年來的觀察,OpenAI 看到了一個非常清晰的趨勢:智能的使用方式變了,產出方式也要跟著變。過去十年,智能靠租; 現在開始,智能要造。Sam Altman 說:“我們希望這個合作過程能教會我們:怎麼從每一瓦電力裡,榨出儘可能多的智能。”這句話背後的意思是:智能,不再是雲端模型單純計算生成的回答;它將像電一樣,被使用、被消耗、被調度,成為企業營運、個人工作與國家基礎設施建設的一部分。而誰能提前建構這個平台,誰就有可能掌握未來的智能入口。OpenAI 的理念並非等待產業成熟,而是立即開闢道路。他們相信,在智能時代,方向本身比確切的終點坐標更為重要。 (AI 深度研究員)
輝達未來最大的競爭對手,博通Broadcom深度分析
01AI業務爆發博通(AVGO)AI 業務在短短兩年內實現跨越式增長:2024 Q1:預計25年單季AI半導體營收可達 52.9 億美元。2024 Q2:首次披露2027年三大TPU核心客戶(Google、meta、字節),每家對應300億美元營收規模。2024 Q4:在原有三家基礎上新增兩家大客戶,市場傳言為 OpenAI 與蘋果。該季度AI半導體營收已達37億美元。2024年全年AI半導體營收突破122億美元。2025 Q1:受貿易管制影響,字節跳動相關訂單傳言取消,但博通的AI業務仍保持強勁韌性,單季度AI半導體營收達41億美元。2025 Q2:重申三大核心客戶合作穩定,並新增4家潛在客戶,均為大規模雲服務企業。單季度AI半導體營收達到44億美元。2025 Q3:增長曲線再提速,Google追加訂單至2026年的400萬片,已體現在Q4訂單中,並首度公開OpenAI 100億美元訂單。該季度AI半導體收入52億美元,管理層預計Q4 AI半導體收入將增至62億美元。02客戶生態解析Google合作深度無可替代,Google的韌體工程師對博通硬體的理解屬業內頂尖,推動TPU部署穩定性,其放量速度領先行業。2026年資本開支預期從900億美元增至1100億美元,且meta、蘋果均有意採購其AIDC服務,間接帶動博通裝置需求。400萬片TPU訂單已落地,成為博通未來營收的壓艙石。值得關注的是,Google與博通合作開發的第六代TPU(3nm工藝)已進入量產階段,第七代TPU(v7)預計於26/27年推出,進一步鞏固雙方的技術繫結。OpenAI增長潛力最大的合作夥伴,OpenAI近兩年與博通在TPU領域合作發力迅猛,2026年tape out的順利進展,得益於博通成熟的晶片技術方案。100億美元訂單僅為起點,其26/27年Capex有望趕超Google成為核心客戶。Meta從自研轉向合作,其ASIC晶片曾與Google並駕齊驅,但受大模型研發不利拖累,TPU訂單未能放量,轉而租賃GoogleAIDC服務,未來有望通過這一間接路徑增加博通裝置採購。字節跳動受貿易管制影響,傳言轉向國內廠商合作自研,短期訂單承壓。但長期來看,其全球業務的算力需求仍存在,合作存在修復的可能。在美國政府“一切皆可談”的政策基調下,字節有可能採取和AMD/NV/Intel類似的策略,支付15%的營收當作“出口稅”蘋果傳聞處於合作階段,作為全球科技巨頭,若入局有望進一步擴大博通AI業務規模。微軟 / 亞馬遜自研遇阻轉向博通,二者此前與Marvell合作ASIC自研,但tape out及AIDC進展不及預期。博通在scale up/out的技術優勢成為關鍵吸引力,傳言正推進合作洽談。03技術護城河博通的技術優勢集中體現在 TPU 與交換機的協同能力上,這種協同並非簡單的硬體組合,而是基於超大規模算力場景的全端最佳化。當前AI客戶中TPU與Tomahawk交換機營收比為 5:1,未來將最佳化至 4:1;從整體AI業務看,TPU與交換機營收比為 2:1,部分客戶因現有算力基礎設施而選擇單獨購買交換機,印證了交換機的獨立市場需求。每片TPU包含配套授權費與交換機費用約1萬美元,AI相關晶片EBITDA高達65%-67%,遠超行業平均水平,展現強大定價權。博通在算力叢集拓展上的優勢尤為突出,形成了scale up和scale out的雙路徑解決方案。scale up層面突破傳統PCIe侷限,推出符合SUE(Scale-Up Ethernet)標準的晶片,將乙太網路技術引入機櫃級互聯場景,打破了輝達NVLink的封閉架構壟斷,實現單節點性能躍升。scale out層面則憑藉Tomahawk 5/6交換機建構競爭壁壘。其中Tomahawk 6採用3nm工藝,實現102.4Tbps頻寬,支援128×800Gbps或64×1.6Tbps連接埠配置,較前代減少3倍交換層級和1.7倍光模組使用量。在大規模叢集部署上,目前行業形成兩大技術陣營,輝達主導的InfiniBand和博通主導的乙太網路陣營。博通在拓撲結構相容性上顯著強於輝達。基於Tomahawk 6建構13萬節點AI叢集僅需兩層拓撲,而傳統InfiniBand方案需三層結構,大幅降低延遲與部署成本。這一優勢與AI超節點技術趨勢高度契合。GoogleNano Banana推理算力部署的成功,印證了scale up/out路徑的可持續性,也成為OpenAI、XAI等企業保持競爭力的核心選擇。從各大廠公開資料看來,自研ASIC組網成本比輝達低60%。04產能瓶頸與突破全球AI業務增長並非無虞,台積電CoWoS先進封裝的Substrate環節已成為行業產能瓶頸。儘管TPU所需的5nm、3nm製程產能充足,但Substrate供應緊張將限製出貨節奏,這也是輝達斥資50億美元戰略投資英特爾,鎖定其CoWos產能的核心原因。博通則在新加坡佈局Substrate工廠,一期將於2026年投產,二期於同年跟進,採用“繫結製程廠”模式,為台積電等CoWoS廠商定向供應Substrate,從源頭緩解產能壓力。產能佔比資料顯示,博通2025年佔台積電CoWoS產能9%,2026年將提升至15%,而台積電自身CoWoS產能還有40%增長空間,為博通業務擴張提供了強有力的支撐。05與輝達的賽道差異與增長潛力ASIC與GPU一直以來都是長期共存的互補賽道,半導體行業始終在“標準化”與“定製化”之間交替擺動。正是這一規律,使得二者的增長周期存在代際差異。2026年的博通將與2023年的輝達高度相似。2023年生成式AI浪潮突襲,千行百業對大模型訓練、推理的需求呈無差別爆發,標準化的GPU成為快速填補算力缺口的最優解。而輝達憑藉通用GPU的普適性,市佔率高達98%;2026年則進入算力精準匹配階段,超大規模雲廠商與大模型企業的需求從有算力可用,轉向高效算力適配,博通的定製化ASIC恰好承接這一增量,其AI相關訂單儲備已突破380億美元,2026年台積電CoWoS分配量預計達16.5萬片,完全復刻輝達2023年鎖定60% CoWoS產能的卡位策略。最終算力市場將形成雙核心格局,共同支撐AI算力基礎設施的迭代升級。 (AI芯經)