#博通
3年7倍!博通的崛起與鐵腕CEO陳福陽
下一個黃仁勳在晶片巨頭博通,CEO陳福陽(Hock Tan)用鐵腕管理和精準併購將一家平淡無奇的半導體公司推向兆美元市值,其股價在過去三年暴漲近七倍。12月5日,科技媒體The Information撰寫長文講述博通與鐵腕CEO陳福陽的故事。文章指出,這位74歲的CEO以極度務實的風格聞名——裁撤福利、嚴控成本、專注利潤,並通過定製晶片業務成為輝達在AI晶片市場的少數挑戰者之一。據介紹,在斥資840億美元收購VMware後,陳福陽用其標誌性的"咖啡聊天"向新員工宣告管理哲學。當有員工詢問博通是否提供育兒、婚姻諮詢等福利時,他回答:"我為什麼要做那些?我不是你爸爸。"Hock Tan與美國總統談笑風生隨後幾個月,VMware的3.8萬名員工中約一半被裁撤,18棟辦公樓僅保留5棟,連咖啡機都被移除。這種無情的效率為博通帶來了實打實的業績增長。去年公司銷售額突破500億美元,兩年內增長超過50%,今年有望超過600億美元。其定製晶片業務已贏得Google、OpenAI和Meta等重要客戶,佔據公司約60%收入,使博通成為全球11家兆美元公司之一。文章也指出,風險同樣顯著。AI支出能否持續、Marvell等競爭對手的追趕、客戶尋求更廉價替代方案的努力,都可能動搖博通的地位。而陳福陽本人在新的薪酬結構下,若能在2030年底前將AI收入提升至1200億美元,將獲得價值約7億美元的股權獎勵,當前市場普遍認為他能實現這一目標。01 併購機器的"鑽石與垃圾"哲學文章稱,陳福陽在過去15年至少收購了11家公司,並在每次整合中應用同一套嚴苛方法論。避險基金Coatue Management聯合創始人兼負責人、億萬富翁Philippe Laffont總結道:"他是識別有趣的併購目標、收購它們並運用私募股權式劇本的絕對最佳人選。"陳福陽本人將這套方法描述為識別"鑽石"和"垃圾"。收購VMware後,他將產品組合從8000種削減至僅4種,保留他認為對資料中心客戶最有用的產品線。他剝離了VMware的工作場所虛擬化工具部門,在試圖出售Carbon Black網路安全業務後,將其併入Symantec——但事先裁撤了約80%的員工。在公司內部,陳福陽建立了一套冷酷的業績評估機制。在季度全員會議上,他總會展示一張按收入增長排列各部門的幻燈片,用一條紅色橫線標出增長最弱的三分之一部門。他稱之為"厄運線"——任何部門連續幾個季度處於該線下方就被視為表現不佳,員工會擔心自己成為下一批裁員對象。陳福陽儘管存在這種不確定性,博通的自願離職率僅為2.9%,略高於輝達的2.7%。多名前員工將其歸因於公司的高薪酬,其中包括大量有價值的限制性股票單位。公司很少招聘實習生或應屆畢業生,更傾向於僱用一名經驗豐富的工程師來完成幾名初級員工的工作。與許多科技公司擁有數百名副總裁不同,博通只有不到30名副總裁和高級副總裁。此外,在公司最近的帕洛阿爾托總部,沒有免費汽水,甚至文具供應都很短缺。"你必須自己買橡皮筋或馬克筆,"一名前員工說,"而且你最好記得把它們帶回辦公桌,否則會被人拿走。"02 定製晶片:輝達的挑戰者文章寫道,ChatGPT推出後,博通一度被視為沉悶、增長緩慢的晶片業務幾乎在一夜之間獲得新生。公司專注於定製晶片業務,即應用專用積體電路(ASIC),這類晶片為執行單一任務而設計,比輝達的通用晶片更高效、更便宜。這使博通成為輝達在晶片市場主導地位的少數可信挑戰者之一。Google是博通最知名的老客戶,自2016年開始合作。通常客戶會將晶片藍圖帶給博通,由後者負責物理設計和製造,並與台積電等公司合作。博通參與程度因合作關係而異——Google因其專業能力處理更多高層技術設計,而在與其他公司的合作中,博通也會協助這部分工作。過去三年,博通簽下多項大單,包括OpenAI和Meta的合作。去年2月,陳福陽被任命為Meta董事會成員。據消息人士透露,微軟目前也在就設計未來晶片與博通洽談,這可能意味著微軟將業務從另一家定製晶片製造商Marvell轉移。儘管公司可以直接與台積電等晶片代工廠合作並自行處理全部晶片設計,但這樣做風險較高。博通在晶片設計領域深耕三十年,其定製產品質量享有盛譽,因此能收取高價。不過,高昂成本也促使部分客戶尋求替代方案。此前,博通的激進談判策略曾促使亞馬遜轉向競爭對手Marvell,而Google也增加了台灣聯發科作為第二晶片設計合作夥伴。陳福陽去年12月預測,AI可能在2027年為博通帶來600億至900億美元的新收入。而據摩根大通估計,10月宣佈的與OpenAI的晶片合作在未來幾年可能產生高達3000億美元的收入。今年10月,Anthropic表示計畫使用100萬個張量處理單元(TPU)——博通與Google共同設計的晶片。Meta目前也在與Google洽談,計畫在2027年在其資料中心投入數十億美元使用TPU。03 從馬來西亞到矽谷的鐵腕之路關於陳福陽本人,外界所知甚少。他在馬來西亞檳城島長大,家境並不富裕。他的早年生活背景是馬來亞緊急狀態——英國殖民軍隊與支援獨立的“叛亂分子”之間的暴力游擊戰。青少年時期,陳福陽原本想成為一名醫生,但SAT高分為他贏得麻省理工學院獎學金,改變了人生軌跡。1971年他抵達美國,1975年獲得機械工程學士和碩士學位。隨後他在哈佛大學獲得MBA學位,並在通用汽車和百事公司擔任金融職務。1980年代,他在亞洲工作近十年,先後供職於馬來西亞一家建築材料集團和新加坡一家投資公司。回到美國後,他在PC製造商Commodore International破產前擔任財務副總裁,隨後升任Integrated Circuit Systems首席執行長,領導公司進行重大重組,並於2005年以17億美元價格將其出售。Hock Tan與妻子這筆交易引起了Silver Lake和KKR的注意。2006年,兩家公司聘請陳福陽領導從惠普剝離的晶片公司Avago,並要求他削減冗餘。一名前高管回憶,在Avago早期的一次外出會議上,陳福陽將高層們裝上大巴,帶到當地機場酒店。"大多數人搞外出活動會選擇奢華場所,我覺得我們甚至沒有食物和水。"2016年,陳福陽完成最大手筆:以370億美元收購更知名的博通。次年,他發起對高通1200億美元的敵意收購。但川普政府以國家安全為由阻止了這筆交易,擔心美國總部的高通落入當時註冊地在新加坡的博通手中。一個月後,博通將註冊地遷至美國。高通交易失敗後,陳福陽決定通過收購軟體公司尋求增長。從2019年到2022年,博通股價上漲150%,遠超納斯達克約55%的漲幅。04 誰將接班?關於博通AI晶片業務和整體AI支出的持續性仍存疑問,而74歲的陳福陽可能很快面臨另一個關於長期性的問題:誰將接替他?今年9月,陳福陽在季度財報電話會議上表示,他計畫"至少"擔任CEO至2030年。一名前博通高管預測,陳福陽會一直工作到去世。"他將成為科技界的Charlie Munger(查理·芒格)。"不過,有跡象表明博通已開始考慮後陳福陽時代。博通半導體解決方案集團總裁Charlie Kawwas近來更頻繁地出現在面向華爾街的活動和財報電話會議上。Kawwas擁有電氣和電腦工程博士學位,於2014年通過博通收購LSI Corp.加入公司,曾擔任首席銷售官和首席營運官,2022年晉陞為總裁。在10月發佈到OpenAI YouTube頻道的一次播客對話中,Kawwas坐在陳福陽右側,與OpenAI首席執行長Sam Altman和總裁Greg Brockman交談。Kawwas強調他每周至少與OpenAI的對應人員通話一次。Brockman讚揚道:"我覺得每次給Charlie打電話,他都在世界不同地方試圖確保產能,試圖找到方法幫助我們共同實現目標。"但如果博通投資者Laffont的觀點具有代表性,許多人還沒準備好放手這位長期領導者。Laffont說:"每天我都在想,我祈禱他服用維生素,吃得健康。"Silver Lake董事長Ken Hao是一名博通董事,與陳福陽相識二十年,他認為陳福陽卓越表現的關鍵在於"專注於不來自傳統智慧的第一性原理,或者說不複製他人。" (芯榜+)
晶片巨頭,集體改命
2025年,AI浪潮持續席捲全球,算力成為了新時代的石油,而圍繞算力的爭奪,也正改寫著整個半導體版圖。其中,輝達憑藉GPU在AI訓練領域幾乎一騎絕塵,佔據超過九成市場份額,其市值突破4.5兆美元,成為了半導體行業新的領導者。但輝達的地位並非牢不可破,AMD、博通、英特爾等廠商虎視眈眈,都想要從輝達這裡虎口奪勢,AI晶片產業迎來了全新的一超多強格局。輝達高築軟體與生態的護城河,幾乎壟斷了AI訓練的上游體系;而其他晶片巨頭與雲廠商,則在悄悄尋找新的突破口。AISC和Arm,似乎成為了它們的目標。英特爾這兩年,英特爾的日子過得不算好。多年來,這位「藍色巨人」一直難以跟上台積電等競爭對手的晶片製造能力,其在AI市場上更是缺乏競爭力的產品線。作為對比,輝達的AI晶片大賣特賣,AMD也有自己的AI晶片組合,而英特爾的下一個「重磅炸彈」Jaguar Shores還要等到2027年首次亮相,其在AI上的落後早已暴露無遺。身處困境的英特爾,選擇走一條差異化的路。據報導,英特爾最近成立了中央工程集團(CEG),將公司內所有工程人才整合到一個部門,由前Cadence Systems高階主管斯里尼·艾揚格領導。這位在2024年7月從Cadence加入的高階主管,在推動定製晶片商業模式方面有著深厚的經驗,他在Cadence專注於IP業務、設計工具、設計生態系統合作夥伴關係以及定製晶片的垂直市場。他的經驗和市場人脈被認為能夠加速英特爾利用"ASIC熱潮"的能力。英特爾執行長陳立武在第三季財報電話會議上明確表示,CEG集團將帶頭拓展新的ASIC和設計服務業務,為廣泛的外部客戶提供專用晶片。 「這不僅將擴展我們核心x86 IP的覆蓋範圍,還將利用我們的設計優勢,提供從通用到固定功能計算的一系列解決方案。」這番話揭示了英特爾的戰略雄心——從純粹的晶片製造商轉型為提供「設計+製造+封裝」的一站式服務商。英特爾在ASIC領域的最大競爭優勢在於其完整的產業鏈。作為老牌IDM企業,英特爾擁有晶片專業知識、x86 IP以及提供製造服務的內部代工廠,尋求定製AI晶片的客戶可以獲得滿足所有需求的「一站式」服務。這是市場上任何其他ASIC設計公司都無法提供的優勢,即使是博通和Marvell也難以企及,更重要的是,憑藉CEG集團,英特爾實現了集中式的橫向工程,這意味著將設計服務與製造+封裝連接起來的開銷大幅降低。報導指出,英特爾的ASIC業務可能會將該公司的代工廠變成一個成功的服務供應商,使其成為大型科技公司的引人注目的選擇。在人工智慧供應鏈的中間有很多機會,例如從量產製造利潤中獲得的收入,甚至是ASIC設計費。如果執行到位,定製晶片業務可能會成為英特爾的下一個主力軍,因為它將賦予英特爾系統代工廠的地位,負責供應鏈的每個環節。然而,英特爾面臨的挑戰同樣龐大。輝達最近宣佈斥資50億美元收購英特爾約4%的股份,兩家公司將共同開發「多代定製資料中心和PC產品」。這項合作為英特爾帶來了機遇,但也帶來了複雜的競合關係。資料中心晶片將是英特爾根據輝達的規格定製的x86晶片,輝達將「將這些CPU整合到其AI基礎設施平台中,並推向市場」。在消費級市場,英特爾計畫打造整合英特爾CPU和Nvidia RTX GPU晶片組的x86 SoC,這意味著英特爾可能會在未來產品中使用輝達設計的圖形晶片,而不是自家的Arc GPU。這帶來了一系列懸而未決的問題。英特爾幾十年來一直在開發自己的圖形產品,最近推出的Arc品牌專用顯示卡和整合GPU對Nvidia的一些低端產品構成了直接挑戰。英特爾告訴媒體,該公司“將繼續提供GPU產品”,但這可能意味著英特爾將專注於低端、低功耗的GPU,而將高端產品留給輝達。在軟體方面,英特爾一直在推廣其自有的oneAPI圖形計算堆疊,以取代Nvidia的CUDA和AMD的ROCm,但未來這個平台的命運也充滿不確定性。更關鍵的問題是製造,輝達採用英特爾的18A製程或英特爾路線圖上的其他製程來生產部分晶片的機率其實並不高。英特爾一直在努力尋找大客戶,但黃仁勳在回答相關問題時對台積電大加讚賞,表示「台積電的能力,從工藝技術、執行節奏、產能和基礎設施的規模,到業務營運的敏捷性……所有這些魔力匯聚在一起,成就了一家世界級的代工廠,能夠支援客戶如此多樣化的需求。對於英特爾而言,轉向ASIC設計服務是在困境中尋找新的成長曲線的必然選擇。在人工智慧炒作中錯失良機的英特爾,希望透過提供完整的設計和製造服務,在AI晶片市場中找到自己的位置。但這絕非易事,尤其是在人工智慧市場競爭激烈以及像博通這樣的ASIC設計公司不斷發展的情況下。英特爾能否抓住這一機遇,將決定這家曾經的晶片霸主能否在AI時代重新崛起。高通相較於有些無奈的英特爾,高通的選擇頗有些激進。這家迄今一直專注於無線連接和移動裝置半導體的公司,正在大舉進軍大型資料中心市場,直接挑戰輝達和AMD在AI推理領域的地位。近日,高通宣佈將發佈新的人工智慧加速器晶片AI200和AI250,消息傳出後,高通股票飆升11%,市場對這一轉型給予了高度認可。據報導,高通將於2026年上市銷售的AI200和計畫於2027年上市的AI250均可裝入裝滿液冷伺服器機架的系統中,這標誌著高通進入資料中心領域,成為技術領域增長最快市場的新競爭者。據麥肯錫估計,到2030年,資料中心的資本支出將接近6.7億美元,其中大部分將用於基於人工智慧晶片的系統。報導指出,高通資料中心晶片基於高通智慧手機晶片中的人工智慧零件,稱為Hexagon神經處理單元(NPU)。近年來,該公司一直在逐步改進其Hexagon NPU,因此這些處理器的最新版本已經配備了標量、向量和張量加速器(採用12+8+1配置),支援INT2、INT4、INT8、INT16、FP8、FP16等資料格式,以及用於減少記憶體流量的微塊推理 AI、64記憶體定址、Gen元用於額外安全性的虛擬模型。對於高通來說,將Hexagon擴展到資料中心工作負載是一個自然的選擇。高通資料中心和邊緣計算總經理杜爾加·馬拉迪在與記者的電話會議上表示:「我們首先想在其他領域證明自己,一旦我們在那裡建立了實力,我們就很容易在資料中心層面更上一層樓。」這句話透露了高通的戰略邏輯——從移動端的AI能力積累,向資料中心市場延伸。據理解,高通的AI200機架級解決方案配備768GB LPDDR內存,對於推理加速器而言,這已是相當可觀的內存容量,高於輝達和AMD的產品。該系統將使用PCIe互連實現縱向擴展,並使用以太網實現橫向擴展。該系統將採用直接液冷,每機架功率高達160kW,對於推理解決方案而言也是前所未有的功耗。此外,該系統還將支援企業部署的機密計算。該解決方案將於2026年上市。2027年推出的AI250將保留此架構,但增加了近內存計算架構,有效內存帶寬提升了10倍以上。此外,該系統將支援分解推理功能,使計算和記憶體資源能夠在不同卡片之間動態共享。高通將其定位為更有效率、高帶寬的解決方案,針對大型Transformer模型進行了優化,同時保留了與AI200相同的散熱、散熱、安全性和可擴展性特性。高通明確表示,其晶片專注於推理或運行人工智慧模型,而不是訓練。這是一個明智的差異化策略,避開了輝達最強大的訓練市場。 OpenAI等實驗室透過處理TB級資料來創造新的人工智慧能力,這需要強大的訓練晶片,而高通選擇專注於已訓練模型的運行和部署,這是一個同樣龐大但競爭相對較小的市場。高通表示,其機架式系統最終將降低雲端服務供應商等客戶的營運成本,且一台機架的功耗為160千瓦,與某些Nvidia GPU機架的高功耗相當,但在推理場景中能提供更好的效能功耗比。高通還在功耗、擁有成本以及內存處理的新方法方面強調其優於其他加速器的優勢。馬拉迪強調,高通還將單獨出售其AI晶片和其他零件,尤其是針對那些喜歡自行設計機架的超大規模資料中心客戶。他表示,其他AI晶片公司,例如輝達或AMD,甚至可能成為高通部分資料中心零件的客戶。 「我們試圖確保我們的客戶能夠選擇全部購買,或者說『我要混合搭配』。」這種靈活的商業模式為高通打開了更多市場空間。而高通的市場驗證已然開始。 2024年5月,高通宣佈與沙烏地阿拉伯的Humain公司合作,為該地區的資料中心提供AI推理晶片。 Humain將成為高通的客戶,並承諾部署最多可使用200兆瓦電力的系統。除了建構硬體平台,高通還在建構一個針對大規模推理優化的超大規模級端到端軟件平台。該平台將支援主要的機器學習和生成式人工智慧工具集,包括PyTorch、ONNX、vLLM、LangChain和CrewAI,同時實現無縫模型部署。該軟件堆疊將支援分解式服務、機密計算以及預訓練模型的一鍵式載入,以簡化部署。馬拉迪表示:「我們豐富的軟件棧和開放的生態系統支援,使開發者和企業能夠比以往更輕鬆地在我們優化的AI推理解決方案上整合、管理和擴展已訓練好的AI模型。Qualcomm AI200和AI250無縫相容領先的AI框架,並支援一鍵式模型部署,旨在實現無縫應用和快速相容領先的AI框架,並支援一鍵式模型部署,旨在實現無縫應用和快速相容領先的AI框架,並支援一鍵式模型部署,旨在實現無縫應用和快速相容。高通轉向資料中心AI推理市場的原因是多方面的。首先,該行業一直由輝達主導,其GPU迄今佔據了超過90%的市場份額,但像OpenAI這樣的公司一直在尋找替代方案。 Google、亞馬遜和微軟也在為其雲端服務開發自己的AI加速器,這為新進入者創造了機會。其次,推理市場的規模正在快速成長,隨著越來越多的AI模型部署到生產環境中,推理需求將遠遠超越訓練需求。第三,高通在行動端積累的Hexagon NPU技術為其進軍資料中心提供了技術基礎,這是一種從邊緣到雲端的自然延伸。高通發佈全新的AI晶片,本質上是傳統的市場邊界正在模糊,移動晶片廠商可以進軍數據中心,而數據中心晶片廠商也在向邊緣裝置延伸,形成了你中有我,我中有你的新的市場競爭格局。聯發科無獨有偶,同樣是移動晶片廠商的聯發科也在進軍AI。這家傳統的手機晶片廠商正成為雲端ASIC設計服務的重要玩家,與博通這樣的ASIC市場領導者展開面對競爭,並且已經拿下了Google、Meta等科技巨頭的訂單。早在去年,聯發科就宣佈與輝達的達成合作,而在今年的輝達GTC大會上,聯發科介紹了其Premium ASIC設計服務,顯示聯發科與輝達的合作擴展至IP領域,更彈性的商業模式,能提供各式客製化晶片/HBM4E等,並具有豐富的Cell Library,以及先進製程設計方案。聯發科的核心競爭力在於其SerDes技術。聯發科指出,其SerDes技術為ASIC核心優勢,涵蓋晶片互連、高速I/O、先進封裝與記憶體整合。其中,112Gb/s DSP(數字信號處理器)基於PAM-4接收器,於4奈米FinFET製程打造,實現超過52dB損耗補償,意謂更低信號衰減、更強薦之抗干擾特性。該技術不僅適用於乙太網路路、光纖長距傳輸,現在聯發科更推出專為資料中心使用的224G Serdes,並已完成矽驗證。近日,聯發科也正式宣佈與輝達合作設計GB10 Grace Blackwell超級晶片,該晶片將為新推出的NVIDIA DGX Spark提供動力。 DGX Spark是一款個人AI超級電腦,旨在幫助開發者在桌面上建立原型、進行微調和推斷大型AI模型。據理解,GB10 Grace Blackwell超級晶片由最新一代Blackwell GPU與Grace 20核心Arm CPU組合而成,運用了聯發科在設計節能、高效能CPU、記憶體子系統和高速介面方面的專業知識。此配置提供128GB統一內存,並提供高達1 PFLOP的AI性能,以加速模型調優和即時推理。這使得開發人員能夠在本地處理高達2000億個參數的大型AI模型。此外,該系統內建ConnectX-7網路技術,可將兩個DGX Spark系統連接在一起,從而對高達4050億個參數的模型進行推理。 DGX Spark的節能性能足以使用標準電源插座,其緊湊的設計使其能夠輕鬆放置在桌面上。而除了與輝達的合作,聯發科也正在傚法博通和Marvell爭取在雲端服務提供者的市場。根據調研機構指出,部分CSP已在評價輝達及聯發科之IP組合的定製設計晶片。儘管GoogleTPU(張量處理器)進度稍微遞延,第七代TPU預計在明年第三季投入量產,但採用3nm打造仍有望為聯發科增加超過20億美元的貢獻。供應鏈也透露,Google進階到第八代的TPU,將開始採用台積電2nm流程,持續在先進製程領域維持領先地位。聯發科的另一個重大突破來自Meta。聯發科和博通繼續爭奪Meta的新專用整合電路(ASIC)項目,業內人士強調,兩家公司的表現相當。然而,最近的報導表明,聯發科即將獲得Meta即將推出的一款2nm工藝ASIC的大額訂單,該晶片代號為“Arke”,專注於後訓練和推理功能,可能在2027年上半年實現量產。據IC設計公司透露,聯發科在此次產品競賽中勝出,將是其獲得的第二筆重要的雲端服務供應商(CSP)客戶訂單。熟悉ASIC領域的業內人士指出,Arke原本並不在Meta的初始計劃中。在Iris晶片計畫於2025年底量產後,Meta曾計畫推出另一款採用N2P工藝的ASIC,名為Olympus。然而,考慮到實際需求和成本效益,Meta在產品發布計劃中途推出了一款專用於推理的晶片Arke。因此,Olympus將重新定位為一款專為訓練而設計的ASIC,以與Nvidia未來的GPU競爭,其發佈時間將推遲到2028年。Meta之前的產品,主要由ASIC市場領導者博通開發。不過,聯發科與Meta之間已有合作關係。例如,Meta早期自主研發的智慧眼鏡晶片就是與聯發科合作開發的,這在ASIC領域奠定了堅實的基礎。因此,聯發科可能獲得Meta對新款Arke產品的青睞,這並不完全出乎意料。業內人士表示,在與Google關係穩定後,聯發科需要擴大合作範圍,以在雲端ASIC市場建立更大的影響力。近期,市場觀察到CSP巨頭的ASIC設計策略和規劃發生了變化。儘管雲端AI的使用量依然龐大且供應緊張,但CSP已調整其策略以提升成本效益。以前,技術合規性和整合能力是優先考慮的,而往往忽略了成本。如今,隨著對雲端AI市場實際動態和晶片設計細節的洞察越來越清晰,CSP也致力於開發更實用、更經濟的產品。在這樣的大環境下,聯發科的成本優勢正逐漸顯現。聯發科轉向ASIC的原因與其獨特的市場定位有關。作為台灣晶片設計公司,聯發科在手機晶片市場面臨激烈競爭,利潤率受到擠壓。 ASIC設計服務為聯發科提供了更高的利潤率和更穩定的客戶關係。同時,聯發科在先進流程、高速介面、記憶體整合等方面的技術積累,使其能夠為雲端服務供應商提供差異化的解決方案。更重要的是,聯發科透過與輝達的合作,獲得了進入高端AI市場的入場券,這是其獨立發展難以實現的。AMD與其他廠商相比,AMD在ASIC領域的動作相對低調,但其正在開發的基於Arm架構的產品顯示出這家公司對未來市場的戰略思考。根據一篇頗具深度的行業雜誌洩露的資訊,AMD正在開發一款代號為「Sound Wave」的基於Arm的APU,並將於明年晚些時候發布。這篇題為《AMD正在開發基於Arm的APU,代號為Sound Wave》的短文被洩露,甚至還附上了部分海關申報單,顯示了包裹的尺寸。一段時間以來,一直有傳言稱AMD正在開發一款基於Arm的裝置,但這篇最新洩露的文章透露了其大致規格,包括相當小的32mm x 27mm BGA封裝,包含六個CPU核心(兩個P核心+四個E核心)和一個RDNA架構GPU,這讓它看起來更加現實。目前,用於評估電氣特性的電路板正在發貨。從小巧的封裝來看,裝置似乎瞄準移動應用,並將充分利用Arm架構的省電特性。與英特爾共享x86架構CPU市場的AMD在PC/服務器市場競爭激烈,但近年來,AMD一直與台積電合作,按照其路線圖將基於Zen架構的高效能CPU推向市場,並穩步搶佔英特爾的市場份額。執行長蘇姿丰長期以來一直奉行透過x86架構鞏固高端市場地位以確保更高利潤率的產品戰略,但現在似乎是時候將在移動領域市場份額不斷擴大的Arm架構融入到自己的CPU中了。為資料中心市場供應高效能CPU/GPU的AMD似乎意識到了邊緣裝置上AI工作負載的未來成長領域。AMD先前也曾開發過採用Arm架構的CPU,但那次開發最終只是Opteron品牌下名為「A1100」的一次性伺服器CPU產品。 AMD於2003年憑藉K8架構的Opteron品牌進軍服務器市場。之後,他們進一步升級管線結構,並試圖以主打高主頻的Bulldozer核心架構鞏固其地位。然而,產品層面的實際性能並未提升,這一嚐試最終以失敗告終。結果,AMD在市場上長期缺乏足夠的產品來與英特爾競爭。AMD重返伺服器市場的時間被推遲到2017年,直到推出Zen架構產品。 A1100 Arm架構服務器CPU是AMD在艱難時期經過反複試驗後,開發出來的節能服務器處理器。當時,Arm架構尚未在伺服器市場被接受,市場吸引力不大,但AMD推出了K12項目作為後繼架構。K12項目旨在推出一個平台,其解碼器相容x86和Arm指令集,並且引腳相容x86和Arm。當時,AMD將其稱為"雙架構計算",甚至發布了技術概述。但最終,K12項目在發布之前就被取消了,原因是管理層決定優先開發Zen架構,以重新奪回x86市場的主導地位。現任AI處理器初創公司Tenstorrent首席執行官的Jim Keller當時負責AMD架構開發的工程工作,在一次回顧那段時光的採訪中,他表示:“那是一個嚴重的管理失誤。”輝達近期宣佈入股英特爾,並在x86市場展開合作,這固然是對兩家的公司的利多,但與此同時,紮根x86市場的AMD也有了新的危機感。事實上AMD所處的環境自10年前以來發生了翻天覆地的變化,一方面,技術創新的主流已經從CPU轉向GPU,另一方面,隨著chiplet架構的發展,引腳相容的概念已經過時,最重要的是,AMD現在擁有同時開發兩種不同架構的財力。對於AMD而言,押注Arm似乎是面臨自身GPU短期難以直接與輝達競爭情況下,相對最合理的選擇之一了。巨頭轉向為何巨頭紛紛「變心」?事實上,隨著如今AI發展進入深水區,GPU賴以為傲的通用性反而成了成為束縛,隨著AI模型的參數量和部署規模呈指數級上升,給了ASIC與Arm登上舞台的契機。從底層邏輯來看,巨頭之所以紛紛押注Arm與ASIC,是因為AI時代的算力需求已經從「通用計算」轉向「專用計算」。GPU之所以在早期稱霸,是因為它為AI訓練提供了足夠的平行運算能力,能靈活應對不同模型的訓練需求;但在AI模型進入部署和推理階段後,能耗、延遲、成本成為新的關鍵約束,通用GPU龐大的架構反而帶來了冗餘。 ASIC恰恰透過「定製化計算路徑」實現了極致的能效比,在不犧牲性能的前提下,將每一顆晶體管都用於最關鍵的運算任務。與此同時,Arm架構成為這一趨勢的自然延伸。其低功耗、高可擴展的特性,使其在AI推理、邊緣計算、智慧終端中獲得青睞。無論是亞馬遜和微軟,還是Google和Meta,都在用事實證明:x86的霸權正在被削弱,而Arm的靈活授權模式與開放生態正成為AI基礎設施的新底座。對傳統巨頭而言,轉向Arm和ASIC的戰略並非單純的“追風口”,而是一場突破瓶頸,力圖爭取更大市場的結構性轉型:英特爾希望以ASIC訂製服務為突破口,彌補AI晶片代工與設計的落差,並以自身IDM模式打造設計+製造+封裝的系統型競爭力;高通借助移動端的Hexagon NPU積累,從邊緣AI向雲端推理延伸,意圖透過低功耗ASIC系統重塑資料中心能源效率結構;聯發科依託高速SerDes與記憶體整合優勢,切入CSP的AI ASIC供應鏈,以高效能+高性價比贏得Google與Meta訂單;AMD則以Arm架構探索新型APU,試圖在PC與低功耗AI場景建立差異化優勢,避免被輝達與x86生態完全鎖死。最後,更深層的原因在於:AI晶片產業的價值重心正在「去中心化」。過去,晶片公司賣的是產品,現在賣的是能力──算力、IP、設計服務、生態介面。定製化的ASIC與可授權的Arm架構,恰好構成了這種去中心化的底層載體,讓不同公司能夠在特定場景中重新定義競爭規則。因此,當GPU的黃金時代進入瓶頸期,AI算力的競爭正悄悄分流:一條通往「更通用、更昂貴」的高端GPU計算;另一條,則走向「更專用、更有效率」的ASIC+Arm體系。展望未來,AI基礎設施將愈來愈往專用晶片而非通用晶片靠攏,屆時誰能爭取更多的雲巨頭訂單,誰就有望在下一個半導體行業的十年裡獨佔鰲頭。 (半導體產業觀察)
OpenAI、博通官宣合作!馬斯克:OpenAI is a lie
OpenAI和博通宣佈戰略合作OpenAI與博通達成戰略合作,將聯合開發並部署10吉瓦定製AI加速器及系統。其中,OpenAI主導晶片與系統設計,將前沿模型開發經驗融入硬體以解鎖新智能水平;博通則提供加速器、乙太網路解決方案,負責2026年下半年起的部署工作,計畫2029年底完成。依託 8 億使用者基礎,OpenAI 正打造類蘋果 App Store 的生態體系。馬斯克(Elon Musk)在X表示,OpenAI建立在謊言之上的,他們“竊取了慈善機構的資金並將其用於自己的經濟利益”。有網友稱“它不應該是個非營利組織嗎?”馬斯克則用“100分”表情包表示贊同。一、兆佈局:OpenAI 建構全端 AI 生態台北時間 10 月 13 日,OpenAI 與博通達成戰略合作,共同開發 10 吉瓦定製人工智慧加速器,OpenAI 主導設計,博通負責 2026 年下半年起的開發與部署,2029 年底完成。此舉使 OpenAI 算力來源覆蓋 GPU(輝達、AMD)與 ASIC(博通)陣營,進一步豐富算力構成。此前,OpenAI 已簽署總額約 1 兆美元合作協議:硬體端,獲輝達 1000 億美元投資以建構 10 吉瓦算力中心,通過 AMD1.6 億股認股權證繫結 6 吉瓦算力,還聯合三星、SK 海力士保障 HBM 供應;雲伺服器端,與甲骨文簽 3000 億美元算力採購協議,同 Coreweave 達成 224 億美元合同並計畫投資 3.5 億美元。這些佈局預計提供超 30GW 算力支撐,被部分觀點視為 AI 生態 “閉環”,但業內認為實質是築高競爭 “高牆”。二、豪賭背後:泡沫爭議與行業變局OpenAI 的激進投入伴隨巨大財務壓力與爭議。其今年預計營收 130 億美元,現金消耗超 80 億美元,2029 年現金消耗或達 1150 億美元,需依賴 2030 年超 2000 億美元營收預期覆蓋成本。截至 2025 年二季度,OpenAI 在微軟、甲骨文等三家公司的 RPO 中佔超 3300 億美元,形成深度利益繫結。OpenAI的AI生態“閉環”摩根士丹利警示,供應商資助客戶、交叉持股的模式模糊風險,長期 RPO 存重新談判隱患。業內認為 AI 產業靠 “泡沫” 驅動,OpenAI 百億級收入能否支撐千億級開支存疑。貝索斯亦指出 AI 處泡沫中,但技術終將沉澱。OpenAI 的 “戰略豪賭” 折射出 AI 產業從單點突破到全端整合的變革,無論成敗均將重塑行業邊界。三、Meta CEO 祖克柏:AI可能正處於泡沫之中祖克柏承認人工智慧行業存在過熱跡象,並類比歷史上技術泡沫現象(如2000年網際網路泡沫),指出部分企業可能因過度投入而面臨洗牌。他認為,猶豫不決可能導致錯失超級智能技術的機遇,因此Meta將繼續投入資金並調整策略應對潛在風險。告別人工智慧熱潮——Meta首席執行官馬克·祖克柏與山姆·奧特曼立場一致,承認人工智慧領域可能正處於泡沫之中。四、蘋果前 CEO :OpenAI 是真正對手蘋果前 CEO 約翰・斯卡利表示,OpenAI 已成為蘋果數十年來首個真正競爭對手,直指蘋果在 AI 競賽中略顯落後,面臨智能體 AI 時代的轉型挑戰。值得關注的是,前蘋果設計主管喬尼・艾夫已加入 OpenAI——OpenAI 此前以超 60 億美元收購其裝置初創公司,斯卡利認可艾夫能力,認為其與 OpenAI CEO 奧特曼的合作或為大語言模型領域帶來突破。10 月 6 日 OpenAI 開發者大會上,CEO 阿爾特曼披露關鍵資料:ChatGPT 周活使用者達 8 億(較 2 月翻倍),開發者社區擴容至 400 萬,API 每分鐘處理 60 億個 token。大會推出 Apps SDK、Agent Kit 等工具及 GPT-5 Pro、Sora 2 等模型,標誌其從 “模型提供商” 向 “全端 AI 生態建構者” 進階。核心產品 Apps SDK 被視作 “AI 版 iOS” 基礎,支援開發者在 ChatGPT 內建構含付費功能的互動式應用,通過專屬協議實現 “開發 - 分發 - 變現” 閉環。目前Booking.com、Spotify 等 7 家企業應用已上線,依託 8 億使用者基礎,OpenAI 正打造類蘋果 App Store 的生態體系。 (芯榜)
OpenAI 聯手博通:10 吉瓦、2026 到 2029,為什麼是現在?
2025 年 10 月 13 日,OpenAI 官宣:將與 Broadcom (博通)深度合作,啟動一項戰略性系統工程:自研定製晶片。並於 2026 至 2029 年之間,部署一整套覆蓋 10 吉瓦(GW)規模的推理基礎設施。在當天發佈的 OpenAI 官方播客中,CEO Sam Altman 直言:“我們不是在等晶片,而是在打造全鏈條系統,從電晶體到 ChatGPT輸出Token。這是我所知的,人類歷史上規模最大的聯合工業項目。”這不再是我們熟悉的“AI 公司買卡訓練模型”的舊故事。而是一場圍繞基礎設施主權的重新洗牌,OpenAI正積極建構能夠服務全球數十億使用者的智能計算基座。他們選中的合作對象 Broadcom,也不是傳統意義上的晶片代工廠。是能從電晶體層面參與定製的架構協作方;是能從網路層 + 軟體層共同打通的系統共建者;是能支援OpenAI在推理時代追求極致能效的戰略夥伴。而與博通合作,是 OpenAI 建構未來智能底座的第一步。這一次,我們不能只看“發佈了什麼”,而要讀懂背後的判斷:為什麼是現在?為什麼是 Broadcom?為什麼是 10 吉瓦?這不是新聞,而是節奏訊號。第一節|GPU 不夠用了,OpenAI 要自造智能過去幾年,OpenAI 的發展節奏有目共睹:ChatGPT、DallE、Sora……幾乎每隔幾個月就有新產品出現。 但真正讓這家公司感到壓力的,不是競爭對手,而是一個越來越難解決的問題:用來支撐這些智能的算力已經嚴重不夠用了。OpenAI CEO Sam Altman 在播客中說:“我們最初的叢集只有 2 兆瓦,今年是 2 吉瓦。但我們希望達到 30 吉瓦,甚至更多。”這相當於過去15 倍以上的增長,背後反映的是一件事: AI 越聰明,大家用得越多,需求膨脹得比基礎設施擴容快得多。原本以為:“只要最佳化 10 倍,大家就夠用了。”結果發現:“最佳化 10 倍後,需求漲了 20 倍。”GPU已不再是即買即用的普通資源,其長期短缺的特性,使其成為一種需要持續供應的新型電力。這就是 Altman 決定不再等待產業鏈的原因:我們開始自己動手,從最底層做起,連電晶體怎麼排布都要參與進來但這不僅僅是為了省錢,而是為了掌握生產智能的能力。正如他所說:“我們不是買一塊卡、接上伺服器就完了,而是要控制從硬體、電力、網路、模型,到最後 ChatGPT 輸出每個詞的全過程。”這個判斷背後,還有一個更深的趨勢:OpenAI正在從一家運用智能的公司,轉型為打造智能底座的公司。其路徑不再是等待他人建構基礎設施,而是親手建造智能發電廠;而這一切的起點,正是從打破對晶片的被動依賴開始。第二節|選博通,不是為省錢,是為掌控產線在已與 AMD 及輝達建立合作之後,OpenAI 此次與Broadcom 的聯手,標誌了雙方第一次成為關鍵合作夥伴。為什麼是這家公司?OpenAI 聯合創始人 Greg Brockman 在播客裡解釋:“我們不是在市場上買一塊現成的晶片,而是從零開始,為自己的模型量身定做一塊。”在他們看來,未來的智能並非依靠堆砌計算卡,而是依賴於一條高度精密的智能生產線,其中晶片設計、網路連線與軟體調度等環節必須實現無縫對接。這正是 Broadcom 能做、別人做不到的地方。Greg 說,他們甚至在嘗試:用自己的 AI 模型去幫忙設計晶片。聽起來反常:本該工程師畫圖,卻讓AI 最佳化方案。結果,AI 的建議竟讓團隊震驚:“模型給出的最佳化建議,很多本來是我們晶片專家‘待辦清單裡一個月以後要做的事’”。這意味著,AI 不只是用晶片的機器,它已經開始“設計晶片的人”了。而 Broadcom,正是願意讓出底層架構設計權、與 OpenAI 一起重新搭建這套智能流水線的夥伴。博通總裁 Charlie Kawwas 強調:“我們並非簡單地銷售晶片,而是從底層開始,與OpenAI共同建構一個覆蓋晶片製造、電力分配、網路互聯、模型運行直至ChatGPT穩定輸出每一句回應的全球頂級平台。最後 ChatGPT 怎麼快速穩定地把一句話發給你。OpenAI 要的不是一個外包工廠,而是一個能一起從頭到尾設計智能產能的工程拍檔。所以,選博通,不為省錢,而是攜手將“智能怎麼造”從頭梳理一遍。第三節|不是造晶片,是建智能工廠線OpenAI 不只是為了訓練模型才造晶片。他們的目標是讓每個人都擁有一個專屬的 AI 助手,它能24小時待命,隨時協助完成複雜任務。但這類智能助理,不可能靠幾張卡、幾個伺服器就能跑得動。Greg Brockman在播客中指出:ChatGPT 正從對話工具,轉型為後台搭檔,幫你自動完成任務。他舉例:未來,Agent 無需逐條指令,就能懂你的偏好、目標,主動幹活。但問題是:“要服務全球幾十億人,每人一個 Agent,現有的基礎條件遠遠不夠。”所以,OpenAI 想做的,是一條真正能大規模產出“智能助理”的工廠線:前端是使用者想做什麼,中間是 AI 助手理解並分解,後端是穩定、高效、低成本的智能產出能力。而這條產線,必須實現全鏈路的精準對齊。避免模型快而硬體滯後、網路卡殼、調度慢成本高、任務排隊半小時的斷層。最終目標非單純提速降價,而是鑄就持續產出智能的生產體系。OpenAI 正在往“AI 工廠”這條路走:模型不是產品,而是產能;推理不是服務,而是供應;Agent 不是外掛,而是智能世界的標配。為此,他們以自身模型最佳化晶片,使其理解模型運行邏輯,以此確保整條產線從設計之初,就服務於生成可用 AI 助手的終極目標。所以,OpenAI 不是在追一個更強的模型,而是在搭一個能規模化輸出智能的生產邏輯。他們要做的,是下一代“智能工廠”。第四節|10 吉瓦是智能世界的電力起點OpenAI 在這次播客和 CNBC 採訪裡,反覆提到一個數字:10 吉瓦(Gigawatts)。這不是一個普通的技術指標,而是一個能源等級的單位。你可以簡單理解為:OpenAI 計畫在 2026 到 2029 年之間,打造一套“相當於小國家電網”的智能基礎設施。Sam Altman 說:那怕我們今天就有 30 吉瓦的計算能力,依然會被快速用光。他不是在誇張,而是在描述一個真實、且持續擴大的智能消耗現象:每次模型變得更聰明、反應更快,使用者就用得更多;每次成本降下來,企業就想用它做更多工;智能越容易獲取,它的使用場景就越多。換句話說,智能也像電一樣,一旦可用,便會被飛速消耗。Oracle 聯席 CEO Mike Zaccaria 在 CNBC 說:這不是傳統意義上的客戶合作,這是一次對 AI 成功的兆美元等級集體押注。他說得沒錯。因為當 OpenAI 要造的,不再是一台模型,而是 一整片智能的“發電網路” 時:投入的就不只是算力,而是整個產業鏈、能源、製造資源的重新配置;跟隨它的也不只是技術公司,而是包括晶片、軟體、雲服務、甚至電力行業。Greg Brockman 明確表示:我們現在做的事情,從規模上來說,已經超過了阿波羅登月計畫。如果說,前幾十年,企業建的是資料中心、伺服器叢集,那 OpenAI 現在建的,是一張能持續輸出智能的能源網路。它不只是支援 ChatGPT 回答你一個問題,或者幫你寫一篇文案, 而是支撐整個 AI 經濟的“新電力中心”。而這 10 吉瓦,只是整個計畫的第一步。第五節|為什麼是現在?智能正加速爆發從外部看,OpenAI 和 Broadcom 的合作像是一項技術投資項目。 但深入理解其播客內容後,便會發現他們傳遞出的核心資訊高度一致:不能等。Greg Brockman 說:“我們不是等晶片造好了再訓練模型,而是先把基礎準備好,然後逼近那個智能峰值。”過去,許多科技公司都習慣於等待市場準備就緒、技術發展成熟、供應鏈完善跟進之後,才採取行動。但 OpenAI 不是這樣想的。 他們看到的是 AI 智能的增長節奏,已經快得讓人來不及應對。他們的經驗告訴:一旦模型更聰明、用起來更便宜,使用量就會井噴;一旦讓使用者用上 Agent,需求就會從“對話”變成“自動完成整件事”;一旦智能開始“主動做事”,原有的基礎設施就很快不夠用了。其核心並非按部就班的精準執行,而是為應對一個已然加速的未來進行動態建構。這句話的意思是:如果現在不開始部署,三年後智能爆發時,基礎還沒搭好,只能眼看別人跑在前面。這就是為什麼他們要選在 2025 年做這件事:不是等待價格下降,而是要確保未來的可用性; 不是等待他人驗證路徑,而是要親手鋪就智能通路。OpenAI 不是在追趕,而是在引領整個行業的發展周期。此刻,正是這一處理程序的關鍵拐點。結語|10 吉瓦之後,智能世界的入口已在成形通過兩年來的觀察,OpenAI 看到了一個非常清晰的趨勢:智能的使用方式變了,產出方式也要跟著變。過去十年,智能靠租; 現在開始,智能要造。Sam Altman 說:“我們希望這個合作過程能教會我們:怎麼從每一瓦電力裡,榨出儘可能多的智能。”這句話背後的意思是:智能,不再是雲端模型單純計算生成的回答;它將像電一樣,被使用、被消耗、被調度,成為企業營運、個人工作與國家基礎設施建設的一部分。而誰能提前建構這個平台,誰就有可能掌握未來的智能入口。OpenAI 的理念並非等待產業成熟,而是立即開闢道路。他們相信,在智能時代,方向本身比確切的終點坐標更為重要。 (AI 深度研究員)
輝達未來最大的競爭對手,博通Broadcom深度分析
01AI業務爆發博通(AVGO)AI 業務在短短兩年內實現跨越式增長:2024 Q1:預計25年單季AI半導體營收可達 52.9 億美元。2024 Q2:首次披露2027年三大TPU核心客戶(Google、meta、字節),每家對應300億美元營收規模。2024 Q4:在原有三家基礎上新增兩家大客戶,市場傳言為 OpenAI 與蘋果。該季度AI半導體營收已達37億美元。2024年全年AI半導體營收突破122億美元。2025 Q1:受貿易管制影響,字節跳動相關訂單傳言取消,但博通的AI業務仍保持強勁韌性,單季度AI半導體營收達41億美元。2025 Q2:重申三大核心客戶合作穩定,並新增4家潛在客戶,均為大規模雲服務企業。單季度AI半導體營收達到44億美元。2025 Q3:增長曲線再提速,Google追加訂單至2026年的400萬片,已體現在Q4訂單中,並首度公開OpenAI 100億美元訂單。該季度AI半導體收入52億美元,管理層預計Q4 AI半導體收入將增至62億美元。02客戶生態解析Google合作深度無可替代,Google的韌體工程師對博通硬體的理解屬業內頂尖,推動TPU部署穩定性,其放量速度領先行業。2026年資本開支預期從900億美元增至1100億美元,且meta、蘋果均有意採購其AIDC服務,間接帶動博通裝置需求。400萬片TPU訂單已落地,成為博通未來營收的壓艙石。值得關注的是,Google與博通合作開發的第六代TPU(3nm工藝)已進入量產階段,第七代TPU(v7)預計於26/27年推出,進一步鞏固雙方的技術繫結。OpenAI增長潛力最大的合作夥伴,OpenAI近兩年與博通在TPU領域合作發力迅猛,2026年tape out的順利進展,得益於博通成熟的晶片技術方案。100億美元訂單僅為起點,其26/27年Capex有望趕超Google成為核心客戶。Meta從自研轉向合作,其ASIC晶片曾與Google並駕齊驅,但受大模型研發不利拖累,TPU訂單未能放量,轉而租賃GoogleAIDC服務,未來有望通過這一間接路徑增加博通裝置採購。字節跳動受貿易管制影響,傳言轉向國內廠商合作自研,短期訂單承壓。但長期來看,其全球業務的算力需求仍存在,合作存在修復的可能。在美國政府“一切皆可談”的政策基調下,字節有可能採取和AMD/NV/Intel類似的策略,支付15%的營收當作“出口稅”蘋果傳聞處於合作階段,作為全球科技巨頭,若入局有望進一步擴大博通AI業務規模。微軟 / 亞馬遜自研遇阻轉向博通,二者此前與Marvell合作ASIC自研,但tape out及AIDC進展不及預期。博通在scale up/out的技術優勢成為關鍵吸引力,傳言正推進合作洽談。03技術護城河博通的技術優勢集中體現在 TPU 與交換機的協同能力上,這種協同並非簡單的硬體組合,而是基於超大規模算力場景的全端最佳化。當前AI客戶中TPU與Tomahawk交換機營收比為 5:1,未來將最佳化至 4:1;從整體AI業務看,TPU與交換機營收比為 2:1,部分客戶因現有算力基礎設施而選擇單獨購買交換機,印證了交換機的獨立市場需求。每片TPU包含配套授權費與交換機費用約1萬美元,AI相關晶片EBITDA高達65%-67%,遠超行業平均水平,展現強大定價權。博通在算力叢集拓展上的優勢尤為突出,形成了scale up和scale out的雙路徑解決方案。scale up層面突破傳統PCIe侷限,推出符合SUE(Scale-Up Ethernet)標準的晶片,將乙太網路技術引入機櫃級互聯場景,打破了輝達NVLink的封閉架構壟斷,實現單節點性能躍升。scale out層面則憑藉Tomahawk 5/6交換機建構競爭壁壘。其中Tomahawk 6採用3nm工藝,實現102.4Tbps頻寬,支援128×800Gbps或64×1.6Tbps連接埠配置,較前代減少3倍交換層級和1.7倍光模組使用量。在大規模叢集部署上,目前行業形成兩大技術陣營,輝達主導的InfiniBand和博通主導的乙太網路陣營。博通在拓撲結構相容性上顯著強於輝達。基於Tomahawk 6建構13萬節點AI叢集僅需兩層拓撲,而傳統InfiniBand方案需三層結構,大幅降低延遲與部署成本。這一優勢與AI超節點技術趨勢高度契合。GoogleNano Banana推理算力部署的成功,印證了scale up/out路徑的可持續性,也成為OpenAI、XAI等企業保持競爭力的核心選擇。從各大廠公開資料看來,自研ASIC組網成本比輝達低60%。04產能瓶頸與突破全球AI業務增長並非無虞,台積電CoWoS先進封裝的Substrate環節已成為行業產能瓶頸。儘管TPU所需的5nm、3nm製程產能充足,但Substrate供應緊張將限製出貨節奏,這也是輝達斥資50億美元戰略投資英特爾,鎖定其CoWos產能的核心原因。博通則在新加坡佈局Substrate工廠,一期將於2026年投產,二期於同年跟進,採用“繫結製程廠”模式,為台積電等CoWoS廠商定向供應Substrate,從源頭緩解產能壓力。產能佔比資料顯示,博通2025年佔台積電CoWoS產能9%,2026年將提升至15%,而台積電自身CoWoS產能還有40%增長空間,為博通業務擴張提供了強有力的支撐。05與輝達的賽道差異與增長潛力ASIC與GPU一直以來都是長期共存的互補賽道,半導體行業始終在“標準化”與“定製化”之間交替擺動。正是這一規律,使得二者的增長周期存在代際差異。2026年的博通將與2023年的輝達高度相似。2023年生成式AI浪潮突襲,千行百業對大模型訓練、推理的需求呈無差別爆發,標準化的GPU成為快速填補算力缺口的最優解。而輝達憑藉通用GPU的普適性,市佔率高達98%;2026年則進入算力精準匹配階段,超大規模雲廠商與大模型企業的需求從有算力可用,轉向高效算力適配,博通的定製化ASIC恰好承接這一增量,其AI相關訂單儲備已突破380億美元,2026年台積電CoWoS分配量預計達16.5萬片,完全復刻輝達2023年鎖定60% CoWoS產能的卡位策略。最終算力市場將形成雙核心格局,共同支撐AI算力基礎設施的迭代升級。 (AI芯經)
博通股價大漲輝達下跌"對付"輝達,還得是"以華制華"
有消息指出,OpenAI 正攜手博通共同研發專屬的人工智慧加速晶片。從目前資訊來看,此舉的核心目標很可能是降低對輝達產品的依賴程度,同時進一步壓縮其旗下GPT 系列大模型的營運與研發成本。英國《金融時報》曾引用匿名知情人士的說法報導,博通執行長陳福陽出,OpenAI 正攜手博通共同研發專屬的人工智慧加速晶片。從目前資訊來看,此舉的核心目標很可能是降低對輝達產品的依賴程度,同時進一步壓縮其旗下GPT 系列大模型的營運與研發成本。另外英國《金融時報》曾引用匿名知情人士的說法報導,博通首席執行官陳福陽(Hock Tan)在這周召開的財報電話會議中透露了一個關鍵資訊:此前引發市場關注的、為博通帶來100 億美元訂單的“神秘客戶”,正是由薩姆·奧特曼主導的人工智慧領域頭部企業OpenAI。儘管博通常態下不會公開客戶具體資訊,但行業內存在一個默認的事實——該公司的知識產權是眾多定製化雲晶片研發的核心基礎,這一點在業內已不算秘密。陳福陽在周四的分析師電話會議中也提到,當前博通已為三家XPU(異構計算單元)客戶提供服務,且第四家合作客戶也已進入籌備階段,即將正式達成合作。他具體表示:「在上個季度,我們的一個潛在客戶向博通下達了生產訂單,因此該客戶已被我們納入XPU 合格客戶名單。實際上,他們基於我們XPU 技術的人工智慧機架訂單金額已超過100 億美元。基於這一情況,我們目前預測,2026 財年公司在人工智慧業務領域的收入前景,將較上提升一季度的預期。博通的晶片業務和VMware業務發展良好早在前一段時間,市場上就流傳著OpenAI 正在內部研發新型晶片的傳言,而這款晶片計畫用於取代輝達和AMD 現有的GPU(圖形處理器)。 《金融時報》從消息人士處進一步獲悉,這款自研晶片預計將在明年某個時間段正式推出,但初期主要用於OpenAI 內部業務支撐,不會面向外部客戶開放銷售。不過,目前仍有一個待解的疑問:這款晶片的應用場景究竟是聚焦於AI 模型的訓練環節,還是僅用於支援OpenAI 的推理運算與API 服務器?或是像Google的TPU、亞馬遜AWS 的Trainium 加速器那樣,不涉及基於加速器的虛擬機器服務?這一系列問題尚未明確答案。GPU 輝達? AMD? 還是自研?博通在大規模人工智慧計算系統所需的基礎技術領域佈局廣泛,其技術覆蓋多個關鍵環節:包括用於晶片間資料傳輸的序列器/反序列器(SerDes)技術、支援計算系統從單晶片擴展至數千晶片規模的網絡交換機與共封裝光互連技術,以及構建多晶片加速器不可或缺的3D 封裝技術。若您對這些技術細節感興趣,可透過相關管道取得更深入的解析內容。對於OpenAI 而言,其很可能會將上述各類技術與博通的3.5D 極致維度系統級封裝技術(3.5D XDSiP)相結合,而該封裝技術本身也極有可能成為其自研加速器的核心技術方案之一。從架構設計來看,這種技術方案在諸多方面與AMD 的MI300 系列加速器更為相似,反而與當前輝達產品的設計思路差異較大。其核心邏輯是將高效能計算模組堆疊在包含晶片底層邏輯與記憶體控製器的基底片之上,同時封裝之間的通訊透過獨立的I/O 晶片實現。這種模組化設計的優勢在於,客戶可根據自身需求靈活選擇融入自主知識產權的比例——既可以深度參與設計,也可僅提出基礎需求,剩餘技術空白則由博通負責填補。在博通的3.5D XDSiP 技術體系中,最大規模的設計方案可在單一6000 平方毫米的封裝上,同時整合兩組3D 堆疊模組、兩個I/O 晶片,以及最多12 組HBM(高帶寬記憶體)堆疊。按照計劃,該技術的首批產品將於明年開始交付,這一時間節點恰好與OpenAI 首款自研晶片的預計推出時間相吻合。除了3.5D XDSiP 技術外,業內普遍認為,OpenAI 還有可能採用博通的Tomahawk 6 系列交換機與共封裝光學晶片,以此建構能夠實現縱向與橫向擴展的網絡架構,為其AI 計算系統提供更靈活的擴展能力。奧特曼先前提出的「星際之門計畫」中,明確規劃將數千億美元資金(其中大部分來自外部投資)投入人工智慧基礎設施建設。從這一背景來看,博通此次新增的100 億美元訂單客戶最終被證實為OpenAI,其實並不令人意外。OpenAI 並不是唯一一家傳聞中與博通合作研發定製化AI 加速器的企業。回顧去年年底,《The Information》曾報導,蘋果將成為博通下一個重要的XPU 客戶,其代號為「Baltra」的定製晶片計劃於2026 年推出。蘋果開發了AI服務器CPU自從該消息曝光後,蘋果也進一步加大了在晶片與AI 領域的投入:不僅承諾投入5000 億美元資金,還計劃招聘20000 名員工,旨在強化其本土晶片製造能力。這一系列投資中,就包括在德克薩斯州建設一座製造工廠,該工廠未來將基於蘋果自主研發的晶片,生產用於人工智慧加速的服務器裝置。 (IT前哨站)
博通“百億大單”曝光:OpenAI明年生產自研晶片,削弱對輝達依賴
OpenAI被曝與晶片巨頭博通達成價值百億美元的合作協議,計畫於明年量產自研AI晶片,旨在突破算力瓶頸並降低對輝達的過度依賴。與輝達和AMD等供應商設計的“GPU”不同,此次定製AI晶片被稱為“XPU”。博通CEO已確認第四大客戶巨額訂單,推動其股價盤後上漲約5%。OpenAI正準備通過與博通合作,首次量產其自研的人工智慧晶片。9月5日,據英國《金融時報》援引知情人士消息,OpenAI與美國半導體巨頭博通達成合作,共同設計自主人工智慧晶片,並計畫於明年正式投入量產。此舉旨在突破算力瓶頸並降低對輝達的過度依賴。最新的動態來自博通首席執行官Hock Tan。他在周四的財報電話會議上宣佈,公司已獲得第四個定製AI晶片業務的主要客戶,該客戶承諾了價值100億美元的訂單。據知情人士向媒體證實,這個神秘的新客戶正是OpenAI。受此消息及超預期業績提振,博通股價在盤後交易中上漲4.5%。OpenAI的這一戰略與Google、亞馬遜和Meta等科技巨頭的做法如出一轍,這些公司都已設計了自家的專用晶片來運行AI工作負載。01 百億訂單揭曉博通首席執行官Hock Tan表示,新客戶的加入帶來了“即時且相當可觀的需求”,並預計從明年開始將為該客戶“非常強勁地”出貨晶片,從而提升了公司的增長前景。儘管博通並未公開其定製晶片客戶的名稱,但熟悉此事的人士確認,新客戶就是ChatGPT的開發商OpenAI。對於此事,博通和OpenAI均拒絕置評。據一位接近該項目的人士稱,OpenAI計畫將這款自研晶片用於內部,而非向外部客戶提供。02 “XPU”挑戰輝達與輝達和AMD等供應商設計的“GPU”不同,博通的定製AI晶片被稱為“XPU”。分析稱,該晶片預計將在蓬勃發展的AI基礎設施市場中佔據更大份額的預期,其已成為推動博通股價今年上漲超過30%的重要因素。博通在定製晶片領域早有建樹,例如,公司與Google合作開發了其定製的“TPU”AI晶片。匯豐銀行分析師在博通財報發佈前寫道,他們預計到2026年,博通定製晶片業務的增長率將遠高於輝達的GPU業務。儘管輝達目前仍在AI硬體領域佔據主導地位,其主要客戶群中仍有大型科技公司的重要份額,但與AI投資熱潮初期相比,其增長速度已經放緩。03 OpenAI的算力渴求對於需要更多算力來服務於使用ChatGPT等產品的企業和消費者,以及訓練和運行更強大的AI模型,OpenAI的首席執行官Sam Altman一直直言不諱。OpenAI是輝達AI晶片最早的客戶之一,並且一直是其硬體的“貪婪”消費者。上個月,Sam Altman表示,考慮到來自其最新模型GPT-5的日益增長的需求,公司正在優先考慮算力問題,並計畫“在未來5個月內”將其計算叢集的規模擴大一倍。開發自研晶片,正是為了從根本上解決這種對算力的無盡渴求。 (硬AI)
盤後暴漲近4%!博通Q3 AI晶片收入超預期增63%,神秘新客戶下單百億,料下財年AI前景“大幅”改善
第三財季博通營收創同期新高、同比增22%;四財季營收指引同比增近24%強於預期,AI晶片收入料環比加速增19%至62億美元、較分析師預期高6%以上。CEO稱,上季度,一家AI加速器的潛在客戶向博通發出生產訂單、價值100億美元,博通現在預計,2026財年AI收入前景較上季度預測大幅改善,從2026年起出貨將很強勁。博通股價盤後一度漲超4%。輝達的有力挑戰者、ASIC晶片大廠博通上個財季保持了兩位數的收入勁增勢頭,比本已較高的華爾街預期水平更強勁,並預計本財季的人工智慧(AI)晶片業務繼續提速。博通CEO陳福陽點評業績稱,博通第三財季營收創同期歷史新高,得益於定製AI加速器、網路和VMware業務的持續強勁增長,並預計,由於客戶的持續強勁投資,AI晶片本財季的營收將加速增長至62億美元,實現連續11個季度增長。業績電話會上,陳福陽釋放了定製AI晶片需求強勁的利多。陳福陽稱,博通正在與潛在客戶合作開發AI加速器。這意味著博通在開發輝達稱霸的市場。而後他說,“上個季度,其中一家潛在客戶向博通發出了生產訂單”,未透露具體客戶名稱。據陳福陽所說,上述未公開的第四位“神秘”客戶給博通帶來價值100億美元的訂單,他稱因此該客戶被定性為博通定製AI加速器XPU的合格客戶。接著陳福陽說,博通“現在預計,2026財年的AI收入前景將較上個季度的預測大幅改善”,還說“從2026年開始,我們的出貨量將非常強勁。” 評論認為,這些言論有助於緩解投資者對AI業務放緩的擔憂。財報公佈後,本周四收漲逾1.2%的博通盤後股價震盪,先曾跳漲約2%,後一度轉跌超1%,業績電話會期間擺脫跌勢,盤後漲幅曾擴大到4%以上。截至本周三收盤,博通股價過去一年幾乎翻倍大漲,成為漲幅第三高的納斯達克100指數成分股,市值同期增加約7300億美元。但鑑於輝達等AI晶片股最近發佈財報後表現疲軟,一些市場人士此前擔心,即使博通的業績亮眼,也可能面臨“買消息、賣事實”的拋售風險。美東時間9月4日周四,博通公佈截至2025年8月3日的公司2025財年第三財季(下稱“三季度”)財務資料,並提供第四財季(“四季度”)的業績指引。1)主要財務資料:營收:三季度營業收入159.5億美元,同比增長22%,分析師預期158.4億美元,公司指引158億美元,前一季度同比增長20%。淨利潤:非GAAP口徑下調整後三季度淨利潤為84.04億美元,同比增長37.3%,前一季度同比增長44%。EBITDA:調整後三季度稅息折舊及攤銷前利潤(EBITDA)為107.02億美元,同比增長30.1%,分析師預期約105億美元,利潤率67.1%,前一季度同比增長34.6%、利潤率66.7%。EPS:調整後每股收益(EPS)三季度為1.69美元,同比增長36.3%,分析師預期1.66美元,前一季度同比增長43.6%。2)細分業務資料:半導體解決方案,包括ASIC在內的半導體解決方案業務收入為91.66億美元,同比增長26%,佔總營收的57%,分析師預期91億美元,前一季度同比增長16.7%、佔總營收的56%。基礎設施軟體:包括VMware在內的基礎設施軟體業務收入為67.86億美元,同比增長17%,佔總營收的43%,前一季度同比增長24.8%、佔總營收的44%。3)業績指引:營收:四季度營收預計約為174億美元,同比增長23.8%,分析師預期170.5億美元。EBITDA:四季度EBITDA利潤率預計約67%,分析師預期66%。營收創三季度最高紀錄 AI晶片營收四季度料增至62億美元財報顯示,三季度博通的營收和利潤端增長比華爾街預期的強勁。當季營收創公司史上第三財季最高紀錄,同比增速由前一季的20%提升至22%,分析師預期增長約21%。三季度博通的EPS同比增速由前一季的將近44%放緩至約36%,但還強於分析師預計不足34%的增速。陳福陽稱,三季度博通的AI半導體營收同比增長63%至52億美元,這也高於分析師預期的51.1億美元。而且增速高於前一季度。博通第二財季的AI晶片業務收入同比增長46%。業績指引方面,博通預計四季度營收增長將進一步加快至將近24%,強於分析師預計的約21%增速。陳福陽稱,博通預計,四季度AI半導體營收增至62億美元。這一指引較分析師預期的58.2億美元高6.5%,相當於環比增長19%,環比增速也超過三季度的約18%。Summit Insights的分析師 Kinngai Chan評論稱,博通的AI相關的半導體需求持續亮眼。三季度業績增長主要得益於AI互聯互通以及定製ASIC業務。ASIC在內半導體解決方案收入增26%分業務看,三季度包括ASIC在內的半導體解決方案收入也提速,從前一季度的不到17%提高至26%。ASIC是專為特定領域或功能量身定製的積體電路。此前評論認為,去年博通之所以能讓市值突破1兆美元,是因為講述了AI專用晶片ASIC的超大敘事,預計三年後ASIC與GPU至少平分天下,甚至取而代之。陳福陽去年12月預測,到2027年財年,市場的ASIC需求將達600億至900億美元。分析稱,若這一預測準確,未來三年博通ASIC相關的AI業務有望實現每年翻倍增長。分析師預計,博通的定製晶片業務2026年可帶來收入250億至300億美元,2027年有望超過400億美元。那將佔博通收入的一大半。博通2024財年的總營收將近516億美元。博通2023年以610億美元收購VMware,該業務現已成為其基礎設施軟體部門的核心,佔前一財季銷售額的44%。VMware業務的增長情況也是投資者關注的一個要點。三季度,包括VMware在內的基礎設施軟體業務收入增長有所放緩,同比增速由前一季的將近25%放緩至17%,在總營收中保持超過40%的比重。花旗分析師最近指出,博通的非AI半導體業務已較峰值下降約40%,該業務佔本財年預期銷售額的27%,其復甦應能抵消AI業務帶來的毛利率稀釋效應。 (invest wallstreet)