有消息指出,OpenAI 正攜手博通共同研發專屬的人工智慧加速晶片。
從目前資訊來看,此舉的核心目標很可能是降低對輝達產品的依賴程度,同時進一步壓縮其旗下GPT 系列大模型的營運與研發成本。
英國《金融時報》曾引用匿名知情人士的說法報導,博通執行長陳福陽出,OpenAI 正攜手博通共同研發專屬的人工智慧加速晶片。從目前資訊來看,此舉的核心目標很可能是降低對輝達產品的依賴程度,同時進一步壓縮其旗下GPT 系列大模型的營運與研發成本。
另外英國《金融時報》曾引用匿名知情人士的說法報導,博通首席執行官陳福陽(Hock Tan)在這周召開的財報電話會議中透露了一個關鍵資訊:此前引發市場關注的、為博通帶來100 億美元訂單的“神秘客戶”,正是由薩姆·奧特曼主導的人工智慧領域頭部企業OpenAI。
儘管博通常態下不會公開客戶具體資訊,但行業內存在一個默認的事實——該公司的知識產權是眾多定製化雲晶片研發的核心基礎,這一點在業內已不算秘密。
陳福陽在周四的分析師電話會議中也提到,當前博通已為三家XPU(異構計算單元)客戶提供服務,且第四家合作客戶也已進入籌備階段,即將正式達成合作。他具體表示:「在上個季度,我們的一個潛在客戶向博通下達了生產訂單,因此該客戶已被我們納入XPU 合格客戶名單。實際上,他們基於我們XPU 技術的人工智慧機架訂單金額已超過100 億美元。基於這一情況,我們目前預測,2026 財年公司在人工智慧業務領域的收入前景,將較上提升一季度的預期。
早在前一段時間,市場上就流傳著OpenAI 正在內部研發新型晶片的傳言,而這款晶片計畫用於取代輝達和AMD 現有的GPU(圖形處理器)。 《金融時報》從消息人士處進一步獲悉,這款自研晶片預計將在明年某個時間段正式推出,但初期主要用於OpenAI 內部業務支撐,不會面向外部客戶開放銷售。
不過,目前仍有一個待解的疑問:這款晶片的應用場景究竟是聚焦於AI 模型的訓練環節,還是僅用於支援OpenAI 的推理運算與API 服務器?或是像Google的TPU、亞馬遜AWS 的Trainium 加速器那樣,不涉及基於加速器的虛擬機器服務?這一系列問題尚未明確答案。
博通在大規模人工智慧計算系統所需的基礎技術領域佈局廣泛,其技術覆蓋多個關鍵環節:包括用於晶片間資料傳輸的序列器/反序列器(SerDes)技術、支援計算系統從單晶片擴展至數千晶片規模的網絡交換機與共封裝光互連技術,以及構建多晶片加速器不可或缺的3D 封裝技術。若您對這些技術細節感興趣,可透過相關管道取得更深入的解析內容。
對於OpenAI 而言,其很可能會將上述各類技術與博通的3.5D 極致維度系統級封裝技術(3.5D XDSiP)相結合,而該封裝技術本身也極有可能成為其自研加速器的核心技術方案之一。
從架構設計來看,這種技術方案在諸多方面與AMD 的MI300 系列加速器更為相似,反而與當前輝達產品的設計思路差異較大。其核心邏輯是將高效能計算模組堆疊在包含晶片底層邏輯與記憶體控製器的基底片之上,同時封裝之間的通訊透過獨立的I/O 晶片實現。這種模組化設計的優勢在於,客戶可根據自身需求靈活選擇融入自主知識產權的比例——既可以深度參與設計,也可僅提出基礎需求,剩餘技術空白則由博通負責填補。
在博通的3.5D XDSiP 技術體系中,最大規模的設計方案可在單一6000 平方毫米的封裝上,同時整合兩組3D 堆疊模組、兩個I/O 晶片,以及最多12 組HBM(高帶寬記憶體)堆疊。按照計劃,該技術的首批產品將於明年開始交付,這一時間節點恰好與OpenAI 首款自研晶片的預計推出時間相吻合。
除了3.5D XDSiP 技術外,業內普遍認為,OpenAI 還有可能採用博通的Tomahawk 6 系列交換機與共封裝光學晶片,以此建構能夠實現縱向與橫向擴展的網絡架構,為其AI 計算系統提供更靈活的擴展能力。
奧特曼先前提出的「星際之門計畫」中,明確規劃將數千億美元資金(其中大部分來自外部投資)投入人工智慧基礎設施建設。從這一背景來看,博通此次新增的100 億美元訂單客戶最終被證實為OpenAI,其實並不令人意外。
OpenAI 並不是唯一一家傳聞中與博通合作研發定製化AI 加速器的企業。回顧去年年底,《The Information》曾報導,蘋果將成為博通下一個重要的XPU 客戶,其代號為「Baltra」的定製晶片計劃於2026 年推出。
自從該消息曝光後,蘋果也進一步加大了在晶片與AI 領域的投入:不僅承諾投入5000 億美元資金,還計劃招聘20000 名員工,旨在強化其本土晶片製造能力。這一系列投資中,就包括在德克薩斯州建設一座製造工廠,該工廠未來將基於蘋果自主研發的晶片,生產用於人工智慧加速的服務器裝置。 (IT前哨站)