OpenAI簽下近700億AI晶片巨單!

將成為全球最大的高速AI推理平台。

百億美元AI晶片大單來了!

智東西1月15日報導,今天,OpenAI與美國AI晶片獨角獸Cerebras聯合宣佈,將部署750兆瓦的Cerebras晶圓級系統,為OpenAI客戶提供服務。該合作將於2026年起分階段落地,並於2028年之前完成,建成後將成為全球規模最大的高速AI推理平台。

另據《華爾街日報》援引知情人士消息稱,這筆交易價值超過100億美元,同時,Cerebras正在洽談以220億美元的估值融資10億美元,這將使其估值升至原有的近3倍。知情人士稱,Cerebras仍計畫推進IPO。

值得注意的是,OpenAI聯合創始人兼CEO山姆·奧特曼(Sam Altman)同時也是Cerebras的個人投資者。

Cerebras打造的晶片以“大”著稱,能在一塊晶片上塞入4兆顆電晶體。OpenAI認為,Cerebras晶片的速度來自於將龐大的計算量、記憶體和頻寬整合在一塊巨型晶片上,消除了傳統硬體推理速度下降的瓶頸。Cerebras上大模型的響應速度,是基於GPU的系統的15倍。

OpenAI稱,將Cerebras整合進其計算解決方案組合,旨在進一步提升AI響應速度。當AI能夠實現即時響應時,使用者可以完成更多工,停留時間更長,並運行價值更高的工作負載。

在公告中,Cerebras稱雙方的合作醞釀了十年之久。OpenAI和Cerebras幾乎同時創立,自2017年以來,雙方團隊頻繁會面,分享研究成果、早期工作,並堅信模型規模和硬體架構終將深度融合。

根據奧特曼與馬斯克相關訴訟中公開的法庭檔案顯示,早在2017年,OpenAI就曾討論過與Cerebras建立合作關係的可能性。OpenAI一直在尋找比輝達晶片更便宜、更高效的替代方案。去年,OpenAI宣佈正與博通合作開發定製晶片,並單獨簽署協議,使用AMD的新型MI450晶片。

Cerebras CEO Andrew Feldman在接受《華爾街日報》採訪時稱,OpenAI和Cerebras於去年秋季開始正式洽談合作事宜,並在感恩節前簽署了合作意向書。Feldman認為,目前推動市場的因素是“對快速計算的非凡需求”。

OpenAI基礎設施負責人Sachin Katti稱,隨著工程師不斷反饋現有晶片在運行AI應用時速度仍有提升空間,尤其是在程式設計相關任務上,OpenAI開始認真評估並推動與Cerebras的合作。

Katti在採訪中提到:“算力是衡量OpenAI收入潛力的最關鍵因素。過去兩年裡,我們的整體計算能力幾乎每年翻倍,收入增長也呈現出同樣的趨勢。”

Cerebras成立於2016年,在2024年提交上市申請時披露,其大部分收入來自一家客戶——總部位於阿布扎比的G42公司。

次年,Cerebras撤回了上市計畫,轉而通過私募融資11億美元,彼時Cerebras的投後估值為81億美元。Feldman稱,Cerebras此後已與IBM和Meta簽署了新的合作協議。

市場研究公司PitchBook的資料顯示,該公司已累計融資18億美元,還不包括新籌集的資金。

結語:大模型商用引爆推理需求,多元算力路線獲頭部玩家押注

隨著大模型進入大規模商用階段,如何在更短時間內、以更低成本完成推理,正成為影響使用者體驗、應用上限乃至商業化能力的關鍵。

雖然輝達GPU仍是當前AI算力生態的絕對主流,但包括晶圓級架構、定製ASIC在內的多元算力路線,正在被頭部模型廠商納入基礎設施佈局。 (智東西)