#Cerebras
1596億!AI晶片超級獨角獸誕生
融資69億元,AMD參投。近日,美國AI晶片獨角獸Cerebras Systems宣佈完成10億美元(約合人民幣69億元)F輪融資,估值達到230億美元(約合人民幣1596億元)。本輪融資由Tiger Global領投,Benchmark、Fidelity Management & Research Company、Atreides Management、Alpha Wave Global、Altimeter、AMD、Coatue以及1789 Capital(合夥人包括小唐納德·川普)等機構跟投。成立於2015年的Cerebras,以餐盤大小的AI晶片而聞名。其晶圓級引擎3(WSE-3)晶片是全球最大、速度最快的AI晶片,體積是當前最大GPU的56倍,單位計算功耗卻遠低於同類產品,同時推理和訓練速度比競品快20倍以上。其晶片用於處理AI推理所需的順序執行、記憶體密集型工作負載。與需要在晶片和記憶體之間來回傳輸資料的GPU不同,WSE將所有運算都保存在晶片內部,從而消除了限制GPU推理能力的記憶體頻寬瓶頸。Cerebras上一輪融資是在2025年9月宣佈完成的11億美元(約合人民幣76億元)G輪融資,當時投後估值為81億美元(約合人民幣562億元)。相比當時,最新估值增長近184%。這也是Cerebras自2025年10月撤回其在美國IPO申請以來的首輪融資,凸顯了一個更廣泛的趨勢,即由於公開市場之外有充足的資本,企業會保持私有狀態更長時間。官網顯示,Cerebras之前的投資方還包括高通、台積電等晶片巨頭,以及OpenAI聯合創始人兼首席執行長Sam Altman、前OpenAI首席科學家Ilya Sutskever、Stripe前首席技術官Greg Brockman、前Facebook首席技術官兼Quora首席執行長Adam D'Angelo、英特爾首席執行長陳立武、前AMD首席技術官兼企業副總裁Fred Weber等知名個人投資者。Cerebras聯合創始人兼首席執行長Andrew Feldman聲稱,其硬體運行AI模型的速度比輝達的系統快數倍,並向Meta、IBM、Mistral AI等客戶提供遠端計算服務。據外媒本周報導,OpenAI正在尋找輝達的AI推理晶片替代方案,包括Cerebras、AMD和Groq。儘管OpenAI對替代方案持保留態度,但輝達還是與包括Cerebras和Groq在內的幾家研發大量使用SRAM晶片的公司接洽,探討潛在的收購事宜。此後,輝達與初創公司Groq簽署了授權協議,並吸納了該公司的大量晶片人才。這進一步提振了業界對AI晶片企業的熱情。Cerebras拒絕了收購,並與OpenAI達成了一項商業協議,該協議已於今年1月聯合公佈。OpenAI將採用部署750兆瓦規模的Cerebras晶圓級系統,為OpenAI客戶提供服務。該基礎設施將從2026年開始分階段建設,預計“持續到2028年”,並由Cerebras託管,屆時將成為全球規模最大的高速AI推理部署項目。知情人士向外媒透露,該協議價值超過100億美元(約合人民幣694億元)。根據聲明,Cerebras和OpenAI自2017年以來一直在探索合作的可能性,Cerebras上的大語言模型能比基於GPU的系統快15倍地響應。Cerebras在1月發佈的部落格文章中寫道,過去6個月,4家AI領域重要公司斥巨資,力圖提升推理速度,但他們都沒有選擇當前在AI領域佔據主導地位的輝達硬體。Google雖是輝達最大的客戶之一,但自主研發了Ironwood TPU,其推理速度是輝達GPU的4倍。Anthropic也投入數百億美元用於Google的TPU基礎設施建設。輝達斥資200億美元收購了AI推理晶片公司Groq的智慧財產權和頂尖人才。OpenAI剛剛從Cerebras獲取了價值750兆瓦的計算資源。這些收購和投資標誌著硬體向更新、最先進的AI最佳化硬體設計過渡的開始。 (FDA365電子論壇)
OpenAI,“買”了一堆晶片
11 月,在輝達最新財報超出預期後,首席執行長黃仁勳向投資者吹噓了該公司在人工智慧領域的地位,並談到該領域最熱門的初創公司 OpenAI 時說:“OpenAI 目前所做的一切都是在輝達的平台上運行的。”雖然輝達在人工智慧晶片領域保持著主導地位,並且現在是世界上最有價值的公司,但競爭正在出現,OpenAI 正在盡一切努力實現多元化,同時推行其歷史上最激進的擴張計畫。周三,OpenAI宣佈與晶片製造商Cerebras達成一項價值100億美元的交易。Cerebras雖然是晶片領域的新興企業,但正積極尋求上市。這是OpenAI與眾多處理器製造商達成的一系列交易中的最新一筆,這些處理器對於建構大型語言模型和運行日益複雜的工作負載至關重要。去年,OpenAI向包括輝達、AMD以及博通在內的多家公司承諾了超過1.4兆美元的基礎設施建設交易。最終獲得了5000 億美元的私募市場估值。為了滿足市場對其人工智慧技術的預期需求,OpenAI 已向市場發出訊號:它需要儘可能多的處理能力。以下是 OpenAI 截至 1 月份簽署的主要晶片交易,以及未來值得關注的潛在合作夥伴。輝達早在 ChatGPT 發佈和生成式人工智慧熱潮開始之前,OpenAI 就已經開始建構大型語言模型,並一直依賴於輝達的圖形處理單元。2025年,雙方關係更進一步。繼2024年底對OpenAI進行投資後,輝達於9月宣佈將投入1000億美元支援OpenAI建構和部署至少10吉瓦的輝達系統。吉瓦是功率單位,根據CNBC對美國能源資訊署資料的分析,10吉瓦大約相當於800萬美國家庭的年用電量。黃仁勳在9月份曾表示,10吉瓦相當於400萬到500萬個GPU。“這是一個龐大的項目,”黃當時告訴CNBC。OpenAI 和輝達表示,該項目的第一階段預計將於今年下半年在輝達的 Vera Rubin 平台上上線。然而,在輝達 11 月的季度財報電話會議上,該公司表示“無法保證”與 OpenAI 的合作協議能夠從宣佈階段發展到正式合同階段。輝達的首筆 100 億美元投資將在第一個千兆瓦項目完成後投入使用,投資將按當時的估值進行,正如 CNBC此前報導的那樣。AMD10 月,OpenAI宣佈計畫在未來幾年和多代硬體上部署 6 吉瓦的 AMD GPU。作為交易的一部分,AMD向OpenAI授予了一份認股權證,可獲得至多1.6億股AMD普通股,約佔該公司10%的股份。該認股權證的歸屬設有與部署量和AMD股價掛鉤的里程碑。兩家公司表示,他們計畫在 2026 年下半年推出首批 1 千兆瓦晶片,並補充說,這筆交易價值數十億美元,但沒有透露具體金額。AMD 首席執行長 Lisa Su 在宣佈這一消息時告訴 CNBC:“我們需要這樣的合作夥伴關係,才能真正將整個生態系統凝聚在一起,確保我們能夠真正獲得最好的技術。”奧特曼在六月份就為這筆交易埋下了伏筆。當時,他與蘇姿丰一同出席了在加州聖何塞 舉行的AMD新品發佈會。他表示,OpenAI計畫使用AMD最新的晶片。博通當月晚些時候,OpenAI 和博通公司公開宣佈了一項醞釀了一年多的合作計畫。博通將其定製人工智慧晶片稱為XPU,迄今為止僅依靠少數客戶。但其潛在交易的儲備在華爾街引發了極大的熱情,使得博通的市值超過1.6兆美元。OpenAI表示,它正在設計自己的AI晶片和系統,這些晶片和系統將由博通公司開發和分銷。兩家公司已同意部署10吉瓦的定製AI加速器。在 10 月份發佈的新聞稿中,兩家公司表示,博通的目標是在今年下半年開始部署 AI 加速器和網路系統的機架,目標是在 2029 年底前完成該項目。但博通首席執行長 Hock Tan在 12 月份的公司季度收益電話會議上告訴投資者,他預計 2026 年與 OpenAI 的合作不會帶來太多收入。“我們明白這是一項將持續到2029年的多年計畫,”譚說道。“我稱之為一項協議,是我們前進方向的共識。”OpenAI 和博通公司均未披露交易的財務條款。Cerebras SystemsOpenAI 周三宣佈了一項協議,將部署 750 兆瓦的 Cerebras AI 晶片,這些晶片將在 2028 年前分批上線。據新聞稿稱,Cerebras公司生產的大型晶圓級晶片的響應速度比基於GPU的系統快15倍。該公司規模遠小於輝達、AMD和博通。OpenAI 與 Cerebras 達成的交易價值超過 100 億美元,對於正在考慮上市的晶片製造商 Cerebras 來說,這可能是一大利多。Cerebras 首席執行長 Andrew Feldman 在一份聲明中表示:“我們很高興與 OpenAI 合作,將世界領先的 AI 模型帶到世界上速度最快的 AI 處理器上。”Cerebras 急需重量級客戶。該公司在 10 月份宣佈完成超過 10 億美元的融資後幾天,便 撤回了首次公開募股 (IPO) 計畫。該公司一年前曾提交過 IPO 申請,但其招股說明書顯示,該公司嚴重依賴 其在阿聯的單一客戶—— 微軟支援的 G42,而 G42 本身也是 Cerebras 的投資者。潛在合作夥伴那麼亞馬遜,Google的處境又如何呢?還有英特爾,它們都有自己的人工智慧晶片產品?11月,OpenAI與亞馬遜網路服務公司簽署了一項價值380億美元的雲服務協議。OpenAI 將通過現有的 AWS 資料中心運行工作負載,但作為協議的一部分,這家雲服務提供商也計畫為這家初創公司建構額外的基礎設施。據 CNBC 此前報導,亞馬遜也在洽談可能向 OpenAI 投資超過100 億美元。據一位知情人士透露,OpenAI可能會決定在這些投資洽談中使用亞馬遜的AI晶片,但目前尚未有任何官方決定。這位知情人士要求匿名,因為洽談內容屬於保密資訊。AWS 於 2018 年發佈了 Inferentia 晶片,並於 2025 年底發佈了最新一代 Trainium 晶片。Google Cloud和博通去年悄然達成一項協議,為OpenAI提供計算能力。但OpenAI在6月份表示,它沒有計畫使用Google自主研發的張量處理單元(Tensor Processing Units)晶片,博通也參與了該晶片的生產。在傳統晶片製造商中,英特爾一直是人工智慧領域最落後的公司,這也解釋了為什麼該公司最近獲得了來自美國政府和輝達的巨額投資。路透社2024年援引知情人士的話報導稱,英特爾本有機會在幾年前就投資OpenAI,並有可能為這家當時羽翼未豐的初創公司生產硬體,從而使其擺脫對輝達的依賴。據路透社報導,英特爾最終決定放棄這筆交易。10月份,英特爾發佈了一款代號為“新月島”(Crescent Island)的新型資料中心GPU,並表示該GPU“旨在滿足日益增長的AI推理工作負載需求,並將提供高記憶體容量和高能效性能”。該公司稱,預計將於2026年下半年向客戶提供樣品。下周英特爾將拉開科技公司財報季的序幕,華爾街將聽到該公司最新人工智慧進展的最新消息。 (半導體行業觀察)
AI晶片公司,拿下OpenAI百億美元大單
據報導,OpenAI 已達成一項數十億美元的協議,將從初創公司 Cerebras Systems 購買計算能力。Cerebras Systems 由首席執行長Sam Altman支援。這是 ChatGPT 製造商 OpenAI 簽署的一系列晶片和雲交易中的最新一筆。OpenAI計畫使用Cerebras公司設計的晶片為其熱門聊天機器人提供動力,兩家公司周三宣佈了這一消息。OpenAI已承諾在未來三年內從Cerebras購買高達750兆瓦的計算能力。據知情人士透露,這筆交易價值超過100億美元。Cerebras公司設計的人工智慧晶片聲稱,其運行AI模型和生成響應的速度比行業領導者輝達更快。OpenAI首席執行長奧特曼是Cerebras的個人投資者,兩家公司曾在2017年探討過合作事宜。據OpenAI公告,Cerebras 建構專用人工智慧系統,旨在加速人工智慧模型的長時間輸出。其獨特的速度優勢源於將海量計算能力、記憶體和頻寬整合於單個巨型晶片上,從而消除了傳統硬體上導致推理速度下降的瓶頸。將 Cerebras 整合到我們的計算解決方案組合中,旨在顯著提升 AI 的響應速度。當您提出複雜問題、生成程式碼、建立圖像或運行 AI 代理時,後台會進行一個循環:您傳送請求,模型進行思考,然後返回結果。當 AI 能夠即時響應時,使用者可以利用它完成更多操作,停留更長時間,並運行更高價值的工作負載。我們將分階段把這種低延遲能力整合到我們的推理堆疊中,並擴展到各種工作負載。OpenAI的Sachin Katti表示:“OpenAI的計算戰略是建構一個彈性系統組合,將合適的系統與合適的工作負載相匹配。Cerebras為我們的平台增加了一個專用的低延遲推理解決方案。這意味著更快的響應速度、更自然的互動以及更強大的基礎,可以將即時AI擴展到更多的人群。”“我們很高興能與 OpenAI 合作,將世界領先的 AI 模型帶到世界上速度最快的 AI 處理器上。正如寬頻改變了網際網路一樣,即時推理也將改變 AI,從而實現建構 AI 模型和與 AI 模型互動的全新方式,”Cerebras 聯合創始人兼首席執行長 Andrew Feldman 表示。該產能將分批投入使用,直至 2028 年。和輝達談判的籌碼OpenAI正加緊獲取更多資料中心容量,為下一階段的增長做好準備。該公司每周使用者超過9億,高管們多次表示,他們正面臨嚴重的計算資源短缺問題。OpenAI也在尋找比輝達晶片更便宜、更高效的替代方案。去年,OpenAI宣佈正與博通合作開發定製晶片,並單獨簽署協議,使用AMD的新型MI450晶片。OpenAI 和 Cerebras 於去年秋季開始洽談合作事宜,並在感恩節前簽署了合作意向書,Cerebras 首席執行長Andrew Feldman在接受採訪時表示。費爾德曼在接受《華爾街日報》視訊採訪時展示了一系列演示,其中搭載 Cerebras 晶片的聊天機器人比使用競爭對手處理器的聊天機器人能更快地響應使用者。他表示,正是由於他的晶片能夠更快地處理人工智慧計算,才促使 OpenAI 與其達成合作協議。費爾德曼說:“目前推動市場的因素是‘對快速計算的非凡需求’。”OpenAI 基礎設施主管Sachin Katti表示,該公司在工程師反饋希望晶片能夠更快地運行 AI 應用(特別是用於編碼)後,開始考慮與 Cerebras 建立合作關係。“OpenAI收入的最大預測指標是計算能力,”Katti在一次採訪中表示。“過去兩年,我們的計算能力每年都增長了兩倍,收入也每年增長了兩倍。”據知情人士透露,Cerebras正在洽談以220億美元的估值融資10億美元,這將使其估值增長近三倍。此前,《The Information》曾報導過該公司的融資談判。據市場研究公司 PitchBook 的資料顯示,該公司已累計籌集 18 億美元資金,還不包括新籌集的資金,投資者包括 Benchmark、阿聯公司 G42、Fidelity Management & Research Co. 和 Atreides Management。專注於推理(即運行訓練好的 AI 模型來生成響應的過程)的晶片初創公司需求旺盛,因為 AI 公司競相獲取能夠提供快速、經濟高效的計算能力的尖端技術。輝達去年12月與Groq簽署了一項價值200億美元的授權協議,使其能夠使用這家初創公司開發的、同樣用於處理此類任務的晶片。今年9月,這家晶片巨頭還與OpenAI簽署了一項初步協議,擬向其出售價值高達10吉瓦的晶片,但該協議尚未最終敲定。Cerebras成立於大約十年前,近年來一直難以在半導體市場站穩腳跟。該公司在2024年提交上市申請時披露,其大部分收入來自一家客戶——總部位於阿布扎比的G42公司。Cerebras在次年撤回了上市計畫,轉而通過私募融資11億美元。該交易對公司的估值為81億美元。Feldman表示,Cerebras此後已與IBM和Meta簽署了新的合作協議。penAI正面臨投資者對其支付計算服務合同能力的日益擔憂。去年,該公司營收約為130億美元,僅佔其與Oracle、微軟和亞馬遜簽署的近6000億美元新雲合同的一小部分。OpenAI首席執行長奧特曼表示,公司將通過未來的營收增長來支付這些分階段履行的合同款項。根據奧特曼和埃隆·馬斯克(OpenAI聯合創始人)之間未決訴訟中公開的法庭檔案顯示,2017年,OpenAI曾討論與Cerebras建立合作關係。費爾德曼在採訪中表示,大約在同一時期,他拒絕了馬斯克收購ChatGPT開發商Cerebras的提議。據《華爾街日報》報導,OpenAI正處於新一輪大規模融資的早期階段,以繼續為其龐大的增長計畫提供資金。預計這筆新投資將在首次公開募股(IPO)之前完成,屆時OpenAI的估值(在新投資之前)可能達到8300億美元。 (半導體行業觀察)
OpenAI簽下近700億AI晶片巨單!
將成為全球最大的高速AI推理平台。百億美元AI晶片大單來了!智東西1月15日報導,今天,OpenAI與美國AI晶片獨角獸Cerebras聯合宣佈,將部署750兆瓦的Cerebras晶圓級系統,為OpenAI客戶提供服務。該合作將於2026年起分階段落地,並於2028年之前完成,建成後將成為全球規模最大的高速AI推理平台。另據《華爾街日報》援引知情人士消息稱,這筆交易價值超過100億美元,同時,Cerebras正在洽談以220億美元的估值融資10億美元,這將使其估值升至原有的近3倍。知情人士稱,Cerebras仍計畫推進IPO。值得注意的是,OpenAI聯合創始人兼CEO山姆·奧特曼(Sam Altman)同時也是Cerebras的個人投資者。Cerebras打造的晶片以“大”著稱,能在一塊晶片上塞入4兆顆電晶體。OpenAI認為,Cerebras晶片的速度來自於將龐大的計算量、記憶體和頻寬整合在一塊巨型晶片上,消除了傳統硬體推理速度下降的瓶頸。Cerebras上大模型的響應速度,是基於GPU的系統的15倍。OpenAI稱,將Cerebras整合進其計算解決方案組合,旨在進一步提升AI響應速度。當AI能夠實現即時響應時,使用者可以完成更多工,停留時間更長,並運行價值更高的工作負載。在公告中,Cerebras稱雙方的合作醞釀了十年之久。OpenAI和Cerebras幾乎同時創立,自2017年以來,雙方團隊頻繁會面,分享研究成果、早期工作,並堅信模型規模和硬體架構終將深度融合。根據奧特曼與馬斯克相關訴訟中公開的法庭檔案顯示,早在2017年,OpenAI就曾討論過與Cerebras建立合作關係的可能性。OpenAI一直在尋找比輝達晶片更便宜、更高效的替代方案。去年,OpenAI宣佈正與博通合作開發定製晶片,並單獨簽署協議,使用AMD的新型MI450晶片。Cerebras CEO Andrew Feldman在接受《華爾街日報》採訪時稱,OpenAI和Cerebras於去年秋季開始正式洽談合作事宜,並在感恩節前簽署了合作意向書。Feldman認為,目前推動市場的因素是“對快速計算的非凡需求”。OpenAI基礎設施負責人Sachin Katti稱,隨著工程師不斷反饋現有晶片在運行AI應用時速度仍有提升空間,尤其是在程式設計相關任務上,OpenAI開始認真評估並推動與Cerebras的合作。Katti在採訪中提到:“算力是衡量OpenAI收入潛力的最關鍵因素。過去兩年裡,我們的整體計算能力幾乎每年翻倍,收入增長也呈現出同樣的趨勢。”Cerebras成立於2016年,在2024年提交上市申請時披露,其大部分收入來自一家客戶——總部位於阿布扎比的G42公司。次年,Cerebras撤回了上市計畫,轉而通過私募融資11億美元,彼時Cerebras的投後估值為81億美元。Feldman稱,Cerebras此後已與IBM和Meta簽署了新的合作協議。市場研究公司PitchBook的資料顯示,該公司已累計融資18億美元,還不包括新籌集的資金。結語:大模型商用引爆推理需求,多元算力路線獲頭部玩家押注隨著大模型進入大規模商用階段,如何在更短時間內、以更低成本完成推理,正成為影響使用者體驗、應用上限乃至商業化能力的關鍵。雖然輝達GPU仍是當前AI算力生態的絕對主流,但包括晶圓級架構、定製ASIC在內的多元算力路線,正在被頭部模型廠商納入基礎設施佈局。 (智東西)
剛剛! AI,突發重磅!
AI領域,傳出多則大消息!日前,有外媒報導稱,貝萊德旗下GIP正在就收購Aligned資料中心進行深入談判,這筆交易的價值可能高達400億美元。另外,本周五,OpenAI推出的視頻社交應用Sora登頂蘋果美國「熱門免費應用」(Top Free Apps)榜單。同日,富士通宣佈與輝達擴大策略合作,共同打造全端AI基礎設施。富士通表示,此次合作將專注於共同開發和提供一個為醫療保健、製造業和機器人等行業特定AI代理量身定製的AI代理平台,以及一個通過輝達NVLink Fusion無縫整合富士通monaka CPU系列和輝達gpu的AI計算基礎設施。值得注意的是,AI晶片製造商Cerebras周五宣佈,將撤回首次公開發行(IPO)計劃。幾天前,該公司剛宣佈完成一輪超10億美元的融資。有業內人士指出,Cerebras剛完成大規模的融資,資金充足,此時推遲IPO不足為奇。超大規模收購據彭博社消息,知情人士透露,貝萊德旗下的全球基礎設施合作夥伴公司(GIP)正就收購Aligned資料中心進行深入談判。此次收購瞄準的是人工智慧(AI)領域支出的主要受益方。若達成,將成為今年規模最大的交易之一。報導稱,一位知情人士表示,由麥格理集團(Macquarie)支援的Aligned在此次交易中的估值可能約為400億美元。知情人士補充稱,協議或在數天內宣佈。GIP同時還在考慮其他大型收購,包括可能收購電力公司AES集團——該行業預計將受益於運行AI應用的設施所帶來的激增電力需求。 AES企業價值(含債務)約380億美元。知情人士稱,GIP尚未就收購Aligned資料中心達成最終協議,部分細節可能生變,談判仍可能以未達成交易告終。據官網資訊,總部位於德州普萊諾的Aligned業務遍及美國及南美,正在管理開發50個園區及78個資料中心。今年1月,該公司從麥格理資產管理等投資者獲得超120億美元的股權與債務融資。上個月,Aligned曾派代表參與川普政府官員召開的會議,商討加速AI及配套基礎設施發展事宜。若以400億美元成交,GIP收購Aligned的交易將躋身全球今年前五大併購案。該公司已與KKR集團共同持有達拉斯數據中心運營商CyrusOne,曾在2021年以約150億美元估值將其私有化。彭博社指出,這項醞釀中的收購標誌著ChatGPT面世以來又一起矚目交易。投資人正競相押注能引領產業與經濟變革的技術先鋒,紛紛湧入晶片巨頭輝達與SK海力士等基礎設施供應商,推高OpenAI、Anthropic等初創企業估值,並為AI繁榮所需的各類裝置供應商注入資本。不過,估值飆升已引發部分市場觀察家擔憂。他們指出,雖然資料中心支出和建設正在加速,但AI服務尚未成為主流,其收入還不足以支撐這一輪近乎空前的漲勢。新加坡政府投資集團首席投資官Bryan Yeo周五在米爾肯研究院亞洲峰會上表示:“若技術發展未能跟上市場定價所對應的高預期,我們將面臨泡沫風險。”貝萊德去年以約125億美元收購了GIP。今年以來,貝萊德股價累計上漲近15%,最新市值達約1,800億美元。OpenAI再造爆款本周五,在蘋果應用商店前三名免費應用中,OpenAI佔據兩席,其新推出的視頻生成應用Sora奪得了第一名。該榜單的前三名為Sora、GoogleGemini和ChatGPT。人工智慧初創公司OpenAI於周二推出了Sora,它允許用戶生成短格式的人工智慧視頻,重新混合其他用戶製作的視頻,並將其發佈到共享feed中。 Sora只能在iOS裝置上使用,並且是基於邀請的,這意味著使用者需要一個代碼才能存取它。儘管有這些限制,Sora仍然穩居榜首,領先Google的Gemini和OpenAI的生成式聊天機器人ChatGPT。OpenAI的Sora負責人Bill Peebles周五在X上的一篇帖子中寫道:“看到人類的集體創造力迄今為止所能做到的一切,真是史詩般的偉大。團隊正在快速迭代並聽取反饋。”據悉,Sora由OpenAI最新的視頻和音頻生成模型Sora 2提供支援。 OpenAI在一篇部落格文章中表示,該模型能夠創造出「高度逼真」的場景和聲音。該公司於2024年2月發布了首款視頻和音頻生成模型Sora。有分析認為,借助這款新應用,OpenAI也正在向打造社群媒體產品邁出最大一步。這讓公司與Meta等的競爭更為直接,在此過程中,OpenAI可能開啟新的廣告收入來源,同時提高技術的曝光度。不過,Sora生成影片的逼真程度也引發了一些擔憂,OpenAI表示,公司已採取措施應對App可能帶來的安全隱患,包括讓使用者能夠明確控制自身形像在平台上的使用方式。Cerebras撤回IPO項目當地時間周五,人工智慧晶片製造商Cerebras正式提交檔案,撤銷其在美國首次公開發行的計劃,該決定立即生效。這次撤銷IPO之際,美國IPO活動近月來正持續回暖——隨著投資者對AI相關股票熱情高漲,近期數據中心房地產投資信託基金Fermi等企業的上市獲得熱烈反響,扭轉了早前因貿易政策不確定性導致的低迷態勢。IPO研究機構IPOX執行長約瑟夫舒斯特表示:「考慮到Cerebras剛剛完成大規模融資,他們此時暫緩推進IPO並不令人意外。」本周二,Cerebras宣佈通過由富達管理與研究公司、Atreides Management牽頭的一輪融資中籌集了11億美元,對該公司的估值為81億美元。此輪融資新增了老虎環球、Valor Equity Partners以及1789資本等投資者。其中,1789資本是美國總統川普之子擔任合夥人的基金。在提交給美國證券交易委員會(SEC)的檔案中,Cerebras表示,目前不打算推進擬議的公開招股,但未說明具體原因。不過,Cerebras宣佈撤回IPO計畫時,美國政府停擺已進入第三天,包括美國證券交易委員會(SEC)在內的多個政府機構目前僅維持少量人員辦公。 Cerebras發言人透露,公司仍希望盡快實現上市。上述發言人強調,政府停擺並未對公司的決策產生影響。一年多前,Cerebras提交了IPO申請,當時該公司正加大投入以與輝達競爭,致力於研發可運行生成式人工智慧模型的處理器。檔案顯示,Cerebras嚴重依賴來自阿聯的單一客戶——由微軟支援的G42公司,而G42同時也是Cerebras的投資方之一。自最初提交納斯達克上市申請以來,Cerebras的業務重心已發生轉變:從銷售硬體系統,更多地轉向提供雲服務——用戶可通過該服務向搭載其晶片的模型提交查詢請求。Cerebras發言人周五透露,公司CEO費爾德曼認為去年提交的原始招股書已過時,尤其是考慮到人工智慧領域的最新發展動態。目前,資金雄厚的科技公司正迅速佈局額外基礎設施,以應對市場需求。本周二,透過雲端服務出租輝達晶片的CoreWeave公司宣佈,已與Meta達成一項價值142億美元的合作協議。 OpenAI上周也表示,已承諾投入3000億美元給甲骨文的雲端服務。 (券商中國)
晶圓級晶片,是未來
今天,大模型參數已經以“億”為單位狂飆。僅僅過了兩年,大模型所需要的計算能力就增加了1000倍,這遠遠超過了硬體迭代的速度。目前支援AI大模型的方案,主流是依靠GPU叢集。但單晶片GPU的瓶頸是很明顯的:第一,單晶片的物理尺寸限制了電晶體數量,即便採用先進製程工藝,算力提升也逐漸逼近摩爾定律的極限;第二,多晶片互聯時,資料在晶片間傳輸產生的延遲與頻寬損耗,導致整體性能無法隨晶片數量線性增長。這就是為什麼,面對GPT-4、文心一言這類兆參數模型,即使堆疊數千塊輝達 H100,依然逃不過 “算力不夠、電費爆表” 的尷尬。目前,業內在AI訓練硬體分為了兩大陣營:採用晶圓級整合技術的專用加速器(如Cerebras WSE-3和Tesla Dojo)和基於傳統架構的GPU叢集(如輝達 H100)。晶圓級晶片被認為是未來的突破口。01晶圓級晶片,兩大玩家在常規的晶片生產流程中,一個晶圓會在光刻後被切割成許多小裸片(Die)並且進行單獨封裝,每片裸片在單獨封裝後成為一顆完整的晶片。晶片算力的提升方式,是依靠增加晶片面積,所以晶片廠商都在不斷努力增加晶片面積。目前算力晶片的單Die尺寸大約是26x33=858mm2,也就是接近曝光窗大小,但是晶片的最大尺寸無法突破曝光窗的大小。曝光窗大小多年來一直維持不變,成為了制約晶片算力增長的原因之一。晶圓級晶片則提供了另一種思路。通過製造一塊不進行切割的晶圓級互連基板,再將設計好的常規裸片在晶圓基板上進行整合與封裝,從而獲得一整塊巨大的晶片。未經過切割的晶圓上的電路單元與金屬互連排列更緊密,從而形成頻寬更高、延時更短的互連結構,相當於通過高性能互連與高密度整合建構了更大的算力節點。所以,相同算力下,由晶圓級晶片建構的算力叢集佔地面積對比GPU 叢集能夠縮小 10-20 倍以上,功耗可降低 30% 以上。全球有兩家公司已經開發出了晶圓級晶片的產品。一家是Cerebras。這家企業從2015年成立,自2019年推出了WES-1,之後經過不斷迭代,目前已經推出到第三代晶圓級晶片——WES-3。WES-3採用台積電5nm工藝,電晶體數量達到誇張的4兆個,AI核心數量增加到90萬個,快取容量達到了44GB,可以支援高達 1.2PB 的片外記憶體。WES-3的能力可以訓練比GPT-4和Gemini大10倍的下一代前沿大模型。四顆並聯情況下,一天內即可完成700億參數的調教,支援最多2048路互連,一天便可完成Llama 700億參數的訓練。這些都是整合在一塊215mm×215mm=46,225mm2的晶圓上。如果這個對比還不夠明顯,那可以這麼看:對比輝達H100,WES-3的片上記憶體容量是 H100的880倍、單晶片記憶體頻寬是H100的7000倍、核心數量是H100的52倍,片上互連頻寬速度是H100的3715倍。另一家是特斯拉。特斯拉的晶圓級晶片被命名為Dojo。這是馬斯克在2021年就開始的嘗試。特斯拉Dojo的技術路線和Cerebras不一樣。是通過採用Chiplet路線,在晶圓尺寸的基板上整合了 25 顆專有的 D1 芯粒(裸Die)。D1芯粒在645平方毫米的晶片上放置了500億個電晶體,單個芯粒可以提供362 TFlops BF16/CFP8的計算能力。合起來的單個Dojo擁有9Petaflops的算力,以及每秒36TB的頻寬。特斯拉的Dojo系統專門針對全自動駕駛(FSD)模型的訓練需求而定製。思路是從25個D1芯粒→1個訓練瓦(Training Tile)→6個訓練瓦組成1個托盤→2個托盤組成1個機櫃→10個機櫃組成1套ExaPOD超算系統,能夠提供1.1EFlops的計算性能。02晶圓級晶片與GPU對比既然單晶片GPU和晶圓級晶片走出了兩條岔路,在這裡我們以Cerebras WSE-3、Dojo 和輝達 H100為例,對比一下兩種晶片架構對算力極限的不同探索。一般來說AI 訓練晶片 GPU 硬體的性能通過幾個關鍵指標進行評估:每秒浮點運算次數(FLOPS) ,表明GPU 在深度學習中必不可少的矩陣密集型運算中的原始計算能力的強弱。記憶體頻寬,決定了訪問和處理資料的速度,直接影響訓練效率。延遲和吞吐量,能夠評估GPU處理巨量資料負載和模型平行性的效率,從而影響即時性能。算力性能Cerebras WSE-3 憑藉單片架構,在 AI 模型訓練中展現獨特潛力。一般來講,每秒浮點運算次數(FLOPS) 能夠表明GPU 在深度學習中必不可少的矩陣密集型運算中的原始計算能力。WSE-3 的 FP16 訓練峰值性能達到 125 PFLOPS,支援訓練高達 24 兆參數的 AI 模型,且無需進行模型分區處理。這個功能就特別適合以精簡高效的方式處理超大模型。與依賴分層記憶體架構(可能造成處理瓶頸)的傳統 GPU 不同,WSE 的設計使850 個核心可獨立運行,並直接訪問本地記憶體,這樣就有效提升了計算吞吐量。在這方面,輝達H100採用的是模組化和分佈式方法。單個 H100 GPU 可為高性能計算提供 60 TFLOPS FP64 計算能力,八個互連的 H100 GPU 組成的系統,可實現超 1 ExaFLOP 的 FP8 AI 性能。但分佈式架構就存在資料傳輸問題,雖然NVLink 和 HBM3 記憶體能降低延遲,但在訓練超大型模型時,GPU 間通訊仍會影響訓練速度。在AI訓練的表現中,Cerebras WSE-3會更加擅長處理超大型模型。2048個WSE-3系統組成的叢集,訓練Meta的700億參數Llama 2 LLM僅需1天,相比Meta原有的AI訓練叢集,速度提升達30倍。延遲與吞吐量從資料傳輸來看,WSE-3 的單片架構避免了多晶片間的資料傳輸,顯著降低延遲,支援大規模平行計算和核心間低延遲通訊。速度快是單片的優勢,與傳統GPU 叢集相比,WSE-3 可將軟體複雜度降低高達 90%,同時將即時 GenAI 推理的延遲降低 10倍以上。特斯拉Dojo Training Tile屬於晶圓級整合,當然也能夠大幅降低通訊開銷。由於是從Die到Die之間傳遞,在跨區塊擴展時仍會產生一定延遲。目前,Dojo 能實現 100 納秒的晶片間延遲,並且針對自動駕駛訓練最佳化了吞吐量,可同時處理 100 萬個每秒 36 幀的視訊流。輝達H100基於 Hopper 架構,是目前最強大的AI訓練GPU之一,配備18,432個CUDA 核心和640個張量核心,並通過NVLink和NVSwitch系統實現GPU間高速通訊。高速通訊。雖然多 GPU 架構具備良好擴展性,但資料傳輸會帶來延遲問題,即便NVLink 4.0 提供每個GPU 900 GB/s的雙向頻寬,延遲仍高於晶圓級系統。儘管能夠憑藉著架構特性實現單晶圓工作負載的低延遲和高吞吐量,但晶圓級系統如WSE-3 和 Dojo面臨著可擴展性有限、製造成本高和通用工作負載靈活性不足的問題。誰更划算?從硬體購置成本來看,不同晶片的價格因架構和應用場景而異。據報導,特斯拉單台Tesla Dojo 超級電腦的具體成本估計在3 億至 5 億美元之間。技術路線上,Dojo採用的是成熟晶圓工藝再加上先進封裝(採用了台積電的Info_SoW技術整合),去實現晶圓級的計算能力,能夠避免挑戰工藝極限。這既能保證較高的良品率,又便於實現系統的規模化生產,芯粒的更新迭代也更為輕鬆。Cerebras WSE 系統則因先進的製造工藝與複雜設計,面臨較高的初期研發和生產成本。據報導,Cerebras WSE-2 的每個系統成本在 200 萬至 300 萬美元之間。相比之下,輝達單GPU的採購成本比較低。以輝達A100來說,40GB PCIe型號價格約 8,000 - 10,000美元,80GB SXM型號價格在18,000 - 20,000美元。這使得許多企業在搭建 AI 計算基礎設施初期,更傾向於選擇輝達GPU。不過,輝達GPU在長期使用中存在能耗高、多晶片協作性能瓶頸等問題,會導致營運成本不斷增加。總體來看,雖然WSE-2能為超大規模AI模型提供超高計算密度,但對於需要在大型資料中心和雲服務中部署多GPU可擴展方案的機構,A100的成本優勢更為明顯。03結語常規形態下,叢集算力節點越多,則叢集規模越大,花費在通訊上的開銷就越大,叢集的效率就越低。這就是為什麼,輝達NVL72 通過提升叢集內的節點整合密度(即提高算力密度)。在一個機架中整合了遠超常規機架的 GPU 數量,使得叢集的尺寸規模得到控制,效率才能實現進一步提升。這是輝達權衡了良率和成本之後給出的解決方案。但是如果輝達繼續按照這種計算形態走下去,想要進一步提升算力密度,就會走到晶圓級晶片的路上。畢竟,晶圓級晶片的形態是目前為止算力節點整合密度最高的一種形態。晶圓級晶片,潛力無限。 (半導體產業縱橫)