#資料中心GPU
【CES 2026】首款HBM4 GPU,全面投產
輝達周一表示,其下一代 Rubin AI 晶片已“全面投產”,並將於 2026 年下半年上市。同時,該公司還公佈了備受期待的 Blackwell 系列繼任者的更多細節。“我們必須每年都推進計算技術的進步,一年也不能落後,” 輝達首席執行長黃仁勳在 CES 2026 電子貿易展期間的主題演講中表示。魯賓發表此番言論之際,人們越來越擔心會出現“人工智慧泡沫”,因為人們越來越質疑大規模人工智慧基礎設施建設還能持續多久。這家晶片巨頭通常會在加州聖何塞舉行的 GTC 開發者大會上公佈其人工智慧晶片的最新進展,今年的 GTC 大會將於 3 月 16 日至 19 日舉行。輝達在2025年3月的GTC大會上預覽了Vera CPU和Rubin GPU,並表示Vera-Rubin晶片組將比其前代產品Grace-Blackwell提供更出色的AI訓練和推理性能。推理是指使用訓練好的AI模型來生成內容或執行任務。在周一的發佈會上,黃仁勳公佈了Rubin系列產品的更多細節。Rubin GPU的推理計算性能是Blackwell的五倍,訓練計算性能是Blackwell的3.5倍。與Blackwell相比,新一代晶片還能降低訓練和推理成本,推理令牌成本最多可降低10倍。Rubin 架構包含 3360 億個電晶體,在處理 NVFP4 資料時可提供 50 petaflops 的性能。相比之下,Nvidia 上一代 GPU 架構 Blackwell 的性能最高為 10 petaflops。同時,Rubin 的訓練速度提升了 250%,達到 35 petaflops。晶片的部分計算能力由一個名為 Transformer Engine 的模組提供,該模組也隨 Blackwell 一起發佈。據輝達稱,魯賓的 Transformer Engine 基於一種更新的設計,並具有一項名為硬體加速自適應壓縮的性能提升功能。壓縮檔案可以減少其包含的位元數,從而減少 AI 模型需要處理的資料量,進而加快處理速度。輝達首席執行長黃仁勳表示:“Rubin 的問世恰逢其時,因為人工智慧的訓練和推理計算需求正呈爆炸式增長。憑藉我們每年推出新一代人工智慧超級電腦的節奏,以及六款全新晶片的深度協同設計,Rubin 的推出標誌著我們向人工智慧的下一個前沿領域邁出了巨大的一步。”據輝達稱,Rubin 還將成為首款整合 HBM4 記憶體晶片的 GPU,其資料傳輸速度高達每秒 22 TB,比 Blackwell 有了顯著提升。該公司表示,Rubin 系列晶片已經“全面投產”,並將於今年下半年提高產量。微軟 Azure 和輝達支援的雲服務提供商 CoreWeave 將成為首批在 2026 年下半年提供由 Rubin 提供支援的雲端運算服務的公司之一。在周日的一次媒體簡報會上,輝達高級總監迪翁·哈里斯表示,提前推出 Rubin 產品是因為這些晶片“在展示實際準備情況方面達到了一些非常關鍵的里程碑”,並補充說,該公司正在努力使生態系統做好準備,以採用 Vera-Rubin 架構。“鑑於我們目前的準備情況,以及市場對 Vera-Rubin 的熱情,我們認為這是一個絕佳的機會,可以在 CES 上推出這款產品,”哈里斯說。然而,比預期更早發佈的 Rubin 一代晶片並未給市場留下深刻印象,輝達股價在周一盤後交易中下跌 0.13%,此前收於 188.12 美元。黃仁勳身著一件閃亮的黑色皮夾克,這是他標誌性皮夾克的改良版,在拉斯維加斯BleauLive劇院向3000名座無虛席的聽眾發表了主題演講 。現場氣氛熱烈——這位CEO一出場就受到了歡呼、掌聲和觀眾用手機拍照的熱烈歡迎——這充分證明了這家公司如彗星般迅速崛起,如今它已被視為人工智慧時代最重要的風向標。首席執行長此前表示,即使沒有中國或其他亞洲市場,該公司預計到 2026 年,其最先進的 Blackwell AI 晶片和 Rubin 的“早期產能提升”也將帶來5000 億美元的收入。與此同時,黃仁勳認為人工智慧的未來將主要體現在物理世界中。在CES 2026正式開幕前一天,也就是周一的場外活動中,輝達宣佈與多家製造商、機器人製造商和領先的汽車製造商達成合作,其中包括比亞迪、LG電子和波士頓動力公司。黃仁勳表示:“機器人領域的 ChatGPT 時刻已經到來。物理人工智慧的突破——能夠理解現實世界、推理和規劃行動的模型——正在解鎖全新的應用。”他指的是開啟生成式人工智慧熱潮的聊天機器人 ChatGPT。輝達發佈Vera Rubin NVL72人工智慧超級電腦在2026年國際消費電子展(CES)上,人工智慧無處不在,而輝達GPU則是不斷擴展的人工智慧領域的核心。今天,在CES主題演講中,輝達首席執行長黃仁勳分享了公司將如何繼續引領人工智慧革命的計畫,因為這項技術的應用範圍將遠遠超出聊天機器人,擴展到機器人、自動駕駛汽車以及更廣泛的物理世界。首先,黃仁勳正式發佈了輝達下一代AI資料中心機架級架構Vera Rubin。Rubin是輝達所謂的“極致協同設計”的成果,它由六種晶片組成:Vera CPU、Rubin GPU、NVLink 6交換機、ConnectX-9 SuperNIC、BlueField-4資料處理單元和Spectrum-6乙太網路交換機。這些元件共同構成了Vera Rubin NVL72機架。對人工智慧計算的需求永無止境,而每款 Rubin GPU 都承諾為這一代產品提供更強大的計算能力:NVFP4 資料類型的推理性能高達 50 PFLOPS,是 Blackwell GB200 的 5 倍;NVFP4 訓練性能高達 35 PFLOPS,是 Blackwell 的 3.5 倍。為了滿足如此龐大的計算資源需求,每款 Rubin GPU 都配備了 8 個 HBM4 視訊記憶體堆疊,提供 288GB 的容量和 22 TB/s 的頻寬。每個GPU的計算能力只是人工智慧資料中心的一個組成部分。隨著領先的大型語言模型從啟動所有參數以生成給定輸出詞元的密集架構,轉向每個詞元僅啟動部分可用參數的專家混合(MoE)架構,這些模型的擴展效率得以相對提高。然而,模型內部專家之間的通訊需要大量的節點間頻寬。Vera Rubin推出用於縱向擴展網路的NVLink 6,將每個GPU的交換矩陣頻寬提升至3.6 TB/s(雙向)。每個NVLink 6交換機擁有28 TB/s的頻寬,每個Vera Rubin NVL72機架配備9個這樣的交換機,總縱向擴展頻寬可達260 TB/s。Nvidia Vera CPU 採用 88 個定製的 Olympus Arm 核心,並配備 Nvidia 所謂的“空間多線程”技術,可同時運行多達 176 個線程。用於將 Vera CPU 與 Rubin GPU 連接起來的 NVLink C2C 互連頻寬翻倍,達到 1.8 TB/s。每個 Vera CPU 可定址高達 1.5 TB 的 SOCAMM LPDDR5X 記憶體,記憶體頻寬高達 1.2 TB/s。為了將 Vera Rubin NVL72 機架擴展為每個包含八個機架的 DGX SuperPod,Nvidia 推出了兩款採用 Spectrum-6 晶片的 Spectrum-X 乙太網路交換機,這兩款交換機均整合了光模組。每顆 Spectrum-6 晶片可提供 102.4 Tb/s 的頻寬,Nvidia 將其應用於兩款交換機中。更多產品同步發佈NVIDIA正式發佈了面向AI資料中心的新型CPU“Vera”和GPU“Rubin”。雖然此前已有相關計畫公佈,但首席執行長黃仁勳於1月5日在拉斯維加斯的主題演講中正式揭曉了這些產品。此外,該公司還發佈了高速網路產品,例如 NVLink 6 交換機(允許使用 Vera 和 Rubin 在機架內進行擴展)、ConnectX-9 SuperNIC、BlueField-4 DPU 和 Spectrum-6 乙太網路交換機(允許在資料中心內擴展此類機架)。Rubin是當前一代GPU“Blackwell”(NVIDIA B300/B200/B100)的繼任者,採用了全新的GPU架構和HBM4視訊記憶體。根據NVFP4的計算,Blackwell的AI推理和訓練性能為10 PFLOPS,而Rubin的推理性能達到50 PFLOPS,速度提升了5倍;訓練性能達到35 PFLOPS,速度提升了3.5倍。NVIDIA 正式宣佈 Vera 是一款採用 Arm 架構的 CPU,配備 88 個 NVIDIA 定製設計的 Olympus 核心;Rubin 是一款面向 AI 資料中心的 GPU,將成為當前 Blackwell (B300/B200/B100) 產品的繼任者。這款以美國著名科學家庫珀·魯賓 (Cooper Rubin) 命名的 Rubin GPU,採用 Rubin 架構,相比 Blackwell 架構,能夠實現更高效的 AI 計算。它還配備了全新的 HBM4 記憶體技術、第六代 NVLink、機密計算功能和 RAS 引擎,從而提升了平台級的性能和安全性。通過這些改進,在使用 NVIDIA 的高級推理模型和實現智能體 AI 的 MoE(專家混合)模型時,推理的每個令牌成本最多可以降低十分之一,訓練的每個令牌成本最多可以降低四分之一。與上一代 Blackwell(可能是 GB200 中搭載的 B200)相比,Rubin 的 NVFP4 推理性能提升至 50 PFLOPS,性能提升 5 倍;訓練性能提升至 35 PFLOPS,性能提升 3.5 倍(Blackwell 的這兩項均為 10 PFLOPS)。HBM4 的記憶體頻寬為 22 TB/s,是 Blackwell 的 2.8 倍;每個 GPU 的 NVLink 頻寬為 3.6 TB/s,性能提升兩倍。另一方面,Vera 是一款搭載 88 個 NVIDIA 定製設計的 Olympus 核心的 Arm CPU。它支援 NVIDIA 的專有虛擬多線程 (SMT) 技術“NVIDIA Spatial Multi-threading”,啟用後可作為 176 線程 CPU 使用。它可配備 1.5TB 的 LPDDR5X 記憶體(容量是上一代 Grace 的三倍),基於資料中心記憶體模組標準“SOCAMM”,記憶體頻寬為 1.2TB/s。與 Blackwell 系列一樣,Vera Rubin 每個模組將包含一個 Vera 處理器和兩個 Rubin 處理器。此外,還將推出 Vera Rubin NVL72,這是一款可擴展解決方案,可將 36 個 Vera Rubin 處理器整合到單個機架中。Vera Rubin NVL72 配備了支援第六代 NVLink 協議的 NVLink 6 交換機,單個機架可容納 36 個 Vera CPU 和 72 個 Rubin GPU。此外,NVIDIA 還計畫推出“HGX Rubin NVL8”,這是一款面向 OEM 廠商的設計,將八個 Rubin 模組整合在一台伺服器中;以及“DGX Rubin NVL8”,這是一款專為 x86 處理器設計的伺服器。客戶可以選擇將 Rubin 與 NVIDIA 的 Arm CPU 或 x86 CPU 搭配使用。同時,NVIDIA 還發佈了用於橫向擴展的高速網路新產品,包括 ConnectX-9 SuperNIC、BlueField-4 DPU 和 Spectrum-6 乙太網路交換機。這些產品可以與前文提到的 Vera Rubin NVL72 和 HGX Rubin NVL8 配合使用,實現橫向擴展。該公司還發佈了“DGX SuperPOD with DGX Vera Rubin NVL72”,這是一款由八塊 Vera Rubin NVL72 GPU 組成的擴展型超級電腦,可作為人工智慧超級電腦的參考設計。通過利用 CUDA 等軟體解決方案,一台超級電腦即可使用 256 個 Vera CPU 和 512 個 Rubin GPU。據該公司稱,Vera 和 Rubin 計畫於 2026 年下半年發佈,並將通過四大雲服務提供商(AWS、Google雲、微軟 Azure 和 Oracle 雲基礎設施)以及戴爾科技、HPE、聯想和超微等原始裝置製造商 (OEM) 提供。該公司解釋說,OpenAI、Anthropic 和 Meta 等人工智慧模型開發公司已經宣佈了他們的採用計畫。輝達五年來首次“缺席”CES展會整個行業正陷入零部件短缺的困境,輝達剛剛在X平台上宣佈,其2026年CES主題演講將“不會發佈任何新的GPU”,這無疑給新PC組裝商們僅存的一點希望潑了一盆冷水。這打破了輝達連續五年在CES上發佈新款GPU(無論是桌面級還是移動級)的慣例;這一次,將不會有任何新的硬體產品問世。此次發佈會的大部分內容可能都會聚焦於人工智慧領域的最新進展。自2021年以來,微軟每年都會在CES上展示其最新的晶片產品。最近,RTX 50系列顯示卡在拉斯維加斯標誌性的CES展廳首次亮相,並且一直有傳言稱RTX 50 Super系列顯示卡也將在CES 2026上發佈。雖然官方從未正式確認,但DRAM短缺可能導致了此次發佈計畫的擱淺。否則,輝達本可以在CES 2024上發佈RTX 40 Super系列顯示卡,而這距離首款Ada Lovelace顯示卡發佈僅一年之隔。此外,該公司最新的Blackwell GPU採用的是GDDR7視訊記憶體,而GDDR7視訊記憶體的生產難度更高。情況已經惡化到如此地步,甚至有傳言稱輝達將重啟RTX 3060的生產,因為該顯示卡採用的是GDDR6視訊記憶體,並且採用的是三星較老的8nm工藝製造。記憶體供應是問題的關鍵所在。如果背後的工廠完全癱瘓,輝達就無法發佈新的GPU。全球只有三家公司——美光、SK海力士和三星——能夠生產尖端DRAM,而且它們都樂於將產品賣給AI客戶以獲取更高的利潤。對通用人工智慧(AGI)的渴求促使像OpenAI這樣的公司制定了突破性的計算目標,這些目標遠遠超出了我們現有供應鏈的承載能力。有些人可能會疑惑,為什麼政府不介入幫助消費者?監管市場難道不是他們的職責嗎?不幸的是,地緣政治因素使情況更加複雜,因為前沿人工智慧代表著另一場軍備競賽,而華盛頓希望保持對中國的領先優勢。歸根結底,不會有救星出現。就像2014年的記憶體危機和過去十年間各種GPU短缺一樣,我們只能等到人工智慧熱潮停滯不前才能迎來轉機。目前,輝達顯示卡的價格尚未上漲,所以這或許是我們重返黃牛倒賣時代的最後時刻。不過,社區裡有些人,比如藍寶石的公關經理,仍然抱有希望,相信這場風暴最終能夠過去。 (半導體行業觀察)
輝達的三重護城河
輝達的創始人兼CEO老黃,雖然60多歲了,但看著他最近一系列的密集運作,體力真是令我欽佩。前不久,輝達50億美金投資了Intel,佔股大概有個4%,實現了這對世紀冤家的“歡喜大結盟”。而就在昨天,輝達宣佈“霸凌式投資”OpenAI 1000億美金:現階段一分不給。等到OpenAI用輝達的卡每建成1GW的資料中心後,才打款十分之一,也就是100億,而為了這1GW的資料中心,OpenAI要花500-600億,其中300-350億要給輝達。而OpenAI此前還和甲骨文簽了5年3000億美金的雲服務合同,為了提供這個服務,甲骨文還得去買輝達的卡。而甲骨文自己手頭根本沒有那麼多錢,甲骨文客戶給它的錢都屬於還沒付的應收帳款,它自己必須去融資或者發債,才能”賣腎買卡”。最後,今天阿里宣佈了和輝達的一系列合作,Physical AI之類的概念一大堆,其實開發者由此可以在阿里雲上使用輝達的軟體棧,但在我看來,其關鍵在於,市場似乎認為輝達找到了在無法直接賣卡給中國公司的困局下,依然和中國公司保持緊密合作的妥協方案,這對它的“護城河”尤為關鍵。今天這篇文章,是Ben Thompson最近連續幾篇關於輝達文章的合集,我把不相關的內容去掉了,最後是Sam Altman今天凌晨發表的一篇小部落格的譯文,他解釋了下為何OpenAI最近會瘋狂買算力(也就是為什麼老黃最近會春風得意),我給合成一篇發表了(有些敏感詞我用同義詞替代了)。【正文開始】今年二季度,輝達的當季營業額達到了467億美元,基本符合分析師預期。但是,關鍵的資料中心部門data-center segment(就是賣晶片的部門)的營收,增長了56%,但仍然略低於分析師預期的413億美元。輝達預測,第三財季營收為540億美元,略高於華爾街分析師的一致預期。但是,在連續多個業績大增的季度之後,這一營收增速被認為不過如此,並引發了人們對於AI晶片需求增長可能已趨於瓶頸期的擔憂。當時在財報發佈後,輝達股價三連跌。但是,我認為,分析輝達財報最重要的是看“供需平衡”。一年半前,我就指出過這一點,現在仍然如此:只要市場上對輝達GPU的需求超過供應,輝達的銷售額就取決於他們能生產出多少 GPU。供應當然在增加,這也正是輝達銷售額能持續攀升的原因,但是,假設供應只是線性增長,那麼到頭來,隨著基數變得越來越大,因為輝達此前的營收本身已實現指數級增長,輝達的增長率這個數字就勢必會變小了。從一個有趣的角度來看待輝達和中國,以及黃仁勳極力想向該國出售產品的原因,就是輝達“護城河moat”的本質。黃仁勳在回答一個關於 ASIC 的提問時說道:“我們先談談 ASIC,很多項目都起步了,許多初創公司湧現,但真正能打造產品的少之又少。原因很簡單,這事兒太難了。加速計算accelerated computing,不同於通用計算general-purpose computing,你不能只是寫個軟體,然後編譯成可在處理器上運行的程式碼。加速計算,涉及全端的協同設計full-stack co-design。而過去幾年裡,AI 工廠變得愈發複雜,因為問題規模激增。這真的是當今世界上最終極、最極端的電腦科學問題,所以全端都很複雜。模型在飛速演進,從基於自回歸的生成模型,到基於擴散的生成模型,再到混合模型和多模態模型。湧現出的不同模型,實在太多,要麼是 Transformer 的衍生模型,要麼是 Transformer 的衍化模型,數量之龐大令人望而生畏。”“而輝達的一個優勢,就是輝達無處不在。所有雲,都有我們的存在,每家電腦公司,都在用我們。從雲端、到本地、再到邊緣乃至機器人領域,我們都採用同一個程式設計模型。因此全球每種框架都支援輝達。當你建構新的模型架構時,在輝達上發佈是最明智的選擇。我們的平台具有多樣性,既能適應任何架構演進,又遍佈各處,並且我們加速了整個流程,從資料處理、預訓練、到帶有強化學習的後訓練,一直到推理。所以,當你用輝達平台建構資料中心時,其效用是最好的,裝置壽命也長得多。”上述回答,其實已經體現了護城河的兩個層面。第一,就是 CUDA本身,輝達控制了GPU的軟體棧,這是默認選項,然後是CUDA 的普及度,由於CUDA 無處不在,這意味著你可以前往任何雲廠商,也可以找到熟悉 CUDA 的開發者。黃仁勳還說:“再補充一點,除了剛才說的這些,這本質上已經成了一個極其複雜的系統級問題。大家總是談論晶片本身,許多人談論的 ASIC 就只有一個,也就是 GPU。但為了打造 Blackwell 平台和 Rubin 平台,我們還得打造 CPU 來連接高速記憶體,為 Agentic AI 提供所需的大容量、超高能效快取,以此連接到 GPU,再連接到超級 NIC,再連接到縱向擴展交換機,也即NVLink,如今已發展到第五代,然後再連接到橫向擴展交換機,無論是 Quantum 還是 Spectrum-X 乙太網路,再進一步橫跨交換機擴展,以便我們為那些擁有數吉瓦計算能力、互聯成網的 AI 超級工廠做好準備。我們稱之為 Spectrum-XGS。所以,我們所做的一切複雜得難以置信,而且,現在這一切都是在極其龐大的規模下完成的。”這就是護城河的第二部分:網路networking。我一直在討論輝達的GPU,但實際上,GPU是在系統層面協同工作的,尤其在訓練方面。而輝達將多顆 GPU,聯結為單一協調系統的能力,無人能及。這也成了一個重大的收入驅動力:本季度,2025年Q2,輝達的網路業務收入達到73億美元,已經超過了其2019年收購 Mellanox 時支付的價錢,而Mellanox 正是其網路產品的基礎。這筆收購,堪稱史上最成功的收購之一。“最後再說一點:我們之所以能進入所有雲平台是有原因的,我們是最節能的,我們的每瓦性能performance per watt,是任何計算平台中最好的。而在電力受限的資料中心,每瓦性能,直接驅動營收。各位也聽我說過,在很多情況下,你買得越多,增長越快the more you buy, the more you grow。再加上我們的每美元性能performance per dollar,也就是性價比實在驚人,因此我們的利潤率也極高。所以,採用輝達 架構所帶來的增長機會和毛利空間絕對是最優的。所以每家雲服務商、每家初創公司、每家電腦公司都選擇輝達 ,我們真正提供的是 AI 工廠的一體化全端解決方案。”上述最後一點,也即第三點,我認為或許是輝達在西方世界(注意是在西方)長期護城河中最關鍵的組成部分。如果,AI公司最終受到功耗限制,那麼他們就必須最大化每瓦性能,只要輝達還在這一指標上保持領先,他們高昂的價格,就物有所值。(關於AI大模型的性能雖然越來越強,但消耗的tokens卻越來越多,可見這篇:Token的成本下降10倍,但大模型公司卻離盈利越來越遠AI 公司們如今陷入了一種囚徒困境:他們都必須提高模型性能,以領先競爭對手,但他們提高性能的方式,實際上摧毀了自身的盈利能力,與此同時,輝達則扮演著那個收稅人的角色:AI 公司虧得越多,輝達賺得就越多。)然而,在中國,功耗很可能不會是限制因素,因此,輝達的護城河將更多地依賴CUDA,而這一切的前提,是中國公司的大模型,的確使用輝達的晶片來進行訓練和推理。讓中國公司使用輝達的晶片,其實確保了美國對主流 AI 軟體棧的主導地位,但是反過來,如果中國公司不用輝達晶片,其實不僅削弱了美國的控制力,而且對輝達而言,將長期威脅其在世界各地的銷售。原因事關整體競爭格局,一旦由中國推出了開源CUDA 的替代方案,且形成規模,不僅中國市場,全球市場上的輝達晶片,都將面臨競爭。黃仁勳其實以一直依賴都在擔憂,中國肯定是未來 AI 晶片最重要的市場之一,然而,即便不受到限制,可以自由銷售,輝達在該市場也沒有可持續存在的差異化優勢。關於不久前,輝達投資英特爾50億的案子,Ben Thomson認為這筆交易的最大輸家,並非台積電,而是AMD:“一直以來,AMD區別於Intel之處,在於它不僅在x86 CPU領域展開競爭,還在GPU領域有所佈局,這得益於其2006年收購了當時輝達最大的競爭對手:ATI。但不幸的是,AMD的軟體實力向來不足,它既沒有建立起像輝達那樣的AI軟體棧,也不具備輝達的網路能力。這意味著,同時擁有CPU和GPU業務,並未給AMD帶來原本可能擁有的優勢。如今,對於那些想要輝達GPU又需要x86 CPU的公司來說,Intel將成為顯而易見的首選,而且這些Intel CPU還將擁有AMD所沒有的另一項專有技術:比如Thunderbolt。不過,需要指出的是,這種損失對AMD而言,更多隻是錯失良機。AMD在只看重性能和總體擁有成本(Total Cost of Ownership)的領域,依然表現強勁,而且這一勢頭應會持續下去。實際上,你也可以說這筆交易在相當程度上延長了x86架構的生命力,而這歸根結底對AMD也是有利的。”附:Sam Altman最新Blog《豐裕的智能Abundant Intelligence》AI 服務的使用增長,令人驚嘆,但我們預期未來會更加令人驚嘆。隨著 AI 變得更聰明,獲取 AI 將成為經濟體髮簪的基本驅動力,甚至最終會成為一項基本人權,幾乎所有人都會希望有更多的 AI 為自己工作。為了能夠提供世界所需,既提供運行這些模型的推理算力,也提供讓它們持續變得更好的訓練算力,我們正在發力鋪設基建,以便顯著擴大我們建設 AI 的雄心。如果,AI 按照我們認為的軌跡進步,那麼許多驚人的事情將成為可能。也許,在 10 吉瓦的算力下,AI 能夠找到治癒癌症的方法;也許,在 10 吉瓦的算力下,AI 能夠為地球上的每一位學生提供個性化輔導。如果,受到算力限制,我們就不得不在兩者之間取捨......沒有人願意做這種選擇,所以讓我們盡快開始吧。我們的願景很簡單,我們想打造一座工廠,每周都能產出 1 吉瓦的 AI 基礎設施。要把這件事執行出來,極其困難。達到這一里程碑,需要我們用上數年時間,並且要求在整個技術堆疊的每一層——從晶片、供電、建築、機器人——都進行創新。但我們一直在為此努力,並且相信這是可行的。在我們看來,這將是有史以來最酷、也最重要的基礎設施項目。我們對在美國大規模建設這些設施,格外興奮。眼下,其他國家在建設晶片晶圓廠以及新的能源產能方面的速度,遠快於我們,而我們希望扭轉這一趨勢。在接下來的幾個月裡,我們將談一談部分規劃,以及我們正在與之合作、把這一願景變為現實的夥伴。今年晚些時候,我們會介紹我們的融資方式,鑑於如何提升算力是提升收入的關鍵所在how increasing compute isthe literal key to increasing revenue,我們有一些有趣的新想法。 (一個胖子的世界)
炸裂!大漲近4%!輝達最大手筆投資承諾!砸1000億美元助OpenAI建10GW資料中心
首個1GW容量輝達系統計畫明年下半年上線,採用Vera Rubin平台。黃仁勳稱,10GW相當於多達500萬GPU,等於輝達今年的總出貨量,是去年兩倍。Altman稱,接下來幾個月裡,大家應該對OpenAI抱有很大期望。他將輝達和微軟都稱為OpenAI的“被動”投資者和“最重要的合作夥伴”。盤初曾跌超1%的輝達股價迅速轉漲,午盤曾漲超4%,收漲近4%創歷史新高。輝達為科技企業的人工智慧(AI)基礎設施建設狂潮又添了一把火。美東時間9月22日周一,輝達與OpenAI宣佈,簽署意向書確立達成戰略合作,OpenAI將借此利用輝達的系統打造和部署至少10千兆瓦(GW)的AI資料中心,使用數百萬塊輝達的圖形處理器(GPU)訓練和部署OpenAI的下一代AI模型。為支援上述里程碑式的戰略夥伴關係,輝達計畫對OpenAI投資最高1000億美元。這是輝達迄今為止做出的最大手筆投資承諾。這筆投資將隨著每1GW系統的部署逐步到位,首個1GW容量的輝達系統計畫於2026年下半年上線,採用輝達Vera Rubin平台。投資OpenAI大規模部署資料中心的消息公佈後,周一盤初曾跌1.1%的輝達股價迅速轉漲並在美股午盤之初拉升,午盤漲幅曾擴大到4%以上,刷新日高時漲4.5%,收漲逾3.9%,創收盤歷史新高,盤後小幅回落。“巨大”項目 10GW相當於多達500萬GPU輝達CEO黃仁勳稱與OpenAI的合作規模巨大,它凸顯了輝達與OpenAI之間的緊密聯絡。黃仁勳周一對媒體透露,10GW的容量相當於400萬至500萬塊GPU。這等於輝達今年全年的總出貨量,“是去年的兩倍”。他說:"這是一個巨大的項目"。黃仁勳此前在財報電話會議上說,建設1GW資料中心容量的成本在500億至600億美元之間,其中約350億美元用於採購輝達晶片和系統。按此計算,10GW項目的總投資規模將達到數千億美元。OpenAI目前擁有超過7億的周活躍使用者,其ChatGPT服務需要密集的計算能力支撐。OpenAI的CEO Sam Altman上周日在社交媒體表示,OpenAI將在未來幾周推出一些新的計算密集型產品,由於相關成本較高,部分功能初期僅向Pro訂閱使用者開放。雙方高管表態積極Huang在與Altman和OpenAI總裁Greg Brockman的聯合採訪中表示:"輝達和OpenAI相互推動了十年,從第一台DGX超級電腦到ChatGPT的突破。這項投資和基礎設施合作夥伴關係標誌著下一個飛躍——部署10GW(算力)來推動下一個智能時代。"Altman在聲明中強調:"計算基礎設施將成為未來經濟的基礎,我們將利用與輝達共同建設的基礎設施來創造新的AI突破,並大規模賦能個人和企業。"他還表示,“在接下來的幾個月裡,各位應該對我們抱有很大的期望”。OpenAI必須在三個方面表現出色:進行出色的AI研究、製造人們想要使用的產品,以及解決前所未有的基礎設施挑戰。Brockman表示:"我們從OpenAI早期就與輝達密切合作,利用他們的平台建立了數億人每天使用的AI系統。我們很興奮能與輝達部署10GW的計算能力,推進智能前沿並將這項技術的好處擴展到每個人。"戰略意義與市場影響這筆投資對輝達而言具有重要戰略意義。Requisite Capital Management管理合夥人Bryn Talkington向媒體表示:"輝達向OpenAI投資1000億美元,然後OpenAI再把錢交還給輝達,這對黃仁勳來說將是非常良性的循環。"該合作有助於輝達確保其裝置在AI系統建設中保持核心地位,特別是在OpenAI正涉足硬體領域包括自研晶片的背景下。保持OpenAI作為主要客戶,可能幫助輝達在行業考慮競爭對手元件時鞏固其市場地位。黃仁勳表示,本周一公佈的投資是"對已宣佈和簽約的所有項目的補充",暗示這超出了公司此前向華爾街披露的財務預期範圍。紐澤西理工學院資料科學研究所所長David Bader評論稱,此次宣佈合作的時間表明,輝達“在地理位置(供應鏈)和戰略層面(AI價值鏈)進行多元化佈局”,“這更像是基礎設施建設,而非投機行為。” Bader還說:“此次合作表明,AI基礎設施已發展成為一個成熟的資產類別。我們正目睹AI技術堆疊垂直整合的趨勢——從晶片到訓練再到部署。輝達不再僅僅是硬體供應商,而是成為其所推動的AI經濟生態系統中的重要合作夥伴。”Altman稱輝達和微軟是最重要合作夥伴這項合作體現了輝達近期積極的投資擴張策略。上周,輝達宣佈對英特爾投資50億美元,並宣佈兩家公司將在AI處理器方面合作。輝達還向英國資料中心初創公司Nscale投資近7億美元。上周媒體報導稱,輝達還花費超過9億美元,聘請AI初創公司Enfabrica的CEO Rochan Sankar及其他員工,並授權該公司的技術。對OpenAI而言,這項合作補充了其與微軟、甲骨文、軟銀和Stargate項目合作夥伴的深度基礎設施建設工作。在最近的二級市場交易中,投資者對OpenAI的估值達到5000億美元,微軟、軟銀和Thrive Capital等都是其投資者。Altman在媒體採訪中將輝達和微軟都稱為OpenAI的“被動”投資者和“最重要的合作夥伴”。本周一輝達和OpenAI的公告未透露1000億美元投資的時間表等細節。兩家公司表示,期待在未來幾周內敲定這一新階段戰略合作夥伴關係的細節。 (invest wallstreet)
突發|輝達向 OpenAI 投資 1000 億美元,400 萬 GPU 打造「超級智能」
美國時間 9 月 22 日,台北時間 9 月 23 日凌晨,輝達和 OpenAI 突然宣佈戰略合作夥伴和重大投資。輝達與 OpenAI 結成戰略合作夥伴關係,並向 OpenAI 投資至多 1000 億美元,用以支援後者的 AI 資料中心計畫。圖 | CNBC根據雙方公佈的具體資訊,OpenAI 計畫建設並部署需要 10 吉瓦的輝達系統。(APPSO 註釋:「吉瓦」是功率單位,符號為 GW,1 吉瓦 = 10 億瓦特 = 1 000 兆瓦 = 100 萬千瓦。它主要用於描述大型發電設施或電網的功率。)在 CNBC 的採訪中,黃仁勳表示:10 吉瓦大約等於 400 萬到 500 萬個 GPU,這個數量與輝達今年的總出貨量相當,是去年出貨量的兩倍。當黃仁勳與 OpenAI CEO Sam Altman 及公司總裁 Greg Brockman 一同出席採訪時,三人都忍不住感嘆:「這是一個龐大的項目。」這項合作將分階段實施。第一階段資料中心的能耗為 1 吉瓦,將於 2026 年下半年部署。輝達首筆 100 億美元投資也將在首個 1 吉瓦系統完成時投入,投資將以當時的估值為準。後續資金則會隨著 GPU 部署使用量的提升逐漸向 OpenAI 支付,確保投資與實際建設進度同步。據悉,這些資料中心將採用輝達最新的 Vera Rubin 平台。這套系統將用於訓練和運行 OpenAI 的下一代模型,最終目標是加速其期待已久「超級智能」的實現。消息發佈後,市場反應熱烈,截至發稿前,輝達股價一度大漲,當前市值約 4.46 兆美元。顯而易見,Altman 在這次合作中的戰略目標非常明確:打造 OpenAI 下一代 AI 基礎設施的絕對核心。他在接受採訪時表示:「未來幾個月大家可以期待我們帶來很多成果。OpenAI 必須做好三件事:進行頂尖的 AI 研究,打造人們真正想用的產品,並解決這一前所未有的基礎設施挑戰。」從成本角度來看,這筆投資的經濟邏輯也很清晰。根據黃仁勳今年 8 月在財報電話會上的透露,建設 1 吉瓦資料中心需要 500-600 億美元,其中約 350 億美元專門用於輝達的晶片和系統。這意味著在 OpenAI 的整個基礎設施建設中,輝達將佔據相當大的份額。雙方的合作安排也體現了互利共贏:OpenAI 獲得千億資金支援和 GPU 供應保障,輝達系統還能針對 OpenAI 的模型和基礎架構軟體進行優先最佳化。而輝達則鎖定了 OpenAI 這個戰略級客戶,獲得了合作的最高優先順序,在面臨 AMD 以及雲廠商自研晶片競爭的情況下,進一步鞏固了在 AI 晶片市場的主導地位。此外,兩家公司計畫在未來幾周內敲定戰略合作的具體細節。值得一提的是,這筆高達 1000 億美元的投資還只是 OpenAI 交易版圖的一部分。據 The Information 等媒體報導,OpenAI 已知大額交易還包括:與甲骨文簽訂的為期 5 年、價值 3000 億美元的算力採購合同,未來 5 年從雲服務商租用備用伺服器的額外 1000 億美元支出,現在又加上輝達的這筆 1000 億美元直接投資。這個花錢速度,感覺全球的計算資源都要被 OpenAI 承包了。如此大手筆的投資不無道理。ChatGPT 每周大約有 7 億人使用,其運行和開發需要極為龐大的算力。而在昨天,Altman 也在社交媒體上透露,未來幾周將推出一些新的「算力密集型」產品。據外媒報導,OpenAI 在 2030 年的研發投入(主要是算力成本)仍將接近總收入的 50%。這個比例在科技行業中堪稱「獨一份」。作為對比,亞馬遜、微軟、甲骨文及 Alphabet 等科技巨頭當前的研發成本佔收入比例介於 10% 至 20% 之間,即便是向來在研發上比較捨得投入的 Meta,這個比例也僅約 25%。簡言之,OpenAI 在算力投入上的佔比,是多數同行的近兩倍甚至更多。當然,敢於如此大手筆燒錢,OpenAI 的收入預期也相當「凶殘」。得益於 ChatGPT 的爆發式增長,OpenAI 預計今年總營收將達到 130 億美元,相比於去年的 40 億美元實現了 3 倍多的增長。據 The Information 報導,OpenAI 還將 2030 年的收入預測上調了約 15%,按照此前預測的 1740 億美元計算,上調後的年收入將突破 2000 億美元大關。這一收入水平將超過輝達或 Meta 在過去 12 個月的營收表現。值得注意的是,輝達最近也處於一輪密集的投資擴張期。上周,輝達宣佈向英特爾投資 50 億美元,將共同推出「Intel X86 with RTX」晶片,並在英國投入 25 億美元建設 AI 基建,同時投資 Nscale、收購 Enfabrica 部分團隊及技術。而奧特曼和黃仁勳這次千億等級的深度合作,究竟會帶來怎樣的效果,或許還得等到 2026 年第一個 1 吉瓦系統上線後才能揭曉,但可以確定的是,AI 基礎設施的軍備競賽,已經進入了千億美元時代。 (APPSO)
AMD在資料中心GPU市場的重大突破:從MI450到全端AI解決方案的戰略轉型
概述:AMD資料中心業務的戰略轉折點在2025年9月8日的高盛會議上,AMD資料中心解決方案執行副總裁Forrest Norrod的發言標誌著AMD在人工智慧晶片市場的重要戰略轉折點。這次訪談不僅揭示了AMD在資料中心GPU業務的最新進展,更重要的是展現了其從單純晶片供應商向全端AI解決方案提供商的重大轉型。AMD目前在伺服器CPU市場佔據41%的份額,在短短七年內從幾乎為零增長到這一令人矚目的水平。這一成功為AMD在GPU市場的雄心提供了堅實基礎。更為關鍵的是,AMD已明確表示其MI450系列將成為公司在AI訓練和推理領域全面競爭的轉折點。MI450:AMD的"米蘭時刻"技術規格和性能突破AMD MI450系列代表了公司在資料中心GPU領域的最重要產品。根據最新資訊,MI450將配備432GB的HBM4記憶體,比NVIDIA的Vera Rubin平台多50%的記憶體容量和頻寬,同時提供相當的計算性能。這一記憶體優勢對AI推理工作負載尤為重要,特別是隨著推理規模的擴大。MI450採用了AMD最新的chiplet架構和TSMC的先進製程。預計將使用TSMC的3nm製程節點,並結合HBM4記憶體技術。這代表了NVIDIA首次採用chiplet設計的同時,AMD繼續在這一領域保持技術領先。OpenAI的戰略合作夥伴關係最引人注目的發展是AMD與OpenAI的深度合作關係。在AMD 2025年6月的Advancing AI活動中,OpenAI CEO Sam Altman親自出席並對MI450表示"極度興奮"。Altman透露,OpenAI作為AMD的"非常早期的設計合作夥伴",為MI450的需求提供了"重要反饋"。這種合作關係的深度體現在技術細節上:AMD執行副總裁Forrest Norrod表示,來自Altman團隊的反饋推動了MI450在記憶體架構、擴展結構甚至數學核心方面的改變。這種客戶驅動的產品開發方式確保了MI450能夠滿足現實世界AI工作負載的需求。全端解決方案:Helios機架系統ZT Systems收購的戰略意義AMD於2025年3月完成了對ZT Systems的49億美元收購,這一戰略舉措標誌著AMD從晶片供應商向系統整合商的重大轉變。ZT Systems在為全球最大雲端運算公司設計和部署資料中心AI計算和儲存基礎設施方面擁有超過15年的經驗。這次收購使AMD能夠提供"新一類端到端AI解決方案",結合AMD的CPU、GPU和網路矽片、開源ROCm軟體以及機架級系統能力。預計該交易將在2025年底前在非GAAP基礎上產生增值效應。Helios機架架構的技術創新AMD的Helios機架系統將包含72個MI450 GPU,是公司"從頭開始設計的機架級解決方案"。與NVIDIA的NVL72機架相比,Helios在物理上更大,這雖然不會給客戶帶來問題(因為物理空間相對不重要),但使其更易於製造、支援和服務,並且預計比密度優先的設計更可靠。AMD在設計Helios時特別考慮了資料中心的相容性。例如,機架內風冷與液冷的比例與NVIDIA相當或相似,確保客戶可以使用相同數量的冷卻器建設資料中心。這種深思熟慮的設計方法降低了客戶採用AMD解決方案的門檻。市場定位和競爭策略從推理到訓練的漸進策略AMD採用了多代分階段的方法來逐步建立其GPU解決方案的競爭力和差異化。從MI300系列開始,AMD專注於推理工作負載,利用其chiplet架構提供比競爭對手更多的記憶體容量,從而實現更高效的推理。MI325將擴展軟體生態系統,而MI355將系統性地建構訓練能力,無論是在矽片還是軟體方面。這一切都將在MI450中匯聚,AMD將其定位為"無藉口的一代",目標是在任何AI工作負載(訓練或推理)中都具有領先性能。軟體生態系統的重要性AMD深知軟體是其成功的關鍵。公司正在系統性地建構對不同框架、庫和開放原始碼專案的支援,這些對其目標客戶群體至關重要。雖然AMD可能無法快速匹配NVIDIA在長尾客戶支援方面的投資,但其專注於為佔市場80-85%的前20大客戶提供完整支援的策略是現實和有效的。ROCm作為AMD的開源CUDA替代方案,正在快速改進。根據最新報告,ROCm在性能和易用性方面都取得了顯著進步。AMD已經在過去四個月中在軟體基礎設施方面取得了一些進展,儘管進步速度仍需加快以跟上競爭對手。市場機遇和增長前景資料中心GPU市場規模AMD預測到2028年AI加速器總可定址市場(TAM)將達到5000億美元。這一預測在一年多前首次提出時引起了質疑,但現在已經得到了更廣泛的認同。AMD的主要客戶,包括超大規模雲服務提供商,繼續對AI的長期前景保持極度樂觀,這在他們的資本支出計畫中得到了體現。當前的增長速度主要受資料中心和電力可用性限制,而不是需求不足。這為AMD這樣能夠提供高效解決方案的公司創造了巨大機遇。收入增長預期AMD預計MI450將在2026年產生重大收入貢獻。公司與多個終端客戶密切合作,為MI450的部署做準備,並收到了"極其積極的回應"。除了OpenAI,Oracle、Meta和Microsoft等主要客戶都已經在使用AMD的Instinct系列處理器。根據分析師預測,AMD的資料中心GPU收入可能從2024年的約50億美元增長到2026年的顯著更高水平。Oracle已經宣佈將部署超過27000個由AMD加速器和EPYC Turin CPU驅動的AI節點。客戶拓展和市場滲透超大規模雲服務商的進展AMD在贏得主要超大規模雲服務商方面取得了重要進展。與開始CPU業務時不同,所有主要客戶現在都已經是AMD的客戶,並且已經有了資料中心合作關係。這為GPU業務的擴展提供了有利的起點。Microsoft、Oracle、Meta和OpenAI已經公開表示支援AMD的Instinct GPU。AMD正在與其他幾家大型超大規模雲服務商進行密切合作,預計在MI355部分以及肯定在MI450上,終端客戶和超大規模雲服務商的範圍將顯著擴大。企業市場的機遇除了雲服務商,AMD還看到了企業市場的巨大機遇。隨著企業對AI應用變得更加成熟,AMD觀察到AI使用與CPU需求之間存在直接相關性。使用AI進行產品供應或改進產品供應的公司越成熟,其增量CPU通用計算需求就越多。挑戰與風險技術執行風險儘管AMD對MI450充滿信心,但公司也認識到這是一個"非常複雜的機架級解決方案",存在潛在的機械問題、訊號完整性問題和熱問題。AMD正在密切關注一長串項目,並制定了"非常嚴格的去風險計畫"。軟體生態系統的挑戰雖然AMD在軟體方面取得了進展,但與NVIDIA的CUDA生態系統相比仍有差距。NVIDIA多年來在AI方面進行了大量投資,並為眾多客戶提供支援。AMD的策略是專注於真正重要的客戶,而不是試圖快速匹配NVIDIA的長尾支援。財務表現和未來展望當前財務狀況AMD的資料中心業務在2025年第二季度實現了32.4億美元的銷售額,同比增長14.3%,但環比下降11.8%。這一下降主要是由於4月份停止向中國銷售MI308 GPU造成的影響。儘管面臨挑戰,AMD預計2025年資料中心GPU銷售額將達到約63億美元,如果能夠恢復對中國的銷售,可能達到71億美元。未來收入預期分析師預測AMD的收入將從2025年的330億美元增長到2026年的401億美元,每股收益從2025年的3.90美元增長到2026年的6.02美元。一些樂觀的分析師認為,如果AI銷售規模擴大更快,每股收益可能達到8美元。結論:AMD的戰略轉型與市場前景AMD在資料中心GPU市場的策略代表了從傳統晶片供應商向全端AI解決方案提供商的根本性轉變。通過MI450系列、Helios機架系統和與OpenAI等關鍵客戶的深度合作,AMD正在建構一個能夠與NVIDIA競爭的綜合生態系統。雖然面臨技術執行和軟體生態系統的挑戰,但AMD的多代產品路線圖、戰略收購和客戶關係表明其有能力在AI市場中獲得有意義的市場份額。隨著AI市場繼續快速增長,AMD有望從其戰略投資中獲得豐厚回報,並在2026年及以後實現顯著的收入和利潤增長。AMD的成功將不僅取決於其技術執行能力,還取決於其在軟體生態系統建設和客戶關係維護方面的持續投資。如果能夠成功執行其路線圖,AMD有望在AI時代成為資料中心基礎設施的重要力量。 (穩中求勝君)