黃仁勳劇透未來三代GPU,新架構Rubin、Vera及GPU/CPU二合一超級晶片悉數亮相

台北時間6 月2 日晚,輝達創始人兼CEO 黃仁勳如期帶來了這場「AI 時代如何助推全球新工業革命」的主題演講。

圍繞著最受業界關注的晶片產品方面,黃仁勳現場宣布(更確切地說像是「劇透」)了未來三代的GPU 架構、下一代CPU 架構,以及全新GPU+CPU 二合一超級晶片


(資料來源:輝達官網)


演講中,他展示還了輝達晶片產品的年度升級周期計劃,將堅持資料中心規模、一年節奏、技術限制以及一個架構的路線。換句話說,採用時下最先進的半導體製程工藝,使用統一架構覆蓋整個資料中心GPU 產品線,每年更新迭代一次(以往通常是每兩年更新一代)。

要知道,輝達今年3 月剛發布了新架構Blackwell,不到3 個月又直接放大招,「劇透」了未來三代的GPU 產品路線,新架構直接規劃到2027 年。

整體來看,輝達Blackwell 晶片已經開始投產,計畫將在2025 年推出Blackwell 的增強版Blackwell Ultra晶片;2026 年,計畫推出下一代Rubin架構的晶片;2027 年推出Rubin 的升級版Rubin Ultra晶片。

隨著目前輝達旗下最高效能的採用Blackwell 架構的GPU 已經投產,相關產品今年將會陸續上市,包括用於資料中心領域的B100/B200/GB200 系列,用於遊戲領域的RTX 50 系列。


(資料來源:輝達官網)


根據介紹,Blackwell 架構其實是將兩個晶片結合在一起,以確保兩者可以作為一個整體實現無縫運行,Blackwell GPU 包含2080 億個晶體管,採用台積電4NP 工藝來生產,可以支援多達10 兆個參數的AI 模型。

而超級晶片GB200 則是由兩個Blackwell GPU 和一個Grace CPU 組合而成,可以為大語言模型(LLM)推理負載提供30 倍的效能提升並將成本和能耗降低25 倍。


(資料來源:輝達官網)


隨著輝達GPU 架構的迭代,算力大幅提升,功耗不斷優化,以擁有1.8 兆參數的GPT-4 為例,8 年內將其推理功耗降低至原來的1/45000,訓練功耗降低至原來的1/350。同時,這8 年間輝達晶片算力的提升幅度似乎讓摩爾定律「失效」了。


(資料來源:輝達官網)


細看產品,採用Rubin 架構平台的晶片包括Rubin 和Rubin Ultra,其中,Rubin GPU 將採用8 層堆疊的HBM4 內存,Rubin Ultra GPU 則採用更高規格的12 層堆疊的HBM4 內存

早在上個月,天風國際證券分析師郭明錤曾預測,輝達的下一代R 系列AI 晶片(代號R100)或將採用台積電3 奈米製程工藝,使用CoWoS-L 封裝技術,搭載新一代高頻寬內存晶片單元(HBM4),晶片預計在2025 年第四季實現大規模生產,而與之配套的系統和機櫃解決方案或將於2026 年第一季開始大規模生產。現場揭露的參數和時間規劃與先前的爆料大致一致。

在CPU 產品方面,輝達先前已推出了Grace 架構CPU 產品,下一代CPU 架構名為Vera,同時,採用Rubin GPU 和Vera CPU 的下一代超級晶片也在開發之中,其將採用第六代NVLink 互連匯流排,頻寬高達3.6TB/s,是上一代NVLink 5 的兩倍之多。

至於名稱的由來,先前Blackwell 架構名稱是為了紀念傑出數學家David H. Blackwell,下一代CPU 架構Vera、GPU 架構Rubin 的名稱則是來自宇宙暗物質研究先驅、美國女性天文學家Vera Rubin。


(資料來源:輝達官網)


圍繞著加速運算,黃仁勳在演講中指出,「隨著CPU 擴展速度放緩,最終會基本停止,然而我們需要處理的數據繼續呈指數級增長,但處理的性能卻沒有提升,那將面臨計算膨脹和計算成本的提升。

在他看來,透過電腦增強CPU 提供加速工作,讓每個處理密集型應用程式都得到加速,讓每個資料中心也都被加速。輝達透過為CPU 添加專用的輔助處理器(GPU),來實現對於密集型應用程式的加速,由於兩個處理器可以並行工作,能夠實現更快速的運算,可以將100 個單位的時間加​​速到僅需1 個單位的時間,並聲稱「買得越多,省得越多」。


(資料來源:輝達官網)


黃仁勳在現場展示了DGX BlackWell 系統的真機,體積甚至比冰箱還要高出不少,而由眾多BlackWell 系統集群組成的「AI 工廠」面積更是堪比籃球場,其包含了3.2 萬個GPU 。他還將一塊RTX 遊戲顯示卡和DGX BlackWell 資料中心機櫃進行了體積對比,差異之大一目了然。


(資料來源:輝達官網)


資料中心和遊戲顯示卡明顯的體積差距似乎也很好地契合了不久前輝達披露的第一季不同業務的營收佔比。據悉,輝達第一季總營收260 億美元,其中資料中心營收佔比達87%(226 億美元),遠遠領先於遊戲業務(26 億美元)、汽車業務(3.29 億美元)、專業視覺業務和OEM 及其他業務。


(資料來源:輝達官網)


為了推動下一波生成式AI 的發展,輝達聯合全球多家電腦製造商發布了一個以輝達Blackwell 架構支撐的系統列陣,以支持企業打造「AI 工廠」和資料中心。

正如此次演講主題“AI 時代如何助推全球新工業革命”,在黃仁勳看來,新的運算時代已經拉開帷幕,而這一場產業變革的驅動力正是AI,“AI 工廠”將掀起一場新的產業革命。

事實上,這並非是黃仁勳首次提及「AI 工廠」的概念,在不久前的輝達財報公佈之際,他在財報電話會議上表示,從伺服器、網路和基礎設施製造商到軟體開發商,整個業界都在為Blackwell 加速AI 驅動的創新做好準備。下一場工業革命已經開始,各國政府和企業正在與輝達合作將數萬億美元的傳統數據中心轉移到加速計算上,並建立一種新型數據中心“AI 工廠”,以生產新的大宗商品— — AI。


(資料來源:輝達官網)


為了讓各種規模的企業能夠更方便部署AI,輝達於今年3 月推出了NIM 雲端原生微服務。據了解,NIM(Nvidia Inference Microservices)是一套經過深度優化的雲端原生微服務,旨在幫助開發者或企業輕鬆建立AI 應用,簡化生成式AI 模型在雲端、資料中心和GPU 加速工作站的部署過程(部署時間最快可從數周縮短到數分鐘),其採用行業標準API,將AI 模型開發和生產包裝的複雜性抽象化,從而擴展了開發者的使用範圍,開發者或企業均可基於NIM 運行生成文字、圖像、視訊、語音以及數位人等的各種應用程式。

機器人也是演講的一個重點,在黃仁勳看來,“機器人時代已經到來,未來不只是機器人,所有會移動的東西都將實現自主化。”

根據介紹,包括Alphabet 子公司Intrinsic、比亞迪、西門子等全球多家機器人開發團隊都在採用輝達機器人開發的技術平台Isaac,該技術平台擁有AI 基礎模型、模擬技術以及輝達加速庫,而其模組化的設計可使公司採用一種或多種技術整合到自家的技術棧中。

除此之外,黃仁勳在演講中介紹了在通訊和軟體等方面的進展,例如面向超大規模生成式AI 的加速乙太網路平台Spectrum-X,目前已被業界廣泛使用,接下來輝達將加快新品發布計劃。住的注意的是,先前輝達預計Spectrum-X 在未來一年內將成為一個數十億美元的產品線

黃仁勳還展示了一個工具和SDK 集合“RTX AI Toolkit”,旨在幫助Windows 開發者定制優化本地部署模型,其Stable Diffusion 推理速度甚至可以達到Mac 的7 倍

根據調查數據顯示,包括輝達、亞馬遜、Google、微軟等在內的全球7 大科技巨頭,每年在AI 及雲端基礎設施方面投資金額達4,000 億美元,涵蓋AI 晶片、大模型等領域,尤其以AI晶片硬體層面競爭最激烈,

然而,主導全球AI 晶片市場的輝達卻正在面臨競爭對手以及客戶的“圍攻”,競爭對手比如AMD 不必多說,其客戶比如亞馬遜、谷歌、微軟等也均在開發自家AI 晶片

摩根大通在一份研報中指出,「長遠來看,在晶片、硬體以及軟體平台方面,輝達將繼續保持領先競爭對手一到兩步的節奏,並且擁有超400 萬CUDA 開發從業者的生態系統支撐,輝達透過更密集的新品發布和更多的產品細分,或將進一步拉大與競爭對手的差距。(問芯)


參考資料:

1.https://www.nvidia.cn/

2.https://nvidianews.nvidia.com/multimedia

3.https://nvidianews.nvidia.com/news/computer-industry-ai-factories-data-centers