6月2日晚,黃仁勳在2024台灣國際電腦展上宣布,輝達(Nvidia)將打破摩爾定律,計劃每年更新一次GPU,並揭露未來三代資料中心半導體技術路線圖。
此外,黃仁勳宣布,去年發布的Blackwell晶片現在開始投產,2025年將推出Blackwell Ultra,而下一代AI 晶片架構平台名為Rubin,採用HBM4晶片,預計將於2026年推出。
Rubin 晶片系列將包括新的GPU、CPU 和網路處理器。名為Versa 的新CPU 將用於提高AI 功能。 GPU 對AI 應用至關重要,它將使用SK Hynix、Micron 和三星等行業巨頭的下一代高頻寬記憶體。儘管人們對Rubin 平台的推出感到興奮,但黃仁勳只透露了有關該平台具體功能和能力的有限資訊。
同時,黃仁勳也宣布推出推理模型微服務NVIDIA NIM,以部署在雲端、資料中心或工作站上,並且開發者能夠輕鬆地為Copilot、ChatGPT等建立生成式AI 應用,所需時間從數周縮短至幾分鐘。另外,輝達則針對GeForce RTX AI電腦平台推出AI助理,為數位人推出G-Assist和NVIDIA ACE(數位人技術) NIMs,以及為微軟Windows Copilot Runtime推出用於RTX加速API的小語言模型(SLM)等等。
「今天,我們正處於運算領域重大轉變的風口浪尖。AI 和加速運算的交匯將重新定義未來。」黃仁勳強調,未來,全球AI產業規模將高達100萬億美金,比之前IT時代的3萬億美元高出33萬倍以上,具有強大的市場前景。黃仁勳引領的新一輪以AI 為核心的產業革命已經開始。從CUDA軟體到GPU硬體,輝達正「加速一切」。
Nvidia 自2018 年推出首款為AI 打造的消費性圖形處理器GeForce RTX以來,一直是個人電腦AI 領域的先驅。這項創新包括深度學習超級採樣(DLSS),它透過使用AI 生成像素和幀來顯著提升遊戲效能。從那時起,Nvidia 已將其AI 應用擴展到內容創作、視訊會議、直播、串流視訊消費和生產力等各個領域。
如今,Nvidia 在新興的生成式AI 用例中處於領先地位,擁有500 多個由RTX GPU 加速的AI 應用程式和遊戲。在台灣國際電腦展上,Nvidia 宣布了華碩和MSI等主要製造商推出的新款GeForce RTX AI 筆記型電腦。這些筆記型電腦將配備先進的AI 硬體和Copilot 功能,支援支援AI 的應用和遊戲。
這些筆記型電腦利用最新的Nvidia AI 庫和SDK,針對AI 推理、訓練、遊戲、3D 渲染和視訊處理進行了最佳化。與Mac 相比,它們的穩定擴散速度提高了7 倍,大型語言模型推理速度提高了10 倍,標誌著效能和效率的顯著飛躍。
Nvidia 也推出了RTX AI 工具包,幫助開發人員在Windows 應用程式中自訂、最佳化和部署AI 功能。它包括用於微調預訓練模型、針對各種硬體對其進行最佳化以及將其部署用於本地和雲端推理的工具。根據Nvidia AI PC 產品總監Jesse Clayton 介紹,AI 推理管理器將允許開發人員將混合AI 功能整合到應用程式中,根據系統配置在本地和雲端推理之間做出決策。
「我們認為個人電腦上的人工智慧是科技史上最重要的發展之一,」Clayton說。 “人工智慧正被融入到每個主要應用程式中,它將影響幾乎每個個人電腦用戶。”
在遊戲領域,AI 被廣泛用於透過DLSS 渲染環境並增強非玩家角色或NPC。 Project G-Assist的推出將幫助開發人員為遊戲創建AI 助理。 G-Assist 透過提供對遊戲內查詢的情境感知回應、在遊戲過程中追蹤系統效能以及優化系統設定來增強遊戲玩家體驗。
此外,微軟和Nvidia 正在合作,使開發人員能夠創建具有AI 功能的Windows 原生和Web 應用程式。此次合作將於今年稍晚在開發者預覽版中推出,它將允許API 存取GPU 加速的小型語言模型(SLM) 以及作為Windows Copilot Runtime 的一部分在設備上運行的檢索增強型RAG 生成功能。 SLM 為從事內容摘要、內容生成、任務自動化等工作的Windows 開發人員打開了大門。
Gen AI 正在推動一場新的工業革命,將資料中心從成本中心轉變為AI 工廠。這些數據中心利用加速計算來處理大型數據集並開發AI 模型和應用程式。 Nvidia 於今年稍早宣布推出Blackwell 平台,在AI 效能和效率方面取得了重大飛躍。 Blackwell 的效能比八年前發布的Pascal 平台高出1,000 倍。
Nvidia 的AI 能力不僅限於晶片級的進步。 Nvidia 不斷在資料中心的各個層面進行創新,以改善AI 工廠。 Nvidia 的MGX平台為從遠端視覺化到邊緣超級運算等多種用例的加速運算提供了模組化參考設計。
該平台支援多代硬件,確保與Blackwell 等新加速架構相容。根據Nvidia 加速運算總監Dion Harris 介紹,MGX 平台的採用率大幅提升,合作夥伴數量從6 家增加到25 家。
Nvidia 宣布推出GB200 NVL2 平台,旨在為每個資料中心帶來生成式AI 功能。該平台在單一節點中提供40 petaflops 的AI 效能、144 個Arm Neoverse CPU 核心和1.3 TB 的快速記憶體。與傳統CPU 系統相比,它顯著提高了LLM 和資料處理任務的效能。 GB200 NVL2 將資料處理速度提高了18 倍,將向量資料庫搜尋查詢的效能提高了9 倍。
Harris 表示:“我們的平台是一個真正的AI 工廠,包含運算、網路和軟體基礎設施。與傳統CPU 系統相比,它顯著提高了LLM 和資料處理任務的效能。”
Nvidia 的Spectrum-X是專為AI 工廠設計的乙太網路。傳統的乙太網路針對超大規模雲端資料中心進行了最佳化,但由於其伺服器到伺服器通訊量極小且抖動容忍度高,因此不適合AI。相較之下,AI 工廠需要對分散式運算的強大支援。
Spectrum-X 是Nvidia 的端對端乙太網路解決方案,它利用網路介面卡(NIC) 和交換器來最佳化GPU 到GPU 的連接。根據Nvidia 網路產品副總裁Amit Katz 介紹,它顯著提高了效能,提供了更高的頻寬、更大的全到全頻寬、更好的負載平衡和1,000 倍更快的遙測速度,可實現即時AI 應用程序優化。
「網路決定資料中心,」Katz 說。 “Spectrum-X 是基於以太網的AI 工廠的關鍵,而這只是個開始。Spectrum-X 令人驚嘆的一年路線圖即將推出。”
Spectrum-X 已投入生產,越來越多的合作夥伴將其部署到全球的AI 工廠和生成AI 雲端。合作夥伴正在將BlueField-3 SuperNIC 整合到他們的系統中,並將Spectrum-X 作為Nvidia 參考架構的一部分提供。在台灣國際電腦展上,Nvidia 將展示Spectrum-X 支援跨產業AI 基礎設施和營運的能力。
Nvidia NIM是一組旨在運行新一代AI 模型的微服務,專門用於推理任務。 NIM 現已向所有開發人員開放,包括現有開發人員、企業開發人員和AI 新手。
開發人員可以從Nvidia 的入口網站或流行的模型儲存庫存取NIM(以標準Docker 容器的形式提供)。 Nvidia 計劃透過其Nvidia開發者計畫為開發人員提供免費的NIM 存取權限,供其進行研究、開發和測試。 NIM 與不同的工具和框架集成,無論開發環境如何,都可以存取它。
Nvidia 企業運算副總裁Manuvir Das 表示:「這意味著人工智慧現在不必局限於了解資料科學的人。任何人工智慧開發人員、任何新的企業開發人員都可以專注於建立應用程式程式碼。NIM 負責處理底層的所有管道。
NIM 解決了兩個主要挑戰:優化模型效能和簡化開發人員部署。它包含Nvidia 的運行時庫,以最大限度地提高模型執行速度,與現成的模型相比,吞吐量提高了三倍。這項改進可以更有效地利用AI 基礎設施,在更短的時間內產生更多的產出。根據Das 介紹,NIM 透過將設定和優化模型所需的時間從幾周縮短到幾分鐘來簡化部署。
NIM 的推出標誌著一個重要的里程碑,超過150 個合作夥伴將其整合到他們的工具中。 Nvidia 透過其開發者計畫免費提供NIM 存取權限。對於企業生產部署,Nvidia AI Enterprise 授權的價格為每GPU 每年4,500 美元。
由於人工智慧和數位孿生技術的進步,製造業正在經歷工業數位化。在過去十年中,Nvidia 開發了Omniverse平台,該公司聲稱該平台已達到工業數位化的臨界點。 Omniverse 與西門子和羅克韋爾等關鍵工業技術相連接,提供模擬、用於人工智慧訓練的合成資料生成和高保真視覺化等功能。
Nvidia 在人工智慧和機器人領域採用了三台計算機的解決方案:一台用於在數據中心創建模型的人工智能超級計算機、一台用於機器人實時傳感器處理的運行時計算機,以及一台用於數字孿生模擬的Omniverse 電腦。這種設置允許對人工智慧模型和機器人系統進行廣泛的虛擬測試和最佳化。
Nvidia 機器人和邊緣運算副總裁Deepu Talla 表示:「在現實世界中訓練和測試機器人是一個極具挑戰性的問題。它成本高昂、不安全且耗時。我們可以擁有數十萬甚至數百萬個機器人來模擬數位孿生。
在台灣國際電腦展上,Nvidia 展示了富士康、台達、和碩和緯創等領先電子製造商如何採用AI 和Omniverse 實現工廠數位化。這些公司使用數位孿生來優化工廠佈局、測試機器人並提高工人安全。 Nvidia 也將展示西門子、Intrinsic 和Vention 等公司如何使用其Isaac 平台來製造機器人。(半導體產業縱橫)