輝達與富士通,樹立AI時代的合作範式

2025年10月3日,輝達總裁黃仁勳與富士通總裁時田隆仁,在東京的帕雷斯酒店面對100多名記者,宣佈輝達與富士通進行戰略合作。這一新聞迅速佔滿了翌日東京各大媒體的頭版。

輝達總裁黃仁勳與富士通總裁時田隆仁宣佈戰略合作(圖片出自富士通發佈的記者會視訊)

輝達是引領人工智慧(AI)浪潮的弄潮兒。輝達在全球AI計算和資料中心GPU市場佔據絕對主導地位,份額遠超90%;在PC獨立顯示卡市場,它也佔據領先地位,份額約80%-85%。

富士通是日本國內有名的IT企業,在日本國內根基深厚、備受信賴。但在AI領域的全球知名度並非很高,其雲端運算領域的城堡,在全球雲巨頭的圍攻下,逐漸收縮。

那麼,為什麼輝達會選擇富士通作為戰略合作夥伴呢?

富士通的新聞通報這樣寫到:

本公司將與輝達擴大戰略合作,旨在建構一個整合了AI 智能體的全端AI基礎設施,以便在維持企業在AI應用中的自主性的同時,助力企業通過AI提升競爭力。在本次合作中,雙方將共同開發並提供面向醫療保健、製造、機器人等特定領域的行業AI智能體平台,以及通過“輝達NVLink Fusion”技術,共同開發將“富士通-MONAKA”CPU系列與輝達GPU無縫整合的AI計算基礎設施。通過整合AI智能體平台和AI計算基礎設施,將實現一個由持續學習和進化的AI智能體驅動的全端AI基礎設施,從而加速AI產業革命。此舉將克服傳統通用計算系統的侷限,使建構一個跨行業、能自主進化的全端AI基礎設施成為可能。本公司通過這一舉措,首先將推動日本的產業變革,讓AI從日本普及至社會的各個角落,引領所有產業提升競爭力,推動可持續社會的實現。

這裡有兩個概念需要說明。

首先,什麼是 “AI智能體(AI Agent)”?AI智能體不再是簡單的聊天機器人或執行單一任務的工具。它指的是一個能夠感知環境、進行推理、制定計畫並自主執行複雜任務的AI系統。譬如,為你規劃一個周末出行的省錢的旅行計畫,製作一份你要求的PPT文字,等等。

其次,什麼是 “全端AI基礎設施”? “全端” 意味著提供從底層到頂層的完整的、一體化的技術堆疊。打個不恰當的比方,就像蓋房子,你不能只有磚頭(晶片),還需要水泥(軟體)、圖紙(框架)、管道(網路)和施工隊(系統)。

對於AI來說,“全端AI基礎設施”就是為AI的誕生和運行提供一切所需的技術層。主要包括:計算硬體層,硬體系統與網路層,軟體與框架層,AI智能體框架,以及模型與服務層。

在計算硬體層,輝達擁有強大的AI計算晶片,主要是GPU(如輝達的H100/H200)和專用的AI加速卡。在硬體系統與網路層,輝達有高速網路連結技術NVLink。在軟體與框架層,輝達的CUDA、cuDNN提供了底層驅動與計算庫。全球AI工程師都在使用這些框架與庫檔案,形成了一個龐大的生態系統。

因此,“AI智能體的全端AI基礎設施” 指的是一套完整的、從晶片到系統再到軟體的技術體系,其唯一目的就是為大規模開發、部署和運行複雜的AI智能體提供所需的全部能力和環境。如果將AI智能體比作一個自動駕駛計程車車隊,那麼,全端AI基礎設施就是為這個車隊服務的整個城市交通生態系統。

一項簡單的AI應用(如文字生成)可能只需要呼叫一個API。但未來,真正變革行業的將是能夠自主處理複雜工作流的AI智能體。運行這些智能體需要極其龐大、複雜且協同最佳化的技術堆疊,任何單一公司都難以獨立建構。

輝達正是看準了這一趨勢,其戰略目標就是成為這個 “未來AI智能體世界” 的 “國家電網” 和 “道路交通部”——提供從發電(GPU算力)到輸配電(網路/系統)再到用電標準(軟體/生態)的全端基礎設施。它與富士通的合作,正是為了在全球範圍內鋪設和推廣這套基礎設施。

那麼,被輝達相中的富士通有什麼優勢呢?

首先,富士通是ARM陣營的 “隱形冠軍”。富士通雖然總體CPU市場份額小,但在高性能ARM架構CPU領域是世界級的領導者。其設計的 “A64FX” CPU被用於曾經是全球最快的超級電腦 “富岳”上,證明ARM架構在極致性能上的潛力。富士通的ARM CPU已經發展到第二代以省電為特徵的MONAKA,可謂是同行中最先進的技術。

其次,富士通擁有 “定製化能力” 與 “垂直整合” 的獨特價值。富士通擁有強大的ASIC(專用積體電路)和CPU設計團隊。他們不是簡單地使用ARM的公版設計,而是能進行深度定製,針對高性能計算、AI等特定工作負載進行最佳化。

富士通不僅僅可以設計CPU,它是一家完整的IT解決方案提供商。從硬體(伺服器、儲存)、網路(5G裝置)到軟體和服務都能提供。

我們再來看看GPU與CPU的關係。

GPU是AI系統強大的 “引擎”,但要讓這台引擎在複雜的AI任務中發揮全部威力,需要一個與它完美協同的 “底盤和傳動系統”。這個角色,正是ARM架構CPU所要扮演的。輝達的GPU固然強大,但正是通過與ARM架構CPU的結合,它才能從一家 “頂級晶片供應商” 蛻變為 “未來計算平台的定義者”。

在傳統的x86伺服器中,CPU和GPU是獨立的兩個部件,主要通過PCIe匯流排連接。這就像兩個頂尖的專家被關在不同的房間裡,只能通過一個小窗口傳遞紙條(資料)來協作,效率低下。其瓶頸在於,當GPU進行大規模平行計算時,需要不斷地從CPU和記憶體中獲取資料。PCIe通道的頻寬和延遲成為了巨大的瓶頸,GPU常常需要 “等待” 資料,其強大的算力被閒置。

ARM架構的革新之處在於超高速互聯。它們採用NVLink-C2C等先進互聯技術,將CPU和GPU緊密地連接在一起。這相當於讓兩位專家坐進了同一個 “作戰指揮室”,可以即時、無障礙地交流。CPU和GPU可以共享一個巨大的、統一的記憶體空間。這意味著它們可以直接訪問同一份資料,無需在兩者之間進行緩慢的複製和搬運。

GPU和CPU的結合,使得資料流動的延遲極大降低,頻寬極大提升,GPU的算力得以被100%地被釋放出來,甚至120%地被增強。這對於需要處理海量不規則資料(如推薦系統、圖神經網路)的AI智能體至關重要。

還有一個重要的因素,是被稱為計算領域 “新貨幣” 的 “能效比”。

在AI時代,算力的最大限制不再是電晶體數量,而是電力。資料中心的電力和冷卻成本已經成為天文數字。

x86 CPU為了保持向後相容性,繼承了大量的複雜指令集和架構,這導致其在執行特定任務時,功耗較高。ARM採用精簡指令集,架構更簡單、更模組化。這使得ARM CPU可以根據特定工作負載(如AI、HPC)進行深度定製和最佳化,實現極高的 “性能功耗比”。

MONAKA是富士通繼非常成功的A64FX(曾驅動 “富岳” 超算登頂世界第一)之後的新一代ARM架構伺服器CPU,它有極致的高性能與高能效比。MONAKA的目標是提供比競爭對手高2倍的能效。MONAKA 從一開始就設計為與輝達GPU通過NVLink-C2C技術進行高速互聯。這意味著CPU和GPU之間的資料交換延遲極低、資料頻寬極高,能極大緩解在傳統x86架構中常見的 “資料搬運瓶頸”,從而充分發揮GPU的AI算力。因此,MONAKA不是要做一個在所有場景下都最強的通用CPU,而是要做一個在特定HPC和AI場景下,能效最高、與輝達GPU協作最無縫的 “特長生”。

當然,富士通不僅有先進的ARM架構CPU,富士通還提供AI應用服務,其AI解決方案涵蓋了製造業、零售業、與醫療領域。

輝達通過與富士通的合作,可以打造出從晶片到系統、再到行業解決方案的完整“交鑰匙”方案,而不僅僅是賣GPU晶片。

過去的輝達就像一家世界頂級的發動機(GPU)製造商,它的發動機性能無敵,但需要安裝在別人家的車架(x86伺服器)上。現在的輝達,則正在成為一家頂級高性能跑車的整車製造商。通過最佳化底盤、傳動系統(ARM CPU),並將其與自己的無敵發動機(GPU) 完美整合,打造出一台在賽道上所向披靡的完整賽車。

輝達與富士通的戰略合作,站在輝達的立場,可以幫助輝達實現從 “發動機供應商” 到 “整車製造商” 的戰略轉型。站在富士通的立場,可以得到最先進的AI算力,有輝達的全球AI開發生態系統的加持,富士通的AI解決方案將如虎添翼。

在越來越競爭激烈的AI全球市場,輝達與富士通的戰略合作或許會成為一個互補、雙贏的範例。

在該戰略合作中,輝達提供全球最強的GPU加速計算能力和近乎壟斷的CUDA軟體生態。富士通提供世界級的高性能ARM CPU設計、強大的伺服器製造能力、深厚的5G網路技術,以及在日本和特定行業(如製造、金融)的市場管道。

雙方的能力高度互補,幾乎沒有重疊,是純粹的 “1+1>2” 增益。 (客觀日本)