對壘輝達,AMD還差在那兒?


在科技飛速發展的時代,半導體行業始終是焦點所在。AI 晶片領域更是猶如戰場,各大廠商你爭我奪。

近日,AMD 推出新款晶片 MI325X,並隨之更新了 AI 晶片路線圖,這一舉措在業內引發了強烈反響。與此同時,人們廣泛熱議,AMD是否能夠向輝達的領導地位發起有力挑戰?AMD 又能從這場激烈的競爭中攫取多少勝利的果實?除了AMD,輝達需要面臨的挑戰還有那些?

在此之前,一起瞭解一下AMD的新款晶片MI325X帶來那些亮點?以及其最新的AI晶片路線圖又透露了何種資訊。

01 MI325X,能否與B200掰手腕?

AMD最新推出的Instinct MI325X AI加速器,在大獲成功的MI300X基礎上再進一步,著重增強了HBM記憶體部分。

在AMD的表述中,主要將其與輝達前代產品H200進行對比,而在今年3月,輝達發佈了其新款AI晶片B200。至於AMD這款新品與輝達的H200相比有那些亮點,這款產品有沒有能力與輝達的最新GPU B200掰掰手腕?

為了對比更為詳盡,本文再次將這幾款產品進行對比。

AMD最新推出的Instinct MI325X AI加速器採用了AMD CDNA 3 GPU架構,內建1530億個電晶體,配備256GB下一代HBM3E高頻寬記憶體,提供6TB/s的記憶體頻寬。此外,MI325X在FP8和FP16精度下分別達到2.6 PF和1.3 PF的峰值理論性能。

作為對比,輝達3月發佈的基於Blackwell架構的B200 GPU基於台積電的N4P製程工藝,擁有高達2080億的電晶體數量和192GB的HBM3e記憶體容量,提供了8TB/s的記憶體頻寬,以及20PF的FP8峰值性能。

輝達B200 GPU的AI運算性能在FP8及新的FP6上都可達20 PF,是前一代Hopper構架的H100運算性能8 PF的2.5倍。在新的FP4格式上更可達到40 PF,是前一代Hopper構架GPU運算性能8 PF的5倍。

從工藝製程上來看,MI325X未作披露,而B200採用上文所述的台積電N4P製程工藝。

從電晶體數量來看,輝達B200此數值兩倍於AMD MI325X。

從記憶體角度來看,AMD MI325X有著更高的記憶體容量,這可能使其在某些AI模型的推理性能上表現出色,但其頻寬低於輝達B200的8 TB/s。

從FP8峰值性能來看,輝達B200以20 PF的FP8峰值性能脫穎而出。雖然在浮點運算能力上,B200 整體上要優於 MI325,但 MI325 的性能也足以滿足大多數人工智慧和高性能計算的需求。

從量產時間來看,兩者的量產時間較為接近。AMD MI325X預計在2024年第四季度正式投產,2025年一季度開始向客戶交付。輝達的B200晶片原計畫於今年晚些時候正式出貨,然而由於Blackwell產能問題影響,其新款Blackwell B200晶片將延遲發佈三個月或更長時間,批次出貨或延遲至明年第一季度。

總體而言,AMD MI325X與輝達B200相比,仍存在顯著差距。不過,與輝達的前代產品H200 相比,MI325X的資料參數已有了大幅提升。

AMD資料顯示,MI325X與輝達H200的整合平台H200 HGX對比,MI325X平台提供1.8倍的記憶體量、1.3倍的記憶體頻寬和1.3倍的算力水平。蘇姿丰還表示,在運行Meta的Llama 3.1大模型時,MI325X的推理性能比H200高出40%。

02 未來AI晶片路線圖,再度更新

除了晶片的發佈,AMD還公佈了最新的AI晶片路線圖。

AMD的AI晶片佈局

AMD Instinct MI350系列首款產品即Instinct MI355X,將引入新一代的CDNA 4架構,採用3nm工藝製造,搭配HBM3E,總容量進一步提升到288GB,對應頻寬提高到8TB/s,TDP也上升到1000W,計畫2025年下半年開始發貨。

按照AMD的說法,Instinct MI355X提供了2.3PF的FP16和4.6PF的FP8計算性能,相比前代產品的提升幅度約為77%。此外,新產品還將支援新的資料類型,包括FP4和FP6。


另外,基於下一代AMD CDNA“Next”架構的AMD Instinct MI400 系列預計將於 2026 年上市。

輝達的AI晶片佈局

沿著規劃的AI藍圖,輝達加速前行,接下來將一年就更新一代產品,以往通常是兩年更新一代。

今年6月,輝達CEO黃仁勳帶來了最新的AI晶片路線圖。


眼下,Blackwell架構的GPU產品正在生產中,將成為2024、2025年的重要營收驅動。

接下來,輝達計畫發佈一個增強版Blackwell Ultra GPU(8S HBM3e 12H),預計將於2025年推出。這款晶片將擁有 8 堆疊 HBM3e 記憶體,每疊有 12 個die高。B100 中的疊層大概是 8 堆疊,因此這應該代表 Blackwell Ultra 上的 HBM 記憶體容量至少增加 50%,甚至可能更多,具體取決於所使用的 DRAM 容量。HBM3E 記憶體的時鐘速度也可能更高。

下一代Rubin GPU(8S HBM4)和相應的平台將於2026 年上市,這款晶片在此前的輝達路線圖中曾被稱為 X100,Rubin GPU 將使用 HBM4 記憶體,並將有 8 個堆疊,大概每個堆疊都有 12 個 DRAM。

隨後於2027 年的 Rubin Ultra GPU 將有 12 個 HBM4 記憶體堆疊,並且可能還有更高的堆疊。

為了有更直觀的對比,可以仔細查閱下圖:


那麼,從技術路線圖的角度進行觀察,AMD 與輝達在發展處理程序上似乎並沒有太大的差距。然而,在實際應用場景當中,這兩家企業之間的較量究竟呈現出怎樣一番景象呢?當產品真正投入到各種應用場景中時,無論是在遊戲體驗、專業圖形處理,還是在人工智慧等相關領域,AMD 和輝達的產品會各自發揮出怎樣的性能?

03 較量之下,輝達依舊是最大贏家

過去數年間,輝達在資料中心GPU市場中佔據了主導地位,幾乎構成了壟斷,而AMD則長期穩居次席。

根據今年年初富國銀行的統計,輝達目前在資料中心AI市場擁有98%的市場份額,而AMD僅有1.2%的市場份額,英特爾則只有不到1%。

近日,根據摩根士丹利分析師發佈的報告稱,輝達Blackwell GPU未來12個月的產能已經被預定一空。這意味著現在下訂單的新買家必須等到明年年底才能收到貨。摩根士丹利的分析師 Joseph Moore在給客戶的一份報告中指出,輝達的傳統客戶(AWS、CoreWeave、Google、Meta、Microsoft 和Oracle等)已經購買了輝達及其合作夥伴台積電在未來幾個季度將能夠生產的所有 Blackwell GPU。

如此壓倒性的需求可能表明,儘管來自AMD、Intel、雲服務提供商(自研AI晶片)和各種小型公司的競爭加劇,但輝達明年的AI晶片市場份額將會進一步增長。

不過,AMD並沒有因此沮喪。AMD在與輝達的競爭中,長期將自身看作“市場的多一種選擇”。蘇姿丰此前表示,AI晶片市場足夠大,容得下多家企業,“AMD不是必須要打敗輝達才能成功”。

市場研究機構Moor Insights&Strategy首席分析師帕特里克·莫爾黑德(Patrick Moorhead)表示,“AMD面臨的最大挑戰是獲得企業市場份額。AMD需要在銷售和行銷方面投入更多資金,以加速其企業增長。”

從當前AI市場競爭格局來看,儘管 AMD 新款 GPU 較以往有所進步,但業界分析師認為,AMD 的技術至少落後輝達一年。

不過,根據美國投資銀行和金融服務公司KeyBanc分析師約翰・溫(John Vinh)的分析,他認為今年AMD MI300X AI 加速卡的出貨量將突破 50 萬張。該分析師認為在資料中心領域,輝達雖然一騎絕塵,AMD難以望其項背,但是 Instinct MI300X 憑藉著卓越的實力,極高的性價比,成為行業客戶的重要備選方案,包括聯想在內的部分公司都認可 MI300X,這最終為 AMD 帶來了更多的業務。

在近日的晶片發佈會上,AMD 還強調了與甲骨文、Google、微軟、Meta 等廠商的合作關係,蘇姿丰稱,微軟、OpenAI、Meta、Cohere 等多個廠商的生成式 AI 平台已採用 MI300系列驅動。

至於輝達究竟有何優勢,以及基於那些條件使其在 AI 盛行的時代脫穎而出,主要有以下幾點。

04 兩者對比,差距在那裡?

第一,輝達的 AI 晶片本身性能就十分強悍。從架構設計上來看,輝達的 AI 晶片採用了高度最佳化的架構;在浮點運算能力方面,輝達的 AI 晶片表現卓越。浮點運算能力是衡量晶片處理能力的關鍵指標之一;輝達的晶片還具備出色的平行處理能力。AI 計算任務通常具有高度平行化的特點,輝達的 AI 晶片通過整合大量的計算單元,能夠同時處理多個資料區塊。這種平行處理能力可以讓晶片在處理 AI 任務時充分利用資料的平行性,進一步提高計算效率;在記憶體頻寬和快取設計上,輝達也有獨特的優勢。

除了強悍的晶片性能,輝達在以下幾個方面的努力也多有裨益。

第二,在研發投入方面,輝達向來不惜 “血本”。據悉,輝達在截至七月份的季度中錄得30.90億美元的研發費用。將這一數字按年計算,這家GPU製造商一年的累計研發費用約 123.6 億美元。

相比之下,AMD 在其截至6月底的季度中錄得15.93億美元的研發費用。將這一數字按年計算,該公司一年的累計研發費用為 63.72 億美元。換句話說,根據目前的年化預測,輝達目前的研發投入是AMD的2倍。

其實在發展初期,輝達就非常重視研發生產力。2005年,AMD 的研發費用為11億美元,是輝達的3.2倍左右;而到了2022年,輝達的研發費用就達到73.4億美元,是AMD的1.47倍。截至整個2024財年(2023年自然年),輝達研發費用高達86.75億美元,是AMD同期研發費用的1.48倍。

過去10年(2014-2023自然年),輝達累計投入費用高達364億美元,高於蘋果公司、微軟公司等科技巨頭。隨著研發投入的不斷增長,輝達通過技術進步降低成本和產品價格,不斷推出新的產品吸引更多消費者,優勢自然也逐漸凸顯。

第三,在生態佈局方面,輝達下手也頗早。輝達推出CUDA平台,使得利用GPU來訓練神經網路等高算力模型的難度大大降低,將GPU的應用從3D遊戲和圖像處理拓展到科學計算、巨量資料處理、機器學習等領域,這一生態系統的建立讓很多開發者依賴於CUDA,進一步增加了輝達的競爭壁壘。

如今AMD在搶佔市場份額時遇到的最大難題,就在於輝達利用自家CUDA平台,已在AI軟體開發領域建立起一條護城河,把不少開發人員牢牢繫結在了輝達的生態系統裡。作為應對,AMD一直在不斷最佳化名為ROCm的軟體,目的就是讓AI開發人員能更輕鬆地把更多AI模型“搬”到AMD的晶片上。目前,ROCm的最新版本6.2,相較於舊版在推理和訓練上都有了超過2倍的提升。

第四,輝達憑藉早期與台積電的緊密合作,得以在先進製程的獲取上搶佔先機。在晶片製造中,先進製程工藝能夠顯著提升晶片的性能表現。輝達與台積電長期穩定的合作關係,使其在晶片生產的供應鏈管理上更加成熟。這種成熟體現在生產計畫的精確安排、生產周期的有效控制以及產品良率的保障上。輝達可以根據市場需求預測,合理安排晶片的生產計畫,確保產品能夠及時供應市場,滿足客戶需求。同時,在生產過程中,較高的產品良率意味著更低的生產成本和更高的生產效率。

相比之下,AMD 在爭取台積電先進製程產能時,往往受到輝達訂單的擠壓,在生產計畫和良率控制方面可能面臨更多的不確定性,這在一定程度上影響了 AMD 產品的市場競爭力和供貨穩定性,進而導致其在 AI 晶片市場份額爭奪中處於劣勢。

05 結語

綜上所述,輝達在研發投入、生態佈局、生產製造以及晶片性能等方面都展現出強大的實力,這使其在當前的 AI 晶片市場中佔據了絕對的主導地位。然而,AMD 並非毫無機會。儘管目前 AMD 在這些關鍵領域相較於輝達處於劣勢,但它正在積極地做出改變和追趕。

隨著 AI 市場的不斷擴大和技術的持續迭代,未來充滿了變數。十年之後的AI晶片市場將呈現何種競爭格局,還未曾可知。 (半導體產業縱橫)