記憶體技術作為電腦系統的核心組成部分,其效能的提升對於整體運算能力的提升至關重要。在這個背景下,高頻寬記憶體(HBM)以其卓越的效能表現,正逐漸在記憶體技術領域嶄露頭角,成為推動運算領域進入全新時代的關鍵力量。
相較於傳統的動態隨機存取記憶體(DRAM),HBM的效能優勢顯而易見。
01 遠超越DDR
DDR 是一種常見的電腦記憶體類型,最早是為了提高記憶體傳輸速率而設計的。它採用了雙倍數據傳輸技術,即在每個時脈週期內可以傳輸兩次數據,從而提高了數據傳輸速率。
目前最常見的DDR版本是DDR4、DDR5,但過去還有DDR3、DDR2、DDR等版本。每一代DDR版本都有不同的資料傳輸速率和效能。
DDR記憶體通常用於電腦的系統內存,用於儲存作業系統和正在運行的應用程式等資料。
HBM是一種高頻寬記憶體技術,專注於提供更高的記憶體頻寬,尤其適用於高效能運算和圖形處理領域。HBM的一個顯著特點是,它使用了堆疊技術,將多個DRAM晶片垂直堆疊在一起,從而大大增加了資料通路,提高了記憶體的頻寬。
因此HBM 具有可擴展更大容量的特性。不僅HBM 的單層DRAM 晶片容量可擴展,HBM 還可以透過4 層、8 層以至12 層堆疊的DRAM 晶片,此外HBM可以透過SiP 整合多個HBM 疊層DRAM 晶片等方法,實現更大的記憶體容量。
HBM記憶體通常用於高效能顯示卡、GPU加速器以及需要大量資料傳輸的高效能運算應用中。
從功耗角度來看,由於採用了TSV 和微凸塊技術,DRAM 裸片與處理器間實現了較短的訊號傳輸路徑以及較低的單引腳I/O 速度和I/O 電壓,使HBM 具備更好的記憶體功耗能源效率特性。以DDR3 記憶體歸一化單腳I/O 頻寬功耗比為基準,HBM2 的I/O 功耗比明顯低於DDR3、DDR4 和GDDR5 記憶體,相對於GDDR5 記憶體,HBM2 的單腳I/O頻寬功耗比數值降低42%。
在系統整合方面,HBM 將原本在PCB 板上的DDR 記憶體顆粒和CPU 晶片全部整合到SiP 裡,因此HBM 在節省產品空間方面也更具優勢。相對於GDDR5 記憶體,HBM2 節省了94% 的晶片面積。
02 三大原廠的研發歷程
目前的HBM市場主要以SK海力士、三星和美光三家公司為主。
2014 年,SK海力士與AMD 共同開發了全球首款矽通孔HBM,至今已迭代升級了4代HBM產品,性能與容量持續提升。2020年SK海力士宣布成功研發新一代HBM2E;2021年開發出全球第一款HBM3;2022年HBM3晶片供貨英偉達。2023年8月,SK海力士推出HBM3E,11月英偉達宣布H200將搭載HBM3E。
可以說從HBM1、HBM2E、HBM3、HBM3E,SK海力士持續領先。2022年SK海力士佔據HBM市場約50%的份額,三星佔40%,美光佔10%。
在很長一段時間內,SK海力士都是英偉達HBM的獨家供應商。2023年SK海力士基本壟斷了HBM3供應,今年其HBM3與HBM3E的訂單也已售罄。
三星是在2016年,開始宣佈量產4GB/8GB HBM2 DRAM;2018年,宣布量產第二代8GB HBM2;2020年,推出16GB HBM2E產品;2021年,三星開發出具備AI處理能力的HBM-PIM ;雖然三星的路線圖顯示2022年HBM3技術已經量產,但實際上三星的HBM3在2023年底才正式完成驗證,這意味著在大量生產之前,市場還是由SK 海力士壟斷。
再看美光,2020年,美光宣布將開始提供HBM2記憶體/記憶體;2021年,HBM2E產品上市。為了改善自己在HBM市場中的被動地位,美光選擇了直接跳過第四代HBM即HBM3,直接升級到了第五代,即HBM3E。隨後在2023年9月,美光宣布推出HBM3 Gen2(即HBM3E),後續表示計劃於2024 年初開始大批量發貨HBM3 Gen2 內存,同時透露英偉達是主要客戶之一。
03 HBM2e過渡到HBM3e
HBM的概念的起飛與AIGC的火熱有直接關係。
AI大模型的興起催生了海量算力需求,而資料處理量和傳輸速率大幅提升使得AI伺服器對晶片記憶體容量和傳輸頻寬提出更高要求。HBM具備高頻寬、高容量、低延遲和低功耗優勢,目前已逐步成為AI伺服器中GPU的搭載標配。
目前,HBM產品以HBM(第一代)、HBM2(第二代)、HBM2E(第三代)、HBM3(第四代)、HBM3E(第五代)的順序開發,最新的HBM3E是HBM3的擴展版本。
資料來源:山西證券
HBM每一次更新迭代都會伴隨著處理速度的提升。引腳(Pin)資料傳輸速率為1Gbps的第一代HBM,發展到其第五代產品HBM3E,速率提高到了8Gbps,即每秒可以處理1.225TB的資料。也就是說,下載一部長達163分鐘的全高清(Full-HD)電影(1TB)只需不到1秒鐘的時間。然,記憶體的容量也在不斷增加。HBM2E的最大容量為16GB,目前,三星正在利用EUV光刻機來製造24GB容量的HBM3晶片,此外8層、12層堆疊可在HBM3E上實現36GB(業界最大)的容量,比HBM3高出50% 。
先前SK海力士、美光均已宣布推出HBM3E晶片,皆可實現超過1TB/s的頻寬。
根據TrendForce集邦諮詢調查顯示,2023年HBM市場主流為HBM2e,包含NVIDIA A100/A800、AMD MI200以及多數CSPs自研加速晶片皆以此規格設計。同時,為順應AI加速器晶片需求演進,各原廠計畫於2024年推出新產品HBM3e,預期HBM3與HBM3e將成為明年市場主流。
04 HBM3e市場徹底引爆
SK海力士無疑是這波內存熱潮中的最大受益者,截至2023年12月31日,SK海力士在2023財年和第四季度的營收取得了顯著增長。特別是其主力產品DDR5 DRAM和HBM3,在這一年的營收較去年上漲了4倍以上。
英偉達和AMD的下一代人工智慧GPU預計將主要搭載HBM3記憶體。例如,H100是第一款支援PCIe 5.0標準的GPU,也是第一款採用HBM3的GPU,最多支援六顆HBM3,頻寬為3TB/s,是A100採用HBM2E的1.5倍,預設顯存容量為80GB。
2023年11月英偉達發表了新一代AI GPU晶片H200,以及搭載這款GPU的AI伺服器平台HGX H200等產品。這款GPU是H100的升級款,依舊採用Hopper架構、台積電4nm製程工藝,根據英偉達官網,H200的GPU晶片沒有升級,核心數、頻率沒有變化,主要的升級便是首次搭載HBM3e顯存,並且容量從80GB提升至141GB。
由於新升級的HBM3e晶片,H200的顯存頻寬可達4.8TB/s,比H100的3.35TB/s提升了43%。不過這遠遠沒有達到HBM3e的上限,海外分析家稱英偉達有意降低HBM3e的速度,以追求穩定。如果與傳統x86伺服器相比,H200的記憶體效能最高可達110倍。
由於美光、SK海力士等公司的HBM3e晶片需等到2024年才會出貨,因此英偉達表示H200產品預計將在2024年第二季正式開賣。
AMD 的MI300 也搭配HBM3,其中,MI300A 容量與前一代相同為128GB,更高階MI300X 則達192GB,提升了50%。AMD稱,MI300X提供的HBM密度最高是英偉達AI晶片H100的2.4倍,其HBM頻寬最高是H100的1.6倍。這意味著,AMD的晶片可以運行比英偉達晶片更大的模型。
同時,在2023年隨著AI GPU 以及與AI相關的各類需求激增,HBM價格也持續上漲。市場研究機構Yolo Group 報告顯示,2023 年期間HBM 記憶體供需鏈發生了重大變化,生產水平和採用率同時大幅提高,使得HBM 成為比人工智慧熱潮之前更有價值的資源,2023年HBM 晶片的平均售價是傳統DRAM 記憶體晶片的五倍。
在HBM盛行的當下,沒有一家儲存廠商能夠忍住不分一杯羹。
05 三大原廠為之“瘋狂”
技術升級
三大原廠的研究進展
SK海力士在SEMICON Korea 2024上發布了一項重要公告,公佈了其雄心勃勃的高頻寬記憶體路線圖。該公司副總裁Kim Chun-hwan透露,計劃在2024上半年開始量產先進的HBM3E,並強調向客戶交付8層堆疊樣品。
HBM3E是SK海力士產品線的最新產品,可滿足日益增長的資料頻寬需求,在6堆疊配置中,每堆疊可提供1.2 TB/s和驚人的7.2 TB/s通訊頻寬。Kim Chun-hwan將這種進步的緊迫性歸因於生成式人工智慧的迅速崛起,預計將見證驚人的35%的複合年增長率(CAGR)。然而,他警告說,在不斷升級的客戶期望的推動下,半導體行業正在面臨「激烈的生存競爭」。
隨著製程製程節點的縮小並接近其極限,半導體產業越來越關注下一代記憶體架構和工藝,以釋放更高的效能。SK海力士已經啟動了HBM4的開發,計劃於2025年提供樣品,並於隔年量產。
根據美光的訊息,與前幾代HBM相比,HBM4將採用更廣泛的2048位元介面。導致每個堆疊的理論峰值記憶體頻寬超過1.5 TB/s。為了實現這些非凡的頻寬,在保持合理功耗的同時,HBM4的目標是大約6GT/s的資料傳輸速率。這種更寬的介面和更快的速度將使HBM4能夠突破記憶體頻寬的界限,滿足日益增長的高效能運算和AI工作負載需求。
三星是半導體產業的主要參與者,該公司也有HBM4的發佈時間表,計劃於2025年提供樣品,並於2026年量產。三星高層Jaejune Kim透露,該公司的HBM產量的一半以上已經由專業產品組成。客製化HBM解決方案的趨勢預計將加劇。透過邏輯集成,量身定制的選項對於滿足個人化客戶需求至關重要,從而鞏固了市場地位。
隨著HBM3E的發布和HBM4的準備,SK海力士和三星正在為未來的挑戰做準備,旨在保持其在HBM技術前沿的地位。不僅如此,全球前三大記憶體晶片製造商正將更多產能轉移至生產HBM,但由於調整產能需要時間,很難迅速增加HBM產量,預計未來兩年HBM供應仍將緊張。
擴產情況
再看三大原廠的擴產情況。據悉,SK海力士將擴大其高頻寬記憶體生產設施投資,以應對高性能AI產品需求的增加。
去年6月有媒體通報稱,SK海力士正在準備投資後段製程設備,將擴建封裝HBM3的利川工廠,預計到今年年末,該廠後段製程設備規模將增加近一倍。
此外,SK海力士還將在美國印第安納州建造一座最先進的製造工廠,據兩位接受英國《金融時報》採訪的消息人士透露,SK海力士將在這家工廠生產HBM 堆棧,這些堆棧將以於台積電生產的Nvidia GPU,SK 集團董事長表示,該廠預計耗資220 億美元。
三星電子和SK 海力士之間的競爭正在升溫。三星電子從去年第四季開始擴大第四代HBM即HBM3的供應,目前正進入一個過渡期。負責三星美國半導體業務的執行副總裁Han Jin-man 在今年1月表示,公司對包括HBM 系列在內的大容量儲存晶片寄予厚望,希望它能引領快速成長的人工智慧晶片領域。他在CES 2024的媒體見面會上對記者說,“我們今年的HBM 晶片產量將比去年提高2.5 倍,明年還將繼續提高2 倍。”
三星官方也透露,該公司計劃在今年第四季之前,將HBM 的最高產量提高到每月15 萬至17 萬件,以此來爭取2024年的HBM市場。先前三星電子斥資105億韓元收購了三星顯示位於韓國天安市的工廠和設備,以擴大HBM產能,同時也計劃投資7,000億至1兆韓元新建封裝線。
為了縮小差距,美光對其下一代產品HBM3E 下了很大的賭注,美光首席執行官Sanjay Mehrotra 表示:「我們正處於為英偉達下一代AI 加速器提供HBM3E 的驗證的最後階段。」其計劃於2024 年初開始大批量發貨HBM3E 內存,同時強調其新產品受到了整個行業的極大興趣。據悉,美光科技位於中國台灣地區的台中四廠已於2023年11月初正式啟用。美光錶示,台中四廠將整合先進探測與封裝測試功能,量產HBM3E及其他產品,進而滿足人工智慧、資料中心、邊緣運算及雲端等各類應用日益增長的需求。該公司計劃於2024年初開始大量出貨HBM3E。
值得注意的是高階HBM的競爭才剛開始,雖然目前HBM產品佔整體儲存的出貨量仍然非常小,長期來看,隨著消費性電子產品向AI化發展,對於高算力、高儲存、低能耗將是主要訴求方向,鑑於此預期HBM也將成為未來儲存廠商的技術發展方向。(半導體產業縱橫)