AI國力戰爭:GPU是明線,HBM是暗線



2022年6月,我們率市場之先,提出「算力即國力」的觀點。時至今日,這個論點已經沒有太多的爭議。

隨著輝達在最新的財報會議中明示,不同的國家都在嘗試建立屬於自己的AI算力,這一暗流下的激烈角逐已經完全走向台前。

在這場國家級、企業巨頭之間的競爭中,站在最前排的是大模型和大模型的算力發動機GPU。

  • 從今年的Sora、Claude 3、GPT5的態勢來看,大模型的智力湧現並未有絲毫放緩的跡象;這也使得國產大模型的追趕,眼看要縮小的差距又被無情的拉大,但演算法的半透明和原理的公開,總歸讓這場競賽不至於被套圈太多。
  • 雖然GPU龍頭輝達股價一飛沖天,但攪局者的動力也有增無減,AMD作為二供被寄予了厚望,谷歌自研TPU也被不少人看好;而國產GPU選手華為昇騰、寒武紀、海光、沐熙、壁韌等也在嘗試形成自己的閉環。

但在較隱密的戰場,HBM(高頻寬記憶體)顯然是基本上被忽略的關鍵一環。


01 大模型和GPU是明戰,HBM則是暗戰

如果因循最基本的原則,從AI算力出發,我們知道限制單晶片能力的最大瓶頸有三個,分別是:GPU、先進製程(含CoWoS先進封裝),以及HBM。

其中GPU與先進製程是一體兩面的關係,優秀GPU企業如輝達設計出來GPU之後,還需要利用台積電的先進製程進行製造,再利用台積電、日月光的先進封裝技術CoWoS進行最後的合封,這一點在2023年CoWoS產能奇缺的時候,已被市場刨根問底。

而在同一顆AI晶片上的顯存顆粒模組HBM,作為與先進製程同等重要的存在,但到的關注顯然不夠。這款產品基本上完全被韓國的海力士和三星壟斷,合計佔市場份額的90%以上,絲毫不比GPU和CoWoS競爭格局差,而高度壟斷,在這逆全球化的背景下,隱含的就是高供應鏈風險。

HBM也是AI晶片中佔比最高的部分,根據外媒的拆解,H100的成本接近3000美元,而其中佔比最高的是來自海力士的HBM,總計達到2000美元左右,超過製造和封裝,成為成本中最大的單一佔比項。

雖然HBM非常昂貴,但隨著AI基礎算力需求的大爆發,草根研究顯示當前HBM仍是一芯難求,海力士和三星2024年所有的產能都已經完全被預定,行業的供需失衡可能在2025年也仍無法得到有效的緩解。可能強如輝達,也需要思考自己的HBM供應鏈是否夠安全。



這一重大的產業趨勢,自然也被記憶體晶片大國韓國瞭如指掌。

經過一段時間的醞釀,2024年初,韓國企劃財政部正式公佈了《2023年稅法修正案後續執行規則修正案草案》,將HBM等技術指定為國家戰略技術,進一步擴大稅收支持,在這一法案的支持下,三星電子、SK海力士等中大型企業可享有高達30%至40%的減免。

考慮到韓國的大企業所得稅一般在25%,這麼大力度的減免,相當於給了韓國的HBM產品直接額外賦予了接近10%的價格優勢。目前韓國的記憶體晶片企業海力士和三星,在HBM產品的產能和技術上,本來就處於斷檔式領先,即使其他追趕者能夠做出來產品,考慮到海力士和三星天然的價格屠夫的歷史形象,這將使得追趕者大概率始終陷入技術落後、價格高企的惡性循環中。

當然,韓國目前仍然是小大小鬧,還暫時沒有將HBM出口進行管制,或是進行相關的技術限制。但翻看最近的歷史,我們不得不對此事提起十二分的關注。

  • 2022年10月,美國限制中國先進製程的發展,從設備、技術到人才實現全方面圍堵,使得原本進步飛速的國產先進製程舉步維艱。
  • 2023年10月,美國限制輝達等美國企業向中國出口超過一定算力和頻寬的GPU晶片,直接對國產大模型實施了釜底抽薪式的打擊。

如果未來對HBM的限制變得嚴格,那麼就意味著我國在AI算力的三要素—先進製程、GPU和HBM—中,將陷入全方位的被動局面。

所以我們才說,上一輪最值得關注HBM的時間是十年前它被發明的時候,其次就是現在。


02 HBM的昨天、今天和明天

1.一種特殊類型的記憶體晶片,可以理解為DRAM的3D版本

記憶體晶片是最大的晶片品種。為了滿足不同場景的儲存需求,又被進一步的分為SRAM、DRAM、NAND、NOR等等,其中市場空間最大最為重要的是DRAM和NAND,也就是業內人士常說的大宗品存儲,全球的市場空間都是接近1000億美元。

DRAM對智慧型裝置的運作速度起到與主控晶片一樣的決定性作用,對於一般消費者都能接觸到的手機為例,主控晶片和記憶體(即行動裝置LPDDR DRAM )就是最重要的兩顆晶片。 HBM,正是DRAM中的一個分支品種,主打高性能。

根據產業協會的定義,DRAM可分為三種:1)主要用在電腦、伺服器中的標準DDR,也就是常說的記憶體條;2)手機和汽車等行動終端領域的LPDDR系列;3)用在資料密集型場景的圖形類DDR,HBM正是在這分類下。

所以,HBM是脫胎於普通的DRAM的升級產品,基於3D堆疊製程(使用TSV技術將多個DRAM晶片堆疊起來,在增加頻寬的同時,實現晶片間的高速通訊和低功耗),可以實現更高的記憶體頻寬和更低的能耗,。

2023年以前,雖然上述三種DRAM產品中,HBM在傳輸速度、容量和功耗方面都具備明顯的優勢,但高於普通DRAM數倍的價格,使得對HBM需求一直都是名氣沒輸過、銷售沒贏過的尷尬存在。


圖:記憶體晶片D RAM進一步分類,方正證券


但AI大模型的出現,使得HBM找到完美的應用場景。

眾所周知,大模型的智力湧現,依託於Scaling laws指導下的大力出奇蹟,大模型對數據量和算力有著近乎無上限的需求,而算力的發動機GPU和存儲池HBM,意外成為最大的受益者。

傳統頻寬的標準類DDR DRAM和行動類LPDDR DRAM顯然已經完全無法滿足AI晶片的需求,而立體堆疊的HBM,它相對普通的記憶體頻寬可以提升數倍,而功耗反而更低,卻完美契合大模型的要求。

所以我們可以看到,在AI場景中,輝達的GPU晶片不再是單獨售賣:從流程上,輝達首先設計完GPU,然後採購海力士的HBM,最後交由台積電利用CoWoS封裝技術將GPU和HBM封裝到一張片子上,最終交付給AI伺服器廠商。最終產品結構正如海力士的宣傳資料所展示的。

可以說,輝達、台積電、海力士,這三家公司共同構成了全球AI算力基座的鐵三角。



2.AI爆發帶來巨大的成長空間

從配角到主角的HBM,也隨著AI的爆發也迎來屬於自己的廣闊舞台。

在AI沒有爆發之前,市場預測全球HBM將穩定成長至100億美元的市場。但隨著2023年大模型的橫空出世,HBM的市場中樞預測被快速拔高。

根據市場機構計算,2023年HBM市場規模為40億美元,預計2024年增長至150億美元,到2026年增長至接近250億美元,年複合增速高達80%以上。這項計算也與海力士的估算相符上,2023年11月,海力士CEO表示,預計到2030年,海力士每年HBM出貨量將達到1億顆,隱含產值規模將接近300億美元,假設屆時海力士市佔率為50%,則整個市場空間將在500億美元左右。

屆時,HBM將從配角,正式成為記憶體晶片中最搶眼的主角。

圖:全球HBM市場規模預測(AI浪潮之前),方正證券


3.科技巨頭的縮圈遊戲

與AI算力中的其他要素一樣,HBM是一個科技難度極高的產品,典型特徵是重資本投入和高技術含量。

做HBM,首先就要求晶片企業能做出一流的DRAM,然後在這個DRAM芯粒的基數上做3D的堆疊。經過數十年的發展競爭,DRAM已經有極高的技術門檻,其製程已經微縮到極限,雖然叫法上略有不同,但整體與邏輯晶片差別不大,最先進的DRAM都離不開EUV光刻機的加持;同時還非常燒錢,投資金額極高,海力士每年資本開支超百億美元。所以,目前DRAM已經基本上被韓國三星、海力士以及美國美光所壟斷。



而從DRAM到HBM,拋開更高的資本開支不談,還新增三大製程難度:分別是TSV、MR-MUF、混合鍵結Hybrid Bonding。例如TSV技術,在維持較低的單I/O資料速率的情況下大幅提升了位寬進而獲得了遠優於GDDR的總頻寬表現。本文不就技術細節進行展開,這一難度就相當從2D電影進階到3D電影,完全是另一個維度的競爭。

直接衡量大家技術等級的,簡單可以看堆疊層數。根據了解到的最新產業動態:為配套輝達最新的H200,2024年下半年三大儲存廠將推出36GB版本的HBM3e或為12層堆疊。

對追趕者而言,靶子已經固定在那兒,只是難度不小。


03 HBM背後的國力之爭

我們判斷,從2024年起,HBM將繼GPU之後成為各國在算力競爭的關鍵。

毫無疑問,目前韓國海力士和三星遙遙領先。即使美國在這個領域也是落後的,他們本土的代表性公司美光科技已奮起直追。而中國國內的大宗存儲尚處在追趕狀態,所以HBM的落後自然也就更多,也更為急迫。

1.韓國雙子星閃耀:海力士的不放棄功不可沒

前文提到,HBM是基於DRAM的3D形態,而DRAM的全球霸主三星卻在HBM這一細分品類上處於落後狀態,而海力士卻是壟斷者的存在,這得益於公司對HBM技術的不離不棄。

早在10年前的2013年,海力士就首次製造出HBM,並被產業協會採納為標準。 2015年,AMD成為第一個使用HBM的客戶。但在此之後,HBM由於價格高昂,下游根本不買單,甚至一度被認為是點錯了科技樹。

但海力士死磕這個方向,並沒有放棄。在2015-2022年,雖然並沒有什麼突出客戶,海力士仍然對HBM產品進行了多達3次技術升級,絲毫不像對待一個邊緣產品的待遇。


圖:海力士HBM產品roadmap,公司路演資料


最終,憑藉著2023年至今的AI浪潮,海力士的HBM一芯難求,從無人問津到一飛沖天,10年的堅守終於換了回報。在低迷的韓國股市中,海力士股價也一騎絕塵,實現翻倍,成為跟上全球AI浪潮的唯一一家韓國公司。


另一方面,記憶體領域的霸主三星,得益於在DRAM上的深厚積累,以及並不落後的技術儲備,迅速崛起成為HBM排名第二的玩家。

2016年三星開始大規模量產HBM。落後海力士3年;而根據公司最新進展,三星已經於2023年實現了HBM3的量產出貨,而將在今年上半年推出HBM3E,而且規劃2025年實現HBM4的量產。根據這項規劃,三星與海力士的差距已經縮小到半年左右,而差距預計在2025年被完全消弭。

三星除了有DRAM的底氣之外,由於HBM當中包含部分邏輯晶片的電路,因此三星電子依託於自有的邏輯晶圓廠,確實具備彎道超車的比較優勢。而且同為韓國公司,直接挖相關人才也更容易。

毫無疑問,在HBM領域起了個大早的韓國,也絲毫沒有放鬆,還在朝前一路狂奔。

2.美國獨苗苦苦支撐,但猶可追

美國公司在HBM的競賽中落後似乎是命中註定的。由於記憶體晶片產業週期性極強,資本開支又是無底洞,已經逐漸被美國企業放棄,例如當年的記憶體晶片龍頭英特爾早已完全退出記憶體晶片市場,轉而增加了對韓國的依賴。

好在美國還剩下最後的獨苗美光科技。在儲存這個刺刀見紅的嗜血賽道上,它的生存之道是「苟住」。為了避免重大損失,美光一直在研發策略上堅持不做首發者,而更傾向於採取跟隨戰術,這樣能夠避免高昂的研發投入和可能打水漂的資本開支。

美光開始研發HBM的時間相對較晚,現在主流的HBM3上,美光的進度較海力士和三星落後半年以上。半年差距看似不大,但在AI硬體軍備競賽中,時間就是生命,大家為了確保大模型的領先,都爭相上最先進的算力產品,用最新的卡、最大頻寬的光模組和最優質的HBM,因此晚半年推出,就代表著整個市場的錯失,所以美光在HBM的份額低到只有個位數。

為了實現彎道超車,美光已經開始挖海力士和三星的核心人才,同時開啟多代產品的平行研發。該公司放衛星的表示,2024年底將實現HBM3E的量產,如果屆時完成,將使得其與韓國巨頭的技術差距明顯縮小。此外,公司規劃在2028年量產HBM4E ,將每個堆疊的容量提升到48GB 至64GB。

3.中國突圍路在何方?

美國尚存獨苗,中國的HBM產業尚處0到1的階段,要補的課程更多。

目前,中國企業在HBM產業鏈上的存在感甚至還落後於先進製程與GPU。如果說GPU只是人優我差的問題,HBM則是人有我無的問題。

雖然A股已經對HBM進行了一輪又一輪的炒作,但不得不承認的客觀現實是,國內到現在無法量產HBM,這成為國內自研AI晶片的重大隱憂,因為GPU需要和HBM利用CoWoS製程封裝在一起,國產的GPU和CoWoS製程都已經解決了有沒有的問題,已經進入量產爆發階段,而HBM還遙遙無期。

有別於境外市場要嘛押注龍頭海力士,要嘛押注能追趕上的美光,這種簡單的選擇題。 A股對HBM的投資邏輯演變成兩條:

  • 參與全球產業鏈。選擇能夠參與全球HBM供應鏈中的企業,例如做材料、代銷和封測的企業,如雅克科技、神工股份、太極實業、香農芯創等等。
  • 選擇相信國產化能夠成功。國內具備大宗DRAM能力的企業長鑫、晉華均未上市,因此選擇能夠可能在HBM封裝上面能夠發揮作用上市公司,如通富微電、興森科技、甬夕電子、長電科技等。

國產HBM正處於0到1的突破期;考慮到海外的貿易保護主義抬頭,可能靠自己是一條不得不走的路只能靠我們自己。

時間就是生命,但由於DRAM領域的落後,一家企業主導HBM的突破顯得更加困難。從產業鏈合力的角度,更有望突破,HBM顯然需要儲存廠、晶圓代工廠、封測廠的通力合作。根據最新的產業信息,到2026年我國將具備量產HBM的能力,但這速度顯然還是有點跟不上日新月異的大模型需求。

也就是說,現在,留給HBM中國隊的時間唯「緊迫」二字。(錦緞)