2024,輝達要花450億買晶片

前段時間,知名硬體網站Tomshardware引述知情人士的消息稱,輝達為了確保今年的GH200、H200的供應,開出13億美元的預算,向美光和SK海力士預定了部分HBM3e內存產能。

不過由於這組數據沒有合理的計算,13億的預算的可信度有待確認,但可以肯定的是,這筆預算不可能買空2024年全球HBM的產能。

它的價值在於,可以幫助輝達搶到2024年上半年「壟斷算力」的機會窗口——產品先市場化,就能先搶到市場份額。



2024,約5600萬顆HBM出貨


2024年,SK海力士、美光和三星三家代工產能總計會擴大到75萬片晶圓,以目前業界的數據,HBM3e的良率大概90%左右,每片晶圓約可以切出750顆,全球2024年的HBM總產能大致為5,600萬顆( 12層+ 8層),但大規模產能集中在下半年開出,上半年比例略小

倘若基於2024年CoWoS封裝產能推算:

而在GPU-HBM垂直封裝的產能方面,截至2024年第4季度,全球CoWoS的封裝總產能推算約30萬片晶圓,其中包括台積電約27萬片,Amkor約4萬片,而由於這些晶圓流片的製程節點集中在5nm和3nm,當期良率約38%,保守設定單片晶圓可切30顆GPU晶片,即2024年全年,全球經由CoWoS封裝的GPU產品,產能約為900萬顆。以單顆GPU邏輯晶片搭配6顆HBM記憶體顆粒的標準計算(AMD MI300搭配8顆HBM),全球2024年的GPU,對HBM記憶體的需求就在5400萬顆以上(12層為主)。

小註:CoWoS俗稱2.5D封裝,全名為Chip on Wafer on Substrate,用於在相對理想的電氣規則下滿足多顆運算晶片的互連以及儲存晶片的堆疊實現。


CoWoS封裝示意圖,上部分紅圈為CoW,下部分紅圈為oS 來源:網絡


目前,12層HBM顆粒的通路單價約為每顆250美元+,倘若13億預算的說法屬實,輝達僅能預訂520萬顆,僅佔HBM全年總產能的1/10。

實際上,根據封裝資料的推算,輝達2024年預定了超過14萬片晶圓的CoWoS產能,其中台積電作為“主要供應商”分到12萬片,Amkor作為“次級供應商”分到2- 3萬片,對應GPU整體的產能接近450萬顆。

以每顆GPU邏輯晶片和儲存顆粒1:6的比例測算,即輝達全年需要約2700萬顆HBM,基於單顆250美元的成本測算,意味著輝達全年採購HBM晶片的費用可以預測到68億美元,遠超過先前媒體揭露的13億美元預算。

注意:諸如輝達RTX系列使用GDDR6顆粒的消費級顯示卡,自然不計入CoWoS產能;上述的輝達產能是特指Hopper系列和Blackwell架構的B200,由此估算2024年輝達的HBM顆粒訂單需求是2700萬顆。


輝達H100實體圖,中間為邏輯晶片,旁邊為6顆HBM晶片來源:網絡


HBM產能吃緊的背後


截至2024年第4季度,各家GPU超算產品對應HBM顆粒封裝的預定產能約900萬顆,結合2025年海力士/三星/鎂光三家內存廠的擴產計劃總計近6000萬顆HBM(12層為主,8層略少),這兩份供應數據就是吻合的,同時也說明2024-2025年的CoWoS和HBM產能是充足的。

不過雖然產能不缺,但是上述數據畢竟是“年度計”,事實上很多產能直到第4季度才會開出,而各家預定的產能當然是越早越好,時效性是關鍵條件,上半年初的機會窗口更重要,倘若下半年才開始投產,那麼產品進入通路就要等到隔年。

另外關於CoWoS產能的擴充,目前主要依賴台積電和Amkor的產能,諸如台聯電、格芯等產線,雖然也能做前道65nm的中介層,但由於缺乏先進製程覆蓋的能力,即無法代工前道的先進製程邏輯晶片和中介層,也無法實現一條龍的CoWoS全棧,目前看最有機會的追趕者是三星。

三星計劃導入全端CoWoS封裝,產品化命名為I-CUBE/H-CUBE,與台積電爭奪訂單;但是三星在2024年尚且不能開出產能,2025年可能對三星更有利,作為同時供應HBM和CoWoS的IDM廠商,其製程特點和價格優勢是顯見的。 (未來,三星還會推出X-CUBE 3D封裝,統稱為SAINT,也就是三星先進封裝技術。)

另外,倘若2025年英特爾的晶圓代工業務順利實現獨立運營,其Intel Foveros封裝方案也值得觀望。

目前我們看到HBM全球庫存和通路周轉十分緊張,實際原因是當期HBM3e供應商僅有SK海力士一家,恰逢大模型高速發展的趨勢帶來的HBM需求高峰,進而出現供需失衡,但這種失衡會隨著產能擴大而減緩。

不過,有一點要關注,儲存顆粒是一種標準品SKU,無需針對顆粒本身做客戶化定制,於是這個品類就產生了所謂現貨市場。標準現貨是可以透過通路或分銷平台正常流通的,即倘若2024年SK海力士、美光和三星三家內存廠規劃的產能全部順利開出,則全球各區域的代理商庫存都會充足,無數的次級通路/次級代理商都可以無限轉售。

因此,只要現貨庫存充足、價格趨勢向好,現貨市場便永遠可以拿貨,演變成DRAM現貨通路的業態,這是記憶體顆粒的產業特性。

這就引發了一個很有意思的話題,倘若出於特殊原因,某個企業無法透過向上述三家訂貨怎麼辦?

現貨市場就是一個通路-特定企業可以從現貨市場購買HBM顆粒,進而再適配控制器、適配I/O和邏輯封裝。

倘若現貨市場仍買不到HBM內存,也可以從現貨市場採購2D-DRAM顆粒,再通過TSV垂直方向通孔、TCB熱壓鍵合(未來更多層堆疊則需要Hybrid Bonding鍵合)的封裝工藝可以堆疊出一個規格不算高的HBM裝置。

當然,終極目標就是自研內存顆粒,實現HBM自主產業化。


H100和MI300封裝方案圖解來源:網絡


CoWoS的門檻:產業鍊與良率


參考當下的GPU晶片構型,倘若缺少CoWoS封裝結構,HBM甚至無處擺放。

目前全球可選的CoWoS產能供應商有幾個類別:

其一是台積電CoWoS;

其二是由台積電完成晶圓和前道中介層的製造(即CoWoS的“CoW”部分,堆疊+互連),隨後交由自家封裝廠(例如空閒的InFO產能)或是合作第三方OSAT封裝廠,俗稱外包封裝廠,完成「on Substrate」部分,即封裝在基板上;

其三是,可委託由聯電、格芯生產中介層,隨後再送交Amkor或日月光等OSAT產線,委託完成「WoS」部分。但如前文提到,這兩家製程節點基本上在65nm左右,不能代工先進前道的先進製程邏輯晶片和中介層,也不能完成一條龍的CoWoS全端;

其四是Samsung I-Cube/H-Cube和Intel Foveros,兩家都可以完成全端CoWoS交付,但目前都還沒有開出產能

其五是國內也有一部分CoWoS的能力,但幾乎全部是CoW+WoS的工藝對接,也就是聯電、格芯+Amkor、日月光的模式。

相較於其它製造工序而言,CoWoS並沒有極度前緣的技術門檻,唯一的關鍵是它要確保在高微縮製程下的高良率。

因為在封裝層面,倘若出品有較高的不良/失效,那麼上面堆疊連接的HBM等裝置就變成無可挽回的損耗了,能夠兼顧較高工藝節點和良率的廠商,目前唯有台積電可以滿足。

單就CoW+WoS產能而言,全球可以開出許多產能(尤其是WoS廠商),但是能夠適用於先進運算晶片的製程/良率的產能則不多。

導致上述良率門檻的原因是工藝:

以WoS良率為例,困難主要在於其封裝的中介層尺寸應有嚴格限制,即矽中介層面積需要大於其上面2個甚至多個裸晶的尺寸總和。然而,隨著這個尺寸越來越大,第五代CoWoS甚至支持通過一種"2-way lithography stitching approach技術"使得中介層尺寸可以擴到2500mm²,隨之帶來的工藝風險就是-on wafer ,也就是矽晶圓上堆疊時出現邊緣扭曲、接角垂直凸等變問題,導致封測後不良,而台積電CoWoS工藝磨合了10幾年,積累大量knowhow,才獲得如今可靠的高良率。


台積電對外的技術ppt,矽中介層可達2500mm² 來源:網絡


對於OSAT專業封裝廠(包括Amkor/日月光等),製程良率拉升緩慢也與前段中介層的分開製造有關,雖然CoW+WoS是合理的產業鏈分工,但是拉升兩者共同出品的良率需要兩家製程同步發展。

目前,大陸的先進邏輯晶片和中介層基本上是由SMIC製造,再將其委託給OSAT專業封裝廠完成WoS封測;而倘若拿不到SMIC的產能,也可以委託聯電和格芯代工。

未來可能全球大部分2.5D封裝都會是前道+後道合作的模式;前道晶圓廠提供中介層做CoW,後道有載板的做WoS。另外,CoWoS也會更下沉適用到其它場景,涉及AI-HPC的未來大部分產品都會依賴CoWoS封裝,2.5D/3D封裝目前來看,晶圓廠還是相比OSAT更具優勢。


結語


隨著AI-HPC產業對於HBM記憶體的高度需求,該元件的產品受眾、貨值和市場空間都是水漲船高,如今HBM單位售價是傳統DRAM的數倍,是DDR5的約5倍。

如前文所述,當期12層HBM顆粒的渠道單價已然250美元/顆,價格相比2023年略有上浮。

換一個計算角度:目前在AI-HPC計算晶片上,通常6顆容量16GB的HBM3顆粒的合計成本約1500美元,相當於15.6美元/GB;換算到H100 SXM5闆卡,6顆HBM3 80GB,相當於相當於18.75美元/GB,約佔整顆晶片物料成本的50%+。

有一組數據是來自Yole:未來5年先進封裝整體複合增速是40%,其中3D封裝是超過100%的增速;以及五年後接近40%的HBM都要基於混合鍵合封裝了。

因此,無論海外或是大陸廠商,上述談到的幾個產業方向「HBM、CoW、TSV/Hybrid Bonding」的潛在市場空間是廣闊的,期待國產廠商有成熟的良率和進軍海外市場的可能。同時隨著AI-HPC市場的繁榮,受此驅動,預計將大幅提高HBM在泛DRAM市場的份額,HBM在DRAM市場總容量中的份額預計將從2023年的2%上升到2024年的5% ,到2025年將超過10%。(騰訊科技)