中信建投:AI算力2025年投資展望

展望2025年,我們認為算力領域投資分為海外景氣度投資以及國內自主可控兩大類:

海外景氣度投資:1)估值波動,AI算力全球估值體系參照輝達,參照台積電Cowos擴產節奏,25年算力產業鏈確定性較強,看好算力產業鏈;2)圍繞增量變化及新技術投資,25年最重要的是輝達NVL36、72機櫃開始出貨,以及為了應對更大模型參數量訓練,單機櫃中AI晶片互聯數量將持續提升,其中銅連接、液冷、電源變化最大,CPO及MPO等新技術也將開始在2025年不斷走向成熟;3)圍繞份額變化投資,隨著產業鏈的深入,光模組、PCB等環節的供應商明年會有份額的變化。

國內自主可控:根據2023年底美國商務部和安全域(BIS)發佈的一攬子規則,目前國內所能獲取的AI晶片性能上限基本就在H20這一等級,考慮到H20的FP 16算力只有B200晶片的6.7%,其性能並不足以支撐國內向更大參數量模型去探索,因此國內AI晶片發展緊迫性凸顯。我們認為,未來國內AI晶片領軍企業,將同時在出貨量、生態和產品力上具有領先性。同時,考慮到國產晶片製程、工藝以及明年國內網際網路客戶開始推進機櫃方案,建議重視國產電源、液冷等相關標的。

中信建投證券TMT研究團隊推出【AI算力2025年投資機遇展望】:

01 通訊視角下的新質生產力:科技自強,先進發展

海外算力:需求持續高增,國內廠商參與範圍擴大

北美雲廠商單季度資本開支援續提升。2024Q3,北美四家雲廠商的資本開支總計為588.62億美元,同比增長59.31%,持續高速增長態勢,且對未來資本開支指引樂觀。


亞馬遜:226.20億美元,同比增長81.26%,預計2024年資本支出約750億美元(現金資本支出+裝置融資租賃,前三季度為519億美元),大部分用於基礎設施建設,主要與AWS相關;預計2025年資本支出或將增加,其中大部分用於AWS,由生成式AI驅動。

微軟:149.23億美元,同比增長50.48%(含融資租賃為200億美元,同比增長78.6%),鑑於雲和人工智慧的需求訊號,預計資本支出環比增加。

Google:130.61億美元,同比增長62.15%,預計Q4資本支出與Q3保持同一水平,預計25年資本支出將增加。

Meta:82.58億美元,同比增長27.12%(含融資租賃為92億美元,同比增長36.1%),預計2024年資本支出380-400億美元,此前預期為370-400億美元,預計2025年資本支出將大幅增長。

國內企業深度參與海外算力基礎設施建設,在需求持續增長下有望充分獲益。從產業鏈環節拆分來看,算力基礎設施包括GPU晶片和伺服器、交換機、光模組及其上游所需要的PCB、銅連接、電源、液冷等,將ICT裝置放置於IDC機房內,最終形成算力基礎設施。在當前海外的算力基礎設施環節,除晶片環節外,國內廠商在其他環節均有不同程度的參與,尤其在光模組領域佔據主要市場份額,並在其他環節具有良好的市場份額提升預期。


光模組:1.6T光模組將進入放量周期,硅光、CPO等新技術滲透率加速提升

NVIDIA表示,隨著新模型的推出,人工智慧領域對計算的需求正在以指數級增長,這需要加速的訓練和推理能力。強化學習(Reinforcement Learning)是機器學習的一個分支,它的核心思想是讓智能體通過與環境的互動,不斷嘗試、不斷學習,最終找到最優的行動策略,以最大化累積獎勵。強化學習有三大優勢:在複雜環境中表現出色;減少了對人類互動的要求;針對長期目標進行最佳化。憑藉這些優勢,強化學習在個性化行銷、最佳化難題和財務預測上有廣泛的應用。隨著強化學習模型的快速迭代,推理側算力需求有望呈爆髮式增長。


1.6T光模組有望在2024年底小批次出貨,比預期提早一年左右。在AI資料中心中,越來越多的客戶傾向於選擇更大頻寬的網路硬體。頻寬越大,單位bit傳輸的成本更低、功耗更低及尺寸更小。800G光模組的高增速已經能夠反映出AI對於頻寬迫切的需求,其在2022年底開始小批次,2023年和2024年的出貨量都大幅增長。而AI對於頻寬的需求是沒有極限的,得益於網路較高的性價比,1.6T光模組有望加速應用。從下遊客戶來看,2025年1.6T光模組的主要需求方預計將是輝達和Google。


佈局硅光子技術的海外巨頭廠商較多,有望在 AI 浪潮下實現快速發展。硅光子技術是以硅或者矽基材料(Si,SiO2,SiGe)作為襯底材料,利用與積體電路相容的 CMOS 工藝製造對應的光子器件和光電器件,以實現對光的激發,調製,響應等功能,廣泛應用於裝置互連、光計算等下游多個領域中。矽基材料具備相容 CMOS工藝、低成本和低功耗等優勢。隨著 AI 的快速發展,硅光子技術從通訊逐步拓展到算力基礎設施及下游應用領域,包括板間晶片光互連、晶片內 chiplet 光互連、光計算和激光雷達等領域。海外巨頭廠商紛紛佈局硅光子技術,有望實現快速發展。


硅光子技術下游需求旺盛,上游設計方案百花齊放,代工廠積極佈局。硅光子技術產業鏈的上游包括光晶片設計、SOI襯底、外延片和代工廠,中游為光模組廠商,下游分為數通領域和電信領域。一體化佈局的廠商優勢比較明顯。英特爾、旭創、Coherent、思科和Marvell等廠商同時具備PIC設計和模組整合能力,且與下游雲廠商和AI等巨頭客戶保持緊密合作,優勢顯著,在供應鏈中的引領作用較為明顯。


共封裝光學(CPO)是業界公認的未來更高速率光通訊的主流產品形態之一,可顯著降低交換機的功耗和成本。隨著交換機頻寬從最初的640G升級到51.2T,Serdes速率不斷升級疊加數量的持續增加,交換機總功耗大幅提升約22倍,而CPO技術能夠有效降低Serdes的功耗,因此在51.2T及以上頻寬交換機時代,CPO有望實現突破。硅光晶片是CPO交換機中光引擎的最佳產品形態,有望在未來得到廣泛應用。目前輝達、博通和TSMC等海外巨頭廠商在CPO具有佈局。


隨著AI的快速發展,多模態大模型的參數量大幅提升使頻寬容量也快速擴張,其中也包括伺服器或機櫃內部的頻寬容量。隨著頻寬的加速增長,電訊號傳輸距離越來越短,在晶片互連領域“光進銅退”目前看來也是勢在必行的行業趨勢。輝達與Ayar Labs、台積電等多家公司合作硅光子整合項目。在傳統的DGX伺服器中,伺服器內部GPU與NVSwitch之間用電訊號連接,硅光子方案中將GPU和NVSwitch都接入硅光I/O,每個GPU對應2個光引擎,每個NVSwitch對應6個光引擎,雙向頻寬達到25.6Tbps。資料收發過程單位bit消耗3.5pJ能量,輝達仍在努力降低功耗,從而提升該方案的性價比。此外,博通和英特爾都推出了OIO產品,有望取得突破。


CPO滲透率提升將帶來數通光通訊領域市場規模的大幅增長。CPO技術應用的重點並不僅僅在交換機側實現功耗和成本的降低,更多的是在IO領域突破電訊號傳輸的速率瓶頸。市場對GPU:光模組=1:2.5的換算比例認識較為清晰,但如果在scale up應用CPO,那麼GPU:光引擎=1:11.5將成為現實。除了GPU之外,CPU、FPGA、ASIC,甚至三星開始研發的HBM中也會用到。在未來的CPO時代,光模組行業預計將演進為光引擎行業,市場規模有望實現大幅增長,同時在此過程中對於光晶片、封裝和裝置領域將帶來明顯的需求拉動和產業格局重塑。


國內光模組廠商實力領先,充分參與海外算力鏈條,業績已經陸續兌現高增。當前來看,除了光模組廠商外,更多A股上市公司也積極參與佈局海外算力鏈,包括液冷、銅連接、電源等環節。


液冷:GB200系列產品帶動液冷滲透率快速提升,預計將成為AI算力必選項

參考TrendForce資訊,隨著輝達Blackwell架構的GPU晶片產品預計於今年第四季出貨,將推動液冷散熱方案的滲透率明顯增長,從2024年的10%左右至2025年將突破20%。相關產業鏈公司表態積極:

Vertiv:2024年三季度,Vertiv收入同比增長19%,增速進一步提升,公司上調2024年全年預期,並對2025年展望樂觀。2024年三季度公司訂單同比增長17%,截至2024年三季度訂單(TTM)同比增長37%。2024年四季度營收增速指引11-15%,營業利潤率指引20.2%-20.6%。進一步上調2024年全年指引,營收增速中樞由12%上調至14%,營業利潤率中樞從18.7%上調至19.0%。2024年每個季度的庫存量連續增長,包括與AI相關的庫存量大幅增加,反映了資料中心市場的強勁增長。預期2025年內生增速進一步提速。


奇鋐:GPU散熱業務拉動增收。今年以來,奇鋐營收同比持續穩健增長,主要系GPU散熱業務等拉動(2023年收入中,公司伺服器和網路佔比約31%):公司水冷產品第三季順利出貨給北美CSP客戶,逐步放大營收貢獻(營收佔比從2023年的2%提至2024年預期的5-10%);應用於伺服器的氣體散熱方案3D VC產品貢獻也逐季增長(營收佔比從2023年的1%提至2024年預期大個位數),應用於輝達H系列及B系列晶片的伺服器。公司表示,明年GB200開始大規模量產後,有望帶動水冷散熱普及。


液冷整體產業成熟度相對較低,並且涉及到比較多的環節,包括冷板、CDU、manifold、UQD等,目前參與廠商相對較多,包括全球資料中心散熱系統廠商Vertiv等、原來伺服器內部風扇等散熱部件供應較多的廠商cooler master、奇鋐、雙鴻、coolIT等,英維克等大陸廠商也在積極佈局。

銅連接:GB200機櫃內部互聯帶來需求增量,關注後續發展路徑

自大模型時代開啟以來,產業界沿著Scaling Law在持續不斷推出更大參數的模型和更多模態的模型,超節點計算能力的要求也不斷提升,scale-up網路趨勢上將實現更多的節點互聯和更大的互聯速率。GB200 NVL72通過NVLink將72個Blackwell GPU互連。

GB200 NVL72實現72個GPU NVLink5.0互聯,銅連接的場景與用量加大。當前來看,在GB200 NVL72機櫃中,Compute tray與switch tray之間、Switch tray內部將採用銅纜連接,GB200 NVL72互聯協議採用NVLink5.0(1.8TB的總頻寬,雙向),連接器/銅纜採用224Gb/s serdes速率,則一個NVL72的機櫃將會用到5000多根tray與tray之間的背板銅纜以及5000多根在Switch tray內部的overpass線纜。簡單來看,銅連接的用量與域內互聯的GPU數量、NVLink的互聯頻寬、銅纜連接器的速率等相關,scale up互聯GPU的數量增加、NVLink互聯性能的提升,將帶動銅連接的用量增加/速率提升。


相比於光傳輸,電傳輸具備明顯的成本和性價比優勢,但由於電訊號在銅線中傳輸存在損耗,通訊頻寬提升,趨膚效應導致在銅線和PCB Trace中傳輸損耗增加,連接器頭子損耗增加,封裝Trace損耗增加,因此有效傳輸距離將隨著速率提升而明顯縮短。人工智慧加速算力基礎設施配套環節迭代,電連接(包括PCB、銅連接)、光連接都在持續演進升級,需要關注後續技術路徑的變化發展。

電源:單卡與機櫃功率密度提升,電源產品規格要求升級

伺服器電源通常由三層構成:不間斷電源(UPS)、交流直流電源(AC/DC)和直流直流電源(DC/DC)。其中,UPS負責在電網中斷時保護資料,AC-DC則將交流電轉換為適合伺服器使用的直流電,而DC-DC則進一步將電壓調整到晶片可接受的範圍。

AI發展與GPU的功耗提升,促使AI伺服器電源的功率密度不斷提升。以H100伺服器機架為例,10.2kW的功率需要配備19.8kW的電源;而NVL72機架的120kW功率則多配備198kW的電源模組,部分廠商配備264kW的電源模組。AI伺服器電源的功率密度可達100W/立方英吋並且中長期持續提升趨勢,遠超普通伺服器電源的50W/立方英吋,功率密度的提升對於電源模組拓撲設計、材料/元器件選擇、散熱等均提出高要求。

伺服器電源行業是比較強工藝技術經驗積累的行業,目前輝達GB200等高端伺服器電源產品多以全球電源頭部廠商台達、光寶、FlexPower等參與為主,麥格米特等大陸廠商也在積極佈局。


國內算力:多主體需求釋放疊加自主可控,產業鏈業績釋放在即

國內算力投資加大。網際網路廠商側,從騰訊、阿里巴巴兩家雲廠商資本開支情況來看,2023Q1開始呈現逐季度回暖態勢,從23Q4開始同比轉正,2024年以來較快增長。2024Q3,騰訊和阿里巴巴資本開支分別為170.94億元、169.77億元,分別同比增長114%、313%,2024Q1、2024Q2、2024Q3騰訊和阿里巴巴合計資本開支分別同比增長245%、108%、181%。


營運商也在明顯加碼算力網路方面的資本開支。中國移動2024年計畫總體資本開支1730億元,同比下降4%,用於算力資本開支計畫475億元,同比增長21%。中國電信2024年計畫總體資本開支960億元,同比下降4%,用於產業數位化資本開支370億元,同比增長4%,用於雲/算力投資180億元。中國聯通2024年計畫總體資本開支650億元,同比下降12%,公司表示投資重點將由穩基礎的聯網通訊業務轉向高增長的算網數智業務。截至2024年中報,中國移動、中國電信、中國聯通智算算力(FP16)分別達到19.6EFlops、21EFlops、10EFlops。


國產晶片、大模型、應用端持續獲得快速發展。國產頭部晶片單晶片算力或已接近A100,或優於H20。以FP16精度為例,國產晶片中華為昇騰910算力為256TFLOPS,略低於A100的312TFLOPS,相較於H100的1513TFLOPS有較大差距,但強於H20的148TFLOPS。此外,平頭哥含光800在INT8精度,壁仞科技BR100在FP32精度均超過A100。在單顆晶片峰值算力上,國產晶片已滿足大規模使用條件。近期中國證監會官網顯示,摩爾執行緒在北京證監局辦理輔導備案登記,啟動A股上市處理程序,此前8月燧原科技在上海證監局辦理了上市輔導備案,9月壁仞科技在上海證監局辦理IPO輔導備案登記。同時國內大模型廠商的能力也在快速提升,應用加速發展。SuperCLUE最新2024年10月測評結果顯示,國產第一梯隊大模型已與GPT4-4o得分拉至接近。


智算中心建設適度超前。2024年10月,國務院國資委主任張玉卓在《新型工業化》發文中提到,中央企業智能算力資源是中國算力網路的重要組成部分,下一步將適度超前建設一批智能算力中心,強化人工智慧算力供給;同時建構更加完善的網路安全保障體系,提升資料安全治理能力,築牢數字經濟安全螢幕障。據中國IDC圈不完全統計(2024年11月8日新聞資訊),目前不同建設階段的智算中心項目已超過500個,其中投產營運的項目160個,開工在建項目超過200個。工信部《算力基礎設施高品質發展行動計畫》顯示,2023年中國算力規模達到220EFLOPS,其中智能算力佔25%,目標到2025年,算力規模超過300EFLOPS,智能算力佔比達到35%。截至2024年6月,全國在用算力中心機架總規模超過830萬標準機架,算力總規模達246EFLOPS。


未來隨著國產晶片能力、大模型能力的提升、人工智慧應用的發展,國內算力基礎設施需求預計將持續被拉動。此前國內AI發展掣肘於海外AI晶片禁運和國產AI晶片能力不足,隨著國內自研AI晶片供給能力的逐步提升,國內算力基礎設施建設蓄勢待發。在海外AI晶片主導的AI算力產業鏈中,AI晶片、伺服器、交換機等大價值量環節基本由海外公司主導,而國產算力產業鏈自身基本可以實現閉環,包括AI晶片、伺服器、交換機、光模組、液冷、連接器/線束、PCB等各環節在內的國內公司都將集中受益。國產算力建設帶來的增量已經在部分廠商在業績端逐步體現,並且後續預期樂觀。

伺服器:AI伺服器佔比和國產化率提升,競爭格局或存變數

AI伺服器市場高增。IDC資料顯示,2023全年中國加速伺服器市場規模達到94億美元,同比增長104%,從行業角度看,網際網路依然是最大的採購行業,佔整體加速伺服器市場近60%的份額,此外金融、電信、交通和醫療健康等多數行業均有超過一倍以上的增長。

AI伺服器佔比提升和國產化率提升,國內伺服器廠商競爭格局或存變數。此前伺服器競爭格局中,浪潮、新華三等廠商份額較高。2022年中國伺服器市場份額來看,浪潮、新華三、超聚變、寧暢、中興位列前五,份額分別為28%、17%、10%、6%、5%。2022年中國AI伺服器市場份額來看,浪潮、新華三、寧暢位居前三,份額分別為47%、11%、9%。隨著國產AI晶片佔比的提升,AI伺服器供應商格局或存在變化。當前昇騰在國產GPU中性能較為領先,國內深度參與華為昇騰算力伺服器供應的廠商有望更為受益,具體可參考中國電信、中國移動等中標候選人情況。未來隨著國內其他廠商GPU新產品的推出以及推理等場景的豐富,國內GPU生態也有望更加豐富,進一步可能存在新的變化。


交換機:AI組網拉動需求增長,高速產品佔比迅速提升

2023年國內交換機市場規模小幅下滑,2024年在AI拉動下,高速交換機放量,2024H1恢復增長。據IDC資料,2023年中國交換機市場規模約57.82億美元,同比下降4.44%。2024H1中國交換機市場規模為25.84億美元,同比增長3.12%。


2023年,由於輝達、華為等GPU卡的供不應求,國內網際網路廠商、電信營運商加大了GPU的採購力度,而網路裝置採購相對滯後,因此國內數通交換機市場規模出現下滑。2023年中國數通交換機市場收入為33.96億美元,同比下降3.68%,佔比約48.66%。隨著下遊客戶訓練叢集的陸續搭建,也帶動網路裝置採購,2024H1中國數通交換機市場規模18.14億美元,同比增長16.78%,份額佔比達58.16%。


此外,2020年以來,200G/400G交換機出貨佔比提升,預計高速交換機比例有望持續提升。2023年中國200G/400G交換機出貨佔比為8.0%,2024H1佔比提升至16.7%。隨著2023年來博通TH5交換晶片的規模出貨,預計2024下半年800G交換機將開始放量。


光模組與連接器:代際升級略晚於海外,高速率產品預計開始放量

2022年開始,北美傳統雲端運算市場的光模組已經開始向800G速率升級,2024年800G光模組的出貨量預計大幅增長,1.6T光模組有望在2024年下半年小批次出貨並有望在2025年大幅增長。國內光模組最新代際發展來看稍晚於海外,2024年預計400G需求大幅增長,部分頭部CSP採購800G產品。隨著國內AI伺服器發貨增長,預計也將帶動相關光模組環節放量。


AI發展,GPU性能不斷提升,相關資料中心連接系統架構也向高速升級,從10Gbps-40Gbps向56Gbps、112Gbps、224Gbps等持續迭代升級,拉動相關高速連接器及配套高速銅纜等需求。當前海外已經發展到224Gbps的資料傳輸速率,安費諾、Molex、TI等全球頭部廠商推出了相對完整的224G連接系統解決方案。國內由於整體網路側部署升級略晚於海外,同樣連接系統升級也會略晚於海外。當前國內廠商產品仍以56Gbps為主,在部分產品領域實現112Gbps、224Gbps產品突破。


液冷:產業趨勢明確,2024年進入規模部署階段

液冷是趨勢相對已經明確,當前主流為冷板式液冷方案。預計液冷2024年將進入規模部署階段,並且我們認為隨著規模應用帶來的方案成熟度的驗證以及成本端的下降,疊加PUE監管要求的實質性落地,液冷有望進一步向通用伺服器市場進行滲透。短中期來看,冷板式液冷方案是主流,通過對於AI伺服器出貨量、通用伺服器出貨量、單KW成本造價、液冷滲透率等假設,我們匡算整體規模有望達到200億元。而隨著AI的發展,帶動伺服器的量有望進一步明顯提升,行業規模有望進一步打開。

從產業鏈角度,冷板式液冷主要分為在伺服器內部的冷板、管路、快接等部件,以及進行冷量分配的CDU、manifold等,以及對於散熱進行補充的風冷部分。伺服器內部的環節,主要由伺服器廠商進行採購,部分晶片廠商在供應鏈環節具備一定話語權。CDU、Manifold相關的冷量分配系統,主要由網際網路廠商、營運商、資料中心廠商或整合商、模組化裝置提供商等下遊客戶進行採購。不同廠商參與的環節不同,整體的業務可達空間也存在差異。


風險提示:

AI熱點應用及變現能力不及預期可能導致AI算力投資快速回落,進而導致算力類股利潤率、業績預期明顯下修;紅利資產在估值修復後,可能因業績增速下降、預期股息率下降或者籌碼結構交易因素等導致估值、股價回落;國際環境變化對供應鏈的安全和穩定產生影響,對相關公司向海外拓展的進度產生影響;人工智慧行業發展不及預期,影響雲端運算產業鏈相關公司的需求;低空經濟行業發展進度不及預期;5G-A基站建設規模低於預期;低軌衛星星座建設成本居高不下,商業化落地處理程序受阻;市場競爭加劇,導致毛利率快速下滑;匯率波動影響外向型企業的匯兌收益與毛利率,包括ICT裝置、光模組/光器件等類股的企業;數字經濟和數字中國建設發展不及預期等;電信營運商的雲端運算業務發展不及預期;營運商資本開支不及預期;雲廠商資本開支不及預期;通訊模組、智能控製器行業需求不及預期等。

報告來源

證券研究報告名稱:《通訊行業2025年投資策略報告:通訊視角下的新質生產力:科技自強,先進發展》

對外發佈時間:2024年11月25日

報告發佈機構:中信建投證券股份有限公司

本報告分析師:

劉永旭 SAC 編號:S1440520070014

SFC 編號:BVF090

閻貴成 SAC 編號:S1440518040002

SFC 編號:BNS315

武超則 SAC 編號:S1440513090003

SFC 編號:BEM208

楊偉松 SAC 編號:S1440522120003

汪潔 SAC 編號:S1440523050003

曹添雨 SAC 編號:S1440522080001

尹天傑 SAC 編號:S1440524070016

02 算力為基,自主可控大勢所趨,Agent及B端應用崛起

算力:海外景氣度高企,重視增量變化,國內自主可控大勢所趨

算力投資核心要點

展望2025年,我們認為算力領域投資分為海外景氣度投資以及國內自主可控兩大類:

海外景氣度投資:1)估值波動,AI算力全球估值體系參照輝達,參照台積電Cowos擴產節奏,25年算力產業鏈確定性較強,看好算力產業鏈;2)圍繞增量變化及新技術投資,25年最重要的是輝達NVL36、72機櫃開始出貨,以及為了應對更大模型參數量訓練,單機櫃中AI晶片互聯數量將持續提升,其中銅連接、液冷、電源變化最大,CPO及MPO等新技術也將開始在2025年不斷走向成熟;3)圍繞份額變化投資,隨著產業鏈的深入,光模組、PCB等環節的供應商明年會有份額的變化。


國內自主可控:根據2023年底美國商務部和安全域(BIS)發佈的一攬子規則,目前國內所能獲取的AI晶片性能上限基本就在H20這一等級,考慮到H20的FP 16算力只有B200晶片的6.7%,其性能並不足以支撐國內向更大參數量模型去探索,因此國內AI晶片發展緊迫性凸顯。我們認為,未來國內AI晶片領軍企業,將同時在出貨量、生態和產品力上具有領先性。同時,考慮到國產晶片製程、工藝以及明年國內網際網路客戶開始推進機櫃方案,建議重視國產電源、液冷等相關標的。

新技術:CPO及MPO自2025年逐步邁向成熟

MPO(Multi-fiber Push-On)是一種高密度光纖連接器,廣泛應用於光通訊系統中。其設計允許在一次連接中同時傳輸多路光訊號,極大地提高了光纖連接的密度和效率。MPO連接器通常用於資料中心、伺服器和其他高性能計算環境,以滿足日益增長的資料傳輸需求。

MPO技術起源於20世紀90年代,最初用於電信行業的高密度光纖連接。隨著資料中心和雲端運算的快速發展,MPO連接器逐漸成為光通訊領域的標準組態。近年來,隨著大模型對大型算力叢集的需求,以及800G和1.6T光模組的普及,MPO技術的應用範圍和市場需求進一步擴大。


其主要功能包括:1)高密度連接:支援多達12根光纖的平行連接,顯著提高連接密度;2)快速插拔:設計便於快速安裝和拆卸,適合頻繁更換和維護的場景;3)低損耗:最佳化的光學設計確保低插入損耗和高回波損耗,保證訊號質量;4)相容性:可與多種光纖類型和標準相容,適應不同的應用需求。

使用場景:1)資料中心內部互聯:用於連接交換機和伺服器,提供高頻寬的光纖連接;2)伺服器叢集互聯:在高密度伺服器環境中,MPO連接器用於實現伺服器之間的快速、高效連接;3儲存網路:用於連接儲存裝置和伺服器,支援巨量資料傳輸和高性能儲存操作。

在高性能計算環境中,MPO連接器通常用於光模組與光纖之間的連接。例如在一個CPO中,可能需要多個MPO連接器來實現高密度的光纖連接。如一個800G光模組可能使用兩個MPO連接器來支援16條光纖的平行傳輸。GPU通常需要通過高速光纖網路與其他計算節點連接。MPO連接器用於實現GPU與交換機之間的高頻寬連接。

MPO連接器市場主要由幾家大型光通訊裝置製造商主導,包括Finisar、博通、Molex等。這些公司憑藉其技術優勢和市場份額,在市場上佔據領先地位。此外,隨著技術的不斷進步,越來越多的新興企業也在進入這一領域,市場競爭日益激烈。

MPO技術憑藉其高密度、低損耗和快速插拔的優勢,在光通訊領域佔據了重要地位。隨著如輝達計算叢集中伺服器數量、單台伺服器中的GPU卡數量的快速增加,在未來的超大規模計算叢集中,對於MPO互聯的需求量一定會快速提升,有望帶動MPO整體市場規模的提高。

銅連接:機櫃方案成為主流,銅連接需求高速增長

交換網路中常見的連接解決方案包括光模組+光纖、有源光纜(AOC)和直連電纜(DAC)。DAC可以進一步分為有源DAC和無源DAC:

有源光纜由兩端的兩個模組組成,由在中間的一段光纖連接。光學模組和光纜是整合的,兩端的光學模組都需要雷射元件。與其他電纜相比,AOC具有許多優點。它提供高傳輸速率、遠距離功能、低功耗、重量輕且易於使用。這些好處是通過採用光傳輸而實現的,它克服了無源光纖電纜或其他電纜類型的侷限性。AOC有源光纜設計輕質緊湊,訊號訊號雜訊比表現好,抗干擾能力強,是資料中心、HPC計算和InfiniBand交換機互連的理想選擇。

DAC(直連電纜)電纜是一種網路電纜,用於連接不同的網路裝置(例如交換機、路由器和伺服器)以形成網路。它也稱為雙軸電纜,由兩根絞合在一起形成電纜的導線組成。它可以以10Gbps、25Gbps、40Gbps、50Gbps和100Gbps的速度傳輸資料,具體取決於所連接的網路裝置。此外,DAC電纜可以製造為各種長度,例如1m、3m、5m、7m和10m,以適應不同的網路設定。有源DAC電纜不僅可以轉換訊號,還可以放大訊號,它們不易隨著距離的推移而丟失訊號,非常適合較長的電纜長度。無源DAC電纜是將數字訊號轉換為模擬訊號的簡單電纜。這些電纜不需要外部電源,只是通話的“可靠通道”。DAC不包含光電轉換器模組,電纜端由簡單的電纜連接器組成。這使得它們具有很高的成本效益,由於其經濟實惠和高速性能,無源DAC已成為實現短距離傳輸的優秀解決方案。


通訊網路中常見的連接解決方案包括光通訊和高速電通訊,無源DAC作為電通訊的主要解決方案其不包含光電轉換器模組,具有很高的成本效益和營運可靠性,成為實現短距離傳輸的優秀解決方案。目前的銅纜已經實現224G乙太網路Serdes高速通訊技術升級,短距離傳輸性價比突出,在AI伺服器高整合度的趨勢下,我們認為銅連接將成為AI伺服器的重要組成。

GB200NVL72伺服器採用大量的銅連接作為機櫃內部通訊方式。GB200NVL72機櫃中不同的計算托盤間採用電纜進行互聯,內部使用電纜長度累計接近2英里,共有5000多條獨立電纜。計算托盤內同樣採用大量銅連接作為伺服器內的GPU晶片互聯。

銅連接的優勢:

性價比優勢:在短距離內,光模組價格顯著高於銅纜以及連接器,銅連接方案的成本相對較低。並且其具有高相容度並不需要額外的轉換裝置。


可靠性優勢:可靠性用平均無故障時間(MTBF)來衡量。無源銅纜的MTBF大約為50000萬小時――通常比光纜的行業標準高出一個數量級。銅纜為可靠的資料傳輸至關重要的企業資料中心提供了一大好處:避免停運時間。隨著資料中心中GPU規模數量的顯著提升,通訊方式的可靠性成為重要的考量因素。

散熱及低功耗優勢:DAC消耗<0.1W,相比與有源光纜AOC和有源電纜AEC來說幾乎可以忽略不計,相對來說散熱更容易。並且銅連接整體設計更加靈活,機櫃擴展維護相對更加簡單。

GB200NVL72伺服器中包含三種銅纜:三種櫃內線(NVL72機櫃以內的定義為櫃內線)以及櫃外線(機櫃間的互聯定義為櫃外線)。


計算托盤間的銅纜連接:單張B200對應1條NVLink5.0連接,每條傳輸雙向1.8TB/s頻寬,Serdes對應的規格為224Gbps通訊協議,銅纜也採用難度更高的224Gbps產品,即單張B200上面通常連接72個差分對(72根線)即可以達到可支援的1.8TB/s的頻寬。NVL72單個Rack中共有72張B200,可以得出需要5184根線(72*72),加上eprom線,合計為5544根,平均長度約0.6米。則合計5544*0.6=3326.4米,考慮背板線主要採用高端的26AWG型號的線,單價按照12元/米計算,則單個NVL72機櫃中背板線高速銅線價值量為39916.8元/台。


交換機內部互聯:NVSwitch晶片全部通訊頻寬連接背板連接器,總共需要576根overpass線,每根0.3米,9個交換托盤合計1555.2米,單價按照7元/米計算,則合計10886.4元/台。在NVL36解決方案中,NVSwitch晶片一方面連接背板連接器,一方面連前端I/O連接埠,其中連接背板連接器的OverPass1線共288根,每根0.3米;連接前端I/O連接埠的OverPass2線目前也為288根(頻寬前後端一致),每根0.3米,9個交換托盤合計也為1555.2米,單價按照7元/米計算,則合計10886.4元/台。

計算托盤內部:由PCIE線實現CPU與I/O連接埠之間的互聯,單個tray預計0.4*16*8*4=205米,NVL72合計18個tray盤,則合計為205*18=3690米。單價按照2.5元/米計算,則價值量為9225元。


櫃內線高速銅纜市場規模測算:對於中國廠商來說,交付能力、產品質量均處於領先地位,份額仍在不斷提升。我們考慮NVL72三部分櫃內線,其價值量保守估計約為39916.8+10886.4+9225=60028.2元/台。考慮到明年NVL36、NVL72 機櫃整體出貨量(等效NVL72預計4萬台以及NVL36兩種版本合計約3萬台),僅櫃內線銅纜高速線市場就達到35億+。目前櫃外線大批次出貨,高速銅線增量明顯。並且,明年AMD、GoogleTPU以及其它大廠也紛紛採用機櫃方案,其所用高速銅線規模也較大。

根據線束中國資訊,目前安費諾是GB200 NVL72伺服器銅連接的供應商,其產品可以支援224G高速通訊的批次交付,受限於產能和產品穩定性考量,部分國內企業或成為安費諾供應商從而受益於輝達NVL72伺服器銅連接供應體系。

液冷:機櫃功耗大幅增加,液冷黃金時代來臨

單卡功耗增加以及更多的卡集中在一個機櫃,散熱方式從風冷升級為液冷。根據冷卻介質不同,資料中心冷卻方式分為風冷和液冷,而液冷方案可分為冷板式、噴淋式和浸沒式三種,當前伴隨單台伺服器功率的不斷提升,液冷伺服器滲透率有望快速提升。資料中心作為持續的產熱大戶,高效且穩定的散熱系統是重要的配套設施,根據冷卻介質差異可劃分為風冷和液冷兩種方案。與風冷方案利用空氣作為冷卻介質不同,液冷方案以液體(導熱油或氟化物)作為冷媒,利用液體流動將資料中心ICT裝置內部元器件產生的熱量傳遞到裝置。相比傳統風冷,液冷技術具備更高的散熱效率、低能耗、低TCO、低噪聲和低佔地面積等顯著優勢,是單機櫃功耗持續增長背景下解決散熱壓力、應對節能挑戰的重要途徑。


功耗上限/PUE範圍/經濟效益三重優勢加持下,液冷系統加速滲透具備較強確定性:

1)AIGC推動功耗快速提升,單晶片功耗實現數倍式飛躍。隨著核心數量的增加,處理器性能與功率實現了同步增長,帶動CPU單晶片功耗同步提升,而GPU由數百個核心組成,可同時處理數千個執行緒,功耗較CPU顯著更高,輝達GB200由兩個1200W GPU與300W CPU構成,總功耗高達2.7KW,單晶片功耗的翻倍式提升使得其對散熱的要求遠遠超過傳統風冷能力範疇(實際上部分冷卻板式液冷系統也僅能滿足單晶片功耗270-500W範疇)。



2)單機櫃功率密度提升,已突破傳統風冷散熱上限。單台通用伺服器通常僅組態2顆CPU,單台伺服器功耗通常不到1KW,而根據輝達提供的資料,NVL 72伺服器組態了36顆GB200 GPU,受新增多顆高功耗GPU組態影響,NVL 72伺服器的系統功耗可達120 KW,較通用伺服器大幅提升。當前中國主流風冷機櫃功率範圍大致在7-10 KW範圍內,則需要多台傳統風冷機櫃才可容納一台NVL 72伺服器,機櫃空間冗餘較多,且機櫃間排布需有一定間隔以完成散熱,互聯成本增加且機房使用效率將大幅降低。因此,伴隨高功耗AI伺服器的上架,為在滿足功耗要求的基礎上提高機房的空間利用率,高功率機櫃或將同步增長。


3)政策嚴控PUE,更高效的散熱方案是關鍵。PUE為資料中心總耗電量與IT裝置耗電量的比值,其值越接近1,說明資料中心對於電能的利用越有效,是表徵資料中心能耗的核心指標,而空調系統作為除IT裝置之外的第二大能耗方向,也是降低PUE的關鍵所在。隨著碳中和碳達峰戰略的深入推進,針對資料中心這一用電大戶,國家層面以及地方政府均出台了系列政策對PUE進行嚴控。新建項目方面,普遍要求新建的大型及以上資料中心PUE不超過1.3,對國家樞紐節點的PUE要求更為嚴苛,“東數”節點要求控制在1.25以內、“西算”節點要求控制在1.2以下;存量項目方面,要求逐步對PUE>1.5的資料中心進行改造。據統計,傳統風冷方案的資料中心PUE一般在1.5左右,採用液冷的資料中心PUE可以降低至1.2以下,從當前實際情況來看,實地運行的資料中心PUE較政策要求仍有較大差距,若想嚴格達成政策目標,液冷迫在眉睫。


4)全生命周期角度看,固定IT需求下液冷系統具備較強營運優勢。資料中心全生命周期成本(TCO)包含 CAPEX 和 OPEX 兩部分,具體包括了資料中心配套裝置購置成本(土建配電等)與建成後的營運支出(利潤維度主要是電費與折舊)。總體看液冷相對風冷系統具備較高的建造成本,以液冷造價0.95-1.05 萬元/KW(含室外冷源),風冷造價0.35 萬元/KW測算,若NVL 72 單機櫃功耗在120W左右,則液冷系統造成成本為114-126萬元(約16萬美元),較風冷系統貴78萬元。但從營運角度看,考慮到液冷系統PUE遠低於風冷系統,則對應固定功率的IT裝置,液冷資料中心的整體耗電量遠低於風冷系統,且該耗電量節約帶來的營運成本減少將伴隨資料中心功耗規模的擴大而快速擴大。從經濟效益角度看,大規模高功耗資料中心使用液冷系統將具備較高性價比。

電源:功率密度持續升級,量價齊升、格局最佳化,重視國產AI晶片電源

AC-DC電源是當前產業重點

從供電過程本質上,電源本身不產生任何能量,只是作為電網中電能的傳導,其核心是實現整流與變壓兩項功能。整流即是實現不同形態電能的轉換(直流變交流、交流變直流),變壓即是實現電壓的升高或降低。此外,針對於特定場景,電源會新增額外功能,如伺服器電源就需要在散熱、監控、電流調節上做額外的功能追加從用途功能分類上,電源可分為嵌入式電源與非嵌入式電源,嵌入式電源通常被直接安裝在裝置內部或特定空間內,又可分為普通開關電源與模組電源兩類,其中模組電源往往是被鑲嵌在電路板上。


算力需求飛躍帶來用電需求急劇上升

AI需求將帶動能耗進入快速增長階段。耗電量可以根據AI伺服器的預計銷售量及其額定功率進行預測,考慮到AI伺服器的快速放量,預計2026年AI帶來的電力消耗有望達到2023年的10倍。當前算力需求主要由模型訓練所貢獻,後續伴隨AI應用快速落地,算力與算力能耗需求增長仍有進一步提速空間。

核心看,伴隨伺服器(尤其是AI伺服器)功耗總額的快速提升,在OCP ORV3標準限制下伺服器電源必須通過提升功率密度並維持高能源轉化率(鈦金96%以上)以滿足伺服器運轉需要。更好的材料、更優的拓撲、更多的整合是功率密度提升的主要途徑,因此電源行業不僅享受了總功耗提升帶來的需求快速上行,同時也因為材料變更、散熱需求加強等因素帶來了單瓦特價格提升現象,並助力行業空間快速擴容。此外,考慮到近期大陸區域外流片難度加大,伴隨大陸區域流片晶片佔比增加,電源功耗需求有望呈現進一步提升趨勢。


從實際組態角度看,伺服器整機品類繁多,不同伺服器晶片組態方案不同。以DGX系列為例,DGX A100整機功耗上限6.5KW,DGX H100 整機功耗上限 10.2KW,NVL 72 整機功耗120KW。僅就AI伺服器電源而言,可通過各類晶片的全球出貨量預估出其每年市場空間的最小值(冗餘組態帶來不確定性),即24/25年AI伺服器電源可實現124/296億元市場增量,相較過去市場規模實現超高速增長。


此外,伴隨單機櫃容納GPU數量逐漸增多,機櫃功耗總額快速提升(NVL 72總功耗已達120KW)。機櫃類伺服器佔比的提升在三個層面對供電系統提出更高要求:1)更高性能的供電匯流排;2)更高壓的交流與直流電(如DC/DC模組電壓輸入可達800V,從而大幅減少發熱損耗);3)更低損耗的內部供電電路。從而使得電源獲得了額外的溢價能力,市場空間更加廣闊。


國產AI晶片:25年值得期待,重視更可控、更具產品力的AI晶片

GPU具備圖形渲染和平行計算兩大核心功能。GPU具有數量眾多的運算單元,適合計算密集、易於平行的程序,一般作為協處理器負責圖形渲染和平行計算。對於國內來說,民用圖形渲染領域買單的人是遊戲愛好者,GPU公司需要跟大型遊戲廠商進行適配合作,背後的生態支援需要大量工作。對於智算領域,生態要求極高,需要基礎算子及應用程式演算法的持續積累和最佳化,輝達的CUDA具備絕對的生態優勢,其次互聯能力要求也極高,並且由於海外對國內使用先進製程有諸多限制,也限制了國內AI晶片的迭代。


我們認為國內AI晶片廠商能否脫穎而出,核心看以下三點:

出貨量至關重要:國產AI訓練晶片研發周期2年, 人員500人以上, 則需要人員費用500*80萬*2=8億, 7nm流片費用1500萬美金, EDA、 IP數千萬美元, 則一顆晶片整體投入約10億。按照訓練晶片單價7萬, 毛利率50%測算, 則需要出貨至少達到3萬片才能分攤研發成本。

建構自主生態:相容輝達CUDA在短期可以減輕開發和遷移難度;長期來看,國產GPU如果完全依賴CUDA生態,硬體迭代將受輝達的開發處理程序束縛。對於很多網際網路大廠來說,自主生態的路會更長。

產品力:做產品而不是做項目,核心是網際網路客戶。


風險提示:北美經濟衰退預期逐步增強,宏觀環境存在較大的不確定性,國際環境變化影響供應鏈及海外拓展;晶片緊缺可能影響相關公司的正常生產和交付,公司出貨不及預期;資訊化和數位化方面的需求和資本開支不及預期;市場競爭加劇,導致毛利率快速下滑;主要原材料價格上漲,導致毛利率不及預期;匯率波動影響外向型企業的匯兌收益與毛利率;大模型演算法更新迭代效果不及預期,可能會影響大模型演進及拓展,進而會影響其商業化落地等;汽車與工業智能化進展不及預期等。

報告來源

證券研究報告名稱:《人工智慧2025年投資策略報告:算力為基,自主可控大勢所趨,Agent及B端應用崛起》

對外發佈時間:2024年11月25日

報告發佈機構:中信建投證券股份有限公司

本報告分析師:

於芳博 SAC 編號:S1440522030001

方子簫 SAC 編號:S1440524070009

辛俠平 SAC 編號:S1440524070006

03 AI端側應用興起,國產高端晶片亟需國產化

算力晶片快速升級,高端產能於周期底部積極擴產

輝達Blackwell提升算力性價比,關注AI伺服器新的機架式設計帶來的機會

2024年3月,輝達在GTC會議上發佈以Blackwell架構為基礎的新產品線,產品性能迎來大幅提升,同時推出新型機架式AI伺服器產品GB200。Blackwell架構在單晶片訓練方面的FP8性能是其上一代Hopper架構的2.5倍,在推理方面的FP4 性能是其上一代Hopper架構的5倍,採用台積電N4P工藝節點,提供高達20 petaflops FP4的算力。與H100相比,B200的電晶體數量是其2倍多,單個H100最多提供4 petaflops算力,B200實現5倍性能提升,大幅最佳化晶片性能,與此同時算力性價比在快速提升。Grace Blackwell超級晶片通過900GB/s超低功耗的NVLink晶片間互連,在伺服器設計上推出了新型機架式AI伺服器,GB200伺服器成為了輝達產品的新形態。

繼Blackwell之後,Nvidia Rubin平台於2024年6月Computex大會上亮相。該平台具有新的GPU架構、新的ARM架構CPU Vera、新的HBM4儲存顆粒、覆蓋12顆HBM4的更大尺寸CoWoS封裝,以及NVLink6、CX9 SuperNIC網路卡和新一代融合IB網路與乙太網路的新型交換機X1600。


先進製程、先進封裝積極擴產,AI帶動半導體進入新的成長期

製程迭代是晶片算力提升的關鍵因素,AI算力需求的爆發催生了對先進製程的強需求。AI大模型發展對晶片算力提出更高要求,未來更成熟的AGI模型所需算力是現在GPT-4所需算力的1萬倍。而解決高算力需求的一種方案是採用更為先進製程的晶片,因為晶片製程越先進,功耗越低、計算速度越快。如2nm晶片功耗約為16nm晶片的10%,而性能約為16nm晶片的2倍以上。台積電估計其即將推出的N2P節點的功耗可能比N3E節點低30-40%。目前頭部Fab廠下一個最先進的工藝節點均為2nm,如台積電計畫將其2nm工藝於2025年下半年投產,三星計畫在2025年實現移動應用領域的2nm量產,英特爾等效台積電2nm晶片工藝Intel 20A預計2026年量產。


伺服器需求將超過智慧型手機成為先進製程最主要的驅動力。歷史上,智慧型手機的迭代更新推動了晶片製程的不斷演進,但隨著AI應用的計算需求上升,伺服器成為主要的算力中心,且對高算力的追求使得其對先進製程呈現出越來越高的需求,AI晶片功耗較高,且需要更小的尺寸,因此AI晶片對先進製程的迫切需求將推動伺服器需求成為先進製程最大的驅動力。Sumco估計,在AI伺服器出貨量強勁增長的推動下,伺服器對先進製程晶圓的需求量最快將在今年超過智慧型手機。


在2nm製程領域,預計台積電市佔率將達4成以上,英特爾達3成以上。目前2nm的主要玩家包括台積電、英特爾和三星,台積電將在位於台灣新竹和高雄的工廠增加2nm產能,亞利桑那州的兩個晶圓廠也將增加2nm產能。英特爾在亞利桑那州新建兩個2nm晶圓廠,在俄亥俄州的兩個晶圓廠也將提供支援。三星可能會在韓國和美國的晶圓廠增加2nm產線。根據產能規劃,預計將來在2nm製程領域,台積電產能將佔40%以上,英特爾佔30%以上。


先進製程面臨物理約束瓶頸,CoWoS、HBM等先進封裝成為提高晶片性能的重要解決方案。AI大發展使得算力需求爆髮式增長,提高晶片算力的一種方案是採用更為先進的製程,但由於量子隧道效應,5年內晶片製程將在1.4nm附近遇到物理瓶頸,因此先進封裝成為另一種提高晶片算力的重要解決方案。

3D封裝通常特指晶片通過TSV直接進行高密度互連,典型的案例即HBM。同時3D封裝也包括3D without TSV:雖然多顆晶片在物理結構上呈現3D堆疊形態,但其電氣互連上均需要通過基板(除極少數通過鍵合線直接連接的鍵合點),即先通過鍵合線/凸點連接到基板,然後在基板上進行電氣互連,而非TSV。在某些場景下,此類整合也被歸類為2D+整合以與3D TSV進行區分,典型案例即TSMC的InFO_PoP。


CoWoS為HPC和AI計算領域廣泛使用的2.5D封裝技術。台積電早在2011年推出CoWoS技術,並在2012年首先應用於Xilinx的FPGA上。此後,華為海思、輝達、Google等廠商的晶片均採用了CoWoS,例如GP100(P100顯示卡核心),TPU 2.0。如今CoWoS已成為HPC和AI計算領域廣泛應用的2.5D封裝技術,絕大多數使用HBM的高性能晶片,包括大部分創企的AI訓練晶片都應用CoWoS技術。


SoIC具有尺寸減小和性能提高優勢,採用超高密度垂直堆疊,實現高性能、低功耗和最小的RLC,支援亞10微米鍵合間距的高密度晶片間互連。目前SoIC技術有SoIC-X(無凸點)和SoIC-P(有凸點)兩種實現形式。SoIC-X用於高性能裝置,如AMD的3D V-cache和Instinct MI300 AI產品。預計到2027年可以組裝出頂部為台積電的A16、底部為台積電N2的晶片。通過3微米鍵合間距的TSV連接,密度是目前9微米間距的三倍。SoIC-P設計用於低成本應用,採用25微米微凸點技術。台積電計畫在2025年推出F2B SoIC-P技術,用於將0.2光罩大小的N3頂部晶片與N4底部晶片配對,使用25微米間距微凸點連接。到2027年,台積電將推出F2F有凸點SoIC-P技術,能夠將N2頂部晶片與N3底部晶片配對,間距為16微米。改進的混合鍵合技術旨在使台積電的大型高性能計算客戶(如AMD、Broadcom、Intel、NVIDIA等)能夠為苛刻應用建構超高密度的處理器設計,晶片間距和總佔地面積至關重要。


NVIDIA和AMD已預訂2024和2025年的全部SoIC產能。NVIDIA的Blackwell架構AI晶片和AMD的MI300系列AI加速器都將採用SoIC技術,顯著提升計算能力和效率。蘋果計畫在2025年大規模採用SoIC技術,用於AI伺服器和M系列晶片。2023年SoIC的產能約2000台,台積電計畫到2024年底,將SoIC產能提升到五千至六千台,2025年底提高至一萬台,是2023年的五倍。

AI持續高景氣帶動CoWoS需求不斷提升。2023年一季度以來,AI伺服器的需求不斷增長,促使台積電CoWoS封裝產能緊缺,台積電董事長劉德音在2023年股東會上表示,由於AI需求增加,先進封裝需求遠大於目前產能,迫使公司要盡快增加先進封裝產能。

HBM 3D堆疊提升記憶體性能,GPGPU上應用廣泛。隨著資料的爆炸式增長,記憶體牆對於計算速度的影響愈發顯現。為了減小記憶體牆的影響,提升記憶體頻寬一直是儲存晶片聚焦的關鍵問題。如同快閃記憶體從2D NAND向3D NAND發展一樣,DRAM也正在從2D向3D技術發展,HBM為主要代表產品。與傳統DRAM不同,HBM是3D結構,它使用TSV技術將數個DRAM裸片堆疊起來,形成立方體結構,與傳統記憶體相比,HBM的儲存密度更大、功耗更低、頻寬更高。目前HBM多用於與資料中心GPGPU配合工作,可以取代傳統的GDDR。


預計2028年全球先進封裝市場規模增至786億美元,2022-2028年CAGR達到10.0%。根據Yole資料,2022年全球封裝市場中,先進封裝佔比已達到47%。預計到2028年,先進封裝市場佔比將增至58%,規模約為786億美元,2022年-2028年CAGR約為10.0%,明顯高於傳統封裝市場的2.1%和市場整體的6.2%。


全球晶圓代工龍頭台積電打造全球2.5D/3D先進封裝工藝標竿,未來幾年封裝市場增長主要受益於先進封裝的擴大。台積電在先進封裝上已取得了可觀的收入體量,技術佈局也進入關鍵節點,未來投入規模將持續加碼。在OSAT廠商中,日月光VIPack先進封裝平台包含六大核心技術,安靠推出FCMCM(倒裝多晶片模組)、2.5D(TSV)等五大先進封裝解決方案。國內長電先進聚焦bumping,Fan-out CSP晶圓級等先進封裝,通富微電在2.5D/3D先進封裝保持國內領先,深科技專注儲存封測領域,並聚焦倒裝工藝(Flip-chip)、POPt堆疊封裝技術的研發。

記憶體頻寬成為算力卡口,HBM需求緊迫迭代迅速

算力晶片配套HBM壁壘高,國內部分廠商具備相關技術儲備。TrendForce資料顯示,2022年三大原廠HBM市佔率分別為SK海力士50%、三星電子約40%、美光約10%。NVIDIA H100、A100主采HBM2e、HBM3,H200主采HBM3e。以H100為例,搭載HBM3技術規格,其中傳輸速度也較HBM2e快,可提升整體AI伺服器系統運算效能。國內方面,目前沒有能夠生產符合HBM要求的記憶體顆粒廠商,封測、材料、裝置等供應商具備相關技術儲備。


從HBM的生產工藝來看,DRAM顆粒為定製的DRAM顆粒,工藝難點在於封測。TSV、大規模回流模塑底部填充(MR-MUF)、自對準、混合鍵合等工藝很大程度上影響HBM的性能和良率。

(1)TSV:不採用傳統的布線方法來連接晶片與晶片,而是通過在晶片上鑽孔並填充金屬等導電材料以容納電極來垂直連接晶片。製作帶有TSV的晶圓後,通過封裝在其頂部和底部形成微凸塊(Micro Bumping),然後連接這些凸塊。由於TSV允許凸塊垂直連接,因此可以實現多晶片堆疊。最初,使用TSV接合的堆疊有4層,後來增加到8層。最近,一項技術使得堆疊12層成為可能,SK海力士於2023年4月開發了其12層HBM3。雖然TSV倒裝晶片接合方法通常使用基於熱壓的非導電薄膜(TC-NCF),但SK海力士使用MR-MUF工藝,可以減少堆疊壓力並實現自對準。這些特性使SK海力士能夠開發出世界上第一個12層HBM3。


(2)MR-MUF:將半導體晶片堆疊起來,並將液體保護材料注入晶片之間的空間,然後硬化以保護晶片和周圍電路的工藝。與在每個晶片堆疊後應用薄膜型材料相比,MR-MUF是一種更高效的工藝,並提供有效的散熱。目前SK海力士主要使用MR-MUF工藝生產HBM2e/3/3e,使得其領先於三星電子和美光,後者主要採用TC-NCF工藝。MR-MUF工藝需要使用液態環氧樹脂(EMC),目前全球僅日本namics獨供。除EMC外,HBM封裝還需要底部填充膠用於FC工藝,採用PSPI作為硅中介層中RDL的再鈍化層,還需要IC載板、DAF、Solder ball等材料。



(3)自對準:在 MR-MUF工藝期間通過大規模回流將晶片重新定位到正確的位置。在此過程中,熱量被施加到晶片上,導致相關凸塊在正確的位置熔化並硬化。

(4)混合鍵合:C2W混合鍵合具有多種優勢,①允許無焊料鍵合,減少鍵合層的厚度、縮短電氣路徑並降低電阻。因此,小晶片可以高速運行,就像單個晶片一樣。②通過直接將銅與銅接合,可以顯著減小凸塊上的間距。目前,使用焊料時很難實現10 um或更小的凸塊間距。然而,銅對銅直接鍵合可以將間距減小到小於1um,從而提高晶片設計的靈活性。③先進的散熱功能。④上述的薄粘合層和細間距影響了封裝的形狀因數,可以大大減小封裝尺寸。目前混合鍵合主要用於單層鍵合或兩個晶片面對面堆疊,SK海力士2022年用混合鍵合完成了8層HBM2e的堆疊,正在開發用於更高密度、高堆疊HBM的混合鍵合。

供需持續緊缺,HBM擠壓DRAM產能。從需求端看,雲端運算廠商將更多資本開支投入AI基礎設施,2024年CSP的資本開支增速在30-40%,主要來自AI推動,傳統伺服器需求基本持平,預計2025年CSP資本開支維持大幅增長。算力需求的快速增長,算力卡的數量和組態快速升級,最終帶來的是算力晶片和HBM需求的快速增長。結合海外儲存廠商和諮詢機構的預測,我們認為2024年HBM市場規模達到160億美金,同比增長300%,2025年達到320億美金,同比增長100%。從供給端看,HBM供應仍然緊缺,在傳統DRAM庫存修正的情況下,HBM由於AI伺服器的強勁需求,擠佔DRAM產能的現象還在持續,漲價持續。

HBM快速迭代,HBM4即將進入流片階段。結構上,2025年HBM3e將佔據主導,根據SK海力士,2024年其HBM3e收入將佔HBM收入一半以上,2025年12層HBM3e供給量將超過8層產品,12層HBM4計畫於25H2發貨。(1)HBM3e:三大原廠相繼推出12Hi產品,這些12Hi的HBM預計用在輝達的B300A(B200A Ultra)和B300上。(2)HBM4:三星、海力士計畫24Q4開始HBM4的流片,預計2026年用在輝達下一代的Rubin晶片上。

高速光模組PCB持續升級,CPO方案短期影響有限

光模組(Optical Modules)作為光纖通訊中的重要組成部分,是實現光訊號傳輸過程中光電轉換和電光轉換功能的光電子器件。光模組的工作原理如圖:傳送介面輸入一定位元率的電訊號,經過內部的驅動晶片處理後由驅動半導體雷射器(LD)或者發光二極體(LED)發射出相應速率的調製光訊號,通過光纖傳輸後,接收介面再把光訊號由光探測二極體轉換成電訊號,並經過前置放大器後輸出相應位元率的電訊號。電訊號要轉化為光纜可傳輸的光訊號則需要一個轉化器件,這就是光模組。

從結構上看,光模組由三大部分組成,分別是光電器件(TOSA/ROSA)、貼有電子元器件的電路板(PCBA)和LC、SC、MPO等光介面(外殼)。


光模組PCB成本佔比在3-5%,速率傳輸區PCB設計和基材選材和影響光模組傳輸速率

光模組PCB是光模組中的關鍵元件,它承載著複雜的高速訊號傳輸任務。根據中際旭創招股書披露,光模組成本主要由光器件、電路晶片、PCB板以及外殼構成。其中,光器件佔光模組成本最高,在70%,電路晶片15-20%,PCB成本佔比在3-5%。

從結構上看,光模組PCB基本都可以分為四個區域,分別是介面區,訊號傳輸區,電晶片BGA區與及光晶片Bonding區。

(1)介面區:介面區也即是經常所說的“金手指”,PCB上為電連介面,作用為將光模組內電訊號與外接裝置電訊號進行互換傳輸的區域。作為介面,它須與插入的裝置進行適配,因而其在物理形態會因為資料傳輸特定的要求的有一定變化。

(2)速率傳輸區:速率傳輸區起到連接介面區和電晶片區域的作用,其是影響光模組傳輸速率極為重要的部分。通常來說,不同封裝方式,調製方式的光模組(本質反應的是光模組的傳輸要求)對速率傳輸區內傳輸線的數量與單通道的傳輸速率均有特定的要求。以400G光模組為例,其主要採用QSFPDD或OSFP封裝,8收8發,單通道傳輸50Gbps,採用PAM4調製,有效提高了訊號傳輸效率。

PCB基材選型與設計影響光模組傳輸速率,採用mSAP與SLP工藝。與速率傳輸區關聯最大的是PCB基材的選型,不同協議下對應的材料等級案例。與速率傳輸關鍵的另一大重要因素即為訊號傳輸線的設計,隨著速率的提升,由於傳輸協議的限制,光模組的功能密度也在不斷增加,因此PCB層數也在一直增加,同樣由於板厚在協議中的規定,每層的介厚也在不斷減少,由於匹配阻抗,傳輸線線寬也不斷縮小。由於金手指互聯與孔傳輸的反射要求,綜合種種因素,導致高端光模組PCB必然走向任意層互聯及SLP或mSAP工藝。

(3)晶片連接區。晶片連接區包含電晶片(DSP)封裝區與光晶片Bonding區。


光模組速率持續升級,PCB配套高速化、高散熱、細線化設計:

展望未來,光模組的發展主要是伴隨著應用市場對其高傳輸速率、小尺寸封裝、低功耗、長距離的要求而發展。這也就對應其對PCB的要求,也即是高速化、微孔細線化、高散熱性。

根據方正科技官網,其800G光模組產品PCB構成如下:根據方正科技官網資料,該800G光模組PCB層數為10層,採用的基材為聯茂EM890K,該基材具有極低的介電常數和損耗因子,且熱傳導性很高,有利於提升散熱效果。其交貨套板尺寸為85mm* 210mm,但板厚僅有1.0mm,最小線寬/線隙為2.5mil/2.5mil。


如下圖所示,傳統的光模組作為易損部件,出於便於維修考慮採用熱插拔的形式,但熱插拔形式下,光模組光引擎距離交換晶片很遠,電訊號在PCB中走線很長,在高速尤其是800G光模組等場景下,PCB走線過長造成訊號劣化,形成傳輸瓶頸。

由於網路裝置傳輸速率頻寬持續增加,傳輸系統對傳輸鏈路的損耗要求越來越嚴,為了儘可能地降低網路裝置的自身工作功耗以及散熱功耗,NPO/CPO技術應運而生。

CPO(Co-packaged optics),也即是共封裝光學,即將交換晶片和光引擎共同裝配在同一個Socketed(插槽)上,形成晶片和模組的共封裝。NPO(Near packaged optics),也即是近封裝光學,是將光引擎與交換晶片分開,裝配在同一塊PCB基板上。

顯而易見,NPO是過渡階段,更容易實現,也更具開放性,但CPO是終極形態。CPO技術可以實現高速光模組的小型化和微型化,可以減小晶片封裝面積,從而提高系統的整合度。CPO將實現從CPU和GPU到各種裝置的直接連接,從而實現資源池化和記憶體分解,還可以減少光器件和電路板之間的連接長度,從而降低訊號傳輸損耗和功耗,提高通訊速度和質量。


NPO/CPO背後底層是基於硅光技術。硅光,是以光子和電子為資訊載體的矽基光電子大規模整合技術,也即是把多種光器件整合在一個矽基襯底上,變成整合“光”路,構成了微型光學系統。

從直接的結果來看,NPO、CPO與傳統的可插拔模式相比,因光引擎嵌入交換機內部,光模組處PCB減少,直觀上會利空光模組PCB生產企業。

CPO短期受供應鏈多因素制約,難以大規模應用,對傳統光模組PCB企業影響有限。

CPO技術路徑通過減少能量轉換的步驟,在相同資料傳輸速率下可以比傳統熱插拔光模組減少約50%的功耗,將有效解決高速高密度互連傳輸場景下,電互連受能耗限制難以大幅提升資料傳輸能力的問題。此外,相較傳以II-V材料為基礎的光技術,CPO主要採用硅光技術具備的成本、尺寸等優勢,為CPO技術路徑的成功應用提供了技術保障。

然而,CPO短期也有許多亟待解決的關鍵技術,如何選擇光引擎的調製方案、如何進行架構光引擎內部器件間的封裝以及如何實現量產可行的高耦合效率光源耦合。由於目前的技術與產業鏈尚不成熟等原因,CPO短期內難以大規模應用。

其次,CPO的技術路線在逐步推進的過程中本需要資料中心整體產業鏈的協同推進,其中涉及到的環節在現有光模組產業鏈的基礎上預計還需要得到交換晶片及裝置廠商,以及各元器件廠商的合作。根據產業鏈調研,現階段不少光模組PCB企業也在參與光模組企業硅光相關的產品的合作預研。我們認為即使後續CPO方案之間滲透,光模組PCB企業仍有望在產業鏈升級的對應環節受益。

高速光模組PCB玩家將呈馬太效應。光模組PCB產品具有訊號傳輸速率高,線路密度窄、散熱要求高等特點,在光模組持續向1.6T/3.2T升級過程,PCB工藝難度加速提升(mSAP工藝),具有極高的壁壘,能夠參與的廠商會逐漸變少,馬太效應會逐漸顯現。此外,在商業模式端,光模組廠商可以選擇板廠,光模組企業市場格局相對集中,因此前期持續深耕頭部光模組企業有望持續受益客戶端產品的升級。

風險提示:

1、未來中美貿易摩擦可能進一步加劇,存在美國政府將繼續加征關稅、設定進口限制條件或其他貿易壁壘風險;2、AI上游基礎設施投入了大量資金做研發和建設,端側尚未有殺手級應用和剛性需求出現,存在AI應用不及預期風險;3、宏觀環境的不利因素將可能使得全球經濟增速放緩,居民收入、購買力及消費意願將受到影響,存在下游需求不及預期風險;4、大宗商品價格仍未走穩,不排除繼續上漲的可能,存在原材料成本提高的風險;5、全球政治局勢複雜,主要經濟體爭端激化,國際貿易環境不確定性增大,可能使得全球經濟增速放緩,從而影響市場需求結構,存在國際政治經濟形勢風險。

報告來源

證券研究報告名稱:《電子行業2025年投資策略展望:AI端側應用興起,國產高端晶片亟需國產化》

對外發佈時間:2024年11月25日

報告發佈機構:中信建投證券股份有限公司

本報告分析師:

劉雙鋒 SAC 編號:S1440520070002

龐佳軍 SAC 編號:S1440524110001

范彬泰 SAC 編號:S1440521120001

孫芳芳 SAC 編號:S1440520060001

喬磊 SAC 編號:S1440522030002

章合坤 SAC 編號:S1440522050001

郭彥輝 SAC 編號:S1440520070009

王定潤 SAC 編號:S1440524060005

何昱靈 SAC 編號:S1440524080001

04 2025年電腦年度策略:百煉成金

AI商業化價值逐步凸顯,算力需求助推產業加速向上

算力需求持續高增,國產算力產業有望加速發展

全球AI市場規模持續增長,國內大模型算力需求近百億美元

AI時代算力領域投資規模快速擴張。2022年底ChatGPT引爆AI浪潮,海內外雲廠商積極投身AGI能力建設,大幅提升資本開支用於AI算力基礎設施採購。根據弗若斯特沙利文《2024中國智能算力行業白皮書》,2023年全球人工智慧市場總投資額達到1835億美元,同比增長38.5%;中國人工智慧市場2023年總投資額突破190億美元,佔全球總量10.5%,2019-2023年復合增速達到43.4%。


市場規模方面,全球2023年生成式人工智慧整體規模約675億美元,同比高增約70%,其中硬體貢獻近90%;展望未來,生成式人工智慧市場有望快速發展,軟體及應用伺服器端佔比將有所提升,但硬體端仍佔據較大份額,預計2028年全球生成式人工智慧市場規模有望達到5160億美元,5年復合增速超50%。


通用人工智慧加速發展,大模型持續迭代帶動巨量算力建設需求。根據OpenAI、LLaMA等海外頭部大模型廠商公開的模型訓練相關資料,可以發現隨著模型的迭代升級,Scaling Law持續得到印證,算力消耗快速增長,對於算力卡的消耗以及單次訓練時長均有所提升。


中國大模型訓練及推理算力潛在需求接近百億美元。訓練端,根據國家資料局局長公開發言,中國10億參數量以上的模型數量已超100個,頭部廠商如阿里、華為等開發出了具備多模態能力的兆級參數模型,其餘中小廠商大模型體量也多在千億等級。我們分別計算多模態類大模型以及普通大模型訓練端潛在需求,其中多模態大模型假設參數量及Tokens數量均為1兆個,單次訓練周期30天;普通大模型參數量及Tokens數量分別為1000億、2000億個,單詞訓練周期20天。以H100算力晶片測算整體需求,根據OpenAI、Google發表的相關論文,假設算力效率由45%逐步提升,最終測算可得2025年中國大模型相關的訓練端算力需求約為等效14.7萬張H100晶片,若按單卡價格3.5萬美元估算,對應市場規模約為51.6億美元。


基於訓練側的部分假設,推理端需求將隨著大模型能力持續迭代以及使用者數量增長而提升。若多模態大模型及普通大模型日活使用者均參考每日查詢10次,單次查詢消耗1000個Tokens,同時考慮推理端需求相對集中,最終測算可得2025年中國大模型相關的推理端算力需求約為等效11.0萬張H100晶片,若按單卡價格3.5萬美元估算,對應市場規模約為38.4億美元,與訓練端合併計算市場規模接近百億美元。


受益國內外雙重驅動,國內算力需求持續爆發

(1)政策推動國內算力建設加速發展,營運商加大採購力度

頂層政策推動智能算力建設加速。2023年工信部聯合六部委印發了《算力基礎設施高品質發展行動計畫》,要求到2025年全國算力規模超過300EFLOPS,其中智能算力佔比要求達到35%,實現東西部算力平衡協調發展。根據具體指標推算,2023-2025年新增算力規模80EFLOPS,其中智能算力規模50EFLOPS。今年以來,國家級、地方級智能算力基礎設施相關促進政策頻出,國資委於2月召開“AI賦能產業煥新”央企AI專題推進會,要求央企發揮帶頭作用,加快建設一批智能算力中心,發揮跨央企協同創新平台作用,更好促進人工智慧產業發展。地方層面,北京、上海、廣東等二十余個省份今年發佈了智能算力建設相應規劃,分階段提出智算算力建設規模要求,北京、江蘇、福建等地還推出了“算力券”、創新獎勵等資金補貼支援政策,吸引企業投資建設AI算力,促進產業發展。


三大營運商持續推進智算領域投資,AI伺服器採購數量及國產化比例均提升。繼今年4月中國移動落地約8000台基於昇騰晶片的AI伺服器、中國聯通落地約2500台基於昇騰晶片的AI伺服器後,近期中國電信在其官方採購網站上公佈了2024-2025伺服器集采中標結果。根據公告,電信本次合計採購約15.6萬台伺服器,其中AI伺服器數量合計約1.31萬台,國產化比例52.1%;整體國產化比例達到67.5%。電信此次AI伺服器採購台數超過去年10月約4200台的AI伺服器集采,也超過了移動此前的8000台以及聯通的約2500台,成為目前為止營運商最大規模的AI伺服器集采。國產化比例方面,以中國電信為例,其2020年起開始單獨將國產化伺服器列入招標目錄,當年國產化比例約為20%,2021-2024年國產化比例逐年提升,分別約為26.7%、27%、47%、67.5%。


營運商智算中心建設加速落地,支援AI大模型訓練推理。近期,營運商投資建設智算中心項目陸續開工或投入使用,包括移動算力中心北京節點(智算規模超1000P)、聯通上海臨港智算中心(首個全液冷國產超萬卡智算叢集,機架數1.5萬)、電信長三角(蕪湖)智算中心(超8萬個標準機櫃服務能力)等,營運商智算能力佈局持續深化。

(2)海外技術封鎖&國內產品性能追趕共同助力算力國產化

海外AI技術封鎖趨嚴,國產算力發展迫在眉睫。當前,國際形勢複雜,美國對其高端晶片出口限制趨嚴,2022年10月發佈的相關條例使得A100、H100晶片受到出口管制。此後,輝達基於美政府條例限制推出中國特供版晶片A800、H800,但在2023年10月美政府發佈新限制條例,進一步壓低算力密度及性能標準。目前輝達滿足美政府限制要求的最新中國特供版GPU為H20,其相比H100性能僅有約兩成,單卡算力能力低於部分國產算力晶片。隨著美國新一屆總統大選結果出爐,川普預計將於明年一月就任新一屆美國總統,參考其此前任期政策主張,在對華政策方面相對激進,預計將對人工智慧產業包含晶片設計製造、軟體模型等採取更嚴格限制措施。當前各國在AI領域加大投入力度,算力作為AI重要基礎設施,其國產化處理程序迫在眉睫。

國產算力晶片性能快速追趕,生態逐步完善。雖然全球AI晶片市場幾乎由輝達所壟斷,但國內廠商基於自身科研能力,也湧現出包括華為、海光資訊、寒武紀、壁仞科技、摩爾執行緒等AI算力晶片企業。國產晶片性能緊追海外廠商,生態搭建逐步完善,有望受益於國內算力市場增量需求迎來較快發展。

1)華為昇騰

華為昇騰系列AI處理器於2019年發佈,包含昇騰910、昇騰310以及昇思MindSpore全場景AI框架,並形成Atlas人工智慧計算解決方案,包含模組、板卡、智能小站、伺服器、叢集等豐富的產品形態,實現端側、邊緣側、雲側全場景覆蓋,且同時支援訓練及推理負載。此外,華為聯合產業生態,建構華為計算生態體系,與國內頭部伺服器整機廠商展開合作,由合作夥伴基於華為AI晶片推出其自主品牌的伺服器產品,為客戶提供更多選擇,華為計算合作夥伴目前在政府智算中心、營運商伺服器集采中表現優異,市場份額領先。


2)海光資訊

海光資訊DCU產品相容“類CUDA”環境,CUDA為輝達推出的通用平行計算架構,包含相關指令集及平行計算引擎等,海光DCU相容AMD的ROCm計算生態,CUDA與ROCm生態具備高度相似性,因此海光DCU在產品推廣中能夠更好的和各類軟體實現較好生態相容。海光DCU產品“深算系列”初代產品深算一號於2021年商業化應用,深算二號及其AI版性能提升顯著,AI版對FP16及INT8算力能力進行提升,市場反響積極。目前最新款DCU深算三號研發進展順利,預計將於近期推出,有望受益於國內強勁算力建設需求。

3)寒武紀

寒武紀具備先進製程下複雜晶片設計經驗,晶片產品覆蓋“端-邊-雲”側,公司思元系列晶片主要應用於人工智慧計算領域,自2018年發佈思元100系列以來,公司持續推進晶片迭代,陸續推出了思元200系列(MLU220、MLU270、MLU290)、思元300系列(MLU370),MLU370是寒武紀首款採用Chiplet技術的AI晶片,算力、頻寬較前代產品實現翻倍以上提升,與國內網際網路廠商開展了相應適配合作。據公司微信公眾號,全新一代雲端AI訓練晶片思元590採用MLUarch05全新架構,實測訓練性能較在售產品有了顯著提升,它提供了更大的記憶體容量和更高的記憶體頻寬,其PCIE介面也較上代實現了升級,預計將更好滿足網際網路等客戶需求。


風險提示:

(1)宏觀經濟下行風險:電腦行業下游涉及千行百業,宏觀經濟下行壓力下,行業IT支出不及預期將直接影響電腦行業需求;

(2)應收帳款壞帳風險:電腦多數公司業務以項目制簽單為主,需要通過驗收後能夠收到回款,下遊客戶付款周期拉長可能導致應收帳款壞帳增加,並可能進一步導致資產減值損失;

(3)行業競爭加劇:電腦行業需求較為確定,但供給端競爭加劇或將導致行業格局發生變化;

(4)國際環境變化影響:目前國際形勢動盪,對於海外收入佔比較高公司可能形成影響,此外美國不斷對中國科技施壓,導致供應鏈安全風險。 (中信建投證券研究)