1. 事件核心參數
- 出口條件:美方允許輝達向中國出口H200晶片,但需收取25%的銷售分成,且僅對「獲批准客戶」開放,隱含用途監管(如禁止軍事領域使用)。
- 效能定位:H200為Hopper架構訓練型晶片,FP16算力約為上一代H20晶片的2倍,雖不及最新Blackwell架構(如B100),但仍是當前國內稀缺的高性能訓練算力載體。
- 供應鏈現況:台積電為H200主要代工廠,單台medium unit H200的wafer+封裝成本約1300美元,對應營收佔台積電總營收僅1%左右;後端測試環節由金源店參與,PCB打件(OAM)主要依賴工業富聯。
2. 中美政策博弈邏輯
1. 需求端核心數據
①.算力缺口規模:
- 雲廠商層面:騰訊因GPU短缺在2025年三季報下調資本開支(capex)預期;阿里巴巴規劃三年3000億+人民幣AI capex,但明確“供給遠趕不上需求”,即使全額投入仍可能不足。
- 產業整體:2025年中國智慧算力規模已達1037.3EFLOPS,2026年將翻倍至2000+EFLOPS,市場規模突破250億美元;但GPU平均利用率僅40%,部分場景低於20%,算力浪費與缺口並存存。
②.資本開支對比:
- 中國:預計2024-2027年頭部超大規模雲端服務商(hyper scalers)capex年增25%,2027年達4,500億人民幣;六大CSP(阿里、騰訊、字節等)2025年AI capex已達3730億人民幣,同摩27%,2025月,2025月200億人民幣。
- 美國:同期美國大廠(如AWS、微軟)capex規模為中國的3-4倍,僅微軟2025年AI相關capex即超500億美元(約3600億人民幣),接近中國頭部廠商總和(新浪財經)。
2. 需求結構分化:訓練與推理的差異
1. 進口晶片:H200短期成核心補充
- 採購意願:中國雲廠商對H200需求強烈,即使加價25%仍具備吸引力,核心原因是Hopper架構擁有成熟開源生態(如CUDA),可降低AI運算建製成本,性價比優於NVL汽車級晶片。
- 供應規模預測:若政策放行,2026年上半年H200對華交付量或達50萬-80萬顆,可滿足國內30%-40%的訓練算力缺口;疊加存量H100、A100晶片,進口晶片將覆蓋近60%的訓練需求(新浪財經)。
2.國產晶片:從「合規推理」向「高算力訓練」突破
①技術與產能規劃:
- 合規推理晶片:國內雲廠商(阿里平頭哥、百度崑崙、騰訊燧原)已推出符合美國ECCN 3A09標準的產品(TPP<4800 TOPS,單位面積算力<200 TOPS/mm²),採用台積電6nm/7nm製程,2025年月升達1.25年月調達1.25年月調。
- 高算力訓練晶片:依賴中芯國際7nm(N+2)工藝,2024年月產能8000片,2025年增至2萬片,2026年達3-4萬片(大摩開門會);2027年國產算力晶片需求將達48萬片(具體單位為1.123×10²⁰算力單位),本土供給可滿足60%(新浪財經)。
②國產化瓶頸:
- 良率:中芯國際7nm製程良率僅30%-50%(大摩7月報告),導致國產晶片單位成本比台積電代工高20%-30%。
- 生態:國產晶片多依賴開源框架(如MindSpore),與CUDA生態相容性不足,部分大模型廠商需額外投入30%成本進行適應。
1. 核心受益環節與標的(含資料支撐,僅供參考)
2. 潛在承壓環節
①國產高階GPU廠商:短期面臨H200競爭,2026年國產GPU市佔率或從20%降至15%,但華為昇騰、寒武紀等龍頭因綁定政務、國企訂單,份額相對穩定。
②先進封測(CoWoS):若H200封測訂單回流台積電,國內通富微電、長電科技的CoWoS業務短期增速或從40%降至25%(新浪財經)。
- 國產算力網路建置:聯通雲等企業推進「5+4+31+X」算網一體架構,5大核心智算樞紐(京津冀、長三角等)支撐大模型訓練,4大西算樞紐(內蒙古、貴州等)承接離線任務,2026年跨區域算力調度將延遲(50ms)以內電計算範圍內50msms(世界)以進行通訊延遲(50msms)將延遲(世界計算範圍內50msms。
- 政策支援:國家透過「算力券」補貼國產晶片應用,2025年已發放50億元算力券,帶動國產GPU採購量成長3倍(大摩7月報告);2026年計畫將補貼規模擴大至100億元,重點支援推理場景國產化。
- 技術突破方向:國內廠商加速佈局3nm以下先進製程、Chiplet(芯粒)技術,中芯國際計畫2027年量產5nm(N+3)工藝,國產Chiplet封裝良率預估2026年突破85%(大摩調校),可降低高算力晶片成本40%。 (有道調查)