“最佳銷售”黃仁勳終於看到了冰山消融的可能:就在昨天,美國總統川普通過其社交媒體宣佈,經過與中方的溝通,美國將允許晶片巨頭輝達向中國的“經過批准的客戶”出口其先進的AI晶片H200。
川普在文章中提到,此舉將為美國帶來就業和製造業的增強,並提及中方將為此支付25%的額外費用。
輝達CEO黃仁勳曾在10月公開表示,在美國實施嚴格的出口管制之前,輝達的高端AI晶片在中國市場佔據主導地位,市場份額超過95%。從A100到H100,這些晶片是中國各大網際網路公司、科研機構訓練大模型的核心引擎。
然而出口管制政策實施後,輝達在華市場份額從95%驟降至接近0%。2025年三季度,其在華AI晶片銷售額佔總營收不足0.1%。崑崙芯等國產廠商開始迅速填補這個空缺。
IDC資料顯示,2024年中國自主研發的AI晶片在國內市場的份額已攀升至30%,2025年預計將突破50%。
H200獲准進入中國市場的消息,給市場帶來了震動。雖然輝達最新的旗艦產品是基於Blackwell架構的B200系列,但H200依然是一款高性能晶片。
它基於成熟的Hopper架構,擁有與旗艦H100相同的989 TFLOPS的FP16/BF16半精度浮點算力,整合了約16896個CUDA核心和528個第四代Tensor Core。其最大的亮點是配備了高達141GB的HBM3e高頻寬記憶體,記憶體頻寬達到驚人的每秒4.8TB,這甚至超過了H100的80GB HBM3記憶體和3.35TB/s的頻寬。
對於需要處理兆參數、消耗海量視訊記憶體的大模型訓練任務而言,更大的記憶體容量和頻寬意味著可以容納更大的模型、使用更大的批次進行訓練,從而顯著提升效率。
事實上,H200的回歸並非意味著輝達能完全重奪中國市場。
第一個難題就是高昂的價格。按照單顆H200售價約4萬美元計算,25%的抽成意味著每顆晶片需要額外支付1萬美元。這使得H200的實際採購成本遠高於此前的H100,也高於國產同類產品。
其次是配額限制。銷售僅限於“經批准的客戶”,並由美國商務部進行審查。這意味著大量中小企業和被列入實體清單的機構無法獲得採購資格,而這恰恰是國產晶片的主要市場空間。
更重要的是市場分化的趨勢。輝達的優勢在於極致性能和成熟的CUDA生態,這對追求尖端算力的頭部網際網路公司具有吸引力。但在強調安全可控的政務、金融、能源等關鍵領域,國產替代已成為剛性需求,H200難以進入。
然而需要強調的是,H200的性能與此前輝達專為中國市場推出的“閹割版”H20形成了鮮明對比。
儘管H20擁有看似不錯的96GB視訊記憶體,但其算力被大幅削減至僅148 TFLOPS。據美國智庫進步研究所的報告評估,H200的性能是H20的6倍左右,這使其成為一個完全不同量級的競爭者。
這種性能上的巨大落差導致H20在市場上反應平平。騰訊控股總裁劉熾平在財報電話會議上明確表態,公司已儲備足夠的GPU庫存以支撐未來的模型訓練工作,無需採購H20。阿里雲在2026財年第一季度財報中也表示,H20的實際算力表現“無法滿足大模型迭代需求”。
當前國產AI晶片主流算力多處於輝達A100階段。比如寒武紀的旗艦產品思元590,明確對標輝達A100;剛剛登陸科創板的摩爾線程,其AI晶片MTT S3000同樣對標A100。少數廠商產品僅接近H100水平,像沐曦計畫2026年下半年才對流片對標H100的產品進行研發,與H200存在明顯代差。
H200的回歸還給國內帶來了輝達引以為傲的CUDA生態。
CUDA是一個包含了編譯器、庫、開發工具和開發者社區的完整生態系統。深度學習框架本身不具備直接呼叫GPU的能力,必須通過“中間適配層”才能讓GPU幹活,而CUDA就是輝達GPU的“專屬中間適配層”。過去十幾年,全球絕大多數AI研究和商業應用都在CUDA上建構。
百度飛槳可以適配崑崙芯,此時它不依賴CUDA,而是依賴崑崙芯的“專屬中間層”(XPU SDK)。但如果開發者的模型是建構在CUDA上的,那麼想要使用崑崙芯去運行它,就必須得“翻譯”成飛槳能聽懂的程式碼。
百度飛槳雖推出了外掛式CUDA相容類硬體接入方案,能讓硬體廠商復用部分CUDA算子,kernel復用率最高可達92.6%,但這只是針對硬體廠商的適配最佳化,在一些關鍵任務上,仍然需要開發者重新使用飛槳平台編寫。
出於對開發效率、穩定性和生態成熟度的考量,部分追求極致性能且預算充足的商業客戶,可能會選擇繼續採用輝達方案。但這並不意味著國產晶片會失去市場——兩者的目標客戶群體正在分化,輝達吃高端市場,國產晶片則在中低端市場和安全可控領域站穩腳跟。
它基於成熟的Hopper架構,擁有與旗艦H100相同的989 TFLOPS的FP16/BF16半精度浮點算力,整合了約16896個CUDA核心和528個第四代Tensor Core。其最大的亮點是配備了高達141GB的HBM3e高頻寬記憶體,記憶體頻寬達到驚人的每秒4.8TB,這甚至超過了H100的80GB HBM3記憶體和3.35TB/s的頻寬。
對於需要處理兆參數、消耗海量視訊記憶體的大模型訓練任務而言,更大的記憶體容量和頻寬意味著可以容納更大的模型、使用更大的批次進行訓練,從而顯著提升效率。
與其他國產AI晶片廠商不同,崑崙芯並非孤立的硬體產品,而是百度AI生態中的關鍵一環。
2021年,百度的智能晶片及架構部門完成了獨立融資,正式成立了崑崙芯(北京)科技有限公司。儘管已經成為一家獨立公司,百度依然是其控股股東,持有約59.45%的股份。
崑崙芯第一代產品在2020年量產,採用14nm工藝和自研的XPU架構,INT8算力為260TOPS,功耗控制在100瓦等級。
到目前量產的第三代P800晶片,工藝已升級至7nm,FP16算力達345TFLOPS——這個數字是輝達中國特供版H20晶片的2.3倍。
更值得關注的是崑崙芯背後的全端技術整合能力。
在百度建構的AI技術體系中,崑崙芯提供底層算力,飛槳(Paddle)深度學習框架負責中間調度,文心繫列大模型則是最終應用。這種"晶片-框架-模型"的垂直整合模式,與Google的TPU晶片、TensorFlow框架和Gemini模型的組合如出一轍。
這種閉環帶來的好處是顯而易見的。
飛槳可以針對崑崙芯的硬體特性進行深度最佳化,文心大模型的訓練和推理效率因此得到提升;反過來,大模型的實際需求又為崑崙芯的迭代指明方向。
相比之下,其他國產晶片廠商往往需要適配多個主流框架,這在開發效率和性能最佳化上都面臨更大挑戰。
獨立營運後的崑崙芯,商業化進展超出了不少人的預期。
2024年營收突破10億元,市場預期2025年將增長至35億元以上,並有望實現盈虧平衡。更重要的是客戶結構的變化——最初更多依賴百度內部需求的崑崙芯,外部客戶佔比正在快速擴大,覆蓋網際網路、電信營運商、大型央國企等關鍵領域。
2025年8月的一次中標頗具標誌性意義:崑崙芯在中國移動10億等級的AI算力採購項目中,在三個標包中均排名第一。
但崑崙芯還不能高枕無憂,單從業務上看,崑崙芯採用Fabless模式,生產環節依賴外部代工。
2024年上半年其還能較容易地從台積電獲取7nm晶圓代工產能,但隨著境外新規落地,先進製程晶圓代工和HBM供應等方面均受到不利限制。
同時,崑崙芯團隊的軟體最佳化和框架支援長期優先圍繞百度生態展開,對外部開源模型和小眾框架的支援度還不夠。
相較於其他AI晶片,崑崙芯的泛化能力還有提高的空間。
12月5日,崑崙芯完成新一輪融資,投後估值約210億元人民幣。
兩天后百度發佈公告稱,正就擬議分拆及上市進行評估。據外媒報導,崑崙芯最初考慮科創板上市,但後來轉向香港證券交易所,計畫最早在2026年第一季度提交上市申請,目標是2027年初完成IPO。受此消息影響,百度港股股價在12月5日收盤時上漲5.01%。
對崑崙芯而言,獨立上市的意義不僅在於融資。更重要的是,它能讓崑崙芯的估值獨立於百度的傳統業務,避免廣告、搜尋業務波動對其的影響,資本市場會按照AI晶片行業的邏輯對其進行估值。
在產品佈局上,崑崙芯也在加速推進下一代產品。沈抖透露,針對大規模推理場景的M100晶片已完成回片,主打極致性價比,將於2026年上市。字節、阿里、騰訊等頭部網際網路客戶已拿到小規模樣片測試並小範圍部署,百度也規劃了M100晶片的大型叢集部署場景。
這種“內部驗證+外部拓展”的商業化路徑,既降低了市場風險,又為產品迭代提供了真實的應用反饋。在輝達H200可能回歸的背景下,崑崙芯或多或少也有底氣。
在H200回歸的新聞引發熱議的同時,更值得關注的是這次“解禁”背後的政策邏輯,以及它對國產AI晶片帶來的實際影響。
從政策細節看,這次調整併非一次徹底的“放開”,而是一種“有管理的開放”。
美國政府明確表示,基於Blackwell架構的晶片以及下一代Rubin架構晶片,仍然被嚴格禁止出口到中國。允許出口的H200,本質上是輝達的上一代產品。換句話說,美國的核心策略並未改變——在最頂尖的AI技術上對中國保持代差優勢,同時通過出售"次旗艦"產品獲取經濟利益。
外媒分析認為,這種模式很可能成為未來美國對華科技出口管制的新常態:在不放棄技術霸權的前提下,有選擇性地通過出售非尖端但足夠強大的技術來平衡經濟利益與戰略考量,同時以此作為影響中國科技產業發展的籌碼。
然而,H200的回歸之路遠比表面看起來更加曲折。在美國內部,圍繞是否向中國放行高端晶片的爭議極大,這使得該政策的長期穩定性存在巨大疑問。
這其中最具代表性的是《SAFE CHIPS Act》(《安全晶片法案》)。
該法案要求美國商務部在30個月以上時間內拒絕向中國出口尖端半導體的申請。一旦這項法案獲得通過,川普將失去晶片出口的決策權。
外媒認為,川普政府火速審批H200放行,可能是在法案進入審議前搶佔先手,通過行政批准製造既定事實。
同時,這種政策層面的不確定性,也讓中國企業開始擔憂GPU供應鏈。
即便現在可以採購H200以緩解短期算力需求,中國的頭部大廠和關鍵行業客戶也大機率不會完全放棄國產晶片的適配和應用。
目前國內AI企業普遍採用“雙備份”(Dual Sourcing)策略——百度自己就是如此,之前百度百舸採用的就是混合算力架構,既用自研崑崙芯,也用輝達等晶片。
誠然,這種策略會增加短期的研發成本和系統複雜度,但從長遠來看,這是應對地緣政治不確定性的明智選擇。當供應鏈隨時可能因為政策變動而中斷時,技術自主權的價值遠超短期的成本增加。
在中國一側,國家層面對國產替代的政策支援力度也在持續加大。
國家積體電路產業投資基金二期募集金額已達2000億元以上,為晶片企業提供了強有力的資金保障。稅收優惠、研發補貼、政府採購傾斜等一攬子政策正在形成合力。國資委79號文更是明確要求,2027年底前實現所有中央企業資訊化系統的國產替代。
這些政策訊號清晰地表明,在關鍵技術領域,中國不會因為外部環境的短期變化而動搖自主研發的決心。對崑崙芯等國產AI晶片廠商而言,這意味著一個長期穩定且不斷擴大的市場空間。
一位接近百度的人士向字母榜透露,晶片本就是長周期規劃的產業,長期競爭因素始終存在,崑崙芯在產品迭代時就已考慮過相關變化,因此不需要做大的調整。崑崙芯在今年11月公佈的未來5年發展方向中,已經規劃了M300以及超節點裝置等產品線。
另一方面,H200允許進口後,可能也會改變百度的採購政策。不過百度方面並未向字母榜透露相關內容。
從更宏觀的視角看,H200的放行與崑崙芯的上市計畫,本質上是同一場技術博弈在不同維度的對應。前者代表著美國試圖在保持技術優勢的同時獲取經濟利益,後者則體現了中國在關鍵技術領域尋求自主可控的戰略定力。
在這場長期博弈中,短期的政策變動或許會帶來市場波動,但真正決定格局的,仍然是技術積累、生態建設和戰略耐心。對崑崙芯等國產AI晶片而言,挑戰依然嚴峻,但機遇同樣清晰——在一個註定分化的市場中,找到自己的立足點,並不斷向上突破。
而且,輝達H200究竟能不能進入中國,目前來看,仍然是個未知數。 (字母榜)