#AI算力
【輝達財報】輝達的AI神話,倒在滿分財報裡
這是資本市場對AI算力賽道的集體冷靜,也是對輝達未來增長深層焦慮。連續14個季度業績超預期的輝達,折在了AI商業化前夕?台北時間2月26日,全球晶片巨頭輝達發佈了2026財年第四季度及全年財報。財務資料堪稱完美,但其股價卻應聲大跌超5%,市值一夜蒸發近2600億美元(約合人民幣1.7兆元)。儘管27日,輝達向OpenAI投資300億美元的消息披露,同時雙方還敲定了下一代推理計算能力的合作,但這依然沒能讓輝達的股價止跌回升。截至27日收盤,輝達跌4.16%,市值再度蒸發1871億美元(約合人民幣1.28兆元)。兩天時間,輝達市值蒸發4471億美元。資本市場對AI算力賽道的集體冷靜驟不及防,對輝達未來增長的深層焦慮呼之慾出。業績連續超預期,AI算力成絕對支柱自2023財年第三季度以來,輝達已經連續14個季度營收超過市場預測。最新財報顯示,輝達第四季度營收681.27億美元,同比增長73%,高於分析師此前預測的662.1億美元。淨利潤429.6億美元,同比增長94%,近乎翻番。毛利率維持75%的超高水平,較上年同期提升2個百分點,盈利能力依舊強勁。分析師對其下一季度營收的預期攀升至780億美元,且該資料尚未計入中國資料中心業務收入。主營業務的營收變化,標誌著輝達已完成從遊戲顯示卡廠商到AI算力基礎設施提供商的徹底轉型。第四季度,輝達資料中心部門收入達623億美元的創紀錄水平,同比增長75%,在總營收中的佔比高達91%,成為絕對增長引擎。相比之下,遊戲和AIPC部門收入37億美元,佔比約5%;專業可視化部門收入13億美元,佔比1.9%;汽車與機器人部門收入6.04億美元,佔比約0.9%,後三類業務已處於邊緣位置。資料中心業務的爆發,核心源於全球大模型訓練、AI推理的旺盛需求,以及新一代Blackwell晶片的訂單爆發。輝達首席財務官Colette Kress在財報電話會上表示,AI發展已迎來拐點,算力需求呈爆發式增長,Blackwell晶片自發佈後訂單需求遠超產能,全球主要雲廠商、大模型公司的大額訂單,足以支撐公司下一季度的增長目標。Trend Force集邦諮詢的研究也為其提供了基本面支撐。2026年全球八大雲巨頭的資本支出將突破7100億美元,其中大部分將投入AI算力基礎設施建設,這為輝達資料中心業務的未來營收定下了基礎。業績與股價背離,半導體類股集體受挫與完美的財報形成鮮明對比的是輝達的股價表現。財報發佈當日,其股價盤中一度漲超2%,但隨著財報披露和電話會結束,股價持續走低,最終跌超5%,創下2025年4月以來的最大單日跌幅。這一走勢不僅打破了輝達長期的“財報必漲”魔咒,還形成了新的反常規律——自2024年8月起,無論財報業績是否超預期,其股價在財報發佈次日均會“走低一下”。輝達的股價異動還拖累了整個半導體類股,財報發佈當日,博通股價跌超3%,AMD跌3.41%,台積電跌2.8%,資本市場對AI算力類股的擔憂顯露無遺。即便後續有新消息釋放,也未能止住輝達的跌勢。2月27日,OpenAI宣佈完成1100億美元最新融資,其中輝達出資300億美元,同時雙方還敲定了下一代推理計算能力的合作,但其股價依舊走低,當日收盤報177.19美元/股,跌幅4.16%。市場分析人士認為,此次股價與業績的背離,直接原因是利多出盡後的獲利盤集中兌現,深層則是市場對輝達未來增長的擔憂。Jones Trading首席市場策略師奧羅克直言,投資者的關注點已從“現在有多好”轉向“未來還能好多久”,過度透支的預期讓這份滿分財報失去了說服力。Janus Henderson投資組合經理Richard Clode也指出,過去三年輝達的持續超預期,讓“超預期”從驚喜變成了市場基準,一旦業績只是符合預期而非大幅超越,高位資金就會選擇落袋為安。四重隱憂浮現,輝達增長天花板顯現資本市場的遲疑,並非毫無依據,透過亮眼的財報資料,輝達的多重發展隱憂已逐漸浮現,這些問題不僅關乎公司自身,也折射出整個AI算力產業的潛在風險。最突出的問題是業務結構極度單一。91%的營收依賴資料中心業務,意味著該業務的需求波動將直接決定輝達的整體營收表現,缺乏第二增長曲線的支撐,讓公司的發展開始瀰漫不確定性的影子。其次是客戶高度集中,且需求可持續性存疑。Colette Kress在財報電話會上承認,2026年全球頭部五大雲端運算服務商貢獻了輝達資料中心業務超50%的營收,公司業績與少數巨頭的資本開支計畫深度繫結。而TrendForce的報告顯示,2026年四大雲廠商的資本支出增速將從2025年的73%放緩至62%,2027年還存在見頂風險。更關鍵的是,這些核心客戶正加速自研晶片,試圖擺脫對輝達的依賴。Google第七代Ironwood TPU算力已超越輝達B200晶片,且成本更低。Meta計畫2027年在資料中心部署數十億美元TPU,2026年已通過Google雲租用算力。AMD的GPU產品也拿下了Oracle、Meta的訂單,還與OpenAI簽署了6GW算力協議。雲廠商的自研替代,正逐步侵蝕輝達的市場份額。第三是地緣政治風險加劇,海外營收穩定性受影響。2025年12月美國雖允許輝達H200晶片對華出口,但附加了嚴格限制條件,截至2026年2月,該晶片對華獲批銷售數量為零,輝達未收到任何中國客戶的有效訂單。中國作為全球重要的AI晶片市場,市場需求旺盛,這對輝達長期業務佈局造成持續衝擊。而近期美國政府官員關於“DeepSeek使用輝達晶片訓練模型違反美國出口管制規定”的言論,更是讓輝達的海外市場拓展蒙上了政策不確定性的陰影。知名“大空頭”、《大空頭》原型麥可·貝瑞指出,輝達財報中的“採購義務”從一年前的161億美元飆升至952億美元,原因是台積電要求其支付更多現金用於定製晶片生產。這意味著輝達被迫在需求尚未完全明朗的情況下,簽下了不可取消的採購訂單,若未來下游需求出現動搖,這一高額數字將直接威脅公司的業績健康。AI產業回歸理性,自主可控成國核心心方向輝達的股價波動,也是整個AI算力賽道的一個重要訊號。生成式AI爆發後,資本市場對AI算力的狂熱正在降溫,行業認知開始回歸理性。過去兩年,資本市場對AI的投資多停留在“故事和預期”層面,只要與AI沾邊,企業就能獲得高估值。而如今,隨著AI創業企業估值走高和逐步完成上市,投資者的關注焦點已轉向“商業化落地和增長可持續性”,不再盲目追捧相關概念。Richard Clode表示,市場的辯論核心已從短期業績轉移到人工智慧資本支出的可持續性,輝達的規模、貨幣化能力以及潛在的現金流惡化,都成為投資者擔憂的點。從產業層面來看,AI算力領域的競爭格局和發展邏輯正發生深刻變化。過去輝達憑藉CUDA生態壁壘,在AI晶片領域形成壟斷,而如今隨著GoogleTPU的崛起,以及雲廠商自研晶片的推進,這一壟斷格局正被打破。同時,全球AI應用正從訓練向推理加速遷移,雲廠商的採購策略也從“單一GPU”轉向“GPU與ASIC雙軌平行”,兼顧成本效益與場景適配性。這意味著未來的AI算力需求將更趨多元化,單純依靠高端晶片的增長模式已難以為繼,輝達需要在生態、產品、成本等方面持續發力,才能維持領先地位。而輝達的地緣政治風險和市場壟斷,也讓國內AI產業進一步明確了自主可控的重要性。經過多輪技術限制後,國內相關行業逐漸形成共識,關鍵算力產品不能過度依賴外部供應。這一共識也讓國內企業更傾向於支援國產方案,推動了國內AI算力產業鏈的自主化發展。目前,國內頭部雲廠商均在加大自研晶片佈局。騰訊在外購GPU的同時,與本土廠商合作推進ASIC自主方案。阿里巴巴旗下平頭哥、阿里雲正積極自研ASIC AI晶片。百度旗下崑崙芯也在今年1月份提請IPO。這些舉措不僅有助於降低國內產業對輝達的依賴,也讓國產AI算力晶片的研發和商業化處理程序不斷加快。除了大廠之外,國內GPU創業企業也在加快追趕。2月27日,國內算力晶片廠商寒武紀、摩爾線程和沐曦股份相繼發佈了2025年度業績快報。總體來看,上述三家企業營收都呈現出明顯的增長趨勢。最新完成IPO的摩爾線程和沐曦股份雖目前仍處於虧損狀態,但其虧損缺口在縮小。報告顯示,沐曦股份虧損縮小21.28%,摩爾線程虧損縮小36.70%。從全球來看,AI產業依然是未來科技發展的核心方向,算力需求的長期增長趨勢並未改變,但行業的競爭邏輯已發生根本變化。靠講故事、炒預期的階段或許已過去,未來的競爭將聚焦於技術創新、成本控制、生態建構和商業化落地。對輝達而言,如何打破業務單一的困局、應對競品的替代挑戰、化解地緣政治風險,將決定其未來的發展命運。而對整個AI產業來說,輝達的這次股價異動是一次重要提醒:AI的故事已經講完,真正的現實考驗才剛剛開始,只有能實現技術突破、落地商業化的企業,才能在未來的競爭中站得更加穩固。 (億歐網)
2026,中國國產AI晶片,跨越天塹:從“推理”走向“訓練”
過去幾年,中國國產AI晶片始終活躍在一個相對安全、也相對邊緣的位置——推理側。在政務、金融、安防、工業質檢等場景中,中國國產晶片憑藉成本可控、供應穩定等優勢,逐步完成了從“可用”到“好用”的過程。但在AI訓練這一算力金字塔頂端,中國國產晶片長期缺席,或者只能參與邊緣性任務。這一格局,正在發生改變。2026年,將成為“中國國產AI晶片訓練落地元年”。但這一步,絕非簡單升級,而是一場系統工程等級的跨越。01 訓練與推理有何區別?在大眾語境中,“AI算力”往往被視作一個整體,但在工程實踐中,訓練與推理幾乎是兩種完全不同的工作負載。訓練的核心是讓AI模型“學會知識”,具體而言,是通過海量帶標籤樣本,經過特定演算法迭代,求解出機器學習模型最優參數的過程。這一階段需要海量資料的持續投喂、數十億至兆級參數的動態更新,以及數周乃至數月的不間斷運行,追求的是吞吐量與規模化運算效率。這意味著訓練晶片不僅要具備強悍的算力,還需配備極高的視訊記憶體頻寬、高效的分佈式通訊能力,以及萬卡級叢集規模下的穩定性。訓練過程可進一步細分為預訓練與後訓練兩個階段:預訓練依託海量無標註或弱標註資料,通過大規模反覆迭代計算最佳化模型參數,最小化預測誤差,最終形成具備通用生成能力的基礎大模型,對晶片的計算性能、互連通訊能力及通用性提出極高要求;後訓練又稱微調、最佳化階段,基於通用大模型,借助標註專業資料集對輸出層參數進行量化、剪枝等最佳化,通過強化學習強化特定領域適配能力,雖計算量不及預訓練,但隨著行業化需求提升,其在全流程中的權重正持續增加。與訓練形成鮮明對比,推理是模型“運用知識”的階段,需要依託已訓練完成的模型參數,對新輸入資料進行預測、生成響應,是AI技術落地解決實際問題的核心環節。相較於訓練,推理更側重速度、能效比、響應延遲與成本控制,其部署場景覆蓋雲服務、邊緣節點乃至終端裝置,對穩定性與能效比的訴求遠高於峰值算力。這種特性使得推理過程無需經歷漫長的迭代訓練,可直接呼叫成熟模型完成分析預測,在海量資料處理與即時響應場景中具備顯著高效性。大模型的發展遵循Scaling Law的經驗公式,即模型參數量、資料量以及計算資源的增長能得到更好的模型智能。在通用基礎大模型發展階段,大模型向更大參數方向不斷演化,預訓練階段的資料量呈指數級增長,GPU作為算力硬體的核心在預訓練市場經歷了爆發增長。根據中國信通院《中國算力發展白皮書(2023)》,GPT-3的模型參數約為1,746億個,而GPT-4的模型參數約達到了約1.8兆個,訓練算力需求上升了68倍。此外,xAI發佈的Grok-3使用20萬卡訓練晶片叢集帶來模型性能提升亦證明了預訓練Scaling Law將長期成為人工智慧發展的基石。更值得關注的是,訓練算力存在“邊際效益遞減”的天花板。對於稠密架構大模型,當參數從千億級向兆級跨越時,算力需求呈超線性增長,指數級攀升的成本壓力,讓從頭訓練大模型成為少數科技巨頭的“專屬遊戲”。憑藉高算力門檻,國際領先廠商輝達的產品一直以來都是人工智慧訓練端的首選,佔據了AI訓練市場90%以上份額,其Blackwell架構支援1.8兆參數模型訓練,且NVLink 6技術實現72卡叢集無縫互聯。而推理端(尤其是邊緣端、終端推理)對晶片性能要求較訓練端低,因此推理晶片市場百花齊放,各類晶片均佔有一席之地。由於中國AI晶片市場起步較晚,中國國產廠商通常從門檻相對較低的推理端切入市場,目前已取得階段性成果;而訓練端的中國國產化率仍相對較低。在海外高性能晶片出口管制不斷升級的背景下,擁有高性能計算能力、產品可有效應用於訓練端的中國國產廠商將充分受益。02 中國國產算力走向訓練,難在那裡?從“能推理”到“能訓練”,表面看是性能維度的小幅提升,實則是跨越全技術堆疊的深度重構,核心面臨技術突破與商業閉環兩大挑戰,考驗的是企業的綜合攻堅能力。技術層面,核心矛盾已從單一晶片的紙面參數競爭,轉向萬卡級叢集的互聯瓶頸突破,最終目標是提升模型算力利用率(MFU)。硬體端,單卡性能的提升已無法滿足大規模訓練需求,分佈式平行成為必由之路——Scale Up通過增加單伺服器GPU數量建構超節點,Scale Out通過擴容伺服器規模搭建分佈式叢集,Google、Meta、微軟等海外大廠已率先佈局,如GoogleA3虛擬機器搭載2.6萬塊輝達H100 GPU,同時基於自研晶片搭建8960卡TPUv5p叢集,通過規模化叢集優勢最佳化服務架構。而中國國產廠商雖在單卡性能上實現突破,但在叢集協同能力上仍與海外存在差距。軟體端,單純相容CUDA生態的路徑在高強度訓練場景中已暴露瓶頸,建構原生、高效的自主軟體生態成為必然選擇。隨著大模型參數量與演算法複雜度提升,訓練任務對計算系統的通訊能力要求持續升級,千卡、萬卡級智算叢集成為標配,而中國具備完整訓練晶片部署能力的廠商寥寥無幾。其中,華為海思憑藉長期技術積澱、全端協同優勢及豐富的人才與客戶儲備,在中國國產訓練晶片領域建立了顯著領先地位。技術之外,市場用最樸素的邏輯投票:穩定性與總擁有成本(TCO),這兩大維度構成了對中國國產訓練晶片的核心拷問:其一為應用穩定性,長達數月的訓練任務對晶片平均無故障時間(MTBF)提出極致要求,一次意外中斷就可能造成數百萬沉沒成本。這也是當前智算中心普遍採用“異構部署”策略的核心原因——通過輝達晶片保障核心基座模型的穩定運行,同時用中國國產晶片在垂類模型微調、推理等場景中迭代最佳化、積累信任,推動中國國產算力從“敢用”向“願用”跨越,而實戰落地是唯一的破局路徑。其二為產業體系升維。客戶最終採購的並非PetaFLOPS這類冰冷的性能參數,而是穩定高效的AI生產力。這要求中國國產廠商完成從“單一晶片供應商”到“全端算力解決方案服務商”的轉型,具備從供電、液冷等基礎設施到軟體調優、維運支援的全鏈條服務能力,交付一套高性能、高可靠的“算力動力總成”。03 中國國產AI晶片從推理走向訓練中國國產晶片在訓練場景的落地,並非一蹴而就的爆發,而是政策驅動與技術迭代共同作用的結果,早在去年就已顯現端倪。2025年8月21日,DeepSeek曾表示,新版本採用了一項針對中國國產晶片而設計的技術,能夠實現性能最佳化,並加快處理速度。政策層面的支撐更為明確:2025年5月,美國BIS發佈《關於可能適用於先進計算晶片及其他用於訓練AI模型商品的管制的政策聲明》《關於通用禁令10(GP10)對中華人民共和國(PRC)先進計算晶片適用的指南》《關於防止先進計算晶片轉移的行業指南》,從AI晶片的使用範圍、供應鏈制裁等角度進一步加強了對先進AI晶片和相關技術的出口管制,將出口管制風險進一步延伸至產業鏈的各個參與方。地緣政治倒逼相關中國客戶使用中國國產GPU產品,在一定程度上幫助中國國產GPU廠商與中國客戶和供應商建立密切聯絡,進而快速實現技術和產品迭代升級。而且近期,工信部聯合7部門出台《“人工智慧+製造”專項行動實施意見》明確提出,支援突破高端訓練晶片、端側推理晶片、人工智慧伺服器、高速互聯、智算雲作業系統等關鍵技術。多重因素疊加下,2026年成為中國國產AI晶片訓練落地的關鍵元年。今年以來,一批基於中國國產晶片訓練的AI大模型密集落地,標誌著中國國產算力在訓練場景的實戰能力得到驗證。2026年1月14日,智譜聯合華為開源新一代圖像生成模型GLM-Image,開源後24小時內登頂全球AI開源社區Hugging Face Trending榜單榜首。該模型基於華為昇騰Atlas 800T A2裝置與昇思MindSpore AI框架,完成從資料處理到模型訓練的全流程閉環,是首個依託中國國產晶片實現全程訓練的SOTA(當前最高水平)多模態模型,首次讓中國國產晶片訓練的模型站上國際頂端舞台,印證了中國AI模型端到端自主研發能力的突破,引發全球AI圈、產業界與資本市場的廣泛關注。1月13日,摩爾線程與北京智源人工智慧研究院達成突破,依託MTT S5000千卡智算叢集與FlagOS-Robo框架,成功完成智源自研具身大腦模型RoboBrain 2.5的全流程訓練。這一成果首次驗證了中國國產算力叢集在具身智能大模型訓練中的可用性與高效性,標誌著中國國產AI基礎設施已具備應對複雜多模態任務的能力。此外,摩爾線程還與小馬智行正式宣佈達成戰略合作。雙方將聚焦L4級自動駕駛技術落地與規模化應用,圍繞小馬智行技術核心——世界模型及虛擬司機系統的訓練與最佳化展開深度協同,共同探索“AI演算法+AI算力”深度融合的合作新範式,以安全可靠的AI算力,賦能自動駕駛技術迭代和商業落地。雙方將基於摩爾線程MTT S5000訓推一體智算卡及誇娥智算叢集,共同推進小馬智行世界模型及車端模型訓練的適配與驗證。中國電信近期開放原始碼的千億級星辰大模型,實現了中國國產AI全端生態的關鍵突破。此次發佈的TeleChat3系列包含兩大核心模型——混合專家架構的TeleChat3-105B-A4.7B-Thinking與稠密架構的TeleChat3-36B-Thinking,其訓練全程依託上海臨港中國國產萬卡算力池完成,累計消耗15兆tokens訓練資料,成為中國國產AI發展史上的里程碑事件。技術層面,該系列模型實現從硬體到軟體的全鏈路中國國產化適配,深度整合華為昇騰生態,包括Atlas800T A2訓練伺服器的硬體支援、昇思MindSpore框架的開發環境,以及完整的中國國產AI算力基礎設施支撐。客觀來看,輝達A100/H100/H800系列GPU仍是全球超大規模前沿模型(如DeepSeek-V3)訓練的首選,但中國國產算力平台已逐步實現突破,可穩定支撐數十億至千億參數級模型的全流程訓練任務。此前主流大模型高度依賴海外GPU的格局正在改變,供應鏈安全風險得到有效緩解,中國國產AI晶片正從推理側的“單點突破”,邁向訓練側的“體系化崛起”。 (半導體產業縱橫)
AI算力與儲存需求爆表, 半導體裝置迎接超級周期!應用材料業績展望碾壓預期!
全球最大規模半導體裝置製造商之一應用材料(AMAT.US)在周四美股收盤後公佈最新季度業績與未來展望報告,資料顯示,覆蓋幾乎全套高端半導體裝置的應用材料公司給出了超預期季度業績以及無比強勁的未來業績指引區間,凸顯出在全球範圍AI算力基礎設施建設浪潮如火如荼以及“儲存晶片超級周期”宏觀背景之下,半導體裝置廠商們也迎來超級增長周期,它們將是AI晶片(涵蓋AI GPU/AI ASIC)與DRAM/NAND儲存晶片產能急劇擴張趨勢的最大規模受益者。應用材料股價在美股盤後交易中一度暴漲超14%,主要因該公司給出了出人意料的極度強勁營收預測區間,表明人工智慧與儲存類半導體需求正在大幅推動台積電等晶片製造領軍者們加速推進半導體高端製造裝置採購。市場最為聚焦的業績展望方面,這家美國最大規模的半導體製造裝置與先進封裝裝置供應商預計,其2026財年第二季度營收約為76.5億美元,上下浮動範圍約5億美元,相比之下,華爾街分析師們對於應用材料該財季(截至今年4月)的平均營收預期為70.3億美元——要知道,隨著3nm及以下先進製程AI晶片擴產與CoWoS/3D先進封裝產能、DRAM/NAND儲存晶片產能擴張大舉加速,應用材料這一營收預期自今年以來被分析師們不斷上調。應用材料管理層最新給出的Non-GAAP準則下第二財季每股收益展望區間則為2.44美元至2.84美元(不含部分項目),這一展望遠遠高於2.29美元的分析師平均預期。應用材料首席執行長加里·迪克森(Gary Dickerson)在一份聲明中表示,“關於AI計算領域的全球行業整體投資處理程序的加速”正在推動公司的業績邁向強勁增長軌跡。截至1月25日的2026財年第一季度業績方面,儘管第一季度營收同比小幅下滑2%至70.1億美元,但降幅遠小於該公司此前預期,並且顯著強於華爾街分析師們平均預期的約68.6億美元。Non-GAAP 準則下的第一季度每股收益為2.38美元,高於2.21美元的華爾街平均預期,與上年同期基本持平;第一季度該公司毛利率來到49%,上年同期約48%,第一季度的Non-GAAP自由現金流高達10.4億美元,意味著實現大幅增長91%。業績報告最大亮點——儲存晶片擴張帶來的強勁裝置需求應用材料正在從新一輪美國政府對華半導體裝置出口限制引發的增速放緩中大舉反彈,面臨美國晶片制裁的中國長期以來是該公司半導體製造裝置類產品的最大市場,但近年來應用材料諸多高端型號的半導體製造裝置無法出口至中國。與DRAM/NAND儲存晶片產能擴張相關的半導體裝置擴張需求是應用材料這份最新季度業績與未來展望報告一個最特別的增長亮點,凸顯出三星電子與美光科技、SK海力士等大客戶們正在加速擴大產能,以應對該市場的急劇短缺。周四發佈強勁業績展望之後,該股在美股盤後一度上漲至375美元的高位。今年以來該股已大幅上漲28%,周四收於 328.39 美元。迪克森在業績電話會議上提到,市場對於高頻寬儲存(即HBM)——一種用於AI計算系統的高性能儲存裝置的無比強勁需求,是關鍵驅動因素。“我們預計今年按自然年測算,半導體裝置業務將大幅增長20%以上,”他表示。HBM是一種高頻寬、低能耗的儲存技術,專門用於高性能計算和圖形處理領域。HBM通過3D堆疊儲存技術,將堆疊的多個DRAM晶片全面連接在一起,通過微細的Through-Silicon Vias(TSVs)進行資料傳輸,從而實現高速高頻寬的資料傳輸,與輝達GB200/GB300這類 AI GPU以及GoogleTPU AI晶片配合搭載使用。HBM儲存系統的本質是把DRAM 從“單顆晶片的密度/成本最佳化”升級為“面向GPU頻寬/能效的系統級互連最佳化”:更高堆疊層數、更高I/O密度、更激進的互連間距,意味著 DRAM 製造中的關鍵工序(深孔刻蝕、介質/阻擋層沉積、金屬互連與平坦化、缺陷/形貌控制)被顯著強化。與此同時,HBM 作為 AI 計算系統的關鍵供給,也在推升全行業擴產與良率爬坡的迫切性。SK海力士、三星以及美光這三大堪稱壟斷的儲存晶片原廠紛紛將多數產能集中於HBM儲存系統——這類儲存產品需要的先進製程產能以及製造、封測複雜度相比於DDR系列以及HDD/SSD系列儲存晶片而言複雜得多,因此三大儲存晶片領軍者不斷將產能遷移至HBM,在很大程度上導致一些面向工業、電動汽車以及消費電子端的普通儲存產品供不應求。美國儲存巨頭美光科技CEO在2026財年第一季度財報電話會上表示,該公司2026年度的所有HBM產能已全部售罄,並預計HBM總潛在市場(TAM)將在2028年將達到1000億美元(對比之下2025年約為350億美元)。Bloomberg Intelligence的一份研究報告顯示,應用材料用於製造DRAM類儲存晶片的刻蝕與沉積工具,“將因輝達等AI晶片客戶們的無比強勁需求而擴大”。業績報告還顯示,該公司剛剛解決了一項備受關注的監管問題。本周早些時候,應用材料宣佈計畫支付2.525億美元,以和解美國商務部關於不當向中國出口的調查,結束了一段持續多年的調查事件。毋庸置疑的是,美國政府更嚴格的出口監管也對該公司基本面造成了巨大負面衝擊。10月,應用材料表示,美國政府對中國限制措施的擴大將使其在2026財年損失約6億美元營收。總部位於加州聖克拉拉(Santa Clara)的這家半導體裝置巨頭還宣佈計畫裁減其全球員工總數的 4%。儘管應用材料股價去年股價大幅上漲58%,但仍落後於其他美國半導體裝置製造商的爆發式股價表現。比如Lam Research Corp.股價在這一時期幾乎翻番,科磊(KLA Corp.)股價上漲 93%。周四在應用材料公佈強勁的業績展望後,這些股票價格在盤後交易中也獲得提振。AI算力與儲存晶片需求野蠻擴張! 半導體裝置迎接超級周期最近多家華爾街金融巨頭髮布研報稱,半導體裝置類股乃AI算力與儲存需求爆表之下的最大贏家之一。隨著微軟、Google以及Meta等科技巨頭們主導的全球超大規模AI資料中心建設處理程序愈發火熱,全方位驅動晶片製造巨頭們3nm及以下先進製程AI晶片擴產與CoWoS/3D先進封裝產能、DRAM/NAND儲存晶片產能擴張大舉加速,半導體裝置類股的長期牛市邏輯可謂越來越堅挺。Google在11月下旬重磅推出Gemini3 AI應用生態之後,這一最前沿AI應用軟體隨即風靡全球,推動GoogleAI算力需求瞬間激增。Gemini3 系列產品一經發佈即帶來無比龐大的AI token處理量,迫使Google大幅調低Gemini 3 Pro與Nano Banana Pro的免費訪問量,對Pro訂閱使用者也實施暫時限制,加上近期有著“OpenAI勁敵”稱號的Anthropic重磅推出的一系列AI工具/代理式AI智能體協作平台瞬間爆火,再疊加韓國近期貿易出口資料顯示SK海力士與三星電子HBM儲存系統以及企業級SSD需求持續強勁,進一步驗證了華爾街所高呼的“AI熱潮仍然處於算力基礎設施供不應求的早期建設階段”。史無前例的AI基建浪潮與儲存超級周期,可謂把半導體推入了一個更“材料密集、過程控制密集、封裝工藝前移”的新階段:邏輯側三維結構與新材料疊加、儲存側HBM堆疊與互連升級、封裝側CoWoS/混合鍵合把系統性能轉化為製造難度——這三股力量共同提高了沉積/刻蝕/CMP/先進封裝/核心量測等關鍵環節的價值密度,並且把半導體裝置需求從“周期波動”更明顯地改寫為“結構性大擴張周期”。尤其值得注意的是,先進封裝正從“焊凸點時代”向“混合鍵合(Hybrid Bonding)時代”加速遷移:混合鍵合通過銅-銅直接互連進一步縮短互連長度、提升I/O密度、降低能耗,正好擊中 AI 訓練/推理對頻寬-延遲-功耗的極致約束。應用材料不僅在官網系統闡釋混合鍵合相對 TSV 的性能/功耗優勢,還推出面向規模化的混合鍵合平台,並通過入股 BESI(混合鍵合裝置龍頭之一)來強化“工藝-裝備協同”的產業卡位當前全球AI算力基礎設施與資料中心企業級儲存晶片需求可謂持續呈現出指數級增長趨勢,供給端遠遠跟不上需求強度,這一點從“全球晶片之王”台積電(TSM.US)近期公佈的無比強勁業績資料中就能明顯看出。台積電第四季度毛利率首破60%,淨利潤大超預期,預計2026年全年營收增速接近30%,並將2026年資本開支指引大幅上調至520-560億美元,兩項核心指引可謂遠超市場預期,此外,台積電管理層還將與AI密切相關聯的晶片代工業務的營收復合年增長率預期從原先的“40%中段”大幅提升至“50%中高段”。這家全球最大規模晶片製造巨頭無比強勁的業績與未來指引帶動近期晶片股行情升溫,尤其是儲存晶片與半導體裝置漲勢最為強勁,畢竟台積電資本開支擴張基本用於購置覆蓋光刻、刻蝕、薄膜沉積與先進封裝、測試等晶片製造環節的各種高端半導體裝置。在晶片廠,應用材料(AMAT.US)的身影可謂無處不在。不同於阿斯麥始終專注於光刻領域,總部位於美國的應用材料提供的高端裝置在製造晶片的幾乎每一個步驟中發揮重要作用,其產品涵蓋原子層沉積(ALD)、化學氣相沉積(CVD)、物理氣相沉積(PVD)、快速熱處理(RTP)、化學機械拋光(CMP)、晶圓刻蝕、離子注入等重要造芯環節。應用材料在晶圓Hybrid Bonding、矽通孔(Through Silicon Via)這兩大chiplet先進封裝環節擁有高精度製造裝置和定製化解決方案,對於台積電2.5D/3D 等級先進封裝步驟至關重要。應用材料在其最新的技術解讀中指出HBM製造流程相對傳統DRAM額外增加約19個材料工程步驟,並聲稱其最先進的半導體裝置覆蓋其中約75%的步驟,同時也重磅發佈面向先進封裝/儲存晶片堆疊的鍵合系統,因此HBM與先進封裝製造裝置可謂是該公司中長期的強勁增長向量,GAA(環繞柵極)/背面供電(BPD)等新晶片製造節點裝置則將是驅動該公司下一輪強勁增長的核心驅動力。 (invest wallstreet)
華為打造“最強超節點”,這項全球領先技術很關鍵
2025年以來,超節點(SuperPod)作為新的AI算力基礎設施,不斷成為行業焦點。觀察者網也曾深度報導過華為的昇騰384超節點,它通過高速互聯匯流排將384顆昇騰晶片連接起來,在超節點算力規模、網路互聯頻寬、記憶體總頻寬等多個指標上,趕超了國外廠商的旗艦超節點。但當時一些討論認為,華為是靠堆砌了384顆晶片,才超越了輝達72顆晶片,而後很多廠商也跟進了超節點的概念。一時間,算力行業掀起了建設超節點的熱潮。那回到最初的問題,超節點就是單純的堆晶片嗎?華為是通過暴力堆砌晶片趕超輝達的嗎?超節點和傳統的計算叢集區別在那?關於這些行業熱點話題,華為計算產品線行銷運作部部長張愛軍近日在一場媒體沙龍上對觀察者網等媒體做了詳解。他首先認為,今天的算力需求遠未被滿足,無論是大模型進入到生產系統中,還是在toC消費端,token消耗的數量都在指數級增長,未來中國每日token消耗量可能突破千兆。在一些觀點看來,算力缺口大可以通過大量建設伺服器叢集堆卡來解決。這麼說聽起來有一定道理,但真實情況遠沒有這麼簡單。根據Meta公佈的論文,萬卡叢集訓練時算力利用率僅約38%,粗暴堆卡可能會造成62%的算力浪費,並且模型訓練會3個小時中斷一次。這是因為,叢集網路通訊已成為當前大模型訓練和推理的最大挑戰。以DeepSeek這種混合專家模型(MoE)為例,每個“專家”如果不能有效溝通,NPU就會由於沒有足夠資料計算而閒置,進而形成1+1<2的結果。換句話說,如果384顆昇騰晶片簡單疊加,計算效果就會和普通伺服器叢集一樣效率低下。超節點就在這種情況下應運而生,它不是修補式改進,而是對傳統計算架構進行重構。張愛軍對觀察者網表示,超節點從傳統以CPU為中心的架構,變成了全平等互聯,無論是CPU、NPU還是記憶體單元,都不用再經過CPU,而是可以平等互聯,提高通訊效率,同時連接計算單元的“高速公路”也發生了變化,由全新的協議和匯流排能力來支撐裝置間互聯。現在市面上的超節點越來越多,但並沒有統一標準,而張愛軍認為,真正的超節點須具備三個關鍵特點:一是頻寬夠大,核心要讓計算不用等待通訊;二是有足夠低的時延,傳統叢集很難做到時延降低;三是形成有效的、邏輯上的單一系統,關鍵在於記憶體能不能統一編址。利用這些技術,超節點可以讓DeepSeek的256個“專家”分佈到每個計算單元上,提升吞吐效率。“為什麼要有統一記憶體編址的技術才能真正稱得上超節點?”他進一步對觀察者網解釋稱,傳統叢集的資訊傳遞,跟現實生活中寄快遞的方式比較像,需要做相應的轉換才能找到下單地址。而超節點希望像在圖書館裡檢索書籍一樣,提前進行書籍編址,能快速找到,而且可以變成資源池。如果沒有統一記憶體編址,就不能做到記憶體的池化。如果沒有記憶體池化,計算單元之間的資料快速交換很難做到。如果不能快速交換資料,計算效率是很難提升的。這是為什麼說做不到統一記憶體編址,超節點是很難真正高效地運行起來的原因之一。”一句話總結,超節點相比傳統叢集最大的優勢,是計算效率的顯著提升。以晶片製程為例,在摩爾定律放緩的情況下,7奈米到3奈米,可能每代性能提升不超過20%。而超節點可以將模型算力利用率從30%提升到45%,相當於提升了50%,通過資源的高效調度,在一定程度上可以彌補晶片工藝代差。但打造一個真正的超節點遠沒有那麼容易。關注技術細節的人可能會發現,華為的昇騰384超節點是由12個計算櫃和4個匯流排櫃構成,體積龐大,而輝達NVL72系統只有一個機櫃,為什麼輝達不連接更多機櫃,進而連接更多晶片?核心在於超節點架構不同,輝達採用的全銅線架構,傳遞的是電訊號,而華為將光通訊技術應用於超節點,採用超高速光模組連接。“如果用電的方式,高速訊號基本只能在一個機櫃裡兩到五米傳送,這也是為什麼很多業界的超節點只能在一個機櫃裡面提供。為什麼華為可以跳出單個機櫃限制,規模商用384個晶片互聯,未來可以支援8192個晶片互聯,核心是我們用了光的技術。”張愛軍對觀察者網表示。但“光”並不好駕馭。光模組成本高,也比較嬌慣,如果有灰塵,有各種各樣的溫度變化,容易發生閃斷、系統不穩定,要做的像電一樣可靠,像光一樣長度,難度很大。“我們是怎麼做到的?一句話,系統化創新,華為可以做自己的晶片,有自己光的器件能力,有自己的底層協議,在過去光通訊上建構了工程能力,我們做到了借助全光互聯提供超節點。為什麼其它廠商做不到?就是因為他們或許掌握了某些單點技術,但很難像華為一樣有系統化能力,這也得益於過去華為一直在通訊領域深厚的積累。過去20年,我們在光上面是全球第一的技術積累。”張愛軍對觀察者網說道。華為不僅在做智算超節點,也在發展通算超節點。去年的華為全聯接大會上,華為輪值董事長徐直軍發佈了基於鯤鵬950處理器的TaiShan 950超節點,這是全球首個通用計算超節點,將在2026年一季度上市。他當時表示,TaiShan 950加上分佈式GaussDB資料庫,將徹底取代各種應用場景的大型機和小型機,以及Oracle的Exadata資料庫伺服器。“大家過去買伺服器,主要關注CPU的主頻和核數。但今天大量的場景通過調整主頻和核數是難以解決的,核心原因是因為摩爾定律已經走到頭了,物理的效能很難,堆再多的核、提升再高的主頻,很難把計算效能提升上去。有一條新路,通過通訊的能力把多核能夠連接起來,形成有效的業務系統,同樣給通用計算提供相應的能力。核心和智算是一樣的,提供超大頻寬、超低時延、進行統一記憶體編址。”張愛軍說道。在華為的思考中,無論是智算還是通算超節點,乃至像Atlas 950 SuperCluster這樣數十萬卡的巨型超節點叢集,核心是要讓大量伺服器像一台電腦一樣工作,由此華為建構了新型互聯協議靈衢UB(UnifiedBus),並將靈衢2.0規範開放。“靈衢是建構超節點的核心能力,華為把它完全開放出來,讓業界所有的人都可以獲取到這個技術。基礎協議有600頁,是所有廠商中提供的最詳細、最完整的能力。通過對靈衢2.0協議的開放,產業界夥伴能夠借助這個技術打造自己的超節點。我們希望與產業界共創,能夠形成一個繁榮的產業生態,希望這些新的能力、新的技術不僅僅華為在使用,而是整個產業鏈一起來建構。”張愛軍表示。超節點足夠火熱,但支撐其運行的不只有晶片、光模組等硬體,還有大量軟體生態,比如異構計算架構CANN、作業系統openEuler、資料庫openGauss、AI框架MindSpore等等。生態需要產業共建,華為一直堅持軟體開源開放。張愛軍表示,“目前鯤鵬註冊開發者有380萬,昇騰有將近400萬開發者。2025年8月,我們把CANN完全開源開放,openEuler也是業界第一個面向超節點的開源作業系統。特別是CANN,我們從最底層的營運時,到開發語言、範本庫\算子庫等,完整地開源給產業界,現在已經有很多開發者基於昇騰CANN的能力,自己開發算子,來面向它的業務場景進行創新。AI 時代的迭代速度遠超以往,單打獨鬥很難跟上節奏,協同共創、開放共生才能共贏未來。” (觀網財經)
scaleX萬卡超叢集破紀錄!
日前,中國國家超算網際網路核心節點正式上線試運行。據報導,該節點同時部署了3套中科曙光scaleX萬卡超叢集系統,成為全國首個實現3萬卡部署、且實際投入營運的最大國產AI算力池。作為國家部委、河南省、鄭州市等多方大力支援下重點部署的全國一體化算力網路重大基礎設施,核心節點的戰略意義毋庸置疑。此次開創性完成國產萬卡超叢集部署,不僅實現多項業界之最,也為中國算力網路建設提供一個國家級樣板間。整合度最高:scaleX萬卡超叢集採用了全球首創高密度單機櫃,基於超高密度刀片、浸沒相變液冷等技術,單機櫃算力密度大幅提升20倍,PUE值低至1.04。整合規模最大:scaleX是國內首個萬卡超叢集,基於scaleFabric高速網路可實現10240塊加速卡整合部署,大叢集合體同樣達到國產計算叢集最大規模。開放性最強:該叢集完全基於AI計算開放架構設計,打破了傳統的單一技術堆疊閉環依賴,可以支援多品牌AI加速卡,並相容AI計算主流軟體生態,產業上下游接入能力極強。眾所周知,算力網路的建設目標是為了打破算力基礎設施異構壁壘,解決國內算力資源分佈不均、利用率不足等問題。scaleX萬卡超叢集基於開放架構實現業界單體最大規模算力供給,無疑為算力基礎設施建設提供了可複製、驗證和普及落地的樣板。首先,開放架構體系讓異構算力互聯的問題不攻自破。比如,不同類型的加速卡由於技術路線差異,在執行模型訓練、推理等工作任務時優勢各異,同時也很難實現平替遷移,這也導致各類計算中心算力很難高效復用。開放計算架構基於廣泛的相容能力,可以通過科學組合為不同計算任務匹配最合適的計算資源,一方面可以最佳化資源配置,大幅提升整體計算效率和性能;另一方面也能形成標準化、商品化的計算服務,實現全端算力普惠。簡單來說,scaleX萬卡超叢集就是一個開放性的算力資源池,在不同的AI算力和使用者之間承擔起平台紐帶作用,同時也能為各類AI應用場景提供了可快速部署上線的計算平台,支援AI模型、業務應用快速無縫遷移與深度最佳化。更關鍵的是,這一模式顯然深度契合了算網建設初衷。據悉,此次核心節點上線後,將成為中部算力高地與調度樞紐,有效聯動西部綠色算力資源,承接東部地區的算力需求外溢,甚至承擔起貫通東西、輻射全國的重要使命。scaleX萬卡超叢集作為核心節點的算力底座,正受到市場供需兩端的廣泛關注。隨著這一模式在應用層價值釋放,或將為國產算力體系化、生態化發展開闢全新路徑。 (國芯網)
中國中央、國務院發佈重磅檔案
01.宏觀要聞中共中央、國務院發佈關於《現代化首都都市圈空間協同規劃(2023-2035年)》,其中提到,要圍繞完善首都功能區域佈局,牢牢牽住疏解北京非首都功能這個“牛鼻子”,建成以首都為核心的世界一流都市圈、先行示範中國式現代化的首善之區,支撐京津冀世界一流城市群建設。此外還提到,高標準高品質建設河北雄安新區,把北京城市副中心建設成為首都發展新的增長極,推動“兩翼”比翼齊飛。高品質譜寫京津“雙城記”,天津加強北方國際航運核心區建設,共同打造區域發展高地。發揮河北節點城市支撐作用,形成優勢互促、聯動發展的功能格局。市場監管總局會同中央空管辦、國家發展改革委等十部門聯合發佈《低空經濟標準體系建設指南(2025年版)》,重點圍繞低空航空器、低空基礎設施、低空空中交通管理、安全監管和應用場景五大核心領域,建立技術標準與管理規範融合、國內標準與國際規則融合、強制性標準與推薦性標準融合、基礎標準與場景標準融合的“四維融合”標準供給體系。02.行業新聞據央視新聞2月1日報導,當前全球AI算力建設進入爆發期,高功率、高穩定的供電成為算力叢集的“生命線”,電力裝置變壓器正升級為算力基礎設施的核心,也讓變壓器成為稀缺資源。記者在中國廣東、江蘇等地調研發現,大量變壓器工廠已經處於滿產的狀態,其中部分面向資料中心的業務訂單都排到了2027年,而美國市場變壓器交付周期已經從50周延長至127周。商務部等9部門印發《2026“樂購新春”春節特別活動方案》。其中提出,鼓勵各地增加春節期間消費品以舊換新補貼數量,加大線下實體零售支援力度,動員企業春節期間持續開展汽車、家電、數位和智能產品相關展銷活動,引導企業打造智能終端等產品體驗專區,對到店體驗消費者給予更多優惠。03.海外要聞美東時間周一,美股三大指數02月02日收盤全線上漲。截至收盤,道瓊斯工業平均指數比前一交易日上漲515.19點,收於49407.66點,漲幅為1.05%;標準普爾500種股票指數上漲37.41點,收於6976.44點,漲幅為0.54%;納斯達克綜合指數上漲130.29點,收於23592.11點,漲幅為0.56%。熱門科技股多數上漲,英特爾漲超5%,蘋果、AMD漲超4%,Google漲超1%創歷史新高,輝達跌近3%,特斯拉跌2%,微軟、Meta跌超1%。台北時間周二清晨,SpaceX官網發佈聲明,宣佈與xAI正式合併。據知情人士稱,SpaceX以2500億美元的估值收購了xAI。合併後公司的股價將接近527美元,對應估值達到1.25兆美元。馬斯克也在聲明中再次強調建設太空資料中心的價值。 (證券之星)
訂單已排到2027年底!“電力心臟”,全球爆單
當前,全球AI算力建設進入爆發期,高功率、高穩定的供電成為算力叢集的“生命線”,電力裝置變壓器正升級為算力基礎設施的核心。記者在中國廣東、江蘇等地調研發現,大量變壓器工廠已經處於滿產的狀態,其中部分面向資料中心的業務訂單都排到了2027年。全球AI算力中心的爆發式增長,讓變壓器成為稀缺資源。在佛山一家電氣裝置企業,工廠的核心產品乾式變壓器主要用於資料中心等場景,出口訂單也出現快速增長。廣東佛山某電氣裝置有限公司行銷負責人 李霞:相對歐美的交付周期,我們大約不到它們的五分之一。目前訂單比較充沛,我們希望將海外的營收佔比達到50%及以上。滿產的情況也出現在長三角,在江蘇的一家變壓器工廠,產品訂單已經排到2027年底。資料顯示,中國變壓器行業企業約3000家。2025年,中國變壓器出口總值達646億元,比2024年增長近36%。中國電力企業聯合會電力裝備分會秘書長 蔡義清:中國已經成為世界第一大變壓器生產國,建成了全球最完備的變壓器生產體系,具有全產業鏈自主可控的硬實力,產能約佔全球60%。1中國算力用電量大幅增長“電力心臟”肩負重任變壓器訂單激增的背後,是算力用電的大幅增長。當前,中國算力中心、超算叢集建設全面提速,疊加“東數西算”工程縱深推進,作為“電力心臟”的變壓器肩負重任。在北京麗澤金融商務區,豐台500千伏輸變電工程近日正式開工建設,工程將顯著提升北京南部電網供電能力,配備兩台大容量變壓器,建成後將為中國資料街等高新產業供電。在國家算力樞紐節點安徽蕪湖算力中心,220千伏高村輸變電工程近日建成投運,工程採用了2台國產變壓器,提升了算力中心供電可靠性。截至目前,蕪湖地區算力中心共投運使用者變電站8座,配有變壓器24台。在廣東,2025年全省資料中心用電量同比增幅接近30%,其中韶關算力叢集用電增速連續多月超過50%。隨著“東數西算”工程深入推進,全國多地算力園區密集落地,2025年國內變壓器市場規模同比增長超20%,其中AI算力、特高壓相關高端產品訂單佔比已突破35%,成為產業增長的核心引擎。2中國變壓器加快技術迭代搶佔全球算力市場AI超算叢集對供電質量要求很高,中國變壓器產業也在依託核心技術優勢,針對性研發固態變壓器、高頻變壓器,適應新能源的接入,搶佔全球算力市場。全球AI算力建設、能源轉型與電網升級需求疊加,推動變壓器成為硬通貨。國產變壓器也在加快技術迭代適應新需求。為應對新能源高比例接入的挑戰,在河北,全碳化矽電力電子變壓器技術正在進行探索應用,採用高壓碳化矽器件,減少電能損耗,提升新能源利用效率。從最上游的銅和矽鋼冶煉,到變壓器的電磁線加工、鐵芯製造與絕緣紙板生產,中國已建構起全球最完整、最高效的變壓器產業鏈。國網江蘇電科院輸變電技術研究所副所長 馬勇:中國變壓器技術處於世界領先地位。中國企業持續推進技術創新,研發應用高頻變壓器、移相變壓器等多類新型變壓器,推動行業向高智能化、低損耗、小型化方向發展。 (新華網)