#Blackwell
輝達Rubin&Blackwell液冷+電源供應商全景分解
近日,全球知名媒體CNBC採訪了全球AI晶片公司輝達,輝達的A輝達人工智慧基礎設施負責人迪翁·哈里斯也介紹了最新一代的AI晶片rubin及rubin整機櫃伺服器的架構細節,同時最重要的深度解析了輝達Rubin&Blackwell的全球供應鏈分佈,上市時間。針對CNBC和輝達的深度對話,零氪將視訊重點內容做了分解。01.輝達Rubin上市時間,定價,客戶預定情況NVIDIA的Rubin是繼Blackwell之後的新一代AI計算平台核心晶片,這款全新的人工智慧系統是由來自世界各地的零部件組成的複雜網路。Rubin伺服器架構由晶片包括72個Rubin和36個VeraCPU組成,性能是Blackwell的10倍。Rubin目前是上市時間是計畫在2026年的Q2底,也就是6-7月左右上市,目前定價還沒有官方定價,但Futurum Group 估計其價格將比 Grace Blackwell 高出約 25%,系統總價將在 400萬美元至 450 萬美元之間。關於客戶方面,目前輝達預計的其他Vera Rubin客戶包括OpenAI、Anthropic,亞馬遜,Meta等北美巨頭,上周,Meta宣佈計畫在2027年前在其資料中心使用Vera Rubin。02.輝達Rubin&Blackwell 全球液冷&電源供應鏈Vera Rubin 由 130 萬個元件構成,來自世界各地的零部件組成的複雜網路,晶片部分主要由台積電製造。其他部件,從液冷元件到電源系統和計算托架,均來自至少20個國家的80多家供應商,其中包括中國、越南、泰國、墨西哥、以色列和美國,其中中國和台灣是輝達最大的供應鏈地區。輝達目前的AI晶片主要代工主要是由台積電代工,包括先進封裝部分,目前輝達是台積電第一大客戶。液冷部分,首先液冷連接器是液冷系統中實現冷板、歧管、CDU 等散熱部件間液路快速、密封連接與斷開的核心器件,保障冷卻液在系統內穩定循環傳輸以帶走裝置熱量。目前輝達的液冷連接器供應商主要是:Danfoss (丹佛斯), Readore, Taicheng, ZJK Cooler Master, Lotes, Jonhon (中航光電), Beehe, Fositek (富世達), Auras, Staubli (史陶比爾), Parker (派克), Lead Wealth, NIDEC, Envicool, Ingrasys (鴻佰/FIT), CEJN, Refas, CPC。目前丹佛斯和 Staubli體量最大。液冷板是負責直接冷卻晶片的核心元件,目前輝達冷板的供應鏈包括:Cooler Master訊強, AVC奇宏科技, Auras 雙鴻),Foxconn 富士康),BOYD, Delta 台達, Pinda, Readore 立敏達, Lead Wealth, Nidec 尼得科, CoolIT, Taicheng (泰碩),主要是台灣的企業居多。Manifold部分,包括機架級 (Rack Manifold) 和伺服器內部 (Inner Manifold) 的流體分配管路,目前輝達的供應商主要是:Cooler Master訊強, Auras, Foxconn, Delta台達, Pinda, Lead Wealth, LiteOn , Readore, AVC, CoolIT, nVent, BOYD, Nidec。Rubin架構的manifold供應鏈合作夥伴,首次公佈的Rubin架構的manifold供應鏈廠商為台灣雙鴻,AVC,台達電子,比亞迪電子,品達,富士康。輝達的冷量分配單元 (CDU) 包括 Sidecar (側掛式), In-Rack (櫃內式) 和 In-Row (列間式) 多種規格。供應商主要是Vertiv (維諦), Motivair, nVent, CoolIT, Foxconn, Quanta (廣達), Delta, Beehe (比赫電氣), Cooler Master, SMC (Nidec), Boyd, LiteOn, LiquidStack, TCT, Schneider Electric (施耐德), Envicool (英維克), Lead Wealth, AVC, Aivres (安擎)。Power shelf 是輝達 機架的核心供電部件,為整機提供穩定的電力分配與供電支援,分適配 GB200 和 GB300 的不同規格且配套有專用安裝支架,目前輝達的Power shelf 主要由Delta, Lite-On, Megmeet (麥格米特), Flex (偉創力), Lead Wealth, GreatWall (長城), KingSlide 等廠商提供,目前Delta, Lite-On佔據主要市場地位。Busbar(母線)是輝達 GB200/GB300 NVL72 系統中實現電力高效、穩定傳輸與分配的核心電力部件,分為 1400A 母線和 12V 內部母線兩類,是機架供電系統的關鍵組成部分。目前輝達的合格供應鏈主要是Foxconn, LiteOn, Interplex, Yuans Tech (元山), Lead Wealth, Rittal (威圖), Delta, Auras, Schneider, Karrie, Legrand (羅格朗).800VHVDC電源系統元件夥伴包括貿聯(BizLink)、台達電子、偉創力(Flex)、通用電氣弗諾瓦(GE Vernova)、Lead Wealth(領裕國際,領益智造子公司,惠州比亞迪電子控股股東)、光寶科技、麥格米特電氣。這些企業正在最佳化高密度PDU和轉換器,確保電源元件的互操作性和可擴展性。資料中心電力系統提供商則涵蓋了ABB、伊頓、GE Vernova、Heron Power、日立能源、三菱電機、施耐德電氣、西門子和Vertiv等行業巨頭。這些公司正開發設施級HVDC和EcoStruxure平台,支援GW級部署。當下NVIDIA的伺服器架構不僅是GPU性能的迭代,更代表AI產業供應鏈正在從單一晶片競爭轉向完整系統能力競爭,未來AI平台將圍繞CPU、GPU、網路、儲存和軟體進行深度協同設計,同時高頻寬儲存(HBM)、高速互聯、電力和資料中心基礎設施正成為關鍵瓶頸;視訊也指出,NVIDIA正通過更主動地管理和整合其上游與關鍵元件供應,包括先進製造、HBM和系統級架構合作,以鎖定核心資源並強化議價能力,這使其供應鏈控制力和護城河持續加深,而需求又高度集中在少數超大規模雲廠和AI企業,進一步強化了其與核心客戶和供應鏈之間的長期繫結關係。 (零氪1+1)
算力用Blackwell,資料靠Anthropic?DeepSeek新模型發佈前遭美圍堵
2026年2月底,全球AI行業正屏息以待中國AI獨角獸DeepSeek即將發佈的新一代旗艦模型(外界普遍預計為V4)。然而,就在新模型即將亮相的前夕,華盛頓和矽谷接連投下兩枚重磅炸彈:美國政府高官指控DeepSeek涉嫌使用被禁運的輝達Blackwell晶片進行訓練,而美國AI巨頭Anthropic則公開指責DeepSeek等中國企業對其進行了“工業級”的資料蒸餾。這一“硬體涉嫌違規獲取、資料涉嫌違規蒸餾”的雙重爭議,不僅讓DeepSeek的新模型未發先火,更將中美在人工智慧領域的科技博弈與生態競爭推向了新的高潮。一、 算力之謎:內蒙古資料中心裡的Blackwell晶片?在算力層面,DeepSeek一向以“極致的工程最佳化”和“在算力受限下實現性能突破”聞名。但據路透社在2026年2月23日的報導,一位川普政府的高級官員透露,DeepSeek即將在下周發佈的新模型,實際上是使用輝達目前最先進、性能最強悍的Blackwell架構晶片訓練而成的。這一指控如果屬實,將直接觸碰美國的出口管制紅線。目前,美國政府嚴禁將Blackwell晶片出口至中國。暗渡陳倉的算力叢集? 美方情報宣稱,這批Blackwell晶片被集中部署在DeepSeek位於內蒙古的龐大計算中心內。至於這些尖端晶片是如何繞過層層封鎖流入中國的,美方並未透露具體細節,但外界猜測可能涉及複雜的跨國空殼公司網路或走私管道。報導進一步指出,美國政府確信DeepSeek在發佈新模型時,會通過技術手段刻意抹除底層硬體的技術特徵,以防止外界從模型結構和輸出中反推出其使用了美國尖端AI晶片的證據。面對這一指控,輝達拒絕置評,而中國駐美大使館則發表聲明予以反駁,堅決反對美方“劃定意識形態界線、泛化國家安全概念、濫用出口管制”。二、 資料之爭:Anthropic的“工業級蒸餾”指控如果說晶片指控是來自美國政府的“硬體圍堵”,那麼資料蒸餾的指控則是來自美國AI同行的“軟體反擊”。就在美政府高官放風的同一天,Claude大模型的開發商、AI巨頭Anthropic在官方部落格中發佈了一項震動業界的指控。Anthropic稱,包括DeepSeek、月之暗面(Moonshot)和稀宇科技(MiniMax)在內的三家中國“AI小老虎”,正利用大量虛假帳戶對Claude發起**“工業級蒸餾攻擊”(Industrial-scale distillation attacks)。Anthropic聲稱,這些企業累計註冊了超過2.4萬個虛假帳戶,與Claude模型進行了高達1600萬次的高頻互動。蒸餾技術(Distillation)是指利用一個成熟、龐大且能力強悍的“教師模型”,來生成高品質的邏輯推理資料,從而訓練一個參數更小、成本更低的“學生模型”。通過這種方式,後發者可以大幅壓縮試錯時間和研發成本,實現“彎道超車”。事實上,不僅是Anthropic,OpenAI和埃隆·馬斯克旗下的xAI近期也頻繁發出類似警告,指責競爭對手在“吸血”美國頂尖模型的推理能力。不過,這一指控在網際網路上也引發了不小的爭議。許多開發者諷刺稱,Anthropic和OpenAI在發展初期同樣是靠無差別抓取全網資料甚至競爭對手的資料起家的,如今卻指責別人“蒸餾”不道德,頗有“雙重標準”的意味。三、 華盛頓的政策撕裂與產業震盪DeepSeek這一系列風波的背後,暴露出了華盛頓在對華科技戰中的深度糾結與政策撕裂。在2025年底,川普總統曾一度批准對華出售上一代H200晶片(附加25%關稅),但對最先進的Blackwell依然保持絕對封鎖。如今“DeepSeek涉嫌使用Blackwell”的消息傳出後,美國內部爆發了激烈的路線之爭:強硬派(對華鷹派): 認為這證明了出口管制漏洞百出。他們主張,既然中國企業能搞到Blackwell並可能用於具有潛在軍事用途的AI開發,美國就必須全面切斷任何等級AI晶片(包括H200)的對華出口,甚至加大對半導體裝置的制裁力度。務實派(如白宮AI負責人David Sacks與輝達CEO黃仁勳): 則持相反觀點。他們認為,一味地死封硬堵反而會倒逼中國企業加速採用華為(昇騰)等國產晶片,最終讓美國半導體巨頭失去全球最大的市場和技術主導權。四、 創新還是捷徑?等待新模型的最終檢驗儘管DeepSeek目前對上述兩項指控保持沉默,但這些爭議無法掩蓋一個事實:DeepSeek在AI底層架構上的創新能力是不可忽視的。無論是此前震驚業界的R1模型,還是其在近期論文中公佈的mHC(流形約束超連接)和Engram(條件記憶)等旨在解決訓練穩定性和視訊記憶體效率的前沿架構,都證明了其擁有一支世界頂級的演算法團隊。即使真的使用了Blackwell算力和Claude的蒸餾資料,如果缺乏卓越的演算法工程能力,也無法將這些資源轉化為驚豔的模型表現。預計DeepSeek的新一代模型就將正式揭開面紗。屆時,這款模型能否在多項基準測試中再次拉平甚至超越美國的頂尖模型,將成為全球科技界矚目的焦點。無論它的成功是源自非凡的演算法創新,還是如美方所指責的“違規硬體與資料捷徑”,DeepSeek的新模型都註定將成為2026年AI歷史上最具爭議、也最具標誌性的里程碑事件。它不僅是一次技術的發佈,更是中美兩大科技陣營在算力封鎖、資料爭奪和開源規則制定上的一次正面交鋒。 (壹號講獅)
【輝達財報】吸金681億美元,輝達業績沒有暴雷,Blackwell全年出貨600萬顆
2月26日,輝達公佈2026財年第四財季(對應自然年2025年第四季度)及全年業績,受益於AI算力需求的擴張,輝達各項財務指標均超出市場預期。在第四財季,輝達實現營收681.27億美元,同比增長73%,環比增長20%,高於分析師普遍預期的662.1億美元。淨利潤達到429.6億美元,同比增長94%,環比增長35%。每股攤薄收益1.76美元,較上年同期的0.89美元增長98%。“爆金幣”的伺服器機架。圖片由AI生成毛利率持續拉升,第四財季為75%,較去年同期的73%提升2個百分點。從全年表現看,2026財年總營收達2159億美元,同比增長65%;淨利潤1200億美元,每股攤薄收益4.90美元,同比增長67%。股東回報方面,輝達在2026財年通過股票回購和現金股息共計返還411億美元,其中第四財季返還41億美元。截至該季度末,輝達仍有585億美元股票回購授權餘額,並宣佈將於2026年4月1日向股東派發每股0.01美元的季度現金股息。第四財季經營活動現金流362億美元,遠高於去年同期的166億美元和上季度的238億美元。自由現金流接近350億美元,較去年同期翻倍。輝達預計,2027財年第一財季營收為780億美元,高於分析師普遍預期的726億美元。輝達股價25日報收於195.56美元,漲幅為1.41%。受財報提振,該股在盤後交易中一度上漲約3%。2026年以來,該公司股價累計上漲約5%,而同期納斯達克指數下跌0.4%。01. 資料中心營收“一騎絕塵”輝達第四財季73%的營收同比增速,較上一財季的53%進一步提升。淨利潤94%的同比增幅也高於前季度的84%,顯示出其盈利能力仍在增強。毛利率表現穩健,輝達CFO科萊特·克雷斯(Colette Kress)在分析師電話會議中解釋稱,毛利率同比提升主要由於存貨準備金減少,環比提升則得益於Blackwell晶片持續爬坡、產品組合最佳化及成本結構改善。各業務類股中,資料中心業務表現最為突出。第四財季,資料中心業務收入623億美元,同比增長75%,環比增長22%,佔公司總營收比重超過91%。超大規模雲服務提供商仍為最大客戶類別,貢獻略高於50%的資料中心收入,同時其他類型客戶的收入增速更快,收入結構持續多元化。網路業務第四財季收入110億美元,同比增長263%,環比增長34%。增長動力來自面向GB200和GB300系統的NVLink計算架構持續應用,以及乙太網路和InfiniBand平台的發展。這部分業務主要用於連接AI伺服器叢集,反映出客戶對大規模算力部署的需求。遊戲業務方面,第四財季收入37億美元,同比增長47%,主要受Blackwell晶片需求驅動。但由於假日季過後管道庫存自然調整,該業務收入環比下降13%。輝達預計供應限制將成為2027財年第一財季及以後遊戲業務的阻力。專業可視化業務第四財季收入13億美元,同比增長159%,環比增長74%,同樣受益於Blackwell晶片需求。汽車業務收入6.04億美元,同比增長6%,環比增長2%,主要受自動駕駛平台持續採用推動。02. BlackweII晶片出貨600萬顆Blackwell系列晶片的產能爬坡是本財季市場關注的重點之一。輝達財報顯示,該產品線的生產和交付進展順利,已成為遊戲和專業可視化業務增長的重要驅動力。下一代產品方面,輝達在此次財報中披露了Rubin平台的相關規劃。該平台包含六款新晶片,與Blackwell平台相比,可將推理token成本降低最高10倍。亞馬遜雲服務、Google雲、微軟Azure和甲骨文雲基礎設施將成為首批部署基於Vera Rubin的廠商。輝達在財報中確認,過去四個季度已出貨600萬顆Blackwell GPU。CEO黃仁勳在去年10月曾表示,從Blackwell到即將推出的Rubin晶片,輝達的GPU銷售額預計將達到5000億美元。03. 巨頭資本支出維持高位輝達資料中心業務的增長與主要客戶的資本支出計畫高度相關。Alphabet、微軟、亞馬遜、Meta四家超大規模雲廠商近期公佈的資本支出預期顯示,2026年合計支出有望接近7000億美元,較2025年增長60%以上,其中大部分投向資料中心和AI處理器。Wedbush Securities分析師在最新發佈的研報中表示:“我們對2026(自然)年度超大規模資本支出的預測已經超過先前預期。由於伺服器和AI基礎設施是未來支出的主要部分,AI投資的增長將在一定程度上超過整體資本支出趨勢。”不過,市場對AI投資回報周期的關注度正在上升。Cantor Fitzgerald分析師在報告中指出,儘管對計算能力的需求“難以滿足”,且輝達業績前景樂觀,“但投資者的擔憂依然存在,主要集中在超大規模資本支出是否見頂”。黃仁勳在財報中重申其對AI投資邏輯的判斷:“計算需求正呈指數級增長,AI智能體的轉折點已經到來。我們的客戶正競相投資於AI計算,這些工廠正在為AI工業革命及其未來發展提供動力。”04. 輝達的“不確定性因素”隨著AI相關投資持續擴大,市場對需求可持續性及潛在泡沫風險的討論增多。投資研究公司Visible Alpha的科技、媒體和電信研究主管梅利莎·奧托(Melissa Otto)表示:“毛利率可能是一個風險因素。問題將圍繞第一財季及以後的毛利率情況。”從供給端看,記憶體成本上升是影響毛利率的潛在變數。受全球記憶體短缺影響,高頻寬記憶體價格出現上漲。輝達在財報中表示,該公司已鎖定今年高頻寬記憶體的配額,短期記憶體成本上升對利潤率影響有限。競爭格局方面,AMD計畫在今年晚些時候推出新的旗艦AI伺服器產品,並已與Meta等輝達主要客戶達成合作。Google則通過自研TPU晶片與Anthropic簽約,後者將在Microsoft Azure上擴展其Claude模型,使用輝達系統提供支援。據悉,Google還在與Meta洽談晶片供應事宜。為應對競爭,輝達近期通過技術授權方式增強推理市場佈局。該公司去年與AI晶片設計公司Groq達成協議,獲得相關技術授權。輝達披露,截至目前已為此支付130億美元,剩餘40億美元將在一年內付清。此外,輝達近期與Meta簽訂協議,將向後者供應數百萬顆Blackwell和Rubin GPU,具體金額未披露。05. 下個季度營收目標780億美元輝達對2027財年第一季度給出如下指引:營收預計為780億美元,上下浮動2%,這個數字高於分析師普遍預期的726億美元。毛利率預計為75.0%,上下浮動50個基點。營運費用預計為77億美元,其中包括19億美元的股票補償費用。從第一財季開始,輝達將把股票補償費用納入非GAAP財務指標,意味著非GAAP下的淨利潤、每股收益等都會受到影響。公司解釋稱,股票補償是吸引和留住世界級人才的薪酬計畫的基礎組成部分。稅率方面,輝達預計2027財年全年稅率在17.0%至19.0%之間,該預測未考慮任何離散項目及稅收環境的重大變化。值得注意的是,輝達在指引中明確表示,未計入來自中國大陸的任何資料中心計算收入。此前,2025年12月,美國政府允許輝達向部分中國大陸客戶銷售H200晶片,為潛在價值數百億美元的市場打開通道。克雷斯在電話會議中披露,該公司已獲得美國政府許可,可向中國大陸客戶運送“少量”H200晶片,但尚未從中獲得任何收入。她補充道:“為了維持在AI計算領域的領導地位,美國必須讓每個開發者都能參與,並成為包括中國大陸在內所有商業企業的首選平台。”不過,美國商務部工業與安全域1月發佈的正式規則對銷售流程附加了條件,獲批難度有所增加。 (騰訊科技)
對標H100!摩爾線程GPU“核彈”:參數曝光!
對標H100!國產GPU“核彈”參數曝光:1000TFLOPS算力,性能直逼Blackwell?摩爾線程AI旗艦級計算卡MTT S5000性能首次曝光,這是摩爾線程2024年推出的、專為大模型訓練、推理及高性能計算而設計的訓推一體全功能GPU智算卡。摩爾線程在其官網中,首次公佈了S5000的硬體參數:支援FP8到FP64的全精度計算,其單卡AI算力(FP8)最高可達1 PFLOPS,視訊記憶體容量為80GB,視訊記憶體頻寬達到1.6TB/s,卡間互聯頻寬為784GB/s。業內人士表示,MTT S5000實測性能對標H100,在多模態大模型微調任務中,部分性能甚至超越H100。在晶片架構層面,S5000採用第四代MUSA架構“平湖”,專為大規模AI訓練最佳化,依託MUSA全端軟體平台,原生適配PyTorch、Megatron-LM、vLLM及 SGLang等主流框架,讓使用者能夠以“零成本”完成程式碼遷移,相容國際主流CUDA生態。在計算精度方面,S5000作為國內一批最早原生支援FP8精度的訓練GPU,配置了硬體級FP8 Tensor Core加速單元。相比傳統的BF16/FP16,FP8可將資料位寬減半,視訊記憶體頻寬壓力降低50%,理論計算吞吐量翻倍。其FP8引擎全面支援DeepSeek、Qwen等前沿架構,可提升30%以上訓練性能。基於S5000建構的誇娥萬卡叢集已經落地,其浮點運算能力達到10Exa-Flops,在Dense模型訓練中MFU達60%,在MoE模型中維持在40%左右,有效訓練時間佔比超過90%,訓練線性擴展效率達95%。依託原生FP8能力,它能夠完整復現頂尖大模型的訓練流程,其中Flash Attention算力利用率超過95%,多項關鍵指標均達到國際主流水平。在叢集通訊層面,S5000採用獨創的ACE技術,將複雜通訊任務從計算核心解除安裝,實現計算與通訊的零沖突平行,大幅提升模型算力利用率(MFU)。實測顯示,從64卡擴展至1024卡,系統保持90%以上的線性擴展效率,訓練速度隨算力增加幾乎同步倍增。2026年1月,智源研究院基於S5000千卡叢集,完成了前沿具身大腦模型RoboBrain 2.5的端到端訓練與對齊驗證。結果顯示,與輝達H100叢集的訓練結果高度重合,訓練損失值(loss)差異僅為0.62%。除了訓練,S5000在推理場景同樣表現優異。2025年12月,摩爾線程聯合矽基流動,基於S5000完成了對DeepSeek-V3 671B滿血版的深度適配與性能測試,實測單卡Prefill吞吐超4000 tokens/s,Decode吞吐超1000 tokens/s,這一成績刷新了國產GPU的推理紀錄。 (芯榜)
【CES 2026】Blackwell和Rubin晶片也將賣給中國?
輝達首席執行長黃仁勳周二表示,儘管該公司仍在等待上一代 H200 產品在中國銷售的批准,但輝達的 Blackwell 和下一代 Rubin 晶片將“及時”(in time)進入中國市場。“H200在市場上具有競爭力。但這種競爭力不會永遠持續下去。”黃在拉斯維加斯舉行的CES 2026貿易展的問答環節中被《日經亞洲》問及H200在中國市場的競爭力時表示。黃仁勳表示,為了在中國保持競爭力,輝達需要“及時”發佈包括 Blackwell 和 Rubin 世代晶片在內的其他產品,他還補充說,如果華盛頓希望美國技術保持全球競爭力,美國監管也需要做出改變。美國總統唐納德·川普上個月表示,他將允許向中國的“已批准客戶”銷售 H200,只要美國獲得這些銷售額的 25%,但 Blackwell 晶片和新的 Rubins 晶片並不包含在該交易中。輝達正面臨來自中國競爭對手日益激烈的競爭,其中包括華為等科技巨頭和一些規模較小的初創公司。黃仁勳此前曾稱華為是“強大的競爭對手”。黃先生表示:“我認為中國湧現出的創業公司數量之多,以及其中許多公司上市並取得了非常非常好的發展,都體現了中國科技行業的活力和能力。”“我堅信中國科技市場將繼續蓬勃發展,不斷進步。而我們要想為中國市場做出貢獻,提供有價值的產品和服務,就必須參與競爭,也必須不斷提升我們的技術,”他補充道。他表示,輝達將“隨著時間的推移”繼續在中國發佈新產品。“我主張我們應該繼續保持市場競爭力。”黃仁勳早前告訴記者,輝達已加大力度為中國市場生產 H200 晶片,因為這家美國晶片製造商正在等待華盛頓和北京的批准。“我們已經啟動了供應鏈,H200正在生產線上源源不斷地供應,”黃說。“在中國,客戶需求很高。非常高,”他說道,並補充說公司正在敲定美國出口許可證的最後細節。輝達首席財務官科萊特·克雷斯表示,美國政府正在“積極努力”處理 H200 的出口許可證。她補充說:“我們希望這件事能盡快完成。”但H200能否運往中國,還要取決於北京是否允許輝達在世界第二大人工智慧市場銷售這些晶片,以及銷售多少。然而,黃先生表示,他不指望能得到北京方面的明確批准,而是希望通過中國客戶的訂單獲得政府的默許。“最終,我預計我們會通過採購訂單瞭解所有情況,”他說。“我預計不會有任何新聞稿,也不會有任何大型宣傳活動。只會是採購商。我很期待採購商的到來。”黃先生說:“採購訂單下達後,一切都會隨之而來,因為他們必須遵守他們的規則和法律。”他還補充說,他預計華盛頓批准出口許可證後“很快”就會收到訂單。在前美國總統喬·拜登的政府收緊對人工智慧晶片出口的限制後,H100 和 H200 都於 2024 年被禁止在中國銷售。作為回應,輝達推出了H20晶片——一款專為中國市場開發的旗艦級H100晶片的縮減版。但今年4月,川普政府開始要求輝達出口這款縮減版晶片也必須獲得許可。作為向中國出售降級晶片的交換條件,輝達在 8 月份同意向美國政府支付 H20 銷售收入的 15%。但在華盛頓方面能夠推進收益分成協議之前,北京方面在9月份指控輝達違反了中國的反壟斷法。黃仁勳表示,該公司在中國的市場份額此後已從95%暴跌至零。在周一的主題演講中,黃仁勳公佈了下一代 Rubin 晶片的更多細節,稱備受期待的、其最先進的晶片 Blackwell 的繼任者已經“全面投產”。 (半導體行業觀察)
【CES 2026】輝達發佈新一代Rubin平台,推理成本較Blackwell降10倍,擬下半年出貨
Rubin平台的訓練性能是Blackwell的3.5倍,運行AI軟體的性能則提升5倍,訓練混合專家模型所需GPU數量減少4倍。黃仁勳稱,全部六款Rubin晶片已通過顯示其可按計畫部署的關鍵測試。輝達稱該平台已全面投產,亞馬遜AWS、Google雲、微軟和甲骨文雲等雲服務商將率先部署。輝達在CES展會推出新一代Rubin AI平台,標誌著其在人工智慧(AI)晶片領域保持年度更新節奏。該平台通過六款新晶片的整合設計,在推理成本和訓練效率上實現大幅躍升,將於2026年下半年交付首批客戶。美東時間5日周一,輝達CEO黃仁勳在拉斯維加斯表示,六款Rubin晶片已從合作製造方處回廠,並已通過部分關鍵測試,正按計畫推進。他指出"AI競賽已經開始,所有人都在努力達到下一個水平"。輝達強調,基於Rubin的系統運行成本將低於Blackwell版本,因為它們用更少元件即可實現相同結果。微軟和其他大型雲端運算提供商將成為下半年首批部署新硬體的客戶。微軟的下一代Fairwater AI超級工廠將配備輝達Vera Rubin NVL72機架級系統,規模可擴展至數十萬顆輝達Vera Rubin超級晶片。CoreWeave也將是首批提供Rubin系統的供應商之一。該平台的推出正值華爾街部分人士擔憂輝達面臨競爭加劇,並懷疑AI領域的支出能否維持當前速度。但輝達保持長期看漲預測,認為總市場規模可達數兆美元。性能提升瞄準新一代AI需求據輝達公告,Rubin平台的訓練性能是前代Blackwell的3.5倍,運行AI軟體的性能則提升5倍。與Blackwell平台相比,Rubin可將推理token生成成本降低至多10倍,訓練混合專家模型(MoE)所需GPU數量減少4倍。新平台配備的Vera CPU擁有88個核心,性能是其替代產品的兩倍。這款CPU專為代理推理設計,是大規模AI工廠中能效最高的處理器,採用88個定製Olympus核心、完整Armv9.2相容性和超快NVLink-C2C連接。Rubin GPU配備第三代Transformer引擎,具備硬體加速自適應壓縮功能,可提供50 petaflops的NVFP4計算能力用於AI推理。每個GPU提供3.6TB/s的頻寬,而Vera Rubin NVL72機架則提供260TB/s頻寬。晶片測試進展順利黃仁勳披露,全部六款Rubin晶片已從製造合作夥伴處返回,並已通過顯示其可按計畫部署的關鍵測試。這一表態表明輝達正維持其作為AI加速器領先製造商的優勢地位。該平台包含五大創新技術:第六代NVLink互連技術、Transformer引擎、機密計算、RAS引擎以及Vera CPU。其中第三代機密計算技術使Vera Rubin NVL72成為首個提供跨CPU、GPU和NVLink域資料安全保護的機架級平台。第二代RAS引擎橫跨GPU、CPU和NVLink,具備即時健康檢查、容錯和主動維護功能,以最大化系統生產力。機架採用模組化、無線纜托盤設計,組裝和維護速度比Blackwell快18倍。廣泛生態系統支援輝達表示,包括亞馬遜的AWS、Google雲、微軟和甲骨文雲在2026年將率先部署基於Vera Rubin的實例,雲合作夥伴CoreWeave、Lambda、Nebius和Nscale也將跟進。OpenAI CEO Sam Altman表示:“智能隨計算擴展。當我們增加更多計算時,模型變得更強大,能解決更難的問題,為人們帶來更大影響。輝達Rubin平台幫助我們持續擴展這一進展。”Anthropic聯合創始人兼CEO Dario Amodei稱,輝達“Rubin平台的效率提升代表了能夠實現更長記憶、更好推理和更可靠輸出的基礎設施進步”。Meta CEO祖克柏表示,輝達的“Rubin平台有望帶來性能和效率的階躍式變化,這是將最先進模型部署給數十億人所需要的”。輝達還稱,思科、戴爾、惠普企業、聯想和超微預計將推出基於Rubin產品的各類伺服器。包括Anthropic、Cohere、Meta、Mistral AI、OpenAI和xAI等AI實驗室正期待利用Rubin平台訓練更大型、更強大的模型。提前公佈產品細節評論稱,輝達今年比往年更早披露新產品的細節,這是該司保持行業依賴其硬體的舉措之一。因為輝達通常在每年春季加州聖何塞舉行的GTC活動上深入介紹產品細節。對黃仁勳而言,CES只是其馬拉松式出席活動的又一站。他要在各類活動中宣佈產品、合作和投資,均旨在為AI系統部署增添動力。輝達公佈的新硬體還包括網路和連接元件,將成為DGX SuperPod超級電腦的一部分,同時也可作為單獨產品供客戶以更模組化的方式使用。這一性能提升是必需的,因為AI已轉向更專業化的模型網路,不僅要篩選海量輸入,還需通過多階段流程解決特定問題。輝達正在推動面向整個經濟領域的AI應用,包括機器人、醫療保健和重工業。作為這一努力的一部分,輝達宣佈了一系列旨在加速自動駕駛汽車和機器人開發的工具。目前,基於輝達的電腦支出大部分來自少數客戶的資本支出預算,包括微軟、Alphabet旗下的Google雲和亞馬遜旗下的AWS。 (invest wallstreet)
Blackwell 量產,AI 晶片「美國造」真能行?
輝達財報背後:回流美國製造,發力中東市場,中國市場流失。2025 年11 月20 日,輝達公佈最新季度財報,2025 年Q3 收入為570.06 億美元,較上年同期的350.82 億美元增長62%;淨利潤為319.10 億美元,較上年同期的193.09 億美元增長65%。輝達強大的吸金能力再次超越所有人的預期,三年前輝達的同期收入僅是現在的十分之一。輝達財報資訊|來源:輝達作為全球市值第一的科技公司,輝達的每一次“大漲”都突破了不少人的想像,與其說這是企業與投資者之間的博弈,不如說,輝達在所有人對AI 投入巨額資金感到恐懼時,再次用實實在在的財報資料,告訴大家不妨再大膽一些,“別人恐懼時我貪婪”無疑是輝達當前最真實的寫照。在財報會議上,輝達CEO 黃仁勳直接回應了市場的「AI 泡沫」論調,認為輝達對人工智慧泡沫的看法與市場上的說法「截然不同」。同時,也詳細闡述了輝達能觸摸到「更高」頂點是因為當下AI 正在促進三大平台轉型,將會帶來大量基礎建設投入,而這些都離不開輝達。輝達到底看到了什麼? 「AI 泡沫」真的不存在嗎? Blackwell 全面量產進展如何?當輝達再次將第四季營收提高到650 億美元,可看到輝達的雄心壯志已不再侷限於商業版圖的擴張,它正從一家晶片設計巨頭,轉變成為支撐下一輪AI 革命的「基建之王」。01. Blackwell 全面量產,AI 晶片「美國造」輝達之所以能屢次刷新紀錄,離不開Blackwell 架構晶片的全面量產與交付加速。財報資訊顯示,GPU 業務貢獻了430 億美元收入,而資料中心業務更是飆升至512 億美元,年增66%。從毛利率環比成長至73.4% 可以看出,Blackwell 架構在供應鏈體系中的量產能力已經成熟,也顯示了輝達的產能擴張策略已經開始轉化為利潤回報。輝達財報資訊|來源:輝達需求端的狂熱依舊持續。輝達首席財務官科萊特·克雷斯透露,公司上季度已宣佈總計500 萬個GPU 的AI 工廠和基礎設施項目,遍及全球不少雲服務提供商和超級計算中心。今年3 月發表的Blackwell Ultra GPU 已迅速榮登公司內部最暢銷晶片寶座,連上一代Blackwell 銷量也持續刷新紀錄。輝達CEO 黃仁勳對此直言不諱:「雲端GPU 早已售罄,計算需求正在訓練和推理方面呈指數級增長。」值得注意的是,今年10 月,輝達與台積電在美國亞利桑那工廠歷史性地亮相了首片用於AI 的Blackwell 晶片晶圓,這標誌著最強AI 晶片首次實現「美國本土製造」。據理解,Grace Blackwell 架構的AI 系統已同樣全面量產,並迅速投入眾多雲端服務商的營運中。輝達與台積電在美國亞利桑那工廠生產Blackwell|來源:路透社然而,Blackwell 全面量產的意義遠不止於此。黃仁勳在財報中強調,推動資料中心業務成長的背後是「三大平台轉型」:加速運算、強大的人工智慧模型以及智慧體應用。他解釋道,非AI 軟體正廣泛運行於GPU,AI 將催生全新應用,而無需使用者輸入的「智能體AI」將對計算能力提出更高要求。黃仁勳堅信,人們很快就會意識到AI 繁榮背後的深層變革,而非僅僅關注資本支出的波動。這番言論顯然為市場注入了一劑「強心針」,不少分析師認為其有效緩解了投資者對「AI 泡沫」的擔憂,甚至有評論稱「或許人工智慧交易終究還沒有結束」。當被問及輝達成長的最大限制因素時,黃仁勳並未指向具體環節,而是強調了AI 行業的巨大規模、新興性和複雜性,以及在供應鏈、基礎設施和融資方面進行周密規劃的重要性。黃仁勳曾透露,公司在2025 年和2026 年已斬獲價值5,000 億美元的AI 晶片訂單。如今,輝達CFO 科萊特·克雷斯更是大膽預測,截至2026 年12 月的兩年內,銷售額可能超越原定預期目標。相較於截至2025 年1 月財年僅1,300 億美元的收入,輝達近兩年來呈指數級成長。02. 中國訂單,開始「微不足道」儘管輝達在全球市場勢如破竹,但在中國市場的表現仍受限。今年夏天,輝達為爭取H20 晶片的對華出口許可,輝達付出了諸多努力。最終,在黃仁勳親自與美國政府溝通並達成協議,將中國銷售額的15% 上繳美國政府後,輝達獲得了相關許可證。一些分析師曾樂觀預測,中國業務可望為公司每年貢獻高達500 億美元的收入。然而,實際銷售資料卻遠低於預期。克雷斯在財報電話會議上透露,本季H20 晶片的銷售額僅為5000 萬美元,這一數字與先前的市場預期形成了鮮明反差,也直觀反映出其在中國市場的開拓進展並不順利。克雷斯更直言不諱:「由於地緣政治因素以及中國市場日益激烈的競爭,本季度未能達成大額採購訂單。儘管我們對目前阻礙我們向中國出口更具競爭力的資料中心計算產品的現狀感到失望,但我們仍致力於繼續與美國和中國政府保持溝通。」黃仁勳在聯歡會上扭秧歌|來源:輝達但從電話會議中能夠明顯感受到,輝達對中國市場不再抱持太高預期,市場戰略重心也正悄悄向中東傾斜。本季度,輝達在中東的落地項目加速。美國商務部已批准向沙烏地阿拉伯和阿聯的兩家公司出口至多3.5 萬顆輝達Blackwell 晶片,市場估計這筆訂單價值將遠超10 億美元。這不僅是Blackwell 架構晶片首次被官方明確批准大規模出口,更直接體現了中東國家對高端AI 算力基礎設施的巨大投入和輝達在該區域的強勁滲透力。如今,輝達與沙烏地阿拉伯的合作已不限於硬體銷售,更延伸至建立大型AI 資料中心、提供技術支援和人才培養方案等深層領域。這些實實在在的投資與合作,不僅共同建構了輝達在中東市場的強大存在感,也分散了因中國市場受限而帶來的潛在風險,從而確保其全球AI 領導地位的持續穩固。03. 藏在財報背後的隱憂,AI 泡沫是真是假?現在,沒有人不看好輝達。全球第一,市值突破5 兆美元,本益比高達30 倍,高速成長仍在持續。當輝達攀升至如此高度,市場仍普遍預期輝達強勁成長將在未來幾年持續,甚至大家認為在經濟下行周期中,該公司2028 年的本益比將維持在26 倍左右。儘管3.8% 的年化獲利收益率可能短期內看起來不那麼吸引人,尤其是需要幾年才能實現,但要知道,我們討論的是一家明年仍可能實現50% 同比增長的公司。在這種情境下,如今我們將輝達投資者的擔憂簡單歸結為因為「AI 泡沫論」的市場恐懼,恐怕失之偏頗。深入分析財報資料背後,我們發現輝達仍面臨著一些未被完全公開的挑戰。首先,是其隱藏的資本支出。當全球科技巨頭紛紛需要對巨額AI 基礎設施投入向投資者做出解釋時,輝達自身的資本支出卻鮮少公開。輝達近期披露,已與雲端服務供應商達成協議,將在未來六年內租用價值高達260 億美元的伺服器,這一數字是三個月前承諾的兩倍,輝達本身也正在成為全球最大的雲支出方和GPU 使用者之一。更值得關注的是,輝達表示可能不會完全使用全部伺服器容量,且部分租賃承諾「可能會被其租用伺服器的雲服務提供者減少、終止或出售給其他方」。此外,輝達還透過從Lambda 等雲初創公司回租AI 晶片來支援其生態。這表明,作為“AI 賣鏟人”,輝達有時也需要通過大量資金投入,來維持自身業務生態的活力和競爭力,這無疑增加了其商業模式的複雜性。其次,輝達的大客戶同時也將是其潛在的競爭對手。一份監管檔案揭露,輝達第三季高達61% 的營收來自四大未具名客戶,市場猜測可能包括微軟、Meta 和Oracle。然而,這些科技巨頭顯然不願永久受限於輝達的供應鏈,正紛紛尋求自研AI 晶片等替代方案,試圖擺脫輝達的控制。像是Google的TPU 晶片在贏得更多客戶青睞,AMD 等傳統競爭對手也持續發力,Open AI、Meta 都開啟了自研AI 晶片的計畫。由輝達和OpenAI 聯手打造的AI 生態|來源彭博社而且,當前輝達的業務成長並非完全源於純粹的市場需求,而是部分受到了其「金錢超能力」的驅動。黃仁勳也直接指出「輝達正在用現金來推動成長」。例如,公司上季向其兩大主要客戶OpenAI 投資高達1,000 億美元,並向Anthropic 投資100 億美元。值得注意的是,Anthropic 先前主要使用亞馬遜和Google的晶片,而在獲得輝達投資後,這家AI 公司將首次使用輝達晶片訓練模式。這凸顯了輝達對少數與其關係密切客戶的高度依賴,及其某些交易的循環性質。再者,想要實現AGI 所需的海量資料中心建設,將會面臨土地和電力的巨大限制。黃仁勳在電話會議上回應了這些擔憂,他表示輝達正積極努力,確保晶片供應鏈以外的因素不會阻礙其發展。 「我們現在已經與土地、電力和資料中心建設領域的眾多企業建立了合作關係,當然,也包括為這些項目提供融資。這些事情都不容易,但都是可以解決的。」這表明輝達已認識到未來增長的瓶頸所在,並已著手建構更廣闊的生態合作,以應對AI 基礎設施建設所帶來的複雜系統性挑戰。更重要的是,AI 商業模式的持續性仍面臨質疑。當輝達、台積電因為AI 狂賺的同時,其他廠商的生產效率提升卻並不明顯,如果AI 未能持續創造可觀利潤,客戶隨時可能減少投入,輝達的增長也會放緩。據統計,儘管未來五年AI 基礎設施投資預計將達到約4 兆美元,但目前能夠看到的生產率提升預測卻從年化0.1% 到2.9% 不等,存在巨大不確定性。尤其是,自ChatGPT 發佈以來,全球股市市值已累計增長超17 兆美元,其中相當部分由AI 敘事推升。但投資者如今開始重新審視,這一輪巨額投資是否能形成持續且可衡量的回報,而非只是一次性的估值推力。毋庸置疑的是,現在輝達強勁的訂單表現是可預測的,但真正的關鍵在於管理階層對未來需求、供應鏈韌性及顧客投資節奏的判斷。分析師Murphy 警告稱,一旦輝達釋放任何有關AI 採購節奏放緩的訊號,其衝擊將不僅限於晶片類股,更會波及資料中心、伺服器供應鏈乃至整個相關軟體生態。「與其說大家是害怕AI 泡沫,不如說大家都想在輝達股價雪崩的前一刻逃生」,一位投資者在推特上說道。 (極客公園)
首個美國製造Blackwell晶圓量產下線!
晶圓代工龍頭大廠台積電和人工智慧晶片大廠輝達(NVIDIA)共同宣佈美國當地時間10月17日,晶圓代工龍頭大廠台積電和人工智慧晶片大廠輝達(NVIDIA)共同宣佈,他們在美國亞利桑那州鳳凰城附近的台積電Fab 21晶圓廠製造的第一款基於輝達Blackwell GPU的晶圓正式量產下線。輝達創始人兼執行長黃仁勳當天也參觀了台積電Fab 21晶圓廠,慶祝第一款輝達Blackwell晶圓在美國本土生產實現量產。在慶祝活動的舞台上,黃仁勳與台積電運營副總裁王永利一起在Blackwell晶圓上籤名,以紀念這一里程碑,展示了人工智慧基礎設施的核心引擎現在是如何在美國構建的。「這加強了美國供應鏈並建立了在岸人工智慧技術堆疊,將數據轉化為情報,並確保美國在人工智慧時代的領導地位。」輝達在新聞稿中指出:「今天的成就標誌著美國半導體製造和人工智慧發展向前邁出了一大步,為美國在人工智慧領域的持續領導地位鋪平了道路。NVIDIABlackwell GPU 為AI 推理提供卓越的性能、投資回報率和能源效率。「這是一個歷史性時刻,原因有幾個。這是美國近代歷史上第一次由最先進的晶圓廠台積電在美國製造最重要的晶片,」黃仁勳在活動中說。 “這是川普總統對再工業化的願景——當然,將製造業帶回美國,創造就業機會,而且,這是世界上最重要的製造業和最重要的技術行業。”台積電亞利桑那州首席執行官Ray Chuang 表示:「從抵達亞利桑那州到在短短幾年內交付第一款美國製造的NVIDIA Blackwell 晶片,代表了台積電最好的表現。這一里程碑建立在與輝達三十年的合作之上——共同突破技術界限——以及我們的員工和當地合作夥伴堅定不移的奉獻精神,他們幫助台積電亞利桑那成為可能。」由於台積電Fab 21 目前量產的工藝工藝是4nm,因此,此次台積電通過Fab 21為輝達代工的Blackwell晶片應該是之前已經在台灣量產的Blackwell B300核心GPU的小晶片。目前台積電在亞利桑那州還沒有先進封裝廠,同樣在亞利桑那州的Amkor的先進封裝廠還在建設當中,因此,台積電為輝達製造的Blackwell晶圓還需要運輸到台灣進行後段的先進封裝,最終才能夠成為可用的Blackwell GPU晶片。輝達在新聞稿當中還指出,台積電亞利桑那晶圓廠將生產先進技術,包括4nm、3nm和2nm晶片,以及更先進的A16製程晶片,所有這些對於人工智慧、電信和高效能計算等應用都是必不可少的。2020年台積電就宣佈了在美國亞利桑那州投資120億美元建廠項目,並於2021 年4 月開始在該地區建造首個晶圓製造廠。隨後,台積電宣佈將對美投資擴大至650億美元,除了最初的一座晶圓廠之外,還將建立兩座晶圓廠。目前,台積電亞利桑那州第一座4nm製程晶圓廠已經開始量產;第二座3nm製程晶圓廠,目前正在建設當中,原定於2026年開始量產,但後面推遲到了2028年,現在似乎又在加快進度。這兩座晶圓廠完工後,合計將年產超過60萬片晶圓,換算至終端產品市場價值預估超過400億美元。第三座晶圓廠最近已經開始破土動工,將生產2nm或更先進的A16製程技術,預計在2029~2030年間量產。另外,在今年3月,台積電又宣佈美國追加1,000億美元投資,包含再建設三座新晶圓廠、兩座先進封裝設施,以及一家主要研發中心。目前這些建設計劃還處於早期規劃階段。在數日前的台積電第三季法會上,魏哲家表示,目前在美國主要客戶及美國政府強力協作與支援下,都開始陸續在台積電亞利桑那州晶圓廠投片,台積電也將持續加速亞利桑那州的產能擴張,並按計畫進行。但鑑於客戶強勁AI 需求,台積電準備在亞利桑那州加快技術升級至更先進流程。魏哲家還指出,台積電即將獲亞利桑那州現有晶圓廠鄰近的第二塊地,以支援現有擴張計劃,這將使台積電在亞利桑那州建立獨立的“gigabyte cluster”,以支援智能手機、AI 與HPC 應用的領先客戶的需求。 (芯智訊)