#Rubin
輝達Rubin&Blackwell液冷+電源供應商全景分解
近日,全球知名媒體CNBC採訪了全球AI晶片公司輝達,輝達的A輝達人工智慧基礎設施負責人迪翁·哈里斯也介紹了最新一代的AI晶片rubin及rubin整機櫃伺服器的架構細節,同時最重要的深度解析了輝達Rubin&Blackwell的全球供應鏈分佈,上市時間。針對CNBC和輝達的深度對話,零氪將視訊重點內容做了分解。01.輝達Rubin上市時間,定價,客戶預定情況NVIDIA的Rubin是繼Blackwell之後的新一代AI計算平台核心晶片,這款全新的人工智慧系統是由來自世界各地的零部件組成的複雜網路。Rubin伺服器架構由晶片包括72個Rubin和36個VeraCPU組成,性能是Blackwell的10倍。Rubin目前是上市時間是計畫在2026年的Q2底,也就是6-7月左右上市,目前定價還沒有官方定價,但Futurum Group 估計其價格將比 Grace Blackwell 高出約 25%,系統總價將在 400萬美元至 450 萬美元之間。關於客戶方面,目前輝達預計的其他Vera Rubin客戶包括OpenAI、Anthropic,亞馬遜,Meta等北美巨頭,上周,Meta宣佈計畫在2027年前在其資料中心使用Vera Rubin。02.輝達Rubin&Blackwell 全球液冷&電源供應鏈Vera Rubin 由 130 萬個元件構成,來自世界各地的零部件組成的複雜網路,晶片部分主要由台積電製造。其他部件,從液冷元件到電源系統和計算托架,均來自至少20個國家的80多家供應商,其中包括中國、越南、泰國、墨西哥、以色列和美國,其中中國和台灣是輝達最大的供應鏈地區。輝達目前的AI晶片主要代工主要是由台積電代工,包括先進封裝部分,目前輝達是台積電第一大客戶。液冷部分,首先液冷連接器是液冷系統中實現冷板、歧管、CDU 等散熱部件間液路快速、密封連接與斷開的核心器件,保障冷卻液在系統內穩定循環傳輸以帶走裝置熱量。目前輝達的液冷連接器供應商主要是:Danfoss (丹佛斯), Readore, Taicheng, ZJK Cooler Master, Lotes, Jonhon (中航光電), Beehe, Fositek (富世達), Auras, Staubli (史陶比爾), Parker (派克), Lead Wealth, NIDEC, Envicool, Ingrasys (鴻佰/FIT), CEJN, Refas, CPC。目前丹佛斯和 Staubli體量最大。液冷板是負責直接冷卻晶片的核心元件,目前輝達冷板的供應鏈包括:Cooler Master訊強, AVC奇宏科技, Auras 雙鴻),Foxconn 富士康),BOYD, Delta 台達, Pinda, Readore 立敏達, Lead Wealth, Nidec 尼得科, CoolIT, Taicheng (泰碩),主要是台灣的企業居多。Manifold部分,包括機架級 (Rack Manifold) 和伺服器內部 (Inner Manifold) 的流體分配管路,目前輝達的供應商主要是:Cooler Master訊強, Auras, Foxconn, Delta台達, Pinda, Lead Wealth, LiteOn , Readore, AVC, CoolIT, nVent, BOYD, Nidec。Rubin架構的manifold供應鏈合作夥伴,首次公佈的Rubin架構的manifold供應鏈廠商為台灣雙鴻,AVC,台達電子,比亞迪電子,品達,富士康。輝達的冷量分配單元 (CDU) 包括 Sidecar (側掛式), In-Rack (櫃內式) 和 In-Row (列間式) 多種規格。供應商主要是Vertiv (維諦), Motivair, nVent, CoolIT, Foxconn, Quanta (廣達), Delta, Beehe (比赫電氣), Cooler Master, SMC (Nidec), Boyd, LiteOn, LiquidStack, TCT, Schneider Electric (施耐德), Envicool (英維克), Lead Wealth, AVC, Aivres (安擎)。Power shelf 是輝達 機架的核心供電部件,為整機提供穩定的電力分配與供電支援,分適配 GB200 和 GB300 的不同規格且配套有專用安裝支架,目前輝達的Power shelf 主要由Delta, Lite-On, Megmeet (麥格米特), Flex (偉創力), Lead Wealth, GreatWall (長城), KingSlide 等廠商提供,目前Delta, Lite-On佔據主要市場地位。Busbar(母線)是輝達 GB200/GB300 NVL72 系統中實現電力高效、穩定傳輸與分配的核心電力部件,分為 1400A 母線和 12V 內部母線兩類,是機架供電系統的關鍵組成部分。目前輝達的合格供應鏈主要是Foxconn, LiteOn, Interplex, Yuans Tech (元山), Lead Wealth, Rittal (威圖), Delta, Auras, Schneider, Karrie, Legrand (羅格朗).800VHVDC電源系統元件夥伴包括貿聯(BizLink)、台達電子、偉創力(Flex)、通用電氣弗諾瓦(GE Vernova)、Lead Wealth(領裕國際,領益智造子公司,惠州比亞迪電子控股股東)、光寶科技、麥格米特電氣。這些企業正在最佳化高密度PDU和轉換器,確保電源元件的互操作性和可擴展性。資料中心電力系統提供商則涵蓋了ABB、伊頓、GE Vernova、Heron Power、日立能源、三菱電機、施耐德電氣、西門子和Vertiv等行業巨頭。這些公司正開發設施級HVDC和EcoStruxure平台,支援GW級部署。當下NVIDIA的伺服器架構不僅是GPU性能的迭代,更代表AI產業供應鏈正在從單一晶片競爭轉向完整系統能力競爭,未來AI平台將圍繞CPU、GPU、網路、儲存和軟體進行深度協同設計,同時高頻寬儲存(HBM)、高速互聯、電力和資料中心基礎設施正成為關鍵瓶頸;視訊也指出,NVIDIA正通過更主動地管理和整合其上游與關鍵元件供應,包括先進製造、HBM和系統級架構合作,以鎖定核心資源並強化議價能力,這使其供應鏈控制力和護城河持續加深,而需求又高度集中在少數超大規模雲廠和AI企業,進一步強化了其與核心客戶和供應鏈之間的長期繫結關係。 (零氪1+1)
曾經高不可攀的H100 GPU,如今1.5折在平台出售,是什麼泡沫破了?
舊時王謝堂前燕?金融博主twi@HedgieMarkets 的一條推文引發了討論,曾經曾經售價高達 40,000 美元(約合 29 萬人民幣)的 H100,目前在 eBay 等二手平台上的成交價已跌至 6000 美元(約合 4.3 萬人民幣)左右,這些並不是像鹹魚上的壞件,而是真實可用的顯示卡。四年間,這一尖端人工智慧加速器跌幅高達 85%。為什麼 H100 跌得這麼慘?這並非因為其性能絕對值變弱了,而是因為在 AI 推理的戰場上,它的單位成本已經讓它被淘汰。原推文中提到,採用H100進行模型推理(也就是我們給模型提示詞,然後它們輸出內容)的成本約是新一代 Blackwell (B300) 的 11 倍。實際上,這個倍率還是綜合的保守數字,在semianalysis給到的資料中,GB200 NVL72在FP4性能上提高了98倍,這其實也是為什麼牢黃一直說“買的越多,省的越多”。經濟學家David McWilliams在接受《財富》採訪時表示,“對圖形處理器(GPU)的大規模投資存在問題,因為它就像【數字生菜】,很快就會枯萎——你投資的是一種易腐爛的商品。”這些尖端的GPU實際上在安裝進機房的同時就開始貶值。而對於追求極致效率的算力服務商來說,在看到新一代硬體以多倍效率碾壓姿態登場時,繼續持有 H100 意味著每跑一秒鐘都在虧錢,因為對手正用著營運成本僅為數十分之一的新一代硬體。實際上,這一現象也在揭開各大巨頭財報中的隱憂,各家科技巨頭們正在通過將這些 GPU 的折舊時間延長至 5-6 年,來掩蓋真實的資產貶值損失。然而,現實是殘酷的,輝達現在維持著“一年一更”的瘋狂節奏。當 Blackwell 甚至即將到來的 Rubin 架構以數倍的性能跨度入場時,那些帳面上還值數萬美元的 H100,在二手市場上其實只值一輛二手車的價格。這種帳面價值與市場價值的巨大鴻溝,已成為未來財報中巨額資產減值的伏筆。那既然貶值如此之快,為什麼微軟、Meta、Google等巨頭依然在源源不斷地訂購 B200 甚至還未出爐的Rubin?即使這些訂單在交付時可能就已經“過時”了?事實就是,時間才是這場競爭中的唯一硬通貨,在大模型競賽中,晚半年拿到算力可能意味著錯過整個時代。而在這些資料中心的基建中,也存在著客觀慣性,現代化資料中心的液冷設施和電力配額是提前相當長周期規劃的。即便 Rubin 更好,現在的機房只能跑 B200或者更老的H200。同時,持續購買當下的產品,往往是獲取下一代產品(如 Rubin/Feynman)優先供應權的“投名狀”。這釋放了一個什麼訊號?在提供那些二三線的雲服務商中,如果是加槓桿炒作算力,顯然要因為頂層競爭神仙打架(燒錢)的快速迭代而面臨破產洗牌。而由於這些曾經的頂級晶片快速淘汰,對中小企業和學術界是極大的利多。頂級算力正在從“奢侈品”變成“通用物資”,這預示著 AI 應用將迎來真正的爆發。或許我們再過四年五年,這些曾經高不可攀的算力晶片就會成為“大船貨”,以極其低廉的價格,成為我們垃圾佬的“二奶機”“三奶機”的一部分,搭建本地的家用算力伺服器。 (AMP實驗室)
【CES 2026】瑞銀:Rubin全面投產,帶來電源與液冷升級機遇!海外PCB 調研要點!
瑞銀:中國資料中心裝置:Rubin帶來電源與液冷機會VR200 平台機架功率提升上周在拉斯維加斯舉辦的國際消費電子展上,輝達CEO 黃仁勳的主題演講對需求表達了積極態度,並披露了 2026 年 Vera Rubin 平台的發佈進展。在電源與製冷方面,輝達重點提及,Rubin 平台的機架功率或將達到上一代 Blackwell 平台的兩倍,且製冷方式將從 Blackwell 平台 80% 的液冷佔比升級為 100% 全液冷。其中,VR200 NVL72 型號對 GPU 散熱方案進行了升級,將採用微通道冷板(micro-channel cold plate)。輝達表示,目前 Rubin 平台已全面投產。利多電源與液冷需求增長VR200 NVL72 的 AI 訓練 / 推理算力分別約為 GB300 NVL72 的 3.5 倍 / 5 倍,這推動機架級功率需求大幅上升。具體來看,VR200 NVL72 將電源架升級為 3 個 3U 規格、總功率 110 千瓦的配置(含 6 個 18.3 千瓦電源模組),而目前最常見的 GB300 NVL72 配置為 8 個 1U 規格、總功率 33 千瓦的電源架(含 6 個 5.5 千瓦電源模組)。此外,VR200 NVL72 電源架採用 “3+1” 冗餘設計。值得注意的是,VR200 NVL72 可視為輝達 Oberon 機架架構的最後一代產品 —— 該架構僅支援 54V 直流配電,且需搭配不間斷電源(UPS)。隨著 AI 算力持續提升,機架功率需求不斷增長,輝達預計將過渡至下一代 Kyber 機架設計,後者支援 800V 高壓直流(HVDC)。我們認為,隨著 Rubin 平台產能擴大,UPS 與液冷需求的增長速度將進一步加快;未來功率密度的提升還將推動電源系統進一步升級,預計 2027 年 Rubin Ultra 平台若推出,將進一步釋放 HVDC 的需求潛力。重點推薦標的:科士達、科華資料我們認為,科士達與科華資料將受益於 UPS 需求增長,且有望向 HVDC(高壓直流)與 SST(固態變壓器)產品升級,具備業績提升潛力。摩根士丹利研究報告: 泰國 PCB 調研要點2026 年 1 月 12 日至 14 日,我們在泰國走訪了四家印刷電路板(PCB)企業,包括勝宏科技(VGT)、Dynamic PCB、GCE及ZDT。需求端表現強勁,受出貨量增長、材料升級及生產複雜度提升驅動:受訪四家企業傳遞的需求訊號高度一致,尤其是 GPU 與 ASIC 伺服器相關需求。出貨量增長、覆銅板(CCL)材料升級、生產及設計複雜度提升,共同推動營收增長。我們預計,AI 相關 PCB 將更多採用高密度互連(HDI)或混合式多層板 / 高密度互連(MLB/HDI)設計,供應商正積極籌備相關裝置與產能以順應這一趨勢。因此,整個產業鏈生態均將持續受益,包括機械鑽孔機、雷射鑽孔機供應商及鑽頭供應商。受此影響,PCB 企業 2026 年資本支出計畫積極,產能輸出有望提升:臻鼎科技(ZDT)預計 2026 年資本支出約為 500 億新台幣(同比增長 60%-70%);我們估算,截至 2026 年末,金像電子(GCE)月產能輸出同比增幅約為 40%。受訪企業的資本支出回報率介於每 1 新台幣資本支出對應 1.5-2.5 新台幣營收之間。供應商陣營持續擴大,終端客戶正認證更多 PCB 供應商:這使得供應鏈份額分配趨於複雜 —— 多家 PCB 廠商同時參與同一項目的認證,但我們認為這並不必然轉化為實質性訂單。客戶擴大供應商陣營旨在提升供應鏈靈活性,但最終仍將主要向核心一級(T1)供應商採購。因此,儘管 2026 年暫無產能過剩風險,但投資者需警惕相關潛在風險。當前泰國生產成本高於中國內地,但略低於台灣:短期內,中國內地仍將是 PCB 主要生產基地,得益於其更低的成本結構。但隨著泰國產能與良率持續爬坡,其成本結構存在最佳化空間,進而推動泰國 PCB 產值增長。成本方面,目前泰國 PCB 生產成本平均比中國內地高約 20%,但略低於台灣。成本差異主要源於泰國進口材料的物流成本更高、裝置物流及安裝成本增加,不過泰國生產線操作人員薪資更低(儘管生產效率相對較低)。儘管泰國生產成本較高,但仍有客戶為實現供應鏈多元化,明確要求在泰國生產 PCB 產品。其他核心要點臻鼎科技(4958.TW)資本支出:2026 年資本支出計畫從 300 億新台幣上調至 500 億新台幣,其中 60% 以上將用於剛性 PCB(HDI/HLC)及基板產能擴張,剩餘部分用於柔性 PCB(FPCB)。AI 產品佔比:目前臻鼎科技 AI 伺服器營收佔比(不含邊緣 AI 產品)約為中個位數百分比,目標 2026 年提升至高位個位數百分比。改良型半加成法(mSAP):臻鼎科技認為,其是泰國唯一一家正在擴充 mSAP 產能的 PCB 供應商。該產能將僅用於 800G 及以上光模組(需採用類基板 PCB(SLP))。泰國園區規劃:泰國園區總計可容納 7 座工廠:1 號工廠:已實現 HLC 及伺服器 / 光模組用 mSAP 量產,是園區首座量產工廠。2 號工廠(mSAP/HDI):目前處於建設中,計畫 2027 年初進入試產階段,同樣聚焦伺服器 / 光模組產品。3 號工廠(FPCB/FPCBA):處於建設中,計畫 2027 年二季度試產,專注消費電子領域。5 號工廠:2026 年啟動建設,預計 2028 年量產。6 號工廠(HLC):處於建設中,計畫 2026 年四季度試產,用於伺服器應用產品。7 號工廠:2026 年啟動建設,預計 2028 年量產。8 號工廠(鑽孔中心):處於建設中,計畫 2027 年一季度試產。管理層預計,五年內泰國園區產能將佔公司總產能的 15%-20%。裝置:管理層表示,核心 PCB 裝置的交付周期較以往更長,但公司已提前下單,並憑藉與裝置供應商的長期緊密合作關係,鑽孔機採購不存在問題。CoWoP 技術:相關產品仍處於研發階段,量產時間尚未確定,但臻鼎科技表示,一旦客戶有需求,公司將做好充分準備。金像電子(2368.TW)2025 年四季度產品結構:受產品轉型影響,AI 產品佔比環比下降,但網路需求增長強勁,尤其是 400G/800G 網路 PCB。產品轉型:2025 年四季度,Trainium 伺服器 PCB 進入轉型階段,但 Trn3 產品將於 2026 年二季度在金像電子啟動量產。2026 年一季度,高端網路(400G/800G)產品將抵消部分 AI 產品轉型帶來的影響 —— 目前 100G+400G+800G 網路 PCB 出貨量佔金像電子網路 PCB 總出貨量的約 70%,其中大部分為 400G+800G 產品。泰國工廠:金像電子泰國 1-1 工廠(一期)具備 AI 伺服器板生產能力,且已通過主要 AI 雲客戶認證。2025 年四季度該工廠仍處於虧損狀態,但預計 2026 年將實現盈利。產能情況:台灣:目前月產值為 16 億新台幣,預計 2026 年二季度出貨量實現雙位數增長,三季度環比再實現雙位數增長(不含從 CMC Magnetics 收購的新工廠,該工廠計畫 2028 年量產)。泰國:1-1 工廠目前產能滿載,月產值為 3 億新台幣。2026 年二季度產能可能加速釋放,下半年進一步爬坡,截至 2026 年末,總出貨量預計較 2025 年末增長 4-5 倍。2 號工廠可能於 2027 年末或 2028 年初量產。蘇州:2026 年計畫通過新增裝置、消除產能瓶頸的方式擴充產能。常熟:C1 與 C2 工廠預計 2026 年下半年通過新增裝置及消除瓶頸,進一步提升產能。行業其他相關洞察泰國生產基地新建工廠通常需要 4-5 個季度才能產生實際營收。所有新產能均將包含 HDI 與 HLC 產能,以滿足客戶對 “混合式” 設計的需求。泰國營運成本比中國內地高 20%-25%,但可完全轉嫁至客戶。管理層認為,一旦產能完全爬坡,泰國工廠的毛利率將與中國內地工廠持平。AI 相關產品每一代新產品的平均售價(ASP)均實現數倍增長。管理層認為,客戶下一代產品的 ASP 增長將主要源於:① 材料規格升級;② 材料加工難度提升;③ 採用尚未量產的特殊製造工藝;④ PCB 層數增加及 HDI 工序更複雜。對部分客戶而言,HLC 與 HDI 的界限日益模糊 —— 部分設計為混合式(HLC 與 HDI 結合),且需要特殊製造技術處理。公司預計,下一代 AI 伺服器 PCB 將有更多項目採用 HDI 技術或混合式設計,相關產品可能於 2027 年啟動量產。市場份額PCB 製造裝置交付周期延長及高端材料供應短缺,可能對新進入者或小型供應商構成不利影響。不過,客戶為最佳化供應鏈管理,仍傾向於採用雙源或多源採購策略,因此可能仍會認證部分新供應商。CoWoP 技術該設計目前仍處於研發階段,具體應用時間尚未確定)。生產 CoWoP 用 SLP 的主要挑戰在於精密鑽孔直徑及縮小的線寬 / 線距(L/S)。其製造工藝及所需裝置與消費電子用 SLP 存在巨大差異,因此投資強度更高,需配備更精密的裝置。材料供應南亞新材(2383.TW)仍是 M8 + 覆銅板的領先供應商,其次為斗山(000150.KS)、生益科技(600183.SS)、台光電子(TUC,6274.TW)及聯茂電子(ITEQ,6213.TW)。南亞新材仍是 M9 覆銅板的頂級供應商,但生益科技正逐步追趕。管理層表示,尚未發現 AI 相關 PCB 存在材料規格降級的情況。 (大行投研)
黃仁勳徹底不裝了!一口氣亮出6顆全新晶片,馬斯克都看呆了!
被逼急的黃仁勳徹底不裝了。在 2026 年科技春晚 CES 的舞台上,這位身著標誌性黑色皮衣的男人,一句 “我們打破了自己的規則”,讓全場陷入沉默。沒有預告,沒有鋪墊。輝達突然亮出下一代 AI 計算平台 Vera Rubin,一口氣推出 6 顆全新架構晶片,點名 DeepSeek,更宣佈全端自動駕駛系統即將量產。現場觀眾倒吸涼氣,連馬斯克都驚嘆:“這不是升級,這是 AI 的火箭引擎。”一個月前,黃仁勳還在播客中坦白自己因害怕破產常年焦慮,此刻卻用顛覆性發佈,讓全球科技巨頭徹夜難眠。過去 20 年,輝達有個鐵律:每次產品迭代最多更 1-2 顆晶片。重新設計晶片的成本與風險,足以壓垮任何科技公司。但這一次,黃仁勳直接 “拆家”——6 顆晶片全部從頭設計、全線重構,而非簡單迭代,甚至跳過三個月後的 GTC 大會,在 CES 直接亮底牌。這 6 顆晶片整合為 Rubin 超級系統,視覺簡潔,性能卻恐怖:算力提升 5 倍,AI 推理 token 成本降至前代十分之一,能耗效率翻 3 番。這款平台已全面投產,2026 年下半年將由合作夥伴推出,微軟、OpenAI 等巨頭已宣佈率先部署。黃仁勳這一拳,是 63 歲 CEO 的孤注一擲。背後的危機感,源於 AI 行業的激烈變局。AI 模型規模年增 10 倍,生成 token 數量年增 5 倍,算力胃口瘋狂擴張,晶片進化卻逐漸掉隊。黃仁勳本以為 AI 時代是輝達的永恆主場,現實卻狠狠打臉。一方面,中國玩家不再甘當使用者,華為昇騰、寒武紀、百度崑崙芯紛紛自研 AI 晶片,比亞迪等車企也建起專屬 AI 訓練中心。黃仁勳多次提醒西方,不要低估東方衝擊。另一方面,昔日盟友變對手。Google、亞馬遜、微軟加速自研晶片替代輝達,2025 年 11 月 Meta 考慮大規模採用Google TPU 的消息,讓輝達股價單日暴跌 8%,數千億美元市值蒸發。黃仁勳明白,不拿出身家性命級的硬貨,護城河 2026 年就會被填平。聖誕節前夕,他砸 200 億美元收購 AI 獨角獸 Groq,金額是其三個月前估值的三倍,要的就是反擊利刃。AMD 的追擊更讓競爭白熱化。輝達發佈會後 2.5 小時,蘇姿丰帶著新品正面硬剛,“蘇黃之爭” 讓市場硝煙四起。90 分鐘演講,黃仁勳全程站立無停頓。他更宣佈佈局八年的成果:“物理 AI 的 ChatGPT 時刻已經到來。”過去的 AI 只活在螢幕裡,懂文字卻不認識螺絲刀。而物理 AI 要讓智能 “越獄”,走進真實世界理解重力、摩擦、慣性等基本常識。發佈會上的視訊讓全場屏息:一輛奔馳 CLA 在舊金山街頭自主穿行,無預設路線、無高精地圖,卻能觀察行人眼神、判斷圍擋是否可繞行,還會禮讓突沖路人。這套自動駕駛生態 2026 年一季度就量產上車。這標誌著輝達徹底告別 “賣鏟人” 身份。從前只賣 GPU,如今從晶片、演算法到整車方案全包圓。那句 “打破自己的規則” 背後,藏著後半句:“也打破你們的規則。”這場變革是技術與生存的雙重博弈。輝達用 Rubin 重構算力規則,用物理 AI 改寫智能邊界,用全端佈局重塑競爭邏輯。63 歲的黃仁勳帶著輝達孤注一擲,用打破一切的勇氣,開啟了 AI 從虛擬走向現實的全新時代。 (科技直擊)
百兆規模!輝達最新Rubin平台AI計算架構及產業鏈深度剖析!2026
前言:AI算力產業的時代拐點與Rubin平台的戰略意義1.1 全球AI算力產業發展現狀與趨勢進入2026年,全球人工智慧產業已從技術探索期邁入規模化應用的關鍵階段,而算力作為AI產業的核心基礎設施,正迎來爆發式增長的黃金周期。根據IDC最新發佈的《全球人工智慧算力發展白皮書》資料顯示,2025年全球AI算力市場規模已突破60兆元,預計到2026年底將達到120兆元,正式邁入百兆規模時代。這一增長背後,一方面是大模型參數規模持續擴大,從千億級向兆級跨越,對算力的需求呈指數級增長;另一方面,AI應用場景從網際網路領域向金融、醫療、製造、自動駕駛等傳統行業深度滲透,催生了多元化的算力需求。在這一產業背景下,算力供給能力成為制約AI產業發展的核心瓶頸。傳統計算架構由於存在資料傳輸延遲高、能效比低、協同調度能力弱等問題,已難以滿足新一代AI任務的需求。行業迫切需要一款具備高性能、低成本、高可靠性的一體化計算平台,來破解算力供給難題,推動AI應用的規模化普及。輝達作為全球AI算力領域的領軍企業,此前推出的Blackwell平台已在全球範圍內獲得廣泛應用,而2026年1月6日在CES 2026展會上正式推出並宣佈全面量產的Rubin平台,憑藉其顛覆性的架構設計和性能突破,被業內視為開啟百兆級AI算力時代的關鍵引擎。1.2 Rubin平台的推出背景與戰略定位輝達CEO黃仁勳在Rubin平台發佈會上強調:“AI計算正從少數巨頭的專屬資源走向全民普惠,Rubin平台的使命就是通過技術創新,大幅降低AI算力的使用成本,讓每一家企業、每一個科研機構都能享受到頂尖AI算力帶來的創新紅利。” 這一定位背後,是輝達對AI產業發展趨勢的深刻洞察。從產業競爭格局來看,隨著亞馬遜、Google、微軟等雲廠商加速佈局自研AI晶片,以及寒武紀、壁仞科技等國內企業的崛起,全球AI算力市場的競爭日趨激烈。輝達需要通過持續的技術迭代,鞏固其在高端AI算力領域的領先地位。從技術發展邏輯來看,此前的Blackwell平台雖然實現了算力的大幅提升,但在MoE(混合專家模型)訓練效率、推理成本控制等方面仍有最佳化空間。Rubin平台正是在這一背景下應運而生,通過6款全新晶片的協同設計,實現了性能與成本的雙重突破,旨在進一步擴大輝達在AI算力領域的市場份額,推動全球AI產業進入規模化普及階段。結合華安證券2026年1月12日發佈的行業周報資料顯示,Rubin平台推出後,全球四大雲巨頭亞馬遜AWS、Google雲、微軟Azure和甲骨文雲已確認將於2026年率先部署基於Vera Rubin的實例,CoreWeave、Lambda等專業AI算力服務廠商也將同步跟進。這一市場反響充分印證了Rubin平台的行業認可度,也預示著其將在全球AI算力市場中佔據重要地位。一、深度拆解輝達Rubin平台AI計算架構與核心技術2.1 Rubin平台整體架構設計:一體化協同計算的創新突破與傳統計算平台“晶片堆疊”的設計思路不同,Rubin平台採用了“全端協同最佳化”的架構理念,由6款全新晶片組成一個有機的整體,分別承擔計算、互連、儲存、網路等核心功能,通過深度協同實現了整體性能的躍升。Rubin平台由6款全新晶片組成:Vera CPU、Rubin GPU、NVLink6交換機、ConnectX-9SuperNIC、BlueField-4DPU及Spectrum-6乙太網路交換機,協同設計整合為AI超級電腦,可以大幅縮短AI訓練時間並降低推理Token生成成本。Rubin平台五項關鍵技術深度融合,實現性能提升和成本降低雙重突破:1)新一代NVLink互連技術建構起高速資料傳輸通道,確保多晶片協同工作時的低延遲與高頻寬;2)第三代Transformer引擎針對AI任務最佳化,大幅提升模型訓練與推理效率;3)機密計算技術為敏感AI資料提供全流程安全防護,滿足金融、醫療等行業的合規需求;4)RAS引擎(可靠性、可用性與可維護性引擎)保障平台在7x24小時高負載運行下的穩定表現;5)專為代理推理設計的Vera CPU。從架構邏輯來看,Rubin平台建構了“三層協同架構”:底層為硬體基礎層,由6款核心晶片組成,負責提供基礎的計算、儲存和網路資源;中間層為協同調度層,通過輝達自研的CUDA-X AI軟體棧,實現對各硬體資源的高效調度和協同工作;頂層為應用適配層,針對不同的AI應用場景,提供專用的演算法庫和工具集,確保平台能夠快速適配各類AI任務。這種架構設計的核心優勢在於,打破了傳統硬體之間的“資料孤島”,實現了資料在各元件之間的高效流轉,大幅提升了整體計算效率。根據輝達公佈的官方資料,Rubin平台的訓練性能達到前代Blackwell平台的3.5倍,運行軟體性能提升5倍,推理每Token生成成本相比Blackwell平台可降低10倍,且在訓練MoE模型時所需的GPU數量減少至原來的四分之一。這些性能指標的提升,正是得益於其一體化協同架構的創新設計。2.2 核心元件解析:各晶片的功能定位與技術優勢2.2.1 Rubin GPU:AI計算的核心引擎Rubin GPU是整個平台的核心計算元件,專為新一代AI任務進行了深度最佳化。該GPU採用了輝達最新的Ada Lovelace-Next架構,搭載了第三代Transformer引擎,能夠大幅提升大模型訓練和推理的效率。與Blackwell GPU相比,Rubin GPU的CUDA核心數量增加了50%,張量核心性能提升了70%,在處理FP16、BF16等高精度計算任務時,表現出更為卓越的性能。值得注意的是,Rubin GPU針對MoE模型進行了專門的硬體最佳化。MoE模型作為當前大模型發展的主流方向,通過將模型分為多個“專家”模組,僅在處理特定任務時啟動部分專家,能夠在提升模型性能的同時,降低計算成本。但傳統GPU在處理MoE模型時,存在專家調度效率低、資料傳輸延遲高等問題。Rubin GPU通過引入專用的MoE調度單元,實現了專家模組的快速啟動和切換,將MoE模型的訓練效率提升了3倍以上,這也是其訓練MoE模型所需GPU數量大幅減少的關鍵原因。2.2.2 Vera CPU:專為代理推理設計的高效處理器Vera CPU是輝達首款專為AI代理推理設計的CPU,打破了傳統CPU在AI計算中“輔助角色”的定位,成為AI任務的核心處理器之一。隨著AI代理技術的發展,AI系統需要具備更強的自主決策和任務調度能力,這對CPU的平行處理能力、低延遲響應能力提出了更高的要求。Vera CPU採用了ARM架構,擁有64個核心,支援超線程技術,最大快取容量達到256MB。與傳統x86 CPU相比,Vera CPU的能效比提升了2倍,在處理多工平行推理時,延遲降低了30%以上。此外,Vera CPU還整合了專用的AI加速單元,能夠直接處理部分輕量級的AI推理任務,減少了對GPU的依賴,進一步提升了整個平台的協同計算效率。2.2.3 NVLink 6交換機:高速互連的“資料高速公路”在大規模AI計算中,多晶片之間的資料傳輸效率是制約整體性能的關鍵因素。Rubin平台搭載的NVLink 6交換機,是輝達新一代的高速互連技術,實現了晶片之間的低延遲、高頻寬資料傳輸。根據官方資料,NVLink 6的單鏈路頻寬達到1.6TB/s,是上一代NVLink 5的2倍,單個交換機最多可連接32個GPU,形成一個高速互連的計算叢集。NVLink 6採用了全新的互連協議,支援自適應路由和錯誤恢復功能,能夠在保證資料傳輸速度的同時,提升傳輸的可靠性。此外,NVLink 6還實現了與PCIe 5.0的相容,能夠與傳統的儲存和網路裝置進行高效對接,進一步擴大了平台的相容性和應用範圍。通過NVLink 6交換機,Rubin平台建構了一個高效的“資料高速公路”,確保了多晶片協同工作時的資料流暢通,為大規模平行計算提供了堅實的支撐。2.2.4 ConnectX-9 SuperNIC:智能網路的核心元件ConnectX-9 SuperNIC是一款高性能的智能網路介面卡,專為AI計算場景進行了最佳化。該網路卡支援200Gb/s的乙太網路速率,整合了專用的AI加速引擎,能夠對網路資料進行即時的處理和分析,減少了CPU和GPU的網路處理負擔。在AI訓練場景中,大量的資料需要在計算節點之間進行傳輸和同步,ConnectX-9 SuperNIC通過支援RDMA(遠端直接記憶體訪問)技術,實現了資料在不同節點記憶體之間的直接傳輸,無需經過CPU的中轉,將資料傳輸延遲降低了50%以上。此外,該網路卡還支援網路虛擬化技術,能夠將物理網路資源劃分為多個虛擬網路,為不同的AI任務提供隔離的網路環境,提升了網路資源的利用率和安全性。2.2.5 BlueField-4 DPU:資料處理的“專用引擎”BlueField-4 DPU(資料處理單元)是Rubin平台中負責資料儲存和處理的核心元件,能夠承擔傳統CPU的部分資料處理任務,提升整體計算效率。該DPU整合了ARM架構的處理器核心和專用的資料處理引擎,支援對儲存資料的即時加密、壓縮和格式轉換,能夠大幅提升資料處理的效率。在AI計算場景中,大量的訓練資料需要從儲存裝置中讀取並進行預處理,這一過程往往會佔用大量的CPU資源。BlueField-4 DPU通過將資料預處理任務從CPU解除安裝到DPU,能夠將CPU的佔用率降低40%以上,讓CPU能夠專注於核心的計算任務。此外,BlueField-4 DPU還支援儲存虛擬化技術,能夠對不同類型的儲存裝置進行統一管理,提升了儲存資源的利用率和可擴展性。2.2.6 Spectrum-6乙太網路交換機:高速網路的“骨幹支撐”Spectrum-6乙太網路交換機是Rubin平台的網路骨幹元件,支援100Gb/s和200Gb/s的乙太網路速率,能夠為大規模的AI計算叢集提供高速、穩定的網路連線。該交換機採用了全新的晶片架構,支援高密度連接埠設計,單個交換機最多可提供64個200Gb/s連接埠,能夠滿足大規模計算叢集的網路需求。Spectrum-6乙太網路交換機還支援先進的流量控制技術,能夠根據不同AI任務的網路需求,動態調整網路頻寬分配,確保關鍵任務的網路資源供應。此外,該交換機還整合了網路安全功能,支援對網路流量的即時監控和威脅檢測,能夠有效防範網路攻擊,保障AI計算叢集的網路安全。2.3 五大關鍵技術:Rubin平台性能突破的核心驅動力Rubin平台之所以能夠實現性能與成本的雙重突破,關鍵在於五大核心技術的深度融合。這五大技術相互協同,共同建構了Rubin平台的技術壁壘。2.3.1 新一代NVLink互連技術:打破資料傳輸瓶頸如前文所述,新一代NVLink互連技術是Rubin平台的核心技術之一。該技術通過提升資料傳輸頻寬和降低延遲,實現了多晶片之間的高效協同。與上一代技術相比,NVLink 6不僅在硬體性能上實現了躍升,還通過軟體層面的最佳化,實現了對多晶片叢集的高效管理。例如,輝達推出的NVLink Fabric Manager軟體,能夠即時監控多晶片之間的資料傳輸狀態,動態調整傳輸路徑,確保資料傳輸的高效和穩定。在實際應用場景中,新一代NVLink互連技術的優勢尤為明顯。以訓練千億參數的大模型為例,採用NVLink 6互連技術的Rubin平台,能夠將資料同步時間縮短60%以上,大幅提升了訓練效率。同時,由於資料傳輸延遲的降低,平台能夠支援更大規模的晶片叢集,進一步提升了整體計算能力。2.3.2 第三代Transformer引擎:AI任務的高效加速器第三代Transformer引擎是Rubin GPU的核心技術,專為Transformer架構的AI模型進行了深度最佳化。Transformer架構是當前大模型的主流架構,廣泛應用於自然語言處理、電腦視覺等領域。第三代Transformer引擎通過硬體層面的創新,實現了對Transformer模型中關鍵運算的加速。具體來看,第三代Transformer引擎最佳化了矩陣乘法和softmax運算的硬體實現方式,將這兩種運算的效率提升了50%以上。同時,該引擎還支援混合精度計算,能夠在保證計算精度的前提下,採用更低精度的資料格式進行運算,進一步提升了計算效率和能效比。在處理自然語言處理任務時,採用第三代Transformer引擎的Rubin GPU,能夠將推理速度提升3倍以上,推理成本降低70%以上。2.3.3 機密計算技術:敏感資料的全流程安全防護隨著AI應用在金融、醫療等敏感行業的滲透,資料安全問題日益凸顯。Rubin平台搭載的機密計算技術,能夠為敏感AI資料提供全流程的安全防護,滿足行業合規需求。該技術基於硬體層面的加密機制,能夠在資料儲存、傳輸和計算過程中進行即時加密,確保資料不被洩露或篡改。具體來說,機密計算技術通過建構“可信執行環境”(TEE),將AI任務的計算過程限制在安全的硬體區域內。在可信執行環境中,資料和程式碼均以加密形式存在,只有經過授權的程序才能訪問。同時,該技術還支援遠端認證功能,能夠確保計算節點的硬體和軟體環境的安全性。在金融行業的AI風控場景中,機密計算技術能夠有效保護使用者的金融資料安全,避免資料洩露帶來的風險;在醫療行業的AI診斷場景中,該技術能夠保護患者的隱私資料,符合醫療資料安全的相關法規。2.3.4 RAS引擎:高負載運行下的穩定保障RAS引擎(可靠性、可用性與可維護性引擎)是Rubin平台保障穩定運行的核心技術。AI計算任務往往需要長時間的高負載運行,對平台的穩定性提出了極高的要求。RAS引擎通過硬體層面的故障檢測、錯誤糾正和冗餘設計,能夠有效提昇平台的可靠性和可用性。具體來看,RAS引擎能夠即時監控平台各元件的運行狀態,包括CPU、GPU的溫度、電壓、負載等參數,一旦發現異常,能夠及時發出告警並採取相應的措施。例如,當某個GPU出現故障時,RAS引擎能夠自動將該GPU上的任務遷移到其他正常的GPU上,確保任務的持續運行。同時,該引擎還支援錯誤糾正碼(ECC)技術,能夠自動檢測並糾正記憶體中的資料錯誤,提升資料儲存的可靠性。通過RAS引擎,Rubin平台能夠實現7x24小時的高負載穩定運行,滿足大規模AI計算任務的需求。2.3.5 代理推理專用最佳化技術:AI代理的高效支撐隨著AI代理技術的發展,AI系統需要具備更強的自主決策和任務執行能力。Rubin平台通過Vera CPU和專用的代理推理最佳化技術,為AI代理的高效運行提供了堅實的支撐。該技術能夠最佳化AI代理的任務調度邏輯,提升代理的決策效率和響應速度。具體來說,代理推理專用最佳化技術通過建構專用的任務調度模型,能夠根據任務的優先順序和資源需求,動態分配計算、儲存和網路資源。同時,該技術還支援多代理協同工作,能夠實現多個AI代理之間的高效通訊和協作。在智能客服場景中,採用該技術的AI代理能夠快速響應使用者的需求,精準處理使用者的問題;在自動駕駛場景中,AI代理能夠即時分析路況,做出快速、精準的決策,保障行駛安全。2.4 Rubin平台與前代平台及競品的對比分析為了更清晰地展現Rubin平台的優勢,我們將其與輝達前代Blackwell平台以及市場上的主要競品進行對比分析。2.4.1 與Blackwell平台的對比從性能指標來看,Rubin平台的訓練性能達到Blackwell平台的3.5倍,運行軟體性能提升5倍,推理每Token生成成本降低10倍。在核心技術方面,Rubin平台採用了新一代的NVLink 6互連技術、第三代Transformer引擎等,而Blackwell平台採用的是NVLink 5互連技術和第二代Transformer引擎。此外,Rubin平台新增了專為代理推理設計的Vera CPU,進一步拓展了平台的應用場景。從應用場景來看,Blackwell平台主要面向大規模大模型訓練場景,而Rubin平台不僅在大模型訓練方面表現更優,還在推理場景和AI代理場景中具備顯著優勢。例如,在推理場景中,Rubin平台的低成本優勢能夠推動AI應用的規模化普及;在AI代理場景中,Vera CPU的加入能夠提升AI代理的運行效率。2.4.2 與市場主要競品的對比當前市場上的主要競品包括亞馬遜的Trainium晶片、Google的TPU v5、寒武紀的思元590等。與這些競品相比,Rubin平台具有以下優勢:一是性能優勢。Rubin平台的訓練性能和推理效率均領先於市場上的主要競品。例如,與GoogleTPU v5相比,Rubin平台的訓練性能提升2.8倍,推理效率提升3.2倍。二是架構優勢。Rubin平台採用了一體化協同架構,由6款核心晶片協同工作,而競品大多採用單一晶片或簡單的晶片堆疊設計,協同效率較低。三是生態優勢。輝達擁有完善的CUDA-X AI軟體生態,能夠為Rubin平台提供豐富的演算法庫和工具集,而競品的軟體生態相對薄弱,難以滿足多樣化的AI應用需求。四是成本優勢。Rubin平台通過技術創新,大幅降低了推理成本,相比競品,其推理每Token生成成本降低了50%以上。當然,Rubin平台也存在一定的挑戰。例如,其硬體成本相對較高,對於中小企業來說,初期投入較大;此外,平台的部分技術處於領先地位,相關的人才儲備相對不足,可能會影響平台的推廣和應用。二、全產業鏈解析Rubin平台帶動的百兆AI算力生態Rubin平台的推出,不僅自身具備強大的性能優勢,還將帶動整個AI算力產業鏈的發展。AI算力產業鏈涵蓋上游核心硬體、中游算力服務、下游應用場景等多個環節,Rubin平台將通過技術溢出效應,為產業鏈各環節帶來新的發展機遇。3.1 上游核心硬體環節:晶片、零部件與材料的機遇上游核心硬體環節是AI算力產業鏈的基礎,主要包括晶片設計、晶圓製造、封裝測試、零部件(如光模組、PCB、散熱器等)和材料(如光刻膠、靶材等)。Rubin平台的大規模量產,將大幅拉動上游核心硬體的需求。3.1.1 晶片設計與製造Rubin平台的6款核心晶片均由輝達自主設計,採用台積電的先進製程工藝(3nm製程)。隨著Rubin平台的大規模量產,台積電的3nm產能將得到充分釋放,同時也將帶動相關晶片設計工具廠商的發展。例如,Synopsys、Cadence等晶片設計EDA工具廠商,將為輝達的晶片設計提供技術支撐。此外,國內的晶片設計廠商也將受益於Rubin平台的技術溢出效應,通過學習和借鑑輝達的晶片設計理念,提升自身的技術水平。3.1.2 封裝測試Rubin平台的晶片採用了先進的CoWoS封裝技術,這種封裝技術能夠實現晶片的高密度整合,提升晶片的性能和可靠性。隨著Rubin平台的量產,CoWoS封裝的需求將大幅增長,帶動封裝測試廠商的發展。例如,日月光、ASE、長電科技等封裝測試廠商,將為Rubin平台的晶片提供封裝測試服務。此外,封裝測試所需的相關裝置和材料,如封裝基板、鍵合絲等,也將迎來新的發展機遇。3.1.3 零部件Rubin平台的大規模部署,將帶動光模組、PCB、散熱器等零部件的需求。光模組方面,Rubin平台的ConnectX-9 SuperNIC和Spectrum-6乙太網路交換機均需要高速光模組的支撐,200Gb/s及以上速率的光模組需求將大幅增長,受益廠商包括中際旭創、新易盛、天孚通訊等。PCB方面,由於Rubin平台的晶片整合度高,對PCB的性能要求也更高,高多層、高密度的PCB需求將增加,受益廠商包括深南電路、滬電股份、生益科技等。散熱器方面,Rubin平台的高負載運行需要高效的散熱解決方案,液冷散熱器的需求將增長,受益廠商包括曙光數創、高瀾股份、英維克等。3.1.4 材料晶片製造和封裝測試所需的材料,如光刻膠、靶材、拋光液等,也將隨著Rubin平台的量產而需求增長。光刻膠方面,台積電3nm製程需要使用先進的EUV光刻膠,受益廠商包括東京應化、信越化學、南大光電等。靶材方面,晶片製造所需的銅靶、鋁靶、鈦靶等需求將增加,受益廠商包括江豐電子、有研新材、阿石創等。拋光液方面,晶片製造過程中的晶圓拋光需要使用高性能的拋光液,受益廠商包括安集科技、鼎龍股份等。3.2中游算力服務環節雲廠商與算力租賃的爆發中游算力服務環節是連接上游硬體和下游應用的橋樑,主要包括雲廠商的算力實例服務、專業算力租賃服務、算力調度平台等。Rubin平台的推出,將為中游算力服務環節帶來新的發展機遇。3.2.1 雲廠商的算力實例服務如華安證券行業周報所述,亞馬遜AWS、Google雲、微軟Azure和甲骨文雲四大雲巨頭已確認將於2026年率先部署基於Vera Rubin的實例。這些雲廠商將通過Rubin平台的高性能和低成本優勢,推出更具競爭力的算力服務產品。例如,亞馬遜AWS可能會推出基於Rubin平台的P4d實例,針對大規模大模型訓練和推理場景;微軟Azure可能會推出NDm v5實例,滿足企業客戶的AI算力需求。隨著雲廠商部署基於Rubin平台的算力實例,企業客戶將能夠以更低的成本獲取頂尖的AI算力,這將進一步推動AI應用的規模化普及。同時,雲廠商的算力服務收入也將迎來大幅增長,根據摩根士丹利的預測,2026年全球雲廠商的AI算力服務收入將達到30兆元,其中基於Rubin平台的算力服務收入將佔比超過40%。3.2.2 專業算力租賃服務除了雲廠商,CoreWeave、Lambda、Nebius和Nscale等專業AI算力租賃廠商也將跟進部署Rubin平台。這些專業廠商主要面向AI創業公司、中小企業和科研機構,為其提供靈活的算力租賃服務。與雲廠商相比,專業算力租賃廠商的服務更加專注於AI場景,能夠提供更個性化的解決方案。Rubin平台的低成本優勢將使專業算力租賃廠商能夠降低服務價格,吸引更多的客戶。例如,CoreWeave可能會推出基於Rubin平台的算力租賃套餐,價格相比基於Blackwell平台的套餐降低50%以上。這將為AI創業公司和中小企業提供更多的創新機會,推動AI技術的創新和應用。3.2.3 算力調度平台隨著AI算力需求的增長,算力調度平台的重要性日益凸顯。算力調度平台能夠實現對分散算力資源的整合和調度,提升算力資源的利用率。Rubin平台的推出,將對算力調度平台提出更高的要求,同時也將推動算力調度平台的發展。國內的算力調度平台廠商如平行科技、優刻得等,將需要針對Rubin平台的特性進行技術最佳化,實現對基於Rubin平台的算力資源的高效調度。同時,算力調度平台還將與雲廠商和專業算力租賃廠商合作,建構多元化的算力資源池,為客戶提供一站式的算力服務。3.3 下游應用場景環節AI應用的規模化普及下游應用場景環節是AI算力產業鏈的終端,涵蓋網際網路、金融、醫療、製造、自動駕駛、教育、環保等多個領域。Rubin平台通過降低算力成本,將推動這些領域AI應用的規模化普及。3.3.1 網際網路領域:大模型應用的深化網際網路領域是AI應用的先行領域,也是算力需求的主要來源之一。Rubin平台的推出,將推動網際網路領域大模型應用的深化。例如,在自然語言處理領域,基於Rubin平台的大模型能夠實現更精準的語音識別、機器翻譯、文字生成等功能;在電腦視覺領域,大模型能夠實現更高效的圖像識別、視訊分析、目標檢測等功能。國內的網際網路企業如百度、阿里、騰訊等,將利用Rubin平台的算力優勢,進一步提升其大模型的性能和應用體驗。例如,百度的文心一言大模型可能會基於Rubin平台進行訓練和推理,提升模型的響應速度和生成質量;阿里的通義千問大模型可能會拓展更多的應用場景,如智能辦公、智能創作等。3.3.2 金融領域:智能風控與個性化服務的升級金融領域是AI應用的重要場景,Rubin平台的機密計算技術能夠滿足金融領域的資料安全需求,推動智能風控、個性化服務等應用的升級。在智能風控場景中,基於Rubin平台的AI模型能夠即時分析使用者的交易資料,精準識別風險交易,降低金融機構的風險損失;在個性化服務場景中,AI模型能夠根據使用者的需求和偏好,提供個性化的金融產品推薦和服務。國內的金融IT企業如同花順、恆生電子、東方財富等,將受益於Rubin平台的推出。例如,同花順可能會基於Rubin平台最佳化其智能投顧產品,提升產品的精準度和使用者體驗;恆生電子可能會推出基於Rubin平台的智能風控解決方案,為金融機構提供更高效的風險防控服務。3.3.3 醫療領域:AI診斷與藥物研發的突破醫療領域的AI應用能夠提升醫療服務的效率和質量,Rubin平台的高性能和低成本優勢將推動醫療領域AI應用的突破。在AI診斷場景中,基於Rubin平台的AI模型能夠快速分析醫學影像,精準識別疾病,輔助醫生做出診斷;在藥物研發場景中,AI模型能夠模擬藥物分子的相互作用,縮短藥物研發周期,降低研發成本。國內的醫療AI企業如推想科技、鷹瞳科技、藥明康德等,將利用Rubin平台的算力優勢,提升其產品的性能和競爭力。例如,推想科技的肺部AI診斷產品可能會基於Rubin平台進行最佳化,提升診斷的精準率和速度;藥明康德可能會利用Rubin平台加速藥物研發處理程序,推出更多的創新藥物。3.3.4 製造領域:工業質檢與智能生產的普及製造領域的AI應用能夠提升生產效率和產品質量,Rubin平台的推出將推動工業質檢、智能生產等應用的普及。在工業質檢場景中,基於Rubin平台的AI模型能夠即時檢測產品的缺陷,提高質檢的效率和精準率;在智能生產場景中,AI模型能夠最佳化生產流程,實現生產資源的合理配置。國內的工業軟體企業如用友網路、鼎捷數智、賽意資訊等,將受益於Rubin平台的推出。例如,用友網路可能會基於Rubin平台最佳化其工業網際網路平台,為製造企業提供更高效的智能生產解決方案;鼎捷數智可能會推出基於Rubin平台的工業質檢產品,幫助製造企業提升產品質量。3.3.5 自動駕駛領域:高階自動駕駛的落地自動駕駛領域對算力的需求極高,Rubin平台的高性能和低延遲優勢將推動高階自動駕駛的落地。根據華安證券行業周報資訊,聯想車計算與韓國SWM合作的L4級自動駕駛計程車平台基於NVIDIA DRIVE AGX Thor晶片,而Rubin平台的推出將進一步提升自動駕駛系統的算力和效率。國內的自動駕駛企業如小鵬汽車、理想汽車、蔚來汽車等,以及自動駕駛解決方案提供商如Mobileye、小馬智行等,將利用Rubin平台的算力優勢,提升自動駕駛系統的性能。例如,小鵬汽車的XNGP自動駕駛系統可能會基於Rubin平台進行升級,實現更複雜路況下的自動駕駛;小馬智行可能會推出基於Rubin平台的L4級自動駕駛解決方案,加速自動駕駛的商業化落地。3.3.6 教育與環保領域:公益應用的拓展除了商業領域,Rubin平台還將推動AI在教育、環保等公益領域的應用拓展。在教育領域,基於Rubin平台的AI模型能夠實現個性化教學,為學生提供定製化的學習方案;在環保領域,AI模型能夠即時監測環境資料,預測環境變化,為環境保護提供決策支援。國內的教育科技企業如好未來、新東方等,可能會基於Rubin平台最佳化其線上教育產品,提升教學效果;環保科技企業如聚光科技、先河環保等,可能會利用Rubin平台的算力優勢,提升環境監測和分析的效率。三、AI應用普及分析Rubin平台驅動的產業變革4.1 AI應用普及的核心驅動力:成本降低與性能提升Rubin平台對AI應用普及的核心驅動作用,源於其在成本降低和性能提升方面的雙重突破。一方面,推理每Token生成成本相比Blackwell平台降低10倍,這將大幅降低AI應用的營運成本,使更多的企業和機構能夠負擔得起AI技術的應用;另一方面,訓練性能提升3.5倍,運行軟體性能提升5倍,這將提升AI應用的體驗和效率,拓展AI應用的場景範圍。以智能客服場景為例,此前基於Blackwell平台的AI客服系統,由於推理成本較高,僅大型企業能夠應用。Rubin平台推出後,推理成本降低10倍,中小企業也能夠部署AI客服系統,實現客戶服務的自動化。同時,性能的提升使AI客服能夠更準確地理解使用者的需求,提供更優質的服務,進一步推動智能客服的普及。再以藥物研發場景為例,傳統藥物研發周期長達10年以上,成本高達數十億美元。基於Rubin平台的AI模型能夠大幅縮短藥物研發周期,降低研發成本。例如,利用Rubin平台訓練的藥物研發模型,能夠在幾個月內完成傳統方法需要數年的藥物篩選工作,研發成本降低50%以上。這將推動更多的製藥企業採用AI技術,加速藥物研發處理程序,為人類健康帶來更多的福祉。4.2 不同行業AI應用普及的路徑與節奏由於不同行業的數位化水平、算力需求和合規要求存在差異,Rubin平台驅動的AI應用普及將呈現不同的路徑和節奏。4.2.1 網際網路行業:快速普及,深度滲透網際網路行業的數位化水平高,算力需求旺盛,且對新技術的接受度高。Rubin平台推出後,網際網路行業將成為AI應用普及的先行領域,實現快速普及和深度滲透。預計在2026年,網際網路行業的AI應用滲透率將達到80%以上,涵蓋內容推薦、智能客服、語音識別、圖像分析等多個場景。4.2.2 金融與醫療行業:穩步推進,合規優先金融和醫療行業對資料安全和合規要求較高,雖然Rubin平台的機密計算技術能夠滿足其合規需求,但由於行業特性,AI應用普及將穩步推進。預計在2026-2027年,金融行業的AI應用滲透率將達到60%以上,主要集中在智能風控、個性化服務等場景;醫療行業的AI應用滲透率將達到50%以上,主要集中在AI診斷、藥物研發等場景。4.2.3 製造與自動駕駛行業:逐步落地,場景拓展製造和自動駕駛行業的AI應用需要與實體經濟深度融合,涉及到硬體裝置的升級和流程的改造,普及節奏相對較慢。預計在2027-2028年,製造行業的AI應用滲透率將達到50%以上,主要集中在工業質檢、智能生產等場景;自動駕駛行業的L4級自動駕駛將實現規模化落地,滲透率達到30%以上。4.2.4 教育與環保行業:公益引領,逐步推廣教育和環保行業的AI應用更多地體現公益屬性,需要政府和社會的推動。預計在2028年以後,隨著算力成本的進一步降低和技術的成熟,教育和環保行業的AI應用將逐步推廣,滲透率將達到40%以上。4.3 AI應用普及帶來的社會與經濟影響Rubin平台驅動的AI應用普及,將對社會和經濟產生深遠的影響。4.3.1 經濟影響:推動產業升級,促進經濟增長AI應用的規模化普及將推動各行業的產業升級,提升生產效率和產品質量。根據麥肯錫的預測,到2030年,AI技術將為全球經濟貢獻13兆美元的價值。Rubin平台作為推動AI應用普及的關鍵引擎,將在其中發揮重要作用。例如,在製造行業,AI應用能夠提升生產效率20-30%;在金融行業,智能風控能夠降低風險損失15-20%。同時,AI應用的普及還將催生新的產業和商業模式,創造新的就業機會。例如,AI算力服務、AI諮詢服務等新興產業將迎來快速發展;AI訓練師、AI維運工程師等新職業將不斷湧現。4.3.2 社會影響:提升生活質量,促進社會進步AI應用的普及將提升人們的生活質量,為社會進步帶來新的動力。在醫療領域,AI診斷能夠提高疾病的早期診斷率,降低死亡率;在教育領域,個性化教學能夠滿足不同學生的學習需求,提升教育質量;在環保領域,AI監測能夠及時發現環境問題,推動環境保護。此外,AI應用還將推動社會治理的智能化升級。例如,在城市管理領域,AI技術能夠實現交通流量的智能調度、公共安全的即時監測,提升城市管理效率;在政務服務領域,AI技術能夠實現政務流程的簡化和最佳化,提升政務服務水平。四、國內外AI算力基礎設施及應用相關標的梳理基於前文的產業鏈分析,我們梳理了國內外AI算力基礎設施及應用相關的核心標的,涵蓋上游核心硬體、中游算力服務、下游應用場景等多個環節,為投資者提供參考。5.1 國內相關標的5.1.1 上游核心硬體環節1. 晶片設計:寒武紀(688256)、壁仞科技(未上市)、沐曦積體電路(未上市)。寒武紀是國內AI晶片設計的領軍企業,其思元系列晶片在國內市場具有較高的知名度和市場份額,能夠為國內企業提供AI算力支撐。2. 晶圓製造:中芯國際(688981)。中芯國際是國內規模最大、技術最先進的晶圓製造企業,雖然目前的製程工藝與台積電存在差距,但隨著技術的不斷進步,將逐步滿足國內部分AI晶片的製造需求。3. 封裝測試:長電科技(600584)、通富微電(002156)、華天科技(002185)。長電科技是國內封裝測試行業的龍頭企業,具備先進的CoWoS封裝技術能力,能夠為AI晶片提供封裝測試服務。4. 光模組:中際旭創(300308)、新易盛(300502)、天孚通訊(300394)。中際旭創是全球光模組行業的領軍企業,其200Gb/s及以上速率的光模組產品能夠滿足Rubin平台的網路需求。5. PCB:深南電路(002916)、滬電股份(002463)、生益科技(600183)。深南電路是國內高多層、高密度PCB的龍頭企業,能夠為AI晶片和伺服器提供高品質的PCB產品。6. 散熱器:曙光數創(872808)、高瀾股份(300499)、英維克(002837)。曙光數創是國內液冷散熱器的領軍企業,其液冷解決方案能夠滿足AI伺服器的高散熱需求。7. 材料:江豐電子(300666)、有研新材(600206)、安集科技(688019)。江豐電子是國內高純濺射靶材的龍頭企業,其產品能夠滿足晶片製造的需求。5.1.2 中游算力服務環節1. 雲廠商:阿里雲(阿里巴巴,9988.HK)、騰訊雲(騰訊控股,0700.HK)、百度智能雲(百度集團,9888.HK)。國內三大雲廠商均在積極佈局AI算力服務,將逐步部署基於Rubin平台的算力實例,為國內企業提供AI算力服務。2. 專業算力租賃:平行科技(839493)、優刻得(688158)。平行科技是國內專業的算力調度和租賃服務提供商,能夠為AI創業公司和中小企業提供靈活的算力租賃服務。3. 算力基礎設施:中科曙光(603019)、浪潮資訊(000977)、紫光股份(000938)。中科曙光是國內高性能計算領域的領軍企業,其超級電腦產品能夠為AI計算提供強大的算力支撐。5.1.3 下游應用場景環節1. 網際網路領域:百度集團(9888.HK)、阿里巴巴(9988.HK)、騰訊控股(0700.HK)。國內三大網際網路巨頭均在積極推進大模型的研發和應用,將利用Rubin平台的算力優勢,提升大模型的性能和應用體驗。2. 金融領域:同花順(300033)、恆生電子(600570)、東方財富(300059)。同花順是國內金融資訊服務領域的龍頭企業,其智能投顧產品將受益於Rubin平台的推出,提升產品的精準度和使用者體驗。3. 醫療領域:推想科技(688212)、鷹瞳科技(688297)、藥明康德(603259)。推想科技是國內醫療AI領域的領軍企業,其肺部AI診斷產品將基於Rubin平台進行最佳化,提升診斷的精準率和速度。4. 製造領域:用友網路(600588)、鼎捷數智(300378)、賽意資訊(300687)。用友網路是國內工業軟體領域的龍頭企業,其工業網際網路平台將基於Rubin平台最佳化,為製造企業提供更高效的智能生產解決方案。5. 自動駕駛領域:小鵬汽車(XPEV.US)、理想汽車(LI.US)、蔚來汽車(NIO.US)、小馬智行(未上市)。國內的自動駕駛企業將利用Rubin平台的算力優勢,提升自動駕駛系統的性能,加速高階自動駕駛的落地。6. 其他領域:金山辦公(688111)、焦點科技(002315)、阜博集團(3738.HK)。金山辦公的辦公軟體產品將融入AI功能,提升使用者的辦公效率;焦點科技的跨境電商平台將利用AI技術提昇平台的營運效率和使用者體驗。5.2 國外相關標的5.2.1 上游核心硬體環節1. 晶片設計:輝達(NVDA.US)、AMD(AMD.US)、英特爾(INTC.US)。輝達是全球AI晶片設計的領軍企業,Rubin平台的推出將進一步鞏固其市場地位;AMD和英特爾也在積極佈局AI晶片領域,與輝達形成競爭。2. 晶圓製造:台積電(TSM.US)、三星電子(SSNLF.OTCMKTS)。台積電是全球最先進的晶圓製造企業,Rubin平台的晶片採用台積電的3nm製程工藝;三星電子也在積極推進先進製程工藝的研發,與台積電形成競爭。3. 封裝測試:日月光(ASE.US)、安靠(AMKR.US)。日月光是全球封裝測試行業的龍頭企業,具備先進的CoWoS封裝技術能力,為Rubin平台的晶片提供封裝測試服務。4. 光模組:Finisar(FNSR.US)、Lumentum(LITE.US)。Finisar是全球光模組行業的領軍企業,其高速光模組產品能夠滿足Rubin平台的網路需求。5.2.2 中游算力服務環節1. 雲廠商:亞馬遜(AMZN.US)、Google(GOOGL.US)、微軟(MSFT.US)、甲骨文(ORCL.US)。全球四大雲巨頭已確認部署基於Rubin平台的算力實例,將為全球使用者提供頂尖的AI算力服務。2. 專業算力租賃:CoreWeave(未上市)、Lambda(未上市)。CoreWeave是全球專業AI算力租賃領域的領軍企業,將部署基於Rubin平台的算力資源,為客戶提供低成本的算力租賃服務。5.2.3 下游應用場景環節1. 網際網路領域:Meta(META.US)、Google(GOOGL.US)、微軟(MSFT.US)。這些網際網路巨頭均在積極推進大模型的研發和應用,將利用Rubin平台的算力優勢,提升大模型的性能和應用體驗。2. 金融領域:摩根大通(JPM.US)、高盛(GS.US)、花旗集團(C.US)。這些國際金融巨頭將利用Rubin平台的算力優勢,最佳化其智能風控和個性化服務系統。3. 醫療領域:強生(JNJ.US)、輝瑞(PFE.US)、默克(MRK.US)。這些國際製藥巨頭將利用Rubin平台加速藥物研發處理程序,推出更多的創新藥物。4. 自動駕駛領域:特斯拉(TSLA.US)、通用汽車(GM.US)、福特汽車(F.US)。這些國際汽車企業將利用Rubin平台的算力優勢,提升自動駕駛系統的性能,加速高階自動駕駛的落地。五、未來展望展望未來,Rubin平台將成為推動全球AI算力產業發展的核心引擎,帶動百兆規模AI算力生態的建構。在技術層面,輝達將持續最佳化Rubin平台的性能,推出更先進的技術和產品,進一步提昇平台的競爭力;在產業鏈層面,Rubin平台將帶動上游核心硬體、中游算力服務、下游應用場景等多個環節的協同發展,形成完善的AI算力產業生態;在應用層面,AI應用將實現規模化普及,滲透到社會經濟的各個領域,推動產業升級和社會進步。對於國內企業來說,應抓住Rubin平台帶來的發展機遇,加強技術研發,提升自身的核心競爭力。在硬體領域,加快先進製程工藝的研發,突破關鍵零部件和材料的技術瓶頸;在軟體領域,建構完善的AI軟體生態,提升對Rubin平台的適配能力;在應用領域,積極探索AI技術在各行業的應用場景,推動AI應用的規模化普及。同時,政府應加強政策支援,完善相關法律法規,為AI算力產業的發展創造良好的環境。總之,Rubin平台的推出標誌著AI算力產業進入了新的發展階段,百兆規模的AI算力生態正在加速形成。在這一過程中,企業、政府和社會各界應加強合作,共同推動AI算力產業的健康發展,為全球經濟和社會的進步做出更大的貢獻。 (AI雲原生智能算力架構)
輝達這招太狠了!次世代Rubin系統將消耗數百萬TB固態硬碟,加劇儲存短缺
光刻機都刻冒煙WCCFTech報導,花旗銀行(Citi)分析師在最新研究報告中指出,輝達在下一代代號為“Vera Rubin”的 AI 伺服器系統將對 NAND 快閃記憶體產生極其龐大的需求,這可能會進一步加劇全球固態硬碟的供應短缺。報告顯示,為了支援輝達全新的推理上下文記憶體儲存(ICMS)技術,輝達為每個機架的GPU配置約16TB NAND,每台 Vera Rubin 伺服器(以 NVL72 規格為例)預計需要額外配備約 1152TB 的 SSD 儲存空間。這一規格需求遠超目前常規伺服器的儲存配置。ICMS(Inference Context Memory Storage,推理上下文記憶體儲存)被視為解決 AI 推理“記憶體牆”問題的核心技術。ICMS被認為是G3.5級儲存層級,它通過萬兆級的乙太網路(Spectrum-X)將大量快閃記憶體顆粒連接在一起,形成一個“准記憶體級”的儲存層。輝達官方資料顯示,相比傳統儲存方案,ICMS 能將 AI 生成速度提升 5 倍,同時能效比也提升了 5 倍。媒體援引花旗銀行的預測資料稱,2026 年 Vera Rubin 伺服器的出貨量預計將達到 3 萬台,而到 2027 年這一數字將增長至 10 萬台。受此推動,僅輝達 AI 系統產生的 NAND 需求在 2026 年就將達到 3460 萬 TB,並在 2027 年激增至 1.152 億 TB。從市場份額的角度來看,這一單一來源的需求量足以撼動整個儲存行業。據估算,輝達的這些 AI 需求將分別佔據 2026 年和 2027 年全球 NAND 預期總需求的 2.8% 和 9.3%。分析師指出,這種龐大需求將進一步加劇目前NAND快閃記憶體的供需關係惡劣性。顯然這對於消費級市場又是一個壞消息,分析指出,AI巨頭和雲服務商(CSP)開始大規模搶購大容量SSD訂單,NAND快閃記憶體市場或將上演目前DRAM價格劇烈上漲的局面,個人PC使用者的零售固態硬碟也將被嚴重推高,雖然目前來說已經是了。目前,包括三星、美光和 SK 海力士在內的主要儲存廠商正在積極調整產能,試圖在利潤豐厚的 AI 專用儲存與傳統消費電子需求之間尋找平衡。然而,面對數以億計 TB 等級的增量需求,儲存行業的產能爬坡依然面臨嚴峻挑戰。 (AMP實驗室)
國際周報 | Nvidia 宣佈 Vera Rubin 晶片支援 45°C熱水冷卻;DayOne 完成 20 億美元 C 輪融資
大廠動態No.01DayOne完成20億美元C輪融資加速亞太與歐洲擴張亞太資料中心營運商 DayOne 宣佈完成超過 20 億美元 C 輪融資,由 Coatue 領投,印尼主權財富基金 INA 等參與。資金將用於擴展其在新加坡、馬來西亞、印尼、泰國、日本與香港的資料中心佈局,並支援芬蘭 Lahti 和 Kouvola 園區建設。DayOne 前身為中國 GDS 國際業務,目前已擁有及在建容量超過 500MW,並儲備同等規模開發潛力。點評:萬國海外獨立後,融資提速全球化佈局。No.02百度與華為佔據中國GPU雲市場七成份額推動自研晶片全端融合Frost & Sullivan 報告顯示,2025 年上半年百度與華為共佔中國 GPU 雲市場 70.5% 份額,其中百度以 40.4% 居首。兩者均採用“晶片到雲”全端策略,建構自研晶片規模化資源池,以挑戰 Nvidia CUDA 生態。儘管市場仍面臨性能、生態與整合瓶頸,但百度與華為正加速融合軟硬一體能力。其他大廠如騰訊、阿里受限於 AI GPU 供應,資本開支明顯下滑。點評:中國國產替代提速,芯雲一體成主流路線。No.03xAI宣佈資料中心叢集擴建計畫總投資達 200 億美元馬斯克旗下 xAI 正在田納西州孟菲斯與密西西比州德索托縣同步推進資料中心建設,最新項目“MACROHARDRR”預計將推動整體算力容量增至約 2GW。該叢集將服務於 Colossus 超級計算平台,目標部署 100 萬顆 GPU。xAI 已完成 200 億美元 E 輪融資,輝達、思科等為戰略投資方。資料中心依託自建燃氣電廠與 Tesla Megapack 快速部署,但也引發環保爭議。密西西比州政府已給予稅收優惠,稱其為州史上最大經濟開發項目。點評:馬斯克火力全開,美南成算力高地。No.04軟銀將以40億美元收購資料中心投資公司 DigitalBridge軟銀宣佈將以 40 億美元收購全球數字基礎設施投資公司 DigitalBridge。後者管理資產規模達 1080 億美元,旗下投資組合包括 AIMS、AtlasEdge、DataBank、Switch、Takanock、Vantage 和 Yondr Group,資料中心總容量達 5.4GW。該收購將強化軟銀在 AI 基礎設施領域的佈局,特別是在支援 OpenAI 的 Stargate 超大規模資料中心項目上。交易預計於 2026 年下半年完成,DigitalBridge 將保持獨立營運。點評: AI 風口下,軟銀重金搶灘算力基建。No.05微軟計畫在密歇根州Dorr和Lowell建設資料中心園區Grand Rapids成新興熱點微軟近日確認將在密歇根州 Grand Rapids 附近的 Dorr 和 Lowell 兩地建設資料中心園區。公司已在 Dorr 購地 272 英畝,在 Lowell 提議開發 235 英畝園區,前者為已購土地,後者仍處初期溝通階段。第三個選址 Gaines 因社區反對暫緩推進。微軟表示將加強與社區溝通,並承諾新設施符合節水和可持續發展目標。該地區正成為繼底特律後新的資料中心集聚地。點評:微軟中西部佈局提速,小城鎮迎資料中心入駐潮。No.06OADC收購NTT在南非的資料中心資產泛非資料中心營運商 OADC 將收購 NTT 在南非的七個資料中心,地點包括約翰內斯堡、開普敦、布隆方丹等地,交易已獲南非競爭委員會批准。該資產原屬 NTT 於 2010 年收購的 Dimension Data,現總容量約 10MW。本次交易是 OADC 母公司 WIOCC 戰略擴張的一部分,旨在增強其在南非及非洲的中立資料中心佈局。點評:區域整合提速,非洲市場熱度不減。科技動態No.07Nvidia宣佈Vera Rubin晶片支援45°C熱水冷卻引發傳統 HVAC股價下跌在 CES 上,黃仁勳宣佈其新一代 Vera Rubin 晶片可在 45°C 熱水環境下運行,無需冷水機組,引發 Modine、江森自控、特靈科技等 HVAC 企業股價普跌。Rubin 系列性能大幅超越 Blackwell,將於 2026 年下半年上市,採用 100% 液冷與模組化托盤設計。分析稱,傳統空調廠商或受衝擊,而擁有液冷佈局的 nVent、Vertiv 有望受益。點評:熱水冷卻上場,資料中心製冷範式或變天。No.08Vertiv發佈2026資料中心趨勢預測,AI驅動電力架構與液冷系統深度變革Vertiv 在其《Frontiers》報告中指出,AI 工廠對密度、規模和部署速度的極致需求,正在重塑資料中心設計與維運。五大趨勢包括:向高壓直流電架構轉型以支援 AI 功耗密度;數字孿生驅動模組化部署;AI 推理推動邊緣與私有部署;本地發電成為能源保障核心;液冷系統走向智能自適應。Vertiv 預計“資料中心即算力單元”將成為 AI 時代基礎設施新範式。點評:AI 正在重寫資料中心設計公式,全端協同成關鍵。No.09江森自控將在新加坡投資6000萬新元擴建創新中心聚焦 AI 資料中心冷卻技術江森自控宣佈未來五年將在新加坡投資約 6000 萬新元(約合 4400 萬美元),擴建其創新中心,研發麵向 AI 與雲端運算資料中心的下一代冷卻、熱管理與自動化技術。項目將專注液冷與混合冷卻,適用於亞太高溫、高功耗環境,同時作為區域研發樞紐服務整個亞太市場。擴建後將增加至 90–100 名工程師,聯合高校與客戶進行應用測試。點評:液冷東南亞落地,瞄準 AI 高密集算力。No.10Ventiva在CES推出離子冷卻參考設計,適用於AI資料中心與邊緣裝置美國冷卻技術公司 Ventiva 在 CES 2026 上發佈其新型“分區空氣冷卻”參考設計,採用離子冷卻技術,可精準為 CPU、GPU 等高熱部件定向送風,適配資料中心、邊緣計算與消費裝置。該方案無需大型機械風扇,可釋放機箱空間、提高機架密度,並與液冷系統互補。該技術利用電場驅動電漿體產生氣流,被視為新一代高效熱管理方案之一。點評:離子冷卻登場,挑戰風冷液冷二元格局。行業萬花筒No.11S&P警告AI驅動銅需求激增或對資料中心建設構成系統性風險S&P Global 報告指出,銅將成為繼記憶體、雷射器之後又一關鍵瓶頸資源。受 AI 資料中心、電網擴建、電動車等多重需求推動,全球銅需求預計到 2040 年將增長 50%,缺口達 1000 萬噸。其中資料中心銅用量將從 2025 年的 110 萬噸升至 2040 年的 250 萬噸,AI 訓練負載預計 2030 年佔資料中心銅需求的 58%。雖然部分互聯已轉向光纖,但整體銅強度依舊高達每兆瓦 30–40 噸。點評: “缺銅”繼“缺芯”之後,AI 基建面臨全端資源瓶頸。No.12JLL預測全球資料中心將在2030年前迎來3兆美元投資超級周期JLL 報告預測,至 2030 年全球資料中心總投資將達 3 兆美元,容量增至近 100GW,年複合增長率達 14%。其中地產資產價值增長約 1.2 兆美元,8700 億美元為債務融資,1–2 兆美元將用於 GPU 與網路裝置升級。JLL 指出儘管存在電力、供應鏈、成本等挑戰,當前行業租賃率與預租比例仍顯示基本面健康。AI 推動推理型負載崛起,預計 2030 年將佔據一半資料中心容量。點評: AI 驅動全球算力熱,泡沫論暫難成立。 (DeepKnowledge)
【CES 2026】黃仁勳的推理戰爭-AI推理成本暴跌90%
上一會還在沉浸在機器人,車機在 CES 的震撼(見當科技停止講故事,開始拼執行力:從 CES 2026,看全球科技進入“現即時代”),下一秒拉斯維加斯的CES展會剛結束,那個永遠穿黑色皮衣的老黃——黃仁勳,又讓整個科技圈坐不住了。這次他沒有再站在台上喊"我們的算力有多強",而是拋出了一個更實在的問題:"用AI太貴了,得降價。"聽起來有點像淘寶商家的思路?但這次不一樣。當大家還在為搶到NVIDIA上一代晶片擠破頭時,他直接甩出了下一代平台——Rubin。更關鍵的是,他喊出了一句話:訓練AI的戰爭結束了,接下來打的是推理戰爭。(圖片來源@dotey)01 什麼是"推理戰爭"?先說個簡單的例子。想像你在學開車。"訓練"就是駕校教練一遍遍教你的過程,需要時間和教練的精力。AI公司這幾年就是這麼幹的——砸錢買幾萬塊GPU,沒日沒夜地訓練模型。"推理"就是你自己開車上路,每次看到紅綠燈做判斷、遇到行人踩剎車。這才是AI真正被使用的時候。過去三年,科技巨頭們瘋狂干的事就是"訓練"——花大錢、用成千上萬塊GPU,把ChatGPT、Claude這些模型訓練得越來越聰明。但問題來了:模型是聰明了,真正用的時候太貴了。就像你花100萬請了個世界冠軍教你開車,結果每次出門還得再付100塊"使用費"。出門一趟兩趟還好,天天誰受得了?這就是黃仁勳要解決的問題:讓AI真正用得起。這次CES上,他沒再吹"我們的晶片有多牛",而是一直在講"怎麼把成本打下來"。Rubin平台這次能做到什麼程度?同樣的AI任務,成本只要原來的十分之一。以前花1美元能做的事,現在10美分就夠了。什麼概念?就像你原來打一次車要100塊,現在降到10塊,原本偶爾打打車,現在可能天天打都無所謂。只有算力便宜到這個份上,AI應用才能真正爆發。02 Rubin是怎麼做到的?NVIDIA這次玩了個新花樣。以前顯示卡時代,大家都想著怎麼把單塊顯示卡做更強。有點像小時候搭積木,總想著搭個最高的塔。但黃仁勳說:單塊積木再高也有限制,不如搭個"團隊"。所以Rubin平台一口氣放出了6塊不同的晶片:Rubin GPU:負責"計算"的大腦Vera CPU:負責調度的管家NVLink 6:連接所有晶片的高速公路還有其他幾塊專門負責網路、資料流動的晶片這6塊晶片不是隨便湊一起,而是像一支配合默契的足球隊——前鋒、中場、後衛、守門員各司其職,比一個人單打獨鬥強多了。最終結果呢?整個平台的推理性能達到上一代的5倍。成本反而降到了1/10。這就是"團隊作戰"的威力。特別要說一下NVLink 6。精準地說:NVLink 6是連接多塊GPU的"高速公路",頻寬達到3.6TB/s。它讓多塊GPU能像一塊一樣協同工作,是實現相較於上一代有"5倍性能提升"的關鍵一環,但不是唯一因素。整個5倍提升是6塊晶片一起發力的結果。有點像裝修房子:NVLink 6是寬敞的走廊,讓各房間連接順暢但房子好不好用,還得看客廳、臥室、廚房怎麼配合03 讓AI學會"思考"光有便宜的算力還不夠,AI還得"聰明"。之前很多自動駕駛AI像什麼?像只會條件反射的蟲子。看到紅燈停,看到綠燈行,遇到沒見過的情況就懵了。NVIDIA這次開放原始碼的Alpamayo模型,想教AI學會"思考"。什麼意思?想像你在開車,突然遇到一個壞掉的紅綠燈——既不紅也不綠,就那麼黃燈閃啊閃的。條件反射式的AI會怎麼做?可能直接卡住,因為"題庫"裡沒這題。但真正會"思考"的AI會琢磨:周圍的車在幹嘛?大家都在慢慢通過,看來可以走。但要小心點,隨時準備剎車。這種"琢磨"的過程,就是Alpamayo想教給AI的能力。它加入了"思維鏈"功能,讓AI不再是死記硬背,而是學會像人一樣推理。有人說得挺形象:以前的AI是背題庫,Alpamayo是教機器解題的方法。更關鍵的是,NVIDIA把這個模型開源了——相當於把解題思路免費公開,讓誰都能拿去用。為何這麼做?用黃仁勳的話說:軟體都免費了,開發者想用好,自然就得買NVIDIA的硬體來跑它。這招挺聰明的。就像印表機廠家把印表機賣得很便宜,靠賣墨盒賺錢。NVIDIA是把"墨盒"免費了,但你要用還得買它的"印表機"。04 這對普通人意味著什麼?說了這麼多,跟普通人有啥關係?如果你是個使用者:以後你用的AI應用可能會更便宜。因為算力成本降了,那些靠AI生成的圖片、視訊、客服聊天,價格都可能跟著降。如果你是個開發者:搭AI應用的成本會大幅降低。以前可能因為太貴不敢做的項目,現在可以試試了。而且NVIDIA開源了Alpamayo,你可以直接拿去用,不用從零開始。如果你是投資者:NVIDIA在賭下一個大方向:AI從"實驗室"走向"真實世界"。你看它這次和奔馳合作,直接把整套自動駕駛系統裝到2026年上市的CLA車型上。還在往人形機器人領域使勁。ChatGPT只是AI的開始,真正的大市場是那些能跑、能跳、能幹活的機器。總之,AI可能真的要從"昂貴的高科技玩具"變成"像水電一樣的基礎設施"了。至於這一天什麼時候真正到來?那就看Rubin平台2026年下半年正式出貨後的表現了。05 摩爾定律慢下來了,黃仁勳沒有摩爾定律說的是晶片性能每18個月翻一番。但現在這個定律已經明顯慢下來了——物理快到極限了。但黃仁勳沒有等。從Hopper到Blackwell,再到現在的Rubin,NVIDIA的節奏從來不是等摩爾定律來推自己,而是自己去推摩爾定律。這次CES傳達的訊號很明確:造更聰明的AI時代過去了,接下來要讓AI用得起。這才是AI真正走進千家萬戶的開始。 (白羊武士弗拉明戈)