#Rubin
【CES 2026】瑞銀:Rubin全面投產,帶來電源與液冷升級機遇!海外PCB 調研要點!
瑞銀:中國資料中心裝置:Rubin帶來電源與液冷機會VR200 平台機架功率提升上周在拉斯維加斯舉辦的國際消費電子展上,輝達CEO 黃仁勳的主題演講對需求表達了積極態度,並披露了 2026 年 Vera Rubin 平台的發佈進展。在電源與製冷方面,輝達重點提及,Rubin 平台的機架功率或將達到上一代 Blackwell 平台的兩倍,且製冷方式將從 Blackwell 平台 80% 的液冷佔比升級為 100% 全液冷。其中,VR200 NVL72 型號對 GPU 散熱方案進行了升級,將採用微通道冷板(micro-channel cold plate)。輝達表示,目前 Rubin 平台已全面投產。利多電源與液冷需求增長VR200 NVL72 的 AI 訓練 / 推理算力分別約為 GB300 NVL72 的 3.5 倍 / 5 倍,這推動機架級功率需求大幅上升。具體來看,VR200 NVL72 將電源架升級為 3 個 3U 規格、總功率 110 千瓦的配置(含 6 個 18.3 千瓦電源模組),而目前最常見的 GB300 NVL72 配置為 8 個 1U 規格、總功率 33 千瓦的電源架(含 6 個 5.5 千瓦電源模組)。此外,VR200 NVL72 電源架採用 “3+1” 冗餘設計。值得注意的是,VR200 NVL72 可視為輝達 Oberon 機架架構的最後一代產品 —— 該架構僅支援 54V 直流配電,且需搭配不間斷電源(UPS)。隨著 AI 算力持續提升,機架功率需求不斷增長,輝達預計將過渡至下一代 Kyber 機架設計,後者支援 800V 高壓直流(HVDC)。我們認為,隨著 Rubin 平台產能擴大,UPS 與液冷需求的增長速度將進一步加快;未來功率密度的提升還將推動電源系統進一步升級,預計 2027 年 Rubin Ultra 平台若推出,將進一步釋放 HVDC 的需求潛力。重點推薦標的:科士達、科華資料我們認為,科士達與科華資料將受益於 UPS 需求增長,且有望向 HVDC(高壓直流)與 SST(固態變壓器)產品升級,具備業績提升潛力。摩根士丹利研究報告: 泰國 PCB 調研要點2026 年 1 月 12 日至 14 日,我們在泰國走訪了四家印刷電路板(PCB)企業,包括勝宏科技(VGT)、Dynamic PCB、GCE及ZDT。需求端表現強勁,受出貨量增長、材料升級及生產複雜度提升驅動:受訪四家企業傳遞的需求訊號高度一致,尤其是 GPU 與 ASIC 伺服器相關需求。出貨量增長、覆銅板(CCL)材料升級、生產及設計複雜度提升,共同推動營收增長。我們預計,AI 相關 PCB 將更多採用高密度互連(HDI)或混合式多層板 / 高密度互連(MLB/HDI)設計,供應商正積極籌備相關裝置與產能以順應這一趨勢。因此,整個產業鏈生態均將持續受益,包括機械鑽孔機、雷射鑽孔機供應商及鑽頭供應商。受此影響,PCB 企業 2026 年資本支出計畫積極,產能輸出有望提升:臻鼎科技(ZDT)預計 2026 年資本支出約為 500 億新台幣(同比增長 60%-70%);我們估算,截至 2026 年末,金像電子(GCE)月產能輸出同比增幅約為 40%。受訪企業的資本支出回報率介於每 1 新台幣資本支出對應 1.5-2.5 新台幣營收之間。供應商陣營持續擴大,終端客戶正認證更多 PCB 供應商:這使得供應鏈份額分配趨於複雜 —— 多家 PCB 廠商同時參與同一項目的認證,但我們認為這並不必然轉化為實質性訂單。客戶擴大供應商陣營旨在提升供應鏈靈活性,但最終仍將主要向核心一級(T1)供應商採購。因此,儘管 2026 年暫無產能過剩風險,但投資者需警惕相關潛在風險。當前泰國生產成本高於中國內地,但略低於台灣:短期內,中國內地仍將是 PCB 主要生產基地,得益於其更低的成本結構。但隨著泰國產能與良率持續爬坡,其成本結構存在最佳化空間,進而推動泰國 PCB 產值增長。成本方面,目前泰國 PCB 生產成本平均比中國內地高約 20%,但略低於台灣。成本差異主要源於泰國進口材料的物流成本更高、裝置物流及安裝成本增加,不過泰國生產線操作人員薪資更低(儘管生產效率相對較低)。儘管泰國生產成本較高,但仍有客戶為實現供應鏈多元化,明確要求在泰國生產 PCB 產品。其他核心要點臻鼎科技(4958.TW)資本支出:2026 年資本支出計畫從 300 億新台幣上調至 500 億新台幣,其中 60% 以上將用於剛性 PCB(HDI/HLC)及基板產能擴張,剩餘部分用於柔性 PCB(FPCB)。AI 產品佔比:目前臻鼎科技 AI 伺服器營收佔比(不含邊緣 AI 產品)約為中個位數百分比,目標 2026 年提升至高位個位數百分比。改良型半加成法(mSAP):臻鼎科技認為,其是泰國唯一一家正在擴充 mSAP 產能的 PCB 供應商。該產能將僅用於 800G 及以上光模組(需採用類基板 PCB(SLP))。泰國園區規劃:泰國園區總計可容納 7 座工廠:1 號工廠:已實現 HLC 及伺服器 / 光模組用 mSAP 量產,是園區首座量產工廠。2 號工廠(mSAP/HDI):目前處於建設中,計畫 2027 年初進入試產階段,同樣聚焦伺服器 / 光模組產品。3 號工廠(FPCB/FPCBA):處於建設中,計畫 2027 年二季度試產,專注消費電子領域。5 號工廠:2026 年啟動建設,預計 2028 年量產。6 號工廠(HLC):處於建設中,計畫 2026 年四季度試產,用於伺服器應用產品。7 號工廠:2026 年啟動建設,預計 2028 年量產。8 號工廠(鑽孔中心):處於建設中,計畫 2027 年一季度試產。管理層預計,五年內泰國園區產能將佔公司總產能的 15%-20%。裝置:管理層表示,核心 PCB 裝置的交付周期較以往更長,但公司已提前下單,並憑藉與裝置供應商的長期緊密合作關係,鑽孔機採購不存在問題。CoWoP 技術:相關產品仍處於研發階段,量產時間尚未確定,但臻鼎科技表示,一旦客戶有需求,公司將做好充分準備。金像電子(2368.TW)2025 年四季度產品結構:受產品轉型影響,AI 產品佔比環比下降,但網路需求增長強勁,尤其是 400G/800G 網路 PCB。產品轉型:2025 年四季度,Trainium 伺服器 PCB 進入轉型階段,但 Trn3 產品將於 2026 年二季度在金像電子啟動量產。2026 年一季度,高端網路(400G/800G)產品將抵消部分 AI 產品轉型帶來的影響 —— 目前 100G+400G+800G 網路 PCB 出貨量佔金像電子網路 PCB 總出貨量的約 70%,其中大部分為 400G+800G 產品。泰國工廠:金像電子泰國 1-1 工廠(一期)具備 AI 伺服器板生產能力,且已通過主要 AI 雲客戶認證。2025 年四季度該工廠仍處於虧損狀態,但預計 2026 年將實現盈利。產能情況:台灣:目前月產值為 16 億新台幣,預計 2026 年二季度出貨量實現雙位數增長,三季度環比再實現雙位數增長(不含從 CMC Magnetics 收購的新工廠,該工廠計畫 2028 年量產)。泰國:1-1 工廠目前產能滿載,月產值為 3 億新台幣。2026 年二季度產能可能加速釋放,下半年進一步爬坡,截至 2026 年末,總出貨量預計較 2025 年末增長 4-5 倍。2 號工廠可能於 2027 年末或 2028 年初量產。蘇州:2026 年計畫通過新增裝置、消除產能瓶頸的方式擴充產能。常熟:C1 與 C2 工廠預計 2026 年下半年通過新增裝置及消除瓶頸,進一步提升產能。行業其他相關洞察泰國生產基地新建工廠通常需要 4-5 個季度才能產生實際營收。所有新產能均將包含 HDI 與 HLC 產能,以滿足客戶對 “混合式” 設計的需求。泰國營運成本比中國內地高 20%-25%,但可完全轉嫁至客戶。管理層認為,一旦產能完全爬坡,泰國工廠的毛利率將與中國內地工廠持平。AI 相關產品每一代新產品的平均售價(ASP)均實現數倍增長。管理層認為,客戶下一代產品的 ASP 增長將主要源於:① 材料規格升級;② 材料加工難度提升;③ 採用尚未量產的特殊製造工藝;④ PCB 層數增加及 HDI 工序更複雜。對部分客戶而言,HLC 與 HDI 的界限日益模糊 —— 部分設計為混合式(HLC 與 HDI 結合),且需要特殊製造技術處理。公司預計,下一代 AI 伺服器 PCB 將有更多項目採用 HDI 技術或混合式設計,相關產品可能於 2027 年啟動量產。市場份額PCB 製造裝置交付周期延長及高端材料供應短缺,可能對新進入者或小型供應商構成不利影響。不過,客戶為最佳化供應鏈管理,仍傾向於採用雙源或多源採購策略,因此可能仍會認證部分新供應商。CoWoP 技術該設計目前仍處於研發階段,具體應用時間尚未確定)。生產 CoWoP 用 SLP 的主要挑戰在於精密鑽孔直徑及縮小的線寬 / 線距(L/S)。其製造工藝及所需裝置與消費電子用 SLP 存在巨大差異,因此投資強度更高,需配備更精密的裝置。材料供應南亞新材(2383.TW)仍是 M8 + 覆銅板的領先供應商,其次為斗山(000150.KS)、生益科技(600183.SS)、台光電子(TUC,6274.TW)及聯茂電子(ITEQ,6213.TW)。南亞新材仍是 M9 覆銅板的頂級供應商,但生益科技正逐步追趕。管理層表示,尚未發現 AI 相關 PCB 存在材料規格降級的情況。 (大行投研)
黃仁勳徹底不裝了!一口氣亮出6顆全新晶片,馬斯克都看呆了!
被逼急的黃仁勳徹底不裝了。在 2026 年科技春晚 CES 的舞台上,這位身著標誌性黑色皮衣的男人,一句 “我們打破了自己的規則”,讓全場陷入沉默。沒有預告,沒有鋪墊。輝達突然亮出下一代 AI 計算平台 Vera Rubin,一口氣推出 6 顆全新架構晶片,點名 DeepSeek,更宣佈全端自動駕駛系統即將量產。現場觀眾倒吸涼氣,連馬斯克都驚嘆:“這不是升級,這是 AI 的火箭引擎。”一個月前,黃仁勳還在播客中坦白自己因害怕破產常年焦慮,此刻卻用顛覆性發佈,讓全球科技巨頭徹夜難眠。過去 20 年,輝達有個鐵律:每次產品迭代最多更 1-2 顆晶片。重新設計晶片的成本與風險,足以壓垮任何科技公司。但這一次,黃仁勳直接 “拆家”——6 顆晶片全部從頭設計、全線重構,而非簡單迭代,甚至跳過三個月後的 GTC 大會,在 CES 直接亮底牌。這 6 顆晶片整合為 Rubin 超級系統,視覺簡潔,性能卻恐怖:算力提升 5 倍,AI 推理 token 成本降至前代十分之一,能耗效率翻 3 番。這款平台已全面投產,2026 年下半年將由合作夥伴推出,微軟、OpenAI 等巨頭已宣佈率先部署。黃仁勳這一拳,是 63 歲 CEO 的孤注一擲。背後的危機感,源於 AI 行業的激烈變局。AI 模型規模年增 10 倍,生成 token 數量年增 5 倍,算力胃口瘋狂擴張,晶片進化卻逐漸掉隊。黃仁勳本以為 AI 時代是輝達的永恆主場,現實卻狠狠打臉。一方面,中國玩家不再甘當使用者,華為昇騰、寒武紀、百度崑崙芯紛紛自研 AI 晶片,比亞迪等車企也建起專屬 AI 訓練中心。黃仁勳多次提醒西方,不要低估東方衝擊。另一方面,昔日盟友變對手。Google、亞馬遜、微軟加速自研晶片替代輝達,2025 年 11 月 Meta 考慮大規模採用Google TPU 的消息,讓輝達股價單日暴跌 8%,數千億美元市值蒸發。黃仁勳明白,不拿出身家性命級的硬貨,護城河 2026 年就會被填平。聖誕節前夕,他砸 200 億美元收購 AI 獨角獸 Groq,金額是其三個月前估值的三倍,要的就是反擊利刃。AMD 的追擊更讓競爭白熱化。輝達發佈會後 2.5 小時,蘇姿丰帶著新品正面硬剛,“蘇黃之爭” 讓市場硝煙四起。90 分鐘演講,黃仁勳全程站立無停頓。他更宣佈佈局八年的成果:“物理 AI 的 ChatGPT 時刻已經到來。”過去的 AI 只活在螢幕裡,懂文字卻不認識螺絲刀。而物理 AI 要讓智能 “越獄”,走進真實世界理解重力、摩擦、慣性等基本常識。發佈會上的視訊讓全場屏息:一輛奔馳 CLA 在舊金山街頭自主穿行,無預設路線、無高精地圖,卻能觀察行人眼神、判斷圍擋是否可繞行,還會禮讓突沖路人。這套自動駕駛生態 2026 年一季度就量產上車。這標誌著輝達徹底告別 “賣鏟人” 身份。從前只賣 GPU,如今從晶片、演算法到整車方案全包圓。那句 “打破自己的規則” 背後,藏著後半句:“也打破你們的規則。”這場變革是技術與生存的雙重博弈。輝達用 Rubin 重構算力規則,用物理 AI 改寫智能邊界,用全端佈局重塑競爭邏輯。63 歲的黃仁勳帶著輝達孤注一擲,用打破一切的勇氣,開啟了 AI 從虛擬走向現實的全新時代。 (科技直擊)
百兆規模!輝達最新Rubin平台AI計算架構及產業鏈深度剖析!2026
前言:AI算力產業的時代拐點與Rubin平台的戰略意義1.1 全球AI算力產業發展現狀與趨勢進入2026年,全球人工智慧產業已從技術探索期邁入規模化應用的關鍵階段,而算力作為AI產業的核心基礎設施,正迎來爆發式增長的黃金周期。根據IDC最新發佈的《全球人工智慧算力發展白皮書》資料顯示,2025年全球AI算力市場規模已突破60兆元,預計到2026年底將達到120兆元,正式邁入百兆規模時代。這一增長背後,一方面是大模型參數規模持續擴大,從千億級向兆級跨越,對算力的需求呈指數級增長;另一方面,AI應用場景從網際網路領域向金融、醫療、製造、自動駕駛等傳統行業深度滲透,催生了多元化的算力需求。在這一產業背景下,算力供給能力成為制約AI產業發展的核心瓶頸。傳統計算架構由於存在資料傳輸延遲高、能效比低、協同調度能力弱等問題,已難以滿足新一代AI任務的需求。行業迫切需要一款具備高性能、低成本、高可靠性的一體化計算平台,來破解算力供給難題,推動AI應用的規模化普及。輝達作為全球AI算力領域的領軍企業,此前推出的Blackwell平台已在全球範圍內獲得廣泛應用,而2026年1月6日在CES 2026展會上正式推出並宣佈全面量產的Rubin平台,憑藉其顛覆性的架構設計和性能突破,被業內視為開啟百兆級AI算力時代的關鍵引擎。1.2 Rubin平台的推出背景與戰略定位輝達CEO黃仁勳在Rubin平台發佈會上強調:“AI計算正從少數巨頭的專屬資源走向全民普惠,Rubin平台的使命就是通過技術創新,大幅降低AI算力的使用成本,讓每一家企業、每一個科研機構都能享受到頂尖AI算力帶來的創新紅利。” 這一定位背後,是輝達對AI產業發展趨勢的深刻洞察。從產業競爭格局來看,隨著亞馬遜、Google、微軟等雲廠商加速佈局自研AI晶片,以及寒武紀、壁仞科技等國內企業的崛起,全球AI算力市場的競爭日趨激烈。輝達需要通過持續的技術迭代,鞏固其在高端AI算力領域的領先地位。從技術發展邏輯來看,此前的Blackwell平台雖然實現了算力的大幅提升,但在MoE(混合專家模型)訓練效率、推理成本控制等方面仍有最佳化空間。Rubin平台正是在這一背景下應運而生,通過6款全新晶片的協同設計,實現了性能與成本的雙重突破,旨在進一步擴大輝達在AI算力領域的市場份額,推動全球AI產業進入規模化普及階段。結合華安證券2026年1月12日發佈的行業周報資料顯示,Rubin平台推出後,全球四大雲巨頭亞馬遜AWS、Google雲、微軟Azure和甲骨文雲已確認將於2026年率先部署基於Vera Rubin的實例,CoreWeave、Lambda等專業AI算力服務廠商也將同步跟進。這一市場反響充分印證了Rubin平台的行業認可度,也預示著其將在全球AI算力市場中佔據重要地位。一、深度拆解輝達Rubin平台AI計算架構與核心技術2.1 Rubin平台整體架構設計:一體化協同計算的創新突破與傳統計算平台“晶片堆疊”的設計思路不同,Rubin平台採用了“全端協同最佳化”的架構理念,由6款全新晶片組成一個有機的整體,分別承擔計算、互連、儲存、網路等核心功能,通過深度協同實現了整體性能的躍升。Rubin平台由6款全新晶片組成:Vera CPU、Rubin GPU、NVLink6交換機、ConnectX-9SuperNIC、BlueField-4DPU及Spectrum-6乙太網路交換機,協同設計整合為AI超級電腦,可以大幅縮短AI訓練時間並降低推理Token生成成本。Rubin平台五項關鍵技術深度融合,實現性能提升和成本降低雙重突破:1)新一代NVLink互連技術建構起高速資料傳輸通道,確保多晶片協同工作時的低延遲與高頻寬;2)第三代Transformer引擎針對AI任務最佳化,大幅提升模型訓練與推理效率;3)機密計算技術為敏感AI資料提供全流程安全防護,滿足金融、醫療等行業的合規需求;4)RAS引擎(可靠性、可用性與可維護性引擎)保障平台在7x24小時高負載運行下的穩定表現;5)專為代理推理設計的Vera CPU。從架構邏輯來看,Rubin平台建構了“三層協同架構”:底層為硬體基礎層,由6款核心晶片組成,負責提供基礎的計算、儲存和網路資源;中間層為協同調度層,通過輝達自研的CUDA-X AI軟體棧,實現對各硬體資源的高效調度和協同工作;頂層為應用適配層,針對不同的AI應用場景,提供專用的演算法庫和工具集,確保平台能夠快速適配各類AI任務。這種架構設計的核心優勢在於,打破了傳統硬體之間的“資料孤島”,實現了資料在各元件之間的高效流轉,大幅提升了整體計算效率。根據輝達公佈的官方資料,Rubin平台的訓練性能達到前代Blackwell平台的3.5倍,運行軟體性能提升5倍,推理每Token生成成本相比Blackwell平台可降低10倍,且在訓練MoE模型時所需的GPU數量減少至原來的四分之一。這些性能指標的提升,正是得益於其一體化協同架構的創新設計。2.2 核心元件解析:各晶片的功能定位與技術優勢2.2.1 Rubin GPU:AI計算的核心引擎Rubin GPU是整個平台的核心計算元件,專為新一代AI任務進行了深度最佳化。該GPU採用了輝達最新的Ada Lovelace-Next架構,搭載了第三代Transformer引擎,能夠大幅提升大模型訓練和推理的效率。與Blackwell GPU相比,Rubin GPU的CUDA核心數量增加了50%,張量核心性能提升了70%,在處理FP16、BF16等高精度計算任務時,表現出更為卓越的性能。值得注意的是,Rubin GPU針對MoE模型進行了專門的硬體最佳化。MoE模型作為當前大模型發展的主流方向,通過將模型分為多個“專家”模組,僅在處理特定任務時啟動部分專家,能夠在提升模型性能的同時,降低計算成本。但傳統GPU在處理MoE模型時,存在專家調度效率低、資料傳輸延遲高等問題。Rubin GPU通過引入專用的MoE調度單元,實現了專家模組的快速啟動和切換,將MoE模型的訓練效率提升了3倍以上,這也是其訓練MoE模型所需GPU數量大幅減少的關鍵原因。2.2.2 Vera CPU:專為代理推理設計的高效處理器Vera CPU是輝達首款專為AI代理推理設計的CPU,打破了傳統CPU在AI計算中“輔助角色”的定位,成為AI任務的核心處理器之一。隨著AI代理技術的發展,AI系統需要具備更強的自主決策和任務調度能力,這對CPU的平行處理能力、低延遲響應能力提出了更高的要求。Vera CPU採用了ARM架構,擁有64個核心,支援超線程技術,最大快取容量達到256MB。與傳統x86 CPU相比,Vera CPU的能效比提升了2倍,在處理多工平行推理時,延遲降低了30%以上。此外,Vera CPU還整合了專用的AI加速單元,能夠直接處理部分輕量級的AI推理任務,減少了對GPU的依賴,進一步提升了整個平台的協同計算效率。2.2.3 NVLink 6交換機:高速互連的“資料高速公路”在大規模AI計算中,多晶片之間的資料傳輸效率是制約整體性能的關鍵因素。Rubin平台搭載的NVLink 6交換機,是輝達新一代的高速互連技術,實現了晶片之間的低延遲、高頻寬資料傳輸。根據官方資料,NVLink 6的單鏈路頻寬達到1.6TB/s,是上一代NVLink 5的2倍,單個交換機最多可連接32個GPU,形成一個高速互連的計算叢集。NVLink 6採用了全新的互連協議,支援自適應路由和錯誤恢復功能,能夠在保證資料傳輸速度的同時,提升傳輸的可靠性。此外,NVLink 6還實現了與PCIe 5.0的相容,能夠與傳統的儲存和網路裝置進行高效對接,進一步擴大了平台的相容性和應用範圍。通過NVLink 6交換機,Rubin平台建構了一個高效的“資料高速公路”,確保了多晶片協同工作時的資料流暢通,為大規模平行計算提供了堅實的支撐。2.2.4 ConnectX-9 SuperNIC:智能網路的核心元件ConnectX-9 SuperNIC是一款高性能的智能網路介面卡,專為AI計算場景進行了最佳化。該網路卡支援200Gb/s的乙太網路速率,整合了專用的AI加速引擎,能夠對網路資料進行即時的處理和分析,減少了CPU和GPU的網路處理負擔。在AI訓練場景中,大量的資料需要在計算節點之間進行傳輸和同步,ConnectX-9 SuperNIC通過支援RDMA(遠端直接記憶體訪問)技術,實現了資料在不同節點記憶體之間的直接傳輸,無需經過CPU的中轉,將資料傳輸延遲降低了50%以上。此外,該網路卡還支援網路虛擬化技術,能夠將物理網路資源劃分為多個虛擬網路,為不同的AI任務提供隔離的網路環境,提升了網路資源的利用率和安全性。2.2.5 BlueField-4 DPU:資料處理的“專用引擎”BlueField-4 DPU(資料處理單元)是Rubin平台中負責資料儲存和處理的核心元件,能夠承擔傳統CPU的部分資料處理任務,提升整體計算效率。該DPU整合了ARM架構的處理器核心和專用的資料處理引擎,支援對儲存資料的即時加密、壓縮和格式轉換,能夠大幅提升資料處理的效率。在AI計算場景中,大量的訓練資料需要從儲存裝置中讀取並進行預處理,這一過程往往會佔用大量的CPU資源。BlueField-4 DPU通過將資料預處理任務從CPU解除安裝到DPU,能夠將CPU的佔用率降低40%以上,讓CPU能夠專注於核心的計算任務。此外,BlueField-4 DPU還支援儲存虛擬化技術,能夠對不同類型的儲存裝置進行統一管理,提升了儲存資源的利用率和可擴展性。2.2.6 Spectrum-6乙太網路交換機:高速網路的“骨幹支撐”Spectrum-6乙太網路交換機是Rubin平台的網路骨幹元件,支援100Gb/s和200Gb/s的乙太網路速率,能夠為大規模的AI計算叢集提供高速、穩定的網路連線。該交換機採用了全新的晶片架構,支援高密度連接埠設計,單個交換機最多可提供64個200Gb/s連接埠,能夠滿足大規模計算叢集的網路需求。Spectrum-6乙太網路交換機還支援先進的流量控制技術,能夠根據不同AI任務的網路需求,動態調整網路頻寬分配,確保關鍵任務的網路資源供應。此外,該交換機還整合了網路安全功能,支援對網路流量的即時監控和威脅檢測,能夠有效防範網路攻擊,保障AI計算叢集的網路安全。2.3 五大關鍵技術:Rubin平台性能突破的核心驅動力Rubin平台之所以能夠實現性能與成本的雙重突破,關鍵在於五大核心技術的深度融合。這五大技術相互協同,共同建構了Rubin平台的技術壁壘。2.3.1 新一代NVLink互連技術:打破資料傳輸瓶頸如前文所述,新一代NVLink互連技術是Rubin平台的核心技術之一。該技術通過提升資料傳輸頻寬和降低延遲,實現了多晶片之間的高效協同。與上一代技術相比,NVLink 6不僅在硬體性能上實現了躍升,還通過軟體層面的最佳化,實現了對多晶片叢集的高效管理。例如,輝達推出的NVLink Fabric Manager軟體,能夠即時監控多晶片之間的資料傳輸狀態,動態調整傳輸路徑,確保資料傳輸的高效和穩定。在實際應用場景中,新一代NVLink互連技術的優勢尤為明顯。以訓練千億參數的大模型為例,採用NVLink 6互連技術的Rubin平台,能夠將資料同步時間縮短60%以上,大幅提升了訓練效率。同時,由於資料傳輸延遲的降低,平台能夠支援更大規模的晶片叢集,進一步提升了整體計算能力。2.3.2 第三代Transformer引擎:AI任務的高效加速器第三代Transformer引擎是Rubin GPU的核心技術,專為Transformer架構的AI模型進行了深度最佳化。Transformer架構是當前大模型的主流架構,廣泛應用於自然語言處理、電腦視覺等領域。第三代Transformer引擎通過硬體層面的創新,實現了對Transformer模型中關鍵運算的加速。具體來看,第三代Transformer引擎最佳化了矩陣乘法和softmax運算的硬體實現方式,將這兩種運算的效率提升了50%以上。同時,該引擎還支援混合精度計算,能夠在保證計算精度的前提下,採用更低精度的資料格式進行運算,進一步提升了計算效率和能效比。在處理自然語言處理任務時,採用第三代Transformer引擎的Rubin GPU,能夠將推理速度提升3倍以上,推理成本降低70%以上。2.3.3 機密計算技術:敏感資料的全流程安全防護隨著AI應用在金融、醫療等敏感行業的滲透,資料安全問題日益凸顯。Rubin平台搭載的機密計算技術,能夠為敏感AI資料提供全流程的安全防護,滿足行業合規需求。該技術基於硬體層面的加密機制,能夠在資料儲存、傳輸和計算過程中進行即時加密,確保資料不被洩露或篡改。具體來說,機密計算技術通過建構“可信執行環境”(TEE),將AI任務的計算過程限制在安全的硬體區域內。在可信執行環境中,資料和程式碼均以加密形式存在,只有經過授權的程序才能訪問。同時,該技術還支援遠端認證功能,能夠確保計算節點的硬體和軟體環境的安全性。在金融行業的AI風控場景中,機密計算技術能夠有效保護使用者的金融資料安全,避免資料洩露帶來的風險;在醫療行業的AI診斷場景中,該技術能夠保護患者的隱私資料,符合醫療資料安全的相關法規。2.3.4 RAS引擎:高負載運行下的穩定保障RAS引擎(可靠性、可用性與可維護性引擎)是Rubin平台保障穩定運行的核心技術。AI計算任務往往需要長時間的高負載運行,對平台的穩定性提出了極高的要求。RAS引擎通過硬體層面的故障檢測、錯誤糾正和冗餘設計,能夠有效提昇平台的可靠性和可用性。具體來看,RAS引擎能夠即時監控平台各元件的運行狀態,包括CPU、GPU的溫度、電壓、負載等參數,一旦發現異常,能夠及時發出告警並採取相應的措施。例如,當某個GPU出現故障時,RAS引擎能夠自動將該GPU上的任務遷移到其他正常的GPU上,確保任務的持續運行。同時,該引擎還支援錯誤糾正碼(ECC)技術,能夠自動檢測並糾正記憶體中的資料錯誤,提升資料儲存的可靠性。通過RAS引擎,Rubin平台能夠實現7x24小時的高負載穩定運行,滿足大規模AI計算任務的需求。2.3.5 代理推理專用最佳化技術:AI代理的高效支撐隨著AI代理技術的發展,AI系統需要具備更強的自主決策和任務執行能力。Rubin平台通過Vera CPU和專用的代理推理最佳化技術,為AI代理的高效運行提供了堅實的支撐。該技術能夠最佳化AI代理的任務調度邏輯,提升代理的決策效率和響應速度。具體來說,代理推理專用最佳化技術通過建構專用的任務調度模型,能夠根據任務的優先順序和資源需求,動態分配計算、儲存和網路資源。同時,該技術還支援多代理協同工作,能夠實現多個AI代理之間的高效通訊和協作。在智能客服場景中,採用該技術的AI代理能夠快速響應使用者的需求,精準處理使用者的問題;在自動駕駛場景中,AI代理能夠即時分析路況,做出快速、精準的決策,保障行駛安全。2.4 Rubin平台與前代平台及競品的對比分析為了更清晰地展現Rubin平台的優勢,我們將其與輝達前代Blackwell平台以及市場上的主要競品進行對比分析。2.4.1 與Blackwell平台的對比從性能指標來看,Rubin平台的訓練性能達到Blackwell平台的3.5倍,運行軟體性能提升5倍,推理每Token生成成本降低10倍。在核心技術方面,Rubin平台採用了新一代的NVLink 6互連技術、第三代Transformer引擎等,而Blackwell平台採用的是NVLink 5互連技術和第二代Transformer引擎。此外,Rubin平台新增了專為代理推理設計的Vera CPU,進一步拓展了平台的應用場景。從應用場景來看,Blackwell平台主要面向大規模大模型訓練場景,而Rubin平台不僅在大模型訓練方面表現更優,還在推理場景和AI代理場景中具備顯著優勢。例如,在推理場景中,Rubin平台的低成本優勢能夠推動AI應用的規模化普及;在AI代理場景中,Vera CPU的加入能夠提升AI代理的運行效率。2.4.2 與市場主要競品的對比當前市場上的主要競品包括亞馬遜的Trainium晶片、Google的TPU v5、寒武紀的思元590等。與這些競品相比,Rubin平台具有以下優勢:一是性能優勢。Rubin平台的訓練性能和推理效率均領先於市場上的主要競品。例如,與GoogleTPU v5相比,Rubin平台的訓練性能提升2.8倍,推理效率提升3.2倍。二是架構優勢。Rubin平台採用了一體化協同架構,由6款核心晶片協同工作,而競品大多採用單一晶片或簡單的晶片堆疊設計,協同效率較低。三是生態優勢。輝達擁有完善的CUDA-X AI軟體生態,能夠為Rubin平台提供豐富的演算法庫和工具集,而競品的軟體生態相對薄弱,難以滿足多樣化的AI應用需求。四是成本優勢。Rubin平台通過技術創新,大幅降低了推理成本,相比競品,其推理每Token生成成本降低了50%以上。當然,Rubin平台也存在一定的挑戰。例如,其硬體成本相對較高,對於中小企業來說,初期投入較大;此外,平台的部分技術處於領先地位,相關的人才儲備相對不足,可能會影響平台的推廣和應用。二、全產業鏈解析Rubin平台帶動的百兆AI算力生態Rubin平台的推出,不僅自身具備強大的性能優勢,還將帶動整個AI算力產業鏈的發展。AI算力產業鏈涵蓋上游核心硬體、中游算力服務、下游應用場景等多個環節,Rubin平台將通過技術溢出效應,為產業鏈各環節帶來新的發展機遇。3.1 上游核心硬體環節:晶片、零部件與材料的機遇上游核心硬體環節是AI算力產業鏈的基礎,主要包括晶片設計、晶圓製造、封裝測試、零部件(如光模組、PCB、散熱器等)和材料(如光刻膠、靶材等)。Rubin平台的大規模量產,將大幅拉動上游核心硬體的需求。3.1.1 晶片設計與製造Rubin平台的6款核心晶片均由輝達自主設計,採用台積電的先進製程工藝(3nm製程)。隨著Rubin平台的大規模量產,台積電的3nm產能將得到充分釋放,同時也將帶動相關晶片設計工具廠商的發展。例如,Synopsys、Cadence等晶片設計EDA工具廠商,將為輝達的晶片設計提供技術支撐。此外,國內的晶片設計廠商也將受益於Rubin平台的技術溢出效應,通過學習和借鑑輝達的晶片設計理念,提升自身的技術水平。3.1.2 封裝測試Rubin平台的晶片採用了先進的CoWoS封裝技術,這種封裝技術能夠實現晶片的高密度整合,提升晶片的性能和可靠性。隨著Rubin平台的量產,CoWoS封裝的需求將大幅增長,帶動封裝測試廠商的發展。例如,日月光、ASE、長電科技等封裝測試廠商,將為Rubin平台的晶片提供封裝測試服務。此外,封裝測試所需的相關裝置和材料,如封裝基板、鍵合絲等,也將迎來新的發展機遇。3.1.3 零部件Rubin平台的大規模部署,將帶動光模組、PCB、散熱器等零部件的需求。光模組方面,Rubin平台的ConnectX-9 SuperNIC和Spectrum-6乙太網路交換機均需要高速光模組的支撐,200Gb/s及以上速率的光模組需求將大幅增長,受益廠商包括中際旭創、新易盛、天孚通訊等。PCB方面,由於Rubin平台的晶片整合度高,對PCB的性能要求也更高,高多層、高密度的PCB需求將增加,受益廠商包括深南電路、滬電股份、生益科技等。散熱器方面,Rubin平台的高負載運行需要高效的散熱解決方案,液冷散熱器的需求將增長,受益廠商包括曙光數創、高瀾股份、英維克等。3.1.4 材料晶片製造和封裝測試所需的材料,如光刻膠、靶材、拋光液等,也將隨著Rubin平台的量產而需求增長。光刻膠方面,台積電3nm製程需要使用先進的EUV光刻膠,受益廠商包括東京應化、信越化學、南大光電等。靶材方面,晶片製造所需的銅靶、鋁靶、鈦靶等需求將增加,受益廠商包括江豐電子、有研新材、阿石創等。拋光液方面,晶片製造過程中的晶圓拋光需要使用高性能的拋光液,受益廠商包括安集科技、鼎龍股份等。3.2中游算力服務環節雲廠商與算力租賃的爆發中游算力服務環節是連接上游硬體和下游應用的橋樑,主要包括雲廠商的算力實例服務、專業算力租賃服務、算力調度平台等。Rubin平台的推出,將為中游算力服務環節帶來新的發展機遇。3.2.1 雲廠商的算力實例服務如華安證券行業周報所述,亞馬遜AWS、Google雲、微軟Azure和甲骨文雲四大雲巨頭已確認將於2026年率先部署基於Vera Rubin的實例。這些雲廠商將通過Rubin平台的高性能和低成本優勢,推出更具競爭力的算力服務產品。例如,亞馬遜AWS可能會推出基於Rubin平台的P4d實例,針對大規模大模型訓練和推理場景;微軟Azure可能會推出NDm v5實例,滿足企業客戶的AI算力需求。隨著雲廠商部署基於Rubin平台的算力實例,企業客戶將能夠以更低的成本獲取頂尖的AI算力,這將進一步推動AI應用的規模化普及。同時,雲廠商的算力服務收入也將迎來大幅增長,根據摩根士丹利的預測,2026年全球雲廠商的AI算力服務收入將達到30兆元,其中基於Rubin平台的算力服務收入將佔比超過40%。3.2.2 專業算力租賃服務除了雲廠商,CoreWeave、Lambda、Nebius和Nscale等專業AI算力租賃廠商也將跟進部署Rubin平台。這些專業廠商主要面向AI創業公司、中小企業和科研機構,為其提供靈活的算力租賃服務。與雲廠商相比,專業算力租賃廠商的服務更加專注於AI場景,能夠提供更個性化的解決方案。Rubin平台的低成本優勢將使專業算力租賃廠商能夠降低服務價格,吸引更多的客戶。例如,CoreWeave可能會推出基於Rubin平台的算力租賃套餐,價格相比基於Blackwell平台的套餐降低50%以上。這將為AI創業公司和中小企業提供更多的創新機會,推動AI技術的創新和應用。3.2.3 算力調度平台隨著AI算力需求的增長,算力調度平台的重要性日益凸顯。算力調度平台能夠實現對分散算力資源的整合和調度,提升算力資源的利用率。Rubin平台的推出,將對算力調度平台提出更高的要求,同時也將推動算力調度平台的發展。國內的算力調度平台廠商如平行科技、優刻得等,將需要針對Rubin平台的特性進行技術最佳化,實現對基於Rubin平台的算力資源的高效調度。同時,算力調度平台還將與雲廠商和專業算力租賃廠商合作,建構多元化的算力資源池,為客戶提供一站式的算力服務。3.3 下游應用場景環節AI應用的規模化普及下游應用場景環節是AI算力產業鏈的終端,涵蓋網際網路、金融、醫療、製造、自動駕駛、教育、環保等多個領域。Rubin平台通過降低算力成本,將推動這些領域AI應用的規模化普及。3.3.1 網際網路領域:大模型應用的深化網際網路領域是AI應用的先行領域,也是算力需求的主要來源之一。Rubin平台的推出,將推動網際網路領域大模型應用的深化。例如,在自然語言處理領域,基於Rubin平台的大模型能夠實現更精準的語音識別、機器翻譯、文字生成等功能;在電腦視覺領域,大模型能夠實現更高效的圖像識別、視訊分析、目標檢測等功能。國內的網際網路企業如百度、阿里、騰訊等,將利用Rubin平台的算力優勢,進一步提升其大模型的性能和應用體驗。例如,百度的文心一言大模型可能會基於Rubin平台進行訓練和推理,提升模型的響應速度和生成質量;阿里的通義千問大模型可能會拓展更多的應用場景,如智能辦公、智能創作等。3.3.2 金融領域:智能風控與個性化服務的升級金融領域是AI應用的重要場景,Rubin平台的機密計算技術能夠滿足金融領域的資料安全需求,推動智能風控、個性化服務等應用的升級。在智能風控場景中,基於Rubin平台的AI模型能夠即時分析使用者的交易資料,精準識別風險交易,降低金融機構的風險損失;在個性化服務場景中,AI模型能夠根據使用者的需求和偏好,提供個性化的金融產品推薦和服務。國內的金融IT企業如同花順、恆生電子、東方財富等,將受益於Rubin平台的推出。例如,同花順可能會基於Rubin平台最佳化其智能投顧產品,提升產品的精準度和使用者體驗;恆生電子可能會推出基於Rubin平台的智能風控解決方案,為金融機構提供更高效的風險防控服務。3.3.3 醫療領域:AI診斷與藥物研發的突破醫療領域的AI應用能夠提升醫療服務的效率和質量,Rubin平台的高性能和低成本優勢將推動醫療領域AI應用的突破。在AI診斷場景中,基於Rubin平台的AI模型能夠快速分析醫學影像,精準識別疾病,輔助醫生做出診斷;在藥物研發場景中,AI模型能夠模擬藥物分子的相互作用,縮短藥物研發周期,降低研發成本。國內的醫療AI企業如推想科技、鷹瞳科技、藥明康德等,將利用Rubin平台的算力優勢,提升其產品的性能和競爭力。例如,推想科技的肺部AI診斷產品可能會基於Rubin平台進行最佳化,提升診斷的精準率和速度;藥明康德可能會利用Rubin平台加速藥物研發處理程序,推出更多的創新藥物。3.3.4 製造領域:工業質檢與智能生產的普及製造領域的AI應用能夠提升生產效率和產品質量,Rubin平台的推出將推動工業質檢、智能生產等應用的普及。在工業質檢場景中,基於Rubin平台的AI模型能夠即時檢測產品的缺陷,提高質檢的效率和精準率;在智能生產場景中,AI模型能夠最佳化生產流程,實現生產資源的合理配置。國內的工業軟體企業如用友網路、鼎捷數智、賽意資訊等,將受益於Rubin平台的推出。例如,用友網路可能會基於Rubin平台最佳化其工業網際網路平台,為製造企業提供更高效的智能生產解決方案;鼎捷數智可能會推出基於Rubin平台的工業質檢產品,幫助製造企業提升產品質量。3.3.5 自動駕駛領域:高階自動駕駛的落地自動駕駛領域對算力的需求極高,Rubin平台的高性能和低延遲優勢將推動高階自動駕駛的落地。根據華安證券行業周報資訊,聯想車計算與韓國SWM合作的L4級自動駕駛計程車平台基於NVIDIA DRIVE AGX Thor晶片,而Rubin平台的推出將進一步提升自動駕駛系統的算力和效率。國內的自動駕駛企業如小鵬汽車、理想汽車、蔚來汽車等,以及自動駕駛解決方案提供商如Mobileye、小馬智行等,將利用Rubin平台的算力優勢,提升自動駕駛系統的性能。例如,小鵬汽車的XNGP自動駕駛系統可能會基於Rubin平台進行升級,實現更複雜路況下的自動駕駛;小馬智行可能會推出基於Rubin平台的L4級自動駕駛解決方案,加速自動駕駛的商業化落地。3.3.6 教育與環保領域:公益應用的拓展除了商業領域,Rubin平台還將推動AI在教育、環保等公益領域的應用拓展。在教育領域,基於Rubin平台的AI模型能夠實現個性化教學,為學生提供定製化的學習方案;在環保領域,AI模型能夠即時監測環境資料,預測環境變化,為環境保護提供決策支援。國內的教育科技企業如好未來、新東方等,可能會基於Rubin平台最佳化其線上教育產品,提升教學效果;環保科技企業如聚光科技、先河環保等,可能會利用Rubin平台的算力優勢,提升環境監測和分析的效率。三、AI應用普及分析Rubin平台驅動的產業變革4.1 AI應用普及的核心驅動力:成本降低與性能提升Rubin平台對AI應用普及的核心驅動作用,源於其在成本降低和性能提升方面的雙重突破。一方面,推理每Token生成成本相比Blackwell平台降低10倍,這將大幅降低AI應用的營運成本,使更多的企業和機構能夠負擔得起AI技術的應用;另一方面,訓練性能提升3.5倍,運行軟體性能提升5倍,這將提升AI應用的體驗和效率,拓展AI應用的場景範圍。以智能客服場景為例,此前基於Blackwell平台的AI客服系統,由於推理成本較高,僅大型企業能夠應用。Rubin平台推出後,推理成本降低10倍,中小企業也能夠部署AI客服系統,實現客戶服務的自動化。同時,性能的提升使AI客服能夠更準確地理解使用者的需求,提供更優質的服務,進一步推動智能客服的普及。再以藥物研發場景為例,傳統藥物研發周期長達10年以上,成本高達數十億美元。基於Rubin平台的AI模型能夠大幅縮短藥物研發周期,降低研發成本。例如,利用Rubin平台訓練的藥物研發模型,能夠在幾個月內完成傳統方法需要數年的藥物篩選工作,研發成本降低50%以上。這將推動更多的製藥企業採用AI技術,加速藥物研發處理程序,為人類健康帶來更多的福祉。4.2 不同行業AI應用普及的路徑與節奏由於不同行業的數位化水平、算力需求和合規要求存在差異,Rubin平台驅動的AI應用普及將呈現不同的路徑和節奏。4.2.1 網際網路行業:快速普及,深度滲透網際網路行業的數位化水平高,算力需求旺盛,且對新技術的接受度高。Rubin平台推出後,網際網路行業將成為AI應用普及的先行領域,實現快速普及和深度滲透。預計在2026年,網際網路行業的AI應用滲透率將達到80%以上,涵蓋內容推薦、智能客服、語音識別、圖像分析等多個場景。4.2.2 金融與醫療行業:穩步推進,合規優先金融和醫療行業對資料安全和合規要求較高,雖然Rubin平台的機密計算技術能夠滿足其合規需求,但由於行業特性,AI應用普及將穩步推進。預計在2026-2027年,金融行業的AI應用滲透率將達到60%以上,主要集中在智能風控、個性化服務等場景;醫療行業的AI應用滲透率將達到50%以上,主要集中在AI診斷、藥物研發等場景。4.2.3 製造與自動駕駛行業:逐步落地,場景拓展製造和自動駕駛行業的AI應用需要與實體經濟深度融合,涉及到硬體裝置的升級和流程的改造,普及節奏相對較慢。預計在2027-2028年,製造行業的AI應用滲透率將達到50%以上,主要集中在工業質檢、智能生產等場景;自動駕駛行業的L4級自動駕駛將實現規模化落地,滲透率達到30%以上。4.2.4 教育與環保行業:公益引領,逐步推廣教育和環保行業的AI應用更多地體現公益屬性,需要政府和社會的推動。預計在2028年以後,隨著算力成本的進一步降低和技術的成熟,教育和環保行業的AI應用將逐步推廣,滲透率將達到40%以上。4.3 AI應用普及帶來的社會與經濟影響Rubin平台驅動的AI應用普及,將對社會和經濟產生深遠的影響。4.3.1 經濟影響:推動產業升級,促進經濟增長AI應用的規模化普及將推動各行業的產業升級,提升生產效率和產品質量。根據麥肯錫的預測,到2030年,AI技術將為全球經濟貢獻13兆美元的價值。Rubin平台作為推動AI應用普及的關鍵引擎,將在其中發揮重要作用。例如,在製造行業,AI應用能夠提升生產效率20-30%;在金融行業,智能風控能夠降低風險損失15-20%。同時,AI應用的普及還將催生新的產業和商業模式,創造新的就業機會。例如,AI算力服務、AI諮詢服務等新興產業將迎來快速發展;AI訓練師、AI維運工程師等新職業將不斷湧現。4.3.2 社會影響:提升生活質量,促進社會進步AI應用的普及將提升人們的生活質量,為社會進步帶來新的動力。在醫療領域,AI診斷能夠提高疾病的早期診斷率,降低死亡率;在教育領域,個性化教學能夠滿足不同學生的學習需求,提升教育質量;在環保領域,AI監測能夠及時發現環境問題,推動環境保護。此外,AI應用還將推動社會治理的智能化升級。例如,在城市管理領域,AI技術能夠實現交通流量的智能調度、公共安全的即時監測,提升城市管理效率;在政務服務領域,AI技術能夠實現政務流程的簡化和最佳化,提升政務服務水平。四、國內外AI算力基礎設施及應用相關標的梳理基於前文的產業鏈分析,我們梳理了國內外AI算力基礎設施及應用相關的核心標的,涵蓋上游核心硬體、中游算力服務、下游應用場景等多個環節,為投資者提供參考。5.1 國內相關標的5.1.1 上游核心硬體環節1. 晶片設計:寒武紀(688256)、壁仞科技(未上市)、沐曦積體電路(未上市)。寒武紀是國內AI晶片設計的領軍企業,其思元系列晶片在國內市場具有較高的知名度和市場份額,能夠為國內企業提供AI算力支撐。2. 晶圓製造:中芯國際(688981)。中芯國際是國內規模最大、技術最先進的晶圓製造企業,雖然目前的製程工藝與台積電存在差距,但隨著技術的不斷進步,將逐步滿足國內部分AI晶片的製造需求。3. 封裝測試:長電科技(600584)、通富微電(002156)、華天科技(002185)。長電科技是國內封裝測試行業的龍頭企業,具備先進的CoWoS封裝技術能力,能夠為AI晶片提供封裝測試服務。4. 光模組:中際旭創(300308)、新易盛(300502)、天孚通訊(300394)。中際旭創是全球光模組行業的領軍企業,其200Gb/s及以上速率的光模組產品能夠滿足Rubin平台的網路需求。5. PCB:深南電路(002916)、滬電股份(002463)、生益科技(600183)。深南電路是國內高多層、高密度PCB的龍頭企業,能夠為AI晶片和伺服器提供高品質的PCB產品。6. 散熱器:曙光數創(872808)、高瀾股份(300499)、英維克(002837)。曙光數創是國內液冷散熱器的領軍企業,其液冷解決方案能夠滿足AI伺服器的高散熱需求。7. 材料:江豐電子(300666)、有研新材(600206)、安集科技(688019)。江豐電子是國內高純濺射靶材的龍頭企業,其產品能夠滿足晶片製造的需求。5.1.2 中游算力服務環節1. 雲廠商:阿里雲(阿里巴巴,9988.HK)、騰訊雲(騰訊控股,0700.HK)、百度智能雲(百度集團,9888.HK)。國內三大雲廠商均在積極佈局AI算力服務,將逐步部署基於Rubin平台的算力實例,為國內企業提供AI算力服務。2. 專業算力租賃:平行科技(839493)、優刻得(688158)。平行科技是國內專業的算力調度和租賃服務提供商,能夠為AI創業公司和中小企業提供靈活的算力租賃服務。3. 算力基礎設施:中科曙光(603019)、浪潮資訊(000977)、紫光股份(000938)。中科曙光是國內高性能計算領域的領軍企業,其超級電腦產品能夠為AI計算提供強大的算力支撐。5.1.3 下游應用場景環節1. 網際網路領域:百度集團(9888.HK)、阿里巴巴(9988.HK)、騰訊控股(0700.HK)。國內三大網際網路巨頭均在積極推進大模型的研發和應用,將利用Rubin平台的算力優勢,提升大模型的性能和應用體驗。2. 金融領域:同花順(300033)、恆生電子(600570)、東方財富(300059)。同花順是國內金融資訊服務領域的龍頭企業,其智能投顧產品將受益於Rubin平台的推出,提升產品的精準度和使用者體驗。3. 醫療領域:推想科技(688212)、鷹瞳科技(688297)、藥明康德(603259)。推想科技是國內醫療AI領域的領軍企業,其肺部AI診斷產品將基於Rubin平台進行最佳化,提升診斷的精準率和速度。4. 製造領域:用友網路(600588)、鼎捷數智(300378)、賽意資訊(300687)。用友網路是國內工業軟體領域的龍頭企業,其工業網際網路平台將基於Rubin平台最佳化,為製造企業提供更高效的智能生產解決方案。5. 自動駕駛領域:小鵬汽車(XPEV.US)、理想汽車(LI.US)、蔚來汽車(NIO.US)、小馬智行(未上市)。國內的自動駕駛企業將利用Rubin平台的算力優勢,提升自動駕駛系統的性能,加速高階自動駕駛的落地。6. 其他領域:金山辦公(688111)、焦點科技(002315)、阜博集團(3738.HK)。金山辦公的辦公軟體產品將融入AI功能,提升使用者的辦公效率;焦點科技的跨境電商平台將利用AI技術提昇平台的營運效率和使用者體驗。5.2 國外相關標的5.2.1 上游核心硬體環節1. 晶片設計:輝達(NVDA.US)、AMD(AMD.US)、英特爾(INTC.US)。輝達是全球AI晶片設計的領軍企業,Rubin平台的推出將進一步鞏固其市場地位;AMD和英特爾也在積極佈局AI晶片領域,與輝達形成競爭。2. 晶圓製造:台積電(TSM.US)、三星電子(SSNLF.OTCMKTS)。台積電是全球最先進的晶圓製造企業,Rubin平台的晶片採用台積電的3nm製程工藝;三星電子也在積極推進先進製程工藝的研發,與台積電形成競爭。3. 封裝測試:日月光(ASE.US)、安靠(AMKR.US)。日月光是全球封裝測試行業的龍頭企業,具備先進的CoWoS封裝技術能力,為Rubin平台的晶片提供封裝測試服務。4. 光模組:Finisar(FNSR.US)、Lumentum(LITE.US)。Finisar是全球光模組行業的領軍企業,其高速光模組產品能夠滿足Rubin平台的網路需求。5.2.2 中游算力服務環節1. 雲廠商:亞馬遜(AMZN.US)、Google(GOOGL.US)、微軟(MSFT.US)、甲骨文(ORCL.US)。全球四大雲巨頭已確認部署基於Rubin平台的算力實例,將為全球使用者提供頂尖的AI算力服務。2. 專業算力租賃:CoreWeave(未上市)、Lambda(未上市)。CoreWeave是全球專業AI算力租賃領域的領軍企業,將部署基於Rubin平台的算力資源,為客戶提供低成本的算力租賃服務。5.2.3 下游應用場景環節1. 網際網路領域:Meta(META.US)、Google(GOOGL.US)、微軟(MSFT.US)。這些網際網路巨頭均在積極推進大模型的研發和應用,將利用Rubin平台的算力優勢,提升大模型的性能和應用體驗。2. 金融領域:摩根大通(JPM.US)、高盛(GS.US)、花旗集團(C.US)。這些國際金融巨頭將利用Rubin平台的算力優勢,最佳化其智能風控和個性化服務系統。3. 醫療領域:強生(JNJ.US)、輝瑞(PFE.US)、默克(MRK.US)。這些國際製藥巨頭將利用Rubin平台加速藥物研發處理程序,推出更多的創新藥物。4. 自動駕駛領域:特斯拉(TSLA.US)、通用汽車(GM.US)、福特汽車(F.US)。這些國際汽車企業將利用Rubin平台的算力優勢,提升自動駕駛系統的性能,加速高階自動駕駛的落地。五、未來展望展望未來,Rubin平台將成為推動全球AI算力產業發展的核心引擎,帶動百兆規模AI算力生態的建構。在技術層面,輝達將持續最佳化Rubin平台的性能,推出更先進的技術和產品,進一步提昇平台的競爭力;在產業鏈層面,Rubin平台將帶動上游核心硬體、中游算力服務、下游應用場景等多個環節的協同發展,形成完善的AI算力產業生態;在應用層面,AI應用將實現規模化普及,滲透到社會經濟的各個領域,推動產業升級和社會進步。對於國內企業來說,應抓住Rubin平台帶來的發展機遇,加強技術研發,提升自身的核心競爭力。在硬體領域,加快先進製程工藝的研發,突破關鍵零部件和材料的技術瓶頸;在軟體領域,建構完善的AI軟體生態,提升對Rubin平台的適配能力;在應用領域,積極探索AI技術在各行業的應用場景,推動AI應用的規模化普及。同時,政府應加強政策支援,完善相關法律法規,為AI算力產業的發展創造良好的環境。總之,Rubin平台的推出標誌著AI算力產業進入了新的發展階段,百兆規模的AI算力生態正在加速形成。在這一過程中,企業、政府和社會各界應加強合作,共同推動AI算力產業的健康發展,為全球經濟和社會的進步做出更大的貢獻。 (AI雲原生智能算力架構)
輝達這招太狠了!次世代Rubin系統將消耗數百萬TB固態硬碟,加劇儲存短缺
光刻機都刻冒煙WCCFTech報導,花旗銀行(Citi)分析師在最新研究報告中指出,輝達在下一代代號為“Vera Rubin”的 AI 伺服器系統將對 NAND 快閃記憶體產生極其龐大的需求,這可能會進一步加劇全球固態硬碟的供應短缺。報告顯示,為了支援輝達全新的推理上下文記憶體儲存(ICMS)技術,輝達為每個機架的GPU配置約16TB NAND,每台 Vera Rubin 伺服器(以 NVL72 規格為例)預計需要額外配備約 1152TB 的 SSD 儲存空間。這一規格需求遠超目前常規伺服器的儲存配置。ICMS(Inference Context Memory Storage,推理上下文記憶體儲存)被視為解決 AI 推理“記憶體牆”問題的核心技術。ICMS被認為是G3.5級儲存層級,它通過萬兆級的乙太網路(Spectrum-X)將大量快閃記憶體顆粒連接在一起,形成一個“准記憶體級”的儲存層。輝達官方資料顯示,相比傳統儲存方案,ICMS 能將 AI 生成速度提升 5 倍,同時能效比也提升了 5 倍。媒體援引花旗銀行的預測資料稱,2026 年 Vera Rubin 伺服器的出貨量預計將達到 3 萬台,而到 2027 年這一數字將增長至 10 萬台。受此推動,僅輝達 AI 系統產生的 NAND 需求在 2026 年就將達到 3460 萬 TB,並在 2027 年激增至 1.152 億 TB。從市場份額的角度來看,這一單一來源的需求量足以撼動整個儲存行業。據估算,輝達的這些 AI 需求將分別佔據 2026 年和 2027 年全球 NAND 預期總需求的 2.8% 和 9.3%。分析師指出,這種龐大需求將進一步加劇目前NAND快閃記憶體的供需關係惡劣性。顯然這對於消費級市場又是一個壞消息,分析指出,AI巨頭和雲服務商(CSP)開始大規模搶購大容量SSD訂單,NAND快閃記憶體市場或將上演目前DRAM價格劇烈上漲的局面,個人PC使用者的零售固態硬碟也將被嚴重推高,雖然目前來說已經是了。目前,包括三星、美光和 SK 海力士在內的主要儲存廠商正在積極調整產能,試圖在利潤豐厚的 AI 專用儲存與傳統消費電子需求之間尋找平衡。然而,面對數以億計 TB 等級的增量需求,儲存行業的產能爬坡依然面臨嚴峻挑戰。 (AMP實驗室)
國際周報 | Nvidia 宣佈 Vera Rubin 晶片支援 45°C熱水冷卻;DayOne 完成 20 億美元 C 輪融資
大廠動態No.01DayOne完成20億美元C輪融資加速亞太與歐洲擴張亞太資料中心營運商 DayOne 宣佈完成超過 20 億美元 C 輪融資,由 Coatue 領投,印尼主權財富基金 INA 等參與。資金將用於擴展其在新加坡、馬來西亞、印尼、泰國、日本與香港的資料中心佈局,並支援芬蘭 Lahti 和 Kouvola 園區建設。DayOne 前身為中國 GDS 國際業務,目前已擁有及在建容量超過 500MW,並儲備同等規模開發潛力。點評:萬國海外獨立後,融資提速全球化佈局。No.02百度與華為佔據中國GPU雲市場七成份額推動自研晶片全端融合Frost & Sullivan 報告顯示,2025 年上半年百度與華為共佔中國 GPU 雲市場 70.5% 份額,其中百度以 40.4% 居首。兩者均採用“晶片到雲”全端策略,建構自研晶片規模化資源池,以挑戰 Nvidia CUDA 生態。儘管市場仍面臨性能、生態與整合瓶頸,但百度與華為正加速融合軟硬一體能力。其他大廠如騰訊、阿里受限於 AI GPU 供應,資本開支明顯下滑。點評:中國國產替代提速,芯雲一體成主流路線。No.03xAI宣佈資料中心叢集擴建計畫總投資達 200 億美元馬斯克旗下 xAI 正在田納西州孟菲斯與密西西比州德索托縣同步推進資料中心建設,最新項目“MACROHARDRR”預計將推動整體算力容量增至約 2GW。該叢集將服務於 Colossus 超級計算平台,目標部署 100 萬顆 GPU。xAI 已完成 200 億美元 E 輪融資,輝達、思科等為戰略投資方。資料中心依託自建燃氣電廠與 Tesla Megapack 快速部署,但也引發環保爭議。密西西比州政府已給予稅收優惠,稱其為州史上最大經濟開發項目。點評:馬斯克火力全開,美南成算力高地。No.04軟銀將以40億美元收購資料中心投資公司 DigitalBridge軟銀宣佈將以 40 億美元收購全球數字基礎設施投資公司 DigitalBridge。後者管理資產規模達 1080 億美元,旗下投資組合包括 AIMS、AtlasEdge、DataBank、Switch、Takanock、Vantage 和 Yondr Group,資料中心總容量達 5.4GW。該收購將強化軟銀在 AI 基礎設施領域的佈局,特別是在支援 OpenAI 的 Stargate 超大規模資料中心項目上。交易預計於 2026 年下半年完成,DigitalBridge 將保持獨立營運。點評: AI 風口下,軟銀重金搶灘算力基建。No.05微軟計畫在密歇根州Dorr和Lowell建設資料中心園區Grand Rapids成新興熱點微軟近日確認將在密歇根州 Grand Rapids 附近的 Dorr 和 Lowell 兩地建設資料中心園區。公司已在 Dorr 購地 272 英畝,在 Lowell 提議開發 235 英畝園區,前者為已購土地,後者仍處初期溝通階段。第三個選址 Gaines 因社區反對暫緩推進。微軟表示將加強與社區溝通,並承諾新設施符合節水和可持續發展目標。該地區正成為繼底特律後新的資料中心集聚地。點評:微軟中西部佈局提速,小城鎮迎資料中心入駐潮。No.06OADC收購NTT在南非的資料中心資產泛非資料中心營運商 OADC 將收購 NTT 在南非的七個資料中心,地點包括約翰內斯堡、開普敦、布隆方丹等地,交易已獲南非競爭委員會批准。該資產原屬 NTT 於 2010 年收購的 Dimension Data,現總容量約 10MW。本次交易是 OADC 母公司 WIOCC 戰略擴張的一部分,旨在增強其在南非及非洲的中立資料中心佈局。點評:區域整合提速,非洲市場熱度不減。科技動態No.07Nvidia宣佈Vera Rubin晶片支援45°C熱水冷卻引發傳統 HVAC股價下跌在 CES 上,黃仁勳宣佈其新一代 Vera Rubin 晶片可在 45°C 熱水環境下運行,無需冷水機組,引發 Modine、江森自控、特靈科技等 HVAC 企業股價普跌。Rubin 系列性能大幅超越 Blackwell,將於 2026 年下半年上市,採用 100% 液冷與模組化托盤設計。分析稱,傳統空調廠商或受衝擊,而擁有液冷佈局的 nVent、Vertiv 有望受益。點評:熱水冷卻上場,資料中心製冷範式或變天。No.08Vertiv發佈2026資料中心趨勢預測,AI驅動電力架構與液冷系統深度變革Vertiv 在其《Frontiers》報告中指出,AI 工廠對密度、規模和部署速度的極致需求,正在重塑資料中心設計與維運。五大趨勢包括:向高壓直流電架構轉型以支援 AI 功耗密度;數字孿生驅動模組化部署;AI 推理推動邊緣與私有部署;本地發電成為能源保障核心;液冷系統走向智能自適應。Vertiv 預計“資料中心即算力單元”將成為 AI 時代基礎設施新範式。點評:AI 正在重寫資料中心設計公式,全端協同成關鍵。No.09江森自控將在新加坡投資6000萬新元擴建創新中心聚焦 AI 資料中心冷卻技術江森自控宣佈未來五年將在新加坡投資約 6000 萬新元(約合 4400 萬美元),擴建其創新中心,研發麵向 AI 與雲端運算資料中心的下一代冷卻、熱管理與自動化技術。項目將專注液冷與混合冷卻,適用於亞太高溫、高功耗環境,同時作為區域研發樞紐服務整個亞太市場。擴建後將增加至 90–100 名工程師,聯合高校與客戶進行應用測試。點評:液冷東南亞落地,瞄準 AI 高密集算力。No.10Ventiva在CES推出離子冷卻參考設計,適用於AI資料中心與邊緣裝置美國冷卻技術公司 Ventiva 在 CES 2026 上發佈其新型“分區空氣冷卻”參考設計,採用離子冷卻技術,可精準為 CPU、GPU 等高熱部件定向送風,適配資料中心、邊緣計算與消費裝置。該方案無需大型機械風扇,可釋放機箱空間、提高機架密度,並與液冷系統互補。該技術利用電場驅動電漿體產生氣流,被視為新一代高效熱管理方案之一。點評:離子冷卻登場,挑戰風冷液冷二元格局。行業萬花筒No.11S&P警告AI驅動銅需求激增或對資料中心建設構成系統性風險S&P Global 報告指出,銅將成為繼記憶體、雷射器之後又一關鍵瓶頸資源。受 AI 資料中心、電網擴建、電動車等多重需求推動,全球銅需求預計到 2040 年將增長 50%,缺口達 1000 萬噸。其中資料中心銅用量將從 2025 年的 110 萬噸升至 2040 年的 250 萬噸,AI 訓練負載預計 2030 年佔資料中心銅需求的 58%。雖然部分互聯已轉向光纖,但整體銅強度依舊高達每兆瓦 30–40 噸。點評: “缺銅”繼“缺芯”之後,AI 基建面臨全端資源瓶頸。No.12JLL預測全球資料中心將在2030年前迎來3兆美元投資超級周期JLL 報告預測,至 2030 年全球資料中心總投資將達 3 兆美元,容量增至近 100GW,年複合增長率達 14%。其中地產資產價值增長約 1.2 兆美元,8700 億美元為債務融資,1–2 兆美元將用於 GPU 與網路裝置升級。JLL 指出儘管存在電力、供應鏈、成本等挑戰,當前行業租賃率與預租比例仍顯示基本面健康。AI 推動推理型負載崛起,預計 2030 年將佔據一半資料中心容量。點評: AI 驅動全球算力熱,泡沫論暫難成立。 (DeepKnowledge)
【CES 2026】黃仁勳的推理戰爭-AI推理成本暴跌90%
上一會還在沉浸在機器人,車機在 CES 的震撼(見當科技停止講故事,開始拼執行力:從 CES 2026,看全球科技進入“現即時代”),下一秒拉斯維加斯的CES展會剛結束,那個永遠穿黑色皮衣的老黃——黃仁勳,又讓整個科技圈坐不住了。這次他沒有再站在台上喊"我們的算力有多強",而是拋出了一個更實在的問題:"用AI太貴了,得降價。"聽起來有點像淘寶商家的思路?但這次不一樣。當大家還在為搶到NVIDIA上一代晶片擠破頭時,他直接甩出了下一代平台——Rubin。更關鍵的是,他喊出了一句話:訓練AI的戰爭結束了,接下來打的是推理戰爭。(圖片來源@dotey)01 什麼是"推理戰爭"?先說個簡單的例子。想像你在學開車。"訓練"就是駕校教練一遍遍教你的過程,需要時間和教練的精力。AI公司這幾年就是這麼幹的——砸錢買幾萬塊GPU,沒日沒夜地訓練模型。"推理"就是你自己開車上路,每次看到紅綠燈做判斷、遇到行人踩剎車。這才是AI真正被使用的時候。過去三年,科技巨頭們瘋狂干的事就是"訓練"——花大錢、用成千上萬塊GPU,把ChatGPT、Claude這些模型訓練得越來越聰明。但問題來了:模型是聰明了,真正用的時候太貴了。就像你花100萬請了個世界冠軍教你開車,結果每次出門還得再付100塊"使用費"。出門一趟兩趟還好,天天誰受得了?這就是黃仁勳要解決的問題:讓AI真正用得起。這次CES上,他沒再吹"我們的晶片有多牛",而是一直在講"怎麼把成本打下來"。Rubin平台這次能做到什麼程度?同樣的AI任務,成本只要原來的十分之一。以前花1美元能做的事,現在10美分就夠了。什麼概念?就像你原來打一次車要100塊,現在降到10塊,原本偶爾打打車,現在可能天天打都無所謂。只有算力便宜到這個份上,AI應用才能真正爆發。02 Rubin是怎麼做到的?NVIDIA這次玩了個新花樣。以前顯示卡時代,大家都想著怎麼把單塊顯示卡做更強。有點像小時候搭積木,總想著搭個最高的塔。但黃仁勳說:單塊積木再高也有限制,不如搭個"團隊"。所以Rubin平台一口氣放出了6塊不同的晶片:Rubin GPU:負責"計算"的大腦Vera CPU:負責調度的管家NVLink 6:連接所有晶片的高速公路還有其他幾塊專門負責網路、資料流動的晶片這6塊晶片不是隨便湊一起,而是像一支配合默契的足球隊——前鋒、中場、後衛、守門員各司其職,比一個人單打獨鬥強多了。最終結果呢?整個平台的推理性能達到上一代的5倍。成本反而降到了1/10。這就是"團隊作戰"的威力。特別要說一下NVLink 6。精準地說:NVLink 6是連接多塊GPU的"高速公路",頻寬達到3.6TB/s。它讓多塊GPU能像一塊一樣協同工作,是實現相較於上一代有"5倍性能提升"的關鍵一環,但不是唯一因素。整個5倍提升是6塊晶片一起發力的結果。有點像裝修房子:NVLink 6是寬敞的走廊,讓各房間連接順暢但房子好不好用,還得看客廳、臥室、廚房怎麼配合03 讓AI學會"思考"光有便宜的算力還不夠,AI還得"聰明"。之前很多自動駕駛AI像什麼?像只會條件反射的蟲子。看到紅燈停,看到綠燈行,遇到沒見過的情況就懵了。NVIDIA這次開放原始碼的Alpamayo模型,想教AI學會"思考"。什麼意思?想像你在開車,突然遇到一個壞掉的紅綠燈——既不紅也不綠,就那麼黃燈閃啊閃的。條件反射式的AI會怎麼做?可能直接卡住,因為"題庫"裡沒這題。但真正會"思考"的AI會琢磨:周圍的車在幹嘛?大家都在慢慢通過,看來可以走。但要小心點,隨時準備剎車。這種"琢磨"的過程,就是Alpamayo想教給AI的能力。它加入了"思維鏈"功能,讓AI不再是死記硬背,而是學會像人一樣推理。有人說得挺形象:以前的AI是背題庫,Alpamayo是教機器解題的方法。更關鍵的是,NVIDIA把這個模型開源了——相當於把解題思路免費公開,讓誰都能拿去用。為何這麼做?用黃仁勳的話說:軟體都免費了,開發者想用好,自然就得買NVIDIA的硬體來跑它。這招挺聰明的。就像印表機廠家把印表機賣得很便宜,靠賣墨盒賺錢。NVIDIA是把"墨盒"免費了,但你要用還得買它的"印表機"。04 這對普通人意味著什麼?說了這麼多,跟普通人有啥關係?如果你是個使用者:以後你用的AI應用可能會更便宜。因為算力成本降了,那些靠AI生成的圖片、視訊、客服聊天,價格都可能跟著降。如果你是個開發者:搭AI應用的成本會大幅降低。以前可能因為太貴不敢做的項目,現在可以試試了。而且NVIDIA開源了Alpamayo,你可以直接拿去用,不用從零開始。如果你是投資者:NVIDIA在賭下一個大方向:AI從"實驗室"走向"真實世界"。你看它這次和奔馳合作,直接把整套自動駕駛系統裝到2026年上市的CLA車型上。還在往人形機器人領域使勁。ChatGPT只是AI的開始,真正的大市場是那些能跑、能跳、能幹活的機器。總之,AI可能真的要從"昂貴的高科技玩具"變成"像水電一樣的基礎設施"了。至於這一天什麼時候真正到來?那就看Rubin平台2026年下半年正式出貨後的表現了。05 摩爾定律慢下來了,黃仁勳沒有摩爾定律說的是晶片性能每18個月翻一番。但現在這個定律已經明顯慢下來了——物理快到極限了。但黃仁勳沒有等。從Hopper到Blackwell,再到現在的Rubin,NVIDIA的節奏從來不是等摩爾定律來推自己,而是自己去推摩爾定律。這次CES傳達的訊號很明確:造更聰明的AI時代過去了,接下來要讓AI用得起。這才是AI真正走進千家萬戶的開始。 (白羊武士弗拉明戈)
輝達攜Rubin重磅轉身,中美正瘋搶同一個未來
可重構計算AI芯片,誰主沉浮?1月5日,拉斯維加斯CES展。一身新皮衣的黃仁勳,再度向全球拋出的一枚“重磅炸彈”——Rubin晶片平台。一連串數字,勾勒出Rubin的超強實力:訓練性能是Blackwell的3.5倍,AI軟體運行性能飆升5倍;AI推理的token生成成本,更是僅為前代的1/10,堪稱“省油超跑”。但這種“性能狂飆、成本狂斬”的表現,卻是被逼出來的。實際上,TPU和可重構資料流架構(RPU)的崛起,正兇猛侵蝕輝達的霸權。去年11月,Meta擬採用GoogleTPU的傳聞一出,輝達一夜蒸發數千億美元。焦頭爛額的黃仁勳,不得不光速出手,將可重構資料流晶片公司Groq收入囊中。如今,Groq的併購與Rubin的發佈,共同指明了AI晶片的“收斂時刻”,那就是:更高性能的通用晶片,才是所有人要奔赴的終極戰場。01. 瘋搶高階TPU2026年的帷幕,在全球算力產業的喧囂中拉開。前有中國GPU公司壁仞、天數接連上市,大漲連連;後有百度崑崙芯IPO交表,期待滿滿……資本與技術的熱浪,撲面而來。但真正重塑產業格局的驚雷,早在2025年聖誕節的凌晨炸響。這一天,全球GPU巨頭輝達以200億美元(約1400億人民幣)的價格,買了一家“非GPU”的傳奇公司——Groq。這不是一次傳統收購,而是一次巧妙的“准收購”。輝達以其持有現金三分之一的巨資,打包買走了Groq的核心技術、圖紙和核心人才,留下公司空殼獨立營運。為什麼是“准收購”?因為正式收購,輝達要經過嚴苛、冗長的盡調、談判、反壟斷審查……但黃仁勳等不及了,於是砸錢、吃乾、抹淨。這是一次瘋狂的收購。三個月前,Groq的估值還僅為69億美元。如今,黃仁勳不惜拋出3倍溢價,豪擲百億美金,彰顯出對Groq志在必得。因為,這不是僅僅針對TPU的戰備防禦,而是一次極其前瞻的戰略佈局。Groq主攻的,是特有的LPU晶片技術,即用軟體定義硬體的“可重構資料流架構”。這種獨特的設計,能讓LPU在處理大模型時,實現Token“瞬時”+“準時”的吞吐,超越GPU、TPU的物理極限,實現比GPU快5-18倍、能效比高10倍的突破,加上Groq是由GoogleTPU之父創辦,因而被行業稱為“高階TPU”。這是輝達真正缺乏,或許也是讓黃仁勳心動不已的技術。而在AI從“訓練”向“推理”轉換的時代,可重構資料流架構將是GPU難以抵擋的存在。彭博社的報導,已經預見了這樣的未來:目前,訓練成本佔到資料中心支出的60%;但到2032年,這個比例將暴跌到20%。屆時,Groq這種又快又省的“高階TPU”,不但很可能吊打GPU,更會成為巨頭們瘋搶的對象。於是,前有Meta掉頭用GoogleTPU,令輝達股價暴跌,殷鑑不遠;後有輝達果斷出手,以免Groq被人截胡,令黃仁勳肝腸悔斷。感受到風向的不只輝達,英特爾同樣在瘋搶“高階TPU”。去年10月,英特爾已有意收購美國可重構AI晶片獨角獸SambaNova,要在可重構賽道施展拳腳。短短2個月,英特爾已與SambaNova簽下一份收購意向書。但猝不及防的是,輝達光速完成Groq的收購。這個消息猶如晴天霹靂,打亂了英特爾的收購節奏。可以想見,棋差一著的英特爾,很可能在後續收購談判中,面臨SambaNova估值的水漲船高。所以,瑞銀分析師精準地表示:“輝達買的是現在的入場券。”而在大洋彼岸的中國,一則中國晶片企業融資的消息,同樣意味深長。2025年12月2日,北京四大明星晶片公司清微智能宣佈,完成超20億元人民幣的C輪融資。清微智能打造的RPU,與Groq的LPU,屬於同源的可重構資料流技術路線。顯然,中美兩國的超級資本,幾乎不約而同將重注,同步押在“可重構”這個關鍵戰場。02. 2026,三大流派爭雄在“榜一大哥”們相繼投下重注後,2026年AI晶片三大技術流派至此可見端倪:一是GPU派,二是ASIC派,三是可重構資料流派。GPU派,以輝達、摩爾線程為代表,是當今AI晶片領域的絕對霸主。GPU架構猶如精密的工業流水線,計算單元像訓練有素的工人,在馮·諾依曼架構的框架下高效運轉。它的核心優勢,更在於用數十年構築的軟硬體生態“護城河”,讓開發者能夠即插即用,不但開發方便,同時也形成了極高的遷移壁壘。但GPU晶片的性能提升,非常依賴於半導體製程的極限突破,以及HBM頻寬的艱難提升。當“記憶體牆”、高功耗等問題席捲而來,GPU為通用性付出的代價,讓效率的進一步提升困難重重。但人類顯然不肯吊死在GPU這一棵樹上。於是,就有了ASIC派,以GoogleTPU、寒武紀、百度崑崙芯為代表。ASIC架構,走的是一種“特種兵路線”。它是一種為特定演算法深度定製的積體電路,通過將硬體與演算法深度繫結,實現AI運算的極致能效。所以,在AI運算上,它性能高、功耗低。像GoogleTPU,已在其全球資料中心大規模部署,並吸引了OpenAI等合作夥伴,充分證明其商業價值。但ASIC的短板也很明顯,一旦演算法迭代,硬體難匹配,晶片就有過時、甚至被廢的風險。那AI晶片,能不能“既要又要”呢?也就是,既能實現高性能、低功耗,又能夠根據演算法變化,實現硬體靈活重構?於是,有了“可重構資料流派”正式登場。像Groq的LPU、清微智能的RPU,都屬於這一派。它的核心,是“軟體定義硬體”。也就是說,RPU內部的硬體資源,可通過軟體指令、即時重組,所以像一條可以隨時調整工序的智能流水線。拿廚房,來打個比方。在“GPU廚房”裡,廚師(計算核心)要取菜、切菜、炒菜,只能在冷庫(記憶體)、菜墩、灶台之間不停跑來跑去。AI資料越多,廚師跑的越快,“記憶體牆”問題越大。而在“ASIC廚房”裡,廚房建成了傳送帶,食材(資料)會按固定演算法不斷流入,廚師(計算核心)只要在固定工位上處理,很快就能把飯菜做出來。這樣效率確實提高了,但問題也很明顯,“ASIC廚房”只能做幾道固定的菜(演算法),比如宮保雞丁。那客人突然要吃滿漢全席咋辦?這時候,就輪到“RPU廚房”大顯身手。它能隨時改變配菜的流水線(演算法),想吃煲仔飯、小炒肉、佛跳牆……流水線隨時變,又快又好。所以,這種兼具ASIC高效能和GPU靈活性的可重構晶片(RPU),又被稱為晶片界的“變形金剛”。它究竟有多強?以清微智能量產的TX81晶片為例。搭載可重構TX81晶片的AI訓推一體伺服器,同等功耗下,一台伺服器,就能搞定兆參數大模型的部署。像REX1032訓推一體伺服器,單機支援DeepSeekR1/V3滿血版推理,成本大降50%,能效比提升3倍。這樣的性能,純屬降維打擊。所以2026年開年之際,三大技術流派的定位,突然塵埃落定:GPU派在訓練和通用計算中雖然保持核心地位,但ASIC派,正用極致能效比,主攻特定模型的推理場景,讓雲廠商降本增效;而可重構資料流派,更以其靈活、高效、確定性,成為多元化AI晶片生態的重要力量。特別是輝達對Groq的收購,直接印證了可重構技術的產業價值,這個曾被國際半導體界譽為“未來最具前景的晶片架構”,正從細分走向主流,並成為頭部企業爭相佈局的核心方向。但在中國,這不是未來,而是現實。03. 高階超越之路2025年深冬,新疆雙河市,這裡距離阿拉山口口岸僅‌51公里‌。一座嶄新的中樹雲智算中心拔地而起,投入營運。▲中樹雲雙河智算中心實景這是全疆第一座基於可重構計算架構打造的綠色算力樞紐,其首期工程,全部基於清微智能的可重構計算晶片部署、打造。從底層架構到核心IP,它全鏈條自主可控,肩負起國家“東數西算”和“算力出海”數字節點的重任。更大的驚喜在於,清微智能剛剛發佈的新一代超節點方案,憑藉超越GPU和ASIC叢集的高算力和高視訊記憶體,將成為可重構AI計算領域的“大國重器”,令人期待。AI生態上,清微智能深度融入國產“眾智FlagOS”開源生態,並與寒武紀、崑崙芯、摩爾線程、華為昇騰、中科海光攜手,作為國內唯六的“FlagOS卓越適配單位”。此外,清微智能還在全國範圍展開“織網”,黑龍江、浙江、安徽、北京等多省市的千卡級智算中心相繼落地,算力卡訂單總量突破30000枚。IDC資料顯示,2025年上半年清微智能的出貨量已妥妥進入國內第一梯隊。所有這些,不僅意味著中國的可重構晶片從“可用”邁入“好用”的實戰階段,更從“技術突破”躍升到“規模落地”的新階段。即便放眼全球,中國可重構晶片技術的水平,也與國際主流並駕齊驅。清微智能的下一代晶片,更是瞄準了3D可重構架構,力圖將AI晶片有效頻寬提升10倍,能效比提升數倍,實現對國際主流高端AI晶片的超越。這是真正掀桌子的技術。即便面對Groq、SambaNova,中國人完全可以保持“平視”。所以,清微智能才會獲得國家積體電路產業投資基金(大基金二期)的垂青,而且是“大基金”唯一投資的新架構晶片企業。最新的C輪融資中,京能集團、北創投、京國瑞等北京國資巨頭更聯手入主,成為其未來發展的“壓艙石”。至此,清微智能正式躋身自主可控“晶片矩陣”,與摩爾線程、崑崙芯、寒武紀一起,納入北京AI晶片矩陣的“四大金剛”之列。仔細比對就會發現,“四大金剛”恰好實現對“三大技術流派”的全覆蓋。當國家級資本加碼與輝達天價收購一併發生時,兩件事看似獨立,實則指明了同一個趨勢,那就是:伴隨全球算力競賽的白熱化,AI晶片將進入非GPU(ASIC和可重構)全面參與角逐的新階段。行業預測,更是樂觀。據IDC預測,2028年中國AI加速卡市場中,非GPU產品的佔比有望從2025年上半年的約30%,提升至接近50%。佔據半壁江山。這意味著,中國的可重構企業在未來三年不僅迎來估值的全球對標,更會躋身算力主會場,成為決勝未來的關鍵力量。誠如國產新能源汽車,通過電動化、智能化、網聯化繞開西方燃油車的百年技術壁壘一樣;清微智能的可重構計算,走的同樣是一條“高階國產替代”之路——不沿著傳統巨頭的路線跟隨式替代,而是探索一條自主可控,符合國情的發展路線完成替代。一邊,是輝達豪擲200億美元,企圖用金錢買斷未來的不確定性;另一邊,以清微智能為代表的中國力量,正在用顛覆性技術,創造自己的未來。2026年已至,算力迎來大爭之世。是巨頭繼續壟斷,還是新銳崛起?所有人都在拭目以待。 (市值觀察)
【CES 2026】黃仁勳CES 2026演講精華:Vera Rubin架構與物理AI的覺醒
引言:當物理定律失效,新世界如何開啟?2026年CES大會前夕,整個科技行業都籠罩在一片疑慮之中。華爾街的警鐘頻頻敲響:AI泡沫是否將要破裂?摩爾定律——那條支配了半導體行業六十年的鐵律——是否真的走到了盡頭?除了聊天,AI究竟何時才能真正賺錢?面對這些價值數兆美元的挑戰,黃仁勳的演講給出了一個出人意料的答案,它並非一個技術術語,而是一個天文學家的名字——“Vera Rubin”(薇拉·魯賓)。這並非隨意的致敬。薇拉·魯賓是20世紀最偉大的天文學家之一,她通過觀測星系旋轉發現了“暗物質”的存在,證明了宇宙中存在一種我們看不見但卻支配著物理法則的力量。黃仁勳以此為名,寓意深刻:當半導體行業撞上摩爾定律這堵“看不見的牆”,當物理學奏響悲歌,輝達選擇的不是妥協,而是一場令人頭皮發麻的暴力破解——像魯賓一樣,去揭示一個全新的維度。本文將帶你梳理這場演講的精華脈絡,從電腦行業的根本性平台轉變講起,深入剖析AI模型如何從“鸚鵡學舌”進化到擁有“思考能力”,揭示Vera Rubin架構背後的“暴力美學”,並最終描繪一幅物理AI走進現實,重塑全球工業的宏偉藍圖。讓我們一同走進黃仁勳描繪的未來,看看當物理定律開始失效時,一個新的世界是如何被構想和建造的。1. 平台之變:電腦行業正在經歷一場雙重革命黃仁勳指出,電腦行業大約每10到15年就會經歷一次平台轉變,從大型機到PC,再到網際網路與移動雲。每一次轉變都意味著應用世界的重構。而今天,我們正處在一場史無前例的雙重革命之中。轉變一:AI即平台 (AI as the Platform)這不僅僅是創造AI應用,而是未來的所有應用都將建構在AI之上。AI不再是軟體的功能之一,而成為了軟體運行的基礎。轉變二:計算堆疊重塑 (Reinvention of the Computing Stack)這場轉變從根本上顛覆了軟體的開發與運行方式,整個計算行業的價值鏈正在被重寫。這場雙重革命的意義是巨大的:價值超過10兆美元的傳統計算行業正在被現代化。所有投入AI領域的資金、研發和人才,其根本動力就源於這場底層平台的價值重塑。為了支撐這場革命,AI模型本身也必須完成一次從量變到質變的飛躍。2. AI的進化:從“鸚鵡學舌”到擁有“思考能力”回顧過去,AI的進化是驚人的。2025年,我們見證了大型語言模型的持續擴展和“智能體系統”(Agentic Systems)的興起。但黃仁勳強調,最核心的轉變是一個看似晦澀的概念——“測試時擴展 (Test-time Scaling)”。這標誌著AI範式的一次根本性轉移。過去的AI,更像一隻博學的“鸚鵡”,只會根據機率“預測下一個詞”,它的回答是一次性的、反射式的。而今天的AI,則具備了“慢思考”的能力。推理不再是一次性的回答,而是一個思考的過程。這種“思考”能力,徹底顛覆了AI的經濟模型,成為了輝達的新“金礦”。它將算力的主要消耗從一次性的訓練成本,轉移到了持續不斷的、海量的推理(思考)成本上,徹底打消了“模型訓練完就不需要那麼多GPU”的舊有疑慮。算力需求爆炸為瞭解決一個複雜問題(如設計新藥),AI需要在內部進行海量的自我對話、模擬與反思。這導致AI為了“思考”而生成的Token(計算單元)數量,正以每年5倍的速度增長。成本挑戰如果AI每思考一分鐘就要消耗數百美元,那麼這種智能體將永遠無法商業化。高昂的推理成本是AI落地的最大障礙。輝達的承諾黃仁勳提出,AI的推理成本每年需要下降10倍。這正是下一代硬體平台必須解決的核心問題,也是AI從“昂貴的玩具”變為“廉價的數字勞動力”的經濟臨界點。要實現這種既強大又廉價的“思考”,唯一的出路就是從最底層的晶片架構上進行顛覆性創新。3. Vera Rubin平台:用“暴力破解”回應物理學的終結面對物理學的硬天花板,黃仁勳的解決方案不是造一個更好的引擎,而是重新定義電腦本身。演講中最令人震撼的一刻,是黃仁勳揭示Vera Rubin GPU的電晶體數量僅比上一代增加了1.6倍。這幾乎是物理學的悲鳴,宣告了單純依靠堆砌電晶體換取性能的摩爾定律時代已經結束。然而,他緊接著公佈了另一個數字:AI推理性能提升了5倍。這看似不可能的飛躍,答案是黃仁勳反覆強調的理念:“極端協同設計 (Extreme Co-design)”。這好比造賽車,當引擎的物理極限到達後,你不能再指望造一個更大的引擎。你必須把整輛車融化,從引擎、底盤到輪胎紋路,為同一個目標重新鑄造。Vera Rubin不是一塊GPU,它是一個由六款核心晶片精密協同的平台。Vera CPU它採用“空間多線程”技術,讓每個CPU核心都能像“千手觀音”一樣高效處理海量資料,確保能喂飽身旁貪婪的Rubin GPU。Rubin GPU其核心是革命性的MVFP4 Tensor Core。這是一種自適應處理單元,能夠根據計算任務動態調整精度,在允許精度損失的地方以更高吞吐量運行。這正是電晶體增幅有限的情況下,實現5倍性能飛躍的“魔法”所在。NVLink 6 Switch這塊交換機晶片的頻寬,相當於全球網際網路總頻寬的兩倍。它能將多塊GPU無縫連接成一個邏輯上的“超級GPU”,徹底打破算力孤島。BlueField-4 DPU這顆資料處理單元管理著一個巨大的共享“推理上下文記憶體池”,為AI配備了一個高達16TB的“外掛大腦”。它從根本上解決了因KV Cache瓶頸導致的AI“短期失憶症”問題,使其能夠擁有真正的長期記憶。此外,黃仁勳還展示了一項反直覺的黑科技——“45攝氏度溫水冷卻”。這意味著資料中心不再需要高耗能的製冷機,極大地節省了電力,降低了部署門檻。輝達賣的不僅是算力,更是一整套能源經濟學解決方案,巧妙地回應了“AI太貴太耗電”的質疑。當AI擁有了如此強大的大腦和記憶後,它的下一步,便是走出伺服器,進入真實的物理世界。4. 物理AI覺醒:當AI長出雙腳,學會開車與思考黃仁勳將這一章稱為物理AI的ChatGPT時刻。如果說過去的AI處理的是“資訊”(文字、圖片),那麼物理AI處理的則是“行動”(開車、搬磚、做手術)。這是AI最難,也是最終極的一塊拼圖。核心案例:Alpamayo自動駕駛輝達給出了一個不留退路的時間表:由Alpamayo驅動的梅賽德斯-奔馳CLA將於2026年第一季度在美國上路。其最革命性的能力是可解釋性 (Interpretability)。在演示中,車輛在十字路口減速,螢幕上即時跳出一段文字,彷彿是車輛的“內心獨白”:“我看到左前方SUV剎車燈亮了,且車輪向右偏轉……我懷疑它要強行變道插隊。為了安全,我決定現在減速並稍微向右避讓。”這標誌著AI不再是死記硬背規則的“黑盒”,它學會了像老司機一樣觀察、預測、判斷並用人類語言解釋決策。這種推理能力,正是解決自動駕駛“長尾問題”(各種罕見突發狀況)的關鍵,因為它讓AI學會了“舉一反三”。為了確保極致的安全與可靠性,黃仁勳透露,這套系統採用了雙重冗餘設計:全新的端到端Alpamayo模型與一個經典的、完全可追溯的傳統自動駕駛堆疊平行運行。後者如同一個經驗豐富的安全官,時刻為前沿的AI模型提供安全護欄,體現了輝達負責任的工程倫理。拓展至通用機器人在現實世界中訓練機器人既慢又危險。輝達的解決方案是在Omniverse這個“駭客帝國”中進行訓練。Cosmos世界模型建構一個與現實世界物理規律完全一致的虛擬空間。合成資料 (Synthetic Data)在虛擬空間中,時間可以加速。現實中的一天,可以在Omniverse裡模擬出一萬年的訓練量。機器人在裡面摔倒一百萬次,學會了平衡;捏碎一百萬個虛擬杯子,學會了控制力度。從模擬到現實 (Sim2Real)當機器人在虛擬世界中練成“絕世武功”後,再將訓練好的“大腦”下載到現實世界的機器人中。這套方法論解決了物理AI訓練資料的核心痛點,讓AI的進化擺脫了現即時間的束縛。當AI掌握了與物理世界互動的能力,其最終極的應用場景將是重塑人類最大規模的經濟活動——工業製造。5. 工業元宇宙:在“盜夢空間”裡建造未來工廠演講的高潮,是黃仁勳邀請西門子CEO上台。這次合作的目標,是實現一個科幻般構想:“設計工廠的工廠”。想像一下建造一座超級工廠的傳統流程與新模式的對比:舊模式:畫圖紙 -> 建造 -> 偵錯 -> 發現設計缺陷 -> 停工返工。整個過程耗時數年,耗資數十億美元。新模式:先在Omniverse工業元宇宙中,對整個工廠進行物理級精度的1:1數字孿生模擬。在虛擬世界裡讓工廠全速運轉,解決所有設計缺陷、最佳化所有生產流程。直到一切完美,再在物理世界裡進行“列印”。這如同在“盜夢空間”裡建造城市。通過與西門子的合作,輝達正將其算力與演算法注入全球製造業的底層血脈,成為新工業革命的基礎設施。這背後,是一個價值百兆美元的巨大市場。結論:新世界的施工圖紙與我們的位置黃仁勳的演講,為我們描繪了一張新世界的施工圖紙,它由五大核心支柱構成:1. 引擎 (Vera Rubin)一顆並非依靠更大肌肉,而是依靠完美協同建構的心臟,頂著摩爾定律的逆流,將算力之血的泵送速度提升了五倍。2. 大腦 (慢思考模型)讓智能從條件反射進化為深思熟慮,開啟了以持續思考為核心的推理算力新紀元。3. 記憶 (BlueField記憶體池)一個永不遺忘的海馬體,賦予AI連續的、個性化的長期意識。4. 四肢 (物理AI)讓智能走出螢幕,拿起工具,握住方向盤,開始與真實世界互動。5. 夢境 (工業元宇宙)一個可以加速時間的進化溫床,用模擬模擬重構物理世界的建造邏輯。這一套組合拳打下來,一個問題油然而生:當AI不僅能思考,還能在物理世界行動,甚至親自建造工廠時,人類的位置在那裡?黃仁勳描繪的未來,充滿了效率的極致提升與成本的瘋狂下降。但它也帶來了更深層次的挑戰。傑文斯悖論告訴我們,當一項資源的使用效率提高時,其總消耗量反而可能增加。即便Vera Rubin讓AI的每一次“思考”都更節能,但當AI的應用呈指數級爆炸時,這是否會引發全球能源需求的不可持續性激增?我們是否正在建造一個終將吞噬自己神殿的神?正如薇拉·魯賓發現暗物質,徹底改變了我們對宇宙的認知一樣,我們今天所見證的這一切,也正在重塑我們對“智能”與“現實”的定義。無論我們是否準備好,這個由AI驅動的未來已經呼嘯而至。我們唯一能做的,就是睜大眼睛,保持好奇,去理解它,駕馭它,而不是被它甩在身後。 (資料學霸)