#rubin
國際周報 | Nvidia 宣佈 Vera Rubin 晶片支援 45°C熱水冷卻;DayOne 完成 20 億美元 C 輪融資
大廠動態No.01DayOne完成20億美元C輪融資加速亞太與歐洲擴張亞太資料中心營運商 DayOne 宣佈完成超過 20 億美元 C 輪融資,由 Coatue 領投,印尼主權財富基金 INA 等參與。資金將用於擴展其在新加坡、馬來西亞、印尼、泰國、日本與香港的資料中心佈局,並支援芬蘭 Lahti 和 Kouvola 園區建設。DayOne 前身為中國 GDS 國際業務,目前已擁有及在建容量超過 500MW,並儲備同等規模開發潛力。點評:萬國海外獨立後,融資提速全球化佈局。No.02百度與華為佔據中國GPU雲市場七成份額推動自研晶片全端融合Frost & Sullivan 報告顯示,2025 年上半年百度與華為共佔中國 GPU 雲市場 70.5% 份額,其中百度以 40.4% 居首。兩者均採用“晶片到雲”全端策略,建構自研晶片規模化資源池,以挑戰 Nvidia CUDA 生態。儘管市場仍面臨性能、生態與整合瓶頸,但百度與華為正加速融合軟硬一體能力。其他大廠如騰訊、阿里受限於 AI GPU 供應,資本開支明顯下滑。點評:中國國產替代提速,芯雲一體成主流路線。No.03xAI宣佈資料中心叢集擴建計畫總投資達 200 億美元馬斯克旗下 xAI 正在田納西州孟菲斯與密西西比州德索托縣同步推進資料中心建設,最新項目“MACROHARDRR”預計將推動整體算力容量增至約 2GW。該叢集將服務於 Colossus 超級計算平台,目標部署 100 萬顆 GPU。xAI 已完成 200 億美元 E 輪融資,輝達、思科等為戰略投資方。資料中心依託自建燃氣電廠與 Tesla Megapack 快速部署,但也引發環保爭議。密西西比州政府已給予稅收優惠,稱其為州史上最大經濟開發項目。點評:馬斯克火力全開,美南成算力高地。No.04軟銀將以40億美元收購資料中心投資公司 DigitalBridge軟銀宣佈將以 40 億美元收購全球數字基礎設施投資公司 DigitalBridge。後者管理資產規模達 1080 億美元,旗下投資組合包括 AIMS、AtlasEdge、DataBank、Switch、Takanock、Vantage 和 Yondr Group,資料中心總容量達 5.4GW。該收購將強化軟銀在 AI 基礎設施領域的佈局,特別是在支援 OpenAI 的 Stargate 超大規模資料中心項目上。交易預計於 2026 年下半年完成,DigitalBridge 將保持獨立營運。點評: AI 風口下,軟銀重金搶灘算力基建。No.05微軟計畫在密歇根州Dorr和Lowell建設資料中心園區Grand Rapids成新興熱點微軟近日確認將在密歇根州 Grand Rapids 附近的 Dorr 和 Lowell 兩地建設資料中心園區。公司已在 Dorr 購地 272 英畝,在 Lowell 提議開發 235 英畝園區,前者為已購土地,後者仍處初期溝通階段。第三個選址 Gaines 因社區反對暫緩推進。微軟表示將加強與社區溝通,並承諾新設施符合節水和可持續發展目標。該地區正成為繼底特律後新的資料中心集聚地。點評:微軟中西部佈局提速,小城鎮迎資料中心入駐潮。No.06OADC收購NTT在南非的資料中心資產泛非資料中心營運商 OADC 將收購 NTT 在南非的七個資料中心,地點包括約翰內斯堡、開普敦、布隆方丹等地,交易已獲南非競爭委員會批准。該資產原屬 NTT 於 2010 年收購的 Dimension Data,現總容量約 10MW。本次交易是 OADC 母公司 WIOCC 戰略擴張的一部分,旨在增強其在南非及非洲的中立資料中心佈局。點評:區域整合提速,非洲市場熱度不減。科技動態No.07Nvidia宣佈Vera Rubin晶片支援45°C熱水冷卻引發傳統 HVAC股價下跌在 CES 上,黃仁勳宣佈其新一代 Vera Rubin 晶片可在 45°C 熱水環境下運行,無需冷水機組,引發 Modine、江森自控、特靈科技等 HVAC 企業股價普跌。Rubin 系列性能大幅超越 Blackwell,將於 2026 年下半年上市,採用 100% 液冷與模組化托盤設計。分析稱,傳統空調廠商或受衝擊,而擁有液冷佈局的 nVent、Vertiv 有望受益。點評:熱水冷卻上場,資料中心製冷範式或變天。No.08Vertiv發佈2026資料中心趨勢預測,AI驅動電力架構與液冷系統深度變革Vertiv 在其《Frontiers》報告中指出,AI 工廠對密度、規模和部署速度的極致需求,正在重塑資料中心設計與維運。五大趨勢包括:向高壓直流電架構轉型以支援 AI 功耗密度;數字孿生驅動模組化部署;AI 推理推動邊緣與私有部署;本地發電成為能源保障核心;液冷系統走向智能自適應。Vertiv 預計“資料中心即算力單元”將成為 AI 時代基礎設施新範式。點評:AI 正在重寫資料中心設計公式,全端協同成關鍵。No.09江森自控將在新加坡投資6000萬新元擴建創新中心聚焦 AI 資料中心冷卻技術江森自控宣佈未來五年將在新加坡投資約 6000 萬新元(約合 4400 萬美元),擴建其創新中心,研發麵向 AI 與雲端運算資料中心的下一代冷卻、熱管理與自動化技術。項目將專注液冷與混合冷卻,適用於亞太高溫、高功耗環境,同時作為區域研發樞紐服務整個亞太市場。擴建後將增加至 90–100 名工程師,聯合高校與客戶進行應用測試。點評:液冷東南亞落地,瞄準 AI 高密集算力。No.10Ventiva在CES推出離子冷卻參考設計,適用於AI資料中心與邊緣裝置美國冷卻技術公司 Ventiva 在 CES 2026 上發佈其新型“分區空氣冷卻”參考設計,採用離子冷卻技術,可精準為 CPU、GPU 等高熱部件定向送風,適配資料中心、邊緣計算與消費裝置。該方案無需大型機械風扇,可釋放機箱空間、提高機架密度,並與液冷系統互補。該技術利用電場驅動電漿體產生氣流,被視為新一代高效熱管理方案之一。點評:離子冷卻登場,挑戰風冷液冷二元格局。行業萬花筒No.11S&P警告AI驅動銅需求激增或對資料中心建設構成系統性風險S&P Global 報告指出,銅將成為繼記憶體、雷射器之後又一關鍵瓶頸資源。受 AI 資料中心、電網擴建、電動車等多重需求推動,全球銅需求預計到 2040 年將增長 50%,缺口達 1000 萬噸。其中資料中心銅用量將從 2025 年的 110 萬噸升至 2040 年的 250 萬噸,AI 訓練負載預計 2030 年佔資料中心銅需求的 58%。雖然部分互聯已轉向光纖,但整體銅強度依舊高達每兆瓦 30–40 噸。點評: “缺銅”繼“缺芯”之後,AI 基建面臨全端資源瓶頸。No.12JLL預測全球資料中心將在2030年前迎來3兆美元投資超級周期JLL 報告預測,至 2030 年全球資料中心總投資將達 3 兆美元,容量增至近 100GW,年複合增長率達 14%。其中地產資產價值增長約 1.2 兆美元,8700 億美元為債務融資,1–2 兆美元將用於 GPU 與網路裝置升級。JLL 指出儘管存在電力、供應鏈、成本等挑戰,當前行業租賃率與預租比例仍顯示基本面健康。AI 推動推理型負載崛起,預計 2030 年將佔據一半資料中心容量。點評: AI 驅動全球算力熱,泡沫論暫難成立。 (DeepKnowledge)
【CES 2026】黃仁勳的推理戰爭-AI推理成本暴跌90%
上一會還在沉浸在機器人,車機在 CES 的震撼(見當科技停止講故事,開始拼執行力:從 CES 2026,看全球科技進入“現即時代”),下一秒拉斯維加斯的CES展會剛結束,那個永遠穿黑色皮衣的老黃——黃仁勳,又讓整個科技圈坐不住了。這次他沒有再站在台上喊"我們的算力有多強",而是拋出了一個更實在的問題:"用AI太貴了,得降價。"聽起來有點像淘寶商家的思路?但這次不一樣。當大家還在為搶到NVIDIA上一代晶片擠破頭時,他直接甩出了下一代平台——Rubin。更關鍵的是,他喊出了一句話:訓練AI的戰爭結束了,接下來打的是推理戰爭。(圖片來源@dotey)01 什麼是"推理戰爭"?先說個簡單的例子。想像你在學開車。"訓練"就是駕校教練一遍遍教你的過程,需要時間和教練的精力。AI公司這幾年就是這麼幹的——砸錢買幾萬塊GPU,沒日沒夜地訓練模型。"推理"就是你自己開車上路,每次看到紅綠燈做判斷、遇到行人踩剎車。這才是AI真正被使用的時候。過去三年,科技巨頭們瘋狂干的事就是"訓練"——花大錢、用成千上萬塊GPU,把ChatGPT、Claude這些模型訓練得越來越聰明。但問題來了:模型是聰明了,真正用的時候太貴了。就像你花100萬請了個世界冠軍教你開車,結果每次出門還得再付100塊"使用費"。出門一趟兩趟還好,天天誰受得了?這就是黃仁勳要解決的問題:讓AI真正用得起。這次CES上,他沒再吹"我們的晶片有多牛",而是一直在講"怎麼把成本打下來"。Rubin平台這次能做到什麼程度?同樣的AI任務,成本只要原來的十分之一。以前花1美元能做的事,現在10美分就夠了。什麼概念?就像你原來打一次車要100塊,現在降到10塊,原本偶爾打打車,現在可能天天打都無所謂。只有算力便宜到這個份上,AI應用才能真正爆發。02 Rubin是怎麼做到的?NVIDIA這次玩了個新花樣。以前顯示卡時代,大家都想著怎麼把單塊顯示卡做更強。有點像小時候搭積木,總想著搭個最高的塔。但黃仁勳說:單塊積木再高也有限制,不如搭個"團隊"。所以Rubin平台一口氣放出了6塊不同的晶片:Rubin GPU:負責"計算"的大腦Vera CPU:負責調度的管家NVLink 6:連接所有晶片的高速公路還有其他幾塊專門負責網路、資料流動的晶片這6塊晶片不是隨便湊一起,而是像一支配合默契的足球隊——前鋒、中場、後衛、守門員各司其職,比一個人單打獨鬥強多了。最終結果呢?整個平台的推理性能達到上一代的5倍。成本反而降到了1/10。這就是"團隊作戰"的威力。特別要說一下NVLink 6。精準地說:NVLink 6是連接多塊GPU的"高速公路",頻寬達到3.6TB/s。它讓多塊GPU能像一塊一樣協同工作,是實現相較於上一代有"5倍性能提升"的關鍵一環,但不是唯一因素。整個5倍提升是6塊晶片一起發力的結果。有點像裝修房子:NVLink 6是寬敞的走廊,讓各房間連接順暢但房子好不好用,還得看客廳、臥室、廚房怎麼配合03 讓AI學會"思考"光有便宜的算力還不夠,AI還得"聰明"。之前很多自動駕駛AI像什麼?像只會條件反射的蟲子。看到紅燈停,看到綠燈行,遇到沒見過的情況就懵了。NVIDIA這次開放原始碼的Alpamayo模型,想教AI學會"思考"。什麼意思?想像你在開車,突然遇到一個壞掉的紅綠燈——既不紅也不綠,就那麼黃燈閃啊閃的。條件反射式的AI會怎麼做?可能直接卡住,因為"題庫"裡沒這題。但真正會"思考"的AI會琢磨:周圍的車在幹嘛?大家都在慢慢通過,看來可以走。但要小心點,隨時準備剎車。這種"琢磨"的過程,就是Alpamayo想教給AI的能力。它加入了"思維鏈"功能,讓AI不再是死記硬背,而是學會像人一樣推理。有人說得挺形象:以前的AI是背題庫,Alpamayo是教機器解題的方法。更關鍵的是,NVIDIA把這個模型開源了——相當於把解題思路免費公開,讓誰都能拿去用。為何這麼做?用黃仁勳的話說:軟體都免費了,開發者想用好,自然就得買NVIDIA的硬體來跑它。這招挺聰明的。就像印表機廠家把印表機賣得很便宜,靠賣墨盒賺錢。NVIDIA是把"墨盒"免費了,但你要用還得買它的"印表機"。04 這對普通人意味著什麼?說了這麼多,跟普通人有啥關係?如果你是個使用者:以後你用的AI應用可能會更便宜。因為算力成本降了,那些靠AI生成的圖片、視訊、客服聊天,價格都可能跟著降。如果你是個開發者:搭AI應用的成本會大幅降低。以前可能因為太貴不敢做的項目,現在可以試試了。而且NVIDIA開源了Alpamayo,你可以直接拿去用,不用從零開始。如果你是投資者:NVIDIA在賭下一個大方向:AI從"實驗室"走向"真實世界"。你看它這次和奔馳合作,直接把整套自動駕駛系統裝到2026年上市的CLA車型上。還在往人形機器人領域使勁。ChatGPT只是AI的開始,真正的大市場是那些能跑、能跳、能幹活的機器。總之,AI可能真的要從"昂貴的高科技玩具"變成"像水電一樣的基礎設施"了。至於這一天什麼時候真正到來?那就看Rubin平台2026年下半年正式出貨後的表現了。05 摩爾定律慢下來了,黃仁勳沒有摩爾定律說的是晶片性能每18個月翻一番。但現在這個定律已經明顯慢下來了——物理快到極限了。但黃仁勳沒有等。從Hopper到Blackwell,再到現在的Rubin,NVIDIA的節奏從來不是等摩爾定律來推自己,而是自己去推摩爾定律。這次CES傳達的訊號很明確:造更聰明的AI時代過去了,接下來要讓AI用得起。這才是AI真正走進千家萬戶的開始。 (白羊武士弗拉明戈)
輝達攜Rubin重磅轉身,中美正瘋搶同一個未來
可重構計算AI芯片,誰主沉浮?1月5日,拉斯維加斯CES展。一身新皮衣的黃仁勳,再度向全球拋出的一枚“重磅炸彈”——Rubin晶片平台。一連串數字,勾勒出Rubin的超強實力:訓練性能是Blackwell的3.5倍,AI軟體運行性能飆升5倍;AI推理的token生成成本,更是僅為前代的1/10,堪稱“省油超跑”。但這種“性能狂飆、成本狂斬”的表現,卻是被逼出來的。實際上,TPU和可重構資料流架構(RPU)的崛起,正兇猛侵蝕輝達的霸權。去年11月,Meta擬採用GoogleTPU的傳聞一出,輝達一夜蒸發數千億美元。焦頭爛額的黃仁勳,不得不光速出手,將可重構資料流晶片公司Groq收入囊中。如今,Groq的併購與Rubin的發佈,共同指明了AI晶片的“收斂時刻”,那就是:更高性能的通用晶片,才是所有人要奔赴的終極戰場。01. 瘋搶高階TPU2026年的帷幕,在全球算力產業的喧囂中拉開。前有中國GPU公司壁仞、天數接連上市,大漲連連;後有百度崑崙芯IPO交表,期待滿滿……資本與技術的熱浪,撲面而來。但真正重塑產業格局的驚雷,早在2025年聖誕節的凌晨炸響。這一天,全球GPU巨頭輝達以200億美元(約1400億人民幣)的價格,買了一家“非GPU”的傳奇公司——Groq。這不是一次傳統收購,而是一次巧妙的“准收購”。輝達以其持有現金三分之一的巨資,打包買走了Groq的核心技術、圖紙和核心人才,留下公司空殼獨立營運。為什麼是“准收購”?因為正式收購,輝達要經過嚴苛、冗長的盡調、談判、反壟斷審查……但黃仁勳等不及了,於是砸錢、吃乾、抹淨。這是一次瘋狂的收購。三個月前,Groq的估值還僅為69億美元。如今,黃仁勳不惜拋出3倍溢價,豪擲百億美金,彰顯出對Groq志在必得。因為,這不是僅僅針對TPU的戰備防禦,而是一次極其前瞻的戰略佈局。Groq主攻的,是特有的LPU晶片技術,即用軟體定義硬體的“可重構資料流架構”。這種獨特的設計,能讓LPU在處理大模型時,實現Token“瞬時”+“準時”的吞吐,超越GPU、TPU的物理極限,實現比GPU快5-18倍、能效比高10倍的突破,加上Groq是由GoogleTPU之父創辦,因而被行業稱為“高階TPU”。這是輝達真正缺乏,或許也是讓黃仁勳心動不已的技術。而在AI從“訓練”向“推理”轉換的時代,可重構資料流架構將是GPU難以抵擋的存在。彭博社的報導,已經預見了這樣的未來:目前,訓練成本佔到資料中心支出的60%;但到2032年,這個比例將暴跌到20%。屆時,Groq這種又快又省的“高階TPU”,不但很可能吊打GPU,更會成為巨頭們瘋搶的對象。於是,前有Meta掉頭用GoogleTPU,令輝達股價暴跌,殷鑑不遠;後有輝達果斷出手,以免Groq被人截胡,令黃仁勳肝腸悔斷。感受到風向的不只輝達,英特爾同樣在瘋搶“高階TPU”。去年10月,英特爾已有意收購美國可重構AI晶片獨角獸SambaNova,要在可重構賽道施展拳腳。短短2個月,英特爾已與SambaNova簽下一份收購意向書。但猝不及防的是,輝達光速完成Groq的收購。這個消息猶如晴天霹靂,打亂了英特爾的收購節奏。可以想見,棋差一著的英特爾,很可能在後續收購談判中,面臨SambaNova估值的水漲船高。所以,瑞銀分析師精準地表示:“輝達買的是現在的入場券。”而在大洋彼岸的中國,一則中國晶片企業融資的消息,同樣意味深長。2025年12月2日,北京四大明星晶片公司清微智能宣佈,完成超20億元人民幣的C輪融資。清微智能打造的RPU,與Groq的LPU,屬於同源的可重構資料流技術路線。顯然,中美兩國的超級資本,幾乎不約而同將重注,同步押在“可重構”這個關鍵戰場。02. 2026,三大流派爭雄在“榜一大哥”們相繼投下重注後,2026年AI晶片三大技術流派至此可見端倪:一是GPU派,二是ASIC派,三是可重構資料流派。GPU派,以輝達、摩爾線程為代表,是當今AI晶片領域的絕對霸主。GPU架構猶如精密的工業流水線,計算單元像訓練有素的工人,在馮·諾依曼架構的框架下高效運轉。它的核心優勢,更在於用數十年構築的軟硬體生態“護城河”,讓開發者能夠即插即用,不但開發方便,同時也形成了極高的遷移壁壘。但GPU晶片的性能提升,非常依賴於半導體製程的極限突破,以及HBM頻寬的艱難提升。當“記憶體牆”、高功耗等問題席捲而來,GPU為通用性付出的代價,讓效率的進一步提升困難重重。但人類顯然不肯吊死在GPU這一棵樹上。於是,就有了ASIC派,以GoogleTPU、寒武紀、百度崑崙芯為代表。ASIC架構,走的是一種“特種兵路線”。它是一種為特定演算法深度定製的積體電路,通過將硬體與演算法深度繫結,實現AI運算的極致能效。所以,在AI運算上,它性能高、功耗低。像GoogleTPU,已在其全球資料中心大規模部署,並吸引了OpenAI等合作夥伴,充分證明其商業價值。但ASIC的短板也很明顯,一旦演算法迭代,硬體難匹配,晶片就有過時、甚至被廢的風險。那AI晶片,能不能“既要又要”呢?也就是,既能實現高性能、低功耗,又能夠根據演算法變化,實現硬體靈活重構?於是,有了“可重構資料流派”正式登場。像Groq的LPU、清微智能的RPU,都屬於這一派。它的核心,是“軟體定義硬體”。也就是說,RPU內部的硬體資源,可通過軟體指令、即時重組,所以像一條可以隨時調整工序的智能流水線。拿廚房,來打個比方。在“GPU廚房”裡,廚師(計算核心)要取菜、切菜、炒菜,只能在冷庫(記憶體)、菜墩、灶台之間不停跑來跑去。AI資料越多,廚師跑的越快,“記憶體牆”問題越大。而在“ASIC廚房”裡,廚房建成了傳送帶,食材(資料)會按固定演算法不斷流入,廚師(計算核心)只要在固定工位上處理,很快就能把飯菜做出來。這樣效率確實提高了,但問題也很明顯,“ASIC廚房”只能做幾道固定的菜(演算法),比如宮保雞丁。那客人突然要吃滿漢全席咋辦?這時候,就輪到“RPU廚房”大顯身手。它能隨時改變配菜的流水線(演算法),想吃煲仔飯、小炒肉、佛跳牆……流水線隨時變,又快又好。所以,這種兼具ASIC高效能和GPU靈活性的可重構晶片(RPU),又被稱為晶片界的“變形金剛”。它究竟有多強?以清微智能量產的TX81晶片為例。搭載可重構TX81晶片的AI訓推一體伺服器,同等功耗下,一台伺服器,就能搞定兆參數大模型的部署。像REX1032訓推一體伺服器,單機支援DeepSeekR1/V3滿血版推理,成本大降50%,能效比提升3倍。這樣的性能,純屬降維打擊。所以2026年開年之際,三大技術流派的定位,突然塵埃落定:GPU派在訓練和通用計算中雖然保持核心地位,但ASIC派,正用極致能效比,主攻特定模型的推理場景,讓雲廠商降本增效;而可重構資料流派,更以其靈活、高效、確定性,成為多元化AI晶片生態的重要力量。特別是輝達對Groq的收購,直接印證了可重構技術的產業價值,這個曾被國際半導體界譽為“未來最具前景的晶片架構”,正從細分走向主流,並成為頭部企業爭相佈局的核心方向。但在中國,這不是未來,而是現實。03. 高階超越之路2025年深冬,新疆雙河市,這裡距離阿拉山口口岸僅‌51公里‌。一座嶄新的中樹雲智算中心拔地而起,投入營運。▲中樹雲雙河智算中心實景這是全疆第一座基於可重構計算架構打造的綠色算力樞紐,其首期工程,全部基於清微智能的可重構計算晶片部署、打造。從底層架構到核心IP,它全鏈條自主可控,肩負起國家“東數西算”和“算力出海”數字節點的重任。更大的驚喜在於,清微智能剛剛發佈的新一代超節點方案,憑藉超越GPU和ASIC叢集的高算力和高視訊記憶體,將成為可重構AI計算領域的“大國重器”,令人期待。AI生態上,清微智能深度融入國產“眾智FlagOS”開源生態,並與寒武紀、崑崙芯、摩爾線程、華為昇騰、中科海光攜手,作為國內唯六的“FlagOS卓越適配單位”。此外,清微智能還在全國範圍展開“織網”,黑龍江、浙江、安徽、北京等多省市的千卡級智算中心相繼落地,算力卡訂單總量突破30000枚。IDC資料顯示,2025年上半年清微智能的出貨量已妥妥進入國內第一梯隊。所有這些,不僅意味著中國的可重構晶片從“可用”邁入“好用”的實戰階段,更從“技術突破”躍升到“規模落地”的新階段。即便放眼全球,中國可重構晶片技術的水平,也與國際主流並駕齊驅。清微智能的下一代晶片,更是瞄準了3D可重構架構,力圖將AI晶片有效頻寬提升10倍,能效比提升數倍,實現對國際主流高端AI晶片的超越。這是真正掀桌子的技術。即便面對Groq、SambaNova,中國人完全可以保持“平視”。所以,清微智能才會獲得國家積體電路產業投資基金(大基金二期)的垂青,而且是“大基金”唯一投資的新架構晶片企業。最新的C輪融資中,京能集團、北創投、京國瑞等北京國資巨頭更聯手入主,成為其未來發展的“壓艙石”。至此,清微智能正式躋身自主可控“晶片矩陣”,與摩爾線程、崑崙芯、寒武紀一起,納入北京AI晶片矩陣的“四大金剛”之列。仔細比對就會發現,“四大金剛”恰好實現對“三大技術流派”的全覆蓋。當國家級資本加碼與輝達天價收購一併發生時,兩件事看似獨立,實則指明了同一個趨勢,那就是:伴隨全球算力競賽的白熱化,AI晶片將進入非GPU(ASIC和可重構)全面參與角逐的新階段。行業預測,更是樂觀。據IDC預測,2028年中國AI加速卡市場中,非GPU產品的佔比有望從2025年上半年的約30%,提升至接近50%。佔據半壁江山。這意味著,中國的可重構企業在未來三年不僅迎來估值的全球對標,更會躋身算力主會場,成為決勝未來的關鍵力量。誠如國產新能源汽車,通過電動化、智能化、網聯化繞開西方燃油車的百年技術壁壘一樣;清微智能的可重構計算,走的同樣是一條“高階國產替代”之路——不沿著傳統巨頭的路線跟隨式替代,而是探索一條自主可控,符合國情的發展路線完成替代。一邊,是輝達豪擲200億美元,企圖用金錢買斷未來的不確定性;另一邊,以清微智能為代表的中國力量,正在用顛覆性技術,創造自己的未來。2026年已至,算力迎來大爭之世。是巨頭繼續壟斷,還是新銳崛起?所有人都在拭目以待。 (市值觀察)
【CES 2026】黃仁勳CES 2026演講精華:Vera Rubin架構與物理AI的覺醒
引言:當物理定律失效,新世界如何開啟?2026年CES大會前夕,整個科技行業都籠罩在一片疑慮之中。華爾街的警鐘頻頻敲響:AI泡沫是否將要破裂?摩爾定律——那條支配了半導體行業六十年的鐵律——是否真的走到了盡頭?除了聊天,AI究竟何時才能真正賺錢?面對這些價值數兆美元的挑戰,黃仁勳的演講給出了一個出人意料的答案,它並非一個技術術語,而是一個天文學家的名字——“Vera Rubin”(薇拉·魯賓)。這並非隨意的致敬。薇拉·魯賓是20世紀最偉大的天文學家之一,她通過觀測星系旋轉發現了“暗物質”的存在,證明了宇宙中存在一種我們看不見但卻支配著物理法則的力量。黃仁勳以此為名,寓意深刻:當半導體行業撞上摩爾定律這堵“看不見的牆”,當物理學奏響悲歌,輝達選擇的不是妥協,而是一場令人頭皮發麻的暴力破解——像魯賓一樣,去揭示一個全新的維度。本文將帶你梳理這場演講的精華脈絡,從電腦行業的根本性平台轉變講起,深入剖析AI模型如何從“鸚鵡學舌”進化到擁有“思考能力”,揭示Vera Rubin架構背後的“暴力美學”,並最終描繪一幅物理AI走進現實,重塑全球工業的宏偉藍圖。讓我們一同走進黃仁勳描繪的未來,看看當物理定律開始失效時,一個新的世界是如何被構想和建造的。1. 平台之變:電腦行業正在經歷一場雙重革命黃仁勳指出,電腦行業大約每10到15年就會經歷一次平台轉變,從大型機到PC,再到網際網路與移動雲。每一次轉變都意味著應用世界的重構。而今天,我們正處在一場史無前例的雙重革命之中。轉變一:AI即平台 (AI as the Platform)這不僅僅是創造AI應用,而是未來的所有應用都將建構在AI之上。AI不再是軟體的功能之一,而成為了軟體運行的基礎。轉變二:計算堆疊重塑 (Reinvention of the Computing Stack)這場轉變從根本上顛覆了軟體的開發與運行方式,整個計算行業的價值鏈正在被重寫。這場雙重革命的意義是巨大的:價值超過10兆美元的傳統計算行業正在被現代化。所有投入AI領域的資金、研發和人才,其根本動力就源於這場底層平台的價值重塑。為了支撐這場革命,AI模型本身也必須完成一次從量變到質變的飛躍。2. AI的進化:從“鸚鵡學舌”到擁有“思考能力”回顧過去,AI的進化是驚人的。2025年,我們見證了大型語言模型的持續擴展和“智能體系統”(Agentic Systems)的興起。但黃仁勳強調,最核心的轉變是一個看似晦澀的概念——“測試時擴展 (Test-time Scaling)”。這標誌著AI範式的一次根本性轉移。過去的AI,更像一隻博學的“鸚鵡”,只會根據機率“預測下一個詞”,它的回答是一次性的、反射式的。而今天的AI,則具備了“慢思考”的能力。推理不再是一次性的回答,而是一個思考的過程。這種“思考”能力,徹底顛覆了AI的經濟模型,成為了輝達的新“金礦”。它將算力的主要消耗從一次性的訓練成本,轉移到了持續不斷的、海量的推理(思考)成本上,徹底打消了“模型訓練完就不需要那麼多GPU”的舊有疑慮。算力需求爆炸為瞭解決一個複雜問題(如設計新藥),AI需要在內部進行海量的自我對話、模擬與反思。這導致AI為了“思考”而生成的Token(計算單元)數量,正以每年5倍的速度增長。成本挑戰如果AI每思考一分鐘就要消耗數百美元,那麼這種智能體將永遠無法商業化。高昂的推理成本是AI落地的最大障礙。輝達的承諾黃仁勳提出,AI的推理成本每年需要下降10倍。這正是下一代硬體平台必須解決的核心問題,也是AI從“昂貴的玩具”變為“廉價的數字勞動力”的經濟臨界點。要實現這種既強大又廉價的“思考”,唯一的出路就是從最底層的晶片架構上進行顛覆性創新。3. Vera Rubin平台:用“暴力破解”回應物理學的終結面對物理學的硬天花板,黃仁勳的解決方案不是造一個更好的引擎,而是重新定義電腦本身。演講中最令人震撼的一刻,是黃仁勳揭示Vera Rubin GPU的電晶體數量僅比上一代增加了1.6倍。這幾乎是物理學的悲鳴,宣告了單純依靠堆砌電晶體換取性能的摩爾定律時代已經結束。然而,他緊接著公佈了另一個數字:AI推理性能提升了5倍。這看似不可能的飛躍,答案是黃仁勳反覆強調的理念:“極端協同設計 (Extreme Co-design)”。這好比造賽車,當引擎的物理極限到達後,你不能再指望造一個更大的引擎。你必須把整輛車融化,從引擎、底盤到輪胎紋路,為同一個目標重新鑄造。Vera Rubin不是一塊GPU,它是一個由六款核心晶片精密協同的平台。Vera CPU它採用“空間多線程”技術,讓每個CPU核心都能像“千手觀音”一樣高效處理海量資料,確保能喂飽身旁貪婪的Rubin GPU。Rubin GPU其核心是革命性的MVFP4 Tensor Core。這是一種自適應處理單元,能夠根據計算任務動態調整精度,在允許精度損失的地方以更高吞吐量運行。這正是電晶體增幅有限的情況下,實現5倍性能飛躍的“魔法”所在。NVLink 6 Switch這塊交換機晶片的頻寬,相當於全球網際網路總頻寬的兩倍。它能將多塊GPU無縫連接成一個邏輯上的“超級GPU”,徹底打破算力孤島。BlueField-4 DPU這顆資料處理單元管理著一個巨大的共享“推理上下文記憶體池”,為AI配備了一個高達16TB的“外掛大腦”。它從根本上解決了因KV Cache瓶頸導致的AI“短期失憶症”問題,使其能夠擁有真正的長期記憶。此外,黃仁勳還展示了一項反直覺的黑科技——“45攝氏度溫水冷卻”。這意味著資料中心不再需要高耗能的製冷機,極大地節省了電力,降低了部署門檻。輝達賣的不僅是算力,更是一整套能源經濟學解決方案,巧妙地回應了“AI太貴太耗電”的質疑。當AI擁有了如此強大的大腦和記憶後,它的下一步,便是走出伺服器,進入真實的物理世界。4. 物理AI覺醒:當AI長出雙腳,學會開車與思考黃仁勳將這一章稱為物理AI的ChatGPT時刻。如果說過去的AI處理的是“資訊”(文字、圖片),那麼物理AI處理的則是“行動”(開車、搬磚、做手術)。這是AI最難,也是最終極的一塊拼圖。核心案例:Alpamayo自動駕駛輝達給出了一個不留退路的時間表:由Alpamayo驅動的梅賽德斯-奔馳CLA將於2026年第一季度在美國上路。其最革命性的能力是可解釋性 (Interpretability)。在演示中,車輛在十字路口減速,螢幕上即時跳出一段文字,彷彿是車輛的“內心獨白”:“我看到左前方SUV剎車燈亮了,且車輪向右偏轉……我懷疑它要強行變道插隊。為了安全,我決定現在減速並稍微向右避讓。”這標誌著AI不再是死記硬背規則的“黑盒”,它學會了像老司機一樣觀察、預測、判斷並用人類語言解釋決策。這種推理能力,正是解決自動駕駛“長尾問題”(各種罕見突發狀況)的關鍵,因為它讓AI學會了“舉一反三”。為了確保極致的安全與可靠性,黃仁勳透露,這套系統採用了雙重冗餘設計:全新的端到端Alpamayo模型與一個經典的、完全可追溯的傳統自動駕駛堆疊平行運行。後者如同一個經驗豐富的安全官,時刻為前沿的AI模型提供安全護欄,體現了輝達負責任的工程倫理。拓展至通用機器人在現實世界中訓練機器人既慢又危險。輝達的解決方案是在Omniverse這個“駭客帝國”中進行訓練。Cosmos世界模型建構一個與現實世界物理規律完全一致的虛擬空間。合成資料 (Synthetic Data)在虛擬空間中,時間可以加速。現實中的一天,可以在Omniverse裡模擬出一萬年的訓練量。機器人在裡面摔倒一百萬次,學會了平衡;捏碎一百萬個虛擬杯子,學會了控制力度。從模擬到現實 (Sim2Real)當機器人在虛擬世界中練成“絕世武功”後,再將訓練好的“大腦”下載到現實世界的機器人中。這套方法論解決了物理AI訓練資料的核心痛點,讓AI的進化擺脫了現即時間的束縛。當AI掌握了與物理世界互動的能力,其最終極的應用場景將是重塑人類最大規模的經濟活動——工業製造。5. 工業元宇宙:在“盜夢空間”裡建造未來工廠演講的高潮,是黃仁勳邀請西門子CEO上台。這次合作的目標,是實現一個科幻般構想:“設計工廠的工廠”。想像一下建造一座超級工廠的傳統流程與新模式的對比:舊模式:畫圖紙 -> 建造 -> 偵錯 -> 發現設計缺陷 -> 停工返工。整個過程耗時數年,耗資數十億美元。新模式:先在Omniverse工業元宇宙中,對整個工廠進行物理級精度的1:1數字孿生模擬。在虛擬世界裡讓工廠全速運轉,解決所有設計缺陷、最佳化所有生產流程。直到一切完美,再在物理世界裡進行“列印”。這如同在“盜夢空間”裡建造城市。通過與西門子的合作,輝達正將其算力與演算法注入全球製造業的底層血脈,成為新工業革命的基礎設施。這背後,是一個價值百兆美元的巨大市場。結論:新世界的施工圖紙與我們的位置黃仁勳的演講,為我們描繪了一張新世界的施工圖紙,它由五大核心支柱構成:1. 引擎 (Vera Rubin)一顆並非依靠更大肌肉,而是依靠完美協同建構的心臟,頂著摩爾定律的逆流,將算力之血的泵送速度提升了五倍。2. 大腦 (慢思考模型)讓智能從條件反射進化為深思熟慮,開啟了以持續思考為核心的推理算力新紀元。3. 記憶 (BlueField記憶體池)一個永不遺忘的海馬體,賦予AI連續的、個性化的長期意識。4. 四肢 (物理AI)讓智能走出螢幕,拿起工具,握住方向盤,開始與真實世界互動。5. 夢境 (工業元宇宙)一個可以加速時間的進化溫床,用模擬模擬重構物理世界的建造邏輯。這一套組合拳打下來,一個問題油然而生:當AI不僅能思考,還能在物理世界行動,甚至親自建造工廠時,人類的位置在那裡?黃仁勳描繪的未來,充滿了效率的極致提升與成本的瘋狂下降。但它也帶來了更深層次的挑戰。傑文斯悖論告訴我們,當一項資源的使用效率提高時,其總消耗量反而可能增加。即便Vera Rubin讓AI的每一次“思考”都更節能,但當AI的應用呈指數級爆炸時,這是否會引發全球能源需求的不可持續性激增?我們是否正在建造一個終將吞噬自己神殿的神?正如薇拉·魯賓發現暗物質,徹底改變了我們對宇宙的認知一樣,我們今天所見證的這一切,也正在重塑我們對“智能”與“現實”的定義。無論我們是否準備好,這個由AI驅動的未來已經呼嘯而至。我們唯一能做的,就是睜大眼睛,保持好奇,去理解它,駕馭它,而不是被它甩在身後。 (資料學霸)
【CES 2026】精華!黃仁勳CES 2026記者會:揭秘大殺器Vera Rubin ,談為什麼買Groq
1月6日,2026年CES展會期間,輝達創始人兼CEO黃仁勳面對全球200多名記者和分析師,進行了一場超過90分鐘的深度對話。剛剛亮相的Vera Rubi架構是業界關注的焦點。Vera Rubi架構號稱性能飆升10倍,成本卻砍到1/10,被稱為“打了類固醇的摩爾定律”。他斷言,到2026年底,輝達資料中心晶片銷售額將突破5000億美元。與AI提供商Anthropic等公司的交易,以及在中國前景的改善,“應該會提高我們對那個數字的預期”。這大大高於華爾街分析師的平均預期,他們預計輝達2026年總營收將達到3212億美元,增幅57%。2027年,他們估計輝達銷售額將超過4000億美元。對於輝達能否重返中國AI晶片市場,黃仁勳透露,該公司可以開始向中國客戶銷售其H200晶片,而且“中國客戶的需求很高,相當高,非常高”。“我期待你們的競爭,你們得努力工作了。”在回答中國競爭對手的提問時,黃仁勳笑著對來自中國的媒體說,在這個飛速發展的行業裡,“沒有任何領先是理所當然的”。以下為黃仁勳在1月6日CES媒體和分析師見面會上的精華內容,經AI聽譯,編輯整理,從現場38個問題中,精選其中20余個問題。大殺器“Vera Rubin”:10倍性能、1/10成本問題1:對已經採用Blackwell系統的客戶來說,Vera Rubin平台有什麼不可替代的價值?升級路徑是怎樣的?黃仁勳認為, 模型規模每年以十倍的速度增長,推理生成的Token數量每年增加五倍,這種指數級的計算需求已經“超出了預期”。從Hopper到Blackwell,從Blackwell到Vera Rubin,推理吞吐量都提升了十倍,而Token成本則降低十倍。輝達每年都在交付新一代“完整的AI工廠”——從CPU、GPU、網路晶片到擴展交換機,全部協同設計。黃仁勳表示,關鍵在於其資料中心架構是完全相容的。客戶不需要每隔幾年就徹底重建基礎設施,而是可以通過輝達的軟體更新,讓已經部署的AI工廠艦隊性能持續提升。“我們最佳化的不是17個不同的技術堆疊,而是一個通用架構。這個架構每年的改進,會直接轉化為客戶的AI工廠吞吐量提升、成本下降和能效提高,我稱它為“強化版的摩爾定律,是超級驅動的摩爾定律”。問題2:CPU在AI工廠中扮演什麼角色?輝達的基礎模型(如NIM, Cosmos)如何融入未來?黃仁勳認為,半導體物理已接近極限,但AI計算需求正以每年模型規模增長10倍、Token數量增長5倍的瘋狂速度擴張。僅靠晶片工藝的微小進步無法滿足。因此,輝達給出的答案是“極端協同設計”——從CPU、GPU、記憶體到網路交換晶片,乃至儲存處理器,對整個計算路徑進行系統性最佳化,以追求極限性能。這不僅涉及硬體,還包括軟體棧和模型層的創新。他以輝達的模型為例:Cosmos是前沿的物理AI模型,在自動駕駛等領域保持領先;Nemo 3則是首創的混合架構模型,在長上下文推理方面高效出眾。目標是在所專注的每一個領域都保持前沿。這一切最終匯聚成Vera Rubin系統。從Grace Blackwell到Vera Rubin,電晶體數量一年內僅增長約1.7倍。這個增幅如果放在單純的晶片性能提升上,根本不值得客戶為它建造一座新的資料中心。我們必須通過系統級創新,實現以一代際就提供10倍吞吐量、1/10的Token成本這樣的跨越,才能讓行業負擔得起向前探索的成本。為此,輝達投入了巨大的工程資源——僅Vera Rubin的研發就累計投入了約15000個工程年。問題3:在實現Vera Rubin的過程中,你們遇到的最大挑戰是什麼?是製造、頻寬還是延遲?黃仁勳說, 答案是“所有方面”。Vera Rubin的突破不僅是晶片級的,更是對整個AI基礎設施的重新定義。Vera Rubin解決了幾個核心痛點:系統可用性:以前更換一個故障的NVLink交換機,需要將整個價值數百萬美元的機架停機數小時。現在Vera Rubin支援熱插拔,可以在系統執行階段直接更換,甚至線上更新軟體,這能確保超大規模資料中心保持99.9%以上的運行效率。能源效率:AI訓練時所有GPU同步工作,導致電流劇烈波動,迫使資料中心過度配置25%的電力或安裝昂貴緩衝裝置。Vera Rubin通過功率平滑技術,消除了這種波動,讓電力供應能100%被利用。工程效率:過去組裝一個高性能節點需要像組裝一輛汽車一樣花費兩小時。現在,我們將其縮短到五分鐘。同時,我們消除了大量線纜,實現了100%的液冷。這些系統級創新與晶片和軟體突破同樣重要。02 Vera Rubin交付難題:只有一家公司做得到問題4:如何確保Vera Rubin的六顆新晶片能穩定量產?黃仁勳回應說, 答案是“非常仔細地規劃”。輝達與台積電合作近30年,雙方的規劃團隊保持著極為緊密的協作,幾乎是每日同步。在規劃Vera Rubin六顆全新晶片量產的同時,輝達還需管理Grace Blackwell、Hopper、遊戲GPU以及汽車晶片Thor等多條產品線的龐大產能。這極具挑戰,尤其是Vera Rubin採用了CPO(共封裝光學)等全新技術。黃仁勳表示有信心,在台積電的大力支援下,將會迎來產量巨大的一年。問題5:你宣佈Vera Rubin已進入“全面生產階段”,但又說按計畫在2026年下半年才發貨。這矛盾嗎?黃仁勳回應說,我們正在做的事情非常非常困難,世界上從未有過如此規模的電腦系統同時整合這麼多全新的晶片:六顆用於CPU的新晶片、全新的Vera GPU、Rubin CX9 NVLink交換機、六顆Spectrum-X(帶共封裝光學器件)以及BlueField-4。所有這些晶片都是全新的。我們已經拿到晶片一段時間了,正在嚴謹地進行驗證和測試。晶片已經完全可以投入製造,但軟體最佳化和系統驗證是持續的過程。世界上只有一家公司能以我們這樣的規模和速度做到這一點。03 資料中心年銷售額 將超5000億美元問題6:輝達與OpenAI合作建設的AI工廠何時動工?黃仁勳表示,並沒有計畫與OpenAI直接合作建設專屬的AI工廠。OpenAI等大型模型公司主要通過與微軟、OCI、CoreWeave等雲服務提供商合作來獲取輝達的計算能力。這種通過合作夥伴服務的模式運行得非常順利,預計不會改變。問題7:去年你預測未來幾年資料中心銷售額將達5000億美元,這個數字現在是否已經過時?黃仁勳表示,不希望定期更新這個數字,但可以說,自那個預測以來,許多新的進展應該會推高我們的預期。新的驅動力主要來自幾個方面:首先,我們與Anthropic等重要夥伴的合作進一步鞏固了輝達作為模型訓練首選平台的地位。其次,開放模型的成功遠超預期,今天全球生成的每四個Token中就有一個來自開放模型。這極大地推動了公共雲和輝達硬體的需求。同時,我們重返中國市場的處理程序也在展開,H200晶片將貢獻新的增量。所有這些因素共同作用,解釋了為什麼市場需求持續超出預期。04 中國戰場:訂單即訊號問題8:距離川普政府宣佈批准向中國出口H200晶片已經一個月了。你預計何時開始向中國客戶發貨?“客戶需求很高—相當高,非常高”,黃仁勳說,輝達已經啟動了供應鏈,H200正在生產線上流動。正在與美國政府完成許可證的最後細節。提問9:你期望看到關於政府方什麼訊號?黃仁勳表示只期待採購訂單。當採購訂單到來時,它將暗示其他一切,因為雙方都必須遵守各自的法律和規則。當採購訂單到達時,它們不言自明。川普總統已經說過H200被許可出口,現在需要完成所有流程步驟。一旦完成,預計採購訂單就會到來。提問10:面對華為等競爭對手,H200在中國市場還有競爭力嗎?黃仁勳說H200目前在市場上是有競爭力的,但它不會永遠有競爭力。所以,希望以後能夠發佈其他有競爭力的產品。為了保持美國在市場上的競爭力,監管也必須不斷演進。當它不再有競爭力時,希望會有新的產品。”這就是我所主張的,我們持續在市場上保持競爭力。“05 模型的盡頭是電力,能源問題如何解決?問題11:AI計算正面臨巨大的電力制約,你們如何解決這個問題?黃仁勳說,我們正處在一場新工業革命的開端,這個新產業需要能源來發展——任何形式的電力都會被使用,從天然氣到可再生能源。但最重要的是能源效率。每一代產品,當吞吐量提升10倍而功耗只提升2倍時,能效就提升了5倍。如果你的資料中心是1吉瓦,而我們的技術能讓每瓦吞吐量提升5倍,那麼客戶在同樣電力下生成的Token就能增加,收入也隨之增長。更高效的系統還能支援更大的模型,這提升了智能水平,也提高了Token的平均售價。因此,在有限的、受能源約束的資料中心內,提高每瓦Token數量、每美元Token數量的能力,在最終分析中是決定性的。06 自動駕駛:輝達和特斯拉的區別問題12:Alpamayo系統能夠進行L4/L5級駕駛嗎?黃仁勳認為目前部署在梅賽德斯-奔馳中的輝達自動駕駛系統,是世界上唯一一個擁有冗餘自動駕駛能力的系統。其中一個系統是經典設計,帶有大量人類先驗知識,本質上是汽車的“護欄”。在其之上,運行Alpamayo,這是一個端到端的AI模型,進行推理和決策。如果經典安全系統非常出色,能確保乘客永遠不會受到傷害,那麼AI駕駛員就能盡快變得儘可能好。相信將很快達到L4等級。唯一的問題是:操作域是什麼?它有多大的能力?在什麼條件下它有信心駕駛?問題13:那麼輝達的自動駕駛系統與特斯拉FSD的關鍵區別是什麼?黃仁勳毫不吝嗇地誇獎特斯拉,認為特斯拉的FSD棧完全是世界級的。他們在各個方面都是100%最先進的。他也擁有特斯拉,”我在家裡用它開車,它工作得非常棒“。至於輝達和特斯拉的區別,在於輝達不製造自動駕駛汽車,而只為其他所有人製造完整的棧和技術來建構自動駕駛汽車。輝達為整個汽車行業提供三台電腦:訓練電腦、模擬電腦和自動駕駛電腦(也就是車載電腦),以及相應的軟體棧。黃仁勳表示,他相信輝達的系統會普及,因為是技術平台提供商。今天路上的10億輛汽車,在未來10年,其中數億輛將擁有強大的自動駕駛能力。所以,這很可能成為未來十年增長最快的技術領域之一。此外,輝達還將全部開源:客戶既可以直接使用我們訓練好的模型,也可以基於我們的技術自行訓練,我們同樣會提供支援。07 機器人未來:今年突破,垂直為王問題14:我們什麼時候才能獲得真正具有人類水平能力的機器人?黃仁勳肯定說是“今年(2026年)”。因為清楚技術迭代的速度。移動能力很難,但進展驚人,它會最先被解決;其次是大關節運動和抓取問題。真正困難的是精細運動,畢竟製造一隻靈巧的手都不容易,電機、觸覺感知都很複雜,不過這些方向正在持續突破。與此同時,認知能力正在快速躍升。未來會有非常強的推理型AI模型直接運行在機器人內部。你會發現,AI本質上是“以人為中心”的:在車裡,它就是駕駛系統;拿起網球拍,它就成了揮拍能力。AI的真正優勢在於多重化身,我們把它訓練成人形機器人,但它同樣可以成為出色的操控系統,甚至是完美的自動駕駛大腦。問題15:機器人會搶走人類的工作嗎?黃仁勳表示“恰恰相反”。他認為機器人將創造就業機會。原因在於,我們正面臨全球性勞動力短缺,不是缺幾千人,而是數千萬人,而且由於人口下降,情況會越來越糟。如果沒有新的勞動力補充,我們將無法維持當前的經濟規模。因此,我們需要引入“AI移民”,讓它們進入製造車間,接手那些我們已經決定不再從事或無人願意做的工作。機器人革命首先將填補勞動力缺口,從而驅動經濟增長。經濟向好時,企業自然會僱用更多人。更重要的是,很多工作在很長時間內都無法被AI替代。我們需要的是健康的經濟環境:通膨可控,就業機會增多,生活成本降低。而AI的發展,恰恰能推動這一切的實現。問題16:對機器人初創公司,你有什麼建議?黃仁勳認為要建構一個完整的機器人系統,實際上需要三類電腦:訓練電腦、模擬電腦和機器人大腦電腦。訓練電腦很簡單,對於模擬電腦,由於機器人必須在物理精確的虛擬世界中學習、練習和評估,這樣在訓練階段就不需要在現實世界裡反覆“試錯”。為此,輝達建構了一個嚴格遵循物理定律的虛擬世界——Omniverse。再看機器人大腦。輝達目前使用的是Orin,下一代是Thor,它們擁有完整、獨立的技術堆疊。Thor配備了極高速的推理棧,並運行在一個安全作業系統之上,類似汽車中的安全系統,確保機器人始終在安全邊界內行動,只執行它有足夠把握的任務。真正的難點在於:不僅要同時理解並整合這三套計算棧,還要協調所有必需的電子系統和機械結構。這種複雜度,極其之高。對於創業者來說,最終歸結為:你想成為一家橫向公司,還是垂直的、特定領域的公司?橫向公司的好處是較少擔心具體應用,更多關注技術,如果成功了規模可能很大。但橫向佈局極其困難,競爭來自四面八方。我的偏好通常是建議尋找垂直領域。你必須非常深入地理解特定的應用——也許是EMS製造,也許是手術機器人。領域專長確實可能是一個優勢。08 競爭:中國崛起,但自信無可替代問題17:面對中國新興AI公司的快速進展,輝達的競爭優勢是什麼?黃仁勳表示,在中國湧現的眾多初創公司中,許多已經成功上市並取得了非常出色的成績,這充分證明了中國科技行業的活力與實力。可以毫不誇張地說,中國的企業家、工程師、技術專家和AI研究人員,屬於全球最優秀的群體之一。中國的科技生態系統正在以極快的速度發展,工程師勤奮投入,創業精神強烈,想法也極具創造力。因此,我完全相信中國科技市場將持續成長、不斷進步。對輝達而言,如果要為中國市場提供價值,就必須參與競爭,並持續推動自身技術向前發展。當然,輝達在AI領域的創新規模和深度,確實是全球其他公司難以企及的。我們是目前唯一一家從CPU、加速計算、儲存到完整軟體棧、模型層和基礎設施層全面佈局的公司。我們與全球幾乎所有重要的AI公司都有深度合作,並通過龐大的生態和管道,將這些技術大規模推向終端市場。無論是製造業(例如與西門子的合作)、醫療健康(如與禮來這樣的全球最大製藥公司合作)、汽車、金融服務,還是你能想到的任何行業,輝達都深度參與其中。因此,理應繼續在這個行業中保持領先。但沒有任何成功是理所當然的,這正是我們必須持續高強度投入的原因。這個行業的規模將極其龐大。過去10–15年,全球大約投入了10兆美元的資本,這些系統正處在從“傳統計算”向“AI現代化”全面轉型的過程中。我們用數千億美元的投入,去推動這10兆美元的現代化升級。更重要的是,這是歷史上第一次,軟體AI不再只是工具,而開始成為勞動力本身。人形機器人、自動駕駛汽車、軟體程式設計智能體、晶片設計智能體,正在直接補充甚至重塑勞動力結構。而全球勞動力市場規模約為100兆美元。也就是說,技術第一次真正服務於整個經濟體系中的“勞動層”。從這個角度看,這個市場巨大是完全合理的。最後我想說的是:我期待你們的競爭,但你們必須足夠努力。09 收購:Groq技術互補,但Vera Rubin仍是核心問題21:輝達200億美元收購Groq的技術和團隊,會推出基於其技術的推理卡嗎?黃仁勳的回答是輝達和Groq的技術路線“非常、非常不同”。不認為有任何東西能取代下一代Vera Rubin平台。或許能以某種方式整合他們的技術,實現一些獨特的增量改進,但更多細節需要等到下一次GTC大會公佈。總體而言,我們對Groq團隊和技術加入輝達感到興奮。問題22:輝達擁有巨額現金儲備,未來將如何分配?重點在收購還是招聘?黃仁勳表示,輝達的資本配置遵循一套清晰的“三層邏輯”,核心是圍繞AI生態進行長期投資。第一層,投資於“世界不能或不會做”的核心技術。 這是我們的首要任務。例如NVLink互聯技術,以及我們自主研發的Grace CPU,這些都是為滿足AI獨特需求(如海量上下文記憶體)而生的獨創架構。我們持續投資於建構那些若沒有輝達就不會存在的底層技術。第二層,投資於“上下游生態”,確保整個供應鏈的繁榮與韌性。 我們向上游與記憶體、晶片製造等關鍵供應商深度繫結,進行巨額資本承諾以保障先進產能。同時,我們也向下游投資,覆蓋從全球雲服務商、電腦製造商到新興的雲服務與AI基礎設施公司(如CoreWeave、Lambda),建構地球上最多元、最龐大的市場管道網路。第三層,是沿“AI五層蛋糕”進行全端投資。我們從最底層的土地、電力和資料中心外殼,到晶片、系統和基礎設施,再到上層的AI模型和最終應用,都會進行戰略性投資與合作。我們可能投資、合作,甚至收購一些半導體公司。目標是培育和加速整個AI產業,通過投資建立更深厚的夥伴關係,與未來最具影響力的公司共同成長。10 以色列是輝達的“晶片心臟”問題23:你為何能成為科技界任期最長的CEO之一?黃仁勳:秘訣很簡單:第一,不被解僱;第二,不感到無聊。 至於還能做多久?只要我覺得自己仍能勝任。引領輝達責任重大,我們是行業的關鍵推動者,全球合作夥伴都期待我們做好自己該做的事。公司成立34年來,我們越做越好。做一件事久了,你自然會逐漸掌握其中的門道——即便是我也不例外。問題24:輝達在以色列計畫大幅擴張,有何戰略考量?面對如此大規模招聘,如何保持人才優勢?黃仁勳誇獎“以色列團隊不可思議”,是輝達真正的“晶片心臟”。正在研發的Vera Rubin平台包含六顆新晶片,其中四顆(包括關鍵的交換機和網路晶片)都來自以色列團隊。雖然輝達已是全球最具影響力的公司之一,但一直把自己看作“世界上最小的大公司”。我們只有約4萬名員工。在以色列,計畫將團隊從5000人擴大到10000人。輝達在以色列的離職率極低,大約只有1%到2%。許多員工已任職20甚至25年。吸引和留住世界級人才的能力是頂級的。這不僅是因為提供好的工作,更在於CEO的職責之一是“為公司選擇正確的工作”——我們聚焦於那些激動人心、有深遠影響力的項目,這塑造了公司的文化和使命感,讓頂尖人才願意長期留下並創造奇蹟。 (網易科技)
🎯CES揭密:2026真正AI主菜+主升黑馬股現在才要上桌?!Line@連結:https://lin.ee/mua8YUP🎯錯過台積電 華邦電 南亞科別懊惱!2026 CES開場了,黃仁勳穿著那件黑皮衣,說了一句話:「實體AI的ChatGPT時刻,已經到來。」不是比喻,是宣告。AI,不只在雲端算數字,它要下凡、走路、動手、工作了。過去兩年,市場漲的是「算力」。從2026開始接下來三年,會噴的是「落地」。你還在盯華邦電、南亞科嗎?CES已經直接告訴你:那只是前菜。🚀爆點一:機器人不再是「智障手臂」,它會聽你的垃圾話!輝達GR00T基礎模型進化了!搭配Alpamayo技術,機器人現在具備「推理能力」。它不再只是工廠搬運工,而是能在虛擬世界演練萬次後,直接走進你家做家務、幫物流送貨的神隊友。它會看你的眼神、聽懂你的垃圾話。👉誰最補?高通端出「機器人大腦」IQ10系列,直接點名台灣龍頭 2395研華!研華不再只是賣殼子,它是核心大腦供應商,含金量直接原地起飛。還有盟立、羅昇、所羅門...這些「實體AI兵團」,這波浪潮他們才是主角!🚀爆點二:Rubin平台量產!5倍效能的「外星科技」Blackwell剛過時?輝達宣布Vera Rubin平台全面量產!效能跳5倍,能源效率更強到沒朋友。這不是省電而已,這是解決資料中心會「燒掉」的唯一解藥。👉錢流向哪?超微(AMD)蘇媽也不甘示弱,掏出台積電2奈米的MI455X較勁。兩大巨頭打架,最後銀子全部流進台積電的口袋!但我說過,台積電是基本盤,真正的飆股在「台積電供應鏈這些小雞」族群。🔴想知道這波「實體AI浪潮」中,哪一檔才是台積電大聯盟的隱藏版黑馬?接下來我們會在粉絲團持續幫大家鎖定+追蹤,若還不知道該如何操作?那建議你務必要鎖定江江在Line @,將有更進一步的訊息給大家了解。https://lin.ee/mua8YUP🔴想了解還未起漲的市場主流,同步了解大盤多空轉折點及學習預測技術分析,江江YT節目都會持續追蹤+預告。https://reurl.cc/02drMk********************************************************有持股問題或想要飆股→請加入Line:https://lin.ee/mua8YUP江江的Youtube【點股成金】解盤:https://reurl.cc/02drMk*********************************************************(本公司所推薦分析之個別有價證券 無不當之財務利益關係以往之績效不保證未來獲利 投資人應獨立判斷 審慎評估並自負投資風險)
【CES 2026】Blackwell和Rubin晶片也將賣給中國?
輝達首席執行長黃仁勳周二表示,儘管該公司仍在等待上一代 H200 產品在中國銷售的批准,但輝達的 Blackwell 和下一代 Rubin 晶片將“及時”(in time)進入中國市場。“H200在市場上具有競爭力。但這種競爭力不會永遠持續下去。”黃在拉斯維加斯舉行的CES 2026貿易展的問答環節中被《日經亞洲》問及H200在中國市場的競爭力時表示。黃仁勳表示,為了在中國保持競爭力,輝達需要“及時”發佈包括 Blackwell 和 Rubin 世代晶片在內的其他產品,他還補充說,如果華盛頓希望美國技術保持全球競爭力,美國監管也需要做出改變。美國總統唐納德·川普上個月表示,他將允許向中國的“已批准客戶”銷售 H200,只要美國獲得這些銷售額的 25%,但 Blackwell 晶片和新的 Rubins 晶片並不包含在該交易中。輝達正面臨來自中國競爭對手日益激烈的競爭,其中包括華為等科技巨頭和一些規模較小的初創公司。黃仁勳此前曾稱華為是“強大的競爭對手”。黃先生表示:“我認為中國湧現出的創業公司數量之多,以及其中許多公司上市並取得了非常非常好的發展,都體現了中國科技行業的活力和能力。”“我堅信中國科技市場將繼續蓬勃發展,不斷進步。而我們要想為中國市場做出貢獻,提供有價值的產品和服務,就必須參與競爭,也必須不斷提升我們的技術,”他補充道。他表示,輝達將“隨著時間的推移”繼續在中國發佈新產品。“我主張我們應該繼續保持市場競爭力。”黃仁勳早前告訴記者,輝達已加大力度為中國市場生產 H200 晶片,因為這家美國晶片製造商正在等待華盛頓和北京的批准。“我們已經啟動了供應鏈,H200正在生產線上源源不斷地供應,”黃說。“在中國,客戶需求很高。非常高,”他說道,並補充說公司正在敲定美國出口許可證的最後細節。輝達首席財務官科萊特·克雷斯表示,美國政府正在“積極努力”處理 H200 的出口許可證。她補充說:“我們希望這件事能盡快完成。”但H200能否運往中國,還要取決於北京是否允許輝達在世界第二大人工智慧市場銷售這些晶片,以及銷售多少。然而,黃先生表示,他不指望能得到北京方面的明確批准,而是希望通過中國客戶的訂單獲得政府的默許。“最終,我預計我們會通過採購訂單瞭解所有情況,”他說。“我預計不會有任何新聞稿,也不會有任何大型宣傳活動。只會是採購商。我很期待採購商的到來。”黃先生說:“採購訂單下達後,一切都會隨之而來,因為他們必須遵守他們的規則和法律。”他還補充說,他預計華盛頓批准出口許可證後“很快”就會收到訂單。在前美國總統喬·拜登的政府收緊對人工智慧晶片出口的限制後,H100 和 H200 都於 2024 年被禁止在中國銷售。作為回應,輝達推出了H20晶片——一款專為中國市場開發的旗艦級H100晶片的縮減版。但今年4月,川普政府開始要求輝達出口這款縮減版晶片也必須獲得許可。作為向中國出售降級晶片的交換條件,輝達在 8 月份同意向美國政府支付 H20 銷售收入的 15%。但在華盛頓方面能夠推進收益分成協議之前,北京方面在9月份指控輝達違反了中國的反壟斷法。黃仁勳表示,該公司在中國的市場份額此後已從95%暴跌至零。在周一的主題演講中,黃仁勳公佈了下一代 Rubin 晶片的更多細節,稱備受期待的、其最先進的晶片 Blackwell 的繼任者已經“全面投產”。 (半導體行業觀察)
儲存帶領下,美股盤力猛漲,Rubin詳解
昨天剛發佈了儲存的專業分析,今天SNDK晟碟就24%上漲,希捷超10%,美光也大漲。背後原因就是不論伺服器還是PC還是移動Dram都存在大幅的漲價。今天CES上,輝達老黃的演講中對於Rubin的架構詳細說明,“Rubin的⽬標是實現具有RAS(可靠性、可⽤性和可維護性)和NVLink熱插拔等特性的“零停機AI⼯⼚”。Rubin的挑戰在於,它作為⼀台電腦在歷史上是獨⼀⽆⼆的,“內部的每⼀個芯⽚都是全新的”——甚⾄連⾼溫電容器都是新開發的。HBM4以前不存在,LPDDR5 SOCAMM也不存在。共封裝光學器件(CPO)被整合到了交換機中。之所以能實現這⼀點,是因為我們在過去約5年的時間⾥,逐⼀化解了技術、元件和供應鏈的⻛險,現在⼀切都已通過驗證並具備量產條件。今天有提高ASML的評級文章中,主要強調ASML的上調評級的主要原因是儲存上漲。需求上漲非常明顯,導致ASML的機器需求大量上升。可以看到2026年前三大DRAM製造商將新增總計250千瓦/月的產能。並且將工藝提升至1奈米。所以,ASML的目標價上調至1300歐元,存在32%空間。為什麼會出現這個DRAM的周期現象呢,儲存一直認為是周期股,也就是隨著一波周期進行上漲,等周期結束就回退,因為半導體一直是產能滯後。需求上漲是產能不足,需求下來了,產能又因為之前擴大,導致瘋狂降價。所以,儲存一直被認為是周期股。然而,現在由於DRAM和HBM由於AI的影響,伺服器對DRAM需求增長迅速,還有快閃記憶體也增長迅速,使得現在儲存從周期股變成了成長股。所以從晟碟,美光去年的漲幅就能看到這種定價邏輯已經發生了根本變化。如果是周期股,10倍的EV/Ebita就不錯了,現在作為成長股,那就可以給予更高的倍數。因為DRAM向著更大的需求,更高的技術,也就是1NM等級的演進,RUBIn中HBM4等的重新設計,使得整體儲存需求更上一層。從DRAM的發展可以看到DRAM未來的發展一直到2030,會從N3工藝節點一直發展。台積電要從13萬提升到20萬片。三星2N米由於獲得特斯拉訂單,27年才會有產能增加。再說一下Rubin,非常的驚豔。與NVIDIA Blackwell平台相⽐,Rubin平台通過硬體和軟體的深度協同設計,可將推理Token成本降低⾼達10倍,並將訓練MoE(混合專家)模型所需的GPU數量減少4倍。全新的NVIDIA推理上下⽂記憶體儲存平台搭載NVIDIABlueField-4儲存處理器,旨在加速代理式AI(Agentic AI)推理。Rubin平台通過對六款芯⽚——NVIDIA Vera CPU、NVIDIA Rubin GPU、NVIDIA NVLink™ 6交換機、NVIDIA ConnectX®-9 SuperNIC、NVIDIA BlueField®-4DPU以及NVIDIA Spectrum™-6以太⽹交換機——進⾏極致的協同設計,從⽽⼤幅縮短訓練時間並降低推理Token成本。Rubin平台引⼊了五項創新技術,包括最新⼀代的NVIDIANVLink互連技術、Transformer引擎、機密計算和RAS引擎,以及NVIDIA Vera CPU。這些突破將加速代理型⼈⼯智能(agentic AI)、⾼級推理以及⼤規模混合專家(MoE)模型推理,其每Token成本⽐NVIDIA Blackwell平台降低了多達10倍。與前代產品相⽐,NVIDIA Rubin平台訓練MoE模型所需的GPU數量減少了4倍,從⽽加速了⼈⼯智能的普及應⽤。來幫Rubin站台的在全球領先的AI實驗室、雲服務提供商、電腦製造商和初創公司中,預計采⽤Rubin的包括:亞⻢遜雲科技(AWS)、Anthropic、Black Forest Labs、思科(Cisco)、Cohere、CoreWeave、Cursor、戴爾科技(DellTechnologies)、⾕歌(Google)、Harvey、HPE、Lambda、聯想(Lenovo)、Meta、微軟(Microsoft)、Mistral AI、Nebius、Nscale、OpenAI、OpenEvidence、甲⻣⽂雲基礎設施(OCI)、Perplexity、Runway、美超微(Supermicro)、Thinking MachinesLab以及xAI。第六代NVIDIA NVLink:提供當今海量混合專家(MoE)模型所需的快速、⽆縫的GPU間通訊。每顆GPU提供3.6TB/s的頻寬,⽽Vera Rubin NVL72機架可提供260TB/s的頻寬——這超過了整個互聯⽹的頻寬。憑藉⽤於加速集合通訊的內建⽹絡計算功能,以及增強可維護性和韌性的新特性,NVIDIA NVLink 6交換機能夠實現更快、更⾼效的⼤規模AI訓練與推理。NVIDIA Vera CPU:專為代理式推理設計,NVIDIAVera是適⽤於⼤規模AI⼯⼚的能效最⾼的CPU。該NVIDIA CPU采⽤88個NVIDIA定製Olympus核⼼建構,完全相容Armv9.2,並具備極速的NVLink-C2C連接。Vera提供卓越的性能、頻寬和⾏業領先的效率,以⽀持全⽅位的現代資料中⼼⼯作負載。 (老王說事)