#H200
黃仁勳透露:H200已重啟生產,加緊向中國客戶供貨
輝達首席執行長黃仁勳周二在新聞發佈會上表示,公司正在重啟一款晶片的生產,該晶片旨在遵守美國對中國的出口限制。據當時的一份報告顯示,由於美國和中國的監管障礙日益增多,該公司去年停止生產基於其老舊的 Hopper 技術的 H200 晶片。黃仁勳表示,自那以後,輝達已獲得美國政府頒發的H200出口許可證並開始接到訂單。這促使輝達在幾周前開始重啟生產。黃先生在加州聖何塞舉行的公司全球技術大會(GTC)上對記者表示:“我們已經獲得了中國許多客戶的H200授權。我們收到了許多客戶的採購訂單,目前正在重啟生產。”趕緊跟上:輝達在 2 月下旬表示,美國政府已經批准向中國客戶少量出口 H200 產品,但不知道是否會允許任何產品進口到中國。任何銷往中國的晶片都必須經過北京的批准,並且一直在敦促國內企業使用中國製造的晶片——這是華為技術有限公司為提振國內產業而採取的措施之一。H200 雖然是輝達上一代產品,但它比中國國內市面上任何一款晶片都更強大。“我們的供應鏈正在加速運轉,”黃說。黃仁勳預測,到 2027 年底,公司 Blackwell 和 Rubin AI 晶片的收入將超過 1 兆美元,但中國晶片的銷售額並未計入其中。Blackwell 和 Rubin 是輝達的旗艦級 AI 晶片,能夠建構支撐聊天機器人(例如 OpenAI 的 ChatGPT)的大型語言模型。Blackwell 晶片現已上市銷售,而 Rubin 晶片是輝達的下一代處理器,目前已全面投產。另外,黃仁勳給出的 1 兆美元的估值並不包括該公司的一系列其他產品,例如中央處理器、網路晶片系列或即將推出的基於從 Groq 獲得許可的技術的晶片。該估價也不包括一種名為 Rubin Ultra 的 Rubin 變種。去年 12 月,輝達與 Groq 簽署協議,獲得其技術授權,並聘用了這家初創公司的許多高管。黃也警告說,科技界的一些人“用科幻小說裡的人工智慧版本嚇唬大家”,他認為這種說法很傲慢。此前,Anthropic公司為美國政府使用人工智慧劃定了紅線,特別是關於完全自主戰爭和大規模監視美國人的紅線。有記者問問黃仁勳,人工智慧是否有那些領域不應該涉足,黃仁勳回答說,這項技術需要涉足的領域還有很多,包括抵禦網路攻擊。黃說:“我們必須不斷學習,對我們知道的和不知道的東西要更加謙遜一些。用科幻小說裡的人工智慧版本嚇唬所有人未免太狂妄了。”他說:“提醒民眾是一回事,恐嚇民眾則是完全不同的另一回事。”總體而言,黃仁勳不僅利用此次活動宣傳了輝達的一系列新晶片和技術,還強調了該市場的巨大潛力。 (半導體芯聞)
【GTC 2026】黃仁勳105分鐘對話實錄:兆美元這麼賺!談中國、H200、養蝦、Groq,炮轟DLSS 5批評者
到2027年,輝達有望收穫1.25兆美元訂單。智東西3月17日聖何塞現場報導,在昨日發表GTC主題演講後,今天,輝達創始人兼CEO黃仁勳與智東西等全球媒體進行了長達近2小時的深度交流,連續回答32問,並透露面向中國市場的H200 GPU重啟生產,已收到許多訂單。黃仁勳對昨日輝達GTC演講中的重磅發佈做了許多補充解讀,包括解釋說昨天撂出的重磅預言“到2027年收穫1兆美元訂單”,僅僅包含Blackwell和Vera Rubin兩條產品線,還沒算上獨立CPU、Groq、儲存及網路裝置。和全球媒體溝通過程中,黃仁勳也展示了自己頗有“活人感”的幾個側面。當知名汽車媒體Motor Trend在現場宣佈黃仁勳為年度人物時,他顯得十分開心,不僅揚言要“站在這裡直到再多拿幾個獎”,還幽默地向全場“懺悔”,笑稱自己其實已經兩年沒摸過方向盤,全靠自動駕駛代步,言語間難掩驕傲與笑意。而當採訪突然被一陣突兀的手機鈴聲打斷時,他毫不客氣地中斷了回答,當場“抓包”並拋出自己的鐵律:“開會時所有手機必須靜音,不振動、不響鈴,徹底靜音,這點輝達人人都知道。”他甚至在台上靜靜等候對方處理完畢,半開玩笑半認真地說到:“我在等你呢。”將他對身邊一切的絕對掌控感與不加掩飾的真性情,展露得淋漓盡致。以下是黃仁勳GTC採訪的核心內容:1、200億美元收購Groq:Groq之於輝達,就如同Mellanox之於輝達。Groq的LPU並非為了替代現有產品,與Vera Rubin結合後才能應對新興的推理細分市場。2、Vera CPU:這些CPU與傳統x86 CPU截然不同,未必適用於所有場景,其核心價值在於用10億美元的CPU,支撐500億美元的GPU跑滿性能。3、儲存晶片:輝達目前擁有資料中心中唯一一個同時針對HBM、LPDDR、SRAM三種儲存技術進行最佳化的架構,他們還在與每一家記憶體廠商合作。4、AI不會殺死SaaS:以EDA軟體為例,AI並非從零開始憑空生成電晶體,輝達工程師也不是像在用Nano Banana生圖一樣設計晶片,而是一層一層地精確建構。5、AI安全:用科幻小說式的AI敘事去恐嚇所有人是一種傲慢和自大。AI智能體系統像“白細胞”一樣參與網路安全,當入侵者來襲時可以立即響應並蜂擁而至,展開反擊。6、OpenClaw爆火:OpenClaw是後推理時代AI的轉折點,“市場對一個精心設計的開源智能體系統,存在著真正且長期被壓抑的迫切需求”。7、H200進入中國:“輝達已獲得向中國眾多客戶銷售H200的許可證,也已經收到了來自眾多客戶的採購訂單,正處於恢復生產的過程之中。”8、1兆美元營收:此前預測的至2027年1兆美元營收,僅僅包含了Blackwell和Vera Rubin兩條產品線。如果加上獨立CPU、Groq、儲存以及網路裝置,規模可能會達到1.25兆美元。9、投資背後邏輯:輝達只向那些他們相信會成功的公司提供融資,瞄準的是“下一個Google”、“下一個Meta”、“下一個亞馬遜”。其本質是在投資生態,這是極佳的投資標的。10、如何理解輝達:輝達40%的業務任何雲服務商都無法獨立覆蓋,剩下60%是雲業務,其中40%~50%的需求由輝達創造,比如沒有輝達甲骨文就沒法服務OpenAI,最後才是雲服務商自身的需求。11、DLSS 5爭議:對DLSS 5的批評完全錯誤,開發者依然可以對生成效果進行微調。一切主動權都在開發者手中。輝達在創造的是技術,而非藝術。12、機器人:推理能力的突破和VLA(視覺-語言-動作)模型的應用,已經給機器人的認知問題提供解決方案。剩下的主要是工程最佳化,未來三年內機器人技術將迎來重大突破。13、自動駕駛:輝達自動駕駛業務目前約佔總營收的1%,但輝達最初做的幾乎每一件事,比如CUDA、可程式設計著色器、光追都耗費了大量資金,卻毫無回報,甚至引來不少質疑。必須堅信自己所相信的,然後決定是否值得繼續追求。14、AI時代的職場與人類未來:AI不會導致大規模失業,人類反而會更忙。關於人類,唯一可以確定的是:我們如今允許自己打開想像力去解決的問題,比四年前多出了百萬倍。15、黃仁勳分享“人生三訣”:別被開除,別無聊,別死。對人如此,對公司也一樣。以下是採訪的完整實錄:Q1:輝達花了創紀錄的200億美元收購了Groq,這是你們歷史上最大的一筆交易。因為Groq的LPU解決了你們GPU在規模化即時推理上的問題。這是否意味著業內已經認識到AI的重心已經從訓練轉向推理了?黃仁勳:首先,你面前站著的是“推理之王”。我可以這麼說,(因為)有人曾封我為“推理之王”。2025年,我們決定將巨額資源投入到推理領域。在2024年底2025年初,我們推出了NVLink 72系統,推出了NVFP4(輝達Blackwell GPU架構引入的4位浮點格式),在此之前還推出了Dynamo(輝達的開源、低延遲、模組化推理框架)。Dynamo幾乎提前兩年詮釋了我昨天才公佈的完整戰略。在那之前,我們就已經知道推理在NVLink 72上表現完美,這就是NVLink 72如此重要的原因。35倍的性能提升,成本只有原來的1/50。或者說每瓦性能提升了50倍,成本只有原來的1/35。因此,我們目前是成本最低的token生產商,也是AI工廠中吞吐量最高的token生產商。這一切,都歸功於NVFP4、NVLink 72與Dynamo的協同作用。隨著市場持續演進,我昨天提出的核心概念之一就是:並非每個token都是等價的——每個token可能由小型模型、較大模型或超大型模型生成,對應的輸入上下文長度也從極短到極長不等。在每個細分領域,AI都在變得越來越智能。AI發展初期,ChatGPT只有一個服務層級——免費檔,隨後推出了每月20美元的付費檔,o1和o3問世後,又新增了更高的服務層級。這些層級本質上就是產品的細分市場在不斷擴大,催生了差異化需求。現在有開發者在使用AI智能體,比如Claude Code和Codex,它們極具實用價值,由此形成了又一個新的服務層級。這和輝達當年只有RIVA 128一款產品的起步階段並無二致。如今我們擁有RTX 5090、5080、5070、5060……各類產品一應俱全。就如同iPhone現在擁有眾多不同版本,覆蓋不同層級——因為客戶群體各異,需求不同,價格定位也不同。我們一直在沿著這一產品譜系全面拓展佈局。就目前token的主流消耗場景而言,現有的Grace Blackwell以及即將到來的Vera Rubin,其性能都無可匹敵,Groq的加入不會改變這一格局。然而,我們判斷一個新興細分市場正在形成——該市場要求模型同時滿足三個條件:模型體量大、上下文長度長,以及推理延遲極低,也就是響應速度極快。Groq可以兌現上述三項承諾中的一項,但無法同時滿足全部三項。將Vera Rubin與Groq結合,我們便能同時實現這三項承諾,由此開闢出一個新的細分市場:大模型+長上下文+超快token生成速率。這正是我們所設想的市場細分方向,也是引入Groq的戰略意圖。我依然認為,在一座算力工廠的配置中,75%仍將是純Vera Rubin部署;另有25%將是Vera Rubin與Groq的組合部署。Vera Rubin仍將是核心。它實在太強了——我們自己都不知道如何超越Vera Rubin,否則我們早就造出能勝過它的產品了。Grace Blackwell是當下的推理之王;明日,Vera Rubin將接過這一王冠。不久的將來,Grace Blackwell終將成為歷史,而Vera Rubin,乃至未來更新的版本,將登頂推理算力之巔。我希望Groq之於輝達,就如同Mellanox之於輝達一樣,是一次架構層面的重要補充。我們建構的不是一塊GPU,而是一座AI工廠。Q2:輝達越來越多地被要求為客戶的資料中心建設提供融資支援。請問這類融資安排的具體形式是怎樣的?輝達又將如何管理其中的風險?黃仁勳:我們只向那些我們相信會成功的公司提供融資。我們投資了CoreWeave、Nscale和Nebius,我認為我們完全可以承認,這些都是全壘打等級的投資。我們之所以有把握認定這些是必勝之局,是因為我們已經看到了流向它們的業務。從很多層面來說,我們掌握著先手資訊。我們通過幫助它們更快、更大規模地擴張來投資整個生態系統。由於我們清晰地看到了它們面前的業務與機遇,風險實際上極低。這對於流向它們的算力需求來說,也是一種極大的服務價值。如大家所知,其中一些客戶就是Meta、Azure、Anthropic等巨頭。我們並非在為所有龐大的市場需求尋找產能,而是通過相關投資切實幫助到每一方。因此,我們以“超級助推器”的角色參與其中。即便沒有我們,他們也能完成融資,但這對我們而言是融入整個生態系統的絕佳方式,坦率地說,迄今為止也是一項非常出色的投資。Q3:隨著OpenClaw和NemoClaw的推出,那類問題是您個人最期待這些工具幫助大家解決的,或者是以前難以實現的任務?黃仁勳:我最期待的是,自動駕駛汽車無需積累數十億英里的訓練里程就能實現安全行駛。如今,我們擁有具備推理能力的AI,使汽車能夠對某一特定場景進行真正意義上的推理,並將其分解為一系列相對平常的子場景。一個複雜的駕駛場景,其實往往是你曾經經歷過的情況的變體,只是把某個球換成了別的物體,把一隻貓換成了一條狗,把一個行人換成了一位騎行者。本質上都是同類場景的分解重組。採用同一推理技術的智能汽車,將帶動機器人技術在未來幾年內實現超高速演進。由於推理系統的突破,物理AI將迎來令人驚嘆的加速發展。具備推理能力的蛋白質生成技術將能夠生成更多基於物理結構的蛋白質,這些蛋白質更具現實可行性、更易於合成,毒性也更低。因為AI能夠對所有這些特性進行推理。這在短短幾年前還是完全不可能實現的。我認為,o1,即OpenAI o1,是推理系統發展史上真正的重要拐點,OpenAI在這一領域的工作理應獲得高度的認可。OpenClaw是後推理時代AI的轉折點。如果說ChatGPT將生成式AI帶給了世界,那o1則將推理系統帶給了世界。Claude Code長期以來主要面向企業級應用,因此大多數人尚未真正體驗過智能體系統——除了我們這些身處軟體開發行業的人。我們正在盡情享受這項技術帶來的紅利,公司所有的軟體工程師如今都有智能體協同工作。但這種體驗僅限於企業內部,侷限於科技行業,尚未向大眾開放。突然之間,OpenClaw橫空出世。我們終於擁有了一個真正架構精良的開源智能體系統。它面臨的唯一挑戰是安全性——安全並非唯一的難題,但確實是一個極其嚴峻的問題。安全、治理、隱私,以及所有與規範化智能體系統相關的特性,都是亟待解決的關鍵議題。我們可以與Peter(OpenClaw創始人)合作,將這些功能整合進OpenClaw。同時,我們還通過一系列執行階段和參考設計來完善OpenClaw,使其即使採用開放模型,也能幫助企業實現極致性能。我們稱之為NemoClaw。NemoClaw本質上就是OpenClaw,外加大量深度整合的輝達技術——基本上是一份經過輝達最佳化、專為企業級場景打磨的OpenClaw藍圖。如今只需一行程式碼、一鍵安裝,每個人都能獲得一個強大的智能引擎。我認為這完全是革命性的突破。回過頭來看,OpenClaw在短短幾周內就成為史上最受歡迎的開放原始碼專案之一,而Linux可是花了30年才達到今天的地位——這是一項非常非凡的成就。它表明全球對此抱有極大的興趣,也揭示了對一個精心設計的開源智能體系統存在著真正潛在且長期被壓抑的迫切需求。現在,每個人都可以制定自己的智能體戰略了。這意義重大,我感到非常興奮。Q4:昨天DLSS 5發佈了,遊戲社區中有些相當強烈的反對聲音,認為這項技術讓許多遊戲看起來更糟糕、千篇一律,或者只能在視訊中觀看。你對這種批評怎麼看?黃仁勳:首先,他們完全錯了。原因在於,我已經詳細解釋過了,DLSS 5將幾何形狀、紋理等遊戲元素的可控性與生成式AI相結合。開發者依然可以對生成式AI進行微調,使其符合自身的藝術風格。一切主動權都在開發者手中。我們創造的是技術,而非藝術。DLSS 5以幾何體資訊為控制基礎,以遊戲的真實渲染結果(Ground Truth)為條件約束,在其上疊加並增強了生成式能力,但並不影響藝術家的控制權。它不是幀等級的後處理,而是幾何等級的生成控制。生成的所有內容遊戲開發者都可以微調。我們展示這項技術,是為了讓開發者看看它能做什麼。如果開發者想讓它變成卡通風格、色調分離,或者玻璃質感,或者任何風格,都能做出來。這些都直接由遊戲開發者控制。這與純粹的生成式AI截然不同。這是內容受控的生成式AI。這正是我們將其命名為神經渲染的原因。Q5:您談到了Groq,並表示不會出現市場蠶食效應。但既然我們擁有了這些新產品,是否會形成不同的收入流,讓我們對那個“1兆美元+”的數字有更清晰的瞭解?第二個問題是關於股票回購的。黃仁勳:這1兆美元,是我們目前基於2027年前的採購訂單所能看見,並對之充滿信心的數字,且僅涵蓋Blackwell和Vera Rubin兩條產品線。問題在於,為何我只納入這兩項。儘管輝達現在還銷售獨立CPU,那將是一項數十億美元規模的業務。Groq自身業務可能翻倍,因此,對於一個1GW的資料中心,Groq可將輝達的整體收益提升約25%。因此,從理論上說,非實際數字,僅為理論推演,這1兆美元有望達到1.25兆美元。我同樣未將儲存系統納入計算。如大家所知,KV Cache的規模已極為龐大,AI使用儲存系統的速度遠超人類,因此儲存系統的性能必須大幅提升。這正是我們推進STX儲存機架等項目的原因所在,一切都是為了徹底重構面向AI的儲存系統。戴爾展示了整合輝達全套技術的AI資料平台,整個儲存行業都將跟隨我們的方向演進。為什麼我只使用Blackwell和Vera Rubin的營收資料?原因非常簡單:去年在GTC上,我曾預測Blackwell加Vera Rubin到2026年的規模為5000億美元。若將1兆的口徑調整為包含CPU、Groq和儲存,則無法與此前的5000億美元作橫向對比。然而,這對外界理解這1兆美元製造了混亂——因為輝達今天已提供遠比以前更多的產品,大家不禁會問:這是否意味著Blackwell加Vera Rubin不到1兆?恰恰相反,實際數字只會更高。1兆美元,僅僅代表Blackwell加Vera Rubin,僅統計至2027年。不含獨立CPU,不含Groq,不含儲存,不含BlueField DPU,不含Vera Rubin Ultra,不含Feynman,不含Feynman Next,一律不包含,僅限Blackwell加Vera Rubin。而距離2027年底還有21個月,這意味著最終數字大機率將超過1兆美元。好的,第二個問題,我們顯然正在產生規模極為龐大的自由現金流。與此同時,輝達的增長也非常之快,增速本身在加快,而不僅僅是絕對數字在增長。上個季度是我們有史以來營收規模最大的季度,同時我要強調,增速也仍在加快。因為我前面所闡述的一切業務,這種雙重增長得以實現,我們將產生大量現金流。這些現金首先是支撐業務增長的必要資本。我們有大量供應商和合作夥伴,採購、產能保障、庫存鎖定,這一切都需要資金,這是第一優先順序的資本用途。第二,我們投資生態系統。生態系統是極佳的投資標的,坦率說,我認為這就是計算產業的未來。我們正在投資“下一個Google”、“下一個Meta”、“下一個亞馬遜”。圍繞CUDA建構的生態系統是我們的第二項核心工作,即便如此仍能保留充裕的自由現金流。我們在上次會議中表示,計畫在本財年通過回購和分紅的方式向股東返還50%的自由現金流。也就是說,2026財年的股東回報將達到自由現金流的50%。去年的自由現金流規模不及今年,分配比例大約是40%左右。今年,在更大的基數之上,我們將進一步提高分配比例。因此,答案是——這將會是一個非常可觀的數字。關於具體的收入流,我認為這並不是我們的運作方式。原因在於:NVLink交換機只搭配輝達的計算產品使用,Spectrum-X也是專門針對特定場景設計的,總體而言有其內在邏輯,但我可以換一個維度來拆解。我在主題演講中已經談到這一點。大多數人忘記了,輝達的業務遠比一家晶片公司多元化得多。原因在於我們是全端公司,能夠幫助各方在任何地點建構AI工廠。戴爾之所以表現得如此出色,是因為他們對此立場清晰、態度坦誠,輝達AI工廠正在全球各地加速落地建設,增速持續加快。我們也在不同國家的園區建設AI工廠。除非你能交付完整的AI工廠,否則這些客戶不會購買晶片,他們沒有軟體能力,你必須是一家全端公司才能服務他們。▲輝達在採訪現場展示全系列產品因此,我們約40%的業務,無論是企業、工業、物理AI、自動駕駛、機器人,還是各地區的NCP部署,或者主權AI,這些場景,任何雲服務商都無法獨立覆蓋。這些客戶購買的不是晶片,而是平台。我們40%的業務規模相當可觀,且完全不屬於雲業務。第二部分是雲業務。其中一部分是我們直接銷售給雲服務商的,但另一部分,他們對我們來說本質上相當於戴爾的角色,也就是說,終端客戶是通過雲平台使用我們的產品。我們為他們帶來了客戶,因為這些客戶是CUDA開發者。舉個例子,如果沒有輝達,OCI(Oracle雲基礎設施)如何能服務OpenAI?OpenAI的整個技術堆疊都建構於此。正是我們將OpenAI引入了OCI。類似的例子還有很多,如果不是因為Anthropic今年將全面建構於輝達之上,我們又怎能將Anthropic引入Azure?這將形成一個極其龐大的生態基礎。能理解嗎?因此,我們在CSP(雲服務提供商)中的很大一部分業務,實際上是由輝達主動創造的。所有CSP對此心知肚明。我們與他們建立了深度的行銷合作關係和業務合作關係,由輝達為他們引流客戶。我昨天展示了大量案例。我們40%的業務,純晶片公司無法服務,雲服務商也無法獨立服務。剩餘60%的業務中,大約40%~50%實際上是輝達主動創造的業務,其餘才是雲服務商自身的內部消耗需求。Q6:我們是不是已經迎來拐點,到達了機器人領域的ChatGPT時刻?請問在您看來,人類與能力出眾的機器人之間,最難攻克的未解難題是什麼?黃仁勳:如果你只是列出當今機器人存在的問題,那清單會相當長,但它們都只是工程問題。事實上,你能看到它們四處走動。(突然有手機鈴聲響起,黃仁勳回答被打斷)黃仁勳:是誰的手機?我沒有太多忌諱,但有一條——開會時所有手機必須靜音。每一位輝達員工都清楚這一點:不振動、不響鈴,徹底靜音。我在等你呢。(等了一會兒後繼續)這些機器人已經開始能夠完成一些任務。一旦一項技術的可行性得到驗證,最佳化往往不超過五年。因此我非常確信,三年之內,你將看到能力極為出色的機器人。由於我們已同步攻克了認知AI,也就是AI認知領域的OpenClaw。OpenClaw在機器人內部運行,這一設想已經相當顯而易見。此外還有VLA(視覺-語言-動作)模型,負責控制機器人的運動與關節協調。儘管仍有諸多挑戰,但系統一與系統二的AI問題,正在被即時解決。因此,我認為三年內,你將見證真正意義上的重大突破。Q7:正如您所說,1兆美元是完全可能實現的,同時也對製造產能提出了巨大需求。結合台積電、三星等廠商的現狀,您如何看待未來五年全球半導體製造產能的前景?黃仁勳:我們將需要大量的製造產能,且不會大量使用ASIC專用晶片。我們是目前資料中心中唯一一個同時針對三種儲存技術進行最佳化的架構:HBM、LPDDR、SRAM。目前,其他資料中心CPU均採用DDR記憶體,但其頻寬能效相當低下。輝達率先在Grace CPU中引入了LPDDR4,這是一次革命性的突破。我認為再過幾年,業界都將跟進。大家現在都意識到這是一個多麼正確的決策。Vera CPU採用LPDDR5,Rosa CPU採用LPDDR6。我們現在擁有完善的LPDDR技術路線圖。AI運行需要大量記憶體,它必須依靠短期記憶、工作記憶和長期記憶來思考。因此,記憶體是AI體系中極其重要的組成部分。當然,互連同樣關鍵。我們在縱向擴展(Scale-up)和橫向擴展(Scale-out)兩個維度同步推進,系統規模持續擴大,需要大量產能支撐。世界仍在學習這樣一個概念:傳統意義上,電腦主要用於資料錄入和資料檢索。大家注意,人類通過鍵盤輸入。這是使用電腦的舊方式。未來,電腦實際上是一台“製造機”:一個token生產系統,而當前全球專用於token生產的電腦規模極為有限。之所以如此有限,是因為迄今為止我們出貨的大多數系統仍被用於訓練。如今,推理的拐點已經到來,OpenClaw橫空出世,智能體系統正在各處廣泛應用。用於推理的token生產規模才剛剛起步。我們究竟需要多少算力投資?我認為需要數兆美元量級的產能。因此,我認為晶圓代工廠將會極度繁忙。我們很榮幸與台積電合作,毫無疑問,這是世界上最頂尖的代工廠。我們還與三星合作。由於我們對記憶體的消耗量極大,我們與每一家記憶體廠商合作,並將與每一家連接器廠商、每一家矽光子公司攜手共進。Q8:AI的應用場景可以說不計其數,我們甚至還未能全部預見。但有一個話題直到最近才真正引發深入討論:我們不希望AI做什麼?我很好奇——在您看來,有那些領域是AI不應進入的,甚至是永遠不應涉足的?黃仁勳:自主能力總會有一個範圍。我的電飯煲在某種程度上是自主的,今天的無人機在某種程度上也是自主的。面對這些事物的範圍,我們需對所追求的功能本身保持更多審慎與反思。AI不應該違法。AI不應該承諾提供它沒有的功能。例如,如果一輛車說它能以65英里每小時的速度安全駕駛,我們希望它不會在50英里時就爆炸。這些都是人類在長期實踐中總結出的極具常識性的準則。至於其他方面,我認為我們應當持續學習,對自己的認知邊界保持更多謙遜。用科幻小說式的AI敘事去恐嚇所有人,在我看來是一種傲慢,過於自大了。我更傾向於在探索中前行,而非以恐懼驅動他人。提醒人們是一回事。嚇唬人們是完全不同的事。在劇院裡有些話不能說,在飛機上也有些話不能說。人類的判斷力會告訴我們,"提醒"與"恐嚇"之間存在本質區別。我有我自己的觀點,但最終分析下來,我們需要AI為我們做很多偉大的事情。例如,我們需要AI智能體系統參與網路安全。我們希望企業被“白細胞”所守護,以防有入侵者。網路安全智能體可以立即響應並蜂擁而至,攻擊入侵者,就像白細胞一樣。任何其他分析AI和網路安全的方式對我來說都不合邏輯,因為未來,網路安全威脅的演變越來越快,我需要超高速的AI智能體來保護我。我認為這是一個完美的例子,沒有人不想要白細胞。白細胞本質上是攻擊性細胞,它們主動出擊,那是好事。讓我們保持安全。Q9:我們正在進入一個3D模擬世界。我剛剛體驗了輝達的模擬器演示,你認為這個3D模擬世界未來幾年會如何發展?黃仁勳:剛才那位朋友問了我一個相反的問題:DLSS 5是用生成式AI來增強3D圖形的,而你看到的另一個例子——Cosmos——則是用電腦圖形去控制生成式AI。歸根結底,一切都在於“控制”。我們希望AI是“有根基”的。我們提出“檢索增強生成”(RAG,Retrieval Augmented Generation)的一個重要原因,就是要讓生成建立在真實基礎之上:你提供一些文字或資料,AI再基於這些真實資訊去生成內容。昨天我也提到,在AI的世界裡,我們是否需要記錄系統?是否需要SQL?答案是:絕對需要。因為SQL所代表的,是記錄系統,是我們業務中最真實、最可靠的資料基礎。而這些真實基礎,正是用來“約束”和“支撐”生成的。否則,生成出來的就只是幻覺。你剛才看到的那個虛擬駕駛體驗之所以真實,是因為我們用3D條件對它進行了約束——用各種必要的條件去“錨定”它,從而實現高保真的體驗。在這種框架下,你可以生成任何內容,而且可以用文字、圖像、3D等多種方式去控制它,其餘的部分則由AI生成。所以未來的發展方向,要麼是完全結構化的生成,要麼是由真實世界資料來控制的生成。這就是未來。你會不會在你的眼鏡裡體驗到這樣的東西?答案當然是會的。在眼鏡已經能看到真實世界的存在。如果我再用生成式AI去增強這個基礎,就可以創造出更豐富的體驗。Q10:您展示了Vera獨立機架的部署形態。隨著AI需求的持續增長,這些CPU的適用場景越來越清晰。您是否認為它們最終將承擔x86架構在資料中心中傳統承擔的角色?這是否是一個數十億美元等級的市場機會?黃仁勳:這些CPU是為資料密集型工作負載而設計的。它們針對的是高單線程性能需求,同時也面向電力受限的資料中心環境。在這種場景下,它們的每瓦性能可以實現2倍提升。目前市場上沒有其他CPU能做到這一點——除了Vera和Grace。在電力受限的資料中心中,實際上,所有採用輝達產品的資料中心基本都是電力受限的,因為一旦你擁有兆瓦級的電力,你會希望儘可能把電力用在GPU上,而不是浪費在CPU上。原因很簡單:GPU在生成token、創造價值,而CPU並不是主要的價值生產者。因此,如果可以,你會希望把絕大部分電力預算分配給GPU。當然,我們仍然需要CPU,但我們要讓它們極其節能。這也是為什麼我們使用LPDDR記憶體。同時,我們的CPU在單線程性能、頻寬效率方面都處於全球領先水平,頻寬甚至達其他方案的三倍。之所以把頻寬做得這麼高,是因為我們需要處理海量資料的移動。因此,我們設計了Vera、Grace等CPU,它們是專門為AI時代打造的。它們適用於所有場景嗎?未必。比如“每美元性能”可能不是最優,但那並不是我們要解決的問題。舉個例子,在過去十年的超大規模資料中心中,CPU設計的核心目標是最大化每顆晶片的核心數量。因為在雲端運算模式下,使用者是按“核心數”租用資源的。所以,對於雲廠商來說,“每美元核心數最多”的CPU就是贏家。但AI不一樣。AI關注的是“完成多少工作”,而不是“有多少核心”。如果你有價值500億美元的GPU在那裡運行,你絕不會讓它們因為CPU處理不過來而閒置,這些CPU可能就價值10億美元。你需要的是讓CPU盡快完成任務,讓500億美元GPU持續高效運轉。所以,我們的最佳化方向完全不同。我們打造出了一種截然不同的CPU架構。我們始終從“要完成什麼工作”出發來設計系統。一旦這一判斷最終變成顯示,我們就建構出最合適的整體系統。無論是Vera、Rubin,還是儲存、CPU、網路、甚至整個機架,都是圍繞我昨天提到的那類工作負載來設計的,也就是智能體。事實上,OpenClaw就是一個很好的例子。在資料中心中運行OpenClaw,配合Vera Rubin整套系統,是非常理想的組合。所以,我想這應該回答了你的問題。Q11:看起來Feynman將採用某種3D堆疊工藝。請問您能否介紹一下主Die、IO Die)以及先進封裝技術的規劃方向?供應鏈穩健性是否也在你們的考量之內?黃仁勳:供應鏈的彈性、多樣性總是影響我們的業務,因為我們規模很大。然而,如果我告訴你,那明年參加GTC還有什麼意義?到時候就只剩你和我,兩個人。Q12:你昨天介紹了LPU的整合,OpenClaw的出現似乎真的讓您眼前一亮。OpenClaw如何改變了你的日常生活?如何改變了輝達的戰略?黃仁勳:當OpenClaw出現,我們意識到世界終於擁有了一個開源智能體——我們現在幾乎可以將其當作一個行業標準。我們希望儘可能多地向這個開放原始碼專案貢獻能力,避免世界因此分裂成太多互不相容的分支項目。如果我們能將這個主項目打磨得足夠優秀,全球每家公司都能以此為起點,建構自己的智能體戰略。OpenClaw之所以意義重大,關鍵就在於它是開放原始碼的。它已經非常強大,工程質量相當成熟。我們將在未來30年間持續為其注入能力,就像我們持續向Linux和Kubernetes貢獻程式碼一樣。試想一下,全世界都有了一個可以共同貢獻的平台。想像OpenClaw未來將變得多麼強大。OpenClaw只需一行命令就能安裝。安裝完成後,你告訴它你想讓它成為什麼。比如你說:我希望你學習這個新工具。它便去閱讀使用手冊,可能是Skill文件,然後上網搜尋它需要學習的內容,自行摸索如何使用。你給它一個最終目標:我想設計一個廚房,我的廚房現在是這個樣子,這是我希望它未來呈現的效果。去下載相關軟體,去學習這些應用,找到使用它們的方式。如果需要訂閱某個服務,只要不超過這個金額,你有我的授權去訂閱。然後幫我設計廚房,找到合適的家具,給我幾個家具示例和報價,幫我做平面佈局,渲染給我看。我剛剛這通指令,就是給了它一個它能夠完成的項目,然後它便獨立出發,學習、呼叫工具,反覆嘗試。它生成第一版廚房設計,與你給它的參考圖片進行比對,然後判斷:“差得有點遠,繼續改。”於是一遍又一遍,直到完成後返回給你。第一次完成後,你給它一些額外指導,它再次回來。完成後,它便學會了這項技能——它學會了如何做室內設計。於是,它將自己的學習成果總結成一份技能文件,存入記憶。下次你說“幫我設計客廳”,它便回想起:“原來設計房間是這麼回事。”它會表現得更好。你再次給它指導,它再次更新自己的技能文件。下一次你說我要設計臥室“,你能看到,它完全是在執行同樣的過程:拆解任務,呼叫工具,運用記憶。這真的相當了不起。輝達如今的運轉速度比以往任何時候都快,但這是因為我們越來越多地使用AI,工作完成得更快了。所有項目的推進速度都在提升,這都是好事。說實話,我感覺自己越來越忙了。我今天與輝達的工作體驗是:它讓我比以往任何時候都更忙——比六個月前更忙。原因就在於工作成果反饋得更快了,項目數量也增長得更快了。我認為這是所有人共同的體驗。很多人說AI來了,我們會失去工作。恰恰相反。事實是:PC讓我們更忙了,網際網路讓我們更忙了,移動裝置讓我們更忙了。AI將以超快的速度完成任務。你寫一份規格說明、一份架構文件、一份產品定義,交給智能體,30分鐘後,它又回到你的案頭了。過去,你寫完產品規格說明,團隊拿去工作一個月。那個月裡,你在做別的事情,生活節奏相當從容。如今,那一個月已經壓縮成了30分鐘,你隨時都在關鍵路徑上。這位朋友的工作並沒有消失,只是感覺更忙了。我的判斷是:AI將使我們以如此之快的速度推進工作,以至於我們最終會承擔更多的工作量。Q13:在AI算力市場中,Vera Rubin帶來的需求有多少是新增量,又有多少是超大規模雲服務商對Blackwell的升級替換?黃仁勳:這個問題的答案,最終取決於我們所處的產品設計周期與建設周期的那個階段。這就好比iPhone 3發佈時,iPhone 3的銷量中有多少蠶食了iPhone 1的市場,又有多少是新增銷售?事實上,iPhone 3銷量的99.9%都是新增銷售。iPhone 4發佈時同樣如此,99.9%是新增,而非替換。直到大約十年之後,這種格局才開始發生變化。一項技術擴散到全世界,大約需要十年左右。如今大約每四年就會迎來一輪新的資本支出周期。我的判斷是:我們目前處於輝達推理拐點的第一年,這是十年來推理領域真正意義上的第一個拐點年。十年之後,市場可能趨於飽和。而Vera Rubin是拐點的第二年,新增需求的比例同樣會達到99%。Q14:請問您能否更新一下輝達在中國資料中心業務的信心水平,以及這些出色的產品未來能否在中國市場重新建立有實質意義的存在?黃仁勳:我能夠回答的是:我們已經獲得了向中國眾多客戶銷售H200的許可證,也已經收到了來自眾多客戶的採購訂單,目前正處於恢復生產的過程之中。這對大家來說是新消息,與兩周前的情況已有所不同,這是我們當前的實際狀態,供應鏈也正在重新啟動。大家很快就會開始聽到相關消息。其次,我認為川普總統的意圖是:美國應當在獲取輝達最先進技術方面保持領導地位,但他同時也希望我們能夠在全球範圍內參與競爭,而不是不必要地拱手相讓那些市場。綜合我剛才說的三點——H200許可證、客戶採購訂單,以及他所表明的相當直接的意圖,我有充分理由相信他的立場始終如一。Q15:我很想進一步瞭解您在開源模型方面的願景。我個人認為開源AI是現有體系的重要補充。請問輝達推進開放原始碼的驅動力,究竟更多來自生態系統擴張、客戶基礎延伸,還是戰略層面的考量?Nemotron的路線圖是否會長期堅持下去?黃仁勳:我們已經發佈了GR00T 1、GR00T 2,Cosmos 1和2也已發佈,Nemotron 1、2、3均已推出,Nemotron 4我們已啟動聯合開發。之所以要對模型進行編號,是因為你有持續推進的意圖。就像CUDA,我們現在已經到了CUDA 13。這本身就回答了這個問題——我們絕對有意願持續推進前沿附近的基礎模型研發。我們未必要做到絕對前沿。那並非我們的使命。我們的使命有幾個層面:我們希望為世界打造可信賴的開源模型,以輝達的體量和能力,確保每年穩定迭代,讓所有人都知道,你們可以信賴我們。說到做到。另一個原因是:我們自己在開發模型的過程中,可以針對新一代晶片和系統架構對模型架構進行深度最佳化。這是其他團隊未必能做到的。舉個例子,如果沒有TensorRT-LLM,我們就無法探索NVLink 72的性能極限;如果沒有Dynamo,我們就無法探索解耦推理的邊界,也就不會有後來收購Groq團隊的決策。擁有自己的軟體團隊,保持工業級、前沿水準的軟體能力,使我們能夠在整個系統層面持續創新,軟體與硬體相互成就,形成正循環。我們對開源模型生態系統的投入是堅定的。Q16:輝達自動駕駛業務目前約佔公司總營收的1%。您認為,決定自動駕駛業務能否對輝達財務業績產生實質性影響,最關鍵的挑戰是什麼?黃仁勳:這個問題對我來說意義特別深刻。輝達的CUDA業務曾經佔總營收的0%,卻佔據了我們90%的成本。任何理性的人都會放棄,但如果我們真的放棄了,在座各位今天就不會出現在這個房間裡。25年前,我們首次推出可程式設計著色器時,沒有人知道如何使用,沒有人願意為此付費,沒有任何評測機構認為這是個好主意。如果我們當時放棄了,可程式設計著色就不會有今天。8年前,我宣佈推出RTX光線追蹤時,所有人都認為這是個笑話,說光線追蹤一塌糊塗。如果我們沒有RTX,今天的全場景路徑追蹤電腦圖形學也不會有今天。事實證明,我們最初做的幾乎每一件事,都耗費了大量資金,卻毫無回報,甚至引來不少質疑。因此,你必須堅信自己所相信的,然後決定是否值得繼續追求。10年前,我開始投入自動駕駛。最初的團隊只有我和另外一個人。我們踏上了這段探索之旅,試圖弄清楚自動駕駛的技術難題究竟是什麼。如今,我們有數千人在從事自動駕駛相關工作。你說它只佔1%,但請記住,輝達的自動駕駛業務實際上涵蓋三台電腦:訓練系統、合成資料生成與模擬系統,以及自動駕駛車載系統本身。只有最後一部分被我們歸類為自動駕駛業務,但因為我們深耕這個領域,整體業務規模遠比大家認為的要大。特斯拉購買輝達系統用於訓練,Wayve以及全球每一家正在研發自動駕駛的公司,無論是卡車、面包車、乘用車還是無人計程車,都在向我們採購這三台電腦中的一台或全部。這個規模相當可觀。但即便業務規模為零,我也會繼續推進。為什麼我如此確信自動駕駛一定會實現?因為我完全相信,自動駕駛在技術層面已經是一個被解決的問題。我們花了10年才走到這一步,但它確實已經被解決了,剩下的只是工程層面的持續打磨。10年之後的某一天,全球每天1兆英里的行駛里程將實現100%或接近100%的自動駕駛。今天,這一數字之所以有限,唯一的約束就是司機座位上的人,也就是駕駛仍需要人的參與。如果沒有這個約束,全球每天的行駛里程一定會大幅增長。假設每天有2兆英里,再乘以每英里若干美元,這將是一個數兆美元量級的市場。大多數數兆美元量級的市場,在某個時間點都是從零開始的。所以我完全接受它現在還在零附近,我的信念不會改變。Q17:在您看來,歐洲成為優質AI合作夥伴最有力的訊號是什麼?黃仁勳:歐洲許多國家,德國、瑞典以及英國的部分地區,曾是上一次工業革命的發源地。事實上,有三個國家引領了全球機電一體化的發展,這是技術與機械工藝、工業化的深度融合。機電一體化在德國、瑞典、日本都非常強大;美國曾經也很強,但我們將製造業外包得太多了。然後,下一場工業革命來了——IT和軟體革命,這對製造業來說非常陌生。製造業的文化是嚴格的、一步一步的,每一件產品在發貨之前必須完美,因為它可能傷害到人。而軟體的運作方式是叢集式的,你必須在它還沒有完善之前就發佈,因為如果你不發佈,它永遠不會被修復。這不只是技術上的差異,而是深層的文化差異。正是這種文化差異,導致美國在IT革命中全面主導,而德國卻被落在了後面。但希望來了。OpenClaw不需要你去程式設計,它只需要你告訴它該做什麼。你可以跨越IT革命,直接跳躍到AI革命。這正是我每天對德國、日本、韓國、瑞典所說的話:這是你們的機會,讓過去成為過去。這已經不再重要了——因為正如大家所知,軟體工程師已經不需要再寫程式碼了。對德國來說,這應該是最令人振奮的消息;對日本來說,同樣如此。直接擁抱AI,然後將AI技術與你們世界級的機電一體化工業能力深度融合。你們將一躍成為全球機器人產業的領導者。我是你們最堅定的擁躉。Q18:隨著推理需求的興起,大量初創公司和成熟企業湧現,試圖解決速度、記憶體、功耗等各種瓶頸。其中有些公司公佈的token效率資料,與輝達產品的表現形成了直接競爭。這與GPU早期時代的競爭格局似乎大不相同,被認真對待的競爭者明顯更多。我們如何確信輝達的推理方案是最快、最優的?如果Groq加Vera Rubin成為主流推理解決方案,輝達又將如何維持這種領先優勢?黃仁勳:我建議大家參考兩到三個基準測試,直接看客觀事實。第一是MLPerf,這是行業內最嚴格的基準測試。大家去看看輝達在其中的位置,我們在MLPerf推理和MLPerf訓練兩個榜單上全線第一,而且大多數參與者根本無法完成全部測試項目。第二是SemiAnalysis,這可能是目前覆蓋最全面的推理分析,涵蓋你能想到的每一個維度,結果同樣是輝達。如果允許我引用別人的話,“推理之王”,我就是喜歡這個稱號的感覺。那條冠軍腰帶也很漂亮,通常你得到的是玻璃獎盃,不知道放那裡好,但一條冠軍腰帶,這種感覺蠻好的。這就能清楚地告訴你我們在推理領域的位置。第三是Artificial Analysis,涵蓋了所有API推理服務公司,對每一家推理服務商進行全面評測。你會發現輝達在整個榜單頂端,而且輝達是該榜單覆蓋的約20項服務中唯一一個全系列上榜的解決方案。事實已經說明,我們在推理領域非常、非常強。我們理應獲得這份認可。我們的推理之所以如此出色,不只是因為我們的浮點運算能力強,而是因為我們進行了極致的協同設計。推理是一個巨大的電腦科學問題,是一個巨大的電腦系統工程問題,涵蓋CPU、GPU、縱向擴展交換機、橫向擴展網路技術、記憶體技術、儲存技術——所有這一切必須協同運作才能做好推理,而我們比任何人都做得更好。Q19:請問輝達與台積電在共封裝光學(CPO)方面的合作進展如何?另外,美國商務部長曾希望將台灣40%的晶片產能遷移至美國,這在現實中是否可行?黃仁勳:首先,我們與台積電共同發明了CoUP,這是一種將電子器件與矽光子引擎直接整合在同一塊晶片上的技術。我們為整條供應鏈申請了約100項專利,並將我們的全部技術開放授權給整個供應鏈,以便各方能夠協同打造矽光子CPO(共封裝光學)技術——讓電子與光子在同一個封裝中融合。目前,我們佔據了台積電COUP工藝產能的絕大多數。Spectrum-X的量產爬坡已經啟動,未來還將持續擴大規模。關於40%這個目標——在當前及近期來看非常難以實現,因為需求仍在持續高速增長。台積電正在盡全力在美國亞利桑那州及周邊建立新產能,整條供應鏈也在美國本土佈局。然而,新晶圓廠和新工廠還在建設的同時,全球整體需求的增速之快,使得在近期內實現40%這一目標將極具挑戰。Q20:您向Nebius投資了20億美元,同時也投資了Lumentum和Coherent。請問您在做這些投資時的思路是什麼?黃仁勳:我們始終在思考兩個方向:上游供應鏈和下游合作夥伴。你必須想像輝達的技術與全球解決方案的完整整合路徑,一直延伸到終端使用者側——有人在消耗token,有人在使用OpenClaw,有人在使用ChatGPT、Anthropic,有人在使用Runway、Black Forest Labs……你必須把這條鏈路想通到底。向上看,未來2~5年,我的上游供應鏈需求是什麼,我現在應該為此做那些準備?向下看,我需要怎樣的下游產能——土地、電力、廠房,或者開發者生態——未來1~5年我需要什麼?當你向上看,你會發現我們正在隨Spectrum-6大規模引入矽光子技術,並將在未來幾年把矽光子加入到NVLink的縱向擴展技術中。這意味著我們所需的矽光子產能,將遠超今天全球現有水平。因此我們與供應鏈合作,提前幫助他們建立產能。有時我們提前付款,有時只是給出預測,有時如果某項技術產能極度緊缺但需求巨大,我們可能會選擇直接投資該公司,同時提供預付款、預測以及其他支援。Coherent和Lumentum就是這樣的思路,這屬於我們上游供應鏈的戰略佈局。而Nebius則是下游合作夥伴的投資。上游一個方向,下游另一個方向。我始終沿著整個技術與製造的生命周期進行全域掃描,持續為公司的增長做好準備。Q21:資料對於世界模型極為重要,遊戲能產生大量資料。請問遊戲玩家資料和雲遊戲資料,對於世界模型訓練是否真正有價值,甚至能夠超越遊戲本身的應用範疇?黃仁勳:在一定程度上是的。但需要注意,大多數遊戲並不嚴格遵守物理法則。比如在《堡壘之夜》中,角色的奔跑動作與其體型所能支撐的速度並不匹配,是一種半跑半飛的狀態。因此,在訓練希望基於物理規律的基礎模型時,必須小心過濾掉這類不符合物理規律的觀測資料。遊戲中的角色可以從山頂跳下,遊戲與現實中樹木搖曳、海浪起伏的方式完全不同。如果條件允許,你應當回歸真實基準資料。當然,你也可以使用遙運算元據,或者使用模擬資料——這正是Newton的用武之地。Newton和Isaac Lab運行在3D圖形環境中,但其動畫是完全基於物理模擬的,碰撞遵循物理原理,關節運動遵循逆運動學。因此,Newton和Isaac Lab中的所有屬性都嚴格遵守物理規律,可以將其與真實世界的可觀測資料結合起來,共同訓練世界模型。一旦世界模型達到足夠的能力水平,你甚至可以反過來。用3D圖形控制世界模型來生成新的合成資料。這就形成了一個飛輪:最初我們使用真實視訊資料,然後用3D模擬資料加以增強,幫助我們建構出世界基礎模型,再用遙操作或3D模擬來控制它,進一步放大合成資料的生成規模。這個飛輪正在啟動。這有點像:你必須先積累足夠的知識,理解事物的運作規律,然後才能想像未來的各種可能場景。我們訓練了自己的世界基礎模型,現在能夠生成各種未來的可能性。而這些對未來的合理推演,本身就成為了我們的學習素材——我們將它們轉化為訓練資料的真實基準。就我個人而言,在思考輝達的戰略和行業走勢時,我其實生活在一個完全由腦中模擬建構的未來裡。我會定期校驗這個模擬是否與現實保持一致,持續重新評估。如果我的假設、我的模擬與現實始終保持連貫,說明我對未來的判斷正在成真,我便堅守這個願景,始終如一。Q22:輝達在Spectrum X上採用了CPO。這項技術會擴展到整個網路產品組合中嗎?大規模生產的關鍵挑戰是什麼?另外,這會加深與台灣CPO供應鏈的合作嗎?黃仁勳:我從後往前回答。我們與台灣CPO供應鏈合作非常緊密。當然,這個供應鏈始於台積電的晶片製程工藝,每一個環節,包括組裝和封裝,都極其複雜。Spectrum 6取得了巨大成功。事實上,Spectrum 3也是巨大成功。Spectrum 4是我們的第一款乙太網路交換機。當時所有人都認為我們很難打入乙太網路領域,但我們完全專注於AI乙太網路,徹底重構了乙太網路技術,以支援AI特有的流量類型和計算模式。Spectrum 4、5、6都是巨大的成功。我們現在已經是全球最大的網路公司了。這實際上是NVLink和Spectrum的完美結合,都是本壘打等級的成功。Q23:去年底,Allen Institute的一位知名研究員曾警告,AI算力擴展的可用槓桿——包括資料、精度等——大約還有兩年就會耗盡。您之前提到Blackwell引入了MX資料格式,Vera Rubin又有所推進,請問輝達手中還有那些擴展維度尚未動用?黃仁勳:NVFP4不只是改變了浮點數的精度,而是徹底重構了整個張量核心引擎(Tensor Core Engine)的結構。NVFP4本身就是一套張量核心引擎,而不僅僅是一個數值格式。它的處理結構是動態的——動態上採樣、動態下採樣,從而在儘可能節省能耗、提升計算量的同時,保留最終計算結果的精度。這套動態調整機制,正是張量核心引擎之美所在。整個行業在FP8上的普及才剛剛穩固,我們已經在推動向NVFP4的遷移了。再往後,FP1這類格式確實有些奇特,精度擴展的空間大概也快到頭了。所以你最初的判斷並非沒有道理。但輝達有一個重要優勢:極致的協同設計。過去十年,我們的計算效率提升了約100萬倍,而摩爾定律在同期只貢獻了約100倍。摩爾定律鼎盛時期的預測是十年100倍,而我們做到了100萬倍。我們不只是靠精度的提升。單靠精度,每年大約只有2倍的提升空間。我們的速度遠超精度擴展所能解釋的範圍,未來也將如此。我們還有很多旋鈕可以撥動。每一年,我都會向大家展示新的旋鈕。去年,我們展示了NVLink 72,在功耗大致相當的前提下,性能提升了35倍。這就是架構的力量,這正是極致協同設計如此重要的原因。也許可以給大家一個小提示:未來不只是關於大模型層面的最佳化,未來是關於智能體系統。智能體系統使整個問題空間再次大幅擴展。而當問題空間擴展,你就有更大的機會去尋找那個質的飛躍。Q24:隨著智能體工作流的興起,許多人認為新思科技、Cadence這類傳統軟體平台將被取代。請問您如何看待AI與這些軟體公司之間的關係?黃仁勳:請轉告散戶投資者,他們的判斷完全錯了。這甚至不是我需要保護的業務,但是非對錯還是要講清楚。舉個例子,新思科技、Cadence,以及所有設計工具,它們業務規模的上限,取決於有多少工程師坐在那裡使用。工程師數量有多少,工具就能賣出多少許可證。就像管道工多了,管道工具就賣得多;木匠多了,木工工具就賣得多。但未來,我們將擁有大量AI智能體工程師。這些智能體工程師會做什麼?憑空生成電晶體嗎?不,它們會使用和人類工程師一樣的工具,因為工作完成後,必須把結果放回人類可以理解的結構化資料中。如果我無法理解、無法控制輸出結果,這就回到了我們反覆提到的可控性問題。SQL會因為智能體的出現而消亡嗎?不會,SQL恰恰是我們業務真實基準的存放地。當智能體完成工作,請把結果放回SQL,這樣我隨時都可以去查詢。同理,當智能體完成晶片設計,它會使用新思科技和Cadence的工具,設計結果最終也會回歸到這些工具的檔案系統和資料結構中,這才是設計的真實基準。如果我需要精確復現設計,不是“大概能用”,而是“必須精確可用”,AI深度學習可以生成大致可行的設計,但我不能接受“大致可行”,我需要“完全精確”,而這正需要新思科技的工具來保證一致性。正因為有了智能體,我們需要授權的新思科技工具數量很可能會爆炸式增長,而不是減少。有些人有個奇怪的想法,認為AI可以從零開始憑空生成電晶體,他們以為輝達工程師每天就像在用Nano Banana生圖一樣設計晶片。這裡沒有貶低Nano Banana的意思,但晶片設計必須一層一層地精確建構,因為它必須是可驗證的、可理解的、可重複的、可控的——不能依賴機率。Q25:請問你去年最大的挑戰是什麼,今年最大的風險又是什麼?黃仁勳:我的工作可太難了。就一條嗎?我的人生哲學非常簡單:別被開除,別無聊,別死。在這三者之間,儘量保持平衡。這對輝達同樣適用:不要被客戶開除,不要無聊到公司停止創造價值,不要倒閉,然後待在這三者的中間地帶。這就是人生秘訣,去年如此,今年亦然——你可以說是黃仁勳的“人生三訣”。這三條聽起來簡單,但每一條都是極高風險的。Q26:在中東戰爭和全球地緣政治動盪的背景下,輝達如何看待在台灣方面的風險?黃仁勳:首先,我們在以色列有6000個家庭,我非常擔心他們。我知道他們自己也很擔憂,但我們公司仍在非常努力地營運,員工們依然在非常努力地工作。儘管如此,這絲毫不減輕我們對他們的牽掛。我對以色列的承諾是百分之百的——我們會長期在那裡,員工得到我們百分之百的支援。對台灣同樣如此。我們在那裡有數千名員工,他們深耕於此已經很長時間。我們整條供應鏈都在那裡,與我們合作的數百家公司中,不乏全球最重要的企業。我唯一的希望,是大家都能攜手合作,保持和平,著眼大局,保持冷靜,不斷提升自身韌性。我百分之百相信,我們將繼續依靠和倚重以色列的出色產業;我同樣百分之百確信,整個世界將在很長很長一段時間內繼續依賴台灣。Q27:如果您的願景得以實現,十年後輝達會是什麼面貌?黃仁勳:我們會非常忙碌。希望屆時輝達擁有約75000名員工,規模儘可能精簡,同時足以支撐使命。這75000名員工將與750萬個AI智能體協同工作,智能體全天候不間斷運轉。希望我們的員工不需要跟上智能體的節奏,我很確定他們也跟不上。這就是未來。我們將解決一些真正了不起的問題。我們今天正在努力解決的那些事情,十年前沒有人會想像這是可解的。機器人基本上已經是一個被解決的問題;自動駕駛汽車基本上也是一個被解決的問題;藥物研發,我們正在像對待工程問題一樣對待它。延長人類壽命——這一切現在都完全處於可能性的範圍之內。十年前,沒有人會想像這些是可實現的。而十年後,最好的思維工具之一,就是認識到不可能其實相當實際可行——任何看似需要數百萬倍能量、成本或時間的事,都可以被壓縮數十億倍。距離會縮短,一切將因機器人變得更輕盈,事情會完成得更快,能源消耗也將大幅降低。在我剛畢業的那個年代,我們今天談論的一切,連科幻小說裡都沒有出現過。我們現在談論的這些事情,本身就已是非凡壯舉。關於人類,我唯一可以確定的是:我們如今允許自己打開想像力去解決的問題,比四年前多出了百萬倍。那麼再過十年,當我們意識到還能解決那些問題時,會是什麼景象?那些問題我們甚至還沒開始想像。因此,我非常確信,未來還有無數等待我們去解決的偉大問題。我甚至嫉妒那些四十年後還在世的人。Q28:Vera Rubin整體系統,主要是為瞭解決當前的技術瓶頸,還是在重塑AI的商業模式?黃仁勳:我們建構的每一套系統,都能讓當前的問題和工作負載得到數倍的提升,同時也總會開闢出一片新的問題空間——那些我們今天還無法解決的問題的新視野。昨天我展示圖表時,有一個規律我每次都會呈現:我們既向上推——對於任何給定的工作負載,我們持續提升吞吐量和性能;也向右推,AI變得更聰明,能力邊界不斷擴展,出現新的可能性。舉個例子:今天使用ChatGPT或任何AI,你大約能獲得每秒20個token的生成速度。而我展示的圖表是每秒1000個、乃至2000個token。想像一下——你按下回車,答案以快100倍的速度返回。未來,當你還在輸入的時候,AI已經在思考了;等你按下回車,它已經完成了。不論是幫我寫一個網站程序,還是幫我設計一個廚房——按下回車,完成。這就是未來。每一年,我們提升吞吐量,我們擴展可能性的邊界。Q29:您說AI讓我們所有人都更忙了,但同時您又預測物理AI和機器人將承擔今天工人從事的體力勞動。這兩件事如何能同時成立?未來會不會出現大規模失業?黃仁勳:首先,全球目前有數千萬製造業崗位的缺口。大家知道嗎?我們的卡車司機短缺數百萬。製造業工人短缺數千萬。就業率很高,但很多公司仍然招不到足夠的勞動力,大多數公司都面臨勞動力短缺的問題。機器人將填補這個缺口。這是第一層。填補缺口的結果,是所有國家的經濟都將增長。而經濟增長時,大多數公司往往會僱用更多人,用來管理更多機器人,管理更多智能體,推動業務增長,發現新問題、解決新問題,嵌入新技術,發明新產品、新服務。這很可能就是未來的軌跡。我之所以這樣判斷,是因為:如果我取今天這個點,再取100年前那個點,連成一條直線——就業崗位數量一直在增長,各國經濟一直在增長,我們所有人都比以往任何時候都更忙。你上一次坐在門廊的搖椅上,喝著一杯檸檬水,看夕陽西下,是什麼時候?那個畫面是100年前的事了,不是嗎?我們比以往任何時候都更忙。這條趨勢線大機率還會延續。我們都將有穩定的工作。當然,每一種職業都會發生變化,有些工作會消失,有些工作是全新的。就像過去人們用馬來耕地、代步,而現在一匹良馬價值500萬美元。世界在變,AI會改變這一切,但我相當確信,這將是一個更美好的世界。Q30:昨天的公告中提到了現代、日產、比亞迪、吉利與輝達的合作。對於比亞迪和吉利而言,L4等級的自動駕駛功能落地,在中國的監管環境下究竟如何運作?黃仁勳:這是這樣運作的:在中國,比亞迪、吉利、小鵬、理想都是我們的合作夥伴和客戶,它們發展得很好,也將繼續發展得很好。我們與它們共同基於DRIVE Hyperion實現了感測器和計算架構的標準化。當它們的汽車進入歐洲市場,某些國家可能無法接受它們的軟體棧。這時,輝達的軟體棧就可以直接啟用。而在中國,它們使用自己的軟體棧完全沒有問題。在歐洲或亞洲的某些地區,如果當地軟體棧不適用或不被接受,我們的軟體棧就可以替代上去。中國政府的規定適用於中國,但並不適用於德國。比如,如果比亞迪想在德國以自動駕駛模式營運、接入Uber,它完全可以使用DRIVE OS來實現。這就是雙贏的方案。我們只是想讓所有人都滿意。(現場,全球規模最大的汽車媒體Motor Trend宣佈授予黃仁勳“年度人物”)黃仁勳:真的嗎?太棒了,謝謝。我要站在這裡,直到再多拿幾個獎。不過我需要懺悔一下,我已經兩年沒有自己開車了,我現在是被自動駕駛接送的。我得了“推理之王金腰帶”、“Motor Trend年度人物獎”,太棒了。Q31:CUDA在2006年發佈,市場過了很多年才真正理解它的價值;NVLink 2014年推出,NVLink 72 去年才被廣泛認可。請問您認為輝達現有產品中,那一個是市場目前尚未充分理解、但五到十年後將被證明極為重要的?黃仁勳:我會說Alpamayo是其中之一,Cosmos是其中之一,Omniverse絕對是其中之一,Dynamo已經被人們理解但尚未被充分重視,它對AI工廠整個生態的深遠影響,毋庸置疑。還有一個概念:如何在AI工廠的語境下思考性能這個問題?這是一個非常新的概念,我還需要多次反覆講解。但終有一天,全球每一位CEO都會懂它,每一個董事會都會理解它,每一家公司都會用它來估算自己未來的營收,它將成為工廠營運流程和企業戰略規劃的核心組成部分。這個概念對未來的產業極為關鍵,但目前理解還不夠深,我需要再講上17遍,沒關係,已經有足夠多的人理解了,但還有很多工作要做。Q32:你曾說過,希望大家經歷大量的痛苦和磨難。請問在一個相對完美的世界裡,您會推薦人們去經歷什麼樣的苦難,才能走到您今天的位置?黃仁勳:首先,那番話是對一群大學生說的。在座各位已經是研究生以上了,應該好好享受生活了。苦難嘛……你看,每當你學習一件新事物,都伴隨著相當程度的痛苦;每當你做超出舒適區的事情,都會如此;每當你站在台上做主題演講,知道所有人都在評判你,而你也知道自己可能不會像自己期望的那樣完美——這其中始終有一份焦慮與痛苦。備戰任何事情都需要大量的投入,苦難無處不在,這毋庸置疑。這正是追求卓越不可或缺的一部分,是追求成為最好的自己不可或缺的一部分。只要你感到自己在全力追求成為最好的自己,竭盡所能,把一切都留在場上,那麼苦難一定已經發生了。 (智東西)
監管批准字節跳動、阿里巴巴、騰訊等公司哦買超過40萬塊輝達H200晶片/Kimi動了11年沒人敢碰的Transformer結構,馬斯克說:令人印象深刻
監管批准字節跳動、阿里巴巴、騰訊等中國科技巨頭購買超過40萬塊輝達H200晶片/Kimi動了11年沒人敢碰的Transformer結構,馬斯克說:令人印象深刻/比亞迪、吉利簽了Nvidia,Uber要在28個城市開無人計程車——2027年就開始/小米MiMo負責人帶著北大團隊炸場:強化學習訓練成本直降71.2%監管剛批了40萬塊H200,黃仁勳轉頭宣佈:我已經開始重新生產了!今年1月,監管批准字節跳動、阿里巴巴、騰訊等中國科技巨頭購買超過40萬塊輝達H200晶片,總價值約100億美元。這是中美晶片博弈裡罕見的"開綠燈"時刻——美國出口管制繞了一大圈,監管蓋了章,DeepSeek也在其中拿到了有條件購買許可。(來源:Reuters、《華爾街日報》)與此同時,中國官方發言人回應說"不瞭解具體情況"——100億美元的訂單,官方說不知道,這已經是一種態度了。更快的是輝達這邊。2026年3月17日,CEO黃仁勳在GTC大會上直接宣佈:已收到來自"眾多客戶"的訂單,H200中國版正在重啟生產。幾周前訂單來了,幾周內工廠開動。禁令、解禁、重啟,這條鏈條走完只用了不到兩個月。100億美元擺在那裡,到底是管制有效,還是管制本身就是一筆生意?(來源:Axios、CNBC)不是降級版!輝達Groq晶片5月入華,這次連"特供"都省了輝達去年底以約200億美元收購了推理晶片公司Groq,現在這顆晶片要直接賣給中國了。據Reuters消息,輝達正在為中國市場準備一款Groq晶片,預計5月上市,面向AI推理業務——也就是模型跑起來之後回答問題、執行任務那個環節。更關鍵的是,知情人士明確透露:這款晶片不是降級版,也不是專為中國特供的閹割版本。(來源:Reuters)之前H20是專門為中國"定製"的縮水版,這次連縮水都免了。這個時間點很微妙。H200剛剛重啟生產,Groq非降級版緊跟著入場,輝達在中國市場一口氣佈局兩條產品線。可美國出口管制的框架還掛在那裡,Groq晶片究竟走的是那個口子,目前沒有官方解釋。監管還沒表態,晶片已經在路上——黃仁勳每次在華盛頓和監管之間走鋼絲,都比上次走得更穩一點。(來源:Reuters)五角大樓要讓AI公司進軍事機密庫訓練模型,這件事比你想像的更炸這件事3月17日才被MIT Technology Review報導出來,五角大樓正在討論一個計畫:為AI公司建立安全隔離環境,讓它們用機密軍事資料訓練專屬的軍用版模型。不是部署,是訓練。意味著OpenAI、Anthropic或者Google的工程師,理論上可以接觸到美軍的機密資料集來"喂"模型。這是一個史無前例的方向,之前從來沒有商業AI公司被允許碰這類東西。(來源:MIT Technology Review)背景是:OpenAI已經與五角大樓簽了在機密網路中部署AI系統的協議,國防部也在今年1月發佈了AI戰略備忘錄。問題是,訓練和部署是兩件性質完全不同的事。部署是讓AI用軍事資訊,訓練是讓軍事資訊變成AI的一部分——這兩者之間的資料安全邊界,目前沒有任何明確的技術標準或法律框架來界定。Hegseth已經警告Anthropic必須配合軍方,OpenAI也大方接單。但誰來決定這些模型最終學到了什麼、記住了什麼,答案目前是:沒人知道。(來源:MIT Technology Review、PBS)GPT-5.4 mini和nano來了——OpenAI說這是"最強小模型",速度快了2倍多OpenAI正式發佈GPT-5.4 mini和GPT-5.4 nano,主打Agent、程式碼生成、多模態工作流,定位是"以極低成本提供接近GPT-5.4水準的性能"。GPT-5.4 mini相比上一代GPT-5 mini,在程式設計、推理、多模態理解、工具呼叫上全面提升,速度快了2倍以上;兩款模型都支援40萬token的超長上下文窗口(大約30萬個漢字),專門針對需要大量子任務串聯的Agent場景做了最佳化。(來源:OpenAI、ZDNET)這對開發者來說是實打實的降本消息——頂級性能的七成,花頂級價格的一個零頭。但OpenAI這一步的棋感,很微妙。GPT-5.4 mini是給API用量大、成本敏感的企業用的,nano是面向更高頻的輕量場景。兩款小模型同時推,等於在Agent賽道上把價格門檻砸穿——競爭對手做的那套"小模型夠用論",OpenAI直接親自驗證了。Anthropic、Google同樣有自己的"小強模型",但現在面對的問題是:你的小模型,是不是真的比OpenAI的小模型更小、更便宜、還更好用?(來源:OpenAI、ZDNET)阿里、騰訊都搶了,百度終於把"小龍蝦"塞進了小度音箱中國AI圈這陣子有個新詞叫"養龍蝦"——OpenClaw是一個開源AI Agent框架,因為logo像龍蝦,被叫爆了。騰訊最先動,做了QClaw接入微信和QQ;阿里隨後跟上。3月17日,百度宣佈將OpenClaw整合進旗下小度(Xiaodu)智能音箱,讓小度變成一個語音控制的Agent遙控器,用一句話就能觸發跨應用的複雜任務。(來源:Bloomberg)三大廠同台,百度靠的是硬體入口:小度的螢幕和麥克風,是其他兩家沒有的物理觸點。但有趣的是,在這場搶跑裡,百度的AI雲收入剛剛同比增長38%,OpenClaw的整合宣佈同一天發佈,時機選得極準——用一個熱詞捆綁一個財報數字,這是一種很熟練的敘事操作。問題是,把Agent塞進音箱和塞進聊天框,那個更容易讓使用者真的用起來?目前沒有任何資料,三家都在同一起跑線上等答案。(來源:Bloomberg)阿里巴巴發佈"悟空"平台,讓AI幫企業打工——現在還在內測阿里巴巴正式推出企業級AI平台"悟空(Wukong)",目前處於封閉測試階段。悟空的核心邏輯是協調多個AI Agent配合工作,處理文件編輯、表格操作、商業研究等複雜企業任務——不是一個聊天機器人,而是一套能"自己分工幹活"的Agent調度系統。(來源:Reuters)時間節點同樣刻意:剛好在中國agent熱潮爆發的那個當口,騰訊在聊,百度在跟,阿里這次選擇先做企業端。悟空和同期宣佈的"Token Hub"是阿里AI戰略的兩面。Token Hub是整合阿里所有AI研究、消費者產品、AI應用的新業務集團,由CEO吳泳銘(Eddie Wu)親自掛帥,核心命題是AI變現。(來源:Bloomberg)悟空是變現的產品抓手,Token Hub是整合內部資源的組織容器——從架構上看,這是阿里把AI從"成本中心"推向"利潤中心"的一次整體操刀。但封閉內測的悟空究竟什麼時候能開放,阿里沒說。(來源:Reuters)Manus突然下載到我電腦裡了!"My Computer"讓AI Agent徹底告別雲端2026年3月16日,Manus正式發佈桌面應用,核心功能叫"My Computer"——可在Windows和macOS上運行,讓AI Agent直接訪問你的本地檔案、瀏覽器、應用程式,以及在你電腦空閒時自動幹活。這是Manus從雲端走向本地的關鍵一步。之前Manus能做的事,都發生在遠端沙盒裡;現在它可以直接讀你的項目資料夾、開你本地的IDE、在你不看螢幕的時候繼續工作。(來源:Manus官網、9to5Mac)這不是"助手",更像一個在你電腦裡常駐的無聲員工。這件事最讓人不安的地方,恰恰是它最吸引人的地方——AI終於能碰你真實的本地資料了。雲端Agent和本地Agent的最大區別,就是這道"能不能接觸到你實際工作環境"的門檻。Manus選擇在這個時間點把門踢開,意味著Agent賽道的戰場從"在雲上幫你查資料",正式移到了"在你的電腦裡幫你幹活"。Cursor在程式碼領域已經打通了這一層,現在Manus要在更寬泛的通用任務上複製這條路——誰先讓使用者真的放心把電腦交出去,誰就贏了。(來源:Manus官網)比亞迪、吉利簽了Nvidia,Uber要在28個城市開無人計程車——2027年就開始輝達在GTC 2026大會上宣佈:比亞迪、吉利、五十鈴、日產四大車企將採用其DRIVE Hyperion自動駕駛平台,支援Level 4等級無人駕駛車輛。同時,Uber與輝達擴大合作,計畫2027年上半年率先在洛杉磯和舊金山推出全端Robotaxi服務,並於2028年擴展至覆蓋四大洲的28個城市。(來源:Nvidia官方、The Verge)一次發佈會,輝達同時繫結了整車製造端和出行營運端——中美日的車企,全進了這張網。這個陣容有點意思。比亞迪和吉利是中國新能源頭部,五十鈴是日本商用車代表,日產是傳統燃油巨頭——四種不同背景的車企,同時選了輝達的同一套平台,這本身就是一種背書。Waymo已經在舊金山和鳳凰城跑了好幾年,Cruise折戟,特斯拉Full Self-Driving還在講故事;輝達這次的策略不是自己造車,而是把自己做成Robotaxi時代的"底盤供應商"。2027年不到兩年,洛杉磯的街上會不會真的有Uber+輝達的無人車跑起來,值得盯著看。(來源:Reuters、The Verge)騰訊QClaw內測,14億微信使用者的手機裡快要住進一隻"AI龍蝦"了騰訊正在內測一款名為QClaw的產品——這是OpenClaw的微信/QQ雙端一鍵啟動包,讓使用者直接在微信聊天框裡調起AI Agent,完成本來需要跨多個App切換才能做完的任務。(來源:新浪科技、知乎)微信12億活躍使用者,QQ幾億年輕使用者,QClaw一旦全面上線,等於給OpenClaw這套開源框架接上了一個全球最大的流量入口。騰訊之前在AI產品上一直給人"慢半拍"的感覺,這次的動作算是把入口優勢打出來了。但QClaw目前只是內測,預計"近期上線"——沒有正式發佈日期。在這條賽道上,阿里的悟空也在等開放,百度小度已經宣佈整合,OpenClaw在中國的生態正在被三大廠同時圈地。微信入口的流量是真實的,但Agent能不能在14億人的聊天框裡真正活下來,取決於它能不能在一個"對話"介面裡把任務做得比人工快。這一步,騰訊比阿里和百度都更有條件驗證——問題只是它動不動得快。(來源:36氪、財富號)小米MiMo負責人帶著北大團隊炸場:強化學習訓練成本直降71.2%2026年3月16日,小米MiMo大模型負責人羅福莉與監管大學研究團隊聯合發佈ARL-Tangram系統,這是一套針對Agent強化學習的統一資源管理框架,核心數字是:將強化學習訓練步驟持續時長縮短至多1.5倍,節省高達71.2%的外部算力資源,同時在真實世界Agent任務上平均ACT提升4.3分。(來源:IT之家、新浪財經)簡單說,同樣的訓練效果,花的錢不到原來的三成。這在當下算力極度緊缺、訓練成本居高不下的背景下,是非常實際的突破。但這篇論文更值得注意的,是它的位置。羅福莉是小米內部MiMo模型的負責人,ARL-Tangram發的不是產品,是學術論文——小米在用學術成果的方式宣示自己在大模型基礎研究上有真正的積累。三月的AI圈到處是"發佈會",小米選擇發一篇論文。在大廠裡,這種動作通常意味著:接下來會有更大的東西落地。算力成本降了70%,下一步的問題是,這個效率用在那裡?(來源:搜狐、IT之家)Kimi動了11年沒人敢碰的Transformer結構,馬斯克說:令人印象深刻2026年3月16日,月之暗面三位聯合創始人楊植麟、吳育昕、周昕宇與數十名研究員聯署,發佈了一篇純架構層面的技術報告。他們重新設計了大模型的核心結構——殘差連接(Residual Connection),這個元件自2015年引入Transformer以來,超過10年幾乎沒有人動過。Kimi的方案讓每一層能夠選擇性地關注此前各層的輸出,而不是統一求和,實驗結果是48B參數規模的模型訓練效率提升1.25倍。(來源:新浪財經、澎湃新聞)論文發出後,馬斯克本人評價"令人印象深刻",前OpenAI研究科學家Andrej Karpathy同樣給予好評。這篇報告的戲劇性,不在於那1.25倍的效率提升,而在於它選擇攻擊的目標——一個10年沒人敢改的基礎元件。大多數模型創新發生在訓練方法、資料配比、規模擴展上;動架構本身,是風險最高也最難被外界驗證的路。三位聯合創始人都署名,不像是一篇普通論文,更像是一份聲明:Kimi在做自己的事,而不是跟在別人後面堆參數。馬斯克和Karpathy的背書,給了這篇論文在國際AI圈的能見度——但它能不能真正改變下一代模型的架構選擇,還需要時間驗證。 (AI Daily Insights)
重大突破!全球首個採用“金剛石”冷卻技術H200伺服器完成交付!
01.全球首個“金剛石”冷卻技術輝達H200服務器完成交付鑽石冷卻®技術的先驅Akash Systems, Inc.宣佈在人工智慧基礎設施領域取得重大里程碑:向印度最大的自主雲服務提供商NxtGen AI PVT Ltd交付全球首批鑽石冷卻GPU伺服器。此次交付的產品配備了全球能效和資本效率最高的NVIDIA H200 GPU伺服器,並整合了Akash專有的Diamond Cooling®散熱技術。這項創新預計將在高溫資料中心內將GPU計算能力提升前所未有的15% ,同時顯著降低總體擁有成本(TCO)。“鑽石冷卻技術解決了人工智慧基礎設施競賽中最棘手的兩大難題——能源效率和資本效率,” Akash Systems聯合創始人兼首席執行長Felix Ejeckam博士 表示。 “在計算能力提升1%到2%都意義重大的今天,15%的提升更是顛覆性的。我們很榮幸能與NxtGen合作,共同完成這項史無前例的部署。”02.熱管理材料革新,而非系統重構從資料中心熱管理技術演進的角度來看,Akash Systems推出的 Diamond Cooling® 本質上代表了一種“從材料與晶片層級重構散熱路徑”的思路,與傳統風冷、冷板液冷和浸沒液冷形成明顯差異。過去幾十年資料中心散熱始終圍繞系統級展開,無論是風冷還是液冷,核心邏輯都是在晶片封裝之外建構換熱介面,例如當前主流的GPU伺服器(如基於NVIDIA H200)的熱路徑大致為:晶片 → 封裝 → 導熱介面材料(TIM)→ 冷板或散熱器 → 冷卻介質。隨著AI算力密度爆發,這條路徑中的介面熱阻成為瓶頸,尤其是熱點(hotspot)區域溫度高企,導致GPU頻率受限、降頻甚至壽命下降。Diamond Cooling®的核心優勢在於將高導熱金剛石材料直接整合到半導體或封裝結構中,使熱量在產生的第一時間就被快速擴散,從而顯著降低熱點溫度和局部熱阻,這是一種“源頭級散熱”,而不是傳統意義上的“末端散熱”。與風冷相比,其最大差異在於不再依賴空氣換熱能力的提升,風冷的極限來自空氣熱容和對流效率,隨著AI伺服器單櫃功率逼近甚至超過100kW,單純提高風速或最佳化風道已難以滿足需求;Diamond Cooling®則通過降低晶片結溫,使風冷在一定功率區間內仍可延續,從而延緩液冷基礎設施投入。與冷板液冷相比,冷板液冷通過液體帶走封裝層面的熱量,可以大幅降低整體溫度並提升PUE,但其本質仍然依賴晶片與冷板之間的介面傳熱,熱點區域溫差仍較大,而金剛石導熱可顯著降低封裝內部溫差,使冷板系統更加高效,甚至在相同流量和冷卻能力下獲得更高算力輸出。與浸沒液冷相比,浸沒技術通過完全消除空氣介面並提升換熱係數,在系統層面具有最強散熱能力,但依然無法解決晶片內部熱點問題,同時還面臨維運複雜度、材料相容性及生態成熟度挑戰;Diamond Cooling®則可以與浸沒結合,在不改變資料中心基礎架構的前提下進一步降低晶片溫度,提高系統穩定性和壽命。從產業邏輯來看,這一技術的優勢不僅在於溫度降低和性能提升,更在於改變AI算力競爭的關鍵變數——功率密度和能效。隨著AI GPU功耗持續攀升,未來算力提升越來越依賴散熱能力,誰能更有效地控制晶片溫度,誰就能釋放更高頻率和更高利用率。因此,Diamond Cooling®與風冷、冷板液冷、浸沒液冷並非簡單替代關係,而是形成分層協同:風冷與液冷解決系統層熱管理,浸沒解決高密度場景,而金剛石導熱解決晶片與封裝層的根本熱阻問題。這意味著未來資料中心散熱體系可能從“單一系統方案競爭”轉向“材料+封裝+系統多層協同”,在AI時代形成新的技術路徑。03.從金剛石Diamond Cooling®看AI晶片的散熱未來:材料+封裝+系 統的協同發展目前全球AI晶片廠商輝達也在陸續推進金剛石熱管理相關技術研究,近期也在和國內廠商推進聯合開發用,可以看出AI晶片廠商對熱管理材料的重視程度和系統的協調發展。回到金剛石材料端,從行業演進角度看,金剛石散熱正在成為AI算力時代一個極具戰略意義的方向。以Akash Systems為代表的技術路徑,本質上標誌著散熱從“外部輔助功能”轉向“晶片架構的一部分”,這背後反映的是AI功率密度不斷突破極限所帶來的系統性變革。過去幾十年,散熱一直被視為IT基礎設施中的配套工程,核心創新集中在空調、風道、冷板和冷卻液等系統層,但隨著高功率GPU和AI伺服器(例如NVIDIA H200等架構)的發展,功率密度已經逼近材料與封裝極限,傳統路徑逐漸難以支撐未來算力增長,這正是金剛石散熱興起的核心背景。首先,從技術層面來看,金剛石散熱最大的優勢在於其極高的熱導率。天然或合成金剛石的熱導率可達2000 W/mK以上,是銅的數倍,是矽、碳化矽等傳統半導體材料的顯著提升。這意味著在晶片熱點區域,熱量可以以更快速度橫向擴散,降低局部溫度峰值。對於AI晶片而言,這一點尤為關鍵,因為GPU並不是均勻發熱,而是存在明顯熱點,這些熱點通常決定了頻率、穩定性和壽命。金剛石材料能夠在熱量尚未擴散至封裝層之前進行快速均溫,顯著降低熱點溫度,從而提升性能上限並減少降頻。這種能力與傳統系統級散熱完全不同,後者更多降低平均溫度,而無法根本解決局部熱阻問題。其次,金剛石散熱不僅提升熱性能,還帶來系統級能效優勢。隨著AI叢集規模不斷擴大,資料中心的電力瓶頸逐漸顯現,散熱效率直接影響PUE和整體算力成本。如果晶片溫度降低,可以減少風扇功耗、降低冷卻液流量需求,並延長裝置壽命,從而降低維運成本。從長期來看,這種材料級散熱有可能成為降低算力成本的重要路徑之一。尤其在高溫環境或電力緊張區域,晶片級熱管理可以顯著提高系統穩定性,使資料中心在更寬環境條件下運行。第三,金剛石技術具有很強的協同潛力,而不是替代現有液冷方案。未來的散熱體系更可能呈現分層結構:材料層解決熱點問題,封裝層最佳化熱擴散,系統層負責熱量搬運。這一模式意味著風冷、冷板液冷、浸沒液冷不會消失,而是與金剛石技術形成互補關係。例如,在冷板液冷架構中,金剛石可以降低晶片結溫,使冷板設計更加簡單,減少泵功耗和流體複雜度;在浸沒液冷系統中,金剛石可以降低氣泡形成和局部熱失控風險,提高可靠性。因此,未來競爭的焦點不再是單一技術路線,而是多層協同能力。從產業趨勢看,散熱正從單一輔助功能轉變為“材料+封裝+系統”的綜合工程。過去,晶片設計完成後再由系統廠商解決散熱問題,但AI時代這一邏輯正在改變。未來,散熱將成為晶片架構設計的重要輸入變數。例如,在先進封裝中,熱管理已經與Chiplet、3D堆疊和HBM整合深度耦合,封裝結構將同時最佳化電、熱和機械性能。金剛石基底、金剛石中介層甚至熱導通孔等方案,將成為先進封裝的重要組成部分。這意味著半導體材料公司、封裝廠、伺服器廠和資料中心營運商之間的協同將不斷增強,行業邊界逐漸模糊。這一趨勢將推動散熱產業鏈上移。未來競爭不再侷限於冷板設計或冷卻液最佳化,而是延伸至晶圓材料、介面工程和封裝技術。類似TSMC、Intel等先進封裝能力強的廠商,可能成為散熱創新的重要參與者。同時,伺服器OEM、雲廠商也可能直接參與散熱材料選擇,因為這將直接影響算力效率和資本回報率。總結來看,金剛石散熱的意義不僅在於導熱性能提升,更在於改變了散熱的產業邏輯。未來熱管理將從“系統層最佳化”轉向“材料、封裝與系統的協同設計”,成為晶片架構和算力競爭的重要組成部分。誰能夠在材料級散熱、先進封裝和系統級液冷之間形成閉環能力,誰就更有可能在AI算力時代獲得長期競爭優勢。這種趨勢也預示著,資料中心散熱正在從基礎設施領域向半導體核心技術延伸,成為下一輪技術和產業變革的重要方向。 (零氪1+1)
美智庫:封殺!H200賣給中國就是"戰略自殺"!
美國保守派媒體《Sunday Guardian》今日刊發長篇評論,標題直指"向中國出售輝達H200將是美國的巨大戰略失誤"。文章援引多名前國防部官員與智庫學者,系統論證H200雖低於70 TFLOPS出口紅線,但可通過"堆疊超算"實現軍事級AI能力,要求川普政府永久凍結50萬顆 pending 訂單,並追溯審查已發放的年度許可。文章核心論點包括:一、H200的1536 TOPS INT8算力雖不及H100,但6000顆即可組建與美軍"前沿AI計算節點"同等等級的超算,用於高超音速武器軌跡模擬、衛星圖像即時分析;二、中國可通過"CUDA相容層"快速移植美軍現有AI作戰軟體,"等於把五角大樓的演算法倉庫開放給對手";三、每顆H200附帶的技術文件與驅動更新,構成"持續性技術外溢",即使硬體不升級,軟體生態也在持續輸血。作者、前國防部副部長幫辦埃爾布裡奇·科爾比在文中寫道:"我們不是在賣晶片,是在賣未來的軍事劣勢。當中國用我們的GPU訓練出能識別美軍航母的AI模型時,每一顆H200都是射向太平洋艦隊的潛在子彈。"該文迅速在國會山引發共鳴。眾議院中國特別委員會成員、共和黨眾議員邁克·加拉格爾表示,將在本周提交《AI晶片零出口法案》,要求把所有可堆疊形成超算的GPU納入ITAR清單,對華出口需總統特批。民主黨參議員馬克·華納亦表態支援,稱"技術領先不等於可以養虎為患"。輝達股價應聲波動:隔夜跌2.1%,市值蒸發約600億美元。公司政府事務部緊急發佈聲明,強調H200"完全符合現行法規",並警告"過度管制將迫使中國加速自研,反而縮短技術差距"。但聲明未直接回應"軍事用途"指控。中國市場層面,黑市H200價格已突破6萬美元/顆,較官方定價溢價115%。某雲廠商採購總監告訴記者,公司已開始"雙線備貨":一邊等待批文,一邊與寒武紀、摩爾線程簽訂國產GPU框架協議,"如果華盛頓鷹派佔了上風,我們至少要有Plan B"。分析人士指出,《Sunday Guardian》的激烈措辭標誌著美國對華AI晶片辯論從"商務部技術參數之爭"升級為"國防部戰略安全之爭"。一旦"每顆晶片都是子彈"的敘事成為華盛頓共識,H200對華出口可能面臨比關稅更嚴厲的政治封殺,國產GPU也將迎來最長替代窗口期。對於仍在等待50萬顆H200的中國雲廠商而言,太平洋彼岸的媒體聲浪正在重塑命運。是繼續押注"商業理性"最終勝出,還是全面轉向國產替代,2026年第一季度的抉擇,將決定未來三年中國AI算力版圖的基本格局。 (晶片行業)
H200晶片:川普對字節開出三重條件!
路透社今日凌晨援引白宮及字節跳動內部人士稱,川普政府已給字節跳動開出“一人一策”准入清單:若希望繼續執行 3.2 萬顆 H200 訂單,須先繳納 30% 關稅(約 2.8 億美元)、接受美方技術審計並簽署“非軍用、非超算”終端使用者承諾書,三份檔案全部落地後,美國商務部才予以個案出口許可。消息透露,川普 2 月 3 日深夜在白宮橢圓形辦公室聽取對華 AI 晶片匯報後,親自拍板“ByteDance must pay first”,要求關稅以現金形式匯入美國財政部指定帳戶,且不得通過第三國轉口避稅。技術審計則將由商務部工業與安全域(BIS)派遣駐場團隊,對字節跳動中國機房進行遠端與現場核查,確保 H200 僅用於“消費者推薦演算法”,不得接入任何軍工網路或超算叢集。字節跳動已預付 7 億美元貨款,但新條件意味著總成本將再增約 2.8 億美元,且需承擔美方審計費用。公司內部人士對記者表示,管理層正在評估“接受條件”與“全額退款”兩套方案,“若關稅和審計成本超過 3 億美元,ROI 將低於國產 GPU 替代方案”。分析認為,川普政府對字節跳動開出“關稅 + 審計 + 承諾”三重條件,標誌著對華 AI 晶片出口從“紅線管制”轉向“一人一策”精準封堵。若字節跳動接受條件,將成為首家被美方現場審計的中國雲廠商;若選擇退款,國產 GPU 將再獲 3 億美元級替代訂單,2026 年訓練卡市佔率有望突破 40%。無論結果如何,川普的“條件書”已讓矽谷明白:對中國客戶的每一顆 AI 晶片,都可能附帶一張華盛頓的“政治發票”。 (晶片行業)
美國安全審查突襲,中國H200訂單全線凍結!
英國《金融時報》今日援引三位白宮及國會消息人士稱,美國國家安全委員會(NSC)於2月3日啟動新一輪對華AI晶片安全審查,已要求輝達暫停所有H200對華銷售申請,待審查結束後方可重啟批文流程。這意味著原本已獲“口頭放行”的50萬顆H200再次停擺,中國雲廠商春節前搶貨計畫被迫中斷。審查焦點在於“中國潛在用途”與CUDA生態技術外溢風險。NSC擔心,H200雖低於70 TFLOPS紅線,但可通過堆疊組成超算叢集,用於高超音速模擬與情報分析。國會助手透露,此次審查可能持續45-60天,且不排除將H200納入《國際武器貿易條例》(ITAR)管制清單。輝達凌晨回應,將“全面配合政府審查”,並暫停向中國客戶傳送任何新銷售要約。公司已通知阿里、字節等大客戶:已預付但未清關的訂單將暫緩發貨,可選擇退款(扣除物流與關稅成本)或轉口至第三國。現貨市場應聲跳漲:香港倉庫提貨價從4.2萬美元回彈至5萬美元,中間商開始囤貨待漲。中國國產GPU廠商連夜促銷:寒武紀MLU 300現貨價下調至0.95萬美元,並提供120天帳期;摩爾線程把S5000租金再降20%,諮詢量兩日增長3倍。業內普遍認為,若審查持續至4月,中國雲廠商將被迫擴大中國國產卡採購,2026年中國國產AI晶片市佔率有望從18%躍升至35%。對於仍在擴建的中國國產GPU、HBM與封裝產業鏈而言,美國再次“關門”意味著9個月替代窗口正式開啟。 (晶片行業)