#輝達
黃仁勳透露:H200已重啟生產,加緊向中國客戶供貨
輝達首席執行長黃仁勳周二在新聞發佈會上表示,公司正在重啟一款晶片的生產,該晶片旨在遵守美國對中國的出口限制。據當時的一份報告顯示,由於美國和中國的監管障礙日益增多,該公司去年停止生產基於其老舊的 Hopper 技術的 H200 晶片。黃仁勳表示,自那以後,輝達已獲得美國政府頒發的H200出口許可證並開始接到訂單。這促使輝達在幾周前開始重啟生產。黃先生在加州聖何塞舉行的公司全球技術大會(GTC)上對記者表示:“我們已經獲得了中國許多客戶的H200授權。我們收到了許多客戶的採購訂單,目前正在重啟生產。”趕緊跟上:輝達在 2 月下旬表示,美國政府已經批准向中國客戶少量出口 H200 產品,但不知道是否會允許任何產品進口到中國。任何銷往中國的晶片都必須經過北京的批准,並且一直在敦促國內企業使用中國製造的晶片——這是華為技術有限公司為提振國內產業而採取的措施之一。H200 雖然是輝達上一代產品,但它比中國國內市面上任何一款晶片都更強大。“我們的供應鏈正在加速運轉,”黃說。黃仁勳預測,到 2027 年底,公司 Blackwell 和 Rubin AI 晶片的收入將超過 1 兆美元,但中國晶片的銷售額並未計入其中。Blackwell 和 Rubin 是輝達的旗艦級 AI 晶片,能夠建構支撐聊天機器人(例如 OpenAI 的 ChatGPT)的大型語言模型。Blackwell 晶片現已上市銷售,而 Rubin 晶片是輝達的下一代處理器,目前已全面投產。另外,黃仁勳給出的 1 兆美元的估值並不包括該公司的一系列其他產品,例如中央處理器、網路晶片系列或即將推出的基於從 Groq 獲得許可的技術的晶片。該估價也不包括一種名為 Rubin Ultra 的 Rubin 變種。去年 12 月,輝達與 Groq 簽署協議,獲得其技術授權,並聘用了這家初創公司的許多高管。黃也警告說,科技界的一些人“用科幻小說裡的人工智慧版本嚇唬大家”,他認為這種說法很傲慢。此前,Anthropic公司為美國政府使用人工智慧劃定了紅線,特別是關於完全自主戰爭和大規模監視美國人的紅線。有記者問問黃仁勳,人工智慧是否有那些領域不應該涉足,黃仁勳回答說,這項技術需要涉足的領域還有很多,包括抵禦網路攻擊。黃說:“我們必須不斷學習,對我們知道的和不知道的東西要更加謙遜一些。用科幻小說裡的人工智慧版本嚇唬所有人未免太狂妄了。”他說:“提醒民眾是一回事,恐嚇民眾則是完全不同的另一回事。”總體而言,黃仁勳不僅利用此次活動宣傳了輝達的一系列新晶片和技術,還強調了該市場的巨大潛力。 (半導體芯聞)
【GTC 2026】GTC後黃仁勳萬字採訪:輝達的真正底牌,從來不是晶片
剛剛完成GTC大會演講的黃仁勳,接受了《STRATECHERY》的創始人Ben Thompson(下文簡稱為Ben)的專訪,下面是本次專訪的摘要和全文實錄:【摘要】黃仁勳圍繞輝達 GTC 演講 “回歸本源” 的核心邏輯,闡釋了公司戰略、技術佈局、行業競爭與地緣政策等關鍵主張,明確輝達並非單純晶片廠商,而是以 CUDA 為根基的全端加速計算企業。黃仁勳指出,此次重述 CUDA 與發展歷史,是因 AI 正進入全新行業,需加速全球各類軟體以適配 AI 工具使用需求,輝達正將軟體加速拓展至資料處理等新領域。其核心戰略是打造吉瓦級人工智慧工廠,提供從晶片到系統再到基礎設施的全端服務,通過統一協同設計突破性能瓶頸、降低成本,而非單純提供晶片。模型技術層面,認為 Transformer 並非萬能架構,需結合狀態空間模型、幾何感知等新技術,應對超長記憶、連續資訊生成等問題;AI 已跨越實用臨界點,推理能力與事實關聯的提升推動工具使用落地,程式碼生成是標誌性突破,智能體的反思能力可覆蓋從標準化程式碼到美學設計的多元場景。關於 CPU,黃仁勳澄清輝達從未排斥 CPU,而是遵循阿姆達爾定律,採用頂級 CPU 保障 GPU 資源不被浪費;自研 Grace、Vera 處理器聚焦極致單線程與 IO 性能,以適配 AI 智能體場景,同時通過與英特爾合作維持 x86 生態相容性。收購 Groq 則是分離式推理架構的戰略延伸,結合其低延遲優勢滿足高價值程式碼智能體需求,延續了輝達 “軟硬體深度耦合、最優位置部署計算” 的核心優勢。資源與市場方面,當前 AI 核心瓶頸為能源、晶片等全鏈條稀缺,輝達憑藉供應鏈佈局佔據優勢;他擔憂美國相關政策損害五層 AI 架構的領導地位,且 AI 末日論正誤導政策制定者、降低民眾支援度,需警惕重蹈歐洲工業革命覆轍。企業定位上,輝達堅持垂直整合技術、水平開放生態,不做解決方案與服務提供商,而是為全行業提供技術堆疊;開源模型研發旨在深化計算理解,而非爭奪市場。公司依託統一的 CUDA-X 平台理念與組織協同,實現多元業務的核心邏輯統一,持續堅守加速計算的核心使命。【全文實錄】Ben:黃仁勳,歡迎再次做客《STRATECHERY》。黃仁勳:很高興能和你對話。Ben:你剛走下演講台,我覺得演講時長還超出了預期,而你在這次我非常欣賞的主題演講中,花了大量篇幅闡釋輝達的發展脈絡,從可程式設計著色器的歷史講起,一直說到20 年前 CUDA 的推出。我們不必花太多時間複述這些內容,你講得已經很詳盡了,而且《STRATECHERY》的讀者們肯定也很熟悉—— 抱歉,這裡算是個鋪墊 ——《STRATECHERY》的讀者們都瞭解,我也清晰記得,大概六七年前甚至更久以前,有人問我為什麼輝達能在一次GTC 大會上發佈如此多的產品,我當時解釋說,這一切都依託於 CUDA 和各類軟體庫,本質上是在重複做同一件事,只是針對不同行業落地應用。這也是你今天傳遞的核心觀點,而在過去幾屆 GTC 和消費電子展都高度聚焦人工智慧之後,這次演講有種 “回歸本源” 的意味。你為什麼覺得現在有必要講述這段歷史?重新詮釋 CUDA,以及強調它的重要性?黃仁勳:因為我們正在進軍大量全新的行業,而且人工智慧會使用工具,這些工具原本是為人類設計的。人工智慧會使用Excel,會使用 Photoshop,會使用邏輯綜合工具、新思科技的工具、楷登電子的工具。這些工具都需要超級加速,人工智慧使用的資料庫也需要超級加速,因為人工智慧的運行速度極快。所以我認為,在這個時代,我們需要儘可能快地完成全球所有軟體的加速,然後將其交付給人工智慧,讓人工智慧能夠自主地使用這些工具。Ben:所以這是不是意味著,我們已經為多個領域完成了軟體加速,現在要拓展到更多領域?黃仁勳:沒錯,大量全新的領域。比如資料處理領域。Ben:這確實有些出人意料。我沒想到你會以與IBM 的合作作為開場。黃仁勳:是啊,這一點很能說明問題。畢竟,他們才是這一切的開創者。Ben:你上周撰文指出,人工智慧是一個五層架構:算力、晶片、基礎設施、模型與應用。你是否擔心,在過去四五年裡,自己會被侷限在“晶片廠商” 的定位裡?因此,不僅要提醒外界,也要提醒自身,輝達是一家垂直整合的公司 —— 不僅是建構系統,更是深入整個軟體棧,我們絕非單純的晶片企業。黃仁勳:我的思考出發點從來不是“我們不是什麼”,而是 “我們需要成為什麼”。早在那時,我們就意識到加速計算是一個全端問題,必須理解應用場景才能實現加速。我們明白,需要深耕應用場景、搭建開發者生態、具備頂尖的演算法研發能力,因為為中央處理器設計的傳統演算法並不適配圖形處理器,所以我們必須重寫、重構演算法,才能讓圖形處理器實現加速效果。而一旦做到這一點,就能實現50 倍、100 倍、10 倍的性能提升,這一切都極具價值。從一開始,我們就想清楚了:我們的目標是什麼,實現目標需要付出什麼。如今,我們正在打造人工智慧工廠,在全球範圍內建設人工智慧基礎設施。這遠不止是研發晶片,儘管晶片顯然至關重要,是一切的基礎。Ben:沒錯,這涉及到完整的網路、儲存架構搭建,現在你們又涉足了中央處理器領域。黃仁勳:現在必須將所有元件整合為巨型系統—— 一座吉瓦級人工智慧工廠的投入大概在 500 億至 600 億美元。其中,約 150 億至 170 億美元用於基礎設施:土地、電力和廠房主體。剩餘資金則投入計算、網路、儲存等相關領域,如此大規模的投資,除非能幫助客戶建立成功落地的信心,否則沒人會冒 500 億美元的風險。所以這就是我們的核心理念:我們不僅要為客戶提供晶片,還要幫助他們建構系統;建構系統之後,還要助力他們打造人工智慧工廠。人工智慧工廠內部整合了大量軟體,不僅有我們的軟體,還包括製冷管理、電力控制、冗餘備份等各類軟體,且很多部分都採用了過度設計,原因是各環節團隊缺乏協同。當多個缺乏溝通的團隊進行系統整合時,必然會對各自負責的模組進行過度設計。但如果我們以統一團隊協作,就能突破性能極限,在現有電力條件下提升吞吐量,或是在既定吞吐量下節約成本。Ben:回到軟體層面,你提到Excel 並非為人工智慧使用而設計。如今像克勞德這類大模型已經具備使用 Excel 的新功能,你所說的投資研發這些軟體庫,是為了讓這類模型表現更出色嗎?還是說,這是為微軟或企業客戶服務 —— 你們希望自主掌控,不願受制於行業內的其他參與者?黃仁勳:SQL 就是一個很好的例子。SQL 原本供人類使用,是企業業務的核心資料載體,我們和其他企業一樣都在最佳化 SQL 系統。而未來,使用 SQL 資料庫的不再只是人類,還會有大量智能體。Ben:沒錯,智能體的操作速度會快得多。黃仁勳:它們的操作速度需要大幅提升。所以首先要做的就是加速SQL,這是最基礎的邏輯。Ben:這很合理。關於模型,你指出語言模型只是其中一個類別。你在上周的文章中寫道:“一些最具變革性的研究集中在蛋白質人工智慧、化學人工智慧、物理模擬、機器人與自主系統領域。” 你此前也曾提出過類似觀點,並在其他主題演講中用過 “萬物皆可 Token 化” 這一表述。你認為 Transformer 架構是解決所有問題的關鍵嗎?還是說,我們需要新的底層突破才能實現這些應用?黃仁勳:我們需要各類全新的模型。比如Transformer 架構的注意力機制計算量呈二次方增長,如何實現超長記憶?如何讓對話持續極久,同時避免鍵值快取逐漸失效?Ben:甚至需要整機架的固態硬碟來儲存鍵值快取。黃仁勳:當然,假設我們能記錄下所有對話內容,當回溯參考某段對話時,如何判斷那部分資訊最重要?這就需要全新的架構來合理處理注意力機制,並實現快速運算。我們研發出Transformer 與狀態空間模型結合的混合架構,這也是 Nemotron 3 大模型兼具超強智能與高效性能的原因,這就是一個典型案例。再比如,我們開發出具備幾何感知能力的模型,自然界中的很多事物都具有對稱性。因此生成這類模型時,不能只追求統計上的合理性,還必須符合物理規律,保證對稱性。cuEquivariance 技術就能實現這一目標。我們擁有諸多此類技術—— 再比如,文字 Token 是逐塊、逐詞生成的,而動作生成則需要連續性。因此存在離散資訊與連續資訊兩種生成與理解形式,Transformer 架構並非對兩者都適配。Ben:沒錯,這一點很合理。推理與程式碼生成Ben:再引用你文章中的一段話:“過去一年,人工智慧跨越了重要的臨界點。模型性能達到規模化實用標準,推理能力提升,幻覺現象減少,事實關聯能力顯著增強。基於人工智慧的應用首次開始創造實際經濟價值。” 這一轉變的具體體現是什麼?回顧時間節點,我認為接下來的一年無疑是智能體的時代,我今天也剛撰寫了相關內容 —— 但就去年而言,推理能力的提升是核心突破嗎?黃仁勳:生成式人工智慧當然是重大突破,但它存在嚴重的幻覺問題,因此需要實現事實關聯,而實現這一點的途徑就是推理、反思、檢索與搜尋,我們通過這些方式讓模型錨定現實。沒有推理能力,這一切都無從談起,正是推理讓生成式人工智慧實現了事實關聯。一旦實現事實關聯,系統就能推理問題並拆解任務,轉化為可執行的操作,下一代發展就是工具使用。這其實也揭示了一個現象:搜尋是一項無人付費的服務,原因在於獲取資訊固然重要且實用,但並不足以讓人付費。讓使用者願意付費的門檻遠高於單純提供資訊。“那家餐廳不錯?” 這類資訊,我認為並不值得付費。當然也有人為此付費,我自己也會。如今我們已經跨越了這個臨界點。人工智慧不僅能與我們對話、提供資訊,還能為我們執行任務。程式碼生成就是完美的例證。仔細思考就會發現,程式碼生成與語言生成並非同一模態,需要學習空格、縮排、符號規則,幾乎是一種全新的模態,無法逐Token 生成程式碼,必須對程式碼塊進行反思最佳化。程式碼塊需要合理拆分、性能最優,且必須能編譯運行,其依據不是機率上的合理性,而是實際執行效果。Ben:沒錯,關鍵在於能否正常運行。黃仁勳:程式碼必須能正常運行。所以我認為,模型學習程式碼這一模態是重大突破。如今,我們每年支付數十萬美元聘請工程師編寫程式碼,而他們現在擁有了程式碼助手。工程師可以專注於架構設計,無需耗費大量精力手寫程式碼,只需通過抽象的規格描述軟體需求,工作效率大幅提升。他們只需明確規格與架構,將時間投入問題解決與創新,現在我們的軟體工程師百分百使用程式碼智能體,很多人已經很久沒有手寫一行程式碼,卻依然高效且忙碌。Ben:但你是否認為,人們容易從程式碼生成這一可驗證場景過度推導?智能體不僅能生成程式碼,還能驗證效果,若運行失敗則重新最佳化,整個過程無需人類參與,因為存在明確的“成功與否” 判斷標準。黃仁勳:因為智能體具備反思能力。比如設計房屋,原本這是建築師、設計師的工作,現在木匠也能借助智能體完成。智能體提升了木匠的能力,讓他們可以設計房屋、廚房,打造出新穎的風格。這類智能體沒有可執行的驗證工具。但你可以給出參考示例,比如“我想要這類風格,希望具備這樣的美學效果”。智能體能夠反思,將程式碼質量、成果效果與參考標準對比,然後判斷 “效果未達預期,需要重新最佳化”,進而迭代改進。並非所有任務都需要完全可執行,事實上,越是機率性、美學化、主觀性的任務,人工智慧的表現反而越好。Ben:沒錯,這就形成了兩個極端:圖像生成沒有標準答案,程式碼生成有標準答案,而人工智慧在這兩端都表現出色,問題在於如何覆蓋中間場景。黃仁勳:我們確信,人工智慧現在已經能勝任建築設計、廚房與客廳設計。中央處理器在加速計算中的角色Ben:說到這裡,隨著智能體的普及,你一直大力倡導加速計算,甚至可以說此前對中央處理器頗有微詞,認為其終將被全面取代,所有場景都將實現加速。但如今中央處理器再度成為熱點,其作用依然重要,而你們也開始銷售中央處理器。成為中央處理器廠商,你有何感受?黃仁勳:毋庸置疑,摩爾定律已經失效。加速計算並非平行計算。回顧30 年前,市場上曾有數十家平行計算企業,最終只有輝達存活下來,原因在於我們始終明確核心目標:並非淘汰中央處理器,而是實現應用加速。Ben:所以我剛才對你的誤解,其實是其他所有企業的通病。黃仁勳:我們從未敵視中央處理器,也不願違背阿姆達爾定律。事實上,在我們的系統中,我們會選用最頂尖的中央處理器,採購最昂貴的型號,因為如果中央處理器性能不足,會拖累價值數百萬美元的晶片。Ben:過去關注分支預測,擔心浪費中央處理器時間,現在則擔心浪費圖形處理器時間。黃仁勳:沒錯,圖形處理器的資源絕不能被浪費,其執行階段間不能閒置。因此我們始終採用最頂尖的中央處理器,甚至自主研發Grace 處理器,以實現最高的單線程性能,更快地完成資料傳輸。加速計算從未排斥中央處理器,我的核心觀點依然成立:阿姆達爾定律主導的時代已經結束,依靠通用計算持續增加電晶體的模式已然消亡,從根本上而言,我們並不反對中央處理器。而如今智能體能夠使用工具,這些工具分為兩類:一類是資料中心運行的工具,主要是SQL 及資料庫相關工具;另一類是個人電腦端工具。未來人工智慧將能夠學習非結構化工具使用,第一類則是結構化工具。命令列介面、應用程式介面都屬於結構化工具,指令明確、參數清晰,與應用的互動方式特定。但還有大量應用並未設計命令列介面與應用程式介面,這類工具需要人工智慧學習多模態、非結構化操作,能夠瀏覽網頁、識別按鈕與下拉菜單,像人類一樣操作。這類工具使用需要依託個人電腦,而我們在兩端都有佈局:擁有頂尖的資料處理系統,同時輝達個人電腦也是全球性能最強的產品。Ben:那麼,面向智能體的中央處理器與傳統中央處理器有何區別?你們會推出純Vera 中央處理器機架嗎?黃仁勳:這個問題問得很好。過去十年的中央處理器設計,均面向超大規模雲服務商,而云服務商通過CPU 核心盈利。因此設計目標是儘可能增加可租賃的核心數量,性能反而居於次要地位。Ben:這類處理器主要應對網頁延遲問題。黃仁勳:完全正確。最佳化核心是CPU 實例數量,這也是市面上出現數百核中央處理器的原因。但這類處理器性能有限,而在工具使用場景中,圖形處理器會等待工具呼叫結果 ——Ben:且資料通過NVLink 傳輸。黃仁勳:沒錯,我們需要性能最強的單線程處理器。Ben:這僅僅是速度問題嗎?還是中央處理器需要更強的平行能力以避免快取缺失?整個處理器流水線設計都截然不同?黃仁勳:最核心的是單線程性能,同時輸入輸出性能必須極致。在資料中心場景中,單線程實例數量龐大,會對輸入輸出系統與記憶體控製器產生極高負載。Vera 處理器的單核心頻寬、單處理器頻寬是現有所有中央處理器的三倍,專為超大輸入輸出頻寬與記憶體頻寬設計,避免中央處理器出現性能瓶頸。一旦中央處理器受限,就會拖累大量圖形處理器。Ben:你提到Vera 機架與圖形處理器機架緊密耦合,那麼二者是否仍採用分離架構,讓圖形處理器為多個 Vera 核心提供服務?而非將 Vera 核心與圖形處理器整合在同一塊板卡上?黃仁勳:是的。Ben:好的,我明白了。那麼與英特爾的合作以及NVLink 技術在其中扮演什麼角色?黃仁勳:全球部分市場認可Arm 架構,而企業計算領域仍有大量軟體棧不願遷移,因此 x86 架構依然至關重要。Ben:x86 程式碼的生命力之強是否讓你感到意外?黃仁勳:並不意外。輝達個人電腦仍採用x86 架構,所有工作站也都是 x86 架構。GroqBen:首先要向你表示祝賀,正如你在今天主題演講中所說,你是Token 之王。你在文章中還提到,能源是人工智慧基礎設施的第一性原理,也是系統智能生成能力的核心約束。既然如此,Token 生成量受資料中心能源限制,為何還有企業試圖與 Token 之王競爭?黃仁勳:競爭難度極大,僅憑研發一款晶片就想實現顛覆性突破並不現實。即便Groq公司,也只有與Vera Rubin 處理器協同,才能發揮其技術價值。Ben:這正是我接下來要問的關於Groq的問題。黃仁勳:從整個推理場景來看,一方面要追求最大吞吐量,另一方面要生成更高品質的Token——Token 質量越高,商業價值越高。如何平衡這兩大目標,實現吞吐量與智能性的最大化,是極具挑戰的難題。Ben:不得不說,去年你展示過帕累托曲線幻燈片,推出Dynamo 技術時提到,輝達圖形處理器能夠覆蓋全場景,使用者只需採購輝達圖形處理器,Dynamo 就能兼顧兩大目標。但如今你卻表示,圖形處理器無法完全覆蓋所有場景。黃仁勳:我們的覆蓋能力依然優於所有現有系統。我們能進一步拓展帕累托最優邊界,尤其是在超高Token 速率與超低延遲場景,但這會犧牲部分吞吐量。然而,程式碼智能體等人工智慧應用創造了極高的經濟價值,且與人類使用者深度繫結,人類使用者的價值遠超圖形處理器。Ben:沒錯,人類的成本比圖形處理器更高。黃仁勳:因此我希望為軟體工程師提供最高Token 速率的服務。如果 Anthropic 推出Claude Code,將程式碼生成速率提升10 倍,我絕對願意為此付費。Ben:所以這款產品是為你們自身需求研發的?黃仁勳:大多數偉大的產品都源於對痛點的深刻感知,以及對市場趨勢的精準判斷。我們迫切希望程式碼智能體的運行速度提升10 倍,但高吞吐量系統難以實現這一目標,因此我們決定整合Groq的低延遲系統,實現協同處理。Ben:那麼這只是將解碼與預填充階段分離嗎?黃仁勳:我們還會處理解碼中的高算力、高浮點運算部分,也就是注意力機制相關的解碼運算。Ben:也就是說,甚至在解碼層面也實現了分離架構。黃仁勳:沒錯,這需要軟硬體的深度耦合與緊密整合。Ben:這筆交易幾個月前才宣佈,你們卻計畫今年晚些時候推出產品,如何實現這一進度?黃仁勳:我們早已開始研究分離式推理架構,Dynamo 技術已經明確了輝達的技術方向。宣佈 Dynamo 技術時,我就已經在思考如何在異構基礎設施中更精細地分離推理任務,而Groq的架構是我們技術路線的極致延伸,他們此前的研發麵臨諸多困難。Ben:Dynamo 技術是一年前推出的,而Groq的合作是在聖誕節前後敲定的。是否有特定事件推動了這一決策?黃仁勳:我一年前宣佈Dynamo 技術,而我們已經研發了兩年,分離式推理的研究已有兩三年時間。在宣佈收購交易前約六個月,我們就開始與Groq合作,提前規劃Grace Blackwell 與Groq技術的融合。我很欣賞Groq的團隊,我們無意收購其雲服務業務。他們另有核心業務且發展良好,這並非我們的目標,因此我們決定收購其團隊並獲得技術授權,隨後基於底層架構持續迭代最佳化。Ben:這算是機緣巧合嗎?黃仁勳:是戰略層面的意外之喜。Ben:比如OpenAI 在今年 1 月宣佈與 Cerebras 合作。黃仁勳:這與我們完全無關,事實上我此前並不知情,但即便知曉也不會改變決策。我依然會選擇Groq的架構,其技術邏輯更合理。Ben:這是否是首次有專用積體電路方案讓你眼前一亮,意識到其底層設計的顛覆性?黃仁勳:並非如此,邁絡思公司就是先例。Ben:這個例子很恰當。黃仁勳:是的,邁絡思。我們將部分計算棧整合到邁絡思的技術堆疊中。沒有與邁絡思合作實現的網路內計算,就無法實現當前規模的NVLink。將軟體棧分離並部署到最優位置,是輝達的核心優勢。我們並不執著於計算的執行位置,只專注於應用加速。請記住,輝達是加速計算公司,而非單純的圖形處理器公司。Ben:沒錯。你提到能源是核心約束,客戶在採購時,是選擇傳統圖形處理器,還是LPU 機架?你是否確信,後者能為客戶帶來更高的營收?黃仁勳:這取決於客戶的業務類型。如果目前沒有企業級應用場景,那麼增加Groq裝置並無太大意義,因為大部分客戶是免費使用者,尚未轉化為付費使用者。假設免費使用者佔三分之二、付費使用者佔三分之一,增加Groq裝置會大幅提升成本,消耗電力資源,得不償失。Ben:還會增加系統複雜度,佔用伺服器,產生機會成本。黃仁勳:這些伺服器原本可以為免費使用者提供服務。但如果是Anthropic、OpenAI 這類企業,其程式碼模型創造了極高的經濟價值,只是希望提升 Token 生成量,那麼增加這類加速器就能顯著提升營收。中國市場與人工智慧末日論者Ben:2026 年,我們面臨的約束究竟是能源、晶圓產能,還是其他因素?業內普遍認為供應不足,實際的核心瓶頸是什麼?黃仁勳:幾乎所有資源都處於緊缺狀態,任何環節都無法實現翻倍供給。Ben:因為總會觸發其他環節的約束。黃仁勳:沒錯。Ben:不過美國在能源調配方面的表現超出了幾年前的預期,目前晶片似乎是更核心的瓶頸。黃仁勳:我們的供應鏈規劃十分完善。我們為今年的高速增長做了充分準備,也在規劃明年的大規模發展。Ben:我們都看到了你們為供應鏈合作付出的努力。黃仁勳:(笑)沒錯。我們的供應鏈擁有數百合作夥伴,且建立了長期合作關係,因此我對這一環節很有信心。我們的能源、晶片供應都無法滿足翻倍需求,所有資源都存在缺口。但從供應鏈角度來看,我們有能力支撐未來的發展,我最希望的是土地、電力、廠房基礎設施的建設速度能更快。Ben:那麼公平地說,在資源稀缺的背景下,輝達是否是最大的受益者?能源稀缺時,我們的晶片效率最高,能更好地利用能源;晶圓產能緊張時,如你所說,我們提前佈局保障了供應鏈,是否在這一背景下成為最大贏家?黃仁勳:我們是該領域規模最大的企業,且規劃工作做得十分出色。我們對供應鏈上下游都進行了周密佈局,為行業增長做好了充分準備。Ben:但無法進入中國市場是否構成潛在威脅?如果中國擁有充足的能源與晶片產能,即便晶片僅為7 奈米工藝,也有能力建構生態系統,長期來看與 CUDA 形成競爭,這是否是你的擔憂?黃仁勳:我們必須確保中國市場採用美國技術堆疊,從一開始我就始終堅持這一觀點,因為開放原始碼軟體必然會興起。沒有那個國家對開放原始碼軟體的貢獻超過中國,全球50% 的人工智慧研究人員來自中國,且極具創新能力。DeepSeek並非普通技術,其性能極為出色;Kimi、通義千問也同樣優秀,在架構與人工智慧技術堆疊方面都做出了獨特貢獻,我們必須重視這些企業。全球科技生態都建構在美國技術堆疊之上,當中國的開源技術向外擴散時,美國技術堆疊有能力承接。我始終認為,這是美國科技行業最重要的地緣戰略問題。Ben:上次我們對話時,川普政府已禁止H20 晶片出口。你是否驚訝於能說服川普政府接受你的觀點?而如今又被中國市場阻攔,是否更感意外?黃仁勳:被中國市場阻攔並不意外,因為中國需要發展自主技術堆疊。在我們退出市場的這段時間裡,中國行業發展速度極快,華為實現了公司歷史上的最佳業績。作為一家老牌企業,華為創下了營收紀錄,還有五六家晶片企業成功上市,聚焦人工智慧領域。我們需要更具戰略性地思考美國的科技領導地位與地緣政治優勢。人工智慧並非只有模型,這是一個深刻的誤區—— 正如我所說,也是你開篇提到的,人工智慧是五層架構,我們必須在基礎設施、晶片、平台、模型、應用每一層都保持領先。我們當前的部分政策,正在損害國家在這五層架構中的領導能力。認為通過自上而下整合所有企業、形成統一技術堆疊就能獲勝,是極其錯誤的想法。我們必須讓每一層都自主參與市場競爭。Ben:是否其他領域的企業更早涉足華盛頓事務,而輝達入局較晚?黃仁勳:或許是這樣。Ben:你從華盛頓的經歷中學到了什麼?最大的收穫是什麼?黃仁勳:令我驚訝的是,人工智慧末日論者在華盛頓的滲透程度之深,其言論對政策制定者的心理影響之大。Ben:所有人都陷入恐懼,而非保持樂觀。黃仁勳:沒錯,這存在兩個核心問題。在這場工業革命中,如果我們不讓技術在美國國內擴散,不自身充分利用技術,就會重蹈上一次工業革命中歐洲的覆轍—— 被時代拋棄。上一次工業革命的核心技術大多由歐洲發明,卻被美國充分利用。我希望我們能具備歷史智慧與技術認知,不被科幻式的末日論裹挾,這些虛構的極端言論嚇壞了對技術缺乏瞭解的政策制定者,毫無益處。最令我擔憂的是,美國民眾對人工智慧的支援度正在下降,這是一個嚴重的問題。這就如同上一次工業革命中,電力、電動機、內燃機的支援度下滑,網際網路也曾面臨類似情況。其他國家更快地利用了這些技術,推動技術在產業與社會中擴散,我們必須高度警惕,避免給人工智慧賦予神秘的科幻色彩,引發不必要的恐慌。我反對末日論者製造恐慌,真正的擔憂與警示,和通過煽動性言論製造恐懼有著本質區別。Ben:這類人的普遍特徵是,故作高深地剖析各種細節,卻忽視大眾傳播的核心是簡潔直白的表達。無法向民眾傳遞“適度擔憂而非過度恐慌” 的資訊,最終只會傳播恐懼,而非樂觀。黃仁勳:沒錯,而且這會讓他們顯得更“深刻”。Ben:人們都喜歡顯得自己有深度。黃仁勳:有時我們也發現,這有助於他們融資,或是實現監管俘獲。他們這麼做有各種動機,這些人都極為聰明,但我想提醒他們,這類行為大機率會引發反噬,終有一天他們會為此感到後悔。輝達的企業特質Ben:由於時間有限,我將幾個問題合併提問。在自動駕駛領域,你與多家汽車製造商合作,推出Alpamayo 模型,同時仍為特斯拉供應晶片。你今天的演講中重點介紹了 OpenClaw 技術 —— 此外,Vera 晶片的核心驅動力之一,就是Claude Code、OpenAI 程式碼模型這類智能體技術的發展。我是否可以從中總結出一個共性邏輯:你們會為領域內的頭部企業、創新者供應晶片,同時快速跟進其技術,為面臨競爭威脅的其他所有企業提供解決方案?這樣既能擴大客戶群體,不依賴頭部企業,又能借助頭部企業的技術影響力,推動產品向其他客戶銷售,因為後者擔心被行業淘汰。黃仁勳:並非如此。我們在眾多領域都處於前沿位置,在很多領域本身就是領導者,但我們從不將這些技術轉化為自有產品。我們專注於技術堆疊,必須保持技術領先,成為全球頂尖的技術堆疊提供商,但我們並非解決方案製造商,也不是服務供應商。這是第一點。Ben:這一定位會一直保持嗎?黃仁勳:是的,永遠不會改變。我們沒有理由改變,也樂於保持這一定位。我們研發所有技術,並向全行業開放。Ben:但有趣的是,以你們的板卡產品為例,如今一個機架裡有大約3 萬個特定庫存單位,越來越多的產品規格由你們定義,“這就是產品標準”,部分原因是為了簡化組裝等流程。軟體層面是否也會出現類似趨勢,尤其是在你提到的垂直領域與開源模型方面?黃仁勳:我們垂直整合技術,然後水平開放,讓所有客戶按需選用。Ben:只要客戶使用輝達晶片即可?黃仁勳:客戶可以自由選用任意模組,不必全部採用輝達晶片或軟體。我們必須垂直研發、整合、最佳化,但之後會開放原始碼,讓客戶自主選擇部署方式。Ben:考慮到Meta 等企業似乎已掉隊,而替代方案大多是中國模型,你認為輝達能否持續研發前沿模型,佔據市場地位,或是成為該領域不可或缺的參與者?黃仁勳:在模型領域取勝並非我們的目標。Ben:沒錯,不是為了競爭勝利,而是行業需要開源前沿模型,如果不是輝達,誰來承擔這一角色?黃仁勳:確實需要有人研發開源模型,而輝達具備這一實力。我們在研發開源模型的過程中,也能深入理解計算邏輯。Ben:Blackwell 架構是否遇到了相關問題?我聽說其訓練過程比以往更具挑戰性。黃仁勳:Blackwell 架構的核心挑戰 100% 來自 NVLink 72 技術,其研發難度極大。這也是我唯一一次在演講中感謝客戶與合作夥伴的支援。Ben:我注意到你今天說這句話時,語氣非常真誠。黃仁勳:是的,因為我們給所有人都帶來了挑戰,但現在大家都認可其價值。Ben:這是我們第二次面對面交流,上次在台北會面時,我的感受是輝達依然像一家小公司。你是否擔心業務佈局過於分散?還是說,你們依然依託CUDA 形成的飛輪效應 ——“看似業務繁多,實則重複執行同一核心邏輯”?黃仁勳:輝達能夠快速發展的原因,是我們始終擁有統一的企業發展理念,這是我的職責:確立核心發展理念,明確關鍵方向、業務關聯邏輯,然後打造高效的組織體系,落地這一理念。輝達的核心理念其實很簡單:一方面,我們擁有基於CUDA-X 的計算平台與軟體平台;另一方面,我們是計算系統公司,垂直最佳化產品,實現全端極致協同設計,將電腦系統整合為平台,接入所有雲服務商與原始裝置製造商,進而打造資料中心平台、人工智慧工廠平台。一旦確立了輝達的研發與落地核心理念—— 我這次主題演講也在向內部員工傳遞這一理念。Ben:確實有這種感覺。演講的第一個小時,彷彿你在對員工講話,重申公司的核心使命。黃仁勳:我們必須時刻牢記自身的核心價值。人工智慧固然重要,但CUDA-X、各類求解器以及我們能加速的所有應用,同樣至關重要。Ben:非常感謝你。黃仁勳:謝謝你,Ben。很高興見到你,繼續保持出色的工作。(火龍呼呼猫)
【GTC 2026】輝達GTC大會的核心看點,誰是最大受益方?
老黃演講後,網上很多博主都發了關於GTC的內容,但是絕大多數都是新聞性質的,他們只講了黃仁勳都說了啥。這篇文章我們結合 NVIDIA 的技術規劃,來聊一聊網上可能沒有的分析和GTC的核心看點。對於兆營收和CPO的資訊,都是大家知道的了,這篇文章就不再贅述了。1、CPX的黯然退場在上個月下旬的時候,網上還依然傳著很多關於 CPX 要使用 HBM 的傳言。我當時就聽到消息說 CPX 要取消,我當時還不太信,但事實證明確實是被 LPU 取代了。那為什麼會取代呢?就是因為輝達的路線轉換,他們要從 prefill 加速切換到 推理加速。這些內容和觀點,我們之前在星球中都講過。2、誰是這次 GTC 大會之後最大的受益方?那顯然是三星。因為 LPU 是找三星獨家代工,採用的是三星的 N4 工藝。這意味著三星不僅是輝達全層級儲存的核心供應商,現在更獨攬了 LPU 的代工大單。在Rubin上,三星的綜合價值量已經超過台積電了,因為台積電只負責代工加封裝。原文連結:https://globalsemiresearch.substack.com/p/nvidia-gtc-2026-is-samsung-the-biggest3、LPX 機架引入 FPGA 的作用可能很多人都沒想到,在 LPX 機架上面引入了 FPGA。那麼它的作用是什麼呢?專門負責實現系統內可配置的串聯通訊旁路後端搭配了一顆 CPU 進行協同控制這種精密協同架構保障了 256 顆 LPU 能夠作為單一的巨型處理器運行,從而實現低延時的確定性推理加速。4、為什麼要把CPU獨立成機櫃?是因為我們已經正式邁入智能體時代。智能體在自主工作時,需要頻繁地呼叫工具、執行邏輯程式碼、進行強化學習和自我糾錯。而獨立的 CPU 機架,正是為了提供海量的“沙盒”環境而生。單個機架整合了 256 顆 CPU,可以同時維持超過 22,500 個並行的智能體測試和驗證環境,填補了 GPU 在複雜單線程邏輯處理上的短板。5、輝達為什麼要設獨立的儲存機櫃?這就要結合輝達之前提出的 ICMS(推理上下文記憶體儲存)方案來解釋了。在智能體時代,模型需要處理數百萬 token 的超長上下文,導致 KV Cache 的數量呈線性暴增。如果將海量的 KV Cache 全部放在 HBM 層,不僅容量受限,而且成本非常高。但如果解除安裝到傳統的共享化企業儲存中,其功耗過大,而延時又會嚴重拖慢推理速度,導致 GPU 處於閒置等待狀態。因此,輝達採用了分級儲存架構:ICMS 充當了整個 AI 叢集的長期記憶庫。它專門針對海量臨時 KV Cache 資料的儲存、檢索和共享進行了最佳化。通過高速 RDMA 網路,它能夠提前將上下文資料預載入回 GPU 記憶體,從而避免了歷史資料的重複計算,顯著提高效率。6、拋開技術層面,老黃最關注的是什麼?拋開第六個看點,拋開所有的技術參數,老黃最看重的底層護城河其實是產能和供應鏈。最近他頻繁來亞洲,是為了鎖定儲存、晶圓代工和先進封裝產能。這也是他這兩年頻繁來亞洲的原因,因為要鎖定儲存晶圓和 CoWoS 產能。黃仁勳在供應鏈管理上的優勢,是其他所有企業都望塵莫及的。這裡我們再多說一點,Google前段時間賣給Anthropic的TPU,其實Google非常後悔,因為他們現在內部都沒得用,結果還把珍貴的算力賣給了競爭對手。所以這也是 OpenAI 去年瘋狂跟各個大廠合作、畫餅要產能的原因。這一反面案例恰恰印證了在 AI 算力即“企業命脈”的當下,對底層產能的絕對把控力才是決定最終勝負的關鍵。 (傅里葉的貓)
🎯黃仁勳揭AI終極答案:PCB、HBM、散熱、CPO誰會變10倍股?Line@連結:https://lin.ee/mua8YUP🎯AI會紅多久?答案只有四個字:無盡算力以前電腦像小發電機,點亮燈泡就好現在AI是整個台北市的發電廠這不是升級,是拆掉重建、暴力重塑今年GTC已經講白了AI正從「訓練」走向「大規模推論」算力要翻倍、記憶體要爆量、傳輸要光速規格一升級,誰賺?不是喊口號的,是有定價權的人🔥 第一炸:PCB、載板未來AI載板面積+層數直接多50%20坪公寓→30坪透天厝材料暴增、難度暴增、報價也暴增3037欣興、8046南電、3189景碩、4958臻鼎、2368金像電、8021尖點產能2028年前補不起來這叫什麼?定價權!🔥 第二炸:記憶體超級循環HBM全被包走三星敢漲價一倍,輝達照單全收這不是景氣回溫,這是賣方市場回歸3260威剛、8299群聯、5351鈺創、4967十銓、2344華邦電、2408南亞科補漲空間容量不夠?就再加!AI不會說「夠了」!🔥 第三炸:散熱革命機櫃密度暴增風扇吹不動水冷、液冷直接變標配3653健策、3324雙鴻、3017奇鋐、6805富世達算力翻倍,熱能也翻倍,這是最現實的物理定律🔥 第四炸:CPO光通訊銅線到極限了資料中心必須改走「光」Broadcom都出手了3081聯亞、3163波若威、4979華星光、3363上詮、2455全新這不是題材,是長線革命結論:AI不是一陣風它是整個工業體系的重組你要找的不是漲很多的而是產能補不起來、規格只會更高的錯過6217中探針?錯過3260威剛?別怕!「新產業大成長股」已正在路上江江會告訴你,下一波主力正在卡位的是哪一塊🔴接下來我們會在粉絲團持續幫大家鎖定+追蹤,若還不知道該如何操作?那建議你務必要鎖定江江在Line @,將有更進一步的訊息給大家了解。https://lin.ee/mua8YUP🔴想了解還未起漲的市場主流,同步了解大盤多空轉折點及學習預測技術分析,江江YT節目都會持續追蹤+預告。https://reurl.cc/02drMk********************************************************有持股問題或想要飆股→請加入Line:https://lin.ee/mua8YUP江江的Youtube【點股成金】解盤:https://reurl.cc/02drMk*********************************************************(本公司所推薦分析之個別有價證券 無不當之財務利益關係以往之績效不保證未來獲利 投資人應獨立判斷 審慎評估並自負投資風險)
3/18盤後:股王信驊噴到 12,450 元了!台股天花板到底在哪?千金股大亂鬥開始了嗎?📊盤勢分析今日美股經歷震盪後最終小幅收高。早盤時段,受惠於油價短暫回落,市場對通膨的擔憂情緒略微舒緩,帶動主要指數全面開高。然而,隨著美國總統川普強硬表態美軍已重創伊朗軍事力量且無須盟國協助護航,加上布蘭特原油價格再度飆升並重返每桶 100 美元大關,市場避險情緒升溫,導致大盤自盤中高點回落。儘管如此,投資人仍延續了前一交易日的逢低買進動能,穩住了大盤底氣。此外,市場目前高度聚焦本週將登場的聯準會(Fed)利率決策,外界普遍預期,在中東戰火導致能源市場混亂的局勢下,聯準會本週高機率將維持利率政策按兵不動。盤面上資金流動呈現分歧,能源、非必需消費與通訊服務板塊表現最為亮眼,而醫療保健與公用事業等防禦型類股走勢則相對低迷。在關鍵個股方面,科技巨頭互有消長,蘋果上漲 0.56%、Alphabet 與亞馬遜皆上揚超過 1.6%;AI 領頭羊輝達(Nvidia)雖然由執行長黃仁勳親自釋出 AI 晶片至 2027 年商機將高達1 兆美元的重磅利多,但股價反彈未果,終場微跌 0.70%。另外,半導體族群中的記憶體大廠美光(Micron)表現極為強勢,股價大幅飆升 4.50%。即便面臨地緣政治與通膨變數,今日大盤依然順利收紅。道瓊工業指數上漲 0.10%,收在 46,993 點;標普 500 上漲0.25%,收在 6,716 點;那斯達克指數上揚 0.47%,收在 22,480 點;費城半導體指數勁揚 0.52%,收在 7,837 點。今日台股受到美伊地緣政治風險降溫與美股收紅的激勵,加上輝達(NVIDIA)GTC 大會釋出強勁的AI 前景展望,推升大盤上演一波量價齊揚的預期修復行情。加權指數今日呈現開高走高的強勢格局,在電子權值股領軍與市場資金大舉回流下,大盤一路過關斬將,盤中大漲超過 500 點,一舉重返 34,000 點大關之上。盤面結構上,資金出現極度集中的「強者恆強」馬太效應,電子股成交比重狂飆至約 85%,使 AI 與半導體相關供應鏈成為絕對的吸金焦點。其中,記憶體族群在美光(Micron)市值首破 5,000 億美元,以及高層預告供給短缺將一路延長至 2030 年的重磅利多點火下,爆發出強悍動能,威剛、宜鼎、旺宏等多檔個股強勢亮燈漲停。同時,先進封裝測試與設備族群也受惠台積電資本支出上修預期而群起上攻,千金高價股更成為人氣指標,股王信驊盤中狂飆至 12,450 元的新天價。然而,市場資金過度擁擠也引發嚴重的排擠效應,非電族群全面倒地;汽車類股因關稅衝擊重挫逾 2%,金融、航運與傳產等族群亦遭遇不小賣壓,盤勢呈現「電子狂歡、非電靠邊」的兩極化發展。加權指數上漲 1.51%,收在 34,348.58 點;櫃買指數上漲 2.61%,收在 329.4 點。權值股方面,台積電上漲 1.87%、鴻海下跌 0.94%、聯發科則維持平盤。🔮盤勢預估輝達GTC樂觀展望帶動,台積電重返1900元,加權指數續漲500點站回34000大關。台指期拉高結算,中東地緣風險淡化,但8成以上資金集中電子股短線過熱。盤面以高價股與記憶體族群最強勢,顯示內資大戶仍具信心,股王信驊與股后穎崴齊創歷史天價;記憶體受美光市值飆高激勵,旺宏、威剛與宜鼎強勢亮燈。台積電緩漲較有利中小型股行情,留意FED會議後市場熱錢流向。👨‍⚕️我是股科大夫 容逸燊每天三分鐘,幫你的持股把把脈!【YT直播】週二 20:00 盤中直播【訂閱股科大夫YT】https://bit.ly/dr_stockYT【官方LINE @】https://line.me/R/ti/p/@dr.stock【專人服務諮詢】0800-668-568IG: https://www.instagram.com/dr.stock0/Threads: https://www.threads.com/@dr.stock0每天不到一杯咖啡 訂閱專家的腦袋https://www.chifar.com.tw/subscription/drstock/
【GTC 2026】傳輝達Groq LPU將對華出口!
3月18日消息,據路透社報導,兩位知情人士透露,人工智慧(AI)晶片大廠輝達正準備推出一款可向中國市場出口和銷售的Groq語言處理單元(LPU)版本,預計將於今年5月上市。在近日的GTC 2026大會上,輝達高調發佈了基於Groq技術的Groq 3語言處理單元(LPU),將其定位為Vera Rubin GPU的“推理協處理器”,引發了市場的極大關注。與大多數依賴HBM(高頻寬記憶體)作為工作記憶體層的AI加速器不同,每個Groq 3 LPU晶片整合了500MB的片上SRAM(靜態隨機存取儲存器)。雖然其容量遠低於Rubin GPU上的288GB的HBM4,但是其可提供高達150TB/s的頻寬,對於頻寬極度敏感的AI解碼操作,Groq 3 LPU的頻寬是傳統HBM的近7倍。輝達超大規模計算副總裁Ian Buck表示,對於需要極致低延遲的token生成任務,LPU的頻寬優勢無可替代。”那麼,輝達最新推出的這款LPU是否能夠對華出口呢?2026年1月,美國為了讓輝達老的AI晶片能夠對華出口,放寬了相關出口管制的硬體參數限制,已經修改為:TPP(總處理性能)低於21000(3A090.a和3A090.b中所定義)且“總DRAM頻寬”低於6500 GB/s(如第748部分補充2第(dd)(1)段註釋中所定義的)的高級計算商品。美國的AI晶片出口管制的核心紅線是算力密度(TPP)和互聯頻寬。但LPU的架構與AI GPU完全不同:它不擅長高平行浮點運算(訓練任務),而是專攻低延遲推理。雖然其片上SRAM頻寬極高,但容量極小(單晶片僅500MB),無法獨立運行兆參數級大模型。如果看FP8精度下的理論峰值算力,可能遠低於H100/B200等晶片。這意味著,Groq LPU的算力密度可能並不觸及現行美國針對AI晶片出口管制的性能閾值。路透社的報導也指出,輝達正在為中國市場準備的Groq LPU晶片並非降級版本,也不是專門為中國市場打造的“特供版”。但是,在輝達的規劃中,Groq LPU是作為Rubin GPU的“協處理器”存在的。黃仁勳給出的配比建議是:約25%部署Groq LPU,其餘75%部署Vera Rubin。LPU負責解碼階段的低延遲生成,Rubin GPU負責預填充階段的海量計算。這意味著,即使LPU本身可以進入中國,它也無法與Vera Rubin組成完整的混合推理系統——這將顯著影響其在中國市場的實用價值。不過,消息人士稱,輝達計畫對華出口的LPU新版本可以適配其他GPU系統——這意味著它可能在介面、互聯協議或系統整合層面進行了調整,以適應中國市場的伺服器生態。另一種可能是,輝達將Groq LPU以板卡或系統的形式出口,通過整體系統的性能參數來滿足管制要求。消息人士稱“新版本可以適配其他系統”,也暗示了其可能在系統整合層面進行了調整。雖然目前輝達在AI訓練晶片市場依然佔據著主導地位,但是由於美國出口管制政策的限制,使得其在中國AI晶片市場的份額已持續降低至冰點。同時,在中國的AI推理晶片市場,輝達更是面臨著寒武紀、HW、阿里平頭哥、百度崑崙芯等眾多本土廠商的激烈競爭。如果輝達無法將Groq LPU帶入中國,可能將這部分市場份額拱手讓人。這種商業壓力也促使輝達尋找合適的產品及合規的出口路徑,重新回到中國AI晶片市場。 (芯智訊)