輝達CEO黃仁勳:中國今年可能帶來500億美元的商機。中國市場年增長大約50%。希望向中國市場銷售更新的晶片。輝達現在提供的是複雜的產品系統,而不僅僅是晶片。輝達技術存在於所有的雲中,更具有能效性。一、財務業績1. 整體表現:◦ 總營收 467億美元,同比增長56%,超出市場預期。◦ 淨利潤 264億美元,同比增長59%。◦ 資料中心業務營收 411億美元(佔比88%),同比增長56%,但略低於預期;遊戲業務營收 43億美元創歷史新高,同比增長49%。2. 中國市場影響:◦ 二季度未向中國銷售H20晶片,但釋放了價值 1.8億美元的庫存;向其他地區客戶售出 6.5億美元的H20。◦ 若地緣政治問題緩解,三季度H20對華出貨或達 20-50億美元。3. 毛利率與回購:◦ 調整後毛利率 72.7%,略高於預期;預計三季度毛利率回升至 73.5%。◦ 董事會批准追加 600億美元股票回購計畫。二、關鍵業務進展1. Blackwell平台:◦ 需求"異常旺盛",季度銷售環比增長 17%,貢獻營收 270億美元。◦ GB300 進入量產,每周產能約 1,000個機架,預計三季度加速。◦ 相比Hopper,Blackwell在推理能效上提升 10-50倍,顯著降低客戶成本。2. 下一代技術佈局:◦ Rubin平台(2026年量產):6款晶片已完成流片,支援第三代NVLink機架級AI超級電腦。◦ Spectrum-XGS網路技術:實現跨資料中心互聯,年化收入超 100億美元;InfiniBand收入環比翻倍。3. 新興增長領域:◦ 主權AI:預計全年收入超 200億美元(同比翻倍),歐盟計畫投資 200億歐元建設AI工廠。◦ 機器人平台Thor:性能較前代提升數量級,客戶包括Amazon、Boston Dynamics等。三、未來展望1. 需求驅動:◦ Agentic AI(主體型AI):推動計算需求增長 100-1000倍,企業市場加速打開。◦ 全球AI基建投資:十年內規模或達 3-4兆美元,輝達目標佔據35%份額。2. 競爭壁壘:◦ 全端解決方案(晶片+網路+軟體)難以被ASIC替代,客戶因"每瓦性能最優"持續選擇輝達。3. 三季度指引:◦ 營收預期 540億美元(±2%),環比增超 70億美元,主要由Blackwell驅動。輝達憑藉 Blackwell 的強勁需求和 Rubin 的技術儲備,持續領跑AI基礎設施市場。儘管中國業務短期承壓,但Agentic AI、主權AI及機器人等新場景將打開長期增長空間。十年 3-4兆美元 的AI基建藍圖下,其全端優勢與能效領先仍是核心護城河。電話會議紀要版一、經營概況我們在持續應對動態外部環境的同時,又創紀錄地交付了一個季度。總收入為467億美元,超出我們的預期,所有市場平台均實現環比增長。資料中心收入同比增長56%。儘管H20收入下降40億美元,資料中心收入仍實現環比增長。NVIDIA的Blackwell平台達到創紀錄水平,環比增長17%。我們在第二季度開始生產並行運GB300。我們為雲服務提供商、新雲、企業和主權國家提供的全端AI解決方案,都在推動我們的增長。我們正處於一場工業革命的開端,這場革命將改變每個行業。我們看到,到本十年末,AI基礎設施支出將達到3兆至4兆美元。這些建設的規模和範圍,為NVIDIA帶來了巨大的長期增長機會。GB200 NVL系統正在被廣泛採用,CSP和消費網際網路公司都在部署。包括OpenAI、Meta和Mistral在內的燈塔模型建構者,正在使用GB200 NVL72在資料中心規模上訓練下一代模型,並在生產環境中提供推理模型。新的Blackwell Ultra平台也取得了強勁的季度表現,創造了數百億美元的收入。對於主要雲服務提供商來說,向GB300的過渡是無縫的,因為GB300與GB200共享架構、軟體和物理足跡,使他們能夠輕鬆建構和部署GB300機架。向新的GB300機架式架構的過渡是無縫的。7月底和8月初的工廠建設成功轉換為支援GB300的爬坡。今天,全面生產正在進行中。當前運行速度已恢復全速,每周生產約1000個機架。隨著更多產能上線,預計這一產出將在第三季度進一步加速。我們預計下半年將實現廣泛的市場供應,因為CoreWeave準備將第三個GB300實例推向市場,他們已經看到在推理模型上,與H100相比,性能提升了10倍。與上一代Hopper相比,GB300和VL72 AI工廠承諾將每瓦特token的能效提高10倍,這轉化為收入,因為資料中心受限於功率。Rubin平台的晶片正在晶圓廠生產。Vera CPU、Rubin GPU、CX9 SuperNIC、NVLink 144規模擴展交換機、Spectrum-X規模擴展和跨交換機,以及矽光子處理器。Rubin仍按計畫於明年實現量產。Rubin將是我們的第三代NVLink機架級AI超級電腦,擁有成熟且大規模的供應鏈。這使我們保持年度產品節奏,並在計算、網路、系統和軟體方面持續創新。7月底,美國政府開始審查向中國客戶銷售H20的許可證。雖然過去幾周我們的一些中國客戶已獲得許可證,但我們尚未根據這些許可證發運任何H20。美國政府官員已表示,預計將從許可的H20銷售中獲得15%的收入,但迄今為止,美國政府尚未發佈法規將此要求編纂成文。我們未將H20納入第三季度展望,因為我們仍在努力解決地緣政治問題。如果地緣政治問題解決,我們應在第三季度發運20億至50億美元的H20收入,如果我們有更多訂單,我們可以開具更多帳單。我們繼續倡導美國政府批准Blackwell進入中國。我們的產品是為有益的商業用途而設計和銷售的,我們進行的每一筆許可銷售都將惠及美國經濟和美國領導力。在競爭激烈的市場中,我們希望贏得每一位開發者的支援。如果我們在全球範圍內競爭,美國AI技術堆疊可以成為世界標準。值得注意的是,本季度Hopper 100和H200的出貨量有所增加。我們還向非中國地區的無限制客戶銷售了約6.5億美元的H20。這種對Hopper需求的環比增長,表明了加速計算上運行的資料中心工作負載的廣度,以及CUDA庫和全端最佳化的力量,這些不斷最佳化著我們平台的性能和經濟價值。隨著我們繼續交付Hopper和Blackwell GPU,我們專注於滿足全球飆升的需求。這種增長是由雲到企業的資本支出推動的,僅今年一年,就有望在資料中心基礎設施和計算上投資6000億美元,兩年內幾乎翻了一番。我們預計年度AI基礎設施投資將繼續增長,這受到幾個因素的驅動:推理代理AI需要數量級的更多訓練和推理計算;全球主權AI建設;企業AI採用;以及物理AI和機器人的到來。Blackwell已成為AI推理性能的新標準,樹立了標竿。隨著推理和代理AI在各行業獲得關注,AI推理市場正在迅速擴展Blackwell的機架級NVLink和CUDA全端架構,通過重新定義推理的經濟性,解決了這一問題。GB300平台上的新NVFP4 4位精度和NVLink72,與Hopper相比,每token能效提升50倍,使公司能夠以史無前例的規模貨幣化其計算。例如,對GB200基礎設施投資300萬美元,可產生3000萬美元的token收入,回報率為10倍。NVIDIA的軟體創新,加上我們開發者生態系統的力量,自Blackwell發佈以來,已將其性能提升超過2倍。CUDA、TensorRT LLM和Dynamo的進步,正在釋放最大效率。來自開源社區的CUDA庫貢獻,以及NVIDIA的開源庫和框架,現已整合到數百萬工作流中。NVIDIA與全球社區貢獻者之間的這種強大協作創新飛輪,加強了NVIDIA的性能領導地位。NVIDIA是OpenAI模型、資料和軟體的頂級貢獻者之一。Blackwell在大語言模型預訓練中引入了一種突破性的數值方法。使用NVFP4,GB300上的計算現在可以實現比使用FP8的H100快7倍的訓練。這一創新以4位的速度和效率,提供了16位精度的精準性,為AI因子效率和可擴展性樹立了新標準。AI行業正在迅速採用這一革命性技術,AWS、Google Cloud、Microsoft Azure和OpenAI,以及Cohere、Mistral、Kimi AI、Perplexity、Reflection和Runway等主要參與者,已經擁抱了它。NVIDIA的性能領導地位,在最新的MLPerf Training基準測試中得到了進一步驗證,GB200實現了全面橫掃。請留意9月即將發佈的MLPerf推理結果,其中將包括基於Blackwell Ultra的基準測試。NVIDIA RTX PRO伺服器正在為全球的系統製造商全面投產。這些是風冷的、基於PCIe的系統,無縫整合到標準IT環境中,運行傳統的企業IT應用程式,以及最先進的代理和物理AI應用程式。近90家公司,包括許多全球領導者,已經採用RTX PRO伺服器。日立將其用於即時模擬和數字孿生,禮來用於藥物發現,現代用於工廠設計和AV驗證,迪士尼用於沉浸式故事講述。隨著企業現代化資料中心,RTX PRO伺服器有望成為一條數十億美元的產品線。主權AI正在崛起,因為一個國家利用國內基礎設施、資料和人才開發自己AI的能力,為NVIDIA帶來了重大機遇。NVIDIA處於英國和歐洲標誌性倡議的前沿。歐盟計畫投資200億歐元,在法國、德國、義大利和西班牙建立20個AI工廠,包括五個千兆工廠,將其AI計算基礎設施增加十倍。在英國,由NVIDIA驅動的Isambard AI超級電腦作為國家最強大的AI系統亮相,提供21 exaflops的AI性能,加速藥物發現和氣候建模等領域的突破。我們有望在今年實現超過200億美元的主權AI收入,比去年翻一番多。網路業務實現了創紀錄的73億美元收入,AI計算叢集的升級需求需要高效率和低延遲網路。這代表了46%的環比增長和98%的同比增長,Spectrum-X乙太網路、InfiniBand和NVLink需求強勁。我們的Spectrum-X增強型乙太網路解決方案,為乙太網路AI工作負載提供了最高的吞吐量和最低延遲的網路。Spectrum-X乙太網路實現了兩位數的環比增長和同比增長,年化收入超過100億美元。在Hot Chips上,我們推出了Spectrum XGS乙太網路,這是一項旨在將不同資料中心統一為千兆級AI超級工廠的技術。CoreWeave是該解決方案的早期採用者,預計將使GPU到GPU的通訊速度提高一倍。InfiniBand收入幾乎翻了一番,環比增長,這得益於XDR技術的採用,該技術提供了比前代產品兩倍的頻寬改進,對模型建構者尤其有價值。全球最快的交換機NVLink,頻寬是PCIe Gen 5的14倍,隨著客戶部署Brace Blackwell NVLink機架級系統,實現了強勁增長。NVLink Fusion的積極反響廣泛,它允許半定製AI基礎設施。日本即將推出的FugakuNEXT將整合富士通的CPU,通過NVLink Fusion與我們的架構連接。它將運行包括AI、超級計算和量子計算在內的一系列工作負載。FugakuNEXT加入了越來越多的領先量子超級計算和研究中心的名單,這些中心運行在NVIDIA的CUDEQ量子平台上,包括ULIC、AIST、NNF和NERSC,由超過300個生態系統合作夥伴支援,包括AWS、Google Quantum AI、Quantinium、Qera和SciQuantum。剛剛推出的Thor,我們的新機器人計算平台現已上市。Thor提供的AI性能和能效比NVIDIA AGX Orin高出一個數量級。它在邊緣即時運行最新的生成和推理AI模型,實現最先進的機器人技術。NVIDIA機器人全端平台的採用正在迅速增長。超過200萬開發者和1000多個硬體、軟體應用和感測器合作夥伴,將我們的平台推向市場。各行業領先企業已採用Thor,包括Agility Robotics、Amazon Robotics、Boston Dynamics、Caterpillar、Figure、Hexagon、Medtronic和Meta。機器人應用需要在裝置和基礎設施上呈指數級增長的計算,這為我們的資料中心平台帶來了顯著的長期需求驅動。NVIDIA Omniverse與Cosmos是我們的資料中心物理AI數字孿生平台,用於開發機器人和機器人系統。本季度,我們宣佈與西門子擴大合作夥伴關係,以實現AI自動化工廠。包括Agile Robots、Neuro Robotics和Universal Robots在內的歐洲領先機器人公司,正在使用Omniverse平台建構其最新創新。中國資料中心收入佔比環比下降到低個位數百分比。請注意,我們的第三季度展望不包括向中國客戶發運H20。新加坡收入佔第二季度開票收入的22%,因為客戶已將其開票集中在新加坡。超過99%的資料中心計算收入開票給新加坡,是針對美國客戶。我們的遊戲收入創下43億美元的紀錄,環比增長14%,同比增長49%。這得益於Blackwell GeForce GPU的爬坡,隨著供應可用性的增加,強勁銷售持續。本季度,我們發運了GeForce RTX 5060桌面GPU,它帶來了雙倍的性能,以及先進的光線追蹤、神經渲染和AI驅動的DLSS4遊戲玩法,惠及全球數百萬玩家。Blackwell將於9月登陸GeForce Now。這是GeForce Now最重要的升級,提供RTX 5080級性能、最小延遲和5K解析度,每秒120幀。我們還將GeForce NOW遊戲庫翻倍至超過4500款遊戲,是任何雲遊戲服務中最大的遊戲庫。對於AI愛好者來說,裝置上的AI在RTX GPU上表現最佳。我們與OpenAI合作,最佳化他們的開源GPT模型,以在數百萬RTX支援的Windows裝置上實現高品質、快速和高效的推理。借助RTX平台棧,Windows開發者可以建立旨在在全球最大AI PC使用者群上運行的AI應用程式。專業可視化收入達到6.01億美元,同比增長32%。增長得益於高端RTX工作站GPU和AI驅動的工作負載(如設計、模擬和原型製作)的採用。主要客戶正在利用我們的解決方案加速其營運。動視暴雪使用RTX工作站增強創意工作流,而機器人創新者Figure AI則使用RTX嵌入式GPU為其人形機器人提供動力。汽車收入,僅包括車載計算收入,為5.86億美元,同比增長69%,主要由自動駕駛解決方案推動。我們已開始發運NVIDIA Thor SoC,這是Orin的繼任者。Thor的推出恰逢行業加速向視覺、語言、模型架構、生成AI和更高水平的自主性轉變。Thor是我們迄今為止最成功的機器人技術和AV電腦。Thor將提供動力。我們的全端驅動AV軟體平台現已投產,為NVIDIA開闢了數十億美元的新收入機會,同時提高車輛安全性和自主性。美國通用會計準則(GAAP)毛利率為72.4%,非美國通用會計準則(non-GAAP)毛利率為72.7%。這些數字包括1.8億美元或40個基點的收益,來自釋放之前預留的H20庫存。不包括這一收益,非美國通用會計準則毛利率將為72.3%,仍超出我們的預期。美國通用會計準則營運費用環比增長8%,非美國通用會計準則營運費用環比增長6%。這一增長是由更高的計算和基礎設施成本,以及更高的薪酬和福利成本推動的。為了支援Blackwell和Blackwell Ultra的爬坡,庫存從第一季度的110億美元增加到第二季度的150億美元。雖然我們優先考慮在第二季度為我們的增長和戰略計畫提供資金,但我們通過股票回購和現金股息向股東返還了100億美元。我們的董事會最近批准了600億美元的股票回購授權,以補充第二季度末剩餘的147億美元授權。二、業績和財務資訊總收入預計為540億美元,上下浮動2%。這代表超過70億美元的環比增長。再次強調,我們的展望不包括向中國客戶發運任何H20。美國通用會計準則和非美國通用會計準則毛利率預計分別為73.3%和73.5%,上下浮動50個基點。我們繼續預計,到今年年底,非美國通用會計準則毛利率將達到70%左右。美國通用會計準則和非美國通用會計準則營運費用預計分別約為59億美元和42億美元。全年來看,我們預計將營運費用同比增長約30%多,高於我們先前預期的30%左右。我們正在加速對業務的投資,以應對未來的巨大增長機會。美國通用會計準則和非美國通用會計準則其他收入和費用預計約為5億美元的收入,不包括來自非上市和公開持有股權證券的收益和損失。美國通用會計準則和非美國通用會計準則稅率預計為16.5%,上下浮動1%,不包括任何離散項目。即將到來的金融社區活動:我們將出席9月8日在舊金山舉行的高盛科技大會。我們的年度NDR將於10月的第一周開始。GTC資料中心將於10月27日開始,黃仁勳的主題演講安排在28日。我們討論2026財年第三季度業績的電話會議定於11月19日舉行。【Q&A】Q:從晶圓到機架出貨的周期為12個月。你們在今天的電話會議上確認Rubin將在下半年爬坡,顯然許多投資是多年期項目。我希望你們能從高層次談談對2026年增長的願景,以及作為其中的一部分,你們能否對網路與資料中心之間的情況發表一些評論?在最高層次的增長驅動因素方面,將是推理代理AI的演進和引入。過去,聊天機器人是一次性的,你給它一個提示,它會生成答案。現在,AI進行研究,思考並制定計畫,它可能會使用工具。所以,這被稱為長思考,它思考的時間越長,往往會產生更好的答案。一次性模型與推理代理AI模型所需的計算量相比,可能是100倍、1000倍,甚至更多,因為它需要進行大量的研究和閱讀、理解。因此,代理AI帶來的計算量已經大幅增長。當然,有效性也大幅提高。由於代理AI,幻覺的數量顯著減少,它現在可以使用工具並執行任務。企業已經開放。由於代理AI和視覺語言模型,我們現在在物理AI、機器人、自主系統方面看到了突破。因此,去年,AI取得了巨大進步。代理系統、推理系統完全是革命性的。現在,我們建構了Blackwell NVLink72系統,這是一個機架級計算系統,專為這一時刻而設計。我們已經為此工作了幾年。去年,我們從NVLink8(節點級計算,每個節點是一台電腦)過渡到現在NVLink72(每個機架是一台電腦)。將NVLink72分解為機架級系統非常困難,但結果是非凡的。由於NVLink72,我們看到數量級的加速,因此能效提高,因此token生成的成本效益提高。因此,在未來五年,我們將通過Blackwell、Rubin及其後續產品,擴展到3兆至4兆美元的AI基礎設施機遇。過去幾年,你們已經看到,僅前四大CSP的資本支出就翻了一番,增長到約6000億美元。因此,我們正處於這場建設的開始階段,AI技術的進步確實使AI能夠採用並解決許多不同行業的問題。Q:中國的20億至50億美元,需要發生什麼,以及進入第四季度後,中國業務的可持續節奏是什麼?人們對我們的H20感興趣。我們已經收到了最初的許可證。此外,我們確實有準備好供應的庫存。這就是我們傳達本季度可能發運約20億至50億美元的原因。我們仍在等待幾個地緣政治問題,這些問題在政府之間以及公司之間來回討論,以確定他們的採購以及他們想做什麼。因此,目前仍有待觀察。我們不確定本季度的全部金額是多少。然而,如果出現更多興趣,更多許可證,我們仍然可以建構額外的H20並行運更多。Q:關於競爭格局,你們的幾個大客戶已經或正在規劃許多ASIC項目。我認為你們的一個ASIC競爭對手發出了訊號,他們明年的AI業務可能增長55%、60%。你們是否看到任何情景,市場會更多地轉向ASIC,而非NVIDIA GPU?你們從客戶那裡聽到了什麼?他們如何管理他們使用通用晶片和ASIC之間的分配?NVIDIA建構的東西與ASIC非常不同。但讓我們先談談ASIC。許多項目已經啟動,許多初創公司成立,很少有產品投入生產。原因是這真的很難。加速計算不同於通用計算,你編寫軟體,然後將其編譯到處理器中。加速計算是一個全端協同設計問題。過去幾年,AI工廠由於問題規模的增長而變得複雜得多。這顯然是世界上有史以來最極端的電腦科學問題。因此,這個棧很複雜。模型變化非常快,從基於自回歸的生成到基於擴散的生成,到混合模型,到多模態。正在發佈的不同模型的數量,無論是變換器的衍生品還是變換器的演進,都是令人生畏的。我們的優勢之一是NVIDIA在每個雲中都有。我們從每個電腦公司都可以獲得。我們從雲到本地到邊緣到機器人,都採用相同的程式設計模型。因此,世界上每個框架都支援NVIDIA是合理的。當你建構新的模型架構時,在NVIDIA上發佈是最合理的。因此,我們平台的多樣性,無論是在演進到任何架構的能力方面,還是我們在任何地方的事實,以及我們還加速了整個pipeline。從資料處理到預訓練,再到強化學習的後訓練,一直到推理。因此,當你用NVIDIA平台建構資料中心時,它的效用是最好的。它的生命周期有用性要長得多。除此之外,這只是一個極其複雜的系統問題。人們談論晶片本身。關於ASIC,GPU,許多人談論。但為了建構Blackwell平台,以及Rubin平台,我們必須建構CPU,連接快速記憶體,低功耗,非常節能的記憶體,用於代理AI所需的大型KB快取,到GPU,到SuperNIC,到規模擴展交換機,我們稱之為NVLink,完全是革命性的,現在已經是第五代了,到規模擴展交換機,無論是Quantum還是Spectrum-X乙太網路,再到現在的規模跨交換機,以便我們可以為這些AI超級工廠做好準備,這些工廠擁有多個千兆瓦的計算,全部連接在一起。我們稱之為Spectrum-XGS,我們本周在Hot Chips上剛剛宣佈。因此,我們所做的一切的複雜性,確實是非常了不起的。現在,它確實是以非常極端的規模完成的。最後,如果我能再說一件事,我們在每個雲中都是有原因的。我們不僅是最節能的,我們的每瓦性能是所有計算平台中最好的。在一個資料中心受功率限制的世界裡,每瓦性能直接轉化為收入。而且,你以前聽過我說,在很多方面,你買的越多,你增長的就越多。因為我們的每美元性能,每美元投資的性能是如此令人難以置信。你還有非常好的利潤率。因此,NVIDIA架構的增長機會,以及NVIDIA架構的毛利率機會,絕對是最好的。因此,NVIDIA被每個雲、每個初創公司和每個電腦公司選擇的原因有很多。我們真的是AI工廠的整體、全端解決方案。Q:關於你提到的到本十年末3兆至4兆美元的資料中心基礎設施支出。此前,你談到過2028年僅計算部分就約1兆美元的規模。如果你回顧過去的評論,3兆至4兆美元可能意味著計算支出超過2兆美元。我只是想知道這是否正確,以及這是否是你在本十年末所看到的?我還想知道你認為輝達將佔其中的多少份額?輝達目前在總基礎設施計算方面的份額非常高。如果有任何你擔心的瓶頸,比如電力,以實現3兆至4兆美元?如你所知,僅前四大超大規模企業的資本支出在兩年內就翻了一番。隨著AI革命全面展開,隨著AI競賽現在開始,資本支出翻了一番,達到每年6000億美元。從現在到本十年末還有五年,6000億美元僅代表前四大超大規模企業。我們還有其餘的企業公司在本地建設,有世界各地的雲服務提供商在建設。美國約佔世界計算的60%。隨著時間的推移,你會認為人工智慧將反映GDP的規模和增長,當然會加速GDP增長。因此,我們對AI基礎設施的貢獻佔了很大一部分。對於一個千兆瓦的AI工廠,可以從50億美元到600億美元不等,我們約佔其中的35%左右,對於一個千兆瓦的資料中心,大約是500億美元中的35億美元。當然,你所得到的不是一個GPU。我認為人們因建構GPU和發明GPU而聞名,但如你所知,在過去十年中,我們確實轉型成為一家AI基礎設施公司。建構一個Rubin AI超級電腦需要六種不同類型的晶片,而將其擴展到千兆瓦,你有數十萬個GPU計算節點和大量機架。因此,我們真的是一家AI基礎設施公司,我們希望繼續為這個行業的發展做出貢獻,使AI更有用,然後非常重要的是,推動每瓦性能,因為正如你提到的,限制因素,很可能總是電力限制或AI基礎設施或AI建設限制,所以我們需要儘可能多地從工廠中擠出性能。NVIDIA每單位能源使用的性能推動了工廠的收入增長,它直接轉化。如果你有一個100兆瓦的工廠,每100兆瓦推動你的收入,這是每100兆瓦工廠的token數量帶來的。在我們的案例中,每美元投資的性能也非常高,因此你的毛利率也是最好的。但無論如何,這些是未來的限制因素,3兆至4兆美元在未來五年是相當合理的。Q:祝賀你們重新開放了中國的機會。你們能談談那裡的長期前景嗎?你們談到過,我認為AI軟體世界的一半在那裡,NVIDIA能在該業務中增長多少?Blackwell架構最終在那裡獲得許可有多重要?中國市場,我估計今年對我們來說是約500億美元的機遇。如果我們能夠以有競爭力的產品來滿足它,如果今年是500億美元,你會預計它每年增長約50%,因為世界其他地區的AI市場也在增長。它是世界第二大計算市場,也是AI研究人員的故鄉。世界上約50%的AI研究人員在中國。絕大多數領先的開源模型都是在中國建立的。因此,我認為美國科技公司能夠進入這個市場是相當重要的。開源,如你所知,是在一個國家建立的,但在世界各地使用。中國湧現的開源模型確實非常出色。DeepSeek,當然,獲得了全球聲譽。Qwen非常出色。Kimi非常出色。還有一大批新模型正在湧現。它們是多模態的,它們是出色的語言模型,它們確實推動了全球企業對AI的採用,因為企業希望建構自己的定製專有軟體棧。因此,開源模型對企業非常重要。它對SaaS也非常重要,SaaS也希望建構專有系統。它對世界各地的機器人技術確實令人難以置信。因此,開源非常重要,美國公司能夠進入這個市場非常重要。這將是一個非常大的市場。我們正在與政府討論美國公司能夠進入中國市場的意義。如你所知,H20已獲准向不在實體名單上的公司銷售,許多許可證已獲批准。因此,我們認為將Blackwell帶入中國市場的機會是真實存在的。因此,我們必須繼續倡導美國科技公司能夠領導並贏得AI競賽,並幫助使美國技術堆疊成為全球標準的合理性和重要性。Q:回到本周的Spectrum XGS公告,考慮到乙太網路產品現在推動年化收入超過100億美元。你們如何看待Spectrum XGS的機遇集?我們是否認為這是資料中心互連層?關於乙太網路產品組合中這一機遇的規模,有什麼想法?我們現在提供三種網路技術。一種是用於規模擴展,一種是用於規模擴展,一種用於規模跨接。規模擴展是為了我們能夠建構儘可能大的虛擬GPU,虛擬計算節點。NVLink是革命性的。NVLink 72使Blackwell能夠實現比Hopper的NVLink 8更非凡的一代飛躍。現在,當我們有長思考、思考模型、代理AI、推理系統時,NVLink基本上放大了記憶體頻寬,這對推理系統至關重要。因此,NVLink 72非常棒。然後我們通過網路進行規模擴展,我們有兩個。我們有InfiniBand,它無疑是最低延遲、最低抖動、最佳規模擴展網路。管理這些網路需要更多專業知識。對於超級計算,對於領先的模型建構者,InfiniBand,Quantum InfiniBand是明確的選擇。如果你對AI工廠進行基準測試,使用InfiniBand的性能是最好的。對於那些希望使用乙太網路的人來說,因為他們的整個資料中心都是乙太網路建構的,我們有一種新型的乙太網路,稱為Spectrum乙太網路。Spectrum乙太網路不是現成的。它有許多新技術,專為低延遲、低抖動和擁塞控制而設計。它的能力比現有的任何東西都更接近InfiniBand。我們稱之為Spectrum X乙太網路。最後,我們有Spectrum XGS,千兆級,用於連接多個資料中心,多個AI工廠,形成一個超級工廠,一個巨大的系統。你將看到網路,但網路在AI工廠中顯然非常重要。事實上,選擇合適的網路,由於你的網路能力,性能、吞吐量從65%提升到85%或90%,這種提升使網路實際上是免費的。選擇合適的網路,你基本上是在投資,你會獲得難以置信的回報,因為AI工廠,如我前面提到的,千兆瓦可能是500億美元。因此,能夠將工廠的效率提高數十個百分點,結果會帶來100億美元、200億美元的有效收益。因此,網路是非常重要的一部分。這正是NVIDIA在網路方面投入如此之多的原因。這就是我們五年半前收購Mellanox的原因。Spectrum-X,如我們前面提到的,現在是一項相當大的業務。它才只有一年半的歷史。因此,Spectrum-X是一個本壘打。這三個都將非常棒,NVLink、規模擴展、Spectrum-X和InfiniBand。Q:關於超過70億美元的環比增長,絕大部分將來自資料中心。我該如何將這70億美元分配給Blackwell、Hopper和網路?看起來,Blackwell本季度可能是270億美元,上季度可能是230億美元,Hopper在H20之後仍然是60億或70億美元。你認為Hopper的強勢會繼續嗎?我該如何將這70億美元分配給這三個不同的組成部分?首先,看我們Q2到Q3的增長,Blackwell仍將是我們資料中心業務的主要部分。但請記住,這不僅有助於我們的計算方面,也有助於我們的網路方面,因為我們正在銷售那些整合了Jensen剛剛談到的NVLink的重要系統。銷售Hopper,我們仍在銷售。H100、H200,我們都在銷售。但同樣,它們是HDX系統,我仍然相信Blackwell將是我們業務的主要部分。因此,我們將繼續。我們沒有更多具體細節,關於我們將如何完成本季度,但你應該再次預期Blackwell將是增長的驅動力。Q:你們已經非常清楚地談到了你們看到的推理模型機會,你們也相對清楚地談到了Rubin的技術規格。但也許你們可以提供一些關於你們如何看待未來Rubin產品過渡的背景。它為客戶提供了那些增量能力?你會說Rubin在性能上是一個更大、更小還是類似的提升,相對於我們在Blackwell上看到的?我們之所以處於年度周期,是因為我們可以這樣做,以加速成本降低,最大化客戶的收入生成。當我們提高每瓦性能時,每單位能源使用的token生成,我們實際上是在推動客戶的收入。Blackwell的每瓦性能,對於推理系統來說,將比Hopper高出一個數量級。因此,對於相同的能源量,根據定義,每個人的資料中心都受到能源限制,對於任何使用Blackwell的資料中心,與過去我們做的任何事情相比,與今天世界上的任何事情相比,你將能夠最大化你的收入。由於每美元性能,性能如此出色,每美元投資的資本也將使你能夠提高毛利率。只要我們每一代都有好主意,我們就可以通過發佈新架構來提高收入生成、提高AI能力、提高客戶的利潤率。因此,我們建議我們的合作夥伴、我們的客戶,以年度節奏來規劃自己,並建構這些資料中心。因為我從現在到一年後,從現在到一年後,有足夠的時間告訴你Rubin將帶來的所有突破。我渴望告訴你,但我現在不能。我會把它留到GTC,告訴你更多關於它的資訊。但儘管如此,明年我們將大力投入到現在的Grace Blackwell、GB200,現在的Blackwell Ultra、GB300。我們正在大力投入到資料中心。今年顯然是創紀錄的一年。我預計明年將是創紀錄的一年。當我們一方面繼續提高AI能力的性能,另一方面繼續提高超大規模企業的收入生成能力時,我們正朝著人工超級智能的方向邁進。Q:你說出了一個數字,你說AI市場的復合年增長率為50%。所以我想知道你們對明年有多少可見性?這是否是一個合理的估計,關於你們的資料中心收入明年應該增長多少?我想你們至少會與之同步增長。我認為最好的方法是,我們對明年有來自我們大客戶的合理預測。非常、非常顯著的預測。我們仍有許多業務我們正在贏得,許多初創公司仍在建立。我們仍處於我們所創造的增長的早期階段。別忘了,去年AI原生初創公司的數量,有1000億美元的資金。今年,這一年甚至還沒有結束,已經有1800億美元的資金。如果你看看AI原生,頂級AI原生初創公司正在產生收入,去年是20億美元,今年是200億美元。明年,比今年高10倍,並非不可想像。開源模型現在正使大型企業、SaaS公司、工業公司、機器人公司能夠加入AI革命,這是另一個增長來源。無論是AI原生還是企業SaaS或工業AI或初創公司,我們都看到對AI的極大興趣和需求。熱議是一切都賣光了。H100賣光了,H200賣光了。大型CSP正在出來,從其他CSP租用容量。因此,AI原生初創公司真的在爭奪容量,以便他們能夠訓練他們的推理模型。因此,需求真的很高。但從長遠來看,從我們今天所處的位置來看,資本支出在兩年內翻了一番,現在每年運行約6000億美元,僅在前四大超大規模企業中,對我們來說,增長到這個每年6000億美元,代表其中的很大一部分,並非不合理。因此,我認為未來幾年,肯定到本十年末,我們看到了非常快速、非常顯著的增長機會。讓我最後總結一下:Blackwell是世界一直在等待的下一代AI平台。它提供了非凡的一代飛躍。NVIDIA的NVLink72機架級計算是革命性的。恰逢其時,因為推理AI模型推動訓練和推理性能要求數量級增長。Blackwell Ultra正以全速爬坡,需求非凡。我們的下一個平台Rubin,已經在晶圓廠。我們有六個新晶片代表Rubin平台。它們都已流片到台積電。Rubin將是我們的第三代NVLink機架級AI超級電腦。因此,我們預計擁有更成熟、完全擴大的供應鏈。Blackwell和Rubin AI工廠平台將擴展到本十年末的3兆至4兆美元的全球AI工廠建設。客戶正在建構更大規模的AI工廠。從數十兆瓦資料中心的數千個Hopper GPU,到現在100兆瓦設施中的數十萬個Blackwell,很快我們將建構數百萬個Rubin GPU平台,為多千兆瓦、多站點AI超級工廠提供動力。每一代,需求只會增長。一次性聊天機器人已經演進為研究、計畫和使用工具的推理代理AI。推動訓練和推理計算的數量級跳躍。代理AI正在成熟,並為企業市場打開了大門,以建構針對企業工作流、產品和服務的領域和公司特定AI代理。物理AI時代已經到來,為機器人技術、工業自動化開闢了全新行業,每個工業公司都需要建構兩個工廠,一個製造機器,另一個製造他們的機器人AI。本季度,NVIDIA達到了創紀錄的收入,並實現了我們旅程中的非凡里程碑。前方的機遇是巨大的。一場新的工業革命已經開始。AI競賽正在進行。AI翻譯全文版:正文全文從這裡開始:會議日期:2025年8月27日公司參會者Colette Kress,執行副總裁兼首席財務官(CFO)Jensen Huang,創始人、總裁兼首席執行官(CEO)Toshiya Hari,投資者關係其他參會者Aaron Rakers - Wells Fargo(富國銀行)CJ Muse - Cantor Fitzgerald(肯特基證券)Ben Reitzes - Melius Research(梅利烏斯研究公司)Jim Schneider - Goldman Sachs(高盛)Joseph Moore - Morgan Stanley(摩根士丹利)Stacy Rasgon - Bernstein Research(伯恩斯坦研究公司)Vivek Arya - Bank of America Securities(美國銀行證券)Tim Arcuri - UBS(瑞銀集團)——— 會議開始 ———Operator(主持人/接線員)各位下午好。我叫 Sarah,今天將擔任本次會議的電話主持人。現在,我代表大家歡迎各位參加輝達 2026 財年第二季度財務業績電話會議。為避免背景噪音,所有線路當前均為靜音模式。在發言人結束講話後,我們將進入問答環節。(主持人指示)謝謝。下面請 Toshiya Hari 開始會議。Toshiya Hari謝謝。各位下午好,歡迎參加輝達 2026 財年第二季度電話會議。今天與我一同參會的有輝達的總裁兼首席執行官 Jensen Huang,以及執行副總裁兼首席財務官 Colette Kress。提醒各位,本次電話會議正在輝達投資者關係網站進行網路直播。本次網路直播將在我們討論 2026 財年第三季度財務結果的電話會之前持續提供回放。今天電話會議的內容屬於輝達的財產,未經我們事先書面同意不得複製或轉錄。會議期間,我們可能會基於當前預期作出前瞻性陳述。這些陳述受多項重大風險與不確定性影響,實際結果可能與這些陳述存在重大差異。有關可能影響我們未來財務結果與業務的因素,請參閱我們在今日財報新聞稿、最近一次 Form 10-K 和 10-Q,以及可能提交的 Form 8-K 報告中的披露。我們的所有陳述均以今天(2025 年 8 月 27 日)所掌握的資訊為基礎。除非法律要求,我們不承擔更新任何此類陳述的義務。會議期間,我們將討論若干非 GAAP 財務指標。關於這些非 GAAP 指標與 GAAP 指標的調節表,您可以在我們網站發佈的 CFO 評論中找到。Operator謝謝。(主持人指示)我們稍作停頓,以整理問答名單。提醒大家,請每人僅提一個問題。謝謝。第一位來自 Cantor Fitzgerald 的 CJ Muse。請提問。CJ Muse下午好,感謝接聽我的問題。我想圍繞“從晶圓投片到機架出貨約 12 個月的周期”來提問。你們今天確認 Rubin 將在下半年按計畫爬坡,顯然很多投資屬於多年的項目,並且取決於電力、冷卻等因素。能否從高層面談談你們對 2026 年增長的願景?同時也請評論一下網路與資料中心業務之間的分配情況。謝謝。Jensen Huang謝謝你,CJ。從最高層面看,增長驅動將來自“推理與主體型(agentic)AI”的進化。過去的聊天機器人是一問一答的“單次生成”;現在的 AI 會先做研究、進行思考與規劃,並可能呼叫工具。這就是所謂的“長思考(long thinking)”。通常思考時間越長,得到的答案越好。相較“一次生成”,主體型/推理 AI 模型所需的計算量可能增加 100 倍、1,000 倍,甚至更多,因為它需要進行大量的閱讀與理解。主體型 AI 導致的計算需求顯著增長,同時其有效性也大幅提升。由於主體型 AI 能夠使用工具並執行任務,幻覺率也明顯下降,因此企業市場被打開。受主體型 AI 與視覺-語言模型推動,我們正在看到“實體 AI/機器人、自主系統”的突破。過去一年,AI 取得了巨大進展,主體型/推理系統完全具有革命性。我們為此時刻打造了 Blackwell NVLink72 系統——一套機架級的計算系統。我們為此已經籌備多年。過去一年,我們從 NVLink 8(節點級計算,每個節點是一台電腦)轉向 NVLink72(機架級計算,每個機架是一台電腦)。這種面向機架級的解耦極其困難,但成果非凡:我們看到數量級的加速、因而數量級的能效提升以及每 Token 成本的下降。關於更長期的展望:在未來五年,我們將通過 Blackwell、Rubin 以及後續產品,去匹配 3–4 兆美元的 AI 基礎設施機會。過去兩年,頭部四大雲廠商的資本開支已經翻倍至 6,000 億美元。我們正處在這一建設周期的起點,而 AI 技術的進步使得 AI 能夠在更多行業被採用並解決問題。Operator下一位,來自美國銀行證券的 Vivek Arya。請提問。Vivek Arya謝謝接聽。Colette,我先想澄清一下關於中國市場 20–50 億美元的數字:需要那些條件才能實現?進入四季度後,這部分業務的可持續節奏會怎樣?Jensen,再問你一個有關競爭格局的問題:你們的一些大客戶已經在推進或計畫推進許多 ASIC 項目。我瞭解到,你們的一家 ASIC 競爭對手表示其明年的 AI 業務可能增長 55%–60%。是否存在這樣一種情形:市場更傾向於 ASIC 而遠離輝達 GPU?客戶如何在商用晶片與 ASIC 之間做取捨?謝謝。Colette Kress謝謝,Vivek。先回答 H20 何時能發貨的問題。市場對我們的 H20 有興趣,我們也已收到首批許可證,同時我們也有現成的供給能力。這就是我們為什麼溝通說本季度有望發貨 20–50 億美元區間的原因。目前,圍繞政府與企業之間關於採購的往來、以及他們最終想做什麼的決策,仍存在若干地緣政治層面的不確定。因此這仍是開放狀態,我們也不確定本季度的最終規模會是多少。不過,如果更多興趣到來、更多許可證獲批,我們也可以繼續生產並行運更多 H20。Jensen Huang輝達所打造的,和 ASIC 是完全不同的東西。先談 ASIC:有很多項目會啟動,很多初創公司會成立,但真正進入量產的產品卻鳳毛麟角。原因在於:加速計算不同於通用計算——你無法唯寫軟體然後把它編譯進一個處理器裡。加速計算是“全端協同設計”的問題。過去幾年裡,隨著問題規模的大幅提升,AI 工廠的複雜性也急劇上升。這可以說是人類有史以來最極致的電腦科學問題。模型迭代也極快:從基於自回歸的生成,到基於擴散的生成,再到混合模型、再到多模態。無論是 Transformer 的變體還是演化而來的新架構,數量都讓人望而生畏。我們的一個優勢是:輝達在每一家雲上都可用、由每一家電腦公司提供,從雲、到本地、到邊緣、到機器人,使用相同的程式設計模型。因此,全球所有框架都支援輝達是合乎情理的。建構一種新模型架構時,先在輝達平台上發佈是最明智的選擇。此外,我們的平台既能適配任何架構演化,又覆蓋從資料處理、預訓練,到基於強化學習的後訓練,一直到推理的全流程。因此,當你用輝達平台建設資料中心時,實用性最好、生命周期也最長。再者,這已經不是“晶片本身”的問題了。很多人談論的是一個 ASIC 或一個 GPU,但要建構 Blackwell 或 Rubin 這個“平台”,我們需要打造一整套系統:把 CPU 與極高能效的低延遲大容量快取連接到 GPU,再連到 SuperNIC,再連到縱向擴展交換(NVLink,我們已經是第五代的顛覆性技術),再連到橫向擴展交換(Quantum 或 Spectrum-X 乙太網路),再連到跨域擴展交換(為多站點、千兆瓦級的 AI 超級工廠做準備,我們稱之為 Spectrum-XGS)。所有這些都極其複雜,規模也極其龐大。最後再強調一點:我們之所以“無處不在”,還有一個原因是我們的“每瓦性能”最好;在電力受限的資料中心世界裡,“每瓦性能”直接對應收入。你也聽我說過,“買得越多,增長越快”。因為我們的“每美元性能”同樣出色,所以客戶的毛利也非常可觀。綜上所述,輝達平台既能帶來增長,又能帶來優異的毛利表現,因此每一家雲、每一家初創、每一家電腦公司都會選擇我們。我們為 AI 工廠提供的是一套整體的全端解決方案。Operator下一位,來自 Melius 的 Ben Reitzes。請提問。Ben Reitzes謝謝。Jensen,我想問你關於“到本十年末資料中心基礎設施 3–4 兆美元”的表述。此前你談到 2028 年前後約 1 兆美元規模(我理解主要是計算)的投入。如果把你過去的表述對應起來,那麼 3–4 兆美元可能意味著僅計算就超過 2 兆美元。我想確認這是否是你對十年末的判斷?另外,你預計你們在其中的份額會是多少?目前你們在計算方面的份額很高。還有,你是否擔心電力等瓶頸會制約實現 3–4 兆美元?Jensen Huang謝謝。正如你所知,隨著 AI 革命全面提速、AI 競賽開啟,頭部四家超大規模雲廠商的資本開支在兩年內翻倍至每年 6,000 億美元。距離本十年末還有五年,6,000 億美元只代表前四大雲廠商;此外還有大量企業在建設本地部署(on-prem),全球還有許多雲服務商在建設。美國大約佔全球算力的 60%,從長期看,AI 將對應全球 GDP 的規模與增長,並進一步加速 GDP 的增長。我們在 AI 基礎設施中的貢獻非常大。以 1 吉瓦的 AI 工廠為例,總投資大約在 500–600 億美元區間,而我們大概貢獻其中的 35%(上下浮動)。當然,你最終得到的不是一顆 GPU。雖然我們以發明 GPU 而聞名,但在過去十年裡,我們實際上已經轉型為一家“AI 基礎設施公司”。僅建構一台 Rubin AI 超級電腦就需要六種不同類型的晶片,而要把它擴展到 1 吉瓦規模的工廠,需要數十萬 GPU 計算節點與大量機架。面向未來,真正的限制往往會是電力或 AI 基建/施工能力。因此我們必須把“每單位能耗所產生的性能”儘可能提高,因為這直接決定了工廠能創造的收入。如果你有一座 100 兆瓦的 AI 工廠,那麼“每 100 兆瓦能帶來多少 Token”就決定了你的收入。同時,我們的“每美元性能”也非常高,使得毛利率表現同樣最佳。綜合以上,未來五年的 3–4 兆美元目標相當合理。Operator下一位,來自摩根士丹利的 Joseph Moore。請提問。Joseph Moore謝謝,恭喜你們“重啟中國市場的機會”。能否談談長期前景?我記得你說過全球大概有一半的 AI 研究人員在中國。輝達在那裡的業務能增長到多大?拿到 Blackwell 架構在當地的許可是否至關重要?Jensen Huang中國市場今年對我們而言約有 500 億美元的機會,如果我們能用具競爭力的產品去覆蓋它。若今年是 500 億美元,那你也會預期它按 50% 左右的增速增長(與全球 AI 市場增速相仿)。它是全球第二大計算市場,同時也是 AI 研究者的聚集地,全球大約 50% 的 AI 研究人員在中國。許多領先的開源模型也誕生於中國。因此,讓美國科技公司能夠服務這個市場是相當重要的。開源模型雖然誕生於某一國家,但卻被全球所使用。來自中國的開源模型質量非常出色:DeepSeek 備受全球關注,Qwen 很優秀,Kimi 很優秀,還有許多新模型不斷湧現——涵蓋多模態、優秀的語言能力。這些開源模型推動了全球企業端對 AI 的採用,因為企業希望建構自己的專有軟體棧。對於希望建構專屬系統的 SaaS 廠商,對於全球的機器人行業而言,開源同樣至關重要。因此,讓美國公司能夠服務這一生態也就很重要、也很合理。正如你所知,H20 已獲批可供非實體清單中的公司使用,許多許可證也已經獲批。因此,向中國市場引入 Blackwell 的可能性是真實存在的。我們將繼續與政府溝通,強調美國科技公司在 AI 競賽中“領先並獲勝”的重要性,同時幫助美國技術堆疊成為全球標準。Operator下一位,來自。請提問。Aaron Rakers謝謝。想回到本周你們發佈的 Spectrum-XGS。考慮到乙太網路產品現在的年化收入已超過 100 億美元,Spectrum-XGS 的機會空間具體有多大?我們是否可以把它理解為資料中心互聯層?在乙太網路組合中,它的規模化空間會是怎樣的?Jensen Huang我們現在提供三類網路技術:一類用於“縱向擴展”(scale-up),一類用於“橫向擴展”(scale-out),還有一類用於“跨域擴展”(scale-across)。“縱向擴展”用於建構儘可能大的“虛擬 GPU/虛擬計算節點”。NVLink 是革命性的。NVLink72 是 Blackwell 相較 Hopper 的 NVLink8 之所以能實現跨代飛躍的關鍵。在“長思考/主體型 AI、推理系統”的時代,NVLink 事實上放大了“記憶體頻寬”,而這對推理系統至關重要。因此 NVLink72 的效果非常出色。“橫向擴展”則通過網路來實現。我們有兩種:其一是 InfiniBand——在時延、抖動與橫向擴展能力上無可爭議的最佳選擇;它確實需要更高的專業能力來維運管理。對超級計算與頭部模型建構者而言,Quantum InfiniBand 是明確的首選;如果對同一座 AI 工廠進行基準測試,使用 InfiniBand 的系統表現最佳。其二是 Spectrum 乙太網路——對於那些整個資料中心都基於乙太網路的客戶,我們提供一種“非標準現貨乙太網路”的新形態。它整合了一系列面向低時延、低抖動與擁塞控制的新技術,使其能比行業中任何其他乙太網路方案更接近 InfiniBand,我們稱之為 Spectrum-X 乙太網路。最後是 Spectrum-XGS,用於把多座資料中心、多座 AI 工廠連接成“超級工廠”、形成一個巨大的系統。你會看到網路在 AI 工廠中的重要性——通過網路能力把吞吐效率從 65% 提升到 85% 或 90%,這樣的躍升實際上讓“網路成本等於零”,因為 1 吉瓦 AI 工廠的總投資可能是 500 億美元量級。把工廠效率提升“幾十個百分點”,就等於帶來 100–200 億美元的“有效收益”。這也是為什麼輝達在網路領域持續投入,並在五年半前收購 Mellanox 的原因。正如我們剛才所說,Spectrum-X 現在已經是相當可觀的業務,而且它誕生至今也就一年半左右。NVLink(縱向擴展)、Spectrum-X 與 InfiniBand(橫向擴展)、Spectrum-XGS(跨域擴展),三者都會成為“本壘打”。Operator下一位,Bernstein Research 的 Stacy Rasgon。請提問。Stacy Rasgon謝謝。我對 Colette 有個更戰術的問題。三季度指引裡,環比增加超過 70 億美元,大頭會來自資料中心。那麼這 70 億美元如何在 Blackwell、Hopper 與網路之間分配?看起來二季度 Blackwell 可能是 270 億美元左右,高於上季度約 230 億美元;Hopper 在 H20 之後可能仍有 60–70 億美元。Hopper 的強勢是否會延續?能否幫我們拆一下這 70 億?Colette Kress謝謝,Stacy。先看二、三季度之間的增長,Blackwell 仍將是資料中心的“絕對主力”。請注意,這既包括計算側,也包括網路側,因為我們在銷售包含 NVLink 的“整機系統”。Hopper(H100、H200)我們仍在銷售,但更多是 HDX 系統。我仍然認為,Blackwell 將是我們業務增長的主要驅動。至於更細的拆分,我們暫時沒有額外細節,但你應當預期 Blackwell 會驅動三季度的增長。Operator下一位,高盛的 Jim Schneider。請提問。Jim Schneider下午好。你們一直很明確地談“推理/思考型模型”的機會,同時也對 Rubin 的技術規格給出了一些資訊。能否談談你們對 Rubin 的產品過渡路徑的看法?它會給客戶帶來那些增量能力?相較 Blackwell,從能力與性能的角度看,Rubin 會是更大、還是更小、或大致相當的一次跨代提升?Jensen Huang謝謝。Rubin——我們處在年度節奏的迭代中。我們之所以採用年度節奏,是為了更快地降低成本、最大化為客戶帶來的“營收生成能力”。當我們提升“每瓦性能”(在相同能耗下的 Token 產出),我們就在實際推動客戶的收入。Blackwell 在“推理/思考型系統”上的“每瓦性能”相較 Hopper 將是數量級的提升。對於任何能耗受限的資料中心而言,使用 Blackwell 就能最大化你的收入——不僅相較我們過去的任何產品,甚至相較當今世界的任何平台。同時,憑藉極高的“每美元性能”,客戶的毛利也能提升。只要我們每一代都有好點子,能夠提升 AI 能力、提升客戶的營收生成能力、提升客戶的毛利,我們就會發佈新架構。因此,我們建議合作夥伴與客戶以“年度節奏”來規劃與建設資料中心。至於 Rubin 的“這些好點子”,我現在先賣個關子——從現在到明年的 GTC,我有充足的時間逐步向大家介紹 Rubin 將帶來的突破。不過在接下來的一年裡,我們會把重心放在全力爬坡:先是 Grace-Blackwell(GB200),現在又有 Blackwell Ultra(GB300)。今年是破紀錄的一年,我預計明年也會是破紀錄的一年:一方面我們不斷提升 AI 的能力、向“通用人工超級智能”邁進;另一方面我們持續提升“為超大規模雲客戶創造收入”的能力。Operator最後一位,瑞銀的 Timothy Arcuri。請提問。Tim Arcuri謝謝。Jensen,你剛才提到“AI 市場 50% 的復合增速”。你們對明年的能見度有多高?將資料中心收入按這個節奏增長是否合理?我認為你們至少會與這一節奏保持一致。Jensen Huang我認為可以這樣看:我們從大客戶那裡拿到了“對明年非常可觀且可信”的訂單預測。同時,我們仍在持續贏得大量業務,新的初創公司也在不斷湧現。不要忘記,僅“AI 原生初創”在去年就獲得了 1,000 億美元融資;今年還沒結束,就已經達到 1,800 億美元。若看“AI 原生公司”的營收規模,去年是 20 億美元、今年是 200 億美元;明年達到今年的 10 倍並非不可想像。此外,開源模型的興起正在打開大型企業、SaaS 公司、工業公司與機器人公司的大門,帶來另一來源的增長。無論是 AI 原生、企業 SaaS、工業 AI 還是初創,我們都看到對 AI 的巨大興趣與需求。現在的“熱度”,相信各位都清楚:H100 供不應求、H200 供不應求,大型雲廠商之間互相租用算力;AI 原生初創在為訓練“推理/思考型模型”而搶佔產能。需求非常強勁。從長期看,兩年間資本開支已翻倍至 6,000 億美元(僅計算頭部超大規模雲)。我們要在未來幾年裡,把自身業務進一步成長為這 6,000 億美元中的重要組成部分,這並不誇張。我認為,在未來幾年、乃至整個十年,我們都將面臨高速且顯著的增長機會。最後總結一句:Blackwell 是全球期待的下一代 AI 平台,帶來了跨代式的飛躍。輝達的 NVLink72 機架級計算具有革命性,恰逢“推理 AI”驅動訓練與推理算力需求再上一個數量級的時刻到來。Blackwell Ultra 正在全速爬坡,需求極其旺盛。我們的下一代平台 Rubin 已在代工廠流片,我們為 Rubin 打造了 6 款新晶片,全部在台積電完成了流片。Rubin 將成為我們第三代 NVLink 機架級 AI 超級電腦,屆時供應鏈將更加成熟與完備。Blackwell 與 Rubin 的 AI 工廠平台將在本十年內持續參與 3–4 兆美元的全球 AI 工廠建設。客戶正建設更大規模的 AI 工廠:從過去“以數千顆 Hopper、十兆瓦級資料中心”為主,轉向“以數十萬顆 Blackwell、百兆瓦級設施”為主;很快,我們將建設以“數百萬顆 Rubin GPU 平台”為基礎、功率達多吉瓦、跨多站點的 AI 超級工廠。每一代的更迭,需求只增不減。“一問一答”的聊天機器人已演進為會“研究、規劃、使用工具”的主體型 AI,在訓練與推理上共同帶來數量級的計算需求躍升。主體型 AI 正趨於成熟,企業市場由此被打開——用於建構面向企業工作流程、產品與服務的“領域/公司級 AI 代理”。“實體 AI”的時代已經到來,解鎖機器人與工業自動化等全新產業——每一家工業公司都需要建設兩座工廠:一座用於製造機器,另一座用於建構它們的“機器人 AI”。本季度,輝達實現了創紀錄的收入,這是我們征程中的一個非凡里程碑。前方的機會巨大——新的工業革命已經開啟,AI 競賽正在進行。感謝各位今天的參與,我們下次財報電話會再見。謝謝。Operator本次會議到此結束,您現在可以掛機。會議結束,感謝參與。 (invest wallstreet)