讓NVIDIA股價突破1000美金的Q1財報會議全紀錄

NVIDIA已經公佈了2025年第一季的收益結果,輕鬆超越了收益和收入預期。財報之後, #NVDA#這當之無愧的AI時代第一股歷史性突破1000美元。

2025年第一季財報業績全面優於預期

財報顯示,NVIDIA第一季每股收益為6.12美元,總營收達260億美元,超出市場預期14億美元。展望未來,NVIDIA預測2025年第二季的營收將達到280億美元,高於分析師的預期。此外,NVIDIA也宣布將進行10比1的股票分割,並將季度現金股利提高150%。公司預計2025財年的毛利率將維持在70%左右。

資料中心業務強勁成長,人工智慧和雲端服務表現突出

NVIDIA在第一季的亮眼表現主要得益於資料中心業務的強勁成長。資料中心營收年增23%,達到226億美元,推動總營收較去年同期成長262%。儘管遊戲業務收入下降8%,但NVIDIA在人工智慧和雲端服務領域的出色表現彌補了這一損失。 NVIDIA的客戶包括蘋果、微軟、亞馬遜和Facebook等大型科技公司,這些公司對NVIDIA的Hopper GPU運算平台需求強勁。 NVIDIA的人工智慧基礎設施已在雲端服務供應商中大規模部署和擴展,其軟體堆疊和生態系統使客戶能夠輕鬆在公有雲中啟動和運行GPU實例。

NVIDIA協助特斯拉等企業客戶,推動人工智慧發展

NVIDIA與特斯拉等企業客戶保持著密切合作,支援其擴展人工智慧訓練集群,並為最新的自動駕駛軟體FSD版本12提供基礎設施。 NVIDIA預計,汽車產業將成為今年資料中心內最大的企業垂直產業。此外,消費者互聯網公司也是NVIDIA的一個強勁增長點,Meta最新推出的大型語言模型Llama3就是在NVIDIA的GPU集群上進行訓練的。

NVIDIA與全球客戶合作,建造AI工廠

NVIDIA正與全球超過100家客戶合作,建造規模從數百到數萬個GPU不等的AI工廠。隨著世界各國對自主AI的投資不斷增加,NVIDIA預計資料中心收入將呈現多樣化趨勢。在日本、法國、瑞士、新加坡等國,NVIDIA正與當地的數位基礎設施供應商合作,建置自主AI基礎設施和超級電腦。 NVIDIA提供全方位的運算到網路技術、全端軟體、AI專業知識以及豐富的合作夥伴和客戶生態系統,推動主權AI和區域雲端供應商的發展。 NVIDIA預計,主權AI收入今年可以達到數十億美元。

針對中國市場推出新產品,因應出口管制挑戰

面對中國市場的激烈競爭和出口管制的挑戰,NVIDIA推出了專為中國設計的新產品,這些產品不需要出口管制許可證。儘管如此,NVIDIA預計在中國的資料中心收入將大幅下降。

Hopper GPU架構推動運算收入成長,Grace Hopper超級晶片大量出貨

NVIDIA的Hopper GPU架構推動了大部分運算收入的成長,Hopper的需求持續成長。 NVIDIA已經開始對H200進行採樣,預計將在第二季度進行發貨。 H200的推理性能是H100的兩倍,這為生產部署帶來了巨大的價值。 NVIDIA正在透過持續的軟體優化來提高其AI基礎設施的性能,儘管H100的供應有所改善,但H200的供應仍然受到限制。 NVIDIA正在努力將其係統和雲端合作夥伴推向全球,以便在今年稍後上市。同時,NVIDIA的Grace Hopper超級晶片已經開始批量出貨,全球有9台新超級電腦正在使用Grace Hopper。

InfiniBand和SpectrumX推動網路業務成長

NVIDIA的InfiniBand推動了強勁的網路同比增長,預計網路將在第二季度恢復環比增長。 NVIDIA在第一季開始推出AI優化的全新SpectrumX乙太網路解決方案,預計SpectrumX將在一年內成為價值數十億美元的產品線。

推出下一代AI工廠平台Blackwell,性能大幅提升

NVIDIA在GTC大會上推出了下一代AI工廠平台Blackwell,其訓練速度比H100快4倍,推理速度比H100快30倍。 Blackwell平台包括第五代NVLink和新的InfiniBand以及乙太網路交換器X800系列。此外,NVIDIA也推出了新的軟體產品NVIDIA推理微服務(NIMS),它提供了由NVIDIA CUDA加速支援的安全且效能最佳化的容器。

遊戲和專業視覺化業務表現穩健,汽車業務成長強勁

NVIDIA的遊戲業務收入為26.5億美元,環比下降8%,年增18%。 NVIDIA的GeForce RTX GPU的安裝基數已超過1億,非常適合玩家、創作者和AI愛好者。專業視覺化(ProViz)業務營收為4.27億美元,季減8%,年增45%。 NVIDIA在GTC上宣布了新的Omniverse Cloud API,使開發人員能夠將Omniverse工業數位孿生和類比技術整合到他們的應用程式中。許多公司正在使用Omniverse數位化工作流程,如製造合作夥伴緯創和電動汽車製造商比亞迪。

在汽車領域,NVIDIA的收入達到了3.29億美元,環比增長了17%,同比增長了11%。這主要得益於全球OEM客戶對AI座艙解決方案的需求增加,以及自動駕駛平台的強大實力。 NVIDIA成功地支援了小米推出其首款電動車SU7轎車,該款轎車是基於NVIDIA DRIVE Orin打造的。 NVIDIA也宣布了DRIVE Thor的多項新設計,它是Orin的繼任者,採用新的NVIDIA Blackwell架構。多家領先的電動車製造商都採用了這款產品,其中包括比亞迪、小鵬、廣汽的IonHyper和Neuralink。 DRIVE Thor計劃明年開始量產。

毛利率擴大,營運費用增加,回報股東78億美元

由於庫存費用的降低,NVIDIA的Gap毛利率環比擴大至78.4%,非Gap毛利率環比擴大至78.9%。環比來看,Gap營運費用成長了10%,非Gap營運費用成長了13%,這主要反映了與薪酬相關的成本增加以及計算和基礎設施投資的增加。在第一季,NVIDIA以股票回購和現金分紅的形式向股東返還了78億美元。

宣布股票拆分和增加股息,第二季度展望樂觀

NVIDIA宣布將公司股票進行1拆10的分割,6月10日將是分割調整後的第一個交易日。 NVIDIA也將股利提高了150%。展望第二季,NVIDIA預計總營收為280億美元,上下浮動2%。 NVIDIA預計所有市場平台都將持續成長。預計Gap和非Gap毛利率分別為74.8%和75.5%,上下浮動50個基點。 NVIDIA預計全年毛利率將在75%左右。預計Gap和非Gap營運費用分別約為40億美元和28億美元。預計全年營運支出將成長40%左右。預計Gap和非Gap其他收入和支出約為3億美元,不包括非關聯投資的收益和損失。預計Gap和非Gap稅率為17%,上下浮動1%,不包括任何單一項目。

黃教主在問答前總結發言 - NVIDIA正在引領新工業革命:

NVIDIA正處於下一場工業革命的開端。各個企業和國家正在與NVIDIA合作,將價值數萬億美元的傳統數據中心安裝基數轉向加速計算,並建設新型數據中心——人工智能工廠,以生產新的商品——人工智能。人工智慧將為幾乎所有產業帶來顯著的生產力提升,幫助企業提高成本和能源效率,同時擴大收入機會。

雲端服務供應商是第一批推動人工智慧發展的公司。借助NVIDIA,雲端服務供應商加速了工作負載,以節省資金和電力。 NVIDIA Hopper產生的Token為其人工智慧服務帶來了收入。 NVIDIA Cloud執行個體吸引了來自NVIDIA豐富的開發者生態系統的租賃客戶。 Hopper平台上對產生人工智慧訓練和推理的強勁且不斷增長的需求推動了NVIDIA資料中心的成長。

生成人工智慧正在推動從基礎開始的全端運算平台轉變,這將改變每一次電腦互動。從今天的資訊檢索模型,NVIDIA正在轉向計算的答案和技能生成模型。人工智慧將理解上下文和NVIDIA的意圖,具有知識、推理、計劃和執行任務。 NVIDIA正在從根本上改變計算的工作方式和計算機的功能。從通用CPU到GPU加速運算,從指令驅動軟體到意圖理解模型。從檢索資訊到執行技能。在工業層面,從生產軟體到產生Token,製造數位智慧。

Blackwell平台已全面投入生產,並為萬億參數級生成人工智慧奠定基礎。 Grace CPU、Blackwell GPU、NVLink、Quantum、Spectrum、Nixon交換機、高速互連以及豐富的軟體和合作夥伴生態系統相結合,讓NVIDIA能夠擴展並為人工智慧工廠提供比前幾代更豐富、更完整的解決方案。

SpectrumX為NVIDIA開闢了一個全新的市場,將大規模人工智慧引入僅限乙太網路的資料中心。 NVIDIA NIMS是NVIDIA的新軟體產品,可提供企業級、優化的生成人工智慧,可在任何地方的CUDA上運作。透過NVIDIA廣泛的生態系統合作夥伴網路,從雲端到本地資料中心再到RTX人工智慧PC。

從Blackwell到SpectrumX,再到NIMS,NVIDIA已經做好準備,迎接下一波成長的到來。

=以下是本次財報的天空之城書面整理版=:

今天電話會議的內容在本次電話會議中,我們可能會根據當前預期做出前瞻性陳述。這些陳述受許多重大風險和不確定性的影響,我們的實際結果可能會大不相同。有關可能影響我們未來財務表現和業務的因素的討論,請參閱今天的收益報告中的披露、我們最新的10-K和10-Q表以及我們可能向美國證券交易委員會提交的8-K表報告。我們所有的聲明都是截至今天(2024年5月22日)根據我們目前掌握的資訊做出的。除非法律要求,否則我們不承擔更新任何此類聲明的義務。

在本次電話會議中,我們將討論非GAAP財務指標。您可以在我們的CFO評論中找到這些非GAAP財務指標與GAAP財務指標的對賬,該評論已發佈在我們網站上。接下來,我將重點介紹一些即將舉行的活動。 6月2日星期日,在台灣舉辦的Computex技術貿易展之前,Jensen將發表主題演講,該演講將在台北親自舉行,並進行現場直播。 6月5日,我們將在舊金山的美國銀行技術會議上發表演講。在此,我將電話轉給Collette(CFO)。

Collette:

謝謝。

第一季的業績再次創下了紀錄。營收為260億美元,季增18%,年增262%,遠高於我們240億美元的預期。從資料中心開始,資料中心營收創下了226億美元的紀錄,季增23%,年增427%,這得益於對NVIDIA Hopper GPU運算平台的持續強勁需求。與去年相比,計算收入成長了5倍多,網路收入成長了3倍多。所有類型的客戶都推動了資料中心的強勁成長,其中企業和消費者互聯網公司表現突出。大型雲端服務供應商正在持續推動強勁的成長,他們大規模部署並擴展了NVIDIA的人工智慧基礎設施,這佔了我們資料中心收入的約45%。

在NVIDIA的CUDA平台上進行人工智慧的訓練和推理,正在顯著加速雲端租賃收入的成長,為雲端服務供應商的投資帶來了即時且強勁的回報。在NVIDIA的人工智慧基礎架構上,每投入1美元,雲端服務供應商就有機會在四年內獲得5美元的GPU即時託管收入。

NVIDIA豐富的軟體堆疊和生態系統,以及與雲端服務供應商的緊密整合,使得最終客戶可以輕鬆地在公有雲中啟動和運行NVIDIA的GPU實例。對於雲端租賃客戶來說,NVIDIA的GPU提供了最佳的訓練時間模式、最低的訓練成本模式和最低的推理成本大語言模式。對於公有雲供應商來說,NVIDIA將客戶帶到他們的雲端,推動了營收成長和基礎設施投資的回報。

領先的大語言模型公司,如OpenAI、ADEPT、Anthropic、Character AI、Cohere、Databricks、DeepMind、Meta、Mistral、XAI等,都在雲端建置NVIDIA的人工智慧。在本季度,企業推動了資料中心的強勁環比成長。我們支持特斯拉將其訓練人工智慧集群擴展到了35,000個H100 GPU。他們對NVIDIA的人工智慧基礎設施的使用,為他們最新的基於視覺的自動駕駛軟體FSD版本12的突破性性能鋪平了道路。

視訊Transformer在消耗更多運算資源的同時,顯著提高了自動駕駛能力,並推動了整個汽車產業NVIDIA人工智慧基礎設施的顯著成長。我們預計,汽車將成為我們今年資料中心內最大的企業垂直產業,為本地和雲端消費帶來數十億美元的收入機會。

消費者互聯網公司也是一個強勁的成長垂直行業。本季的一大亮點是Meta宣布推出其最新的大型語言模型Llama3,該模型在24,000個H100 GPU叢集上進行訓練。 Llama3為Meta AI提供支持,Meta AI是一款可在Facebook、Instagram、WhatsApp和Messenger上使用的新型人工智慧系統。 Llama3已公開可用,並已在各行業掀起了人工智慧開發浪潮。

隨著生成式人工智慧進入更多消費者網路應用,我們預計將繼續看到成長機會,因為推理會隨著模型複雜性以及用戶數量和每個用戶的查詢數量的增加而擴展,從而推動對人工智慧計算的更多需求。在過去四個季度中,我們估計推理推動了我們資料中心收入的約40%。訓練和推理的需求正在顯著增長。大型集群,例如Meta和Tesla所建構的集群,是AI生產所必需的基礎設施,我們稱之為AI工廠。這些新一代資料中心是先進的、全端的、加速的運算平台,資料從這裡輸入,智慧從這裡輸出。

在第一季度,我們與超過100家客戶合作,建造了規模從數百到數萬個GPU不等的AI工廠,其中一些甚至達到了10萬個GPU。從地理角度來看,隨著世界各國對自主AI的投資,資料中心收入呈現多元趨勢。

自主AI是指一個國家利用自己的基礎設施、數據、勞動力和商業網路生產人工智慧的能力。各國正透過各種模式建立國內運算能力。一些國家正在與國有電信供應商或公用事業公司合作採購和營運自主AI雲端。其他一些國家正在贊助本地雲端合作夥伴,為公共和私營部門提供共享的AI運算平台。

例如,日本計劃向KBDI、Sakura Internet和SoftBank等關鍵數位基礎設施供應商投資超過7.4億美元,以建立該國的自主AI基礎設施。總部位於法國的Scaleway是Iliad Group的子公司,正在打造歐洲最強大的雲端原生AI超級電腦。在義大利,瑞士電信集團將建造全國第一台最強大的NVIDIA DTX超級計算機,以開發第一個以義大利語為母語的LLM課程。在新加坡,國家超級電腦中心正在使用NVIDIA Opera GPU進行升級,而新加坡電信正在東南亞各地建立NVIDIA加速AI工廠。

NVIDIA能夠提供端到端運算到網路技術、全端軟體、AI專業知識以及豐富的合作夥伴和客戶生態系統,使主權AI和區域雲端供應商能夠快速啟動其國家的AI雄心。從去年的零到現在,我們相信主權AI收入今年可以達到數十億美元。

AI的重要性引起了每個國家的關注。我們推出了專為中國設計的新產品,這些產品不需要出口管制許可。我們在中國的資料中心收入與10月實施新的出口管制限制之前的水準相比大幅下降。我們預計中國市場未來仍將保持非常激烈的競爭。

從產品角度來看,絕大部分的運算收入是由我們的Hopper GPU架構所推動。本季對Hopper的需求持續成長。由於採用CUDA演算法創新,我們能夠將H100上的LLM推理速度提高多達3倍,這可以轉化為為Llama3等流行模型提供服務的成本降低3倍。我們於第一季開始對H200進行採樣,目前該產品已在生產階段,預計將在第二季進行出貨。首個H200系統由Jensen交付給了Sam Altman和OpenAI團隊,上周,該系統為他們的GPT40演示提供了強大的支援。

H200的推理性能幾乎是H100的兩倍,這為生產部署帶來了巨大的價值。例如,使用具有7000億個參數的Llama3,單一NVIDIA HGX H200伺服器每秒可提供24,000個Token,同時支援超過2,400名使用者。這意味著,以目前每個Token的價格,NVIDIA HGX H200伺服器上每花費1美元,提供Llama3 Token的API供應商可以在四年內產生7美元的收入。

我們透過持續的軟體優化,不斷提高NVIDIA AI基礎設施的效能,以服務AI模型。儘管H100的供應有所改善,但H200的供應仍受到限制。同時,Blackwell已全面投入生產。我們正在努力將我們的系統和雲端合作夥伴推向全球,以便在今年稍後上市。 H200和Blackwell的需求遠遠超過供應,我們預計明年需求可能會超過供應。

Grace Hopper超級晶片正在批量出貨。上周在國際超級運算大會上,我們宣布全球有9台新超級電腦正在使用Grace Hopper,今年交付的節能AI處理能力總計達200倍。其中包括瑞士國家超級電腦中心的ALPS超級電腦、歐洲最快的AI超級電腦、英國布里斯託大學的Zombard AI和德國Julek超級運算中心的Jupyter。由於其高能效和效能,我們看到Grace與Hopper在超級運算領域的應用率達到了80%。我們也很自豪地看到,搭載Grace Hopper的超級電腦在全球最節能的超級電腦中分別佔據第一、第二和第三的位置。

強勁的網路年成長是由InfiniBand推動的。我們經歷了適度的環比下滑,這主要是由於供應時機,需求遠遠超過我們能夠發貨的數量。我們預計網路將在第二季度恢復環比增長。

在第一季度,我們開始從頭開始推出針對AI優化的全新SpectrumX乙太網路解決方案。它包括我們的Spectrum4交換器、Bluefield3 DPU和新軟體技術,以克服乙太網路上AI的挑戰,與傳統乙太網路相比,為AI處理提供高1.6倍的網路效能。 SpectrumX的銷售額正在與眾多客戶共同成長,其中包括一個擁有100,000 GPU的龐大集群。 SpectrumX為NVIDIA網路開啟了一個全新的市場,使得僅依賴乙太網路的資料中心也能夠容納大規模的AI。我們預計,SpectrumX將在一年內成為價值數十億美元的產品線。

在三月的GTC大會上,我們推出了下一代AI工廠平台Blackwell。 Blackwell GPU架構的訓練速度比H100快4倍,推理速度比H100快30倍,並且支援在萬億參數的大型語言模型上即時產生AI。 Blackwell是一個巨大的飛躍,其總體擁有成本(TCO)和能耗比Hopper低25倍。

Blackwell平台包括第五代NVLink(具有多GPU主幹)和新的InfiniBand以及乙太網路交換器X800系列,這些都是專為萬億參數規模的AI設計的。 Blackwell旨在為資料中心提供廣泛的支持,從超大規模到企業級,從訓練到推理,從x86到高性能CPU,從以太網到InfiniBand網絡,從空氣冷卻到液體冷卻。

Blackwell將在發佈時用於100多個OEM和ODM系統,這個數量是Hoppers的兩倍多,涵蓋了全球所有主要的電腦製造商。這將支援在第一年的出貨量中,各種客戶類型、工作負載和資料中心環境能夠快速廣泛地採用。 Blackwell上市時的客戶包括亞馬遜、Google、Meta、微軟、OpenAI、甲骨文、特斯拉和XAI。

我們宣布推出一款新的軟體產品,引進了NVIDIA推理微服務(NIMS)。 NIMS在網路運算和推理軟體(包括Triton推理伺服器和TensorRT LLM)中提供由NVIDIA CUDA加速支援的安全且效能最佳化的容器,以及適用於廣泛用例的業界標準API,包括用於文字、語音、影像、視覺、機器人、基因組學和數位生物學的大型語言模型。

它們使開發人員能夠使用來自NVIDIA、AI21、ADEPT、Cohere、Steady Images和Shutterstock的領先模型,以及來自Google、PluginFace、Meta、Microsoft、Mistral AI、Snowflake和Stability AI的開放模型,快速建立和部署生成式AI應用程式。 NIMS將作為我們NVIDIA AI企業軟體平台的一部分提供,用於生產、在雲端或本地部署。

現在,我們將話題轉向遊戲和AI PC。遊戲業務的收入為26.5億美元,環比下降8%,年增18%,這與我們對季節性下降的預期相符。 GeForce RTX Super和GPU的市場接受度強勁,整個產品系列的終端需求和通路庫存保持健康。

自從我們開始AI之旅,我們就為GeForce RTX GPU配備了CUDA Tensor核心。目前,GeForce RTX GPU的安裝基數已超過1億,非常適合遊戲玩家、創作者、AI愛好者,並為在PC上運行生成式AI應用程式提供無與倫比的效能。 NVIDIA擁有在GeForce RTX PC上部署和運行快速高效的生成式AI推理的完整技術堆疊。

TensorRT LLM已經加速了Microsoft的PHY3 Mini模型和Google的Gemma 2B和7B模型,以及流行的AI框架,包括LangCheng和Llama Index。昨天,NVIDIA和Microsoft宣布了針對Windows的AI效能最佳化,以協助在NVIDIA LLM上將LLM的運行速度提高3倍。這是GeForce RTX AI PC的一部分。

包括網易遊戲、騰訊和育碧在內的頂級遊戲開發商正在採用NVIDIA Avatar Character Engine來創建逼真的化身,以改變遊戲玩家和非玩家角色之間的互動。

轉向專業視覺化(ProViz)業務,營收為4.27億美元,季減8%,較去年同期成長45%。我們相信生成式AI和全宇宙工業數位化將推動下一波專業視覺化成長。

在GTC上,我們宣布了新的Omniverse Cloud API,使開發人員能夠將Omniverse工業數位孿生和類比技術整合到他們的應用程式中。一些全球最大的工業軟體製造商正在採用這些API,包括達梭系統、布蘭德和西門子的Antus、Cadence、3DEXCITE。開發人員可以使用它們將工業數位孿生傳輸到空間運算設備(如Apple Vision Pro)。 Omniverse Cloud API將於今年稍後在Microsoft Azure上推出。

許多公司正在使用Omniverse來數位化他們的工作流程。 Omniverse驅動的數位孿生使我們的製造合作夥伴之一緯創將端到端生產周期縮短了50%,缺陷率降低了40%。全球最大的電動車製造商比亞迪正在採用Omniverse進行虛擬工廠規劃和零售配置。在汽車領域,我們的營收達到了3.29億美元,季增了17%,年增了11%。環比成長主要得益於全球OEM客戶對AI座艙解決方案的需求增加,以及我們自動駕駛平台的強大實力。年比增長則主要源自於自動駕駛的發展。

我們成功地支援了小米推出其首款電動車SU7轎車,該款轎車是基於我們的NVIDIA DRIVE Orin打造的,這是我們為軟體定義的AV車牌開發的AI車載電腦。我們也宣布了NVIDIA DRIVE Thor的多項新設計,它是Orin的繼任者,採用新的NVIDIA Blackwell架構。多家領先的電動車製造商都採用了這款產品,其中包括比亞迪、小鵬、廣汽的IonHyper和Neuralink。 DRIVE Thor計劃明年開始量產。

現在,讓我們來看看損益表的其他部分。由於庫存費用的降低,Gap毛利率較上季擴大至78.4%,非Gap毛利率較上季擴大至78.9%。如上季所述,第四季和第一季均受益於有利的零件成本。環比來看,Gap營運費用成長了10%,非Gap營運費用成長了13%,這主要反映了與薪資相關的成本增加以及計算和基礎設施投資的增加。在第一季度,我們以股票回購和現金分紅的形式向股東返還了78億美元。

今天,我們宣布對公司股票進行1拆10的拆分,6月10日將是拆分調整後的第一個交易日。我們也將股息提高了150%。

接下來,我將談談第二季的前景。我們預計總收入為280億美元,上下浮動2%。我們預計所有市場平台都將持續成長。預計缺口和非缺口毛利率分別為74.8%和75.5%,上下浮動50個基點,這與我們上個季度的討論一致。我們預計全年毛利率將在75%左右。預計缺口和非缺口營運費用分別約為40億美元和28億美元。預計全年營運支出將成長40%左右。預計缺口和非缺口其他收入和支出約為3億美元,不包括非關聯投資的收益和損失。預計缺口和非缺口稅率為17%,上下浮動1%,不包括任何單一項目。更多的財務細節包含在CFO評論和我們IR網站上提供的其他資訊中。

現在,我想把時間交給Jensen,因為他有一些想要發表的評論。感謝您,Colette。目前,我們所處的產業正在經歷一場重大的變革。在我們開始問答環節之前,我想先分享一些關於這場轉型重要性的看法。

黃仁勳:

我們正處於下一場工業革命的開端。各個企業和國家正在與NVIDIA合作,將價值數兆美元的傳統資料中心安裝基數轉向加速運算,並建造新型資料中心—人工智慧工廠,以生產新的商品—人工智慧。人工智慧將幾乎為所有產業帶來顯著的生產力提升,幫助企業提高成本和能源效率,同時擴大收入機會。

雲端服務供應商(CSP)是第一批推動人工智慧發展的公司。借助NVIDIA,CSP加速了工作負載,以節省資金和電力。 NVIDIA Hopper產生的Token為其人工智慧服務帶來了收入。 NVIDIA Cloud執行個體吸引了來自我們豐富的開發者生態系統的租賃客戶。 Hopper平台上對產生人工智慧訓練和推理的強勁且不斷增長的需求推動了我們資料中心的成長。

隨著模型學習多模態、理解文字、語音、圖像、視訊和3D並學習推理和計劃,訓練規模不斷擴大。我們的推理工作負載正在以驚人的速度成長。有了生成人工智慧,推理(現在涉及大規模快速生成Token)變得非常複雜。

生成人工智慧正在推動從基礎開始的全端運算平台轉變,這將改變每一次電腦互動。從今天的資訊檢索模型,我們正在轉向計算的答案和技能生成模型。人工智慧將理解上下文和我們的意圖,具有知識、推理、計劃和執行任務。我們正在從根本上改變計算的工作方式和計算機的功能。從通用CPU到GPU加速運算,從指令驅動軟體到意圖理解模型。從檢索資訊到執行技能。在工業層面,從生產軟體到產生Token,製造數位智慧。

Token生成將推動人工智慧工廠的多年建設。除了雲端服務供應商之外,產生人工智慧已擴展到消費者網路公司和企業、主權人工智慧、汽車和醫療保健客戶,創造多個數十億美元的垂直市場。

Blackwell平台已全面投入生產,並為萬億參數級生成人工智慧奠定基礎。 Grace CPU、Blackwell GPU、NVLink、Quantum、Spectrum、Nixon交換器、高速互連以及豐富的軟體和合作夥伴生態系統相結合,讓我們能夠擴展並為人工智慧工廠提供比前幾代更豐富、更完整的解決方案。

SpectrumX為我們開闢了一個全新的市場,將大規模人工智慧引入僅限乙太網路的資料中心。 NVIDIA NIMS是我們的新軟體產品,可提供企業級、最佳化的生成人工智慧,可在任何地方的CUDA上運作。透過我們廣泛的生態系統合作夥伴網絡,從雲端到本地資料中心再到RTX人工智慧PC。從Blackwell到SpectrumX,再到NIMS,我們已經做好準備,迎接下一波成長的到來。感謝大家。


QnA環節:

感謝Jensen,現在,我們開始進入提問環節。請大家注意,將問題限制在一個範圍內。

伯恩斯坦的(Stacy Raskon:

我想深入了解Blackwell的全面投入生產情況。如果該產品已經不再只是樣品,那麼這對於發貨和交貨時間又意味著什麼?如果現在已經開始生產,那麼產品何時能夠真正到達客戶手中呢?

我們已經開始生產一段時間了,但是我們的生產出貨量將在第二季開始,並在第三季增加,預計客戶的資料中心將在第四季建立起來。

明白了,所以我們今年會看到Blackwell的收入,是這樣嗎?

是的,今年我們會看到大量的Blackwell收入。

CBS的Timothy R. Curry:

非常感謝。我想問Jensen關於Blackwell與Hopper的部署情況。考慮到系統的性質和您對GB的所有需求,這些產品的部署與Hopper有何不同?我之所以提這個問題,是因為以前沒有大規模的液體冷卻,而且在節點層級和資料中心內都存在一些工程挑戰。那麼這些複雜性是否會延長過渡期,您如何看待這一切的進展?

是的,Blackwell有多種配置。 Blackwell是一個平台,而不僅僅是一個GPU。這個平台支援風冷、液冷、x86、Grace、InfiniBand、Nell Spectrum X以及我在GTC上演示過的超大NVLink域。因此,對於一些客戶來說,他們將逐步加入已經安裝了Hoppers的資料中心的現有安裝基數。他們將能夠輕鬆地從H100過渡到H200,再到B100。因此,Blackwell系統的設計在電氣和機械方面都具有向後相容的特性。當然,運行在Hopper上的軟體堆疊將在Blackwell上完美運作。

我們一直在為整個生態系統做好準備,為液冷做好準備。我們已經與生態系統討論了Blackwell很久了。無論是CSP、資料中心、ODM、系統製造商、我們的供應鏈、冷卻供應鏈基礎、液體冷卻供應鏈基礎,還是資料中心供應鏈基礎,沒有人會對Blackwell的到來以及我們希望透過Grace Blackwell 200提供的功能感到驚訝。 GB200將表現得非常出色。

美國銀行證券的Vivek Arya:

感謝您回答我的問題。 Jensen,我想了解,您如何確保您的產品得到充分的利用,而不會因為供應競爭激烈或其他因素導致搶購或囤積行為?您在系統中建立了哪些檢查機制,讓我們有信心貨幣化能夠跟上您強勁的出貨量成長?

好的,我會從大局出發來回答您的問題。所有的資料中心對GPU的需求都是巨大的,我們每天都在與時間賽跑。這主要是因為ChatGPT和GPT 4.0等應用程式的需求,現在它們將成為多模態和Gemini和Anthropic。所有的雲端服務供應商都在消耗現有的每一個GPU。此外,還有大量的生成式AI新創公司,大約有15000到20000家,涉及各個領域,從多媒體到數位角色,當然還有各種設計工具應用、生產力應用程式、數位生物學。自動駕駛行業正在向視訊轉變,以便他們可以訓練端到端模型來擴展自動駕駛汽車的操作領域。這個名單非常特別。

實際上,我們正​​在比賽。客戶對我們施加了很大的壓力,要求我們盡快交付系統並使其運作。當然,我還沒有提到所有主權人工智慧都希望利用其國家的所有區域自然資源(即資料)來訓練其區域模型。建立這些系統的壓力很大。所以無論如何,我認為需求非常非常高,而且超過了我們的供應。

從長遠來看,這就是我跳出來發表一些評論的原因。從長遠來看,我們正在完全重新設計電腦的工作方式。這是一個平台轉變。當然,它與過去的其他平台轉變相比。但時間會清楚證明,這比以前的平台轉變要深刻得多。原因是電腦不再是僅由指令驅動的電腦。它是一台理解意圖的計算機。當然,它理解我們與它互動的方式,但它也理解我們的意思,我們想要它做什麼,它具有推理、迭代推理以處理計劃並返回解決方案的能力。因此,電腦的每個方面都在發生變化,它不再檢索預先錄製的文件,而是產生與上下文相關的智慧答案。這將改變全世界的計算堆疊。

您在Build大會上看到,事實上,即使是PC計算堆疊也會發生革命性的變化。這只是所有事情的開始,您知道,人們今天看到的是我們在實驗室中開展的工作以及我們與世界各地的所有新創公司、大公司和開發商合作的開始。這將是非常了不起的。

摩根士丹利的Joe Moore:

我了解到您對H200和Blackwell產品的需求非常強烈。在您轉向這些產品的過程中,您是否預期Hopper和H100的銷售會暫時停滯?人們是否會等待這些新產品的上市?這些新產品會成為優秀的產品,還是您認為H100的需求足以維持其成長?

我們注意到,本季對Hopper的需求持續成長。我們預計,隨著我們向H200和Blackwell的過渡,需求將在一段時間內超過供應。每個人都急切地希望他們的基礎設施能夠盡快上線,因為這樣可以節省成本並創造收益,他們希望能夠盡快實現這一目標。

高盛的Toshia Hari:

你好,非常感謝您回答這個問題。 Jensen,我想問一下關於競爭的問題。我注意到您的許多雲端客戶都在宣布他們現有的內部程式的新版本或更新,這些都是在與您合作的同時進行的。在中長期內,您在多大程度上將他們視為競爭對手?在您看來,他們是否只是解決大部分內部工作負載,還是在未來有可能解決更廣泛的問題?謝謝。

是的,我們在幾個方面有所不同。首先,NVIDIA的加速運算架構允許客戶處理他們管道的各個方面,從非結構化資料處理到準備訓練,再到結構化資料處理、資料幀處理(如SQL)到準備訓練、訓練、推理。正如我在演講中提到的,推理確實發生了根本性的變化。現在是生成。它不僅僅是試圖偵測貓,這本身就很難,而且它必須產生貓的每個像素。因此,生成過程是一種根本不同的處理架構。這也是TensorRT LLM如此受歡迎的原因之一。我們在架構上使用相同晶片的性能提高了三倍。這在某種程度上說明了我們架構的豐富性和軟體的豐富性。因此,您可以將NVIDIA用於從電腦視覺到影像處理、電腦圖形到所有計算模式的所有領域。現在,由於通用計算已經走到了盡頭,世界正遭受計算成本和計算能源膨脹的困擾,加速計算才是真正可持續的發展方式。因此,加速計算是節省計算成本和能源的方法。因此,我們平台的多功能性使資料中心的TCO最低。

其次,我們在每個雲端都有。因此,對於正在尋找開發平台的開發人員來說,從NVIDIA開始始終是一個不錯的選擇。我們在本地,我們在雲端,我們在任何大小和形狀的電腦中。我們幾乎無所不在。這是第二個原因。

第三個原因與我們建立AI工廠有關。人們越來越清楚地認識到,AI不僅僅是晶片問題。當然,一切都始於優秀的晶片。我們為我們的人工智慧工廠製造了大量的晶片,但這是一個系統問題。實際上,現在的人工智慧也是一個系統問題。它不僅僅是一個大型語言模型,而是由一系列大型語言模型組成的複雜系統,這些模型需要協同工作。因此,NVIDIA建構這個系統的事實促使我們優化所有晶片,使它們能夠作為一個系統協同工作,擁有作為一個系統運行的軟體,並能夠在整個系統中進行優化。

用簡單的數字來說明這一點,如果你有一個價值50億美元的基礎設施,如果你將性能提高了兩倍,這是我們經常做的,那麼當你將基礎設施提高兩倍時,對你來說價值就是50億美元。資料中心的所有晶片都無法支付這筆費用。因此,它的價值確實非常非凡。這就是為什麼今天性能至關重要的原因。此時,最高效能也是成本最低的,因為承載所有這些晶片的基礎設施成本非常高,而且資助資料中心、營運資料中心、相關人員、相關電力、相關房地產也需要大量資金。所有這些加起來,因此,最高的性能也是最低的總體擁有成本(TCO)。

TD Cowen的Matt Ramsey:

非常感謝,大家下午好。 Jensen,我的整個職業生涯都在資料中心產業。我從未見過你們以如此快的速度推出新平台,同時獲得如此高的效能提升。訓練速度提高了5倍,你在GTC中提到的一些內容在推理速度上提高了30倍。這是一件很神奇的事情,但它也創造了一個有趣的對比:客戶花費數十億美元購買的當前一代產品,其競爭力將遠低於新產品,而且貶值速度比新產品的貶值周期快得多。因此,如果您不介意的話,我想請您談談您如何看待這種情況在客戶身上的發展。當您轉向Blackwell時,他們將擁有非常大的安裝基礎,顯然軟體相容,但安裝基礎龐大的產品性能遠不及新一代產品。聽聽您看到客戶在這條道路上發生了什麼,這很有趣。謝謝。

是的,我非常感激。我想提出三點。如果您的建設進度為5%,而如果您的建設進度為95%,您的感受將大不相同。而且由於您只完成了5%,所以無論如何您都要盡可能快地進行構建。而且,當Blackwell到來時,它會非常棒。然後,正如你所提到的那樣,在Blackwell之後,我們還會推出其他Blackwell。然後,我們以一年為周期,正如我們向世界解釋的那樣。我們希望我們的客戶能夠看到我們盡可能遠的路線圖,但他們無論如何都處於建設的早期階段。因此,他們必須持續進行建設。

確實如此,大量的晶片將會向他們湧來。他們需要繼續建設,如果你願意,可以選擇以平均性能的方式進入。這無疑是個明智的選擇。他們需要在今天就開始獲利,同時也希望能夠節省開支。對他們來說,時間的價值實在是無法估量。

讓我舉一個例子來說明時間的重要性。這就是為什麼建立即時資料中心的想法如此有價值,以及為何獲得所謂的訓練時間如此重要。原因在於,下一家達到重大平台的公司可以宣布一項突破性的人工智慧。而緊接而來的第二家公司則可能只能宣布一項改善了0.3%的成果。

所以問題在於,你是想成為一個不斷提供突破性人工智慧的公司,還是一個只能提供0.3%改進的公司?這就是為什麼這場競賽,就像所有的技術競賽一樣,如此重要。你會看到這場競賽涉及多家公司,因為擁有技術領導至關重要。公司需要信任領導力,想要在你的平台上構建,並知道他們正在建立的平台會越來越好。因此,領導力至關重要。

訓練時間也同樣重要。訓練時間的關鍵在於,能否提前三個月完成一個為期三個月的項目,提前開始是最重要的。這就是為什麼我們現在正在瘋狂地建立漏斗系統,因為下一個平台就在眼前。

這是第二個原因。你提出的第一個評論確實很棒,那就是,我們為什麼能夠如此快速地發展和進步?因為我們擁有所有的堆疊。我們實際上建立了整個資料中心,我們可以監控一切、衡量一切、優化一切。我們知道所有瓶頸在哪裡,我們不會對此進行猜測。我們不會只是製作看起來不錯的PowerPoint 投影片。

實際上,我們也希望我們的PowerPoint 投影片看起來不錯,但我們提供的是可大規模執行的系統。我們之所以知道它們可大規模執行,是因為我們在這裡建立了一切。

現在,我們所做的一件有點神奇的事情是,我們在這裡建立了整個AI 基礎設施,然後我們將其分解並整合到客戶的資料中心中,無論他們喜歡什麼。但我們知道它將如何執行,我們知道瓶頸在哪裡。我們知道需要在哪裡與他們一起優化,也知道在哪些方面需要幫助他們改善基礎設施以實現最佳效能。這種對整個資料中心規模的深入、細緻的了解從根本上使我們今天與眾不同。

我們從頭開始建造每一個晶片。我們確切地知道整個系統的處理過程。因此,我們確切地了解它將如何執行以及如何在每一代中最大限度地利用它。所以我很感激。這就是三點。

Evercore ISI 的Mark Lopakis:

你好,感謝您回答我的問題。 Jensen,過去,您曾觀察到通用運算生態系統通常主導每個運算時代。我堅信,透過適應不同的工作負載,我們可以提高利用率,降低計算周期的成本。這也是我推動通用圖形處理器(GPU)CUDA生態系統進行加速運算的動機。如果我對這個觀察有誤解,請糾正我。

所以,我有一個問題。考慮到推動您解決方案需求的工作負載主要是由神經網路訓練和推理驅動的,從表面上看,這似乎是有限數量的工作負載,那麼它似乎也適合客製化解決方案。那麼,通用運算框架是否會變得更危險?或者,這些工作負載是否有足夠的變化或足夠快速的演變來支援歷史通用框架?謝謝。

是的,這些加速計算是多功能的,但我不會稱其為通用。例如,我們並不擅長運行電子表格,這實際上是為通用計算設計的。因此,作業系統程式碼的控制循環可能不適合通用運算,也不適合加速運算。所以,我會說我們是多功能的,這通常是我描述它的方式。

多年來,我們能夠加速的應用領域非常豐富,但它們都有很多共同點。也許有一些深刻的差異,但都是共同點。它們都是我可以並行運行的東西。它們都是高度線程化的。例如,5% 的程式碼代表了99% 的運行時間。這些都是加速計算的屬性。

我們平台的多功能性以及我們設計整個系統的事實,是在過去10 年左右的時間裡,你們在這些電話會議中詢問我的新創公司數量相當多的原因。由於它們架構的脆弱性,每當生成式人工智慧出現,或者當擴散模型出現時,下一個模型就會出現。現在,突然間,看看這個,具有記憶體的大型語言模型。因為大型語言模型需要有記憶,這樣它們才能與你對話,理解上下文。突然之間,Grace 記憶體的多功能性變得非常重要。

因此,生成式人工智慧和人工智慧發展中的每一個進步都要求不要只為一個模型設計一個部件,而要有一個真正適合整個領域、整個領域的屬性但又遵循軟體第一原則的東西。該軟體將繼續發展。該軟體將不斷變得更好、更大。我們相信這些模型的擴展。有很多理由可以解釋為什麼我們將在未來幾年輕鬆擴展一百萬倍,我們對此充滿期待,並為此做好了準備。

因此,我們平台的多功能性確實非常關鍵,而且它不是……如果你太脆弱、太具體,你不妨只建造一個FPGA 或ASIC 或類似的東西,但這幾乎不能算是電腦。

Jeffries 的Blaine Curtis:

謝謝你回答我的問題。我其實有點好奇。由於供應受限,您如何看待…您為中國推出了H20 產品。我預設了該產品的需求量會很大,但顯然您正在嘗試使用其他Hopper產品來滿足您的客戶需求。我對您如何規劃下半年的業務感到好奇,如果您能詳細說明任何可能的影響,以及您對銷售和毛利率的看法,我將不勝感激。我沒有聽到您的問題,有些聲音似乎消失了。我想了解H20以及您如何在不同的Hopper產品之間分配供應。

我們尊重每一位客戶,並致力於為他們提供最優質的服務。實際上,我們在中國的業務規模已經遠低於過去。由於我們技術的限制,現在在中國的競爭更加激烈。儘管如此,我們將繼續盡最大努力為那裡的客戶和市場提供服務,並盡我們最大的努力做到最好。但我認為總體而言,我們關於需求超過供應的評論是針對整個市場,尤其是年底的H200和Blackwell。

Raymond James的Sreeni Pazhuri:

Jensen,我需要您進一步澄清一下您的觀點。 GP200系統,看起來對系統的需求很大。從歷史上看,我認為您已經銷售了許多HGX主機板和一些GPU,而係統業務相對較小。所以我很好奇,為什麼現在您看到對系統的需求如此強勁?這只是TCO還是其他原因,還是只是架構?謝謝。

是的,我很感激。實際上,我們銷售GP200的方式是一樣的。我們將所有有意義的組件分解,並將其整合到電腦製造商中。今年,我們將為布萊克威爾提供100種不同的電腦系統配置。這超出了預期。坦白說,Hopper只擁有一半的市場份額,但那已經是巔峰了。它一開始的市佔率甚至比這還要少。所以你會看到液冷版本、風冷版本、x86版本、grace版本等等。正在設計的系統種類繁多。它們由我們所有優秀的合作夥伴生態系統提供。實際上什麼都沒有改變。

現在,當然,Blackwell平台大大擴展了我們的產品範圍。 CPU的整合和更緊湊的運算密度、液冷將為資料中心節省大量的電力配置成本。更不用說更節能了。所以這是一個更好的解決方案。它更具擴展性,這意味著我們提供更多的資料中心元件。每個人都是贏家。資料中心的性能得到了提升。網絡,從網絡交換器到網絡,當然還有NIC。我們現在有了以太網,這樣我們就可以將NVIDIA AI大規模地帶給那些只知道如何操作乙太網路的客戶,因為他們擁有生態系統。因此,Blackwell的擴展性更強。在這個時代,我們為客戶提供了更多的服務和產品。

Truist Securities的William Stein:

Jensen,有一段時間,儘管市場上有相當優秀的CPU可供資料中心運營,但NVIDIA決定,基於ARM的Grace CPU提供了一些真正的優勢,使得這項技術值得交付給客戶,這可能與成本有關,或與Grace和Hopper或Grace和Blackwell之間的功耗或技術協同作用有關。您能否談談在客戶端是否可能出現類似的情況,即儘管有非常好的解決方案,但您強調英特爾和AMD是非常好的合作夥伴,並在x86中提供出色的產品。但也可能有一些優勢,特別是在新興的AI工作負載中,NVIDIA可以提供一些優勢,而其他公司則面臨更大的挑戰。

您提到了一些非常好的理由。確實,對於許多應用程式而言,我們與x86的合作,我們的x86合作夥伴確實非常棒,我們共同建立了出色的系統。但Grace使我們能夠做一些在今天的配置、系統配置下不可能做到的事情。 Grace和Hopper之間的記憶體系統是連貫且連接的。兩個晶片之間的互連,稱之為兩個晶片幾乎很奇怪,因為它就像一個超級晶片。它們兩個透過這個介面連接。這相當於每秒1TB。這超出了圖表。 Grace使用的記憶體是LPDDR。這是第一個資料中心級低功耗記憶體。因此,我們在每個節點上節省了大量電力。

最後,由於架構的原因,因為我們現在可以用整個系統創建自己的架構,我們可以創建具有非常大的NVLink域的東西,這對於下一代大型推理語言模型至關重要。所以你看到GB200有一個72節點的NVLink域。這就像72個Blackwell連結在一起形成一個巨大的GPU。所以我們需要Grace Blackwell才能做到這一點。因此,有架構原因,有軟體程式設計原因,然後有系統原因,這些對於我們以這種方式建構它們至關重要。所以如果我們看到這樣的機會,我們會去探索它。

今天,正如你在昨天的構建中看到的,我認為這真的很棒,Satya宣布了下一代PC,Copilot Plus PC,它在筆記型電腦中出貨的NVIDIA RTX GPU上運行得非常出色。但是,它也很好地支援ARM。因此,它為系統創新,甚至為個人電腦創新開闢了機會。

Candor Fitzgerald的CJ Mews:

午安.我想,Jensen,這是一個長遠的問題。我知道Blackwell還未發布,但顯然投資者都是有遠見的,他們面臨來自GPU和客製化ASIC的潛在競爭。您如何看待NVIDIA未來的創新速度?過去十年,您的規模擴大了數百萬倍,這確實令人印象深刻。 CUDA、稀疏性、精準度、優雅性、連貫性和連結性。展望未來,未來十年需要解決哪些摩擦?我想也許更重要的是,您今天願意與我們分享什麼?

好的,我可以宣布,繼Blackwell之後,我們還有另一款晶片在研發中。我們正處於一年一個新產品的節奏。您可以期待我們將以非常快的速度推出新的網路技術。我們已經宣布推出用於乙太網路的Spectrum X。我們全力投入乙太網路的研發,我們有一個令人興奮的乙太網路路線圖。我們擁有豐富的合作夥伴生態系統,戴爾已經宣布他們將把Spectrum X推向市場。我們擁有豐富的客戶和合作夥伴生態系統,他們將宣布將我們的整個AI工廠架構推向市場。

因此,對於那些想要獲得最高性能的公司,我們有InfiniBand計算結構。 InfiniBand是一種運算結構,乙太網路是一種網路。多年來,InfiniBand最初是一種運算結構,後來成為越來越好的網路。乙太網路是一種網絡,借助Spectrum X,我們將使其成為更好的運算結構。我們全力投入這三個環節:用於單一運算域的NVLink運算結構、InfiniBand運算結構、乙太網路運算結構。因此,我們將以非常快的速度推動這三個面向的發展。

因此,您將看到新的交換器、新的網路介面卡(NIC)、新功能以及在這三個方面運行的新軟體堆疊。新的CPU、新的GPU、新的網路NIC、新的交換機,大量新的晶片即將問世。所有這些,最美妙之處在於它們都運行CUDA。所有這些都運行我們的整個軟體堆疊。所以,如果你今天投資我們的軟體堆疊,不用做任何事情,它就會變得越來越快。如果你今天投資我們的架構,不用做任何事情,它就會進入越來越多的雲端和越來越多的資料中心。一切都會運作。

所以,我認為我們帶來的創新步伐一方面會提高能力,另一方面會降低整體擁有成本(TCO)。因此,我們應該能夠利用NVIDIA架構來擴展這個新的運算時代,並開啟這場新的工業革命,我們不僅製造軟體,還製造人工智慧Token。我們將在大規模上實現這一目標。

感謝您的參與。至此,我們今天的問答環節和電話會議就此結束。(Web3天空之城)