周三美股盤後,輝達CEO黃仁勳在2025財年第四季度業績電話會議上表示,公司對AI推理帶來的潛在需求感到興奮,這類計算需求預計將遠超當前的大語言模型(LLM),可能需要比現有計算能力高出數百萬倍。
黃仁勳稱,我們所做的事情並不容易,但輝達在提升供應能力方面表現良好。AI軟體將是一切資料中心的一部分,無論是短期、中期還是長期跡象都持續向好。他進一步確認,Blackwell系列晶片的供應鏈問題已完全解決,供應問題不曾妨礙到下一次訓練和後續產品的研發。此外,Blackwell Ultra計畫於2025年下半年發佈。
黃仁勳還指出,任何人都處在新科技轉型的起點,所有軟體和服務都將和AI相關。
輝達CFO Colette Kress指出,感恩節和聖誕節期間的遊戲硬體需求依然強勁,但整體營收仍受到供應限制的影響。不過,他預計供應問題將得到緩解,使得增速在當前季度迎來 「噴發」。
針對盈利能力,CFO指出,一旦Blackwell增產,利潤將有所改善,並預計到2025年年底,利潤率將在70%-80%區間的中部。然而,他強調,目前的首要任務是向客戶交付儘可能多的產品。大客戶和企業客戶的增速大致相同。
中國市場方面,黃仁勳表示,四季度營收季環比大體上持平。
以下為問答全文:
Q1:隨著測試時計算和強化學習展現出巨大潛力,我們明顯看到訓練與推理之間的界限正在變得越來越模糊。那麼,這對未來專門用於推理的計算叢集可能意味著什麼?您如何看待這一趨勢對輝達及其客戶的整體影響?
CEO:現在存在多種計算擴展規律。第一種是預訓練擴展規律,這個趨勢仍會持續增長,因為我們正在進入多模態時代,並且現在的推理生成資料也可以用於預訓練。
第二種是後訓練擴展規律,它涉及強化學習,包括人類反饋強化學習、AI反饋強化學習,以及可驗證獎勵強化學習。在後訓練階段,所需的計算量實際上比預訓練更大。這也合乎邏輯,因為在使用強化學習時,AI可以生成大量合成資料或合成Token,並利用這些資料進一步訓練AI模型,這就是後訓練。
第三種,也就是你提到的部分,測試時計算或推理、長思維推理擴展。
它們本質上都是相同的概念。在推理過程中,我們有鏈式思維和搜尋,所生成的Token量以及所需的推理計算量已經比最初的大語言模型(LLM)中的單步推理高出100倍,而這僅僅是個開始。
未來,我們可能會看到計算需求增長至當前的數千倍甚至數百萬倍,AI 模型將變得更加智能,具備更強的思考能力,並依賴更複雜的模擬和搜尋推理。因此,關鍵問題是:如何設計適應這種演進的計算架構?
當前,不同AI模型有不同的架構需求——有些是自回歸模型,有些是基於擴散的模型。有時,資料中心需要採用分佈式推理,有時則需要緊湊式架構。因此,很難確定 最優的資料中心架構。
這正是輝達架構如此受歡迎的原因——我們的平台能夠支援所有類型的 AI 模型。我們不僅擅長訓練,事實上,目前大部分計算資源都用於推理,而Blackwell進一步提升了推理能力。我們在設計Blackwell時,就考慮到了面向推理的需求,讓AI能夠處理更加複雜的任務。
在訓練方面,Blackwell的性能已經提升了數倍。但真正令人驚嘆的是,在長思維推理、測試時擴展、推理AI方面,性能提升更為顯著——推理吞吐量提高了25倍,計算速度提升數十倍。因此,Blackwell在各個方面都將帶來卓越表現。
當企業在建構資料中心時,他們需要根據不同階段的需求進行調整,比如當前是否側重預訓練,是否專注於後訓練,或者是否需要大規模擴展推理計算。輝達的架構具有高度靈活性,可以輕鬆適應這些不同的計算模式。
因此,我們觀察到,越來越多的企業正在集中採用統一架構,比以往任何時候都更加明顯。這證明了輝達的架構在各個AI計算環節都具備極高的適用性和領先優勢。
Q2:請談一談GB200在CES(國際消費電子展)上的情況。您之前提到過機架級系統的複雜性以及所面臨的挑戰。此外,正如您在準備好的發言中所提到的,我們已經看到許多產品進入全面供應階段。請問GB200的量產進展如何?在系統層面,除了晶片層面的問題之外,是否仍然存在瓶頸需要考慮?另外,您是否依然對NGL72平台充滿信心?
A2:實際上,我現在比在CES(國際消費電子展)時更為興奮,因為我們在CES之後出貨量大幅增長。
目前,我們有約350家工廠在生產每台Blackwell機架(Grace Blackwell機架)所需的150萬個元件。是的,這確實極其複雜,但我們已經成功地加速量產Grace Blackwell,並在 上個季度實現了約110億美元的營收。
由於市場需求極其旺盛,客戶們都急切且迫不及待地想要獲得他們的Blackwell系統,因此,我們必須持續擴大產能。
你可能已經在網路上看到許多關於Grace Blackwell系統上線的慶祝消息。目前,我們自己也部署了大量Grace Blackwell裝置,供內部工程團隊、設計團隊和軟體團隊使用。此外,CoreWeave已公開宣佈他們成功上線該系統,微軟也已部署,OpenAI當然也在使用,此外還有許多客戶的系統正在陸續投入運行。
所以,我的答案是:我們所做的一切都極具挑戰,但進展順利,我們和所有合作夥伴都做得非常出色!
Q3:我想請您確認一下,第一季度是否會成為毛利率的最低點?您如何判斷當前強勁的市場需求能夠持續到明年? 在您的觀察中,那些關鍵因素讓您對市場前景保持信心?此外,DeepSeek及其最新創新是否對您的這一判斷產生了影響?
CFO:關於毛利率,在Blackwell推廣初期,我們的毛利率將處於70%初段。
目前,我們的首要任務是加快製造進度,確保盡快將產品交付給客戶。一旦Blackwell完全量產,我們將能夠進一步最佳化成本,從而提升毛利率。預計今年晚些時候,毛利率可能會提升至70%中段水平。
正如您剛才聽到黃仁勳所提到的,系統架構本身相當複雜,在某些情況下需要高度定製化,並且提供多種網路連線選項,包括液冷和水冷方案。
因此,我們確實有機會在未來進一步提升毛利率。但目前,我們的首要任務仍然是盡快完成生產,並盡快將Blackwell交付至客戶手中。
CEO:我們掌握了幾個重要的資訊。首先,我們對 資料中心的資本投資規模 有相當清晰的瞭解。未來,絕大多數軟體都將基於機器學習,因此加速計算、生成式AI以及推理AI將成為資料中心所需的核心架構。
其次,我們擁有來自頂級合作夥伴的預測和規劃,同時,我們也看到許多充滿創新精神、令人振奮的初創公司仍在不斷湧現。這些公司正致力於AI領域的下一個突破,無論是自主智能體 AI、推理AI還是物理AI,每一家公司都需要大量的計算基礎設施來支撐其研發。
從市場訊號來看,我們可以分為短期、中期和長期三個維度:
短期訊號主要包括 採購訂單和合作夥伴的預測資料,這些資料能夠直接反映市場需求。
中期訊號關注基礎設施和資本開支的擴展速度,相較於前幾年,我們看到整體規模正在迅速擴大。
長期訊號——從根本上來說,軟體開發範式已經發生變化,從過去基於CPU的手工編碼,轉向基於GPU和加速計算的機器學習與AI驅動軟體。這表明AI計算架構將成為未來主流。
從整體趨勢來看,我們目前才剛剛進入消費級AI時代,包括 搜尋、生成式 AI、廣告、推薦系統 等應用仍處於早期階段。下一波浪潮將涉及企業級自主智能體AI、機器人AI,以及各國建構的主權AI,用於打造本地化AI生態系統。
這些領域才剛剛起步,但我們可以清晰地觀察到它們的發展勢頭。由於輝達處於這些創新浪潮的核心,我們能夠看到各個方向上都在發生大量創新,並且這些變革必然會實現。因此,從短期到長期,我們對市場前景充滿信心。
Q4:輝達下一代Blackwell Ultra計畫在今年下半年推出,保持了團隊年度產品發佈節奏。黃仁勳,您能否幫助我們理解Ultra的市場需求情況? 目前,你們仍 加速推進現有Blackwell產品的量產,那麼在這種情況下,客戶和供應鏈如何同時管理這兩代產品的並行推進?此外,Blackwell Ultra是否仍然按計畫將在今年下半年推出?
CEO:是的,Blackwell Ultra仍計畫在今年下半年推出。
關於第一代Blackwell,我們確實遇到了一些小插曲,可能導致了 幾個月的延遲,但我們已經 完全恢復。團隊在解決問題方面做得非常出色,我們的 供應鏈合作夥伴 也提供了極大的支援,幫助我們 以極快的速度完成恢復。現在,Blackwell已經成功量產,但這不會影響我們下一代產品的推進。
我們的產品開發遵循年度節奏,Blackwell Ultra將搭載全新網路架構、新型記憶體以及升級版處理器,所有技術都將在今年下半年全面上線。
我們一直在與合作夥伴和客戶緊密合作,並為他們提供了所有必要的資訊,確保大家能夠 順利完成產品過渡。這次的Blackwell到Blackwell Ultra過渡將會更加順暢,因為它們的 系統架構完全相同。
相比之下,從Hopper過渡到Blackwell難度更大,因為我們從NVLink 8直接升級到了NVLink 72,導致 機箱設計、系統架構、硬體、電源供應等方面都需要調整,這一轉變的挑戰相當巨大。但Blackwell Ultra的升級不會有這些問題,它能夠無縫銜接到現有系統。
此外,我們已經 提前向合作夥伴披露並展開了下一代產品的合作,下一步將是Vera Rubin,目前所有合作夥伴都在為這次升級做準備。我們也在全力推進下一階段的產品迭代,屆時會帶來巨大性能提升。
歡迎大家來GTC大會! 屆時我會詳細介紹Blackwell Ultra、Vera Rubin及其後續產品,這些都是 極具突破性的創新技術,非常值得期待。請大家一定要來GTC瞭解最新動態!
Q5:我們最近聽到了很多關於定製ASIC的討論。您能否談一談定製ASIC與標準GPU之間的平衡?此外,我們還瞭解到某些異構超級計算叢集計畫同時使用GPU和ASIC。請問客戶是否真的在建構這種混合架構?還是說,這些計算基礎設施仍將保持相對獨立?
CEO:我們與ASIC的建構方式完全不同。在某些方面,我們的技術路線完全不同,而在某些領域,我們確實會有所交集。但總體而言,我們與ASIC存在幾個關鍵差異。
首先,輝達的架構是通用的。無論是自回歸模型、基於擴散的模型、電腦視覺模型、多模態模型還是文字模型,我們都能提供卓越的計算能力。
之所以能做到這一點,核心原因在於 我們的軟體生態極其豐富,架構具有 高度靈活性。這使得輝達成為了幾乎所有前沿創新和新演算法的首選平台。本質上,我們的架構遠比專用ASIC 更具普適性。
其次,輝達提供端到端解決方案。從資料處理,到訓練資料的整理,再到模型訓練,以及強化學習在後訓練階段的應用,最終再到推理和測試時擴展,我們覆蓋整個AI計算流程。因此,我們不僅通用,而且覆蓋完整的計算鏈條。
此外,我們的架構無處不在。輝達不是只服務於某一個雲端運算平台,而是適用於所有雲端運算,並且可以部署在本地資料中心,甚至可以應用於機器人。這意味著,輝達的架構相比ASIC更加開放、靈活,且更容易被新興企業採用。對於任何一家正在創業或開發新技術的公司,輝達都是一個極具吸引力的首選平台。
最後,我想說的是,我們的技術迭代速度快得令人難以置信。
請記住,資料中心的規模始終是固定的,無論是 物理空間還是功耗,它們都有明確的上限。如果我們的性能功耗比提升2倍、4倍甚至8倍,那麼這將直接轉化為更高的收入。
舉個例子,如果一個資料中心的功率上限是100兆瓦,而在相同功耗下,我們的計算性能或吞吐量提高4倍或8倍,那麼這個資料中心的收入也將相應提高8倍。這與傳統資料中心的模式截然不同,因為AI工廠具有直接變現能力,它們的收入來源於生成的Token。我們的架構推理吞吐量極高,這對所有致力於AI商業化的企業來說都極具價值,因為他們希望快速獲得投資回報。
因此,我認為第三個關鍵因素是性能。
第四個因素是軟體生態的複雜性。
開發一個ASIC(專用晶片) 與我們所做的工作本質上並無不同,但輝達架構之上的軟體生態系統現在比兩年前複雜10倍。這很容易理解,因為全球正在輝達生態上開發的軟體量呈指數級增長,AI技術的發展速度也越來越快。因此,要在多種晶片架構上建構完整的軟體生態,難度極高。
最後,我想強調一點:設計一顆晶片≠實際部署。
我們見過太多失敗的晶片案例,設計出來並不意味著它能真正落地。最終,企業必須做出商業決策,選擇是否 將新的計算引擎或處理器部署到 有限的AI工廠之中,而這些工廠受制於規模、功耗和時間。
我們的技術不僅更加先進、性能更強,在軟體生態方面更具優勢,同時部署速度極快。這些都不是輕而易舉的事情,正如大家現在所看到的。
綜上所述,正是這些因素,使得輝達在競爭中持續獲勝。
Q6:黃仁勳,這個問題與地理市場相關。您剛才已經很清楚地解釋了當前強勁需求背後的驅動因素。但是,我們注意到,美國市場環比增長了約50億美元,與此同時,一些人擔憂如果其他地區受到監管限制,美國市場是否能彌補這一缺口。因此,我想請問,如果美國市場的增長勢頭持續到今年全年,這是否足以支撐輝達的增長?此外,您的高速增長是否依賴於市場結構向美國的傾斜?另外,您的指引顯示中國市場環比可能有所增長,您能否詳細講解全球市場的動態?也許Colette也可以補充一下?
CEO:中國市場的佔比與第四季度及之前幾個季度基本持平,大約是出口管制前的一半,但其整體比例仍保持穩定。
關於不同地區的市場情況,我想強調一個核心觀點:AI本質上是一種軟體,它是現代軟體,非常先進,但歸根結底,它仍然是軟體。而如今,AI已經成為主流技術。
AI無處不在,它被廣泛應用於配送服務和購物服務。無論你購買一盒牛奶,還是享受其他消費服務,AI都會在其中發揮作用。
AI已經深入到各個行業,成為不可或缺的一部分:每一位學生都會使用AI作為學習助手;醫療服務依賴AI進行診斷和資料分析;金融科技公司無一例外都在使用AI;氣候科技和礦產勘探也都藉助AI進行分析和最佳化;高等教育機構和大學也已將AI深度融入教學和研究。
因此,我認為可以相當肯定地說,AI已經全面進入主流應用,並且已經被整合到幾乎所有軟體和服務之中。
我們的希望是,AI技術能夠繼續安全發展,並且能夠為社會帶來積極影響。從這個角度來看,我相信我們正處於這一全新時代的起點,AI的大規模應用才剛剛開始。
我所說的「我們正處於這個新時代的起點」,是指在我們身後,已經有數十年積累的資料中心和電腦基礎設施。這些系統是為手工編碼和通用計算而建構的,它們主要依賴CPU等傳統架構。
然而,展望未來,幾乎所有軟體都將被AI深度融合,最終,所有的軟體和服務都將基於機器學習。資料飛輪效應也將成為持續最佳化軟體和服務的重要推動力。
未來的計算架構將會是加速計算,而AI將成為計算的核心。我們現在才剛剛走過幾年的發展歷程,而現代電腦的演進已經經歷了數十年的建設。因此,我可以相當確定,我們正站在這一全新時代的起點。
最後,AI是歷史上第一個能夠覆蓋全球GDP絕大部分領域的技術。過去,從未有任何軟體工具能夠像AI這樣,影響如此廣泛的經濟領域。而AI作為一個全新的軟體工具,其市場規模比以往任何時候都更大,能夠影響並滲透全球經濟的各個角落。
因此,我們在思考增長時,不能再用傳統的眼光來看待市場規模的大小。如果從更宏觀的角度審視,我們現在所經歷的,仍然只是AI時代的初期階段。
Q7:Colette,我想先確認一個資料,您是否提到資料中心中的企業業務在1月季度同比增長了2倍?如果是這樣的話,這一增長速度是否已經超過了超大規模雲端運算公司?黃仁勳,我有關於超大規模雲端運算公司的採購問題:超大規模雲端運算公司是輝達解決方案的最大買家,但他們的採購主要用於兩種工作負載——內部工作負載,即他們自己運行的AI計算任務;外部工作負載,即向企業客戶提供的雲端運算服務。請問,超大規模雲端運算公司在這兩種工作負載上的支出比例如何?隨著新AI工作負載和應用的增長,您是否預計企業客戶將在AI計算消耗中佔比提升?這是否會影響輝達未來的服務和生態系統開發方向?
CFO:當然,感謝你的提問,關於我們的企業業務。是的,企業業務同比增長了2倍,其增長速度與我們的超大規模雲端運算合作夥伴基本一致。需要注意的是,這兩個領域都非常重要,值得深入理解。
我們與雲服務提供商的合作可能涉及大語言模型訓練,也可能是推理任務,這些都是他們自身的AI計算需求。但同時,企業客戶也在雲服務提供商的平台上運行他們的AI業務。
因此,企業客戶的計算需求既可以由雲服務提供商提供的雲服務實現,也可以自行建構基礎設施。從整體來看,這兩個領域都在高速增長,並且都對輝達業務至關重要。
CEO:目前,雲服務提供商佔我們業務的大約一半。
正如你所說,雲服務提供商的計算需求分為內部消費和外部消費。在內部消費方面,我們與所有主要雲服務提供商緊密合作,幫助他們最佳化內部工作負載,因為他們擁有龐大的輝達基礎設施,可以充分利用我們的計算能力。
輝達的架構具有高度靈活性,可以同時用於AI計算、視訊處理、資料處理(如Spark)等多個場景。這意味著基礎設施的使用壽命更長,從而降低了總體擁有成本。
關於企業客戶(即非雲服務提供商)未來的增長,我的觀點是從長遠來看,這一市場將遠遠超過雲服務提供商。
原因是什麼?如果你觀察當前的電腦產業,你會發現尚未被計算產業充分覆蓋的主要領域是工業。
舉個例子,以汽車公司為例——它們同時製造軟體和硬體。
從企業內部來看,員工需要使用智能AI系統來提升生產力,比如設計、行銷、規劃和營運管理等。在GTC大會上,我們將分享一些令人興奮的新技術,展示如何用智能AI幫助企業員工提高效率。
從產品角度來看,汽車本身也需要AI。每輛汽車都需要AI系統進行訓練,並與整個車隊協同工作。
未來,全球道路上仍然會有10億輛汽車,但不同的是,這些車都將是智慧型手機器人汽車,它們會持續收集資料,並通過AI工廠進行最佳化和升級。
換句話說,未來的汽車公司不僅需要汽車工廠,還需要AI工廠,以不斷改進和最佳化整個車隊的AI能力。
此外,在汽車內部,本質上就是一個機器人系統。所以你可以看到,未來涉及三種電腦:
幫助人類的電腦——主要用於企業內部,提高生產力,比如自主智能體AI幫助員工進行設計、規劃、行銷和營運等工作。
建構AI以控制機器的電腦——這些AI可能用於馬匹、拖拉機、割草機、人類、機器人,甚至是建築物和倉庫等物理系統。這些系統需要一種全新的AI,我們稱之為「物理AI」。
機器人的電腦——這些AI將直接驅動智慧型手機器人,讓它們能夠自主執行任務。
物理AI是超越語言理解的AI。
傳統AI主要理解文字和語言的意義,但物理AI需要理解現實世界的物理規律,比如:摩擦力與慣性、物體恆常性、因果關係。這些物理概念對於我們人類來說是常識,但AI必須通過學習才能掌握。因此,物理AI是一種全新的AI類型,它能夠理解並適應現實世界的物理環境。
目前,企業內部正在開始利用自主智能體AI徹底變革工作方式,但這仍處於早期階段。現在,自主智能體AI時代剛剛開啟,市場對此充滿期待。接下來,我們將看到物理AI的崛起,隨後是智慧型手機器人系統的廣泛應用。
這三種電腦(人類智能、機器智能、機器人智能)都是全新的計算架構,從長期來看,我認為它們的市場規模將遠超傳統計算市場。
這也符合邏輯,因為全球GDP的主要組成部分是重工業和工業企業,這些領域對於AI和自動化的需求將極為龐大。
Q8:黃仁勳,現在我們正接近Hopper轉折點兩周年(自2023年以來),同時,生成式AI也經歷了快速發展。在您目前的產品路線圖規劃下,您如何看待已部署基礎設施的更新換代周期?具體來說,GB300或Rubin這一代產品是否可能成為資料中心硬體更新的契機?我想請您分享一下,您如何看待未來的升級節奏和市場趨勢?
CEO:首先,目前Volta、Pascal和Ampere架構的GPU仍然在被廣泛使用。
原因在於,CUDA具有極高的可程式設計性,因此這些舊架構仍然可以勝任許多工作。例如,當前AI計算的一個主要應用是資料處理和資料整理。
舉個例子,假設AI模型在某個特定情況下表現不佳,比如自動駕駛場景中的視覺語言模型。你可以讓視覺語言模型分析這個場景,然後它會得出結論:「在這種情況下,我的表現不夠好。」
接下來,你可以利用AI模型搜尋整個資料湖,找出類似的場景,並通過AI進行領域隨機化,生成大量額外的訓練資料集。隨後,你可以利用這些新資料來進一步訓練AI模型。
在這個過程中,Ampere GPU可用於資料處理、資料整理和基於機器學習的搜尋,而整理好的訓練資料集則會交給Hopper體系進行訓練。
所有輝達GPU都基於CUDA生態,完全相容,可以在不同架構上運行不同任務。因此,已部署的舊基礎設施仍然可以用於處理計算需求較低的工作負載,而新一代GPU主要承擔計算密集型任務。
換句話說,我們的所有GPU都在被充分利用,每一代架構都有其價值和應用場景。
Q9:我想針對Colette再問一個關於毛利率的跟進問題。Colette,我理解Blackwell的良率、NVLink 72以及乙太網路產品組合等因素都會對毛利率產生影響。而在之前的問題中,您似乎沒有明確回答4月季度是否會成為毛利率的最低點。但按照你們的預期,要在今年財年的下半年將毛利率提升至70%中段水平,那麼每個季度的毛利率增幅可能需要提高200個點子。此外,我們仍然不清楚關稅對整個半導體行業的影響。那麼,是什麼讓你們有信心認為下半年能夠按照這個預期軌跡實現毛利率的提升?
A9:我們的毛利率計算相當複雜,因為Blackwell系統的材料和元件構成非常精密,我們在多個方面都存在提升毛利率的潛在機會。
需要注意的是,Blackwell擁有多種不同組態,這些組態的靈活性可以幫助我們在未來逐步最佳化毛利率。
一旦我們完成現階段的大規模產品量產,並滿足客戶需求,我們就能開始著手最佳化毛利率。事實上,我們會儘早開始這項工作,如果短期內可以找到改善毛利率的方法,我們也會立即採取行動。
關於關稅,目前仍然是一個不確定因素。我們尚不清楚美國政府的具體計畫,包括關稅實施的時間、適用範圍及稅率。因此,現階段我們仍在等待更多政策細節。
當然,無論如何,我們始終會遵守出口管制及關稅政策,並根據法規要求進行調整。 (華爾街見聞)