【輝達財報】電話會詳解&全文:“AI工業革命”才剛剛開始!黃仁勳高呼代理AI拐點已至,“推理即收入”

輝達CEO黃仁勳在電話會上直言,代理AI(Agentic AI)已達到拐點,算力直接轉化為收入。黃仁勳認為沒有算力就無法生成token,沒有token就無法實現營收增長,雲服務商的巨額資本開支最終將直接轉化為收入。此外,公司證實接近達成與OpenAI的巨額基建合作,訂單需求已排至2027年。

輝達以一份打破紀錄的財報,試圖回擊外界對AI泡沫的質疑。但電話會後輝達股價轉跌,此前盤後交易中一度漲超4%。

2月25日美股盤後,輝達公佈最新單季營收達680億美元並給出強勁指引,輝達CEO黃仁勳在電話會上直言,代理AI(Agentic AI)已達到拐點,算力直接轉化為收入。

黃仁勳認為沒有算力就無法生成token,沒有token就無法實現營收增長,雲服務商的巨額資本開支最終將直接轉化為收入。

黃仁勳同時強調,企業對代理的應用飆升,Grace Blackwell搭配NVLink是推理的王者。此外,他表示當前的太空資料中心經濟還是“貧瘠的”,但形勢將隨著時間的推移而變化。

從整體財務資料與供應鏈前瞻來看,輝達的增長引擎依然強勁。CFO克雷斯在電話會開場中透露:

總營收達到680億美元,同比增長73%,按環比計算較第三季度的增長進一步加速。

她明確指出,大部分收入增長依然由資料中心業務驅動。盤後輝達一度漲超4%,但電話會後漲幅逐漸縮小,直至轉跌。

電話會要點提煉:

  • 產品路線圖與技術突破:近9吉瓦Blackwell基礎設施已部署,性能比領先競品50倍;已向客戶傳送首批Vera Rubin樣品,預計2026下半年量產;將減少10倍推理token成本。通過軟體最佳化(如CUDA),在四個月內將GB200 NVL72性能提升5倍。
  • 戰略合作與投資:與OpenAI接近達成夥伴協議;Meta部署數百萬Blackwell和Rubin GPU;100億美元投資Anthropic。收購Grok低延遲推理技術;與西門子、達索系統、新思科技深化工業AI合作
  • AI拐點已至:黃仁勳強調"代理AI"已達到拐點,算力將直接轉化為收入。資料中心範式轉變,每資料中心受電力限制,性能/瓦特成為關鍵指標。
  • 物理AI崛起:2026財年已貢獻超60億美元收入;機器人計程車和自動駕駛將從千輛級擴展至百萬輛級。
  • 主權AI增長:2026財年主權AI業務超300億美元,同比增長3倍,主要來自加拿大、法國、荷蘭、新加坡和英國。
  • 毛利率展望:預計全年保持在70%中段,依賴持續的架構創新提供多倍性能/瓦特提升。
  • 未來展望:預計2027財年Q1收入780億美元,資料中心驅動大部分增長;預計到2030年,全球資料中心資本支出將達到3-4兆美元;已戰略性確保庫存和產能,滿足需求到2027年;承認高端架構供應將持續緊張。

黃仁勳:算力即營收,AI代理驅動新一輪需求浪潮

面對市場對科技巨頭持續投入高昂資本支出是否會導致資金枯竭或動能不足的擔憂,黃仁勳在問答環節明確表示,並不擔心AI公司耗盡資金。

黃仁勳強調:

我對他們現金流的增長充滿信心,原因非常簡單。我們現在已經看到了代理AI(agentic AI)的拐點以及智能代理的實用性。行業已經到達了另一個拐點。

他將當前階段的核心邏輯提煉為一句話:

意識到‘推理現在就等於我們客戶的收入’是非常重要的。

黃仁勳詳細描繪了這一商業模式的運作圖景:

由於智能代理正在生成如此多的代幣(tokens),而且結果如此有效。當智能代理在編寫程式碼時,它會生成數千、數萬、數十萬個代幣,因為它們會運行幾分鐘到幾個小時。所以這些系統、這些代理系統,正在作為一個團隊衍生出不同的智能代理。

黃仁勳補充道:

正在生成的代幣數量真的、真的呈指數級增長。因此,我們需要以更高的速度進行推理,當你以更高的速度進行推理時,每一個代幣都是被貨幣化(dollarized)的,這直接轉化為收入。

在展望未來時,黃仁勳更是直言:

從根本上說,因為每家公司都依賴軟體,每個軟體都將依賴AI。因此,每家公司都將產生代幣。

他認為,這種新的計算方式“不會倒退”。黃仁勳表示:

如果我們相信產生代幣將是計算的未來……那麼我們將從現在開始建設這種能力,並從這裡繼續擴展。

這一判斷與黃仁勳在上季度電話會議上的表態一脈相承。彼時他將行業劃分為三次結構性平台轉變:從傳統CPU到GPU計算、從傳統機器學習到生成式AI、再從生成式AI到AI代理,並強調每一次轉變本身均能支撐大規模投資。

牽手OpenAI與生態投資,鞏固全球算力霸權

在回答分析師關於戰略投資的問題時,黃仁勳證實,輝達接近敲定與OpenAI的合作。

這項合作在去年初步勾勒為一個潛在的1000億美元AI基礎設施項目,近期有報導稱輝達還可能進行約300億美元的投資。

黃仁勳形容OpenAI是一家“一代人中僅此一家(once-in-a-generation)”的公司,並強調輝達的投資目標是確保從大語言模型到機器人技術的一切都建立在輝達的平台上。他說:

我們想要抓住這個我們正處於新計算時代開端的巨大機會。

此外,黃仁勳在談及各種AI公司和項目時,特別提及了近期備受關注的開源AI代理OpenClaw。

他認為,企業級獨立軟體供應商(ISVs)在工具平台上開發代理系統的熱情,再次印證了市場正處於爆發拐點。黃仁勳說:

Claude Cowork和OpenClaw的計算需求之間的AI採用率正在飆升。

針對馬斯克等人對太空資料中心的討論,黃仁勳回應稱目前經濟效益不佳但會改善

在太空中……散熱只能通過傳導,你需要製造的散熱器相當大。所以我們在地球上使用的方法與在太空中的做法有些不同,但有很多不同的計算問題真的需要在太空中完成,所以輝達已經是世界上第一個進入太空的GPU。Hopper已經在太空中了。

他指出,在太空使用GPU最好的用例之一是成像。

極度緊缺的供應鏈

在供應鏈方面,克雷斯透露:

我們相信目前的庫存和供應承諾能夠滿足未來的需求,出貨計畫已延伸至2027日歷年。由於輝達基礎設施需求極其旺盛,甚至連Hopper和已有6年歷史的Ampere架構產品在雲端都已售罄。

在產品迭代節奏上,新舊交替正在無縫銜接。Blackwell架構正在強勁爬坡,而下一代Vera Rubin平台已經邁出實質性一步。克雷斯表示:

我們在本周早些時候已經向客戶運送了首批Vera Rubin樣品,並保持在今年下半年開始量產出貨的軌道上。我們預計每個雲模型建構者都將部署Vera Rubin。

除了先進元件(如高頻寬記憶體HBM)導致最新晶片架構供應持續緊張外,產能限制也溢出到了輝達傳統的遊戲業務。克雷斯表示:

儘管我們非常希望有更多額外的供應,但我們確實認為在接下來的幾個季度裡(遊戲業務供應)將會非常緊張。

輝達2026財年第四財季電話會議實錄,全文翻譯如下(AI工具輔助):

公司參會人員 Colette Kress,執行副總裁兼首席財務官 Jensen Huang(黃仁勳),創始人、總裁兼首席執行長 Toshiya Hari,投資者關係與戰略財務副總裁

其他參會人員(分析師) Aaron Rakers,富國銀行 Antoine Chkaiban,New Street Research Atif Malik,花旗銀行 Ben Reitzes,Melius Research CJ Muse,Cantor Fitzgerald & Co. Harlan Sur,摩根大通 Jim Schneider,高盛公司 Joseph Moore,摩根士丹利 Mark Lipacis,Evercore ISI Stacy Rasgon,伯恩斯坦研究公司 Tim Arcuri,瑞銀集團 Vivek Arya,美銀美林

會議陳述

接線員 下午好。我是莎拉,今天將擔任您本次會議的接線員。此時,我想歡迎大家參加輝達第四季度盈利電話會議。所有線路均已靜音,以防止任何背景噪音。

發言人致詞後,將進行問答環節。(接線員提示) 謝謝。Toshiya Hari,您可以開始會議了。

Toshiya Hari 謝謝。 大家下午好,歡迎參加輝達2026財年電話會議。今天與我一起代表輝達參會的有總裁兼首席執行長黃仁勳(Jensen Huang),以及執行副總裁兼首席財務官科萊特·克雷斯(Colette Kress)。我們的會議正在輝達投資者關係網站上進行即時網路直播。在討論2027財年財務業績的電話會議之前,本次網路直播將提供重播。

今天會議的內容是輝達的財產。未經我們事先書面同意,不得複製或轉錄。在本次會議中,我們可能會根據當前的預期做出前瞻性陳述。這些陳述受到許多重大風險和不確定性的影響,我們的實際結果可能會有實質性差異。

關於可能影響我們未來財務業績和業務的因素的討論,請參閱今天收益發佈中的披露內容、我們最新的10-K和10-Q表格,以及我們可能向美國證券交易委員會提交的8-K表格報告。我們所有的陳述都是基於截至今日(2026年2月25日)目前可獲得的資訊做出的。除法律要求外,我們不承擔更新任何此類陳述的義務。在本次會議中,我們將討論非公認會計準則(Non-GAAP)的財務指標。

您可以在我們網站上發佈的CFO評論中,找到這些非公認會計準則財務指標與公認會計準則(GAAP)財務指標的調節表。接下來,我將把會議交給科萊特。

Colette Kress 謝謝,Toshiya。我們又交付了一個出色的季度,在營收、營業利潤和自由現金流方面均創下歷史新高。

總營收達到680億美元,同比增長73%,較第三季度進一步加速。環比增長也創下紀錄,我們的資料中心營收增加了110億美元,客戶群體日益多樣化且不斷擴大,包括雲服務提供商、超大規模計算企業、AI模型製造商、企業和主權國家。我們在資料中心規模上進行極致協同設計的Blackwell架構需求持續增強,除了訓練之外,推理部署也在不斷增長。向加速計算的轉型,以及AI在現有超大規模工作負載中的普及,繼續推動著我們的增長。

建立在越來越智能和多模態模型基礎上的代理式(Agentic)和物理AI應用,正開始推動我們的財務表現。從全年來看,資料中心創造了1940億美元的營收,同比增長68%。自2023財年ChatGPT問世以來,我們的資料中心業務規模已經擴大了近13倍。展望未來,我們預計2026自然年內各季度的營收都將實現環比增長,超出我們去年分享的5000億美元Blackwell和Rubin營收機會的預期。

我們相信,我們已經準備好庫存和供應承諾來滿足未來的需求,包括延續到2027自然年的出貨量。每個資料中心都受到電力的限制。鑑於這些限制以及最大化AI工廠營收的需求,客戶會基於每瓦性能做出關鍵的架構決策。SemiAnalysis近期宣佈輝達為“推理之王”,因為InferenceX的最新結果鞏固了我們在推理領域的領導地位:與非網格(off-grid)方案相比,GB300和NVL72實現了高達50倍的每瓦性能提升,以及降低35倍的每Token成本。

對CUDA軟體的持續最佳化,使得我們在短短四個月內就讓GB200 NVL72的性能提升了高達5倍。輝達提供了極低的每Token成本,而在輝達上運行的資料中心能產生極高的營收。我們的創新步伐,尤其是在我們這樣的規模下,是無與倫比的。憑藉接近200億美元的年度研發預算,以及我們在計算和網路、晶片、系統、演算法和軟體之間進行極致協同設計的能力,我們打算在每一代產品中都實現每瓦性能的X倍飛躍,並在長期內擴大我們的領導地位。

第四季度資料中心營收為620億美元,同比增長75%,環比增長22%,這主要得益於Blackwell和Blackwell Ultra產能爬坡的持續強勁勢頭。由於對輝達基礎設施的高需求,即使是Hopper以及許多基於六年前Ampere架構的產品在雲端也已售罄。自我們的Grace Blackwell NVL72系統發佈以來,已經過去了近一年。如今,主要雲服務提供商、超大規模計算企業、AI模型製造商和企業已部署並消耗了近9吉瓦(gigawatts)的基於Blackwell的基礎設施。

網路業務是我們資料中心規模基礎設施產品的基石,本季度表現突出,創造了110億美元的營收,同比增長超過3.5倍。對我們向上擴展(scale-up)和向外擴展(scale-out)技術的需求達到了創紀錄的水平,兩者均實現了兩位數的環比增長,這得益於NVLink、Spectrum-X乙太網路和InfiniBand的強勁採用。在同比基礎上,增長主要由NVLink 72向上擴展交換機推動,因為Grace Blackwell系統約佔該季度資料中心營收的三分之二。NVLink向上擴展架構徹底改變了計算,並展示了在超級電腦的所有晶片和全端上進行極致協同設計的力量。

在第四季度,我們宣佈將使AWS採用NVLink技術與其定製晶片進行整合。隨著客戶致力於將分佈式資料中心統一為整合的千兆級AI工廠,我們的Spectrum-X乙太網路向上擴展和橫向擴展網路勢頭強勁。從全年來看,我們的網路業務營收超過310億美元,與我們收購Mellanox的2021財年相比增長了10倍以上。我們的需求情況廣泛、多樣,並正在向聊天機器人以外的領域擴展。

首先,發生了一場從傳統機器學習向生成式AI的根本性平台轉變。隨著超大規模計算企業將海量的傳統工作負載(包括搜尋、廣告生成和內容推薦系統)升級為生成式AI,強有力的投資回報率(ROI)證據正在鼓勵我們最大的客戶加快其資本支出。例如,在Meta,其生成式(Gen / Llama)模型的進步使其Facebook上的廣告點選率增加了3.5%,Instagram上的轉化率提高了1%以上,轉化為有意義的營收增長。借助同樣的輝達基礎設施,Meta的超級智能實驗室可以訓練和部署其前沿的代理式AI系統。前沿代理系統已達到一個拐點。

Claude Code、Claude Cowork以及OpenAI Codex已經實現了有用的智能。其採用率正在飆升,並且Token的生成是盈利的,這極大地推動了擴大計算規模的緊迫性。計算能力直接轉化為智能和營收增長。分析師對排名前五的雲服務提供商和超大規模計算企業(他們合計約佔我們資料中心營收的50%多一點)2026年資本支出的預期,自年初以來已上調了近1200億美元,正接近7000億美元。

我們繼續預計,傳統資料中心工作負載向GPU加速計算的過渡,以及利用AI來增強當今超大規模工作負載的趨勢,將貢獻我們長期市場機遇的一半左右。每個國家都會建設和營運其部分AI基礎設施,就像今天的電力和網際網路一樣。在2026財年,我們的主權AI業務同比增長了兩倍多,超過300億美元,主要由位於加拿大、法國、荷蘭、新加坡和英國的客戶推動。從長遠來看,隨著各國根據其GDP按比例在AI上進行支出,我們預計主權AI的機會至少將與AI基礎設施市場的增長保持同步。

雖然美國政府批准了向中國客戶提供少量H200產品,但我們尚未產生任何收入,並且我們不知道是否會允許任何進口進入中國。我們在中國的競爭對手在近期IPO的支援下取得了進展,從長遠來看有潛力顛覆全球AI產業的結構。為了維持其在AI計算領域的領導地位,美國必須吸引每一位開發者,並成為所有商業企業(包括中國企業)的首選平台。我們將繼續與美國和中國政府接觸,並倡導美國在全球競爭的能力。

上個月我們在CES上推出了Rubin平台,包含六款新晶片:Vera CPU、Rubin GPU、NVLink 6交換機、ConnectX-9 SuperNIC、BlueField-4 DPU和Spectrum-6乙太網路交換機。與Blackwell相比,該平台能在使用四分之一GPU數量的情況下訓練MOE模型,並將推理Token成本降低多達10倍。本周早些時候,我們已經向客戶發運了首批Vera Rubin樣品,我們有望在今年下半年開始量產出貨。基於其模組化、無需理線(table-free/cable-free)的設計,Rubin將提供比Blackwell更好的彈性和可維護性。我們預計每個雲模型建構者都將部署Vera Rubin。

接下來看遊戲業務。遊戲業務營收為37億美元,同比增長47%,這得益於對Blackwell的強勁需求和供應的改善。GeForce RTX是PC遊戲玩家、創作者和開發者的領先平台。在第四季度,我們增加了幾項新技術和改進,包括使用AI將遊戲視覺效果提升到新水平的DLSS 4.5,即使在運動中也能帶來令人難以置信的清晰圖形的G-SYNC Pulsar,以及在領先的AI PC框架中將大語言模型(LLM)推理速度提升35%。展望未來,儘管終端對我們產品的需求依然強勁,且管道庫存水平健康,但我們預計供應限制將成為第一季度及以後的阻力。

專業可視化業務營收首次突破10億美元大關,達到13億美元,同比增長159%,環比增長74%。在本季度,我們推出了配備72GB高速記憶體的RTX Pro 5000 Blackwell工作站,專為運行大語言模型(LLM)和代理式工作流的AI開發者設計。

汽車業務營收為6.04億美元,同比增長6%,這得益於對自動駕駛解決方案的強勁需求。在CES上,我們推出了Alpamayo,這是世界上首個面向推理視覺語言動作模型、模擬藍圖和資料集的開放產品組合,賦予了車輛“思考”的能力。首款搭載基於輝達Drive系統打造的Alpamayo的乘用車——新款梅賽德斯-奔馳CLA,即將上路。

物理AI已經到來,在2026財年已經為輝達貢獻了超過60億美元的營收。無人駕駛計程車(Robotaxi)的出行量正在呈指數級增長,Waymo、特斯拉、優步(Uber)、文遠知行(WeRide)和Zoox以及許多其他公司的商業車隊預計將在下個十年內從2025年的數千輛擴大到數百萬輛,創造一個有望產生數千億美元營收的市場。這一擴張將要求計算量呈數量級增長,目前各大主要OEM和服務提供商都在輝達的平台上進行開發。

我們通過新的NVIDIA Cosmos和Isaac Group、開放模型、框架以及輝達驅動的機器人和自主機器,繼續推進機器人技術的開發,合作夥伴包括波士頓動力(Boston Dynamics)、卡特彼勒(Caterpillar)、Franka Robotics、LG電子和Neuro Robotics等領先企業。為了加速工業物理AI的採用,我們還宣佈與達索系統(Dassault Systèmes)、西門子和新思科技(Synopsys)達成新的擴展合作夥伴關係,將輝達的AI基礎設施、Omniverse數字孿生、世界模型和CUDA-X庫帶給數以百萬計的研究人員、設計師和工程師,以建構世界工業體系。

讓我們來看看損益表的其他部分。GAAP毛利率為75%,Non-GAAP毛利率為75.2%,隨著Blackwell產能的持續爬坡,實現了環比增長。GAAP營運支出環比增長16%,Non-GAAP營運支出環比增長21%,這主要與新產品發佈以及計算和基礎設施成本有關。第四季度的Non-GAAP實際稅率為15.4%,低於我們對該季度的預期,主要是由於一次性稅收優惠的影響。

庫存環比增長8%,同時由於我們戰略性地鎖定庫存和產能以滿足未來幾個季度之外的需求,採購承諾也大幅增加。這比平時看得更遠,反映了我們擁有的更長遠的視線需求。雖然我們預計高級架構的供應緊張情況將持續存在,但憑藉我們的規模、龐大的供應鏈以及長期合作伙持續為我們提供的良好服務,我們對抓住前方增長機會的能力充滿信心。

我們在第四季度產生了350億美元的自由現金流,在2026財年產生了970億美元的自由現金流。在這一年中,我們以股票回購和分紅的形式,向股東返還了410億美元,佔自由現金流的43%。我們將繼續對技術和生態系統進行投資,以培育市場發展,推動長期增長,並最終產生優於市場或同行的總股東回報。重要的是,在投資方面,我們將繼續執行戰略性和紀律嚴明的流程,並繼續致力於向股東返還資本。

現在讓我談談第一季度的業績展望。從本季度開始,我們將在Non-GAAP業績中包含基於股票的薪酬支出(SBC)。股票薪酬是我們薪酬計畫的基礎組成部分,旨在吸引和留住世界級的人才。

首先看營收。總營收預計為780億美元,上下浮動2%。我們預計大部分增長將由資料中心推動。與上季度一致,我們在展望中沒有假設來自中國的任何資料中心計算營收。GAAP和Non-GAAP毛利率預計分別為74.9%和75%,上下浮動50個基點。對於全年,我們預計毛利率將保持在75%左右的中位水平。隨著我們為Vera Rubin的過渡做準備,我們將隨時向您通報最新進展。

GAAP和Non-GAAP營運支出預計分別約為77億美元和75億美元,其中包括19億美元的股票薪酬支出。對於全年,我們預計Non-GAAP營運支出將同比增長40%左右(low 40s),因為我們將繼續投資於不斷擴大的機會領域。對於整個2027財年,排除任何離散項目和稅務環境的重大變化,我們預計GAAP和Non-GAAP稅率將在17%到19%之間。

接下來,我將把電話轉交給黃仁勳,我想他有幾句話要對我們說。

Jensen Huang(黃仁勳) 本季度,我們顯著深化並擴大了與領先的前沿模型製造商的合作夥伴關係。最近我們慶祝了OpenAI發佈的GPT 5.3 Codex,它是使用Grace Blackwell NVLink72系統進行訓練和推理的。GPT 5.3 Codex可以承擔涉及研究、工具使用和複雜執行的長期運行任務。5.3 Codex已在輝達內部廣泛部署,我們的工程師非常喜歡它。我們繼續與OpenAI推進合作協議,並相信我們已接近達成。我們對與OpenAI正在進行的合作感到興奮,這是一家十年難遇的公司,我們很榮幸從他們成立的第一天起就與之合作。

Meta超級智能實驗室正在以閃電般的速度擴大規模。上周我們宣佈,Meta正在部署數以百萬計的Blackwell和Rubin GPU、輝達CPU以及Spectrum-X乙太網路用於訓練和推理。

本季度,我們宣佈了與Anthropic的合作夥伴關係,並對其投資了100億美元。Anthropic將在Grace Blackwell和Vera Rubin系統上進行訓練和推理。Anthropic的Claude Cowork代理平台是革命性的,它打開了企業級AI採用的閘門。在Claude Cowork和OpenAI Codex的推動下,計算需求正在飆升,代理式AI的“ChatGPT時刻”已經到來。

憑藉橫跨Anthropic、Meta、OpenAI和xAI的合作關係,輝達在每一朵雲上的廣泛部署,以及我們從頭開始建構全端AI基礎設施或在雲端為他們提供支援的能力,我們處於一個獨特的地位,能夠在前沿模型建構者的每個階段(訓練、推理和AI工廠的橫向擴展)進行合作。

最後,我們最近與Grok簽訂了一項非獨家許可協議,以獲取其低延遲推理技術,並歡迎一個由傑出工程師組成的團隊加入輝達。就像我們之前對Mellanox所做的那樣,我們將利用Grok的創新來擴展輝達的架構,以實現AI基礎設施性能和價值的新高度。我們期待在下個月的GTC大會上分享更多資訊。

好的,交回給你們。我們現在進入問答環節。接線員,請接入問題。

問答環節

接線員 (操作提示)您的第一個問題來自美國銀行證券(Bank of America Securities)的Vivek Arya。您的線路已接通。

Vivek Arya 感謝接受我的提問。我想你提到過,你們現在對2027自然年的增長也有了可見性,你們的採購承諾似乎也反映了這種信心。 但仁勳,我很好奇,當你看你們的頂級雲客戶時,今年雲行業的資本支出接近7000億美元,許多投資者擔心明年很難在這個水平上繼續增長,而且對他們中的一些人來說,現金流產生能力也受到壓縮。我知道你對你們的產品路線圖、採購承諾等方面非常有信心,但你對客戶繼續增加資本支出的能力有多大信心?如果他們的資本支出沒有增長,輝達還能在這個框架內找到增長點嗎?謝謝。

Jensen Huang(黃仁勳) 我對他們現金流的增長充滿信心,原因非常簡單:我們現在已經看到了代理式AI(Agentic AI)的拐點,以及代理在世界各地和各類企業中的實用性。正因如此,你看到了令人難以置信的計算需求。

在這個AI的新世界裡,計算即收入。沒有計算,就沒有辦法生成Token;沒有Token,就沒有辦法實現收入增長。因此,在這個AI的新時代,計算等於收入。我很確定,現在隨著Codex和Claude Code投入生產使用,圍繞Claude Cowork的興奮感,加上對OpenAI系統及其企業版的熱情,以及所有企業級ISV(獨立軟體開發商)目前都在其工具平台上建構代理式系統——我非常確定,此時我們正處於拐點。我們已經到達了這個轉折點,我們正在生成能夠為客戶帶來生產力、為雲服務提供商帶來利潤的Token。

所以它的簡單邏輯、也是簡單的思考方式是:計算方式已經改變了。過去是軟體運行在電腦上,使用適量的電腦,大概每年3000億或4000億美元的資本支出;現在這已經轉向了AI。而在AI領域,為了生成Token,你需要計算能力,這直接轉化為增長,直接轉化為收入。

接線員 您的下一個問題來自摩根士丹利的Joseph Moore。您的線路已接通。

Joseph Moore 太棒了,謝謝。祝賀你們取得的業績。 你談到了你們對Anthropic以及潛在的對OpenAI核心進行的一些戰略投資,同時你們也有英特爾、諾基亞、新思科技等合作夥伴,顯然你們處於一切的中心。你能談談這些投資的作用嗎?你如何看待資產負債表作為一種工具,以此來擴大輝達在生態系統中的地位並參與到這種增長中去?

Jensen Huang(黃仁勳) 正如你所知,在輝達一切的核心從根本上說就是我們的生態系統,這就是所有人喜歡我們業務的原因——我們生態系統的豐富性。世界上幾乎所有的初創公司都在研究輝達的生態系統,在輝達的平台上進行開發。

我們遍佈每一朵雲,我們遍佈每一個本地(on-prem)資料中心,我們遍佈全球的邊緣裝置和機器人系統。成千上萬的原生AI企業建立在輝達之上。隨著我們處於這個新的計算時代、這個新的計算平台轉變的開端,我們希望抓住這個巨大的機會,讓每個人都使用輝達。每個人、所有東西都已經建構在CUDA之上。因此,我們從一個非常棒的起點出發。

隨著我們建構整個AI生態系統——無論是針對語言的AI,還是物理AI、物理學AI、生物學AI、機器人技術或製造業AI——我們希望所有這些生態系統都建構在輝達之上。對我們來說,這是在整個技術堆疊中投資生態系統的一個極好的機會。

我們今天的生態系統也比過去更加豐富。我們過去主要是一個基於GPU的計算平台,但現在我們是一家計算AI基礎設施公司。我們在各個方面都有計算平台,從計算到AI模型,到網路,再到我們的DPU,所有這些之上都有計算棧。正如我之前提到的,無論是在企業中,還是在製造業、工業、科學或機器人領域,每一個生態系統都有不同的技術堆疊,我們希望確保繼續對生態系統進行投資。因此,我們的投資非常明確、具有戰略性地聚焦於擴大和深化我們的生態系統覆蓋範圍。

接線員 您的下一個問題來自摩根大通的Harlan Sur。您的線路已接通。

Harlan Sur 下午好,感謝接受我的提問。網路業務在你們整體資料中心業務中的佔比繼續上升。在2026財年中,你們網路業務的同比增速每個季度都在加快。正如你們提到的,第四季度同比增長3.6倍,顯然得益於你們向上擴展(scale-up)和橫向擴展(scale-out)網路產品組合的實力。

我記得去年上半年,你們在Spectrum-X乙太網路交換平台上的年化運行率(run rate)約為100億美元。看起來去年下半年這個數字可能已經躍升至110億到120億美元左右。仁勳,看看你們的訂單簿,特別是隨著Spectrum-XGS以及即將推出的102T Spectrum 6交換平台的發佈,目前Spectrum的運行率趨勢如何?你如何看待今年結束時的情況?

Jensen Huang(黃仁勳) 正如你所知,我們將自己視為一家AI基礎設施公司。AI計算基礎設施包括CPU、GPU,而我們發明了NVLink,將單個計算節點“向上擴展(scale up)”成一個巨大的計算伺服器機架。我們發明了機架級電腦的概念。我們交付的不是單個計算節點,而是整機架的電腦。

然後,這個NVLink交換機的向上擴展系統,會使用Spectrum-X和InfiniBand進行“橫向擴展(scale out)”——這兩種方式我們都支援。更進一步,我們還使用Spectrum-X進行跨資料中心的擴展。因此,我們思考網路的方式實際上是一種延伸,我們開放性地提供一切,以便人們可以決定如何在不同的規模下進行混合和匹配,或者按照他們希望的任何方式將其整合到他們定製的資料中心裡。

但歸根結底,這都是我們平台的巨大組成部分。NVLink的發明真正為我們的網路業務注入了渦輪動力。每個機架都配有九個網路交換節點,每個節點內部有兩個晶片。在未來,它們會有更多。

所以,我們每個機架處理的交換量確實令人難以置信。我們現在也是全球最大的網路公司。如果你看看乙太網路領域,我們大約兩年前進入了乙太網路交換市場。我認為我們今天很可能已經是世界上最大的乙太網路網路公司,肯定很快就會名副其實。

Spectrum-X乙太網路對我們來說是一個本壘打(巨大成功)。但我們對人們想要採用的任何網路方式持開放態度。有些人就是非常喜歡InfiniBand的低延遲和向上擴展能力,當然我們會繼續支援這一點;而有些人喜歡基於乙太網路在整個資料中心整合他們的網路。我們創造了一種乙太網路功能,將乙太網路與資料中心處理人工智慧的方式相結合,我們在這一點上做得非常出色。

我們的Spectrum-X性能確實證明了這一點。當建立一個100億或200億美元的AI工廠時,在資料中心網路效率和利用率上那怕只有10%(很容易達到20%)的差異,這也將轉化為實打實的真金白銀。所以,輝達的網路業務真的、真的增長得非常快。我認為這只是因為我們在建構AI基礎設施方面非常有效,而且AI基礎設施業務的增長快得驚人。

接線員 您的下一個問題來自Cantor Fitzgerald的CJ Muse。您的線路已接通。

CJ Muse 下午好。感謝接受提問。鑑於大上下文窗口應用、Grok以及可能需要加入特定解碼解決方案的情況,我很好奇我們該如何看待你們未來的路線圖。 我們是否應該預期,根據工作負載或特定客戶進行定製化的晶片設計(Customized Silicon)將越來越成為輝達的重點?特別是借助於你們向“裸片互連/Chiplet架構(die-to-die/dial-in)”的轉變?非常感謝。

Jensen Huang(黃仁勳) 不,我們不這樣認為。大家都應該希望儘可能地推遲使用裸片互連(die-to-die)。

原因在於,每次你跨越一個裸片互連介面,你都增加了一道介面。每次跨越介面,你就會不可避免地增加延遲,無謂地增加功耗。我們並不排斥裸片互連技術,實際上我們已經在使用了,但我們儘量只有在別無選擇的情況下才使用它。所以,如果你看看Grace Blackwell架構和Rubin架構,我們使用的是兩塊達到光刻掩模極限(reticle-limited)的巨型晶片,並且將它們結合在一起,這樣減少了架構跨越。

這種互連(介面)的損耗會在競爭對手的架構效能中顯現出來。說到輝達,人們常稱之為我們的軟體優勢,但究竟那裡是軟體的功勞,那裡是架構的功勞,其實很難區分。我們的軟體之所以高效,是因為我們的架構太優秀了。

CUDA架構毫無疑問比市面上的任何計算架構都更有效、更高效,能提供更高的每瓦浮點運算性能,這是因為我們的架構設計方式。

關於我們如何看待Grok以及低延遲解碼器,我有一些很棒的想法,希望能GTC大會上與你分享。但最簡單的理念是:得益於CUDA,我們的基礎設施具有令人難以置信的多功能性,我們將繼續保持這一點,我們所有的GPU在架構上都是相容的。這意味著,當我今天致力於為Blackwell最佳化模型時,所有這些針對最佳化軟體棧和新模型所付出的努力和投入,也會使Hopper受益,也會使Ampere受益。這就是為什麼在我們將其部署到世界各地數年後,A100依然感覺很新且性能依然出色的原因。

架構相容性讓我們做到了這一點。它讓我們能夠在軟體工程和最佳化上投入巨資,因為我們知道,我們在雲端、本地、以及任何地方運行的各代GPU架構的整個安裝基數都將從中受益。

我們將繼續這樣做,它讓我們能夠延長產品的使用壽命,賦予我們創新的靈活性和速度。這一切為我們的客戶轉化為性能,並非常重要的是——轉化為每美元性能和每瓦性能。所以,關於我們將與Grok做什麼,你來GTC大會就知道了。但我們將做的是,用Grok作為加速器來擴展我們的架構,這與我們當年用Mellanox擴展輝達架構的方式非常相似。

接線員 下一個問題來自伯恩斯坦研究公司(Bernstein Research)的Stacy Rasgon。您的線路已接通。

Stacy Rasgon 大家好,謝謝接受我的提問。Colette,我想深入探討一下關於全年環比增長的預期。本季度你們資料中心業務環比增長了超過100億美元,而業績指引似乎暗示這種勢頭將繼續。 隨著我們經歷這一年,尤其是當Rubin在這個間隔期內開始爬坡時,你如何看待這一趨勢?Blackwell帶來了非常大規模的環比增長加速,當我們過渡到Rubin時,我們是否應該期待類似的情況? 另外,我也希望你能談談對遊戲業務的預期。我理解記憶體限制和其他一切問題。你認為遊戲業務在2027財年仍能實現同比增長嗎,還是因為記憶體問題將面臨更大壓力?請回答這兩個問題。謝謝。

Colette Kress 謝謝,Stacy。讓我先從未來的營收開始說起。我們試圖逐個季度來看待營收情況。

當思考全年時,毫無疑問我們仍將銷售和提供Blackwell,可能與此同時我們也看到Vera Rubin推向市場。這是一個非常棒的架構,能立刻幫助他們快速搭建系統。我們已經在多個不同客戶中規劃了許多不同的訂單來提供這款產品。目前還無法確定Vera Rubin在下半年早期的爬坡能佔多少比例,但毫無疑問,對其的需求和興趣是非常強烈的。

我們預期幾乎每個客戶都會購買Vera Rubin。問題僅僅在於,我們推向市場的速度有多快,以及他們能在各自的資料中心裡多快將其搭建起來。這是你的第一部分問題。

第二部分是關於我們的遊戲業務。儘管我們非常希望能有更多的供應,但我們確實認為在接下來的幾個季度裡,供應將會非常緊張。如果到年底情況有所改善,那麼從同比增長的角度來看還是有機會的。但目前我們判斷還為時過早,一旦有了更明確的消息,我們會盡快回覆你。

接線員 您的下一個問題來自花旗銀行的Atif Malik。您的線路已接通。

Atif Malik 感謝接受我的提問。仁勳,我很好奇你是否可以談談,隨著越來越多的AI投資流向推理工作負載,CUDA發揮的重要作用。

Jensen Huang(黃仁勳) 如果沒有CUDA,我們在推理方面將不知所措。整個技術堆疊——從我們幾年前推出的TensorRT LLM(這仍然是世界上性能最高的推理棧)開始——為了在NVLink上對其進行最佳化,我們需要發現並行明建立在CUDA之上的新平行化演算法,以分配工作負載並進行推理,從而充分利用跨NVLink 72的聚合頻寬。

NVLink 72使我們能夠實現跨代級的、50倍的單位能耗性能提升。這是令人難以置信的領先優勢,也是明智之舉。NVLink 72是一項偉大的發明,實現起來非常困難。發明這種交換技術、將交換機解耦、建構系統機架等等,所有這一切我們都是在眾目睽睽之下完成的,大家都知道這對我們來說有多難。但結果令人難以置信:每瓦性能提升了50倍,每美元性能提升了35倍。因此,推理能力的飛躍是極其驚人的。

非常重要的一點是,大家要認識到,現在對我們的客戶來說,推理(Inference)就等於收入。因為智能代理(Agents)生成了如此多的Token,而且結果非常有效。當智能代理編寫程式碼時,它會生成幾千、幾萬甚至幾十萬個Token,因為它們會運行幾分鐘到幾個小時。這些代理式系統會衍生出不同的代理作為團隊協同工作。正在生成的Token數量真的、真的呈指數級增長。

所以我們需要以更快的速度進行推理。當你以更快的速度進行推理,並且這些Token中的每一個都以美元計價時,這就直接轉化為收入。

因此,對我們的客戶而言,推理性能就等於收入。對於資料中心來說,每瓦推理的Token數直接轉化為雲服務提供商(CSP)的收入。原因是每個人的電力都受限。無論你擁有多少資料中心,無論是100兆瓦還是1吉瓦,都有電力限制。所以,擁有最佳每瓦性能的架構就能轉化為收益,因為每瓦能產出的Token數——也就是每個Token都被計價後——轉化為每瓦的美元產出。在千兆瓦等級下,這直接決定了收入規模。

你可以看到,現在每一個CSP、每一個超大規模企業都明白這一點:資本支出轉化為計算力。擁有正確架構的計算力意味著收入最大化,計算等於收入。如果現在不投資產能、不投資計算力,就不可能實現收入增長。我認為大家都明白這一點。選擇正確的架構極其重要,這不僅僅具有戰略意義,它直接影響他們的盈利能力,選擇正確的架構——即擁有最佳每瓦性能的架構——真的意味著一切。

接線員 您的下一個問題來自Melius Research的Ben Reitzes。您的線路已接通。

Ben Reitzes 你好,謝謝。首先讓我對你們在Non-GAAP業績中包含股票薪酬的做法表示讚賞,我認為這是一個很棒的舉措。但這並不是我的問題。

我的問題是關於毛利率及其在長期內維持在75%左右(mid-70s)的可持續性。供應可見性延伸到2027自然年,我們是否能從中解讀出,在此之前這種毛利率是可持續的?另外,仁勳,那之後呢?你們是否能展示在記憶體消耗方面的創新,讓我們對毛利率長期保持在這一水平的能力感到更加安心?謝謝。

Jensen Huang(黃仁勳) 影響我們毛利率最重要的一點,實際上是我們能否為客戶交付代際的性能飛躍。這是最單一、也是最重要的事情。

如果我們能夠實現每瓦性能的代際飛躍,遠遠超過摩爾定律的步伐;如果我們能夠提供極高的每美元性能,遠超我們系統的成本和定價,那麼我們就能繼續維持我們的毛利率。這是一個最簡單、也是最重要的概念。

我們之所以發展如此之快,首先是因為世界經歷了這幾個拐點後對Token的需求已經完全呈指數級增長。我想我們都看到了這一點。以至於連我們部署在雲端六年前的GPU都被完全消耗殆盡,而且定價還在上漲。所以我們知道,現代軟體開發方式所需的計算量正呈指數級增長。

因此我們的戰略是,每年交付一個完整的AI基礎設施方案。今年,我們引入了六款新晶片(Rubin平台),下一代我們也會推出許多新晶片。每一代產品,我們都致力於提供X倍的每瓦性能和每美元性能飛躍。這種步伐,加上我們進行極致協同設計的能力,使我們能夠將這種價值和收益傳遞給客戶。只要這關乎我們交付的價值,這就是最至關重要的事情。

接線員 您的下一個問題來自New Street Research的Antoine Chkaiban。您的線路已接通。

Antoine Chkaiban 你好,非常感謝接受提問。我想問關於“太空資料中心”的問題,你們的一些客戶正在考慮這個想法。 你認為它的可行性有多高?時間表是怎樣的?現在的經濟效益如何?你認為這會隨著時間如何演變?謝謝。

Jensen Huang(黃仁勳) 嗯,今天的經濟效益還很差,但這會隨著時間的推移而改善。正如你所知,太空中的工作方式與地球上截然不同。太空中有豐富的能源,需要巨大的太陽能電池板,但在太空中有著充足的空間。

在散熱方面,太空確實很冷,但是沒有空氣流動。所以唯一能散熱的方式就是通過傳導。你需要製造的散熱器尺寸相當大。液冷顯然是不可能的,因為它很重而且會結冰。所以我們在地球上使用的方法與在太空中採用的方法會有所不同。但有許多不同的計算問題,確實很適合在太空中進行處理。

所以,輝達已經有了世界上首個太空GPU,Hopper目前就在太空中。GPU在太空中最好的用例之一是成像。在太空中,利用光學技術和人工智慧,能夠以極高的解析度進行成像,能夠進行不同角度投影的計算,能夠提高解析度並進行降噪,擁有能在極高解析度和極大尺度下進行快速成像的視覺能力。要在地球上通過傳輸數PB(petabytes)的成像資料來完成這項工作是很困難的。直接在太空中處理會更容易。

你可以忽略所有收集到的並在處理中發現無用的資料,直到你看到有趣的東西再回傳。因此,人工智慧在太空中將會有非常出色、非常有趣的應用。

接線員 您的下一個問題來自Evercore ISI的Mark Lipacis。您的線路已接通。

Mark Lipacis 你好,感謝接受我的提問。我想繼續探討關於在簡報中提到的收入多元化的問題。我相信Colette你提到過,超大規模計算企業佔了你們收入的50%以上,但業務增長卻是由其餘的資料中心客戶主導的。我只是想澄清一下,確保我理解對了。

這是否意味著非超大規模客戶的增速更快?如果是這樣,你能否幫助我們理解一下,非超大規模客戶在做些什麼不同的事情?他們是在做與超大規模客戶不同的事情,還是在不同規模下做同樣的事情?你是否認為這種趨勢會持續下去?你是否預計你們的客戶群會演變到某個階段,使得非超大規模客戶成為你們業務的更大組成部分?謝謝。

Colette Kress 好的,看看我們能否解答這個問題。當你想到我們提到的前五大CSP(雲服務提供商)和超大規模計算企業時,他們目前約佔我們總收入的50%。但在除此之外,還有各種類型的公司組織形式,具有極強的多樣性,這涵蓋了AI模型建構商、企業使用者、超級電腦構以及我們的主權AI客戶。此外還有很多其他不同的領域。你說的沒錯。

這也是一個增長非常快的領域。我們不僅在所有各種雲提供商平台上佔據強勢地位,而且現在也在世界各地看到了極端多樣化的客戶群體。能夠看到這種多樣性並有能力服務於所有這些不同的群體,將極大地使我們受益。看看仁勳是否想再補充一點。

Jensen Huang(黃仁勳) 是的,這是我們的生態系統建立在CUDA之上所擁有的優勢之一。

我們是唯一一個進駐每一朵雲的加速計算平台,可以通過每一個電腦製造商獲得,並且在邊緣側可用。我們現在還在培育電信領域。很顯然,未來的無線電都將是由AI驅動的無線電,未來的無線網路也將是一個計算平台。這是不言而喻的定論,但總得有人去發明相關的技術來實現它。我們建立了一個名為Aerial的平台來做這件事。我們的技術搭載在幾乎每一個機器人、每一輛自動駕駛汽車中。CUDA能夠兼顧一方面通過GPU內的Tensor Core實現專用處理器的性能優勢,另一方面又具備極強的靈活性,這使我們能夠解決從語言問題、電腦視覺問題、機器人問題,到生物學問題、物理問題以及幾乎所有種類的AI和計算演算法問題。

因此,客戶群的多樣性是我們擁有的最大優勢之一。第二點當然是,如果沒有我們自己的生態系統,即使我們的處理器是可程式設計的,如果我們不培育生態系統(就像我們今天談論投資未來生態系統並繼續強化生態系統那樣),我們很難突破僅僅在別人的生態系統中贏得幾個設計訂單(design wins)的侷限。由於我們建立的這個平台,我們可以非常自然地增長並擴大我們的生態系統。

最後非常重要的一點是,我們與OpenAI、Anthropic、XAI和Meta建立的合作夥伴關係。當然,還有世界上幾乎所有的開放原始碼專案。Hugging Face上有150萬個AI模型。所有這些都在輝達CUDA上運行。如果把所有的開源模型加起來,可能代表著世界上第二大的模型集合(OpenAI是最大的,所有開放原始碼的集合可能是第二大的)。輝達能夠運行所有這一切,使得我們的平台具有極強的可替代性(fungible)、極其易用,並且值得放心投資。這創造了客戶的多樣性和平台的多樣性,並且因為我們支援全球的生態系統,所以能夠在每個國家/地區使用。

接線員 您的下一個問題來自富國銀行的Aaron Rakers。您的線路已接通。

Aaron Rakers 你好,感謝接受提問。我想順著平台和極致協同設計的理念問一下。過去一個季度裡的一些新聞指出,輝達有能力或正在推動將Vera CPU作為獨立的解決方案推向市場。仁勳,我很好奇,在我們向前發展的過程中,Vera在架構演進中扮演了什麼重要的角色?這是由推理工作負載的激增或異構性所驅動的嗎?我很好奇你如何看待它對於輝達的發展,尤其是基於獨立CPU的形式。謝謝。

Jensen Huang(黃仁勳) 是的,謝謝提問。我會在GTC大會上告訴你更多細節。但從最高層面上講,我們在CPU架構上做出了與世界上其他CPU截然不同的根本性決策。它是唯一一款支援LPDDR5的資料中心CPU。它的設計初衷是專注於極高的資料處理能力。

原因在於,我們感興趣的大多數計算問題都是資料驅動的,人工智慧就是其中之一。而Vera的單線程性能與頻寬的比例非常出色。我們做出這些架構決策,是因為在AI的整個流水線和不同階段(在進行訓練之前,你必須進行資料處理),涵蓋了資料處理、預訓練,以及現在的後訓練階段。現在AI正在學習如何使用工具。

而許多工具的使用環境是在僅有CPU的環境中運行,或者在CPU與GPU加速相結合的環境中運行。Vera的設計旨在成為一款用於後訓練階段的卓越CPU。因此,在人工智慧整個流水線中的一些用例,包括了使用大量的CPU。我們既喜歡GPU,也同樣喜歡CPU。

當你像我們一樣將演算法加速到極限時,阿姆達爾定律(Amdahl's Law)表明,你需要非常非常快的單線程CPU。這就是為什麼我們把Grace架構建構得在單線程性能上極其出色的原因,而Vera的性能比那還要好得出奇。

接線員 您的下一個問題來自瑞銀集團的Tim Arcuri。您的線路已接通。

Tim Arcuri 非常感謝。 Colette,我想知道你能否談談關於資本部署的問題。我知道你們大幅提高了採購承諾規模,聽起來你們可能已經度過了投資高峰期,而且今年你們可能會產生大約1000億美元的現金。然而,不管業績有多好,股價似乎並沒有漲太多。所以我認為你們可能會覺得目前的價位是回購大量股票的一個相當不錯的價格。

我想知道你能否談談這個。問題是,為什麼不立下一個重大目標,在這裡進行一次大規模的股票回購呢?謝謝。

Colette Kress 謝謝你的提問。我們非常謹慎地審視我們的資本返還計畫。我們確信,我們能做的最重要的事情之一,就是真正支援擺在我們面前的宏大生態系統。這涵蓋了方方面面:從我們的供應商,到為確保供應鏈安全並幫助他們提升產能我們所需做的工作,一直延伸到在我們平台上開發AI解決方案的早期開發者。

因此,我們將繼續把這(投資生態)作為我們流程和戰略投資中非常重要的一部分。當然,我們也仍在回購我們的股票。我們也在繼續發放股息。我們將繼續在這一年中尋找合適的特定機會來進行這些回購。

接線員 您的最後一個問題來自高盛公司的Jim Schneider。您的線路已接通。

Jim Schneider 感謝接受我的提問。仁勳,你之前曾概述過,到2030年資料中心資本支出有可能達到3兆到4兆美元,這意味著增長率可能會加速,你也在接下來的季度指引中暗示了這一點。 我的問題是,你認為最有可能驅動這種拐點的關鍵應用有那些?是物理AI、代理式AI還是其他什麼?你仍然對3兆到4兆美元的市場預期感覺良好嗎?謝謝。

Jensen Huang(黃仁勳) 是的,讓我們退一步,從幾個不同的角度來推理一下。

首先,從第一性原理來看。未來開發軟體的方式是利用AI驅動的軟體。使用AI是由Token驅動的。我想大家都在談論代幣經濟學(Tokenomics),談論資料中心生成Token,推理的本質就是生成Token。我們在生成Token,剛才還談到了輝達的NVLink72如何使我們在單位能耗上以比上一代高出50倍的性能來生成Token。因此,在未來,Token生成幾乎處於所有與軟體和計算相關事務的中心位置。

回顧我們過去使用計算的方式,過去軟體所需的計算量,僅僅是未來所需的一小部分。AI已經來了,且不會倒退,AI只會變得越來越好。所以,如果你想一下,過去世界每年在經典計算上的投資大約是3000億到4000億美元。而現在AI到來了,所需的計算量比我們過去計算方式所需要的要高出一千倍。計算需求就是高出很多很多。只要我們繼續相信這其中有價值(我們稍後會談到這一點),世界就會投資於計算能力來生產這些Token。因此,世界所需的Token生成能力,遠遠不僅是7000億美元所能涵蓋的。

我相當有信心,從現在起,我們將繼續生成Token,我們將繼續投資計算能力。因為從根本上說,每家公司都依賴軟體,每個軟體都將依賴AI。因此,每家公司都會生產Token。這就是我稱它們為“AI工廠”的原因。如果你的公司身處雲資料中心,你擁有AI工廠為你的收入生成Token;如果你是一家企業級軟體公司,你將為你工具上的代理式系統生成Token;如果你是一家機器人製造商(自動駕駛汽車就是其最初的表現形式),你將擁有巨大的超級電腦(本質上就是AI工廠)來生成輸入到你汽車中的Token,成為它的AI大腦。然後你還必須把電腦放在汽車裡,持續不斷地生成Token。

所以,我們現在非常確定這就是計算的未來。

那麼,為什麼我們如此確定這就是計算的未來呢?原因在於我們過去製作軟體的方式是預先錄製的。所有的東西都是先驗捕捉好的。我們預編譯軟體,預先編寫內容,預先錄製視訊。但現在,一切都是即時生成的。當它即時生成時,它可以將人的背景、所處的場景、查詢的內容以及意圖都考慮在內,以生成這種被稱為AI(或代理式AI)的新型軟體的結果。因此,它所需的計算量遠遠、遠遠大於預先錄製好的。正如電腦擁有比預先錄製內容的DVD播放器多得多的計算能力一樣,人工智慧需要的計算能力也遠大於我們過去做軟體的方式。

關於計算可持續性的問題,首先在電腦科學層面,這就將是未來計算的方式。

其次在產業層面。歸根結底,所有公司都由軟體驅動,雲服務公司由軟體驅動;如果新軟體需要生成Token,且這些Token是可以變現的,那麼順理成章地,他們資料中心的建設將直接驅動他們的營收。計算驅動營收,我想他們都明白這一點,我認為外界也越來越多地開始明白這一點了。

最後,AI為世界創造的效益最終必須能轉化為收入。我們正親眼看著它發展,正如我們現在所處的階段,代理式AI已經到了一個拐點。這實際上就發生在過去的兩三個月裡。當然,在行業內部,我們看到這個趨勢有一段時間了,大概有六個月左右,但現在整個世界都已經覺醒,意識到了代理式AI的拐點。代理(Agents)超級聰明,它們正在解決實際問題。程式設計工作顯然現在是由代理式系統輔助的,我們輝達內部所有的程式設計師都在大量使用代理式系統,無論是Claude Code、OpenAI Codex,還是Cursor,經常取決於用例而三者並用。但他們擁有了代理和協同設計的工程夥伴來幫助他們解決問題。

你可以看到這幾家公司的營收在飆升。以Anthropic為例,我認為他們的營收在一年內增長了10倍,而且他們嚴重受限於產能,因為需求實在是令人難以置信。對Token的需求令人難以置信,Token生成率呈指數級增長。OpenAI也是一樣,他們的需求非常驚人。因此,他們能建立並上線的計算能力越多,他們的收入增長得就越快。

這又回到了我之前的觀點:推理就是收入,在這個新世界裡,計算等於收入。從很多方面來看,這就是為什麼我們說這是一場新的工業革命。

新的工廠、新的基礎設施正在建設中,這種新的計算方式不會倒退。因此,只要我們相信生成Token將是計算的未來——我堅信這一點,我認為整個行業也大抵相信這一點——那麼從現在起我們將繼續建設這種能力,並從這裡繼續擴張。

目前我們正在經歷的浪潮是代理式AI的爆發;而在此之後的下一個拐點,是將物理AI以及這些代理系統引入物理應用中,比如製造業,比如機器人技術。所以,前方存在著巨大的機會。

分析師 好的。

接線員 問答環節到此結束。我將把會議交給Toshiya Hari。

Toshiya Hari 在會議結束之際,請注意,黃仁勳將於3月4日在舊金山參加摩根士丹利TMT(科技、媒體及電信)會議的爐邊談話。他還將於3月16日在聖何塞的GTC大會上發表主題演講。我們討論2027財年第一季度業績的電話會議定於5月20日舉行。感謝大家今天的參與。 接線員,請結束會議。

接線員 謝謝。今天的電話會議到此結束。您現在可以掛斷了。會議已結束。 (invest wallstreet)