#黃仁勳
【輝達財報】創紀錄,老黃定調智能體拐點:算力就是印鈔機
算力即收入,黃仁勳認為智能體拐點已來,只要算力還在驅動收入成長,就不必擔憂AI泡沫。營收681.3億美元!剛剛,輝達公佈了創紀錄的2026財年第四季業績,並給出了2027財年第一季780億美元的業績預期。在商業世界裡,數據永遠是最有說服力的語言。截至周三收盤,輝達的股價累計上漲了5%,而同一時期,科技股的晴雨表納斯達克指數下跌了0.4%。當華爾街和矽谷還在為AI泡沫爭論不休時,黃仁勳再次用數據擊碎了「AI泡沫論」。不僅如此,他還提出了自己的「AI經濟學」:算力=收入成長,直言如今流向AI的千億美元資本開支,最終都會直接轉化為收入。支撐老黃「AI經濟學」的,是他看到了智能體拐點已經到來,由此帶來了驚人的算力需求。Vera Rubin平台:六款新晶片,一台AI超級計算機為了把這些驚人的算力需求變現,輝達也推出了下一代整櫃級算力系統-Vera Rubin,將在2026年下半年出貨。輝達財務長Colette Kress透露,公司已經清楚預見到,2025至2026年間Blackwell和Rubin產品組合帶來5,000億美元營收。超預期的第四季業績在2026財年第四季度,輝達一舉衝破了市場的預期線,當季總營收高達681.3億美元,年增幅達到了驚人的73%。公司的淨利更是走出了幾乎翻倍的狂飆曲線,躍升至430億美元。如果把視野拉長到全年,輝達的總營收直接突破了2,159億美元的大關。這台高速運轉的賺錢機器背後,資料中心業務展現了無可匹敵的一家獨大態勢。輝達的資料中心業務,在2026年Q4的收入達到了623億美元,年增75%,撐起了公司超過91%的收入。在過去四年,輝達資料中心業務成長了約19倍(1789%)。Colette Kress表示,超大規模雲端服務商仍是輝達最大的客戶類別,佔資料中心營收的比例略高於50%。輝達給出的2027財年Q1的毛利率指引約為75%。更令人震撼的是供應鏈的提前鎖定,供應相關承諾總額從第三季的503億美元,迅速飆升至952億美元。這意味著輝達已經在用真金白銀鎖死了未來的龐大需求。Colette Kress稱,對於2025至2026年間Blackwell和Rubin產品組合帶來5,000億美元營收,公司具備清晰的可預見性。她預計到2029年,AI基建的投資規模將達到每年3兆至4兆美元。AI業務狂飆成長,其他業務不得不做出讓步。曾經作為核心支柱的遊戲業務,雖然年增47%達到37億美元,但卻比上季卻下降了13%。Colette Kress也坦誠指出,受全球記憶體短缺的波及,遊戲業務在2027財年第一季開始及之後,將不得不面臨供應壓力的陣痛。由於記憶體限制,輝達必須優先保障AI處理器的產能,分析師甚至猜測公司今年可能會直接跳過新一代遊戲GPU的發表。沒有Token就沒成長「智能體拐點」來了在周三的業績電話會上,分析師的提問直擊要害:雲端廠商高達千億的資本開支,到底還能不能持續下去?黃仁勳認為這幾乎不用猶豫,並拋出了他的「AI經濟學」:在這個AI新世界裡,算力就是收入。沒有算力,就沒辦法生成Token;沒有Token,就沒辦法讓營收成長。黃仁勳對自己這些大客戶的現金流成長很有信心,如今流向AI的千億美元資本開支,最終都會直接轉化為收入。原因非常簡單:智能體拐點已經到來。我們現在已經看到了智能體AI(agentic AI)的轉折點,以及智能體在全球各地、各類企業中的實際價值,你也因此看到了驚人的算力需求。老黃已經清晰預見我們正在經歷第三次平台遷移。前兩次是從傳統CPU轉向GPU運算,以及從傳統機器學習跨入生成式AI。而現在,產業正全速衝向智能體AI時代。全球各類企業對智能體的採用率正直線飆升,這就註定了這不是靠削減成本就能完成的進化,它需要海量的、實打實的新增投資。為了牢牢護住這片生態的護城河,輝達在投資與結盟上也豪擲重金。年內公司豪擲175億美元,大舉投資各類新創企業,甚至入股了晶片製造商英特爾。儘管在財報裡輝達直言,這些投資短期內可能無法獲利,甚至永遠收不回本,但這是建構帝國必不可少的佈局。此外,那個讓整個科技圈翹首以盼的數字:與OpenAI高達1,000億美元的合作協議,目前也正在接近達成。能效狂飆10倍 下一代系統Vera Rubin終極拆解如果你覺得現在的算力規模已經觸及天花板,輝達今年下半年即將量產出貨的下一代AI工廠算力基石——Vera Rubin,則有望打破這一侷限。它是Grace Blackwell的絕對繼任者。2026年1月6日,輝達創辦人兼CEO黃仁勳在拉斯維加斯舉行的年度消費性電子展上介紹Vera Rubin AI平台Vera Rubin不是普通的伺服器,輝達官方將其定義為由「六大全新晶片建構的單一AI超級電腦」。輝達下一代AI系統Vera RubinRubin平台由六款全新晶片組成,每款晶片都針對AI工廠中的特定角色進行專門設計,並從一開始就作為統一的機架級系統的一部分進行構建。NVIDIA Rubin 平台晶片以旗艦機架系統Vera Rubin NVL72為例,不僅針對峰值性能進行了優化,更注重持續的智能產出:可預測的延遲、在異構執行階段的高利用率,以及將電力高效轉化為可用智能的能力。Vera Rubin NVL72 概覽硬核技術指標 六大核心晶片的算力狂飆Vera Rubin在底層架構上實現了飛躍,其核心關鍵技術包括:Rubin GPU(算力核心):配備了8顆最前沿的HBM4高頻寬內存,單卡顯存容量高達288 GB,內存頻寬飆升至驚人的22 TB/s。在全新NVIDIA Transformer引擎加持下,其NVFP4格式的AI推理性能高達50 PFLOPS(約前代5倍),訓練性能達35 PFLOPS(約前代3.5倍)。Vera CPU(資料調度中樞):專為大模型推理與資料調度打造,採用88個輝達自研的Olympus Arm核心,支援176線程空間多線程技術,可尋址高達1.5 TB的LPDDR5X記憶體。它透過高達1.8 TB/s的NVLink-C2C互連技術與GPU緊密耦合。第六代NVLink與網路體系:實現了單GPU高達3.6 TB/s的驚人互連頻寬(是前代兩倍)。搭配ConnectX-9 SuperNIC、BlueField-4 DPU以及Spectrum-X以太網,徹底打通了百萬Token長文字和多模態大模型的資料傳輸瓶頸。能效與散熱 100%純液冷的「熱水」奇蹟隨著算力狂飆,資料中心最害怕的就是龐大的電力消耗。Vera Rubin雖然功耗大約是前代產品的兩倍,但它做到了一個讓全行業振奮的突破:每瓦性能提升了足足10倍。官方數據顯示,相較於Blackwell,它能以四分之一的GPU數量完成相同的AI訓練任務,而在AI推理時,每百萬Token成本直接降至前代的十分之一。據估計,這樣一個單系統機架的售價將高達350萬至400萬美元。為了壓住這頭性能巨獸的溫度,輝達首次採用了100%純液冷設計,最硬派的是,它甚至能用高達45度的熱水來進行冷卻。這將有助於未來的資料中心大幅減少對水資源的消耗,徹底擺脫傳統冷卻設施的束縛。極簡美學與全球供應鏈協同在狂暴的性能之外,Vera Rubin也展現了極簡的工程美學。相較於前輩Blackwell必須將組件直接銲接在電路板上,Vera Rubin採用了模組化設計,每個超級晶片都可以在幾秒鐘內像抽屜一樣從計算托盤中輕鬆抽出,簡化了維護。在Vera Rubin的供應鏈上,輝達整合了全球至少20個國家的80多家供應商,面對讓全行業頭疼的HBM4內存短缺和成本飆升,輝達AI基建負責人Dion Harris顯得很從容。他表示輝達正在向供應商提供非常詳細的預測,以此來對抗供應鏈的不確定性,確保這套「世界上最複雜的AI系統」能夠如期統治未來的資料中心。王座下的暗流輝達王座之下並非風平浪靜。客戶一邊離不開輝達的機器,一邊又對這種深度的生態綁架感到恐懼。出於戰略安全上的本能防禦,亞馬遜已經在自己的​​資料中心裡,部署了由自研Trainium 2晶片驅動的超伺服器。同樣,Google也在重倉囤積著自家TPU組成的機架,並開啟了商業化的步伐,這些昔日的客戶,很可能搖身一變,成為未來的競爭對手。此外,挑戰者們正在加速步步緊迫。老對手AMD帶著首個整櫃級系統Helios殺入戰場,一舉拿下了Meta高達6吉瓦電力容量的巨大承諾。就像分析師一針見血指出的那樣,客戶們需要更多的算力容量,同時也極度渴望擁有一個可靠的第二供應來源,以此來對輝達形成製衡。面對來自多面的競爭,黃仁勳加固輝達護城河的辦法是在單點晶片技術之外,透過推出Vera Rubin,直接把供應鏈、算力、網路、冷卻系統全部打包,變成一個難以踰越的整櫃級系統壁壘。想模仿我的晶片?可以。但你能複製我這套龐大系統嗎?正如先前AI基建負責人所言:「向所有敢於嘗試的人致敬,但這絕不是一件簡單的事。」在不斷加速的AI算力競賽敘事下,如果說2024年投產的Grace Blackwell重新定義了單一系統所能達到的算力規模,而即將在2026年下半年出貨的Vera Rubin,則更像是為AI工業革命親手建造的算力超級工廠。在老黃「AI經濟學」的邏輯中,算力即所得。只要算力還在驅動營收成長,就不必擔憂AI泡沫。 (新智元)
黃仁勳“生日宴”!宴請了誰?
黃仁勳“生日宴”!水瓶男黃仁勳 63 歲生日開趴 邀 30 名南韓工程師大啖草莓蛋糕2月24日消息,烘焙品牌“巴黎貝甜”(Paris Baguette)營運商Paris Croissant透露,當地時間2月14日,其草莓奶油蛋糕被送至美國加州聖克拉拉市輝達總部附近餐廳,用於輝達CEO黃仁勳的提前生日派對(距其生日還有三天)。Paris Croissant:黃仁勳生日同款蛋糕Strawberry Soft Cream Cake。這場派對在“99炸雞”店舉行,黃仁勳邀請了SK海力士DRAM和高頻寬記憶體(HBM)部門約30位核心工程師,他親自為每桌韓國客人調製斟上燒酒(somaek)並逐桌敬酒致謝。黃仁勳鄭重喊話:“請務必順利供應最高性能的HBM4。”此舉或因SK海力士HBM4堆疊出現問題導致出貨延遲,輝達已尋求三星加快供應,三星於2月13日宣佈首批HBM4正式出貨。Paris Croissant一位負責人表示:“這完全是出於象徵意義——我們品牌的蛋糕出現在全球人工智慧行業領軍人物的生日派對上。這完全是一筆意外之財,而且我們一分錢也沒花。”此次派對的另一大贏家是“99炸雞”店。值得一提的是,2月5日,SK集團董事長崔泰源曾與黃仁勳在這家炸雞店會面,討論業務合作,崔泰源的長女、SK Biopharm負責人崔允貞,以及CEO黃正雄的女兒麥迪遜·黃均出席活動。2月5日,SK集團董事長崔泰源與黃仁勳聚會2025年,黃仁勳首爾「炸雞趴」黃仁勳千金策劃! (深科技)
【輝達財報】單季營收681億美元,淨利429億!輝達財報再次炸裂,黃仁勳"畫餅"智能體
單季營收681.3億美元,淨利潤429.6億美元,資料中心業務強勁增長75%,推理成本實現量級式下降。過去幾個月,資本市場關於“AI泡沫論”的爭議不絕於耳,但輝達剛剛用這份第四財季的硬核成績單,為當前產業情緒注入了一劑強心針。面對這台全速運轉的“印鈔機”,CEO黃仁勳給出了更具野心的行業定調:AI的算力狂飆遠未觸及天花板,由“智能體”驅動的全新工業變革,才剛剛邁出第一步。然而,耀眼的業績光芒下也潛藏著冷酷的現實考題。輝達下季度業績預期完全剔除中國高端市場的資料中心收入。並且隨著智能體加速普及,輝達越成功,傳統軟體生態與白領階層可能受到的衝擊就越嚴重。算力狂潮究竟是經濟催化劑還是傳統產業休止符,將是接下來的核心博弈。從超預期到“新常態” 全景拆解四季度核心財務資料美東時間周三,全球AI算力龍頭輝達發佈截至2026年1月25日的2026財年第四季度及全年財務報告。這份報告不僅再次跨越了華爾街極高的預期門檻,更向外界展示了在AI浪潮的推波助瀾下,一家底層硬體企業能釋放出怎樣的商業潛能。核心財務資料概覽:季度總營收:錄得681.3億美元,同比增長73%,環比增長20%,毫無懸念地創下公司歷史新高。全年總營收:達到2159.4億美元,整體較上一財年增長65%。利潤表現與定價權:季度淨利潤達到429.6億美元(GAAP),同比激增94%,折合每股收益1.62美元。這意味著輝達依然維持著驚人的淨利率。毛利率水平:季度非GAAP毛利率高達75.2%,在硬體製造領域,這已經是難以企及的工業巔峰指標。按業務類股劃分,第四財季輝達資料中心業務營收623億美元,同比增長75%;遊戲和AIPC業務營收37億美元,同比增長47%;專業可視化業務營收13億美元,同比增長159%;自動駕駛和機器人業務營收6.04億美元,同比增長6%。財報發佈後,輝達股價盤後一度上漲超過3%。市場的真金白銀反映了一個共識:只要科技巨頭們的AI軍備競賽不停止,輝達依然是目前產業鏈上最具確定性的標的。資料中心業務狂奔 撐起總營收九成的“壓艙石”在輝達當前的商業版圖中,資料中心部門已經演變為支撐整個公司乃至全球AI產業算力底座的核心引擎。本季度,該類股營收達到623.1億美元,同比增長75%,環比增長22%,貢獻了輝達總收入的91%以上。輝達在財報會議上提供了一個極具參考價值的坐標系:自ChatGPT上線至今,其資料中心業務體量已經膨脹了近13倍。這股龐大的購買力究竟來自那裡?首席財務官科萊特·克雷斯(Colette Kress)在業績會上透露,Google、微軟、亞馬遜、Meta等超大規模雲服務商貢獻了資料中心收入的50%以上。儘管這些矽谷大廠都在緊鑼密鼓地推進自研晶片計畫,但在當前大模型迭代的生死時速下,採購輝達的頂級GPU依然是他們保證算力優勢的最優解。同時,輝達的客戶結構正在經歷健康的多元化演進。除了網際網路巨頭,企業級客戶、主權AI(Sovereign AI)項目以及生物製藥等垂直行業的算力需求正在加速釋放。財報顯示,資料中心計算收入增長了58%,而網路業務更是錄得263%的超預期增長。這標誌著輝達的定位正在發生變遷:從單純的晶片供應商,轉身為AI資料中心級整體解決方案的提供商。不容忽視的第二增長極 暴增263%的網路業務外界的目光往往聚焦於GPU的性能參數,卻容易忽視輝達財報中另一項極具戰略價值的資料:網路業務。本季度,輝達網路業務營收達109.8億美元,同比激增263%。這一爆發式增長主要得益於NVLink、Spectrum-X和InfiniBand平台在產業端的強勁滲透,特別是為GB200和GB300系統量身定製的NVLink計算織網(Compute Fabric)技術的廣泛普及。在萬卡甚至十萬卡等級的AI叢集中,單點GPU的算力只是基礎,如何讓成千上萬顆晶片高效協同、避免資料傳輸瓶頸,才是決定叢集算力上限的關鍵。輝達通過NVLink等高速互聯技術,將鬆散的晶片編織成了運轉緊密的“AI工廠”。從目前的體量來看,輝達已經躋身全球最大的網路裝置公司陣營,這種“晶片+高速互聯”的軟硬一體化生態,構築了競爭對手短期內難以踰越的護城河。黃仁勳的產業前瞻 算力成本驟降推高“智能體AI”浪潮如果說高昂的財務資料證明了當下的統治力,那麼黃仁勳在財報中關於“智能體AI”的論斷,則勾勒了未來的增長邏輯:“計算需求呈指數級增長,智能體AI的拐點已經到來。”區別於此前一問一答的對話大模型,“智能體AI”能夠理解複雜意圖,自主進行規劃、決策並呼叫工具執行任務。黃仁勳指出,企業端對AI智能體的採用率正在飛速爬升。為了支撐並加速這一趨勢,輝達在硬體端做出了針對性部署:Blackwell架構:作為當前階段的算力主力,輝達透露Blackwell Ultra能提供高達50倍的性能提升,並將智能體AI的推理成本大幅降低35倍。領先的推理服務商如Together AI等,目前已通過部署Blackwell將服務成本削減了10倍。Vera Rubin平台:這一剛剛揭曉的新一代超級計算平台包含六款新晶片,其核心目標是在Blackwell的基礎上,將AI的推理成本再降至原來的十分之一量級。成本的斷崖式下降是AI技術實現普惠的前提。無論是10倍還是35倍的降本效應,其背後的商業邏輯都十分清晰:只有當算力變得足夠廉價且高效時,AI才能真正褪去昂貴的實驗場外衣,像電力一樣接入千行百業的業務流。持續擴列的生態圈 從矽谷巨頭到傳統工業的全面滲透強大的生態繫結能力,是輝達平抑周期波動的另一大籌碼。本季度的財報亦披露了其在全球範圍內密集落地的合作網路:Meta的深度繫結:雙方達成了跨世代的大規模戰略合作。Meta不僅將部署數百萬個Blackwell和Rubin架構GPU,還首次決定大規模獨立部署輝達的Grace CPU伺服器。雲巨頭的首批採用:AWS、Google雲、微軟Azure和甲骨文等四大公有雲巨頭,已確認成為首批部署Vera Rubin實例的合作夥伴。加碼大模型前沿:輝達宣佈對知名大模型開發商Anthropic(Claude模型的母公司)進行戰略投資,並達成深度技術協作。全球系統整合商的入局:Infosys、Wipro等印度IT外包巨頭,正在利用輝達的AI工具包為其全球客戶建構下一代企業級智能體。深入傳統工業製造:西門子、達索系統等工業軟體巨頭正與輝達展開深入合作,意在建構覆蓋生產與設計的“工業AI作業系統”。從底層算力晶片到上層模型應用,從雲服務商的資料中心到跨國製造企業的流水線,這種全鏈路的生態滲透,進一步穩固了輝達的產業話語權。資本回饋與業績指引 手握重金與780億美元的下一季目標在創造巨額利潤的同時,輝達在資本市場的回饋力度堪稱豪橫。2026財年全年,輝達通過股票回購(401億美元)和現金配息(9.74億美元),累計向股東返還了411億美元。截至第四財季末,公司帳面現金及現金等價物高達626億美元,且仍手握585億美元的剩餘回購授權額度。豐沛的現金流賦予了輝達極強的抗風險能力,使其能在保證高強度研發投入的同時,持續避險二級市場的波動。更令投資者側目的是輝達對2027財年第一季度的業績指引:營收預期:預計達到780億美元(正負2%),這一數字大幅超越了華爾街此前給出的728億美元的一致預期。利潤預測:非GAAP毛利率預計將繼續走穩於75.0%的歷史高位。營運支出:預計約為75億美元(非GAAP),表明公司仍在持續加碼研發與擴張,以維持技術代差。值得注意的是,輝達宣佈從下季度開始,將把股權激勵費用(SBC)計入非GAAP指標。在科技大廠中,這通常被視為一種提高財務透明度的舉措。此舉也側面印證了管理層對其盈利模型的高度自信:即便將數十億美元的人才保留成本納入考量,其利潤率依然能夠傲視群雄。高光背後的隱憂 市場“真空”、競爭博弈與供應鏈擠壓儘管各項資料依然呈現出烈火烹油之勢,但在財報的細節與宏觀環境中,輝達仍需面對複雜的挑戰。首先仍是中國市場的不確定性。輝達在業績展望中坦言:關於2027財年第一季度的業績預期,並未計入任何來自中國市場的資料中心計算收入。受出口管制政策影響,這一曾經的重鎮目前在高端AI晶片銷售上受到嚴格掣肘。儘管黃仁勳重申希望未來能獲准對華銷售H200晶片,但在當下的財務模型中,輝達實際上已經暫時“脫離”了中國的高端市場。這種剝離雖然反映出海外市場的旺盛需求足以填補空缺,但也暗示輝達迫切希望回歸中國市場。其次,競爭對手的追趕腳步正在加快。AMD正計畫在今年晚些時候推出新一代旗艦級AI伺服器晶片,並且已經成功切入了Meta等核心客戶的供應鏈。與此同時,Google的TPU迭代和亞馬遜的Trainium自研晶片,也在實質性地分流部分雲巨頭的硬體採購預算。此外,供應鏈層面的資源博弈也開始顯現。由於HBM記憶體等關鍵零部件的產能限制,代工廠不得不優先保證高利潤的AI晶片生產,這直接導致輝達的遊戲業務本季度環比下滑了13%。管理層對此預警稱,供應鏈的產能傾斜將在第一季度乃至更長時間內,成為遊戲業務復甦的阻力。結語 AI基建周期的長線邏輯資管機構Deepwater Asset Management分析師基恩·蒙斯特(Gene Munster)在財報後評論道:“市場真正的分歧點在於對2027年和2028年增長空間的判斷。如果你認為AI基礎設施的建設已經步入後半程,那增長必然會放緩;但如果你認同黃仁勳的視角,認為我們才剛剛走完前期的準備階段,那麼輝達的長跑才剛剛開始。”從提供基礎算力的硬體供應商,到支撐“智能體AI”爆發的基建核心,輝達正在深度參與甚至主導新一輪生產力工具的底層重構。但在創紀錄的財報背後,市場也存在另一種擔憂。隨著算力成本大幅下降,AI智能體正在快速替代傳統企業的工作流。輝達越成功,底層算力成本越低,傳統軟體生態和白領階層受到的衝擊就越嚴重。算力的大規模普及最終是提升整體經濟效率,還是導致傳統產業加速衰退,是這份財報留給市場的現實考驗。 (網易科技)
【輝達財報】電話會詳解&全文:“AI工業革命”才剛剛開始!黃仁勳高呼代理AI拐點已至,“推理即收入”
輝達CEO黃仁勳在電話會上直言,代理AI(Agentic AI)已達到拐點,算力直接轉化為收入。黃仁勳認為沒有算力就無法生成token,沒有token就無法實現營收增長,雲服務商的巨額資本開支最終將直接轉化為收入。此外,公司證實接近達成與OpenAI的巨額基建合作,訂單需求已排至2027年。輝達以一份打破紀錄的財報,試圖回擊外界對AI泡沫的質疑。但電話會後輝達股價轉跌,此前盤後交易中一度漲超4%。2月25日美股盤後,輝達公佈最新單季營收達680億美元並給出強勁指引,輝達CEO黃仁勳在電話會上直言,代理AI(Agentic AI)已達到拐點,算力直接轉化為收入。黃仁勳認為沒有算力就無法生成token,沒有token就無法實現營收增長,雲服務商的巨額資本開支最終將直接轉化為收入。黃仁勳同時強調,企業對代理的應用飆升,Grace Blackwell搭配NVLink是推理的王者。此外,他表示當前的太空資料中心經濟還是“貧瘠的”,但形勢將隨著時間的推移而變化。從整體財務資料與供應鏈前瞻來看,輝達的增長引擎依然強勁。CFO克雷斯在電話會開場中透露:總營收達到680億美元,同比增長73%,按環比計算較第三季度的增長進一步加速。她明確指出,大部分收入增長依然由資料中心業務驅動。盤後輝達一度漲超4%,但電話會後漲幅逐漸縮小,直至轉跌。電話會要點提煉:產品路線圖與技術突破:近9吉瓦Blackwell基礎設施已部署,性能比領先競品50倍;已向客戶傳送首批Vera Rubin樣品,預計2026下半年量產;將減少10倍推理token成本。通過軟體最佳化(如CUDA),在四個月內將GB200 NVL72性能提升5倍。戰略合作與投資:與OpenAI接近達成夥伴協議;Meta部署數百萬Blackwell和Rubin GPU;100億美元投資Anthropic。收購Grok低延遲推理技術;與西門子、達索系統、新思科技深化工業AI合作AI拐點已至:黃仁勳強調"代理AI"已達到拐點,算力將直接轉化為收入。資料中心範式轉變,每資料中心受電力限制,性能/瓦特成為關鍵指標。物理AI崛起:2026財年已貢獻超60億美元收入;機器人計程車和自動駕駛將從千輛級擴展至百萬輛級。主權AI增長:2026財年主權AI業務超300億美元,同比增長3倍,主要來自加拿大、法國、荷蘭、新加坡和英國。毛利率展望:預計全年保持在70%中段,依賴持續的架構創新提供多倍性能/瓦特提升。未來展望:預計2027財年Q1收入780億美元,資料中心驅動大部分增長;預計到2030年,全球資料中心資本支出將達到3-4兆美元;已戰略性確保庫存和產能,滿足需求到2027年;承認高端架構供應將持續緊張。黃仁勳:算力即營收,AI代理驅動新一輪需求浪潮面對市場對科技巨頭持續投入高昂資本支出是否會導致資金枯竭或動能不足的擔憂,黃仁勳在問答環節明確表示,並不擔心AI公司耗盡資金。黃仁勳強調:我對他們現金流的增長充滿信心,原因非常簡單。我們現在已經看到了代理AI(agentic AI)的拐點以及智能代理的實用性。行業已經到達了另一個拐點。他將當前階段的核心邏輯提煉為一句話:意識到‘推理現在就等於我們客戶的收入’是非常重要的。黃仁勳詳細描繪了這一商業模式的運作圖景:由於智能代理正在生成如此多的代幣(tokens),而且結果如此有效。當智能代理在編寫程式碼時,它會生成數千、數萬、數十萬個代幣,因為它們會運行幾分鐘到幾個小時。所以這些系統、這些代理系統,正在作為一個團隊衍生出不同的智能代理。黃仁勳補充道:正在生成的代幣數量真的、真的呈指數級增長。因此,我們需要以更高的速度進行推理,當你以更高的速度進行推理時,每一個代幣都是被貨幣化(dollarized)的,這直接轉化為收入。在展望未來時,黃仁勳更是直言:從根本上說,因為每家公司都依賴軟體,每個軟體都將依賴AI。因此,每家公司都將產生代幣。他認為,這種新的計算方式“不會倒退”。黃仁勳表示:如果我們相信產生代幣將是計算的未來……那麼我們將從現在開始建設這種能力,並從這裡繼續擴展。這一判斷與黃仁勳在上季度電話會議上的表態一脈相承。彼時他將行業劃分為三次結構性平台轉變:從傳統CPU到GPU計算、從傳統機器學習到生成式AI、再從生成式AI到AI代理,並強調每一次轉變本身均能支撐大規模投資。牽手OpenAI與生態投資,鞏固全球算力霸權在回答分析師關於戰略投資的問題時,黃仁勳證實,輝達接近敲定與OpenAI的合作。這項合作在去年初步勾勒為一個潛在的1000億美元AI基礎設施項目,近期有報導稱輝達還可能進行約300億美元的投資。黃仁勳形容OpenAI是一家“一代人中僅此一家(once-in-a-generation)”的公司,並強調輝達的投資目標是確保從大語言模型到機器人技術的一切都建立在輝達的平台上。他說:我們想要抓住這個我們正處於新計算時代開端的巨大機會。此外,黃仁勳在談及各種AI公司和項目時,特別提及了近期備受關注的開源AI代理OpenClaw。他認為,企業級獨立軟體供應商(ISVs)在工具平台上開發代理系統的熱情,再次印證了市場正處於爆發拐點。黃仁勳說:Claude Cowork和OpenClaw的計算需求之間的AI採用率正在飆升。針對馬斯克等人對太空資料中心的討論,黃仁勳回應稱目前經濟效益不佳但會改善:在太空中……散熱只能通過傳導,你需要製造的散熱器相當大。所以我們在地球上使用的方法與在太空中的做法有些不同,但有很多不同的計算問題真的需要在太空中完成,所以輝達已經是世界上第一個進入太空的GPU。Hopper已經在太空中了。他指出,在太空使用GPU最好的用例之一是成像。極度緊缺的供應鏈在供應鏈方面,克雷斯透露:我們相信目前的庫存和供應承諾能夠滿足未來的需求,出貨計畫已延伸至2027日歷年。由於輝達基礎設施需求極其旺盛,甚至連Hopper和已有6年歷史的Ampere架構產品在雲端都已售罄。在產品迭代節奏上,新舊交替正在無縫銜接。Blackwell架構正在強勁爬坡,而下一代Vera Rubin平台已經邁出實質性一步。克雷斯表示:我們在本周早些時候已經向客戶運送了首批Vera Rubin樣品,並保持在今年下半年開始量產出貨的軌道上。我們預計每個雲模型建構者都將部署Vera Rubin。除了先進元件(如高頻寬記憶體HBM)導致最新晶片架構供應持續緊張外,產能限制也溢出到了輝達傳統的遊戲業務。克雷斯表示:儘管我們非常希望有更多額外的供應,但我們確實認為在接下來的幾個季度裡(遊戲業務供應)將會非常緊張。輝達2026財年第四財季電話會議實錄,全文翻譯如下(AI工具輔助):公司參會人員 Colette Kress,執行副總裁兼首席財務官 Jensen Huang(黃仁勳),創始人、總裁兼首席執行長 Toshiya Hari,投資者關係與戰略財務副總裁其他參會人員(分析師) Aaron Rakers,富國銀行 Antoine Chkaiban,New Street Research Atif Malik,花旗銀行 Ben Reitzes,Melius Research CJ Muse,Cantor Fitzgerald & Co. Harlan Sur,摩根大通 Jim Schneider,高盛公司 Joseph Moore,摩根士丹利 Mark Lipacis,Evercore ISI Stacy Rasgon,伯恩斯坦研究公司 Tim Arcuri,瑞銀集團 Vivek Arya,美銀美林會議陳述接線員 下午好。我是莎拉,今天將擔任您本次會議的接線員。此時,我想歡迎大家參加輝達第四季度盈利電話會議。所有線路均已靜音,以防止任何背景噪音。發言人致詞後,將進行問答環節。(接線員提示) 謝謝。Toshiya Hari,您可以開始會議了。Toshiya Hari 謝謝。 大家下午好,歡迎參加輝達2026財年電話會議。今天與我一起代表輝達參會的有總裁兼首席執行長黃仁勳(Jensen Huang),以及執行副總裁兼首席財務官科萊特·克雷斯(Colette Kress)。我們的會議正在輝達投資者關係網站上進行即時網路直播。在討論2027財年財務業績的電話會議之前,本次網路直播將提供重播。今天會議的內容是輝達的財產。未經我們事先書面同意,不得複製或轉錄。在本次會議中,我們可能會根據當前的預期做出前瞻性陳述。這些陳述受到許多重大風險和不確定性的影響,我們的實際結果可能會有實質性差異。關於可能影響我們未來財務業績和業務的因素的討論,請參閱今天收益發佈中的披露內容、我們最新的10-K和10-Q表格,以及我們可能向美國證券交易委員會提交的8-K表格報告。我們所有的陳述都是基於截至今日(2026年2月25日)目前可獲得的資訊做出的。除法律要求外,我們不承擔更新任何此類陳述的義務。在本次會議中,我們將討論非公認會計準則(Non-GAAP)的財務指標。您可以在我們網站上發佈的CFO評論中,找到這些非公認會計準則財務指標與公認會計準則(GAAP)財務指標的調節表。接下來,我將把會議交給科萊特。Colette Kress 謝謝,Toshiya。我們又交付了一個出色的季度,在營收、營業利潤和自由現金流方面均創下歷史新高。總營收達到680億美元,同比增長73%,較第三季度進一步加速。環比增長也創下紀錄,我們的資料中心營收增加了110億美元,客戶群體日益多樣化且不斷擴大,包括雲服務提供商、超大規模計算企業、AI模型製造商、企業和主權國家。我們在資料中心規模上進行極致協同設計的Blackwell架構需求持續增強,除了訓練之外,推理部署也在不斷增長。向加速計算的轉型,以及AI在現有超大規模工作負載中的普及,繼續推動著我們的增長。建立在越來越智能和多模態模型基礎上的代理式(Agentic)和物理AI應用,正開始推動我們的財務表現。從全年來看,資料中心創造了1940億美元的營收,同比增長68%。自2023財年ChatGPT問世以來,我們的資料中心業務規模已經擴大了近13倍。展望未來,我們預計2026自然年內各季度的營收都將實現環比增長,超出我們去年分享的5000億美元Blackwell和Rubin營收機會的預期。我們相信,我們已經準備好庫存和供應承諾來滿足未來的需求,包括延續到2027自然年的出貨量。每個資料中心都受到電力的限制。鑑於這些限制以及最大化AI工廠營收的需求,客戶會基於每瓦性能做出關鍵的架構決策。SemiAnalysis近期宣佈輝達為“推理之王”,因為InferenceX的最新結果鞏固了我們在推理領域的領導地位:與非網格(off-grid)方案相比,GB300和NVL72實現了高達50倍的每瓦性能提升,以及降低35倍的每Token成本。對CUDA軟體的持續最佳化,使得我們在短短四個月內就讓GB200 NVL72的性能提升了高達5倍。輝達提供了極低的每Token成本,而在輝達上運行的資料中心能產生極高的營收。我們的創新步伐,尤其是在我們這樣的規模下,是無與倫比的。憑藉接近200億美元的年度研發預算,以及我們在計算和網路、晶片、系統、演算法和軟體之間進行極致協同設計的能力,我們打算在每一代產品中都實現每瓦性能的X倍飛躍,並在長期內擴大我們的領導地位。第四季度資料中心營收為620億美元,同比增長75%,環比增長22%,這主要得益於Blackwell和Blackwell Ultra產能爬坡的持續強勁勢頭。由於對輝達基礎設施的高需求,即使是Hopper以及許多基於六年前Ampere架構的產品在雲端也已售罄。自我們的Grace Blackwell NVL72系統發佈以來,已經過去了近一年。如今,主要雲服務提供商、超大規模計算企業、AI模型製造商和企業已部署並消耗了近9吉瓦(gigawatts)的基於Blackwell的基礎設施。網路業務是我們資料中心規模基礎設施產品的基石,本季度表現突出,創造了110億美元的營收,同比增長超過3.5倍。對我們向上擴展(scale-up)和向外擴展(scale-out)技術的需求達到了創紀錄的水平,兩者均實現了兩位數的環比增長,這得益於NVLink、Spectrum-X乙太網路和InfiniBand的強勁採用。在同比基礎上,增長主要由NVLink 72向上擴展交換機推動,因為Grace Blackwell系統約佔該季度資料中心營收的三分之二。NVLink向上擴展架構徹底改變了計算,並展示了在超級電腦的所有晶片和全端上進行極致協同設計的力量。在第四季度,我們宣佈將使AWS採用NVLink技術與其定製晶片進行整合。隨著客戶致力於將分佈式資料中心統一為整合的千兆級AI工廠,我們的Spectrum-X乙太網路向上擴展和橫向擴展網路勢頭強勁。從全年來看,我們的網路業務營收超過310億美元,與我們收購Mellanox的2021財年相比增長了10倍以上。我們的需求情況廣泛、多樣,並正在向聊天機器人以外的領域擴展。首先,發生了一場從傳統機器學習向生成式AI的根本性平台轉變。隨著超大規模計算企業將海量的傳統工作負載(包括搜尋、廣告生成和內容推薦系統)升級為生成式AI,強有力的投資回報率(ROI)證據正在鼓勵我們最大的客戶加快其資本支出。例如,在Meta,其生成式(Gen / Llama)模型的進步使其Facebook上的廣告點選率增加了3.5%,Instagram上的轉化率提高了1%以上,轉化為有意義的營收增長。借助同樣的輝達基礎設施,Meta的超級智能實驗室可以訓練和部署其前沿的代理式AI系統。前沿代理系統已達到一個拐點。Claude Code、Claude Cowork以及OpenAI Codex已經實現了有用的智能。其採用率正在飆升,並且Token的生成是盈利的,這極大地推動了擴大計算規模的緊迫性。計算能力直接轉化為智能和營收增長。分析師對排名前五的雲服務提供商和超大規模計算企業(他們合計約佔我們資料中心營收的50%多一點)2026年資本支出的預期,自年初以來已上調了近1200億美元,正接近7000億美元。我們繼續預計,傳統資料中心工作負載向GPU加速計算的過渡,以及利用AI來增強當今超大規模工作負載的趨勢,將貢獻我們長期市場機遇的一半左右。每個國家都會建設和營運其部分AI基礎設施,就像今天的電力和網際網路一樣。在2026財年,我們的主權AI業務同比增長了兩倍多,超過300億美元,主要由位於加拿大、法國、荷蘭、新加坡和英國的客戶推動。從長遠來看,隨著各國根據其GDP按比例在AI上進行支出,我們預計主權AI的機會至少將與AI基礎設施市場的增長保持同步。雖然美國政府批准了向中國客戶提供少量H200產品,但我們尚未產生任何收入,並且我們不知道是否會允許任何進口進入中國。我們在中國的競爭對手在近期IPO的支援下取得了進展,從長遠來看有潛力顛覆全球AI產業的結構。為了維持其在AI計算領域的領導地位,美國必須吸引每一位開發者,並成為所有商業企業(包括中國企業)的首選平台。我們將繼續與美國和中國政府接觸,並倡導美國在全球競爭的能力。上個月我們在CES上推出了Rubin平台,包含六款新晶片:Vera CPU、Rubin GPU、NVLink 6交換機、ConnectX-9 SuperNIC、BlueField-4 DPU和Spectrum-6乙太網路交換機。與Blackwell相比,該平台能在使用四分之一GPU數量的情況下訓練MOE模型,並將推理Token成本降低多達10倍。本周早些時候,我們已經向客戶發運了首批Vera Rubin樣品,我們有望在今年下半年開始量產出貨。基於其模組化、無需理線(table-free/cable-free)的設計,Rubin將提供比Blackwell更好的彈性和可維護性。我們預計每個雲模型建構者都將部署Vera Rubin。接下來看遊戲業務。遊戲業務營收為37億美元,同比增長47%,這得益於對Blackwell的強勁需求和供應的改善。GeForce RTX是PC遊戲玩家、創作者和開發者的領先平台。在第四季度,我們增加了幾項新技術和改進,包括使用AI將遊戲視覺效果提升到新水平的DLSS 4.5,即使在運動中也能帶來令人難以置信的清晰圖形的G-SYNC Pulsar,以及在領先的AI PC框架中將大語言模型(LLM)推理速度提升35%。展望未來,儘管終端對我們產品的需求依然強勁,且管道庫存水平健康,但我們預計供應限制將成為第一季度及以後的阻力。專業可視化業務營收首次突破10億美元大關,達到13億美元,同比增長159%,環比增長74%。在本季度,我們推出了配備72GB高速記憶體的RTX Pro 5000 Blackwell工作站,專為運行大語言模型(LLM)和代理式工作流的AI開發者設計。汽車業務營收為6.04億美元,同比增長6%,這得益於對自動駕駛解決方案的強勁需求。在CES上,我們推出了Alpamayo,這是世界上首個面向推理視覺語言動作模型、模擬藍圖和資料集的開放產品組合,賦予了車輛“思考”的能力。首款搭載基於輝達Drive系統打造的Alpamayo的乘用車——新款梅賽德斯-奔馳CLA,即將上路。物理AI已經到來,在2026財年已經為輝達貢獻了超過60億美元的營收。無人駕駛計程車(Robotaxi)的出行量正在呈指數級增長,Waymo、特斯拉、優步(Uber)、文遠知行(WeRide)和Zoox以及許多其他公司的商業車隊預計將在下個十年內從2025年的數千輛擴大到數百萬輛,創造一個有望產生數千億美元營收的市場。這一擴張將要求計算量呈數量級增長,目前各大主要OEM和服務提供商都在輝達的平台上進行開發。我們通過新的NVIDIA Cosmos和Isaac Group、開放模型、框架以及輝達驅動的機器人和自主機器,繼續推進機器人技術的開發,合作夥伴包括波士頓動力(Boston Dynamics)、卡特彼勒(Caterpillar)、Franka Robotics、LG電子和Neuro Robotics等領先企業。為了加速工業物理AI的採用,我們還宣佈與達索系統(Dassault Systèmes)、西門子和新思科技(Synopsys)達成新的擴展合作夥伴關係,將輝達的AI基礎設施、Omniverse數字孿生、世界模型和CUDA-X庫帶給數以百萬計的研究人員、設計師和工程師,以建構世界工業體系。讓我們來看看損益表的其他部分。GAAP毛利率為75%,Non-GAAP毛利率為75.2%,隨著Blackwell產能的持續爬坡,實現了環比增長。GAAP營運支出環比增長16%,Non-GAAP營運支出環比增長21%,這主要與新產品發佈以及計算和基礎設施成本有關。第四季度的Non-GAAP實際稅率為15.4%,低於我們對該季度的預期,主要是由於一次性稅收優惠的影響。庫存環比增長8%,同時由於我們戰略性地鎖定庫存和產能以滿足未來幾個季度之外的需求,採購承諾也大幅增加。這比平時看得更遠,反映了我們擁有的更長遠的視線需求。雖然我們預計高級架構的供應緊張情況將持續存在,但憑藉我們的規模、龐大的供應鏈以及長期合作伙持續為我們提供的良好服務,我們對抓住前方增長機會的能力充滿信心。我們在第四季度產生了350億美元的自由現金流,在2026財年產生了970億美元的自由現金流。在這一年中,我們以股票回購和分紅的形式,向股東返還了410億美元,佔自由現金流的43%。我們將繼續對技術和生態系統進行投資,以培育市場發展,推動長期增長,並最終產生優於市場或同行的總股東回報。重要的是,在投資方面,我們將繼續執行戰略性和紀律嚴明的流程,並繼續致力於向股東返還資本。現在讓我談談第一季度的業績展望。從本季度開始,我們將在Non-GAAP業績中包含基於股票的薪酬支出(SBC)。股票薪酬是我們薪酬計畫的基礎組成部分,旨在吸引和留住世界級的人才。首先看營收。總營收預計為780億美元,上下浮動2%。我們預計大部分增長將由資料中心推動。與上季度一致,我們在展望中沒有假設來自中國的任何資料中心計算營收。GAAP和Non-GAAP毛利率預計分別為74.9%和75%,上下浮動50個基點。對於全年,我們預計毛利率將保持在75%左右的中位水平。隨著我們為Vera Rubin的過渡做準備,我們將隨時向您通報最新進展。GAAP和Non-GAAP營運支出預計分別約為77億美元和75億美元,其中包括19億美元的股票薪酬支出。對於全年,我們預計Non-GAAP營運支出將同比增長40%左右(low 40s),因為我們將繼續投資於不斷擴大的機會領域。對於整個2027財年,排除任何離散項目和稅務環境的重大變化,我們預計GAAP和Non-GAAP稅率將在17%到19%之間。接下來,我將把電話轉交給黃仁勳,我想他有幾句話要對我們說。Jensen Huang(黃仁勳) 本季度,我們顯著深化並擴大了與領先的前沿模型製造商的合作夥伴關係。最近我們慶祝了OpenAI發佈的GPT 5.3 Codex,它是使用Grace Blackwell NVLink72系統進行訓練和推理的。GPT 5.3 Codex可以承擔涉及研究、工具使用和複雜執行的長期運行任務。5.3 Codex已在輝達內部廣泛部署,我們的工程師非常喜歡它。我們繼續與OpenAI推進合作協議,並相信我們已接近達成。我們對與OpenAI正在進行的合作感到興奮,這是一家十年難遇的公司,我們很榮幸從他們成立的第一天起就與之合作。Meta超級智能實驗室正在以閃電般的速度擴大規模。上周我們宣佈,Meta正在部署數以百萬計的Blackwell和Rubin GPU、輝達CPU以及Spectrum-X乙太網路用於訓練和推理。本季度,我們宣佈了與Anthropic的合作夥伴關係,並對其投資了100億美元。Anthropic將在Grace Blackwell和Vera Rubin系統上進行訓練和推理。Anthropic的Claude Cowork代理平台是革命性的,它打開了企業級AI採用的閘門。在Claude Cowork和OpenAI Codex的推動下,計算需求正在飆升,代理式AI的“ChatGPT時刻”已經到來。憑藉橫跨Anthropic、Meta、OpenAI和xAI的合作關係,輝達在每一朵雲上的廣泛部署,以及我們從頭開始建構全端AI基礎設施或在雲端為他們提供支援的能力,我們處於一個獨特的地位,能夠在前沿模型建構者的每個階段(訓練、推理和AI工廠的橫向擴展)進行合作。最後,我們最近與Grok簽訂了一項非獨家許可協議,以獲取其低延遲推理技術,並歡迎一個由傑出工程師組成的團隊加入輝達。就像我們之前對Mellanox所做的那樣,我們將利用Grok的創新來擴展輝達的架構,以實現AI基礎設施性能和價值的新高度。我們期待在下個月的GTC大會上分享更多資訊。好的,交回給你們。我們現在進入問答環節。接線員,請接入問題。問答環節接線員 (操作提示)您的第一個問題來自美國銀行證券(Bank of America Securities)的Vivek Arya。您的線路已接通。Vivek Arya 感謝接受我的提問。我想你提到過,你們現在對2027自然年的增長也有了可見性,你們的採購承諾似乎也反映了這種信心。 但仁勳,我很好奇,當你看你們的頂級雲客戶時,今年雲行業的資本支出接近7000億美元,許多投資者擔心明年很難在這個水平上繼續增長,而且對他們中的一些人來說,現金流產生能力也受到壓縮。我知道你對你們的產品路線圖、採購承諾等方面非常有信心,但你對客戶繼續增加資本支出的能力有多大信心?如果他們的資本支出沒有增長,輝達還能在這個框架內找到增長點嗎?謝謝。Jensen Huang(黃仁勳) 我對他們現金流的增長充滿信心,原因非常簡單:我們現在已經看到了代理式AI(Agentic AI)的拐點,以及代理在世界各地和各類企業中的實用性。正因如此,你看到了令人難以置信的計算需求。在這個AI的新世界裡,計算即收入。沒有計算,就沒有辦法生成Token;沒有Token,就沒有辦法實現收入增長。因此,在這個AI的新時代,計算等於收入。我很確定,現在隨著Codex和Claude Code投入生產使用,圍繞Claude Cowork的興奮感,加上對OpenAI系統及其企業版的熱情,以及所有企業級ISV(獨立軟體開發商)目前都在其工具平台上建構代理式系統——我非常確定,此時我們正處於拐點。我們已經到達了這個轉折點,我們正在生成能夠為客戶帶來生產力、為雲服務提供商帶來利潤的Token。所以它的簡單邏輯、也是簡單的思考方式是:計算方式已經改變了。過去是軟體運行在電腦上,使用適量的電腦,大概每年3000億或4000億美元的資本支出;現在這已經轉向了AI。而在AI領域,為了生成Token,你需要計算能力,這直接轉化為增長,直接轉化為收入。接線員 您的下一個問題來自摩根士丹利的Joseph Moore。您的線路已接通。Joseph Moore 太棒了,謝謝。祝賀你們取得的業績。 你談到了你們對Anthropic以及潛在的對OpenAI核心進行的一些戰略投資,同時你們也有英特爾、諾基亞、新思科技等合作夥伴,顯然你們處於一切的中心。你能談談這些投資的作用嗎?你如何看待資產負債表作為一種工具,以此來擴大輝達在生態系統中的地位並參與到這種增長中去?Jensen Huang(黃仁勳) 正如你所知,在輝達一切的核心從根本上說就是我們的生態系統,這就是所有人喜歡我們業務的原因——我們生態系統的豐富性。世界上幾乎所有的初創公司都在研究輝達的生態系統,在輝達的平台上進行開發。我們遍佈每一朵雲,我們遍佈每一個本地(on-prem)資料中心,我們遍佈全球的邊緣裝置和機器人系統。成千上萬的原生AI企業建立在輝達之上。隨著我們處於這個新的計算時代、這個新的計算平台轉變的開端,我們希望抓住這個巨大的機會,讓每個人都使用輝達。每個人、所有東西都已經建構在CUDA之上。因此,我們從一個非常棒的起點出發。隨著我們建構整個AI生態系統——無論是針對語言的AI,還是物理AI、物理學AI、生物學AI、機器人技術或製造業AI——我們希望所有這些生態系統都建構在輝達之上。對我們來說,這是在整個技術堆疊中投資生態系統的一個極好的機會。我們今天的生態系統也比過去更加豐富。我們過去主要是一個基於GPU的計算平台,但現在我們是一家計算AI基礎設施公司。我們在各個方面都有計算平台,從計算到AI模型,到網路,再到我們的DPU,所有這些之上都有計算棧。正如我之前提到的,無論是在企業中,還是在製造業、工業、科學或機器人領域,每一個生態系統都有不同的技術堆疊,我們希望確保繼續對生態系統進行投資。因此,我們的投資非常明確、具有戰略性地聚焦於擴大和深化我們的生態系統覆蓋範圍。接線員 您的下一個問題來自摩根大通的Harlan Sur。您的線路已接通。Harlan Sur 下午好,感謝接受我的提問。網路業務在你們整體資料中心業務中的佔比繼續上升。在2026財年中,你們網路業務的同比增速每個季度都在加快。正如你們提到的,第四季度同比增長3.6倍,顯然得益於你們向上擴展(scale-up)和橫向擴展(scale-out)網路產品組合的實力。我記得去年上半年,你們在Spectrum-X乙太網路交換平台上的年化運行率(run rate)約為100億美元。看起來去年下半年這個數字可能已經躍升至110億到120億美元左右。仁勳,看看你們的訂單簿,特別是隨著Spectrum-XGS以及即將推出的102T Spectrum 6交換平台的發佈,目前Spectrum的運行率趨勢如何?你如何看待今年結束時的情況?Jensen Huang(黃仁勳) 正如你所知,我們將自己視為一家AI基礎設施公司。AI計算基礎設施包括CPU、GPU,而我們發明了NVLink,將單個計算節點“向上擴展(scale up)”成一個巨大的計算伺服器機架。我們發明了機架級電腦的概念。我們交付的不是單個計算節點,而是整機架的電腦。然後,這個NVLink交換機的向上擴展系統,會使用Spectrum-X和InfiniBand進行“橫向擴展(scale out)”——這兩種方式我們都支援。更進一步,我們還使用Spectrum-X進行跨資料中心的擴展。因此,我們思考網路的方式實際上是一種延伸,我們開放性地提供一切,以便人們可以決定如何在不同的規模下進行混合和匹配,或者按照他們希望的任何方式將其整合到他們定製的資料中心裡。但歸根結底,這都是我們平台的巨大組成部分。NVLink的發明真正為我們的網路業務注入了渦輪動力。每個機架都配有九個網路交換節點,每個節點內部有兩個晶片。在未來,它們會有更多。所以,我們每個機架處理的交換量確實令人難以置信。我們現在也是全球最大的網路公司。如果你看看乙太網路領域,我們大約兩年前進入了乙太網路交換市場。我認為我們今天很可能已經是世界上最大的乙太網路網路公司,肯定很快就會名副其實。Spectrum-X乙太網路對我們來說是一個本壘打(巨大成功)。但我們對人們想要採用的任何網路方式持開放態度。有些人就是非常喜歡InfiniBand的低延遲和向上擴展能力,當然我們會繼續支援這一點;而有些人喜歡基於乙太網路在整個資料中心整合他們的網路。我們創造了一種乙太網路功能,將乙太網路與資料中心處理人工智慧的方式相結合,我們在這一點上做得非常出色。我們的Spectrum-X性能確實證明了這一點。當建立一個100億或200億美元的AI工廠時,在資料中心網路效率和利用率上那怕只有10%(很容易達到20%)的差異,這也將轉化為實打實的真金白銀。所以,輝達的網路業務真的、真的增長得非常快。我認為這只是因為我們在建構AI基礎設施方面非常有效,而且AI基礎設施業務的增長快得驚人。接線員 您的下一個問題來自Cantor Fitzgerald的CJ Muse。您的線路已接通。CJ Muse 下午好。感謝接受提問。鑑於大上下文窗口應用、Grok以及可能需要加入特定解碼解決方案的情況,我很好奇我們該如何看待你們未來的路線圖。 我們是否應該預期,根據工作負載或特定客戶進行定製化的晶片設計(Customized Silicon)將越來越成為輝達的重點?特別是借助於你們向“裸片互連/Chiplet架構(die-to-die/dial-in)”的轉變?非常感謝。Jensen Huang(黃仁勳) 不,我們不這樣認為。大家都應該希望儘可能地推遲使用裸片互連(die-to-die)。原因在於,每次你跨越一個裸片互連介面,你都增加了一道介面。每次跨越介面,你就會不可避免地增加延遲,無謂地增加功耗。我們並不排斥裸片互連技術,實際上我們已經在使用了,但我們儘量只有在別無選擇的情況下才使用它。所以,如果你看看Grace Blackwell架構和Rubin架構,我們使用的是兩塊達到光刻掩模極限(reticle-limited)的巨型晶片,並且將它們結合在一起,這樣減少了架構跨越。這種互連(介面)的損耗會在競爭對手的架構效能中顯現出來。說到輝達,人們常稱之為我們的軟體優勢,但究竟那裡是軟體的功勞,那裡是架構的功勞,其實很難區分。我們的軟體之所以高效,是因為我們的架構太優秀了。CUDA架構毫無疑問比市面上的任何計算架構都更有效、更高效,能提供更高的每瓦浮點運算性能,這是因為我們的架構設計方式。關於我們如何看待Grok以及低延遲解碼器,我有一些很棒的想法,希望能GTC大會上與你分享。但最簡單的理念是:得益於CUDA,我們的基礎設施具有令人難以置信的多功能性,我們將繼續保持這一點,我們所有的GPU在架構上都是相容的。這意味著,當我今天致力於為Blackwell最佳化模型時,所有這些針對最佳化軟體棧和新模型所付出的努力和投入,也會使Hopper受益,也會使Ampere受益。這就是為什麼在我們將其部署到世界各地數年後,A100依然感覺很新且性能依然出色的原因。架構相容性讓我們做到了這一點。它讓我們能夠在軟體工程和最佳化上投入巨資,因為我們知道,我們在雲端、本地、以及任何地方運行的各代GPU架構的整個安裝基數都將從中受益。我們將繼續這樣做,它讓我們能夠延長產品的使用壽命,賦予我們創新的靈活性和速度。這一切為我們的客戶轉化為性能,並非常重要的是——轉化為每美元性能和每瓦性能。所以,關於我們將與Grok做什麼,你來GTC大會就知道了。但我們將做的是,用Grok作為加速器來擴展我們的架構,這與我們當年用Mellanox擴展輝達架構的方式非常相似。接線員 下一個問題來自伯恩斯坦研究公司(Bernstein Research)的Stacy Rasgon。您的線路已接通。Stacy Rasgon 大家好,謝謝接受我的提問。Colette,我想深入探討一下關於全年環比增長的預期。本季度你們資料中心業務環比增長了超過100億美元,而業績指引似乎暗示這種勢頭將繼續。 隨著我們經歷這一年,尤其是當Rubin在這個間隔期內開始爬坡時,你如何看待這一趨勢?Blackwell帶來了非常大規模的環比增長加速,當我們過渡到Rubin時,我們是否應該期待類似的情況? 另外,我也希望你能談談對遊戲業務的預期。我理解記憶體限制和其他一切問題。你認為遊戲業務在2027財年仍能實現同比增長嗎,還是因為記憶體問題將面臨更大壓力?請回答這兩個問題。謝謝。Colette Kress 謝謝,Stacy。讓我先從未來的營收開始說起。我們試圖逐個季度來看待營收情況。當思考全年時,毫無疑問我們仍將銷售和提供Blackwell,可能與此同時我們也看到Vera Rubin推向市場。這是一個非常棒的架構,能立刻幫助他們快速搭建系統。我們已經在多個不同客戶中規劃了許多不同的訂單來提供這款產品。目前還無法確定Vera Rubin在下半年早期的爬坡能佔多少比例,但毫無疑問,對其的需求和興趣是非常強烈的。我們預期幾乎每個客戶都會購買Vera Rubin。問題僅僅在於,我們推向市場的速度有多快,以及他們能在各自的資料中心裡多快將其搭建起來。這是你的第一部分問題。第二部分是關於我們的遊戲業務。儘管我們非常希望能有更多的供應,但我們確實認為在接下來的幾個季度裡,供應將會非常緊張。如果到年底情況有所改善,那麼從同比增長的角度來看還是有機會的。但目前我們判斷還為時過早,一旦有了更明確的消息,我們會盡快回覆你。接線員 您的下一個問題來自花旗銀行的Atif Malik。您的線路已接通。Atif Malik 感謝接受我的提問。仁勳,我很好奇你是否可以談談,隨著越來越多的AI投資流向推理工作負載,CUDA發揮的重要作用。Jensen Huang(黃仁勳) 如果沒有CUDA,我們在推理方面將不知所措。整個技術堆疊——從我們幾年前推出的TensorRT LLM(這仍然是世界上性能最高的推理棧)開始——為了在NVLink上對其進行最佳化,我們需要發現並行明建立在CUDA之上的新平行化演算法,以分配工作負載並進行推理,從而充分利用跨NVLink 72的聚合頻寬。NVLink 72使我們能夠實現跨代級的、50倍的單位能耗性能提升。這是令人難以置信的領先優勢,也是明智之舉。NVLink 72是一項偉大的發明,實現起來非常困難。發明這種交換技術、將交換機解耦、建構系統機架等等,所有這一切我們都是在眾目睽睽之下完成的,大家都知道這對我們來說有多難。但結果令人難以置信:每瓦性能提升了50倍,每美元性能提升了35倍。因此,推理能力的飛躍是極其驚人的。非常重要的一點是,大家要認識到,現在對我們的客戶來說,推理(Inference)就等於收入。因為智能代理(Agents)生成了如此多的Token,而且結果非常有效。當智能代理編寫程式碼時,它會生成幾千、幾萬甚至幾十萬個Token,因為它們會運行幾分鐘到幾個小時。這些代理式系統會衍生出不同的代理作為團隊協同工作。正在生成的Token數量真的、真的呈指數級增長。所以我們需要以更快的速度進行推理。當你以更快的速度進行推理,並且這些Token中的每一個都以美元計價時,這就直接轉化為收入。因此,對我們的客戶而言,推理性能就等於收入。對於資料中心來說,每瓦推理的Token數直接轉化為雲服務提供商(CSP)的收入。原因是每個人的電力都受限。無論你擁有多少資料中心,無論是100兆瓦還是1吉瓦,都有電力限制。所以,擁有最佳每瓦性能的架構就能轉化為收益,因為每瓦能產出的Token數——也就是每個Token都被計價後——轉化為每瓦的美元產出。在千兆瓦等級下,這直接決定了收入規模。你可以看到,現在每一個CSP、每一個超大規模企業都明白這一點:資本支出轉化為計算力。擁有正確架構的計算力意味著收入最大化,計算等於收入。如果現在不投資產能、不投資計算力,就不可能實現收入增長。我認為大家都明白這一點。選擇正確的架構極其重要,這不僅僅具有戰略意義,它直接影響他們的盈利能力,選擇正確的架構——即擁有最佳每瓦性能的架構——真的意味著一切。接線員 您的下一個問題來自Melius Research的Ben Reitzes。您的線路已接通。Ben Reitzes 你好,謝謝。首先讓我對你們在Non-GAAP業績中包含股票薪酬的做法表示讚賞,我認為這是一個很棒的舉措。但這並不是我的問題。我的問題是關於毛利率及其在長期內維持在75%左右(mid-70s)的可持續性。供應可見性延伸到2027自然年,我們是否能從中解讀出,在此之前這種毛利率是可持續的?另外,仁勳,那之後呢?你們是否能展示在記憶體消耗方面的創新,讓我們對毛利率長期保持在這一水平的能力感到更加安心?謝謝。Jensen Huang(黃仁勳) 影響我們毛利率最重要的一點,實際上是我們能否為客戶交付代際的性能飛躍。這是最單一、也是最重要的事情。如果我們能夠實現每瓦性能的代際飛躍,遠遠超過摩爾定律的步伐;如果我們能夠提供極高的每美元性能,遠超我們系統的成本和定價,那麼我們就能繼續維持我們的毛利率。這是一個最簡單、也是最重要的概念。我們之所以發展如此之快,首先是因為世界經歷了這幾個拐點後對Token的需求已經完全呈指數級增長。我想我們都看到了這一點。以至於連我們部署在雲端六年前的GPU都被完全消耗殆盡,而且定價還在上漲。所以我們知道,現代軟體開發方式所需的計算量正呈指數級增長。因此我們的戰略是,每年交付一個完整的AI基礎設施方案。今年,我們引入了六款新晶片(Rubin平台),下一代我們也會推出許多新晶片。每一代產品,我們都致力於提供X倍的每瓦性能和每美元性能飛躍。這種步伐,加上我們進行極致協同設計的能力,使我們能夠將這種價值和收益傳遞給客戶。只要這關乎我們交付的價值,這就是最至關重要的事情。接線員 您的下一個問題來自New Street Research的Antoine Chkaiban。您的線路已接通。Antoine Chkaiban 你好,非常感謝接受提問。我想問關於“太空資料中心”的問題,你們的一些客戶正在考慮這個想法。 你認為它的可行性有多高?時間表是怎樣的?現在的經濟效益如何?你認為這會隨著時間如何演變?謝謝。Jensen Huang(黃仁勳) 嗯,今天的經濟效益還很差,但這會隨著時間的推移而改善。正如你所知,太空中的工作方式與地球上截然不同。太空中有豐富的能源,需要巨大的太陽能電池板,但在太空中有著充足的空間。在散熱方面,太空確實很冷,但是沒有空氣流動。所以唯一能散熱的方式就是通過傳導。你需要製造的散熱器尺寸相當大。液冷顯然是不可能的,因為它很重而且會結冰。所以我們在地球上使用的方法與在太空中採用的方法會有所不同。但有許多不同的計算問題,確實很適合在太空中進行處理。所以,輝達已經有了世界上首個太空GPU,Hopper目前就在太空中。GPU在太空中最好的用例之一是成像。在太空中,利用光學技術和人工智慧,能夠以極高的解析度進行成像,能夠進行不同角度投影的計算,能夠提高解析度並進行降噪,擁有能在極高解析度和極大尺度下進行快速成像的視覺能力。要在地球上通過傳輸數PB(petabytes)的成像資料來完成這項工作是很困難的。直接在太空中處理會更容易。你可以忽略所有收集到的並在處理中發現無用的資料,直到你看到有趣的東西再回傳。因此,人工智慧在太空中將會有非常出色、非常有趣的應用。接線員 您的下一個問題來自Evercore ISI的Mark Lipacis。您的線路已接通。Mark Lipacis 你好,感謝接受我的提問。我想繼續探討關於在簡報中提到的收入多元化的問題。我相信Colette你提到過,超大規模計算企業佔了你們收入的50%以上,但業務增長卻是由其餘的資料中心客戶主導的。我只是想澄清一下,確保我理解對了。這是否意味著非超大規模客戶的增速更快?如果是這樣,你能否幫助我們理解一下,非超大規模客戶在做些什麼不同的事情?他們是在做與超大規模客戶不同的事情,還是在不同規模下做同樣的事情?你是否認為這種趨勢會持續下去?你是否預計你們的客戶群會演變到某個階段,使得非超大規模客戶成為你們業務的更大組成部分?謝謝。Colette Kress 好的,看看我們能否解答這個問題。當你想到我們提到的前五大CSP(雲服務提供商)和超大規模計算企業時,他們目前約佔我們總收入的50%。但在除此之外,還有各種類型的公司組織形式,具有極強的多樣性,這涵蓋了AI模型建構商、企業使用者、超級電腦構以及我們的主權AI客戶。此外還有很多其他不同的領域。你說的沒錯。這也是一個增長非常快的領域。我們不僅在所有各種雲提供商平台上佔據強勢地位,而且現在也在世界各地看到了極端多樣化的客戶群體。能夠看到這種多樣性並有能力服務於所有這些不同的群體,將極大地使我們受益。看看仁勳是否想再補充一點。Jensen Huang(黃仁勳) 是的,這是我們的生態系統建立在CUDA之上所擁有的優勢之一。我們是唯一一個進駐每一朵雲的加速計算平台,可以通過每一個電腦製造商獲得,並且在邊緣側可用。我們現在還在培育電信領域。很顯然,未來的無線電都將是由AI驅動的無線電,未來的無線網路也將是一個計算平台。這是不言而喻的定論,但總得有人去發明相關的技術來實現它。我們建立了一個名為Aerial的平台來做這件事。我們的技術搭載在幾乎每一個機器人、每一輛自動駕駛汽車中。CUDA能夠兼顧一方面通過GPU內的Tensor Core實現專用處理器的性能優勢,另一方面又具備極強的靈活性,這使我們能夠解決從語言問題、電腦視覺問題、機器人問題,到生物學問題、物理問題以及幾乎所有種類的AI和計算演算法問題。因此,客戶群的多樣性是我們擁有的最大優勢之一。第二點當然是,如果沒有我們自己的生態系統,即使我們的處理器是可程式設計的,如果我們不培育生態系統(就像我們今天談論投資未來生態系統並繼續強化生態系統那樣),我們很難突破僅僅在別人的生態系統中贏得幾個設計訂單(design wins)的侷限。由於我們建立的這個平台,我們可以非常自然地增長並擴大我們的生態系統。最後非常重要的一點是,我們與OpenAI、Anthropic、XAI和Meta建立的合作夥伴關係。當然,還有世界上幾乎所有的開放原始碼專案。Hugging Face上有150萬個AI模型。所有這些都在輝達CUDA上運行。如果把所有的開源模型加起來,可能代表著世界上第二大的模型集合(OpenAI是最大的,所有開放原始碼的集合可能是第二大的)。輝達能夠運行所有這一切,使得我們的平台具有極強的可替代性(fungible)、極其易用,並且值得放心投資。這創造了客戶的多樣性和平台的多樣性,並且因為我們支援全球的生態系統,所以能夠在每個國家/地區使用。接線員 您的下一個問題來自富國銀行的Aaron Rakers。您的線路已接通。Aaron Rakers 你好,感謝接受提問。我想順著平台和極致協同設計的理念問一下。過去一個季度裡的一些新聞指出,輝達有能力或正在推動將Vera CPU作為獨立的解決方案推向市場。仁勳,我很好奇,在我們向前發展的過程中,Vera在架構演進中扮演了什麼重要的角色?這是由推理工作負載的激增或異構性所驅動的嗎?我很好奇你如何看待它對於輝達的發展,尤其是基於獨立CPU的形式。謝謝。Jensen Huang(黃仁勳) 是的,謝謝提問。我會在GTC大會上告訴你更多細節。但從最高層面上講,我們在CPU架構上做出了與世界上其他CPU截然不同的根本性決策。它是唯一一款支援LPDDR5的資料中心CPU。它的設計初衷是專注於極高的資料處理能力。原因在於,我們感興趣的大多數計算問題都是資料驅動的,人工智慧就是其中之一。而Vera的單線程性能與頻寬的比例非常出色。我們做出這些架構決策,是因為在AI的整個流水線和不同階段(在進行訓練之前,你必須進行資料處理),涵蓋了資料處理、預訓練,以及現在的後訓練階段。現在AI正在學習如何使用工具。而許多工具的使用環境是在僅有CPU的環境中運行,或者在CPU與GPU加速相結合的環境中運行。Vera的設計旨在成為一款用於後訓練階段的卓越CPU。因此,在人工智慧整個流水線中的一些用例,包括了使用大量的CPU。我們既喜歡GPU,也同樣喜歡CPU。當你像我們一樣將演算法加速到極限時,阿姆達爾定律(Amdahl's Law)表明,你需要非常非常快的單線程CPU。這就是為什麼我們把Grace架構建構得在單線程性能上極其出色的原因,而Vera的性能比那還要好得出奇。接線員 您的下一個問題來自瑞銀集團的Tim Arcuri。您的線路已接通。Tim Arcuri 非常感謝。 Colette,我想知道你能否談談關於資本部署的問題。我知道你們大幅提高了採購承諾規模,聽起來你們可能已經度過了投資高峰期,而且今年你們可能會產生大約1000億美元的現金。然而,不管業績有多好,股價似乎並沒有漲太多。所以我認為你們可能會覺得目前的價位是回購大量股票的一個相當不錯的價格。我想知道你能否談談這個。問題是,為什麼不立下一個重大目標,在這裡進行一次大規模的股票回購呢?謝謝。Colette Kress 謝謝你的提問。我們非常謹慎地審視我們的資本返還計畫。我們確信,我們能做的最重要的事情之一,就是真正支援擺在我們面前的宏大生態系統。這涵蓋了方方面面:從我們的供應商,到為確保供應鏈安全並幫助他們提升產能我們所需做的工作,一直延伸到在我們平台上開發AI解決方案的早期開發者。因此,我們將繼續把這(投資生態)作為我們流程和戰略投資中非常重要的一部分。當然,我們也仍在回購我們的股票。我們也在繼續發放股息。我們將繼續在這一年中尋找合適的特定機會來進行這些回購。接線員 您的最後一個問題來自高盛公司的Jim Schneider。您的線路已接通。Jim Schneider 感謝接受我的提問。仁勳,你之前曾概述過,到2030年資料中心資本支出有可能達到3兆到4兆美元,這意味著增長率可能會加速,你也在接下來的季度指引中暗示了這一點。 我的問題是,你認為最有可能驅動這種拐點的關鍵應用有那些?是物理AI、代理式AI還是其他什麼?你仍然對3兆到4兆美元的市場預期感覺良好嗎?謝謝。Jensen Huang(黃仁勳) 是的,讓我們退一步,從幾個不同的角度來推理一下。首先,從第一性原理來看。未來開發軟體的方式是利用AI驅動的軟體。使用AI是由Token驅動的。我想大家都在談論代幣經濟學(Tokenomics),談論資料中心生成Token,推理的本質就是生成Token。我們在生成Token,剛才還談到了輝達的NVLink72如何使我們在單位能耗上以比上一代高出50倍的性能來生成Token。因此,在未來,Token生成幾乎處於所有與軟體和計算相關事務的中心位置。回顧我們過去使用計算的方式,過去軟體所需的計算量,僅僅是未來所需的一小部分。AI已經來了,且不會倒退,AI只會變得越來越好。所以,如果你想一下,過去世界每年在經典計算上的投資大約是3000億到4000億美元。而現在AI到來了,所需的計算量比我們過去計算方式所需要的要高出一千倍。計算需求就是高出很多很多。只要我們繼續相信這其中有價值(我們稍後會談到這一點),世界就會投資於計算能力來生產這些Token。因此,世界所需的Token生成能力,遠遠不僅是7000億美元所能涵蓋的。我相當有信心,從現在起,我們將繼續生成Token,我們將繼續投資計算能力。因為從根本上說,每家公司都依賴軟體,每個軟體都將依賴AI。因此,每家公司都會生產Token。這就是我稱它們為“AI工廠”的原因。如果你的公司身處雲資料中心,你擁有AI工廠為你的收入生成Token;如果你是一家企業級軟體公司,你將為你工具上的代理式系統生成Token;如果你是一家機器人製造商(自動駕駛汽車就是其最初的表現形式),你將擁有巨大的超級電腦(本質上就是AI工廠)來生成輸入到你汽車中的Token,成為它的AI大腦。然後你還必須把電腦放在汽車裡,持續不斷地生成Token。所以,我們現在非常確定這就是計算的未來。那麼,為什麼我們如此確定這就是計算的未來呢?原因在於我們過去製作軟體的方式是預先錄製的。所有的東西都是先驗捕捉好的。我們預編譯軟體,預先編寫內容,預先錄製視訊。但現在,一切都是即時生成的。當它即時生成時,它可以將人的背景、所處的場景、查詢的內容以及意圖都考慮在內,以生成這種被稱為AI(或代理式AI)的新型軟體的結果。因此,它所需的計算量遠遠、遠遠大於預先錄製好的。正如電腦擁有比預先錄製內容的DVD播放器多得多的計算能力一樣,人工智慧需要的計算能力也遠大於我們過去做軟體的方式。關於計算可持續性的問題,首先在電腦科學層面,這就將是未來計算的方式。其次在產業層面。歸根結底,所有公司都由軟體驅動,雲服務公司由軟體驅動;如果新軟體需要生成Token,且這些Token是可以變現的,那麼順理成章地,他們資料中心的建設將直接驅動他們的營收。計算驅動營收,我想他們都明白這一點,我認為外界也越來越多地開始明白這一點了。最後,AI為世界創造的效益最終必須能轉化為收入。我們正親眼看著它發展,正如我們現在所處的階段,代理式AI已經到了一個拐點。這實際上就發生在過去的兩三個月裡。當然,在行業內部,我們看到這個趨勢有一段時間了,大概有六個月左右,但現在整個世界都已經覺醒,意識到了代理式AI的拐點。代理(Agents)超級聰明,它們正在解決實際問題。程式設計工作顯然現在是由代理式系統輔助的,我們輝達內部所有的程式設計師都在大量使用代理式系統,無論是Claude Code、OpenAI Codex,還是Cursor,經常取決於用例而三者並用。但他們擁有了代理和協同設計的工程夥伴來幫助他們解決問題。你可以看到這幾家公司的營收在飆升。以Anthropic為例,我認為他們的營收在一年內增長了10倍,而且他們嚴重受限於產能,因為需求實在是令人難以置信。對Token的需求令人難以置信,Token生成率呈指數級增長。OpenAI也是一樣,他們的需求非常驚人。因此,他們能建立並上線的計算能力越多,他們的收入增長得就越快。這又回到了我之前的觀點:推理就是收入,在這個新世界裡,計算等於收入。從很多方面來看,這就是為什麼我們說這是一場新的工業革命。新的工廠、新的基礎設施正在建設中,這種新的計算方式不會倒退。因此,只要我們相信生成Token將是計算的未來——我堅信這一點,我認為整個行業也大抵相信這一點——那麼從現在起我們將繼續建設這種能力,並從這裡繼續擴張。目前我們正在經歷的浪潮是代理式AI的爆發;而在此之後的下一個拐點,是將物理AI以及這些代理系統引入物理應用中,比如製造業,比如機器人技術。所以,前方存在著巨大的機會。分析師 好的。接線員 問答環節到此結束。我將把會議交給Toshiya Hari。Toshiya Hari 在會議結束之際,請注意,黃仁勳將於3月4日在舊金山參加摩根士丹利TMT(科技、媒體及電信)會議的爐邊談話。他還將於3月16日在聖何塞的GTC大會上發表主題演講。我們討論2027財年第一季度業績的電話會議定於5月20日舉行。感謝大家今天的參與。 接線員,請結束會議。接線員 謝謝。今天的電話會議到此結束。您現在可以掛斷了。會議已結束。 (invest wallstreet)
【輝達財報】黃仁勳徹底殺瘋了!輝達財報炸裂,Q4營收狂增73%
在最近Anthropic一系列產品發佈和Citrini的“末日報告”加劇投資者恐慌之際,人工智慧(AI)熱潮經受住直接檢驗,輝達帶來“炸場”的業績,證明AI產生的需求持續強勁。美東時間25日周三,輝達公佈,在截至2026年1月31日的公司2026財年第四財季(“四季度”),營收達創紀錄的681億美元,同比大增約七成,貢獻超九成營收的核心業務資料中心也創單季收入新高,均較分析師預期水平高逾3%。AI圖片四季度輝達的盈利同樣強勁。非GAAP口徑下,調整後的每股收益(EPS)同比增長超八成,較分析師預期高約5.9%,毛利率也超預期攀升至75.2%,創一年半來新高。更令投資者鼓舞的是,輝達的2027財年第一財季(一季度)指引也強於預期。營收料再創新高,指引區間中值較分析師預期中值高7.1%,甚至比買方的樂觀預期高4%,同比增速較四季度加快至近77%。輝達指出,該指引不含中國市場的資料中心計算收入。本周三的業績電話會上,輝達CEO黃仁勳還上調了此前作出的晶片收入預期,稱我們將超越5000億美元的目標。供應將滿足今後至明年的需求。去年10月的GTC大會上,黃仁勳透露,輝達已合計獲得2025年和2026年兩個公曆年價值5000億美元的晶片訂單,其中包括將於今年開始量產的下一代Rubin晶片。黃仁勳稱,客戶競相投資AI計算。計算需求迅猛增長。企業對代理的應用飆升。他談及“太空資料中心”稱,當前的太空資料中心經濟還是“貧瘠的”,但形勢將隨著時間的推移而變化。財報公佈後,周三本已收漲超1%的輝達股價盤後拉升,盤後漲幅迅速擴大,一度漲近4%。分析認為,市場買帳的關鍵在於:資料中心收入與總營收雙超預期;毛利率隨著新一代架構Blackwell晶片的生產爬坡繼續改善,且在未計入部分中國市場收入的情況下,本財季的指引更強勁,強化了AI算力需求韌性的敘事。Q4營收創單季新高 毛利率創一年半新高四季度輝達營收同比增長73%至681.27億美元,同比增速明顯高於前一季的62%,超過輝達自身指引中值650億美元。而分析師預期營收為659.1億美元、同比增長約68%。全財年輝達的營收也創年度最高紀錄,達2159.38億美元,較上年同比增長65%。毛利率成為四季度另一亮點:非GAAP口徑下毛利率75.2%,同比提升1.7個百分點,環比升1.6個百分點,創2025財年第二財季以來單季新高,高於分析師共識預期74.7%以及樂觀預期75.0%。輝達首席財務官(CFO)Colette Kress解讀稱,毛利率的同比改善來自“庫存計提減少”,環比改善則與Blackwell晶片持續放量帶來的“更優產品結構與成本結構”相關。但整個2026財年,非GAAP口徑的毛利率在下滑,從前一財年的75.5%降至71.3%,同比下降4.2個百分點,顯示在平台切換與供給爬坡階段,全年利潤率仍會受到結構性擾動。資料中心:算力增長走穩 網路接棒加速四季度輝達的資料中心業務錄得營收623.14億美元,同比增長75%,增速高於前一季度的66%,分析師預期同比增近70%至603.6億美元。在資料中心內部,輝達給出了更值得關注的兩組數字:資料中心計算(Compute)收入513.34億美元,同比增長58%,增速略高於三季度的56%。資料中心網路(Networking)收入109.80億美元,同比增長263%,增速遠超三季度的162%。輝達將網路收入的爆發歸功於:面向GB200與GB300系統的NVLink compute fabric“推出並持續爬坡”,同時乙太網路與InfiniBand平台繼續增長。換言之,市場不應只盯著GPU本體的出貨節奏,更要看到輝達正在把“算力、互連、系統”打包為更難被替代的整體方案,網路收入的高增速正是這一策略的財務對應。客戶結構方面,公司披露:四季度,來自超大規模雲廠商(hyperscaler)的收入在整個資料中心業務的收入中佔比略超50%,仍是最大客戶類別,但當季的收入增長更多來自其他的資料中心客戶,顯示收入來源在擴散、集中度風險邊際緩解。Blackwell拉動遊戲需求 短期受供給與管道擾動四季度輝達的遊戲業務營收37.27億美元,同比增長47%,分析師預期為40.1億美元,前一季度同比增長30%。遊戲業務四季度同比加快增長,輝達解釋,主要由Blackwell晶片的需求強勁帶動。但該業務收入環比下降13%,原因是“假日旺季後管道庫存自然回落”。值得警惕的是,輝達明確提示:預計一季度及以後,供應受限將成為遊戲業務的逆風因素。四季度專業可視化營收13.21億美元,同比增長159%,分析師預期為7.707億美元,前一季度同比增長56%。專業可視化也在Blackwell帶動下實現收入同比翻一倍多、環比增長74%,成為除資料中心外最亮眼的增量業務之一。不過,該業務體量遠不及資料中心。Q1營收指引中值同比增近77% 不含中國資料中心計算收入業績指引方面,輝達公佈,一季度營收預計為780億美元,上下浮動2%,即764.4億至795.6億美元。這個區間意味著,輝達本財季的營收將刷新四季度所創的最高紀錄。以營收指引中值計算,相當於輝達預計一季度營收將同比增長76.9%,較四季度的增速73%進一步加快。輝達的營收指引中值不但高於分析師預期中值727.8億美元,還超過了買方的樂觀預期740億至750億美元。輝達的一季度毛利率與華爾街買方的樂觀預期一致,料將再創2025財年第二財季以來新高。一季度非GAAP口徑下調整後毛利率預計為75%,上下浮動50個基點,即74.5%至75.5%,買方樂觀預期為75%,賣方共識預期為74.7%。Q1起非GAAP納入股權激勵公佈財報的同時,輝達宣佈,自一季度起,非GAAP口徑下的財務指標將不再剔除股權激勵(SBC)。因這一調整,輝達預計,一季度非GAAP口徑下營運費用將受到的影響約為19億美元。這一變化會直接改變市場長期以來用來橫向比較利潤率與費用率的“慣用口徑”,短期內可能帶來一致預期模型的再校準,也會讓投資者更清晰地看到輝達為保持人才與研發領先所付出的真實成本。(華爾街見聞)
倆月了,一個也沒賣到中國去
倆月了,任是黃仁勳多方奔走、積極遊說,輝達對華晶片銷售似乎依舊毫無起色。據彭博社等24日報導,當地時間周二,美國商務部出口執法助理部長戴維·彼得斯(David Peters)透露,在川普政府批准對華出口人工智慧(AI)晶片兩個月以來,輝達公司仍尚未向中國售出任何H200晶片。當天在眾議院外交事務委員會的聽證會上,民主黨眾議員雪梨·卡姆拉格-達夫(Sydney Kamlager-Dove)問及已有多少H200晶片獲批對華銷售時,彼得斯直言:“據我瞭解,截至目前,數量為零。”中國駐美大使館與輝達均未對此予以置評。報導指出,彼得斯做出這番證詞的時機非常微妙:投資者正等待輝達擬於周三發佈的財報,屆時該公司可能會闡述其在重返利潤豐厚的中國市場方面取得的進展。2025年4月30日,黃仁勳出席在白宮舉行的活動,與美國總統川普握手。 IC Photo據報導,彼得斯在聽證會上還重點表示,美國正加大力度打擊人工智慧領域的先進半導體走私行為,將以強硬手段查處違反出口管制規定的企業。當被問到輝達與中國人工智慧初創企業深度求索(DeepSeek)工程師的合作是否涉及違規行為時,彼得斯拒絕置評,僅表示“無論違規者是誰,都將一視同仁地執法”。但在半導體走私問題上,彼得斯聲稱,相關活動“確實存在”且“正在發生”,並將其列為商務部工業與安全域(BIS)執法工作的優先事項;為強化震懾,他還提議將相關案件訴訟時效延長至10年,處罰金額提高至所謂非法交易價值的四倍以上。無獨有偶,近日有川普政府高級官員炒作稱,DeepSeek的AI模型使用了輝達最先進的AI晶片進行訓練,此舉可能違反美國出口管制。美方妄稱DeepSeek需要將相關裝置移除。2月24日,外交部發言人毛寧在例行記者會上對此回應表示,不瞭解相關具體情況。關於美國輸華晶片問題,中方已經多次表明了原則立場。路透社報導指出,由於美方相關流程中設定的管控限制,先進AI晶片的對華出貨仍處於停滯狀態。去年12月8日,美國總統川普宣佈,將允許輝達對華出口其H200晶片。不過,他同時稱,此決定有附帶條件,包括保障美國所謂“國家安全”,且美國政府將獲得25%的分成,美商務部正在敲定協議細節。消息一出,輝達隨即要求供應鏈增產H200晶片,預判中國客戶需求旺盛。然而兩個月後,英國《金融時報》援引知情人士報導稱,美國政府仍然正在進行所謂“國家安全審查”,許可證尚未發放,H200對華銷售最終審批懸而未決。今年1月,美國商務部雖發佈新規放寬H200晶片對華出口限制,但要求國務院、國防部、能源部聯合審查所有許可證申請。有消息源透露,商務部已完成評估,但國務院堅持推動更嚴格限制,聲稱要“降低中國利用H200晶片損害美國國家安全的風險”,這一立場讓輝達方面十分沮喪,有知情人士直言“國務院把事情變得非常困難”。知情人士還透露,多重不確定性之下,中國客戶在許可條件不明朗前未向輝達下達訂單,部分供應商也已暫停生產H200晶片的關鍵元件。年初,輝達創始人兼首席執行長黃仁勳再度密集訪問中國多個城市,走訪上海、深圳和台北。黃仁勳曾密集走訪上海、深圳、台北等中國城市時也坦言,因中方仍在評估相關產品元件進口許可,公司尚未收到 H200 新訂單;他雖強調 H200 高度適配中國市場、客戶需求強烈,卻也只能表示出口許可正處於最終審批階段。期間他曾透露,由於中方仍在決定是否允許進口輝達的產品元件,因此該公司尚未收到中國客戶對於H200晶片的訂單。據黃仁勳所說,在華數日行程中,他雖與客戶、官員會面洽談,但尚未收到任何H200晶片新訂單。他一方面強調H200高度適配中國市場、客戶需求強烈,另一方面也坦言,相關出口許可仍處於最終審批階段。在1月29日的外交部例行記者會上,有法新社記者援引有關報導提問稱:“中國已批准進口首批輝達的H200人工智慧晶片。外交部能否證實?對中美關係來說,此舉釋放了什麼訊號?”對此,外交部發言人郭嘉昆回應說:“我們已多次就有關問題作出回應,具體問題建議向中方主管部門進行詢問。” (觀察者網)
黃仁勳大舉「殺入」CPU
輝達大動作!小型模型推動CPU需求回升一、輝達發力伺服器CPU:契合AI方向在AI領域憑藉GPU佔據優勢的輝達,正大舉進軍CPU市場。近期,輝達與Meta擴大多年資料中心協議,除提供數百萬個Blackwell和Rubin GPU外,還將首次大規模部署僅搭載輝達Grace CPU的伺服器,Grace CPU可與Blackwell GPU搭配組成AI超級晶片,彰顯其進軍伺服器CPU的決心。輝達進軍CPU的意圖早有顯現,2020年曾計畫以400億美元收購Arm,後因監管被叫停。Arm上市後,輝達曾持有其股份,近期雖出售全部持股,但仍作為Arm客戶和合作夥伴,為Grace、Vera CPU授權使用其智慧財產權。此舉順應AI行業趨勢:大型AI模型仍依賴GPU,但小型模型推動CPU需求回升,CPU在AI資料處理、多模態解碼中作用凸顯,也是AI供應鏈瓶頸之一,推出自研CPU有助於輝達維持銷售、提升資料中心產品附加值。這對主導伺服器CPU市場的英特爾、AMD構成衝擊,尤其英特爾正面臨產能不足的困境。二、佈局PC晶片賽道,物理AI動作頻頻除伺服器領域,輝達也瞄準PC晶片市場。受蘋果M系列晶片成功啟發,其自研筆記型電腦SoC晶片(整合CPU與GPU)將於今年搭載於戴爾、聯想等產品,採用台積電3nm工藝,目標指向高性能遊戲本和緊湊型桌上型電腦,未來還將推出新一代處理器。點選看:黃仁勳大舉增持諾基亞目前,輝達正與PC廠商、英特爾、聯發科合作,但Arm架構相容性仍是其面臨的挑戰。輝達拓展CPU領域,既是應對行業競爭、鞏固市場地位的舉措,也面臨傳統巨頭與新興勢力的雙重競爭。此外,市場對AI的質疑加劇,其股價已橫盤數月,增長勢頭放緩,疊加行業焦慮情緒上升,輝達的跨界之路仍有挑戰。總體而言,晶片行業正進入新的混戰時代。 (深科技)
黃仁勳大舉增持諾基亞
輝達大動作!增持諾基亞 2.9%,物理 AI 戰略正式落地近日,輝達13F監管檔案顯示,其大幅增持諾基亞,持股達約2.9%,這並非隨機財務投資,而是黃仁勳推進“物理AI”戰略的關鍵佈局。如今的諾基亞已轉型為全球領先電信裝置供應商,在5G接入、光通訊、邊緣計算等領域積澱深厚,還擁有龐大通訊專利與全球營運商管道,能提供完整通訊基建解決方案,這正是輝達的短板所在。黃仁勳的核心目的的是繫結諾基亞,實現“算力+網路”雙向賦能:將輝達的AI計算平台下沉至通訊網路,同時借助諾基亞的技術與管道,延伸自身算力優勢至電信基建,打通物理AI落地的“最後一公里”。此次增持也是輝達從分散佈局轉向核心聚焦的體現,黃仁勳同步清倉了多款非核心標的,具體包括安謀控股(ARM)、Applied Digital、Recursion Pharmaceuticals、文遠知行等,且均為全額清倉,力度顯著。其中,清倉ARM是為徹底告別2020年收購失敗的歷史包袱,此前輝達持有約110萬股ARM股票,市值約1.4億美元,收購案因全球監管反對夭折後,剩餘持股已無戰略價值,清倉既能卸下負擔,也能避免潛在利益衝突,同時雙方技術合作不受影響,輝達仍可依託Arm架構開發伺服器CPU。清倉Applied Digital則是獲利了結與戰略收縮的雙重考量,輝達此前持有其772萬股、市值約1.77億美元,且曾參與該公司1.6億美元融資,但該標的無法適配“算力-網路-晶片”核心生態佈局,清倉後可集中精力於核心賽道。黃仁勳通過這種“清非核心、聚關鍵”的操作,聚焦諾基亞、英特爾、新思科技等核心標的,核心是建構“算力-網路-晶片設計”閉環生態,鞏固輝達在AI基礎設施領域的主導地位,踐行其佈局未來AI產業的長遠規劃。 (深科技)