#Blackwell
Blackwell 量產,AI 晶片「美國造」真能行?
輝達財報背後:回流美國製造,發力中東市場,中國市場流失。2025 年11 月20 日,輝達公佈最新季度財報,2025 年Q3 收入為570.06 億美元,較上年同期的350.82 億美元增長62%;淨利潤為319.10 億美元,較上年同期的193.09 億美元增長65%。輝達強大的吸金能力再次超越所有人的預期,三年前輝達的同期收入僅是現在的十分之一。輝達財報資訊|來源:輝達作為全球市值第一的科技公司,輝達的每一次“大漲”都突破了不少人的想像,與其說這是企業與投資者之間的博弈,不如說,輝達在所有人對AI 投入巨額資金感到恐懼時,再次用實實在在的財報資料,告訴大家不妨再大膽一些,“別人恐懼時我貪婪”無疑是輝達當前最真實的寫照。在財報會議上,輝達CEO 黃仁勳直接回應了市場的「AI 泡沫」論調,認為輝達對人工智慧泡沫的看法與市場上的說法「截然不同」。同時,也詳細闡述了輝達能觸摸到「更高」頂點是因為當下AI 正在促進三大平台轉型,將會帶來大量基礎建設投入,而這些都離不開輝達。輝達到底看到了什麼? 「AI 泡沫」真的不存在嗎? Blackwell 全面量產進展如何?當輝達再次將第四季營收提高到650 億美元,可看到輝達的雄心壯志已不再侷限於商業版圖的擴張,它正從一家晶片設計巨頭,轉變成為支撐下一輪AI 革命的「基建之王」。01. Blackwell 全面量產,AI 晶片「美國造」輝達之所以能屢次刷新紀錄,離不開Blackwell 架構晶片的全面量產與交付加速。財報資訊顯示,GPU 業務貢獻了430 億美元收入,而資料中心業務更是飆升至512 億美元,年增66%。從毛利率環比成長至73.4% 可以看出,Blackwell 架構在供應鏈體系中的量產能力已經成熟,也顯示了輝達的產能擴張策略已經開始轉化為利潤回報。輝達財報資訊|來源:輝達需求端的狂熱依舊持續。輝達首席財務官科萊特·克雷斯透露,公司上季度已宣佈總計500 萬個GPU 的AI 工廠和基礎設施項目,遍及全球不少雲服務提供商和超級計算中心。今年3 月發表的Blackwell Ultra GPU 已迅速榮登公司內部最暢銷晶片寶座,連上一代Blackwell 銷量也持續刷新紀錄。輝達CEO 黃仁勳對此直言不諱:「雲端GPU 早已售罄,計算需求正在訓練和推理方面呈指數級增長。」值得注意的是,今年10 月,輝達與台積電在美國亞利桑那工廠歷史性地亮相了首片用於AI 的Blackwell 晶片晶圓,這標誌著最強AI 晶片首次實現「美國本土製造」。據理解,Grace Blackwell 架構的AI 系統已同樣全面量產,並迅速投入眾多雲端服務商的營運中。輝達與台積電在美國亞利桑那工廠生產Blackwell|來源:路透社然而,Blackwell 全面量產的意義遠不止於此。黃仁勳在財報中強調,推動資料中心業務成長的背後是「三大平台轉型」:加速運算、強大的人工智慧模型以及智慧體應用。他解釋道,非AI 軟體正廣泛運行於GPU,AI 將催生全新應用,而無需使用者輸入的「智能體AI」將對計算能力提出更高要求。黃仁勳堅信,人們很快就會意識到AI 繁榮背後的深層變革,而非僅僅關注資本支出的波動。這番言論顯然為市場注入了一劑「強心針」,不少分析師認為其有效緩解了投資者對「AI 泡沫」的擔憂,甚至有評論稱「或許人工智慧交易終究還沒有結束」。當被問及輝達成長的最大限制因素時,黃仁勳並未指向具體環節,而是強調了AI 行業的巨大規模、新興性和複雜性,以及在供應鏈、基礎設施和融資方面進行周密規劃的重要性。黃仁勳曾透露,公司在2025 年和2026 年已斬獲價值5,000 億美元的AI 晶片訂單。如今,輝達CFO 科萊特·克雷斯更是大膽預測,截至2026 年12 月的兩年內,銷售額可能超越原定預期目標。相較於截至2025 年1 月財年僅1,300 億美元的收入,輝達近兩年來呈指數級成長。02. 中國訂單,開始「微不足道」儘管輝達在全球市場勢如破竹,但在中國市場的表現仍受限。今年夏天,輝達為爭取H20 晶片的對華出口許可,輝達付出了諸多努力。最終,在黃仁勳親自與美國政府溝通並達成協議,將中國銷售額的15% 上繳美國政府後,輝達獲得了相關許可證。一些分析師曾樂觀預測,中國業務可望為公司每年貢獻高達500 億美元的收入。然而,實際銷售資料卻遠低於預期。克雷斯在財報電話會議上透露,本季H20 晶片的銷售額僅為5000 萬美元,這一數字與先前的市場預期形成了鮮明反差,也直觀反映出其在中國市場的開拓進展並不順利。克雷斯更直言不諱:「由於地緣政治因素以及中國市場日益激烈的競爭,本季度未能達成大額採購訂單。儘管我們對目前阻礙我們向中國出口更具競爭力的資料中心計算產品的現狀感到失望,但我們仍致力於繼續與美國和中國政府保持溝通。」黃仁勳在聯歡會上扭秧歌|來源:輝達但從電話會議中能夠明顯感受到,輝達對中國市場不再抱持太高預期,市場戰略重心也正悄悄向中東傾斜。本季度,輝達在中東的落地項目加速。美國商務部已批准向沙烏地阿拉伯和阿聯的兩家公司出口至多3.5 萬顆輝達Blackwell 晶片,市場估計這筆訂單價值將遠超10 億美元。這不僅是Blackwell 架構晶片首次被官方明確批准大規模出口,更直接體現了中東國家對高端AI 算力基礎設施的巨大投入和輝達在該區域的強勁滲透力。如今,輝達與沙烏地阿拉伯的合作已不限於硬體銷售,更延伸至建立大型AI 資料中心、提供技術支援和人才培養方案等深層領域。這些實實在在的投資與合作,不僅共同建構了輝達在中東市場的強大存在感,也分散了因中國市場受限而帶來的潛在風險,從而確保其全球AI 領導地位的持續穩固。03. 藏在財報背後的隱憂,AI 泡沫是真是假?現在,沒有人不看好輝達。全球第一,市值突破5 兆美元,本益比高達30 倍,高速成長仍在持續。當輝達攀升至如此高度,市場仍普遍預期輝達強勁成長將在未來幾年持續,甚至大家認為在經濟下行周期中,該公司2028 年的本益比將維持在26 倍左右。儘管3.8% 的年化獲利收益率可能短期內看起來不那麼吸引人,尤其是需要幾年才能實現,但要知道,我們討論的是一家明年仍可能實現50% 同比增長的公司。在這種情境下,如今我們將輝達投資者的擔憂簡單歸結為因為「AI 泡沫論」的市場恐懼,恐怕失之偏頗。深入分析財報資料背後,我們發現輝達仍面臨著一些未被完全公開的挑戰。首先,是其隱藏的資本支出。當全球科技巨頭紛紛需要對巨額AI 基礎設施投入向投資者做出解釋時,輝達自身的資本支出卻鮮少公開。輝達近期披露,已與雲端服務供應商達成協議,將在未來六年內租用價值高達260 億美元的伺服器,這一數字是三個月前承諾的兩倍,輝達本身也正在成為全球最大的雲支出方和GPU 使用者之一。更值得關注的是,輝達表示可能不會完全使用全部伺服器容量,且部分租賃承諾「可能會被其租用伺服器的雲服務提供者減少、終止或出售給其他方」。此外,輝達還透過從Lambda 等雲初創公司回租AI 晶片來支援其生態。這表明,作為“AI 賣鏟人”,輝達有時也需要通過大量資金投入,來維持自身業務生態的活力和競爭力,這無疑增加了其商業模式的複雜性。其次,輝達的大客戶同時也將是其潛在的競爭對手。一份監管檔案揭露,輝達第三季高達61% 的營收來自四大未具名客戶,市場猜測可能包括微軟、Meta 和Oracle。然而,這些科技巨頭顯然不願永久受限於輝達的供應鏈,正紛紛尋求自研AI 晶片等替代方案,試圖擺脫輝達的控制。像是Google的TPU 晶片在贏得更多客戶青睞,AMD 等傳統競爭對手也持續發力,Open AI、Meta 都開啟了自研AI 晶片的計畫。由輝達和OpenAI 聯手打造的AI 生態|來源彭博社而且,當前輝達的業務成長並非完全源於純粹的市場需求,而是部分受到了其「金錢超能力」的驅動。黃仁勳也直接指出「輝達正在用現金來推動成長」。例如,公司上季向其兩大主要客戶OpenAI 投資高達1,000 億美元,並向Anthropic 投資100 億美元。值得注意的是,Anthropic 先前主要使用亞馬遜和Google的晶片,而在獲得輝達投資後,這家AI 公司將首次使用輝達晶片訓練模式。這凸顯了輝達對少數與其關係密切客戶的高度依賴,及其某些交易的循環性質。再者,想要實現AGI 所需的海量資料中心建設,將會面臨土地和電力的巨大限制。黃仁勳在電話會議上回應了這些擔憂,他表示輝達正積極努力,確保晶片供應鏈以外的因素不會阻礙其發展。 「我們現在已經與土地、電力和資料中心建設領域的眾多企業建立了合作關係,當然,也包括為這些項目提供融資。這些事情都不容易,但都是可以解決的。」這表明輝達已認識到未來增長的瓶頸所在,並已著手建構更廣闊的生態合作,以應對AI 基礎設施建設所帶來的複雜系統性挑戰。更重要的是,AI 商業模式的持續性仍面臨質疑。當輝達、台積電因為AI 狂賺的同時,其他廠商的生產效率提升卻並不明顯,如果AI 未能持續創造可觀利潤,客戶隨時可能減少投入,輝達的增長也會放緩。據統計,儘管未來五年AI 基礎設施投資預計將達到約4 兆美元,但目前能夠看到的生產率提升預測卻從年化0.1% 到2.9% 不等,存在巨大不確定性。尤其是,自ChatGPT 發佈以來,全球股市市值已累計增長超17 兆美元,其中相當部分由AI 敘事推升。但投資者如今開始重新審視,這一輪巨額投資是否能形成持續且可衡量的回報,而非只是一次性的估值推力。毋庸置疑的是,現在輝達強勁的訂單表現是可預測的,但真正的關鍵在於管理階層對未來需求、供應鏈韌性及顧客投資節奏的判斷。分析師Murphy 警告稱,一旦輝達釋放任何有關AI 採購節奏放緩的訊號,其衝擊將不僅限於晶片類股,更會波及資料中心、伺服器供應鏈乃至整個相關軟體生態。「與其說大家是害怕AI 泡沫,不如說大家都想在輝達股價雪崩的前一刻逃生」,一位投資者在推特上說道。 (極客公園)
首個美國製造Blackwell晶圓量產下線!
晶圓代工龍頭大廠台積電和人工智慧晶片大廠輝達(NVIDIA)共同宣佈美國當地時間10月17日,晶圓代工龍頭大廠台積電和人工智慧晶片大廠輝達(NVIDIA)共同宣佈,他們在美國亞利桑那州鳳凰城附近的台積電Fab 21晶圓廠製造的第一款基於輝達Blackwell GPU的晶圓正式量產下線。輝達創始人兼執行長黃仁勳當天也參觀了台積電Fab 21晶圓廠,慶祝第一款輝達Blackwell晶圓在美國本土生產實現量產。在慶祝活動的舞台上,黃仁勳與台積電運營副總裁王永利一起在Blackwell晶圓上籤名,以紀念這一里程碑,展示了人工智慧基礎設施的核心引擎現在是如何在美國構建的。「這加強了美國供應鏈並建立了在岸人工智慧技術堆疊,將數據轉化為情報,並確保美國在人工智慧時代的領導地位。」輝達在新聞稿中指出:「今天的成就標誌著美國半導體製造和人工智慧發展向前邁出了一大步,為美國在人工智慧領域的持續領導地位鋪平了道路。NVIDIABlackwell GPU 為AI 推理提供卓越的性能、投資回報率和能源效率。「這是一個歷史性時刻,原因有幾個。這是美國近代歷史上第一次由最先進的晶圓廠台積電在美國製造最重要的晶片,」黃仁勳在活動中說。 “這是川普總統對再工業化的願景——當然,將製造業帶回美國,創造就業機會,而且,這是世界上最重要的製造業和最重要的技術行業。”台積電亞利桑那州首席執行官Ray Chuang 表示:「從抵達亞利桑那州到在短短幾年內交付第一款美國製造的NVIDIA Blackwell 晶片,代表了台積電最好的表現。這一里程碑建立在與輝達三十年的合作之上——共同突破技術界限——以及我們的員工和當地合作夥伴堅定不移的奉獻精神,他們幫助台積電亞利桑那成為可能。」由於台積電Fab 21 目前量產的工藝工藝是4nm,因此,此次台積電通過Fab 21為輝達代工的Blackwell晶片應該是之前已經在台灣量產的Blackwell B300核心GPU的小晶片。目前台積電在亞利桑那州還沒有先進封裝廠,同樣在亞利桑那州的Amkor的先進封裝廠還在建設當中,因此,台積電為輝達製造的Blackwell晶圓還需要運輸到台灣進行後段的先進封裝,最終才能夠成為可用的Blackwell GPU晶片。輝達在新聞稿當中還指出,台積電亞利桑那晶圓廠將生產先進技術,包括4nm、3nm和2nm晶片,以及更先進的A16製程晶片,所有這些對於人工智慧、電信和高效能計算等應用都是必不可少的。2020年台積電就宣佈了在美國亞利桑那州投資120億美元建廠項目,並於2021 年4 月開始在該地區建造首個晶圓製造廠。隨後,台積電宣佈將對美投資擴大至650億美元,除了最初的一座晶圓廠之外,還將建立兩座晶圓廠。目前,台積電亞利桑那州第一座4nm製程晶圓廠已經開始量產;第二座3nm製程晶圓廠,目前正在建設當中,原定於2026年開始量產,但後面推遲到了2028年,現在似乎又在加快進度。這兩座晶圓廠完工後,合計將年產超過60萬片晶圓,換算至終端產品市場價值預估超過400億美元。第三座晶圓廠最近已經開始破土動工,將生產2nm或更先進的A16製程技術,預計在2029~2030年間量產。另外,在今年3月,台積電又宣佈美國追加1,000億美元投資,包含再建設三座新晶圓廠、兩座先進封裝設施,以及一家主要研發中心。目前這些建設計劃還處於早期規劃階段。在數日前的台積電第三季法會上,魏哲家表示,目前在美國主要客戶及美國政府強力協作與支援下,都開始陸續在台積電亞利桑那州晶圓廠投片,台積電也將持續加速亞利桑那州的產能擴張,並按計畫進行。但鑑於客戶強勁AI 需求,台積電準備在亞利桑那州加快技術升級至更先進流程。魏哲家還指出,台積電即將獲亞利桑那州現有晶圓廠鄰近的第二塊地,以支援現有擴張計劃,這將使台積電在亞利桑那州建立獨立的“gigabyte cluster”,以支援智能手機、AI 與HPC 應用的領先客戶的需求。 (芯智訊)
最強 AI 晶片要推中國特供版?黃仁勳最新發聲,3500 億的市場太誘人
短短兩天,寒武紀兩度超越貴州茅台,成為 A 股第一高價「股王」。而推動使用者預期不斷攀升的,離不開 AI 市場的持續火熱。與之形成此消彼長走勢的是,輝達在今日公佈 2026 財年第二季度財務業績後,反而股價大跌,不過交出的成績單還是亮眼的:營收達 467 億美元,較第一季度增長 6%,同比增長 56%資料中心收入為 411 億美元,較第一季度增長 5%,同比增長 56%Blackwell 資料中心收入環比增長 17%這家曾經的遊戲顯示卡廠商,如今市值突破 4 兆美元,成為 AI 時代當之無愧的「賣鏟人」,也難怪不少人將本次財報比作解答 AI 泡沫疑慮的答卷。被「寵壞」的市場預期,和永遠在路上的下一代產品輝達正被自己過去的成功所綁架,這是一種甜蜜的詛咒。過去多個財季,輝達每次都超越了營收預期,這種「業績超預期並上調指引」的固定模式,已經讓市場習慣於期待一次又一次的超預期。但問題是,當輝達總是給出 110 分的答案,那麼 100 分就顯得像是不及格。在財報前夕,市場關注的焦點集中在新一代 Blackwell GPU 和 NVL72 機架的大規模部署上。從技術角度看,這種期待並非空穴來風。輝達花費數年時間打造了 Blackwell NVLink 72 系統 ——一種機架級計算平台,使其能夠作為一個單一的巨型 GPU 運行。從 NVLink 8(節點級計算,每個節點是一台電腦)過渡到 NVLink 72(機架級計算,每個機架是一台電腦),不僅帶來了數量級的性能提升,也就意味著更高的能效和更低的 Token 生成成本。輝達創始人兼 CEO 黃仁勳表示:「Blackwell 是全球期待已久的人工智慧平台,帶來了卓越的一代飛躍 —— Blackwell Ultra 正在全速量產,市場需求極為強勁。」新一代核心 Blackwell 架構的 B100/B200 系列,性能相比 H100 提升了 2.5 倍。GB200 NBL 系統正在被廣泛採用,已在國內外雲服務商和網際網路公司大規模部署。包括 OpenAI、Meta 等廠商也正在資料中心規模上使用 GB200 NBL72,不僅用於訓練下一代模型,也用於生產環境中的推理服務。且由於 GB200 與 GB300 在架構、軟體和物理形態上的相容性,使得主要雲服務商向新一代基於 GB300 的機架架構過渡過程十分順暢。據輝達 CFO Colette Kress 透露,7 月下旬和 8 月上旬的工廠產線已順利完成轉換,以支援 GB300 的爬坡生產。「目前已全面進入量產階段,產能恢復到滿負荷,每周大約生產 1000 個機架。隨著更多產能的上線,預計在第三季度內產量還將進一步加快。我們預計在下半年實現大規模市場供應。」按照慣例,Blackwell 之後還有代號「Rubin」的下一代架構,預計 2026 年推出,隨後是 2027 年的「Rubin Ultra」。這種快速迭代的節奏,既保持了技術領先,又讓競爭對手永遠在追趕路上。輝達 CFO Colette Kress 對 AI 市場的發展有著更為龐大的野心,她在財報電話會議上表示「我們正處在一場將改變所有行業的工業革命開端。預計到本十年末,AI 基礎設施的投入將達到 3 到 4 兆美元。這一增長主要來自雲廠商到企業的資本開支,僅今年就預計在資料中心基礎設施和算力上的投資將達到 6000 億美元,兩年間幾乎翻倍。」這也是過去很長一段時間,輝達反覆強調的事情——輝達已經不再是單純的 GPU 公司,而是一家不折不扣的 AI 基礎設施公司。黃仁勳今天凌晨的原話是這麼說的:以 1GW 規模的 AI 工廠為例,造價可能在 500 億至 600 億美元之間,其中大約 35% 左右由 NVIDIA 提供(上下浮動)。這裡客戶獲得的不僅僅是 GPU。雖然我們以 GPU 的發明而聞名,但過去十年,我們已經轉型成為一家 AI 基礎設施公司。要打造一台 Rubin AI 超級電腦,就需要六種不同類型的晶片。而要擴展到 1GW 規模的資料中心,就需要數十萬 GPU 計算節點和大量機架。因此,我們的定位是 AI 基礎設施公司,希望能持續推動這個行業的發展,讓 AI 更有用。並且,在黃仁勳看來,輝達的亮眼之處在於 GPU 的能效最佳。在電力受限的資料中心,性能功耗比直接決定了收入,而性能功耗比遠超任何其他計算平台,所以買得越多,成長越快。尤其是當推理型與智能體 AI 的發展與普及,所帶來的算力需求呈指數級增長,而這種對 AI 計算能力「永不滿足」的需求,成了輝達營收增長的主要引擎。不僅如此,輝達提供的 CUDA 平行計算平台、推理加速庫、各行業 AI 模型框架等,已成為 AI 開發者必備工具。這種生態壁壘意味著客戶一旦採用輝達方案,往往難以替換。換句話說,輝達真正提供了一個面向 AI 工廠的完整全端解決方案。黃仁勳:將 Blackwell 帶到中國市場這季度財報最扎眼的資料,在於明確了中國市場的影響。輝達 2026 財年第二季度財報顯示,來自中國市場收入 27.69 億美元,比 2025 財年第二季度的 36.67 億美元縮水近 9 億美元。相應地,黃仁勳表示,中國市場在資料中心總收入中的佔比已降至「低個位數百分比」 。當然,輝達的當務之急,或許就是推出一系列性能降低、符合出口管制的「合規晶片」。這一策略始於基於 Hopper 架構的 H20,並延續至基於新 Blackwell 架構的產品線。據路透社此前報導,輝達正在準備專為中國定製的 Blackwell 架構削減版 GPU(代號 B30A)。該晶片性能介於受限 H20 和國際版高端 GPU 之間,如獲批准將瞄準中國高端算力需求。此外還有一款規格較低的推理晶片 RTX6000D,專門針對中國市場的特定需求。作為全球第二大計算市場,黃仁勳表示中國市場今年對輝達來說大約有 500 億美元(折合人民幣 3577 億元)的機會,而且每年會以 50% 左右的速度增長。在他看來,來自中國的開源模型質量非常優秀。例如 DeepSeek 在全球聲名鵲起,Qwen 很出色,Kimi 也很出色。還有許多新的模型不斷湧現,它們是多模態的,是優秀的大語言模型。這些開源模型實際上推動了全球企業對 AI 的採用。另外黃仁勳還不忘表示,將 Blackwell 帶入中國市場是完全有可能的。包括黃仁勳上個月也親自來華斡旋,表態將不遺餘力最佳化產品以符合監管要求,並堅定服務中國市場。但在另一側,國內力量正在加速崛起。最近,DeepSeek 發佈了最新版本 V3.1,被稱為「邁向 Agent 時代的第一步」。但更重要的訊號還在於,DeepSeek V3.1 引入了一種稱為「UE8M0 FP8 Scale」的新參數精度格式,並明確表示這是「針對即將發佈的下一代國產晶片設計」的精度格式。DeepSeek 採用的 UE8M0 FP8 格式尤其針對國產晶片的硬體邏輯特點設計,在 8 bit 的位寬限制下(即當前低精度場景)丟棄尾數而極大擴展指數動態範圍。這一設計讓國產晶片在大模型訓練中更穩定,高效利用每一點算力。此外,對於許多在 HBM 高頻寬記憶體上不及輝達的國產晶片而言,FP8 格式有效緩解了頻寬瓶頸,讓硬體性能得到充分發揮。而巧合的是,輝達最近提出的 NVFP4(4 位數值格式)則在大模型預訓練領域實現了突破。相比於以往訓練常用 16 位(FP16/BF16)或 8 位 (FP8)精度,而 NVFP4 將精度進一步壓縮到 4 位,在保持模型精度的同時大幅提升訓練速度和算力利用率。實驗結果顯示,在 120 億參數的 Mamba-Transformer 混合模型上,NVFP4 能完整訓練到 10 兆 token,收斂效果幾乎與 FP8 一致,下游任務測試精度也基本相同。只是,當國產頭部晶片廠商組建「朋友圈」,共同打造適配本土晶片的軟體棧、工具鏈,也將有望提升下遊客戶對國產方案的信心。輝達依舊是在淘金熱中穩賺不賠的「賣鏟人」。但現在,礦場邊上湧現出越來越多本土的鐵匠鋪,正用本地的礦石和工藝,打造出更適合本地礦工的工具。 (APPSO)
輝達B30性能將為Blackwell GPU的80%
8月24日消息,據《華爾街日報》最新的報導指出,人工智慧(AI)晶片廠商輝達(NVIDIA)正為中國市場開發一款基於最新 Blackwell 架構的定製版AI晶片B30,性能將達到Blackwell GPU的80%。Blackwell GPU系列包括B100、B200、B300等型號,報導所指的“標Blackwell GPU”可能為B100。報導稱,輝達已經向美國政府提交了B30晶片的對華出口許可申請,以批准向中國出口。這些談判於今年早些時候開始,但是最終能否獲得許可仍不確定。此前在與黃仁勳會晤批准H20對華出口許可後,川普接受媒體採訪時曾表示,他不會允許Blackwell晶片在沒有大幅降級的情況下銷往中國。川普說,如果 Blackwell 的性能比該公司的頂級產品性能低至少 30%,他將允許輝達出貨。“我有可能就‘以消極方式得到一些增強’的Blackwell GPU達成協議,”川普對記者說。“換句話說,從中扣除 30% 到 50%。”他還提到,黃仁勳計畫再次拜訪他,以就Blackwell晶片的出口許可證進行談判。川普的此番言論,似乎也為後續輝達B30獲批埋下了伏筆。畢竟,輝達H20在重新獲批後,如果在中國市場銷售情況不佳,即使川普政府可以分享15%的銷售額,但是恐怕也拿不到多少錢。如果川普政府想要從輝達在華貿易中獲取更多的銷售分成,那麼就很有可能會批准更具競爭力的B30的對華出口。當然,B30的性能相比頂級的B300必然也是需要大幅削減的,特別是在HBM容量和記憶體頻寬方面,但至少應該會比H20性能更強。此前路透的報導稱,輝達最新的對華提供的Blackwell 架構GPU是基於單晶片版本的B300(即B300A)打造,因此型號或為“B30A”。根據資料顯示,B300A基於台積電4nm製程,CoWoS-L 先進封裝,擁有144GB HBM3E,功耗為600W。路透社的報導還指出,輝達希望最早在下個月向中國客戶提供樣品進行測試。 (芯智訊)
台股觀望關稅變數,量能回升前如何應對
台股延續震盪修正格局,量能偏低、投資氣氛保守,主要原因是市場還在觀察美國最新一波的關稅政策,目前尚無提及台灣,如果成交量無法回升,整體走勢就很難真正轉強,操作難度明顯升高,面對不確定盤勢,該如何調整持股策略與資金配置?〈吹哨人策略再次驗證!提前落袋、避開假突破〉今天台股走勢完全印證智霖老師先前所提醒的,目前仍屬於技術性修正格局,指數開低後維持震盪整理,盤中一度下探22190點,尾盤在權值股撐盤下收斂跌幅,終場下跌66點、收在22362點,雖然年線一度失守,收盤則成功站回,成交量只有2720億元,少了整整一千億,離預估的4200億重新轉強條件還有明顯落差,顯現多方暫時沒有發動條件,行情仍在修正中。不少投資人會擔心現在是不是空頭,其實不是,老師從6月底以來都很明確提醒大家,這是一段整理行情,也是一段需要策略、不能追價的時期,市場對美國關稅政策未明,資金傾向防守、操作難度大幅提高,今天下跌家數達727家,遠高於上漲的249家,跌家比幾乎是3:1,不難看出即便有部分族群表現亮眼,但整體市場風險情緒仍居高不下,也再次印證老師過去兩週直播中所強調的「假突破、真出貨」現象已成主流,提醒投資人務必謹慎應對。〈關稅議題尚未明朗,觀望氣氛延續〉川普在7日公布首波對14國的新關稅政策,目前尚未涵蓋台灣,不確定性仍在,日韓雖被課稅,股市卻是上漲反應,顯示市場對利空已有部分提前反應,也呼應老師近期觀點中強調的,當真正利空出盡時,往往是轉機起點,目前市場成交量尚不足,整體轉強條件尚未成熟,建議降低持股比重、聚焦穩健族群,只有資金回來,行情才有機會重新發動。智霖老師在6月底直播預告第三季會鎖定的三大主軸「ABC」族群,今天換B系列中的PCB與CCL表現突出,像是金像電(2368-TW)、台光電(2383-TW)、台燿(6274-TW),都在營收帶動下吸引買盤,金像電更是創下近期新高,這些個股雖然短線有機會,但個股估值已經偏高,操作上必須降低停利目標、適時調節部位,尚未布局者切勿追高。〈立即填表體驗陳智霖分析師APP的3福利〉建議忠實粉絲觀眾立即填表申請體驗陳智霖分析師APP的三福利,讓老師帶你掌握市場脈動、操作節奏!:https://lihi.cc/RFzlE/0708〈結構偏空不是崩盤,防禦性選股重心不變〉盤勢震盪期間,老師持續點名的「電力能源」股相對抗跌的特性再次展現,今天華城(1519-TW)盤中翻紅,中興電(1513-TW)、泓德能源(6873-TW)則在平盤附近抗跌,融資水位低、大戶籌碼集中,這些標的不受匯率與關稅波動影響、營收結構穩定,再加上籌碼乾淨,這就是在震盪盤裡你該有的核心配置,尚未持有的投資人也可以鎖定我的APP,未來有拉回或加碼機會,老師都會即時通知。當市場進入觀望與修正期,許多投資人最常見的錯誤就是急於進出、追逐短線強勢股,此時比起「搶反彈」,更重要的是「守現金」,老師早已提醒大家,下半年有疑慮的產業要先汰換,智霖老師持續鎖定籌碼穩定、基本面良好、產業具成長性的族群,與其被動等待,不如跟著老師主動布局,邀請你先下載老師的APP,填寫表單申請體驗陳智霖分析師APP三福利,讓老師帶你選對產業、掌握每週選股,以穩健的步伐應對波動,更詳細的內容請收看最新的直播節目。最新影音(請點影音上方標題至Youtube收視品質會更佳)https://youtu.be/bzuZ6s5JD6A〈立即加入陳智霖分析師正版官方LINE@〉掌握市場脈動!最新股市趨勢解析、熱門產業的深入洞察,點擊連結立即加入陳智霖分析師正版官方LINE@,接收好康資訊:https://lihi.cc/5dEsA/0708錢進熱線 02-2653-8299,立即邁向系統依據的股票操作。文章來源:陳智霖分析師/ 亨達投顧
輝達電話會全文!黃仁勳:“AI推理爆炸式增長”,痛失H20巨額收入但Blackwell晶片周產7.2萬顆GPU
輝達CEO黃仁勳罕見稱讚中國AI模型 “DeepSeek R1如ChatGPT般越思考越聰明” ,同時對H20相關影響表示痛心“500億中國市場對美關閉” 。儘管輝達Q2預計將損失H20相關80億收入,但Blackwell晶片正以周產72,000顆GPU創紀錄速度交付,支撐微軟單季處理100兆Token的“海嘯般”推理需求。他信心滿滿地說:“Blackwell 已全面投產,我們已經開足馬力。我們現在擁有多個重要的增長引擎。”隔夜,輝達Q1財報重磅出爐。這家AI晶片巨頭扛住了川普政府出口限制的壓力,業績總體穩健:Q1營收超預期增69%,Q2料H20收入減少80億,但總收入指引頂住出口限制壓力。財報發佈後,輝達CEO黃仁勳、CFO Colette Kress舉行財報電話會,就“H20出口限制重創收入”、“中國市場”、“Deepseek”、“AI市場需求激增”、“Blackwell產能爬坡”等熱點問題進行了回應。對於H20出口限制,黃仁勳表示痛心。中國是全球最大的AI市場之一,也是通往全球成功的跳板。有全球一半的AI研究人員在中國,贏得中國市場的平台有望在全球領先。不過,黃教主對“AI推理需求爆炸式增長”充滿信心。他表示,推理token(AI計算單元)量是傳統一次性聊天的100-1000倍。Grace Blackwell的設計目標正是以更低成本支援這種複雜推理,其吞吐量比Hopper高40倍。Colette Kress也指出:OpenAI、微軟和Google在token生成方面正經歷階梯式躍升。微軟在第一季度處理了超過100兆個 token,同比增長五倍。他直言,儘管H20出口限制將對輝達未來的業務產生重大的不利影響,但Blackwell產品線爬坡速度是公司歷史上最快的,推動了資料中心收入同比增長73%。他表示,輝達在製造良率方面看到顯著改善,機架出貨量正以強勁速度交付。GB300也預計本季度末量產發貨。以下為財報電話會要點內容總結:01H20收入預計減少80億黃仁勳:中國是全球最大的AI市場之一Colette Kress表示,由於新的出口限制,輝達在第一季度無法交付 25 億美元的 H20 收入。失去我們相信將增長到近 500 億美元的中國 AI 加速器市場的准入,將對公司未來業務造成重大不利影響。對於第二季度,我們預計中國資料中心收入將大幅下降。我們的展望反映了第二季度 H20 收入損失約 80 億美元。對於H20出口限制,黃仁勳稱,“新的限制使我們幾乎不可能將 Hopper 的性能降低到任何有實際用途的程度。我們目前沒有任何替代產品,但正在考慮能否為中國市場打造‘有吸引力’的解決方案。若無法恢復對華供應,美國在 AI 領域的全球領導地位將難保障。中國企業將在 AI 領域自主成功。”他說道,中國是全球最大的AI市場之一。中國是全球最大的AI市場之一,也是通往全球成功的跳板。有全球一半的AI研究人員在中國,贏得中國市場的平台有望在全球領先。今天,價值500億美元的中國市場實際上對美國產業是關閉的。02Blackwell產能持續爬坡、周產72000顆GB300預計本季度末量產發貨Colette Kress表示,“雖然 Blackwell 仍處於生命周期的早期階段,但僅在過去一個月,軟體最佳化已將其性能提升了 1.5 倍。”“Blackwell 產品線爬坡速度是公司歷史上最快的,推動了資料中心收入同比增長 73%。Blackwell 在本季度貢獻了資料中心計算收入的近 70%,從 Hopper 的過渡已接近完成。”他提到,輝達在製造良率方面看到顯著改善,機架出貨量正以強勁速度交付。平均而言,主要超大規模客戶每周部署近 1,000 個 NVL72 機架(72,000 顆 GPU),預計本季度進一步提產。對於GB200之後的新一代AI伺服器系統,Kress透露,GB300系統本月開始樣品提供,預計本季度末量產發貨。其採用與GB200 相同的物理尺寸和電氣規格,實現無縫過渡。03AI推理需求出現爆炸式增長Colette Kress在電話會議上強調了當前AI推理需求的顯著增長:“我們正在見證推理需求的急劇躍升。OpenAI、微軟和Google都看到了Token生成量的階躍式增長。微軟在第一季度處理了超過100兆個Token(AI計算單元),同比增長五倍。”這種增長主要來自於推理型AI工作負載的轉變。尤其是推理型工作負載從簡單的問答模式轉向了更複雜的推理型AI,這種轉變需要處理更多的計算任務和生成更多的Token。輝達的Blackwell架構正是為滿足這種需求而設計的。黃仁勳表示,推理 token 量是傳統一次性聊天的 100-1000 倍。 代理式 AI 需要逐步解決問題、呼叫工具、分析多模態資料,計算強度顯著提升。Grace Blackwell 的設計目標正是以更低成本支援這種複雜推理,其吞吐量比 Hopper 高 40 倍。04黃仁勳稱讚DeepSeek通義千問:最佳開源AI模型之一黃仁勳說,最終,贏得 AI 開發者的平台將贏得 AI。出口限制應該加強美國平台,而不是將世界上一半的 AI 人才推向競爭對手。關於 DeepSeek,來自中國的 DeepSeek 和 Qwen(通義千問) 是最佳開源 AI 模型之一。免費發佈後,它們在美國、歐洲及其他地區獲得了關注。DeepSeek R1,就像 ChatGPT 一樣,引入了推理 AI,它思考的時間越長,給出的答案就越好。05全球AI基礎設施建設提速黃仁勳在電話會議上透露了公司對全球AI基礎設施建設的宏偉願景:“我們可以預見到在不遠的將來,需要數十吉瓦的輝達AI基礎設施的項目。”他指出,AI是一種基礎設施。就像電力和網際網路成為基礎設施一樣,AI將成為每個國家、每個行業必不可少的基礎設施。我們正處於這種基礎設施建設的初期階段。他特別提到,美國是AI早期起步者,但現在全球各國都認識到AI作為基礎設施的重要性,正在建設國家級AI平台來提升其數字能力。06企業AI與工業AI的崛起在談到公司的增長引擎時,黃仁勳強調企業AI和工業AI正在成為公司的重要發展方向。“企業AI已經準備好起飛。AI代理比生成式AI更具革命性,它們能夠理解模糊且隱含的指令,能夠解決問題並使用工具。我們的RTX PRO企業伺服器、DGX Spark和DGX Station企業AI系統已經準備好對現有的5000億美元IT基礎設施進行現代化改造。”黃仁勳說道。對於工業AI,黃仁勳指出:“每一個工廠都將配備一個AI工廠。我們的Omniverse和Isaac GR00T正在為全球下一代工廠和人形機器人系統提供動力。”07展望未來,黃仁勳:全力以赴!Blackwell已全面投產我們現在有多個重要的增長引擎儘管面臨多個市場的挑戰,輝達仍對未來保持樂觀。黃仁勳總結道:“這是強勁新一波增長的開始。Grace Blackwell已全面投產,我們已全力以赴。我們現在有多個重要的增長引擎。”他強調了幾個關鍵增長領域:推理需求激增、主權AI(各國正在建設國家級AI基礎設施)、企業AI和工業AI。黃仁勳認為,AI時代已經到來,輝達已準備就緒。展望未來,輝達計畫在第二季度實現450億美元的營收。公司預計第二季度GAAP和非GAAP毛利率將分別達到71.8%和72%,到今年晚些時候有望達到中70%的水平。以下為AI翻譯的財報電話會全文:NVIDIA 2026 財年第一季度財報電話會議活動日期: 2025 年 5 月 28 日公司名稱: NVIDIA活動描述: 2026 財年第一季度財報電話會議來源: NVIDIA2026 財年第一季度財報電話會議演示環節會議操作員 (Operator):下午好。我叫 Sera,今天我將擔任您的會議操作員。此時,我想歡迎各位參加 NVIDIA 2026 財年第一季度財務業績電話會議。為防止任何背景噪音,所有線路均已靜音。在發言人講話之後,將有一個問答環節。謝謝。Toshiya Hari,您可以開始會議了。主持發言人Toshiya Hari:謝謝。大家下午好,歡迎參加 NVIDIA 2026 財年第一季度的財報電話會議。今天和我一起出席的 NVIDIA 管理層有:總裁兼首席執行官黃仁勳 (Jensen Huang);以及執行副總裁兼首席財務官 Colette Kress。我想提醒您,我們的電話會議正在 NVIDIA 投資者關係網站上進行網路直播。該網路直播將在我們討論 2026 財年第二季度財務業績的電話會議之前提供回放。今天電話會議的內容是 NVIDIA 的財產。未經我們事先書面同意,不得複製或轉錄。在本次電話會議期間,我們可能會基於當前預期做出前瞻性聲明。這些聲明受許多重大風險和不確定性的影響,我們的實際結果可能會有重大差異。有關可能影響我們未來財務業績和業務的因素的討論,請參閱今天財報新聞稿中的披露內容、我們最近的 10-K 和 10-Q 表格,以及我們可能向美國證券交易委員會提交的 8-K 表格報告。我們所有的聲明均基於我們當前可獲得的資訊,截至今天,即 2025 年 5 月 28 日。除非法律要求,否則我們沒有義務更新任何此類聲明。在本次電話會議中,我們將討論非 GAAP 財務指標。您可以在我們網站上發佈的 CFO 評論中找到這些非 GAAP 財務指標與 GAAP 財務指標的調節表。接下來,讓我把電話會議交給 Colette。輝達執行副總裁兼首席財務官Colette Kress:謝謝,Toshiya。我們本季度再次表現強勁,收入達到 440 億美元,同比增長 69%,超出了我們的預期,這被證明是一個充滿挑戰的經營環境。AI資料中心收入達到 390 億美元,同比增長 73%。AI 工作負載已強勁轉向推理,AI 工廠的建設正在推動可觀的收入增長。我們客戶的承諾是堅定的。4 月 9 日,美國政府對我們的 H20 發佈了新的出口限制,這是我們專為中國市場設計的資料中心 GPU。我們在上一屆政府批准下銷售了 H20。儘管我們的 H20 已在市場上銷售一年多,並且在中國以外沒有市場,但針對 H20 的新出口限制沒有提供寬限期讓我們清空庫存。在第一季度,我們確認了 46 億美元的 H20 收入,這些收入發生在 4 月 9 日之前,但由於我們減記了與 4 月 9 日之前收到的訂單相關的庫存和採購承諾,我們也確認了 45 億美元的支出。由於新的出口限制,我們在第一季度無法交付 25 億美元的 H20 收入。這 45 億美元的支出低於我們最初的預期,因為我們能夠重新利用某些材料。我們仍在評估有限的選項,以提供符合美國政府修訂後出口限制規則的資料中心計算產品。失去我們相信將增長到近 500 億美元的中國 AI 加速器市場的准入,將對我們未來的業務產生重大的不利影響,並有利於我們在中國及全球的外國競爭對手。我們的 Blackwell 產品線爬坡速度是公司歷史上最快的,推動了資料中心收入同比增長 73%。Blackwell 在本季度貢獻了資料中心計算收入的近 70%,從 Hopper 的過渡已接近完成。GB200 NVL 的推出是一項根本性的架構變革,旨在支援資料中心規模的工作負載並實現最低的每推理 token 成本。雖然這些系統建構複雜,但我們在製造良率方面看到了顯著改善,機架出貨量正以強勁的速度交付給終端客戶。GB200 NVL 機架現已普遍可供模型建構者、企業和主權客戶開發和部署 AI。平均而言,主要超大規模客戶各自每周部署近 1,000 個 NVL72 機架或 72,000 個 Blackwell GPU,並有望在本季度進一步提高產量。例如,微軟已經部署了數萬個 Blackwell GPU,預計將隨著 OpenAI 作為其關鍵客戶之一,擴展到數十萬個 GB200。從 GB200 爬坡中汲取的關鍵經驗將使我們能夠順利過渡到產品路線圖的下一階段,Blackwell Ultra。GB300 系統的樣品已於本月早些時候在主要 CSP 處開始提供,我們預計本季度晚些時候開始量產發貨。GB300 將利用與 GB200 相同的架構、相同的物理尺寸以及相同的電氣和機械規格。GB300 的即插即用設計將使 CSP 能夠無縫過渡其用於 GB200 的系統和製造,同時保持高良率。配備多 50% HBM 的 B300 GPU 將比 B200 提供額外 50% 的密集 FP4 推理計算性能提升。我們堅持我們的年度產品更新節奏,我們的路線圖已延伸至 2028 年,與客戶多年的規劃周期緊密契合。我們正在目睹推理需求的急劇增長。OpenAI、微軟和Google在 token 生成方面正經歷階梯式躍升。微軟在第一季度處理了超過 100 兆個 token,同比增長五倍。Azure OpenAI 的這種指數級增長代表了市場對 Azure AI Foundry 以及微軟平台上其他 AI 服務的強勁需求。推理服務初創公司現在使用 B200 服務模型,將其 token 生成率和高價值推理模型(如 DeepSeek R1)的相應收入提高了三倍,正如 Artificial Analysis 所報導。NVIDIA NIM on Blackwell NVL72 為席捲行業的新型推理模型將 AI 推理吞吐量提升了 30 倍。開發者參與度增加,採用範圍從 Perplexity 等 LLM 提供商到 Capital One 等金融機構,後者使用 Dynamo 將代理聊天機器人延遲降低了 5 倍。在最新的 MLPerf 推理結果中,我們首次提交了使用 GB200 NVL72 的結果,在具有挑戰性的 LLAMA 3.1 基準測試中,與我們基於 8 GPU 的 H200 提交相比,推理吞吐量提高了高達 30 倍。這一壯舉是通過將每個 GPU 的性能提高三倍以及 GPU 數量增加九倍共同實現的,所有這些 GPU 都連接在單個 NVLink 域上。雖然 Blackwell 仍處於生命周期的早期階段,但僅在過去一個月,軟體最佳化已將其性能提升了 1.5 倍。我們期望在 Blackwell 的整個運行生命周期內持續改進其性能,就像我們對 Hopper 和 Ampere 所做的那樣。例如,我們在兩年內將 Hopper 的推理性能提高了 4 倍。這就是 NVIDIA 可程式設計 CUDA 架構和豐富生態系統帶來的優勢。AI 工廠部署的速度和規模正在加速,本季度在建的近 100 個由 NVIDIA 提供支援的 AI 工廠,同比增長了一倍,同時每個工廠平均使用的 GPU 數量也在同期翻了一番。並且,更多 AI 工廠項目正在跨行業和地域啟動。NVIDIA 的全端架構正在支撐 AI 工廠的部署,像 AT&T、比亞迪、Capital One、富士康、聯發科和 Telenor 這樣的行業領導者,以及具有戰略重要性的主權雲(如最近在沙烏地阿拉伯、台灣和阿聯宣佈的那些)都在採用。在不遠的將來,我們可以看到需要數十吉瓦 NVIDIA AI 基礎設施的項目。從生成式 AI 到代理式 AI(能夠感知、推理、規劃和行動的 AI)的轉變將改變每個行業、每家公司和國家。我們將 AI 代理視為一個新的數位化勞動力,能夠處理從客戶服務到複雜決策過程的任務。我們推出了基於 Llama 架構的 Llama Nemotron 系列開放式推理模型,旨在為企業提供強大的代理式 AI 平台。這些模型可作為 NIMS 或 NVIDIA 推理微服務提供,有多種尺寸以滿足不同的部署需求。我們的訓練後增強帶來了 20% 的精準率提升和 5 倍的推理速度提升。包括埃森哲、鏗騰電子、德勤和微軟在內的領先平台公司正在利用我們的推理模型改變工作方式。NVIDIA NEMO 微服務已在各行業普遍可用,正被領先企業用於建構、最佳化和擴展 AI 應用。借助 NEMO,思科在其程式碼助手中將模型精準率提高了 40%,響應時間縮短了 10 倍。納斯達克在其 AI 平台的搜尋能力中實現了 30% 的精準率和響應時間改進。殼牌定製 LLM 在使用 NVIDIA NEMO 訓練後精準率提高了 30%。與其他框架相比,NEMO 的平行技術將模型訓練時間加速了 20%。我們還宣佈與全球最大的餐飲公司百勝餐飲集團建立合作夥伴關係,今年將把 NVIDIA AI 引入其 500 家餐廳,並逐步擴展到 61,000 家餐廳,以簡化點餐、最佳化營運並提升其餐廳的服務水平。在 AI 驅動的網路安全方面,Checkpoint、CloudStrike 和 Palo Alto Networks 等領先公司正在使用 NVIDIA 的 AI 安全和軟體堆疊來建構、最佳化和保護代理式工作流程,其中 CloudStrike 實現了檢測分診速度翻倍,計算成本降低 50%。談到網路業務,網路業務在第一季度恢復了環比增長,收入環比增長 64% 至 50 億美元。我們的客戶繼續利用我們的平台高效地縱向擴展(scale up)和橫向擴展(scale out)AI 工廠工作負載。我們創造了世界上速度最快的交換機,NVLink。對於縱向擴展,我們的第五代 NVLink 計算結構提供了 PCIe Gen 5 頻寬的 14 倍。單個機架內的 NVLink 72 承載每秒 130 太字節的頻寬,相當於全球網際網路峰值流量的總和。NVLink 是一個新的增長載體,並取得了良好的開端,第一季度出貨量超過 10 億美元。在 Computex 上,我們宣佈了 NVLink Fusion。超大規模客戶現在可以建構半定製的 CCU 和加速器,通過 NVLink 直接連接到 NVIDIA 平台。我們現在正在支援關鍵合作夥伴,包括聯發科、Marvell、Alchip Technologies 和 Astera Labs 等 ASIC 提供商,以及富士通和高通等 CPU 供應商,利用 NVLink Fusion 連接我們各自的生態系統。對於橫向擴展,我們增強的乙太網路產品提供最高吞吐量、最低延遲的 AI 網路。Spectrum-X 實現了強勁的環比和同比增長,目前年化收入超過 80 億美元。採用遍及主要 CSP 和消費網際網路公司,包括 CoreWeave、Microsoft Azure、Oracle Cloud 和 xAI。本季度,我們將 Google Cloud 和 Meta 加入了不斷增長的 Spectrum-X 客戶名單。我們推出了 Spectrum-X 和 Quantum-X 矽光子交換機,配備了世界上最先進的共封裝光學器件。這些平台將通過提高 3.5 倍的能效和 10 倍的網路彈性,同時將客戶上市時間加速 1.3 倍,實現擴展到數百萬 GPU 的下一代 AI 工廠規模。接下來快速總結一下我們按地域劃分的收入情況。中國佔我們資料中心收入的比例略低於預期,並且環比下降,原因是 H20 出口許可限制。對於第二季度,我們預計中國資料中心收入將大幅下降。需要提醒的是,雖然新加坡佔我們第一季度開票收入的近 20%,因為我們的許多大客戶使用新加坡進行集中開票,但我們的產品幾乎總是運往其他地方。請注意,開票至新加坡的 H100、H200 和 Blackwell 資料中心計算收入中,超過 99% 是來自美國客戶的訂單。接下來談談遊戲和 AI PC。遊戲收入達到創紀錄的 38 億美元,環比增長 48%,同比增長 42%。遊戲玩家、創作者和 AI 愛好者的強勁採用使 Blackwell 成為我們有史以來最快的爬坡產品。在需求旺盛的背景下,我們在第一季度極大地改善了供應和可用性,並預計在第二季度繼續這些努力。AI 正在改變 PC、創作者和遊戲玩家。擁有 1 億使用者裝機量,GeForce 代表了 PC 開發者最大的平台。本季度,我們增加了 AI PC 筆記型電腦產品,包括能夠運行微軟 Copilot Plus 的型號。過去一個季度,我們將 Blackwell 架構帶入了主流遊戲領域,推出了起價僅為 299 美元的 GeForce RTX 5060 和 5060 Ti。RTX 5060 也首次在筆記型電腦中亮相,起價 1,099 美元。這些系統將影格率翻倍並大幅降低延遲。這些 GeForce RTX 5060 和 5060 Ti 桌面 GPU 和筆記型電腦現已上市。在主機遊戲方面,最近發佈的任天堂 Switch 2 利用了 NVIDIA 的神經渲染和 AI 技術,包括採用 DLSS 技術的下一代定製 RTX GPU,為全球數百萬玩家帶來遊戲性能的巨大飛躍。任天堂迄今已出貨超過 1.5 億台 Switch 遊戲機,使其成為歷史上最成功的遊戲系統之一。接下來是專業可視化業務,收入為 5.09 億美元,環比持平,同比增長 19%。關稅相關的不確定性暫時影響了第一季度的系統需求,但 AI 工作站的需求強勁,我們預計第二季度將恢復環比收入增長。NVIDIA DGX Spark 和 DGX Station 通過將 AI 超級電腦的強大功能融入桌面外形,徹底改變了個人計算。DGX Spark 提供高達 1 petaflop 的 AI 計算能力,而 DGX Station 則提供驚人的 20 petaflops,並由 GB300 Superchip 提供動力。DGX Spark 將在日歷年第三季度上市,DGX Station 將在今年晚些時候推出。我們已將 Omniverse 的整合和採用深化到一些世界領先的軟體平台中,包括 Databricks、SAP 和施耐德電氣。新的 Omniverse 藍圖,例如用於大規模機器人車隊管理的 Mega,正在凱傲集團、和碩、埃森哲和其他領先公司中應用,以增強工業營運。在 Computex 上,我們向技術製造領導者展示了 Omniverse 的強大功能,包括台積電、廣達、富士康、和碩。使用 Omniverse,台積電通過虛擬設計晶圓廠節省了數月的工作時間。富士康將熱模擬速度提高了 150 倍,和碩將裝配線缺陷率降低了 67%。最後,我們的汽車業務收入為 5.67 億美元,環比下降 1%,但同比增長 72%。同比增長是由多個客戶自動駕駛系統的爬坡以及新能源汽車的強勁終端需求推動的。我們正與通用汽車合作,使用 NVIDIA AI、模擬和加速計算來建構下一代汽車、工廠和機器人。我們現已開始為梅賽德斯-奔馳提供全端解決方案的生產,從新的 CLA 開始,將在未來幾個月內上路。我們發佈了 Isaac GR00T N1,世界上首個開放的、完全可定製的人形機器人基礎模型,支援通用推理和技能開發。我們還推出了新的開放 NVIDIA Cosmo World 基礎模型。領先公司包括 One X、Agility Robots、Robotics、Figure AI、Uber 和 Wabi。我們已開始將 Cosmo 整合到他們的營運中以生成合成資料,而 Agility Robotics、Boston Dynamics 和 XPEN Robotics 正在利用 Isaac 模擬來推進他們的人形機器人工作。GE Healthcare 正在使用基於 NVIDIA Omniverse 並使用 NVIDIA Cosmo 建構的新 NVIDIA Isaac 醫療保健模擬平台。該平台加速了機器人成像和手術系統的開發。機器人時代已經來臨。將開發數十億機器人、數億自動駕駛汽車以及數十萬機器人化工廠和倉庫。好的,接下來談談損益表的其餘部分。GAAP 毛利率和非 GAAP 毛利率分別為 60.5% 和 61%。若不考慮 45 億美元的支出,第一季度的非 GAAP 毛利率將達到 71.3%,略高於本季度初的預期。環比來看,GAAP 營運費用增長了 7%,非 GAAP 營運費用增長了 6%,反映了更高的薪酬和員工增長。我們的投資包括擴展基礎設施能力和 AI 解決方案,我們計畫在整個財年增加這些投資。在第一季度,我們通過股票回購和現金股息向股東返還了創紀錄的 143 億美元。我們的資本回報計畫繼續是我們資本配置戰略的關鍵要素。讓我談談第二季度的展望。總收入預計為 450 億美元,上下浮動 2%。我們預計所有平台都將實現溫和的環比增長。在資料中心,我們預計 Blackwell 的持續爬坡將被中國收入的下降部分抵消。請注意,我們的展望反映了第二季度 H20 收入損失約 80 億美元。GAAP 和非 GAAP 毛利率預計分別為 71.8% 和 72%,上下浮動 50 個基點。我們預計更好的 Blackwell 盈利能力將推動毛利率實現溫和的環比改善。我們正在繼續努力爭取在今年晚些時候實現中位數 70% 的毛利率。GAAP 和非 GAAP 營運費用預計分別約為 57 億美元和 40 億美元。我們繼續預計整個 2026 財年的營運費用增長將在中位數 30% 的範圍內。GAAP 和非 GAAP 其他收入和費用預計為收入約 4.5 億美元,不包括非上市和公開持有股權證券的損益。GAAP 和非 GAAP 稅率預計為 16.5%,上下浮動 1%,不包括任何離散項目。進一步的財務細節包含在 CFO 評論以及我們 IR 網站上提供的其他資訊中,包括一個新的財務資訊 AI 代理。讓我強調一下即將面向金融界舉辦的活動。我們將出席 6 月 4 日在舊金山舉行的美國銀行全球技術大會、6 月 10 日在倫敦舉行的 Rosenblatt 虛擬 AI 峰會和納斯達克投資者會議,以及 6 月 11 日在巴黎 VivaTech 舉辦的 GTC 巴黎站。我們期待在這些活動中見到您。我們討論 2026 財年第二季度業績的電話會議定於 8 月 27 日舉行。好的,現在讓我交給 Jensen 做發言。黃仁勳, 創始人、總裁兼首席執行官 (Jensen Huang, Founder, President and Chief Executive Officer):謝謝,Colette。我們度過了一個忙碌而富有成效的一年。讓我分享一些我們經常被問到的話題的看法。關於出口限制,中國是世界上最大的 AI 市場之一,也是通往全球成功的跳板。世界上有一半的 AI 研究人員在那裡,贏得中國市場的平台將引領全球。然而,今天,500 億美元的中國市場實際上對美國工業關閉了。H20 出口限制結束了我們在中國的 Hopper 資料中心業務。我們無法進一步降低 Hopper 的性能以符合要求。因此,我們正在對無法銷售或重新利用的庫存進行數十億美元的減記。我們正在探索有限的競爭方式,但 Hopper 已不再是一個選項。中國的 AI 發展將繼續,無論有沒有美國晶片。它必須進行計算以訓練和部署先進模型。問題不在於中國是否會擁有 AI,它已經有了。問題在於世界上最大的 AI 市場之一是否會運行在美國平台上。將中國晶片製造商遮蔽在美國競爭之外,只會增強他們在國外的實力,削弱美國的地位。出口限制刺激了中國的創新和規模。AI 競賽不僅僅是關於晶片,而是關於世界運行在那個技術堆疊上。隨著該技術堆疊擴展到 6G 和量子領域,美國全球基礎設施的領導地位岌岌可危。美國將其政策建立在“中國無法製造 AI 晶片”的假設之上。這個假設一直值得懷疑,現在顯然是錯誤的。中國擁有巨大的製造能力。最終,贏得 AI 開發者的平台將贏得 AI。出口限制應該加強美國平台,而不是將世界上一半的 AI 人才推向競爭對手。關於 DeepSeek,來自中國的 DeepSeek 和 Qwen 是最佳開源 AI 模型之一。免費發佈後,它們在美國、歐洲及其他地區獲得了關注。DeepSeek R1,就像 ChatGPT 一樣,引入了推理 AI,它思考的時間越長,給出的答案就越好。推理 AI 支援逐步解決問題、規劃和工具使用,將模型轉變為智能代理。推理是計算密集型的,每項任務所需的 token 量是以前一次性推理的數百到數千倍。推理模型正在推動推理需求的階梯式激增。AI 擴展定律仍然穩固,不僅適用於訓練,現在推理也需要大規模計算。DeepSeek 也強調了開源 AI 的戰略價值。當流行的模型在美國平台上訓練和最佳化時,它會推動使用、反饋和持續改進,從而加強美國在整個技術堆疊的領導地位。美國平台必須保持作為開源 AI 的首選平台。這意味著支援與全球頂尖開發者的合作,包括中國的開發者。當像 DeepSeek 和 Qwen 這樣的模型在美國基礎設施上運行得最好時,美國就贏了。關於在岸製造,川普總統概述了一個大膽的願景,旨在將先進製造業遷回本土、創造就業機會並加強國家安全。未來的工廠將是高度電腦化和機器人化的。我們認同這一願景。台積電正在亞利桑那州建設六座晶圓廠和兩座先進封裝廠,為 NVIDIA 生產晶片。工藝認證正在進行中,預計年底開始量產。Spill 和 Amkor 也在亞利桑那州投資建設封裝、組裝和測試設施。在休斯頓,我們正與富士康合作建造一座百萬平方英呎的工廠,用於製造 AI 超級電腦。和碩正在德克薩斯州沃思堡建設一座類似的工廠。為了鼓勵和支援這些投資,我們做出了重大的長期採購承諾,這是對美國 AI 製造未來的深度投資。我們的目標是在一年內,從晶片到超級電腦都在美國製造。每個 GB200 NVLink72 機架包含 120 萬個元件,重近兩噸。沒有人生產過這種規模的超級電腦。我們的合作夥伴做得非常出色。關於 AI 擴散規則,川普總統廢除了 AI 擴散規則,稱其適得其反,並提出了一項新政策,以促進美國與可信賴夥伴的 AI 技術發展。在他的中東之行中,他宣佈了歷史性投資。我很榮幸與他一起宣佈在沙烏地阿拉伯建設一個 500 兆瓦的 AI 基礎設施項目,並在阿聯建設一個 5 吉瓦的 AI 園區。川普總統希望美國技術領先。他宣佈的協議是美國的勝利,創造了就業機會,推進了基礎設施,產生了稅收收入,並減少了美國貿易逆差。美國將永遠是 NVIDIA 最大的市場,也是我們基礎設施最大裝機量的所在地。現在每個國家都將 AI 視為下一次工業革命的核心,這是一個生產智能並為每個經濟體提供必要基礎設施的新產業。各國正在競相建設國家 AI 平台以提升其數字能力。在 Computex 上,我們宣佈與富士康和台灣政府合作建設台灣首個 AI 工廠。上周,我在瑞典啟動了其首個國家 AI 基礎設施。日本、韓國、印度、加拿大、法國、英國、德國、義大利、西班牙等國家現在都在建設國家 AI 工廠,以賦能初創企業、產業和社會。主權 AI 是 NVIDIA 新的增長引擎。Toshiya,交回給你。謝謝。Toshiya Hari:操作員,我們現在將開放電話會議進行提問。請開始收集問題好嗎?問答環節 (Questions And Answers)會議操作員 (Operator):問答環節會議操作員 (Operator):謝謝。(操作員說明)您的第一個問題來自摩根士丹利的 Joe Moore。您的線路已接通。Joseph Moore:好的。謝謝。你們至少一年前就開始談論圍繞推理模型的推理規模化問題,正如你們所談到的,我們現在確實看到了它的成果。我們也從你們的客戶那裡聽到了。您能給我們一個概念,說明您能滿足多少這種需求嗎?您能否給我們一個概念,說明推理業務對你們來說有多大?我們未來是否需要完整的 NVL72 機架級解決方案來進行推理推理?Toshiya Hari:嗯,我們希望能滿足所有需求,我認為我們正在按計畫滿足大部分需求。Grace Blackwell NVL72 是當今理想的引擎,理想的電腦思考機器,如果你願意這麼說的話,用於推理 AI。這有幾個原因。第一個原因是 token 生成量,推理過程所需的 token 數量是一次性聊天機器人的 100 到 1000 倍。它本質上是自我思考,一步步分解問題。它可能規劃多條路徑來尋找答案。它可能使用工具、閱讀 PDF、閱讀網頁、觀看視訊,然後產生結果、答案。它思考的時間越長,答案就越好、越聰明。因此,我們想要做的,以及 Grace Blackwell 設計成在推理性能上實現如此巨大飛躍的原因,是為了讓您能夠完成所有這些工作,同時仍能盡快獲得響應。與 Hopper 相比,Grace Blackwell 的速度和吞吐量高出約 40 倍。因此,這將在顯著降低成本的同時,以出色的服務質量改善響應質量方面帶來巨大的、巨大的好處。所以這是根本原因,是推動 Grace Blackwell NVLink72 設計的核心驅動因素。當然,為了實現這一點,我們必須重新發明,實際上是重新設計建構這些超級電腦的整個方式。但現在我們已全面投產,這將令人興奮,非常令人興奮。會議操作員 (Operator):下一個問題來自美國銀行證券的 Vivek Arya。您的線路已接通。Vivek Arya:謝謝提問。首先請 Colette 澄清一下。關於中國的影響,我記得之前提到大約 150 億美元。所以你們在第二季度有 80 億美元的損失。那麼剩餘季度是否還有餘下的逆風?Colette,該如何建模?然後 Jensen,給您的問題。在 GTC 大會上,您概述了未來幾年近 1 兆美元 AI 支出的路徑。我們現在處於這個建設的那個階段?您認為所有支出者(無論是 ESP、主權企業還是建設者)的支出是否會均勻分佈?我們是否應該預期期間會有一些消化期?您的客戶討論告訴您應如何為明年建模增長?Colette Kress, 執行副總裁兼首席財務官 (Colette Kress, Executive Vice President and Chief Financial Officer):好的,Vivek。非常感謝提問。關於 H20,是的,我們在第一季度確認了 46 億美元的 H20 收入。我們未能交付 25 億美元。因此第一季度 H20 總收入本應是 70 億美元。展望第二季度,我們預計中國資料中心收入將大幅下降。我們之前強調了我們在第二季度為 H20 計畫的訂單量,那是 80 億美元。展望未來,我們確實有其他未來訂單我們將無法履行。因此,這已包含在我們減記的 45 億美元金額中。那次減記是關於庫存和採購承諾的,我們的採購承諾與我們收到的訂單預期相符。然而,更大的問題在於我們將無法服務的市場規模。我們評估未來的 TAM(總可用市場)接近約 500 億美元,因為我們沒有適合中國市場的產品。Toshiya Hari:實際上,最好的理解方式可能是 AI 涉及多個方面。當然,我們知道 AI 是一項令人難以置信的技術,它將改變每個行業,從軟體到醫療保健和金融服務,到零售,我認為是每個行業,交通、製造業,而我們正處於這一切的開端。但也許另一種思考方式是:我們在那裡需要智能?那裡需要數字智能?它在每個國家,每個行業都需要。正因如此,我們認識到 AI 也是一種基礎設施。它是一種交付需要工廠的技術的途徑。這些工廠生產 token。正如我所提到的,它們對每個國家的每個單一行業都很重要。因此,在此基礎上,我們確實處於非常初期的階段,因為這項技術的採用還處於非常早期的階段。現在,隨著能夠推理、思考的 AI(人們稱之為推理時間擴展)的出現,我們達到了一個非凡的里程碑。當然,它創造了一個全新的——我們進入了一個時代,推理將成為計算工作負載的重要組成部分。但無論如何,它將是一種新的基礎設施,我們正在雲中建構它。美國是真正的早期啟動者,並可在美國雲中使用。這是我們最大的市場,最大的裝機量,我們可以看到這種情況在持續。但除此之外,我們將看到 AI 進入企業,也就是本地部署(on-prem),因為太多資料仍在本地,存取控制非常重要。將每家公司的所有資料都遷移到雲端非常困難。因此,我們將把 AI 引入企業。你們看到我們發佈了幾款非常激動人心的新產品。我們的 RTX Pro 企業 AI 伺服器可運行所有企業和 AI 應用。我們的 DGX Spark 和 DGX Station 專為希望在本地工作的開發者設計。因此,企業 AI 才剛剛起步。電信營運商(Telcos)。如今,未來的許多電信基礎設施將是軟體定義的,並建立在 AI 之上。因此 6G 將建立在 AI 之上。這些基礎設施需要建設。正如我所說,這還處於非常早期的階段。當然,今天每個製造產品的工廠都將擁有一個與之配套的 AI 工廠。AI 工廠將推動為工廠自身建立和運行 AI,同時也為工廠生產的產品提供動力。所以很明顯,每家汽車公司都將擁有 AI 工廠。很快也會有機器人公司,這些公司也將建構 AI 來驅動機器人。因此,我們正處於所有這些建設工作的開端。會議操作員 (Operator):下一個問題來自 Cantor Fitzgerald 的 CJ Muse。您的線路已接通。CJ Muse:好的,下午好。感謝提問。過去一個月有很多大型 GPU 叢集投資的公告,您提到了其中一些,如沙烏地阿拉伯、阿聯,另外我們也從 Oracle 和 X AI 等公司聽說了。所以我的問題是,是否還有其他同等規模和量級的項目尚未宣佈?也許更重要的是,這些訂單對 Blackwell 的交貨時間以及您當前(站在 2025 年近半的今天)的可見度有何影響?Toshiya Hari?未知發言人 (Unidentified Speaker):嗯,我們今天擁有的訂單比我在 GTC 上談論訂單時更多。然而,我們也在增加我們的供應鏈並建設我們的供應鏈。他們做得非常出色。我們在美國本土進行製造,但我們的供應鏈在未來很多年都會非常繁忙。關於進一步的公告,我下周將在歐洲各地出差,幾乎每個國家都需要建設 AI 基礎設施,有無數的 AI 工廠正在規劃中。我認為 Colette 在發言中提到有大約 100 個 AI 工廠在建。還有很多尚未宣佈。我認為這裡重要的概念,讓它更容易理解,是像其他影響每個單一行業的技術一樣,當然電力是其中之一,它變成了基礎設施。當然資訊基礎設施,我們現在稱之為網際網路,影響著每個行業、每個國家、每個社會。智能肯定是其中之一。我不知道有那家公司、那個行業、那個國家認為智能是可選的。它是必不可少的基礎設施,因此我們現在已將智能數位化,所以我認為我們顯然處於建設這種基礎設施的開端,每個國家都將擁有它。我對此深信不疑。每個行業都將使用它。我也深信不疑。這種基礎設施的獨特之處在於它需要工廠。有點像能源基礎設施、電力。它需要工廠。我們需要工廠來生產這種智能,而智能正變得越來越複雜。我們之前談到,過去幾年我們在推理 AI 方面取得了巨大突破,現在有了能夠推理的代理(agent),還有使用整套工具的超代理(super agent),然後是超代理叢集,其中代理與代理協作解決問題。你可以想像,與一次性聊天機器人相比,現在基於這些大型語言模型建構的代理,它們實際上需要多少計算量,並且確實是如此,因此我認為我們正處於建設工作的開端,未來應該會有很多很多公告。會議操作員 (Operator):您的下一個問題來自 Melius 的 Ben Reitzes。您的線路已接通。Ben Reitzes:是的。嗨。謝謝提問。我想先請 Colette 就指引稍微澄清一下,也許換種方式表達。這 80 億美元的 H20 損失似乎比大多數人預期的第二季度放棄的收入高出大約 30 億美元。那麼這意味著,在您的指引下,為了實現 450 億美元,業務的其他部分需要多貢獻大約 20 到 30 億美元。所以我想知道這個計算對您來說是否合理。然後在指引方面,這將意味著非中國業務的表現比市場預期要好一些。所以想知道在您看來,主要的驅動因素是什麼。然後我問題的第二部分,Jensen,我知道您只指引一個季度,但考慮到 AI 擴散規則被取消以及主權業務的勢頭,在您的歷史中,有時您會在類似的電話會議上表示對全年環比增長有更高的信心,等等。鑑於 AI 擴散規則廢除釋放的需求以及供應鏈的增加,當前環境是否讓您對今年後續的環比增長更有信心?所以第一個問題給 Colette,下一個給 Jensen。非常感謝。Colette Kress, 執行副總裁兼首席財務官 (Colette Kress, Executive Vice President and Chief Financial Officer):謝謝 Ben 的提問。當我們查看第二季度指引和我們提供的評論時,如果出口限制沒有發生,我們本會有大約 80 億美元的 H20 訂單。這是正確的。這原本是我們對本季度第二季度展望中的一個可能性。所以我們在這裡也談到了我們在 Blackwell 上看到的增長,Blackwell 在我們許多客戶中的採用,以及我們為滿足客戶需求而持續增加的供應。把這些因素結合起來,就是我們提供這份指引的原因。我把剩下的交給 Jensen,看他怎麼說。黃仁勳, 創始人、總裁兼首席執行官 (Jensen Huang, Founder, President and Chief Executive Officer):好的,謝謝。謝謝,Ben。我想說,與年初相比,與 GTC 時間點相比,有四個積極的意外。第一個積極的意外是推理 AI 需求的階梯式增長。我認為現在已經相當清楚,AI 正在經歷指數級增長,而推理 AI 確實突破了瓶頸。人們對幻覺(hallucination)或其真正解決問題的能力存在擔憂,我認為很多人正在跨越這個障礙,認識到代理式 AI 和推理 AI 是多麼有效。所以第一點是推理推理及其需求的指數級增長。第二點,你提到了 AI 擴散。看到 AI 擴散規則被廢除真是太好了。川普總統希望美國獲勝,他也意識到我們不是這場競賽中唯一的國家,他希望美國獲勝,並認識到我們必須將美國技術堆疊推向世界,讓世界在美國技術堆疊之上建構,而不是替代品。所以 AI 擴散發生了,它的廢除幾乎恰逢世界各國意識到 AI 作為基礎設施的重要性,而不僅僅是一項具有巨大好奇心和重要性的技術,而是作為其行業、初創企業和社會的關鍵基礎設施。就像他們必須建設電力和網際網路的基礎設施一樣,他們必須建設 AI 的基礎設施。我認為這是一種覺醒,這創造了很多機會。第三是企業 AI。代理(Agents)是有效的,並且這些代理做得相當成功。比生成式 AI 更重要的是,代理式 AI 是顛覆性的。代理能夠理解模糊和隱含的指令,能夠解決問題、使用工具、擁有記憶等等。因此,我認為企業 AI 已經準備好起飛。我們花了幾年時間才建構出一個能夠整合、運行企業 AI 堆疊、運行企業 IT 堆疊,但又能為其加入 AI 的計算系統。這就是我們上周在 Computex 上宣佈的 RTX PRO 企業伺服器。幾乎所有主要的 IT 公司都加入了我們。我對此感到非常興奮。所以計算是一個堆疊,是其中的一部分,但請記住企業 IT 實際上有三大支柱。它是計算、儲存和網路。我們現在終於把這三者整合在一起了,我們正在將其推向市場。最後是工業 AI。請記住,世界秩序重組的一個影響是各地區的製造業回流(on-shoring manufacturing)和到處建廠。除了 AI 工廠,當然還有新的電子製造、晶片製造在世界各地建設。所有這些新工廠和新設施的建設,正好與 Omniverse、AI 以及我們在機器人領域的所有工作湧現的時機相吻合。因此這第四個支柱相當重要。每個工廠都將有一個與之相關的 AI 工廠。為了建立這些物理 AI 系統,您必須訓練海量資料。所以回到更多資料、更多訓練、需要建立更多 AI、需要更多電腦。所以這四個驅動力正在真正進入渦輪增壓狀態。會議操作員 (Operator):您的下一個問題來自 UBS 的 Timothy Arcuri。您的線路已接通。Timothy Arcuri:非常感謝。Jensen,我想問關於中國的問題。聽起來七月(指第二財季)的指引假設沒有 H20 的替代型號。但如果總統希望美國獲勝,似乎必須允許您向中國出貨一些產品。所以我想就此談兩點。首先,您是否已被批准向中國發貨一個新的改良版本,並且您目前正在製造它,但只是無法在 2026 財年第二季度發貨?然後你們在中國的季度運行率大約是 70 到 80 億美元。一旦你們有被允許運回中國的產品,我們能否回到那種季度運行率?我想我們都在試圖弄清楚在我們的模型中要加回多少以及何時加回。所以您能說的任何資訊都會很棒。謝謝。黃仁勳, 創始人、總裁兼首席執行官 (Jensen Huang, Founder, President and Chief Executive Officer):總統有一個計畫。他有遠見,我信任他。關於我們的出口限制,它是一系列限制,新的限制使我們幾乎不可能將 Hopper 的性能降低到任何有實際用途的程度。所以新的限制,對 Hopper 來說幾乎是條死路。我們的選擇有限,所以我們只是,關鍵是理解這些限制。關鍵是理解這些限制,看看我們是否能想出有趣的產品來繼續服務中國市場。我們目前沒有任何東西,但我們正在考慮。我們正在思考。顯然,目前的限制相當嚴格,我們今天沒有任何要宣佈的事情。當時機成熟時,我們會與政府接觸並討論此事。會議操作員 (Operator):您的最後一個問題來自富國銀行的 Aaron Rakers。您的線路已接通。分析師 (Analyst):嗨。我是 Jake,代表 Aaron。感謝您回答問題,並對出色的季度業績表示祝賀。我想知道您能否就網路業務中看到的強勁勢頭提供更多資訊,特別是在 CSP 採用您的乙太網路解決方案方面,以及您是否看到網路附加率有任何變化。黃仁勳, 創始人、總裁兼首席執行官 (Jensen Huang, Founder, President and Chief Executive Officer):好的,謝謝您的提問。我們現在有三個,也許是四個網路平台。第一個是縱向擴展(scale up)平台,將一台電腦變成一台更大的電腦。縱向擴展非常困難。橫向擴展(scaling out)更容易做到,但縱向擴展很難做到。這個平台叫做 NVLink。NVLink 包含晶片、交換機和 NVLink 主幹,非常複雜。但無論如何,這是我們的新平台,縱向擴展平台。除了 InfiniBand,我們還有 Spectrum-X。我們一直相當一致地表示,乙太網路是為許多獨立的流量設計的。但在 AI 的情況下,您有許多電腦協同工作。AI 的流量極其突發。延遲非常重要,因為 AI 在思考,它希望盡快完成工作。並且您有一大堆節點協同工作。因此我們增強了乙太網路,加入了諸如極低延遲、擁塞控制、自適應路由等技術,這些是以前只在 InfiniBand 中可用的技術。結果,我們提高了乙太網路在這些叢集中的利用率。這些叢集規模巨大,利用率從最低 50% 提高到高達 85%、90%。差異在於,如果您有一個價值 100 億美元的叢集,您將其效率提高了 40%,那就價值 40 億美元,這太不可思議了。所以 Spectrum X 確實,坦率地說,是一個本壘打(home run),正如我們在準備好的發言稿中所說,上個季度,我們增加了兩個非常重要的 CSP 採用 Spectrum X。然後是最後一個,最後一個是 Bluefield,這是我們的控制平面。所以在這四個中,控制平面網路用於儲存、安全,並且對於許多希望實現使用者隔離、多租戶叢集,同時仍能使用並獲得極高性能、裸機性能的叢集來說,Bluefield 是理想的選擇,並在很多這類場景中使用。所以我們有這四個網路平台,它們都在增長,我們做得非常好,我為團隊感到非常自豪。分析師 (Analyst):(聽不清) Jensen,交回給您。會議操作員 (Operator):我們的提問時間到此結束。Jensen,我將電話會議交回給您。黃仁勳, 創始人、總裁兼首席執行官 (Jensen Huang, Founder, President and Chief Executive Officer):謝謝。這是一股強大的新增長浪潮的開端。Grace Blackwell 已全面投產,我們已經開足馬力(off to the races)。我們現在擁有多個重要的增長引擎。曾經是較輕工作負載的推理,正隨著產生收入的 AI 服務而激增。AI 的增長速度比以往任何平台轉變(包括網際網路、移動和雲)都要快,並且規模將更大。Blackwell 旨在為完整的 AI 生命周期提供動力,從訓練前沿模型到大規模運行複雜的推理和推理代理。隨著訓練後技術(如強化學習和合成資料生成)的突破,訓練需求持續上升,但推理正在爆炸式增長。推理 AI 代理需要的計算量是數量級的增長。我們下一個增長平台的基礎已經就緒並準備好擴展。主權 AI,各國正在投資 AI 基礎設施,就像他們曾經投資電力和網際網路一樣。企業 AI,AI 必須可以在本地部署(on-prem)並與現有 IT 整合。我們的 RTX PRO、DGX Spark 和 DGX Station 企業 AI 系統已準備好現代化價值 5000 億美元的本地或雲端 IT 基礎設施。每個主要的 IT 提供商都在與我們合作。工業 AI,從訓練到數字孿生模擬再到部署,NVIDIA Omniverse 和 Isaac GR00T 正在為全球的下一代工廠和人形機器人系統提供動力。AI 時代已經到來。從 AI 基礎設施、大規模推理、主權 AI、企業 AI 到工業 AI,NVIDIA 已準備就緒。在 GTC 巴黎站加入我們。我將於 6 月 11 日在 VivaTech 發表主題演講,談論量子 GPU 計算、機器人化工廠和機器人,並慶祝我們在該地區建設 AI 工廠的合作夥伴關係。NVIDIA 樂隊將巡演法國、英國、德國和比利時。感謝您今天參加財報電話會議。巴黎見。會議操作員 (Operator):今天的電話會議到此結束。您現在可以斷開連接。活動已結束。 (硬AI)
一文帶你詳細瞭解輝達Blackwell B200 GPU
2024年3月,輝達在GTC大會上正式發佈了基於Blackwell架構的B200 GPU。Blackwell架構的發佈是輝達技術創新的又一力作。B200 GPU為訓練和推理萬億參數的大型語言模型(LLM)提供了無與倫比的計算能力,同時在能效和安全性方面實現了顯著提升。一 Blackwell架構的核心特性Blackwell架構以美國數學家David Harold Blackwell命名,象徵著其在計算領域的開創性。相較於前代Hopper架構,Blackwell在設計和性能上實現了多項突破,以下是其核心特性:1、雙晶片設計與2080億電晶體B200 GPU採用雙晶片(dual-die)設計,每個晶片面積超過800平方毫米,總計包含2080億個電晶體,是Hopper H100(800億電晶體)的兩倍以上。這種設計通過10 TB/s的晶片間高速互聯(NV-HBI)將兩個晶片整合為一個統一的CUDA GPU,顯著提升了計算密度和性能。這種多晶片模組(MCM)技術解決了單晶片在物理尺寸和製造工藝上的限制,為處理複雜AI工作負載提供了更大空間。2、先進的製造工藝B200採用台積電定製的4NP工藝,相較於H100的4nm工藝,性能提升約6%。這一工藝不僅提高了電晶體密度,還最佳化了功耗效率,使B200能夠在高性能的同時保持相對可控的能耗。3、第二代Transformer引擎Blackwell引入了第二代Transformer引擎,支援4位浮點(FP4)計算,結合NVIDIA TensorRT-LLM和NeMo框架,顯著提升了大型語言模型的推理效率。FP4精度允許在保持模型精準性的同時,處理更大的模型規模,推理性能較H100提升高達30倍。這一特性特別適合生成式AI應用,如聊天機器人和推薦系統。4、第五代NVLink與擴展性第五代NVLink提供每個GPU 1.8 TB/s的雙向頻寬,支援多達576個GPU的互聯。這種高頻寬互聯技術確保了大規模AI叢集的高效通訊,特別適合訓練超大規模模型。例如,GB200 NVL72系統通過NVLink連接36個Grace CPU和72個Blackwell GPU,推理性能較H100提升30倍。5、安全與可靠性B200是首款支援TEE-I/O的GPU,提供先進的機密計算能力,幾乎不影響加密模式下的性能。這種特性對於保護AI模型和客戶資料的隱私至關重要,適用於金融、醫療等敏感行業。此外,Blackwell的RAS(可靠性、可用性、服務性)引擎利用AI進行預測性維護,監控數千個資料點,減少當機時間。6、資料解壓縮引擎B200配備專用解壓縮引擎,支援LZ4、Snappy和Deflate等格式,加速資料分析任務。這對於需要處理大規模資料集的科學計算和企業應用尤為重要。與Hopper架構相比,Blackwell在計算性能、記憶體頻寬和擴展性上全面升級,尤其是在低精度計算和大規模叢集支援方面,展現了其為生成式AI時代量身定製的特點。二 B200 GPU詳細規格以下是B200 GPU關鍵技術參數:圖2-1 推理性能比H100高出15倍圖2-2 訓練速度比H100提高3倍圖2-3 與H100相比,將能源效率提高12倍,成本降低12倍記憶體:192GB HBM3E記憶體和8 TB/s的頻寬使B200能夠處理超大規模模型的參數,適合萬億參數LLM的訓練和推理。計算性能:9 PFLOPS的FP4性能意味著B200在低精度推理任務中表現出色,而4.5 PFLOPS的FP8性能則平衡了精度和速度。40 TFLOPS的FP64性能支援高精度科學計算。功耗:1000W的TDP較H100(700W)有所增加,反映了更高性能的需求,但其25倍的能效提升(相較於H100)降低了總體擁有成本。互聯:第五代NVLink和PCIe 6.0確保了高效的資料傳輸,特別是在多GPU叢集中。三 與競爭對手的比較與AMD的Instinct MI300X GPU進行對比:具體分析如下:記憶體與頻寬:B200的HBM3E記憶體提供8 TB/s頻寬,遠超MI300X的5.3 TB/s,這在處理大型資料集時具有明顯優勢。計算性能:B200在FP8和FP16的密集計算性能高於MI300X的稀疏計算性能,尤其在AI推理任務中更具優勢。然而,MI300X在FP64性能上略勝,適合高精度科學計算。功耗:MI300X的750W TDP低於B200的1000W,但在能效比上,B200的25倍能效提升更具吸引力。技術特性:B200的第二代Transformer引擎和機密計算能力是其獨特優勢,而MI300X依賴AMD Infinity Fabric技術提供高效GPU間通訊。總體而言,B200在AI最佳化和記憶體頻寬方面領先,適合生成式AI和大規模模型訓練,而MI300X在高精度計算和較低功耗方面具有競爭力。四 對AI與計算領域的影響B200 GPU的發佈對AI和計算領域具有一定影響,具體如下:推動超大規模模型發展:B200的192GB記憶體和9 PFLOPS FP4性能使其能夠處理高達10萬億參數的模型。例如,輝達CEO黃仁勳曾表示,訓練一個1.8萬億參數的GPT模型,使用2000個B200 GPU僅需90天,功耗為4兆瓦,而H100需要8000個GPU和15兆瓦。這種效率提升將加速超大規模模型的研發,推動AI在自然語言處理、圖像生成等領域的突破。企業AI轉型加速:B200整合在DGX B200和GB200 NVL72等系統中,為企業提供了從資料準備到推理的統一AI平台。其支援的多樣化工作負載(如推薦系統、聊天機器人)使企業能夠快速部署AI解決方案。例如,DGX B200系統提供72 PFLOPS訓練性能和144 PFLOPS推理性能,適合各種規模的企業。能效與成本最佳化:B200的25倍能效提升(相較於H100)顯著降低了資料中心的營運成本。結合液冷技術,B200在高性能下仍能保持較低的能耗,這對於大規模AI部署至關重要。理解晶片架構背後的邏輯,才能真正用好每一份算力。參考文獻:《NVIDIA Blackwell:The engine of the new industrial revolution》(AI算力那些事兒)
放棄HBM,改用GDDR7,輝達為中國定製AI晶片
輝達CEO黃仁勳近日在接受台灣媒體採訪時透露,NVIDIA已不打算繼續對Hopper架構進行調整,未來為中國市場推出的新AI晶片將轉向更先進的Blackwell架構。H20無法再改,Blackwell成中國新方案首選在美國政府對NVIDIA H20 AI晶片實施出口限制後,NVIDIA正在尋求替代方案,以維持其在中國的市場份額。黃仁勳指出,由於Hopper架構已經無法再進一步修改以滿足出口管制,新一代面向中國市場的AI晶片將不再基於Hopper,而是更可能採用新一代的Blackwell架構。GDDR7替代HBM,調整頻寬以符合出口限制根據《日經亞洲》的消息,NVIDIA仍計畫推出一款為中國定製的Hopper晶片,但這不會是主打型號。為了繞開高頻寬限制,這些新品將不再使用高頻寬的HBM視訊記憶體,而是改用GDDR7記憶體。類似的設計也會應用在Blackwell晶片上——這或將成為NVIDIA在受限環境下的“標準策略”。這種調整類似於NVIDIA面向專業市場的RTX PRO系列顯示卡,但架構核心不同:Hopper或Blackwell。通過記憶體頻寬的控制,NVIDIA在性能上“主動降速”,從而符合監管要求。NVIDIA仍有信心對抗華為,但中國市場壓力陡增儘管這些“為中國定製”的晶片在規格上受到限制,但業界普遍認為NVIDIA仍具優勢。得益於其架構能力和成熟的軟體生態系統,NVIDIA的晶片整體表現仍優於華為目前的AI晶片產品。不過,黃仁勳也坦言,中國本土晶片正在迅速崛起,“競爭已經變得非常強大”。留在中國,但未來方向或將分散面對不斷變化的地緣政治環境,NVIDIA的中國市場策略也在調整。黃仁勳曾明確表示,不會放棄中國市場。近期還有報導稱,NVIDIA計畫在上海建設新的研發中心,以加固本地技術團隊。然而,隨著NVIDIA與中東地區的合作不斷深化,未來是否需要“選邊站隊”也成為業內關注的焦點。 (科技巴圖魯)