#GTC大會
【GTC】黃仁勳 GTC大會演講精華:超級晶片、AI工廠與“美國利益”
預計Vera Rubin“超級晶片”將在明年進入量產階段。2025年10月29日清晨,輝達創始人兼首席執行官黃仁勳在華盛頓舉行的GTC華盛頓技術峰會上發表了重要演講。計算架構範式轉移演講中,黃仁勳回顧了計算行業的歷史轉折點。數十年來,CPU的性能一直遵循著可預測的縱向擴展(scale-up)增長軌跡。然而,隨著登納德縮放定律(Dennard scaling)——即通過不斷縮小電晶體尺寸來維持功率密度,從而降低功耗並提升性能——的終結,傳統的發展路徑已難以為繼。面對這些挑戰,輝達的答案是平行計算、GPU和加速計算架構。黃仁勳宣稱:“這個轉折點已經到來,而輝達已經準備就緒。我們認識到,通過引入能夠充分利用指數級增長電晶體的處理器,應用平行計算技術,並與順序處理的CPU協同工作,我們可以將計算力推向一個全新的維度——這個時代真正來臨了。”加速計算的實現,有賴於輝達精心建構的軟體基石——CUDA-X全端加速庫。這個龐大的軟體生態系統涵蓋了深度學習領域的cuDNN和TensorRT-LLM、資料科學平台RAPIDS(cuDF/cuML)、決策最佳化工具cuOpt、計算光刻解決方案cuLitho,以及量子與混合計算框架CUDA-Q和cuQuantum等關鍵領域。黃仁勳將這個完整的軟體生態系統譽為“公司最寶貴的財富”。它構成了輝達加速計算戰略的技術核心,為各行各業的計算轉型提供了底層動力。AI原生6G技術堆疊ARC-Pro演講中,黃仁勳強調,電信技術是經濟和國家安全的生命線,但目前全球大部分無線技術部署都依賴於他國的技術體系。黃仁勳表示:“這種核心通訊技術受制於人的局面必須結束,現在我們迎來了扭轉局面的歷史性機遇。”他相信,美國將“重新奪回通訊技術的主導權”。為實現這一戰略目標,輝達推出了革命性的NVIDIA ARC——一個以美國技術為核心的AI原生6G無線技術堆疊。該平台基於輝達的Aerial平台建構,整合了Grace CPU、Blackwell GPU和先進的網路元件,並通過加速計算實現了性能突破。據黃仁勳透露,輝達已與通訊裝置巨頭諾基亞(Nokia)達成深度戰略合作。諾基亞將為其未來的基站系統中整合NVIDIA ARC解決方案,該平台將賦能精確機器人控制、高精度天氣預報等關鍵應用。根據輝達官方部落格文章,該公司計畫將其商業級AI-RAN產品整合到諾基亞領先的無線接入網(RAN)產品組合中,使通訊服務提供商能夠在輝達平台上部署AI原生的5G-Advanced和6G網路。作為合作的一部分,輝達將以每股6.01歐元的價格認購1.664億股諾基亞新股,總投資額達10億美元。NVQLink:打通量子計算的“經絡”在探討計算科學前沿時,黃仁勳回憶起量子物理學家理查德·費曼四十年前的願景:創造一台能夠直接模擬自然規律的量子電腦。“現在我們能夠製備穩定、相干且可糾錯的邏輯量子位元,”黃仁勳指出。“然而,這些量子位元極其脆弱,需要強大的技術來支援量子糾錯和狀態解讀。”為實現量子計算與GPU計算的無縫融合,輝達推出了量子-GPU互連技術NVQLink。這項創新使得量子處理單元(QPU)能夠即時呼叫CUDA-Q計算框架,將通訊延遲降低到約4微秒的極致水平。NVQLink將量子處理器和控制硬體系統的多種方法直接連接到 AI 超級電腦上,能夠幫助量子從業人員克服在擴展硬體時所面臨的整合難題。作為一種開放系統架構,它可以將 GPU 計算與量子處理器進行緊密結合,從而為量子超級電腦帶來加速。在現場演示中,黃仁勳身後的大螢幕展示了一個包含17家領先量子計算公司和多家美國能源部實驗室的協同創新生態網路。“幾乎所有美國能源部下屬的實驗室都在與我們的量子計算生態系統合作夥伴緊密協作,將量子計算融入未來的科學發展藍圖。”攜手能源部共建新一代超算叢集黃仁勳宣佈,美國國家實驗室正步入由AI基礎設施驅動的科研新紀元。輝達已與美國能源部(DOE)達成戰略合作,將共同建造七台新一代超級電腦,為未來的科學研究提供強大的算力支撐。在具體佈局上,輝達將聯合美國能源部及甲骨文,在阿貢國家實驗室內建造DOE體系內規模最大的AI超級電腦叢集。該超算網路由兩大核心系統構成:Solstice系統將部署100,000顆輝達Blackwell GPU。建成後,它將成為全球最大的、面向公共研究的智能體科學平台。Equinox系統配備10,000顆Blackwell GPU,提供高達2200 EFLOPS的AI算力,專門服務於前沿科學計算、模擬模擬和開放式研究。這項重大的基礎設施投資,標誌著美國正式邁入“智能體驅動科學研究”的新時代,將極大提升其在國家安全、能源戰略、基礎科研等關鍵領域的創新能力和發展速度。本土製造戰略:在美國本土量產Blackwell晶片在產業佈局方面,黃仁勳透露了重要進展:Blackwell GPU已在美國亞利桑那州實現規模化生產,基於該晶片的整機系統也將在美國本土組裝。此舉標誌著輝達成功將其旗艦產品的製造從完全依賴台積電,轉向了美國本土的供應鏈體系。值得注意的是,本次發佈會的許多公告都帶有明確的政策導向。通過展示其在美國科技生態系統中的核心地位,輝達向政策制定者傳遞了一個關鍵資訊:限制晶片出口將直接損害美國的利益。黃仁勳在會前透露,選擇華盛頓作為會議地點是為了方便川普總統出席,但由於總統的亞洲之行未能如願。在市場表現方面,黃仁勳透露GPU需求依舊強勁:過去四個季度,輝達已出貨600萬顆Blackwell GPU,預計Blackwell及下一代Rubin晶片的總銷售額將達到5000億美元的規模。Vera Rubin超級晶片明年量產黃仁勳在會上展示了下一代Vera Rubin超級晶片,其上搭載了Vera CPU和兩顆巨大的Rubin GPU。該主機板還承載了大量的LPDDR系統記憶體,這些記憶體將與Rubin GPU上的HBM4記憶體協同工作。黃仁勳還表示,Rubin GPU已經返回實驗室,這意味著這些是由台積電生產的首批樣品。每個GPU周圍都有大量的供電電路,每個晶片將包含8個HBM4堆疊位點和兩個光罩尺寸(Reticle-sized)大小的GPU裸片。Vera CPU將配備88個定製ARM核心和176個執行緒。談到推出計畫,黃仁勳透露,他預計Rubin GPU將在明年大約同一時間或更早進入量產階段,也就是2026年第三或第四季度。與此同時,輝達的Blackwell Ultra “GB300” 超級晶片平台正在全速推出。規格方面,輝達Vera Rubin NVL144平台將採用兩款新晶片。Rubin GPU將使用兩個光罩尺寸大小的晶片,提供高達50 PFLOPS的FP4性能和288 GB的下一代HBM4記憶體。這些晶片將與一顆擁有88核定製Arm架構、176執行緒的Vera CPU以及高達1.8 TB/s的NVLINK-C2C互連技術一起配置。在性能擴展方面,輝達Vera Rubin NVL144平台將具備3.6 Exaflops的FP4推理能力和1.2 Exaflops的FP8訓練能力,比GB300 NVL72提升3.3倍;擁有13 TB/s的HBM4記憶體頻寬和75 TB的快速記憶體,比GB300提升60%;NVLINK和CX9的能力則提升2倍,分別達到最高260 TB/s和28.8 TB/s。第二個平台將於2027年下半年問世,名為Rubin Ultra。該平台將把NVL系統從144擴展到576。CPU架構保持不變,但Rubin Ultra GPU將採用四個光罩尺寸大小的晶片,提供高達100 PFLOPS的FP4性能,以及分散在16個HBM位點上、總計1 TB的HBM4e容量。在性能擴展方面,輝達Rubin Ultra NVL576平台將具備15 Exaflops的FP4推理能力和5 Exaflops的FP8訓練能力,比GB300 NVL72提升14倍;擁有4.6 PB/s的HBM4記憶體頻寬和365 TB的快速記憶體,比GB300提升8倍;NVLINK和CX9的能力則分別提升12倍和8倍,達到最高1.5 PB/s和115.2 TB/s。AI工廠革命:從工具到生產力實體“AI不是工具,而是生產力實體,”黃仁勳在演講中提出了這一革命性觀點。“歷史上第一次,技術擁有了執行勞動任務的能力,成為人類生產力的延伸。”這種從“工具”到“AI工人”的根本性轉變,正催生著全新的計算範式,進而帶來前所未有的職業形態和產業圖景。在黃仁勳的設想中,現代“AI工廠”遠非傳統資料中心所能代表。它是專為海量令牌(tokens)的生成、傳輸和服務而建構的全新綜合計算平台。這種平台級架構旨在實現前所未有的計算密度和能效比。面對AI算力需求的指數級增長,黃仁勳詳述了輝達的解決方案:“首先,我們重新定義電腦的形態,首次將單個計算系統擴展至整個機櫃的規模;其次,通過創新的AI乙太網路技術Spectrum-X,實現多個系統之間的無損橫向擴展。”隨著AI工廠的興起,機器人工程、量子科學等新興領域正在創造大量前所未有的就業機會。“創新的飛輪已經啟動,”黃仁勳強調。“接下來的關鍵是通過成本控制,大幅降低營運成本,最佳化使用者體驗,維持這個創新循環的持續運轉。”實現這一願景的關鍵在於“極致協同設計”,即同步設計全新的底層計算架構,涵蓋晶片、系統平台、軟體棧、AI模型和終端應用。為了展示這一理念的實物成果,黃仁勳在台上展示了新一代NVIDIA BlueField-4 DPU。這款整合了64核Grace CPU和ConnectX-9網路晶片的資料處理器,計算性能是其前代的六倍,將成為未來AI工廠的“作業系統核心”。這款革命性的DPU專為解除安裝和加速伺服器的網路、儲存和安全任務而設計。計畫於2026年首先部署在輝達的Vera Rubin機櫃級AI平台上,隨後向更廣泛的伺服器生態系統開放。Omniverse DSX:AI工廠的藍圖為應對大規模AI部署的挑戰,黃仁勳正式推出了Omniverse DSX——一個全面覆蓋從100兆瓦到數千兆瓦規模AI工廠設計與營運的綜合解決方案。該藍圖已在弗吉尼亞州的AI工廠研究中心得到充分驗證。為了使DSX參考設計更能適應不同的資料中心,輝達提供了兩種配置框架:DSX Boost(內部能效最佳化):通過智能電源管理和動態工作負載分配,在相同算力輸出下可降低約30%的能耗,或在相同功率預算下提升30%的GPU密度,實現令牌生成吞吐量的質的飛躍。DSX Flex(外部能源整合):將資料中心深度融入區域電網系統。通過智能調度可再生能源、平衡供需關係,可有效啟動美國電網中約100吉瓦(gigawatts)的閒置容量。Omniverse DSX旨在讓新進入者能夠快速建構AI工廠。該解決方案確保了輝達及其合作夥伴的硬體在處理器、網路和冷卻系統層面上開箱即相容。即使沒有專業經驗,也可以按照藍圖進行部署,最大限度地減少了定製化需求。值得注意的是,該架構不僅完美支援當前的Blackwell平台,還為下一代Vera Rubin等未來產品預留了相容性,為投資者提供了長期的技術保障。開放生態與產業融合演講中,黃仁勳強調了開放生態系統的核心價值:“開源模型和開放協作是全球創新的基石,為初創企業、研究機構和工業企業提供了持續的動力。”據悉,輝達今年已向開發者社區貢獻了數百個高品質的開源模型和資料集。輝達建構了一個覆蓋關鍵領域的開源模型體系:Nemotron: 專注於智能體推理與決策的AICosmos: 打破合成資料生成與物理AI的界限Isaac GR00T: 賦能機器人技能學習與跨場景泛化Clara: 重塑生物醫藥研究與臨床工作流這些模型家族將共同賦能下一代智能體系統、機器人技術和科學發現。黃仁勳強調:“我們持續投入開放生態,因為這是科研、創業和產業升級的共同需求。”現場展示的合作夥伴成果顯示了輝達技術廣泛的應用場景,涵蓋了Google雲、微軟Azure、甲骨文等雲端運算巨頭,ServiceNow、SAP等企業服務提供商,以及Synopsys、Cadence等專業領域的領導者。黃仁勳還宣佈了兩項戰略合作:與CrowdStrike合作建構新一代網路安全體系,通過Nemotron模型和NeMo工具鏈,實現從雲到邊緣的“光速”威脅檢測與響應;與Palantir達成深度技術整合,將加速計算架構、CUDA-X庫和開源模型融入Ontology資料平台,實現大規模資料處理的性能突破。為美國再工業化打造數字孿生平台物理AI正在推動美國的再工業化——通過機器人和智能系統改造工廠、物流和基礎設施。在一段視訊中,黃仁勳重點介紹了合作夥伴如何將其應用於實際工作中。“工廠本質上是一個機器人,它指揮著其他機器人製造機器人的東西,”他說。“這需要大量的軟體,除非你能在數字孿生中完成,否則幾乎不可能實現。”黃仁勳在台上特別提到了富士康的工作,該公司正在使用Omniverse工具設計和驗證位於休斯頓的新工廠,該工廠將用於製造NVIDIA AI基礎設施系統;卡特彼勒公司——該公司也在製造過程中應用數字孿生技術;佈雷特·阿德科克,他在三年半前創立了Figure AI公司,該公司為家庭和工作場所製造人形機器人,現在價值近40億美元;強生公司;以及迪士尼,該公司正在使用Omniverse訓練“有史以來最可愛的機器人”。自動駕駛:Uber和DRIVE Hyperion 10黃仁勳宣佈,Uber和NVIDIA正在合作建構自動駕駛出行的主幹網,目標是打造約10萬輛自動駕駛汽車,並從2027年開始擴展。NVIDIA DRIVE AGX Hyperion 10是4級參考架構:安全、可擴展、軟體定義,在一個網路上統一人類和機器人駕駛員。“未來,你就能叫到這樣的車了,”黃仁勳說,“這個生態系統將會非常豐富,Hyperion 或自動駕駛計程車將會遍佈世界各地。”“人工智慧時代已經開啟。Blackwell是它的引擎。美國製造,服務全球,”黃仁勳總結道。“感謝大家讓我們將GTC帶到華盛頓特區。我們希望每年都能舉辦這樣的活動,也感謝大家的貢獻,讓美國再次偉大。” (半導體產業縱橫)
【GTC】輝達GTC大會深度解析從GPU到AI工廠,黃仁勳如何重塑科技未來
🎯 核心要點物理智能與數字孿生推動美國再工業化AI原生6G技術引領全球通訊標準NVQLink鞏固量子計算領域主導地位建構安全可部署的AI基礎設施打造開放模型生態核心引擎統一DRIVE Hyperion平台加速自動駕駛落地美東時間10月28日,輝達創始人兼CEO黃仁勳在GTC華盛頓特區技術峰會上發表重磅演講。這場被譽為"AI界超級碗"的盛會,不再僅僅是技術參數的堆砌,而是黃仁勳站在美國首都的心臟地帶,為美國勾勒的一幅"AI世紀"宏偉藍圖。從晶片製造回歸本土,到用AI主導未來通訊標準,輝達正以"極致協同設計"的姿態,試圖幫助美國在AI基礎設施和創新領域繼續保持領導地位。💻 計算架構範式轉移:從CPU主宰到GPU加速時代核心觀點:在"摩爾定律"失效、計算性能增長陷入停滯的當下,輝達正是那個拯救未來計算的"救世主"。黃仁勳在演講中回顧了計算產業的歷史性轉折。數十年來,CPU性能始終遵循著可預測的規模增長軌跡,然而隨著登納德縮放定律走向終結,傳統發展路徑已難以為繼。面對這些挑戰,輝達給出的答案是:平行計算、GPU和加速計算架構。黃仁勳宣稱:"這一轉折點已經到來,輝達已做好準備。通過引入能夠充分利用指數級增長電晶體的處理器,運用平行計算技術,再與順序處理的CPU協同工作,就能將計算能力推向一個全新維度。"🔧 CUDA-X全端加速庫加速計算的實現,離不開輝達精心建構的軟體基石——CUDA-X全端加速庫。這個龐大的軟體生態覆蓋了從深度學習領域的cuDNN與TensorRT-LLM,到資料科學平台RAPIDS,再到決策最佳化工具cuOpt等關鍵領域。📡 AI原生6G技術堆疊:重塑全球通訊格局黃仁勳強調,電信技術是經濟和國家安全的生命線,但目前全球無線技術部署大多依賴於其他國家的技術體系。"這種核心通訊技術受制於人的局面必須終結,而現在我們迎來了扭轉局面的歷史性機遇"。🚀 NVIDIA ARC技術突破為實現這一戰略目標,輝達推出了顛覆性的NVIDIA ARC——一個以美國技術為核心的AI原生6G無線技術堆疊。該平台基於輝達Aerial平台建構,融合了Grace CPU、Blackwell GPU及先進網路元件。重大合作:輝達已與通訊裝置巨頭諾基亞達成深度戰略合作,投資總額達10億美元。⚛️ NVQLink:打通量子計算的"任督二脈"在探討計算科學前沿時,黃仁勳回顧了量子物理學家理查德·費曼四十年前的設想:創造能夠直接模擬自然規律的量子電腦。🔬 技術突破NVQLink將量子處理單元與CUDA-Q計算框架即時連接,通訊延遲降至約4微秒的極致水平。🤝 生態合作已獲得17家量子計算領先企業和多個美國能源部實驗室的支援。🏭 AI工廠革命:從工具到生產力主體"AI不是工具,而是生產力主體。這是歷史上首次,技術具備了執行勞動任務的能力,成為人類生產力的延伸。"在黃仁勳的構想中,現代"AI工廠"已遠非傳統資料中心所能概括,而是專門為海量token的生成、傳輸與服務建構的全新綜合計算平台。🔧 BlueField-4 DPU核心技術整合64核Grace CPU與ConnectX-9網路晶片計算性能達到前代產品的6倍計畫於2026年率先部署於Vera Rubin機架級AI平台🚗 自動駕駛新紀元:十萬輛級Robotaxi網路在自動駕駛領域,黃仁勳宣佈了一項里程碑式合作:輝達與Uber正共同建構面向未來的自動駕駛出行平台,計畫自2027年起規模化部署約10萬輛自動駕駛車輛。🔧 DRIVE AGX Hyperion 10平台處理器配置兩顆Thor處理器,每顆約2000 FP4 TFLOPS感測器套件14個攝影機、9個雷達、1個雷射雷達、12個超聲波感測器除Uber外,Hyperion已獲得Lucid Motors、梅賽德斯-奔馳以及Stellantis集團等多家國際汽車製造巨頭的採用。📊 市場表現與產業佈局🏭 本土製造戰略Blackwell GPU已在美國亞利桑那州實現規模化生產,基於該晶片的整機系統也將在美國完成組裝。這標誌著輝達成功將旗艦產品的製造環節從完全依賴台積電代工,轉向美國本土供應鏈體系。🤝 重大戰略合作🛡️ CrowdStrike網路安全合作通過Nemotron模型與NeMo工具鏈,實現從雲端到邊緣的"光速級"威脅檢測與響應。📊 Palantir資料平台整合將加速計算架構、CUDA-X庫與開源模型融入Ontology資料平台,實現超大規模資料處理的性能突破。💊 禮來製藥超算項目建設由超過1000塊Blackwell Ultra GPU驅動的超級電腦,專門用於藥物發現和開發的AI模型訓練。🚀 展望未來"AI是我們這個時代最強大的技術,而科學是其最偉大的前沿。"輝達從晶片製造商向全端AI基礎設施供應商的戰略轉型,正在重新定義整個科技產業的未來格局。 (FinHub)
【GTC】量子計算、機器人……黃仁勳勾勒AI宏偉藍圖
台北時間周三凌晨,全球市值最高上市公司輝達在美國首都舉辦GTC大會,公司CEO黃仁勳登台暢談AI產業的前沿展望。與以往有明確重點的發佈會不同,黃仁勳今天的演講涉獵甚廣,全球資本市場熱炒的6G、量子計算、物理AI和機器人、核聚變、自動駕駛全都有份。面對輝達直到2028年的技術路線圖和下一代Vera Rubin架構產品實機亮相,疊加黃仁勳炫耀“到2026財年的Blackwell、Rubin晶片訂單已經積攢5000億美元”。“全球股王”輝達收漲4.98%報201.03美元,公司總市值接近4.9兆美元。輝達的暴漲還帶動了部分晶片股走高,英特爾漲5.03%,博通漲3.02%。諾基亞漲22.84%,輝達官宣將向諾基亞投資10億美元,加速AI-RAN創新並引領從5G到6G的轉型。作為今天官宣的第一個合作協議,黃仁勳宣佈與諾基亞達成合作協議,除了10億美元股權投資外,兩家公司還將合作推出面向6G的電信計算平台NVIDIA ARC(Aerial RAN Computer),捕捉AI-RAN市場的機遇。NVIDIA Arc是運行在CUDA-X之上的無線通訊系統。輝達介紹稱,目前“AI流量”正處於爆發性增長的狀態,例如ChatGPT每周8億活躍使用者中,幾乎有50%的人通過移動裝置訪問該AI。借助AI-RAN系統,移動營運商可以提升性能和效率,增強AI應用的網路體驗,並用同樣的設施提供6G服務,為無人機、汽車、機器人以及AI眼鏡提供網路連線。在會後的新聞稿中,輝達也宣佈與T-Mobile、思科等合作夥伴打造美國首個面向6G的AI原生無線堆疊,並推出推進下一代無線技術的新應用。輝達同時展示了基於CUDA‑Q核心建構的NVQLink,用於連接傳統GPU和量子電腦,共同加速量子計算。目前的量子計算對環境噪聲高度敏感,且可用性有限。因此需要基於GPU的超級電腦承擔起量子處理器的部分負載,支援量子糾錯所需的控制演算法。黃仁勳隨後宣佈與美國能源部達成協議,將再建設7台超級電腦。這些超算將使用Blackwell和下一代Vera Rubin架構晶片,分別配置在阿貢國家實驗室和洛斯阿拉莫斯國家實驗室。其中名為Solstice的系統將配備10萬塊Blackwell GPU,將成為“美國能源部用於科學發現的最大AI超級電腦”。作為演講的保留節目,黃仁勳又展示了他的“晶片盾牌”——今天的盾牌由NVLink連接的72個GPU構成。黃仁勳特別強調,通過在更多GPU之間更好地分配推理任務,GB200 NVL72 AI超級電腦的性能提高了10倍,同時運行成本也降低了10倍——AI正變得對所有人更加可及。輝達也披露了新款BlueField-4資料處理晶片,可加速千億量級的AI基礎設施,支援800Gb/s吞吐量,並實現高性能推理處理。作為刺激股價表現的環節,黃仁勳在現場宣佈,截至2026財年末,公司帳上已經堆了超過5000億美元訂單。他也在現場展示了輝達截至2028年的GPU路線圖,和下一代Vera Rubin架構晶片的樣機。這款產品可能要到明年此時或更晚一些才能量產發貨。順便一提,現場也展示了輝達的液冷AI伺服器機架。黃仁勳比劃稱,1吉瓦資料中心需要8000個這樣的機架。單個機架重達2噸,由150萬個零部件構成。在備受投資者關注的“物理AI”方面,黃仁勳的演講主要放在Omniverse數字孿生技術上,包括利用該技術建構現代工廠,以及訓練和打造機器人。其中機器人初創公司Figure宣佈與輝達開展合作,加速下一代人形機器人研發。Figure正在使用輝達加速計算建構其Helix視覺-語言-動作模型,並採用Isaac平台進行模擬和訓練。輝達也推出了新一代工業級邊緣AI平台IGX Thor,旨在將即時物理人工智慧帶到邊緣端。與上一代產品IGX Orin相比,IGX Thor在整合GPU形態下能提供8倍AI算力,獨立GPU也能提供2.5倍算力,並提供翻倍的連接性,從而在邊緣側無縫運行大型語言模型和視覺語言模型。順便一提,核聚變反應堆也能用數字孿生來模擬。輝達透露,公司與General Atomics以及一系列國際合作夥伴打造了一個具有互動性能的高保真、AI驅動的數字孿生聚變反應堆。這個模型能夠以秒級速度預測電漿體行為。作為演講的壓軸環節,黃仁勳宣佈推出NVIDIA DRIVE AGX Hyperion 10,這是一套參考級量產計算平台與感測器架構。輝達宣稱,這套系統是面向“L4級自動駕駛”的通用平台,包括14個高畫質攝影機、9個雷達、1個雷射雷達和12個超聲感測器,以及兩台基於Blackwell架構的車載DRIVE AGX Thor平台。輝達也宣佈與Uber達成合作,使用該計算平台的車輛將可選接入Uber平台。 (財聯社)
中國國內首次!8.9毫秒推理速度破紀錄,1元打穿百萬token
【新智元導讀】當所有人還在為參數內卷時,智能體真正的決勝點已經轉向了速度與成本。浪潮資訊用兩款AI伺服器直接給出了答案:一個將token生成速度幹到10毫秒以內,一個把每百萬token成本打到1元時代。Agentic AI時代,已經到來!輝達GTC大會上,老黃公開表示,當AI具備了感知和推理能力時,智能體AI就誕生了。「它如同數字世界的「機器人」,本質是理解-思考-行動」。當前,AI智能體革命已至臨界點。國內外科技巨頭紛紛加速佈局,全力爭奪這一賽道主導權。據Gartner預測,到2028年,AI智能體將參與人類約15%的日常工作決策。Georgian報告也顯示,如今,91%的企業研究主管正計畫在內部鋪開Agentic AI的落地應用。然而大規模部署之前,「互動速度」與「成本控制」仍是橫亙在許多企業面前的兩大關鍵挑戰。這裡有簡單的一個案例,就足以說明一些問題。國外一支開發團隊基於Azure的OpenAI服務,建構了一個智能體。然而,隨著時間的推移,響應變得越來越慢,一次簡單查詢耗費10秒以上。當他們用OpenAI API測試完全相同的提示詞後發現:OpenAI響應時間為1-2秒,Azure則需要5-10秒。同一款模型,同一個提示詞,卻有五倍差異。要知道,智能體的互動速度,直接決定了使用者體驗的質量。如今,人們對AI響應速度的期待,已從「秒級」進化到「毫秒級」。不僅如此,成本又直接決定了智能體產業化的可行性。多智能體的協作,對低延遲和token消耗又提出了更高的要求。分毫必爭的響應速度,決定了人們是否願意買單;而真金白銀的投入,則決定了企業能否持續推動AI智能體落地。那麼,如何才能既要又要呢?在2025人工智慧計算大會上,浪潮資訊重磅發佈了兩大破局創新系統:元腦SD200超節點AI伺服器,以及元腦HC1000超擴展AI伺服器。在元腦SD200上,DeepSeek R1大模型的Token生成速度飆升至8.9毫秒,創下國內LLM推理的最快紀錄,首次將智能體即時互動帶入「10毫秒」時代。在元腦HC1000上,LLM的推理成本被前所未有地壓縮至「1元/百萬Token」,徹底擊穿規模化部署的成本天花板。Scaling Law下一站:AI智能體爆發2025年,大模型的Scaling並未放緩,而是進入了一個全新的階段。Scaling Law的焦點,早已從「預訓練」轉向了「推理」。從o3、Gemini 2.5,到Grok 4、GPT-5,全球頂尖AI不斷迭代,每一次發佈都刷新了以往SOTA。這一演進的節奏仍在加速。爆料稱,GoogleGemini 3.0、OpenAI Sora 2都將於十月初面世。反觀國內,DeepSeek R1/V3.1-Terminus、Qwen家族等開源模型,月更、周更已成為常態。在能力邊界上,LLM正從純文字,走向了融合視覺、聽覺的多模態模型,並逐步演變為一個底層「作業系統」。可以預見,AI能力將依舊會指數級增長——LLM性能越來越強,所處理的任務長度和複雜度,也在不斷提升。我們看到,Scaling Law推動的模型參數量,從百億千億向兆、甚至百兆邁進。與此同時,在後訓練階段增加算力投入,可顯著提升LLM推理能力。為何這一轉變如此重要?因為「推理」是建構Agentic AI的基礎。眾所周知,2025年,是「智能體元年」。作為LLM的核心應用形態,智能體落地進入了爆發期。在這一賽道上,Google、OpenAI、Anthropic等巨頭競相佈局。比如,OpenAI的「編碼智能體」GPT-5-Codex深受開發者歡迎;另外,還有正在內測的「GPT-Alpha」,具備高級推理、全模態,可以呼叫工具。然而,AI智能體的產業化落地並非易事。能力、速度和成本,成為了當前AI智能體產業化決勝的「鐵三角」。AI不再侷限於技術演示、實驗,而要深入場景,成為創造可衡量價值的核心生產力。這意味著,商業成功的核心已從單純追求模型能力,轉向對能力、速度、成本三者的綜合平衡。互動速度:決定智能體的商業價值在智能體時代,速度不再是錦上添花,而是生存底線。token的吞吐速度,已成為AI應用建構的「隱形計時器」。在人機互動時代,我們對AI延遲感知不強,只要響應速度跟上人類閱讀思維即可。一般來說,只要滿足20 token/s輸出速率,就能實現流暢的閱讀體驗。而現在,AI的遊戲規則徹底改變。互動主體不再是「人-機」對話,而是「智能體-智能體」的高頻博弈。延遲那怕是幾毫秒,也可能導致決策失效。而且,在規模化商業部署中,這種差異會被無限放大,形成「以快殺慢」的絕對碾壓。智能體間互動,多為「小封包」高頻通訊。這好比修了16條車道高速公路,AI只跑兩公里,巨大的頻寬對於小包傳輸如同虛設。而傳統通訊協議「上下高速」的過程,反而成了主要耗時。延遲是會層層累加的。當前智能體僅是初露鋒芒,未來網際網路將由它們主導協作。每一個互動環節的微小延遲,都會在複雜的協同網路中呈指數級放大,最終導致整個應用響應慢到無法接受。如果延遲無法降低,那就失去了商業化的可能性。舉個栗子,在欺詐防控場景中,對智能體響應速率提出了極限要求——約10毫秒。當前,DeepSeek響應速度基本在10-20毫秒左右,其他的普遍高於30毫秒。這遠不足以支援AI的高頻互動。token成本:規模化的生死線此外,token成本,是智能體能否實現規模化擴張,並且盈利的關鍵。即便模型能力卓越,若token成本無法控制在合理範圍內,高頻、並行的實際應用,將難以持續。一方面,LLM存在著「token膨脹」效應:推理前思考過程已產生上千萬token。一個複雜任務,直接讓token成本指數級暴漲。那麼,是什麼原因導致token思考數暴增?首先必須承認的是,模型本身演算法能力差異是影響因素之一。不同LLM在設計和訓練過程中,演算法架構和最佳化策略各有優劣,而最佳化程度更高的LLM可通過更高效推理路徑,在較少token消耗下完成相同的任務。其次,底層計算架構選擇路徑等,也會進而影響token成本。因為LLM運行有依賴於底層的計算架構,包括硬體加速器、分散式運算框架等等。若是計算架構無法高效支撐LLM推理需求,比如在分佈式系統中存在通訊瓶頸或計算資源分配不均,LLM可能需要生成更多token「繞路」完成任務。當前,在做AI Coding的程式設計師,每月消耗token數比一年前平均增長約50倍,達到1000萬-5億token。企業每部署一個智能體,平均token成本大概1000-5000美元。未來五年,token消耗預計增長100萬倍。可見,不論是速度,還是成本,都成為AI智能體商業化落地的最大挑戰。面對這個難題,我們該如何解?兩大核心方案,拿下速度成本難題浪潮資訊,同一時間給出了兩大解決方案——元腦SD200超節點AI伺服器元腦HC1000超擴展AI伺服器元腦SD200若要實現更低延遲token生成能力,就需要在底層基礎設施,比如架構、互聯協議、軟體框架等關鍵點上,實現協同創新。浪潮資訊新的突破,在於元腦SD200超節點AI伺服器。如前所述,DeepSeek R1在元腦SD200上token生成速度實現了8.9毫秒。目前,最接近的競爭對手,最好的資料是15毫秒。這是國內首次將智能體即時互動,帶入到10毫秒時代。為何元腦SD200能夠取得如此大的速度突破?這背後離不開團隊,融合了智能體應用和超節點開發的技術成果。 首創多主機3D Mesh系統架構它可以實現單機64路本土AI晶片縱向擴展(Scale Up),提供4TB視訊記憶體和6TB記憶體,建構超大KV Cache分級儲存空間。而且,單節點即可跑4兆參數LLM,或同時部署多個協作的智能體。此外,在硬體設計上還支援了「開放加速模組」(OAM),相容多款本土AI晶片。 跨主機域全域統一實體位址空間團隊還通過遠端GPU虛擬對應技術,突破了跨主機域統一編址的難題,讓視訊記憶體統一地址空間擴展8倍。它還支援拓撲動態伸縮,可按需擴展128、256、512、1024卡的規模。通過Smart Fabric Manager,元腦SD200實現了單節點64卡全域最優路由,保障了晶片間通訊路徑最短,進一步縮短了通訊延遲。最重要的是,互連協議的設計,是元腦SD200實現極低延遲的關鍵。首先,團隊採用了基建的協議棧,只有物理層、資料鏈路層、事務層三層協議,原生支援Load/Store等「記憶體語義」,GPU可直接訪問遠端節點的視訊記憶體或主存。並且,基礎通訊延遲達到了「百納秒級」。其次,浪潮資訊Open Fabric原生支援由硬體邏輯實現的鏈路層重傳,延遲低至微秒級。不依賴OS、軟體棧,它就能匹配更低延遲、更高吞吐的AI推理場景。元腦SD200還採用了,分佈式、預防式流控機制,無需丟包或ECN來感知擁塞。得益於以上高效、可靠的協議設計,元腦SD200實現了業界最低0.69微秒通訊延遲。當然了,超節點的大規模商業化應用,還必須依靠整機的高可靠的設計。為此,浪潮資訊從系統硬體層、基礎軟體層、業務軟體層,建構了多層次、可靠的保障機制。系統硬體層:全銅纜電互連,短距離緊耦合傳輸,每十億小時故障率低於「光模組互聯」方案100倍基礎軟體層:創新GPU故障資訊轉儲、跨域故障關聯定位等技術,實現全方位可觀測、全端維運自動化業務軟體層:基於Profiling性能資料啟動故障預隔離和任務自動遷移,保證業務故障預測與自癒,實現推理響應不中斷在元腦SD200上,團隊還非常強悍地實現了推理性能超線性擴展。這意味著,性能的提升幅度超過了資源投入的增加幅度。以DeepSeek R1-671B為例,從16卡擴展到64卡,實現了16.3倍超線性的擴展率!具體來看,元腦SD200將這件事做到了極致的完美:通過PD分離策略、動態負載平衡等技術,充分發揮出了超節點的架構優勢,讓系統內部的處理流程變得極其高效,資源競爭和擁堵被降到最低。最終,將通訊耗時控制在了10%以內。可以設想,在實際高並行場景下,當請求量急劇攀升時,系統能夠高效地將負載均勻分佈至各個計算單元,避免了個別節點的「擁堵」拖累整個系統的響應時間。這意味著,無論是第1個請求,還是第100萬個請求,都能獲得同樣穩定且低水平的延遲。既能「跑得快」又能「跑得多」,保證絕對極致的低時延,這就是實現規模化的生命線!基於軟體生態FlagOS,元腦SD200還能繼續相容更大的生態,主流程式碼即可直接編譯運行。當前,元腦SD200已實現對Pytorch算子的全覆蓋,AI4S的典型應用可以一鍵遷移。如下所示,64個AlphaFold 3蛋白質結構預測,即可在一台元腦SD200超節點AI伺服器同時運行。速度挑戰解決之後,token成本又該怎麼打下來?元腦HC1000為此,浪潮資訊給出的答案是——元腦HC1000超擴展AI伺服器。它基於全對稱DirectCom極速架構打造,能夠聚合海量的本土AI晶片,支援極大的推理吞吐。對於一個企業來說,在起步探索、POC階段,平台通用性更加重要,可以快速驗證想法,搶佔市場先機。這對其創新、迭代的速度,至關重要。但當它進入大規模部署階段,即應用被市場驗證,token呼叫數呈指數級增長是時,核心目標又轉變為——高效、低成本營運。而元腦HC1000,就能把推理成本打到最低1元/百萬token。 全對稱DirectCom極速架構DirectCom極速架構,每計算模組配置16顆AIPU,採用了直達通訊的設計,解決了傳統的伺服器架構下,協議轉換和頻寬增強問題,實現了超低延遲。計算通訊1:1均衡配比,實現了全域的無阻塞的通訊。傳統意義上,計算與通訊是互斥關係,計算時不會傳輸,計算完成後再傳。當前,有很多將計算和通訊結合的策略,主要是把原來在傳過程,針對GPU等待時間做最佳化。除此之外,還包含了許多細粒度的任務,比如不同模型架構,不同並行情況,通訊資料區塊大小和通訊策略都要最佳化,才能提升效率。HC1000還採用全對稱的系統拓撲設計,可支援靈活PD分離、AF分離,按需配置算力,最大化資源利用率。它還支援多元算力,讓不同的晶片協同工作。 超大規模無損擴展同時,HC1000支援超大規模無損擴展,實現從1024卡到52萬卡不同規模的系統建構。計算側支援DirectCom和智能保序機制,網路側支援包噴灑動態路由,實現了深度算網協同,相較傳統RoCE方法提升1.75倍。它還支援自適應路由和智能擁塞控制演算法,將KV Cache傳輸對Prefill、Decode計算實例影響降低5-10倍。總結來看,元腦HC1000是通過「全面最佳化降本」和「軟硬協同增效」,實現了高效token生產力。它不僅創新了16卡計算模組,單卡成本暴降60%+,每卡分攤系統均攤成本降低50%。而且,它採用了大規模工業標準設計,降低了系統複雜度的同時,還提高了系統可靠性,無故障執行階段間大幅延長。系統採用的DirectCom架構保障了計算和通訊的均衡,讓算網協同、全域無損技術,實現了推理性能1.75倍飆升。通過對LLM的計算流程的細分和模型結構的解耦,實現了計算負載的靈活的按需配比。單卡MFU計算效率,最高可以提升5.7倍。元腦SD200+元腦HC1000,成為浪潮資訊兩大「殺手鐧」,分別攻克了AI智能體應用速度和成本難題。那麼,下一步又該走向何方?「專用計算架構」是未來近期,OpenAI在算力佈局上,動作頻頻:先是和甲骨文簽下3000億美元大單,隨後又獲得輝達100億美元的投資。緊接著,他們又官宣了「星際之門」五大超算全新選址計畫。這一系列舉措,無不指向一個核心事實——對於LLM訓練和部署而言,算力需求始終是一個「無底洞」。當前,AI算力的可持續發展正面臨三大關鍵挑戰:工程極限:系統規模的擴展已逼近工程能力的上限。能源壓力:算力的大幅增長給電力基礎設施帶來了巨大負擔。效能失衡:算力投入和產出失衡,商業兌現處理程序緩慢。目前,市面上的「AI晶片」仍以通用晶片為主。GPU,是增加了CUDA核心和矩陣運算Tensor核心的傳統圖形計算晶片;ASIC,則是最佳化了矩陣計算和張量處理的通用矩陣計算晶片。但正如前文所述,這些基於通用計算架構的方案,正逐漸在能效比和成本效益上觸及瓶頸。僅是單純依靠堆疊更多計算單元,或是提升製程工藝的傳統路徑,難以沿著scaling Law在算力規模、能耗、成本之間取得平衡。其原因在於,通用架構雖然適用性強、易於產業化推廣,但效率低下。相比而言,應用面較窄的專用架構,則有著更高的效率。對此,浪潮資訊AI首席戰略官劉軍認為,未來的關鍵便是在於「發展AI專用計算架構」:我們必須推動發展路徑的轉變,要從一味地追求規模擴展,轉向注重提升計算效率。並以此為基礎,重新構思和設計AI計算系統,大力發展真正面向AI應用的「專用計算架構」。具體而言,就是從硬體層面來最佳化算子與演算法,定製出大模型專用晶片,進而實現軟硬體層面的深度協同最佳化,即「演算法硬體化」。只有這樣才能讓性能的Scaling,追上token的高速增長。這不僅是突破算力瓶頸的必經之路,更是推動AI產業邁向下一階段的基石。面對大模型時代,浪潮資訊的前瞻性思考為業界指明了一條方向:通過創新計算架構,讓AI更好地走向落地。 (新智元)
【GTC大會】輝達CEO黃仁勳最新演講:量子計算正迎來關鍵拐點
6月11日輝達CEO黃仁勳在巴黎VivaTech科技峰會期間舉行的GTC大會上宣佈,計畫在歐洲新建20家“人工智慧工廠”,歐洲的AI算力將在兩年內增長10倍,將配備10000個GPU。他還稱,量子計算正迎來關鍵拐點,未來幾年將強大到足以“解決一些有趣的全球性問題”。美股量子計算概念股集體走強,其中QUBT表現最為亮眼,截至收盤漲逾25%。這次演講資訊密度極大,涉及加速計算、量子計算、數字孿生、人工智慧工廠、模型增強、代理人工智慧、自動駕駛、人形機器人等。以下是現場演講實錄(AI翻譯,僅供參考):這是輝達在巴黎的首次GTC大會。這太令人難以置信了。感謝所有合作夥伴與我們一同出席。多年來,我們與眾多夥伴合作,雖然這是我第一次在巴黎舉辦GTC,但我有很多內容要和大家分享。加速計算創新與量子計算突破輝達曾經想要打造一個全新的計算平台,去做普通電腦無法做到的事情。我們加速了CPU,創造了一種名為加速計算的新計算方式,而我們最早的應用之一是分子動力學。從那時起,我們已經取得了長足的進步,開發出許多不同的庫。事實上,加速計算的特別之處在於,它不僅僅是一個新的處理器,你可以軟體編譯到上面。你必須重新思考如何進行計算,重新設計你的演算法。事實證明,讓人們將軟體和演算法重新設計為高度平行化是非常困難的。因此,我們為每個市場、每個應用領域開發了庫,以實現加速。這些庫為開發者開闢了新的機會,也為我們和我們的生態系統合作夥伴帶來了新的增長機會。計算光刻技術可能是當今半導體設計中最重要的應用之一,它在台積電、三星等大型半導體工廠中運行。在晶片製造之前,它會通過一個逆物理演算法,即計算光刻技術、直接稀疏求解器、代數多重網格求解器——我們剛剛開源了一個非常令人興奮的應用庫。這個庫加速了決策制定,最佳化了具有數百萬變數和數百萬約束條件的問題。Warp是一個用於表達幾何和物理求解器的Python框架,非常重要。cuDF、cuML用於結構化資料庫、資料框和經典機器學習演算法。cuDF可以加速Spark,無需修改程式碼。cuML可以加速scikit-learn,同樣無需修改程式碼。還有Triton和cuDNN。cuDNN可能是輝達有史以來最重要的庫之一,它加速了深度神經網路的基本原理。而Triton是我們全新的庫,能夠在整個AI工廠中調度、協調和分配極其複雜的推理工作負載。cuPy等變性和cuTensor收縮演算法。等變性是用於遵循幾何定律的神經網路,例如蛋白質、分子,這是一個非常重要的框架,能夠支援AI在6G Earth 2中運行,這是我們的天氣和氣候模型基礎模型的模擬環境,解析度極高,達到平方公里等級。MONAI是我們的醫學成像框架,非常受歡迎。Parabricks求解器用於基因組學分析,也非常成功。CUDA Quantum(CUDA-Q),我稍後會詳細說明,用於量子計算,以及CuPy用於加速NumPy和SciPy的數值計算。正如大家所見,這些只是部分庫的例子。我們還有400多個其他庫,每個庫都加速了一個應用領域,每個庫都帶來了新的機會。其中最令人興奮的是CUDA-Q。CUDA-Q是一套用於加速應用和演算法的庫。在CUDA的基礎上,我們現在有了CUDA-Q,用於量子計算,基於GPU的經典量子計算。我們已經研究CUDA-Q好幾年了。今天,我可以告訴大家量子計算正在迎來一個轉折點。正如大家所知,第一個物理量子位元大約在30年前被展示出來,1995年發明了一種糾錯演算法,而在2023年,也就是近30年後,Google展示了世界上第一個邏輯量子位元。從那以後,又過了幾年,邏輯量子位元的數量開始增長,它們由許多帶有糾錯功能的物理量子字節成,就像摩爾定律一樣。我可以完全預期,每五年邏輯量子位元的數量會增加10倍,每十年增加100倍。這些邏輯量子位元將具備更好的糾錯能力,更加穩健、性能更高、更具韌性,並且當然會繼續可擴展。圖片由AI生成量子計算正在迎來一個轉折點。我們與世界各地的量子計算公司以多種方式合作。但在歐洲,這裡有一個龐大的社區。昨晚我見到了帕斯卡爾,還見到了巴塞隆納超級計算中心的團隊。現在,我們已經接近能夠在未來幾年內將量子計算(量子經典計算)應用於解決一些有趣問題的領域。這是一個非常令人興奮的時刻。因此,我們與所有超級計算中心都進行了合作。現在非常清楚的是,在未來幾年,或者至少在下一代超級電腦中,每一台都將配備一個量子處理單元(QPU),並且QPU將與GPU相連。QPU將用於量子計算,而GPU將用於預處理、控制和糾錯,這些任務的計算強度極高。在兩種架構之間進行後處理等任務,就像我們加速了CPU一樣,現在QPU與GPU協同工作,推動下一代計算的發展。今天,我們宣佈我們的整個量子演算法棧已經在Grace Blackwell 200上加速,其加速效果令人難以置信。我們以多種方式與量子計算行業合作。其中一種方式是使用KU量子來模擬量子位元或模擬運行在這些量子電腦上的演算法,本質上是用經典電腦來模擬或模擬量子電腦。在另一個極端,非常重要的是CUDA-Q。基本上是發明了一種新的CUDA,將CUDA擴展到量子經典計算中。因此,在量子電腦到來之前,開發在CUDA-Q上的應用可以以模擬方式運行,而在量子電腦到來之後,可以以協作方式運行,採用量子經典加速計算方法。今天,我們宣佈CUDA-Q已可用於Grace Blackwell。這裡的生態系統非常豐富,當然,歐洲在科學、超級計算專長以及這一領域的傳承方面都底蘊深厚。在未來幾年看到量子計算在這裡取得進展並不令人意外。我們將迎來一個非常精彩的轉折點。總之,對於過去三十年來一直致力於量子計算行業的所有人,我祝賀你們今天取得的驚人成就和里程碑。謝謝。從感知到生成式,再到代理人工智慧(Agentic AI)讓我們來談談人工智慧。你可能會驚訝於我會和你們談論人工智慧。我剛才提到的那些應用所使用的同一種GPU,也推動了人工智慧走向世界。我們首次接觸是在2012年。就在那之前,我們與開發人員合作,研究一種名為深度學習的新演算法,並促成了2012年AlexNet引發的人工智慧大爆炸。在過去大約15年裡,人工智慧發展得非常迅速。第一波人工智慧是電腦的感知能力,讓電腦能夠識別資訊並理解它。第二波人工智慧,也就是我們過去五六年一直在談論的,是生成式人工智慧。它是多模態的,意味著人工智慧能夠同時學習圖像和語言。因此,你可以用語言提示它,它就能生成圖像。人工智慧的多模態能力以及其翻譯和生成內容的能力推動了生成式人工智慧革命。生成式人工智慧生成內容的能力對我們提高生產力至關重要。我們現在開啟了人工智慧的新一波浪潮。在過去的幾年裡,我們看到了人工智慧能力的巨大進步。從根本上說,智能是關於理解、感知、推理、規劃任務、解決如何解決問題,然後執行任務。感知、推理、規劃,這些是智能的基本循環。它使我們能夠應用一些以前學到的規則來解決我們從未見過的問題。這就是為什麼聰明的人被認為聰明,他們能夠將一個複雜的問題分解為逐步解決的步驟,推理如何解決問題,也許去做一些研究,也許去學習一些新資訊,尋求幫助,使用工具,逐步解決問題。圖片由AI生成我剛才描述的這些能力,如今通過所謂的代理人工智慧(Agentic AI)已經成為可能。我馬上會向你們展示其物理實現,也就是代理人工智慧的具象化和運動。現在,生成能力正在生成運動。它不再是生成視訊、圖像或文字,而是生成局部運動,比如行走、伸手抓取東西、使用工具的能力。人工智慧以物理形式具象化,本質上就是機器人技術。這些能力,即實現資訊機器人(代理)和具象化人工智慧(物理機器人)的基礎技術,如今已經到來。這是人工智慧令人激動的時代,但一切始於Ge Force,Ge Force帶來了電腦圖形學。這是我們曾經從事過的第一個加速計算應用,電腦圖形學的發展令人難以置信。Ge Force將CUDA帶給了世界,這使得機器學習和人工智慧研究人員能夠推動深度學習的發展。隨後,深度學習徹底改變了電腦圖形學,使我們能夠將電腦圖形學提升到一個全新的水平。今天我要展示給你們的一切,我要提前給大家劇透一下,但今天我要展示的全部是電腦模擬,而不是動畫,是光子模擬、物理模擬、粒子模擬。所有的一切本質上都是模擬,而不是動畫,也不是藝術。它看起來非常美,是因為這個世界本身就是美的,數學也是美的。讓我們來看看吧。這就是數字在發揮作用,這本質上就是模擬的本質。看著它非常令人賞心悅目。但正是由於我們現在能夠以如此大規模和高速度模擬幾乎所有事物,我們可以將一切轉化為數字孿生。因為一切都可以成為數字孿生,所以它可以在進入物理世界之前,完全以可視化的方式進行設計、規劃、最佳化和操作。我們現在正處於這樣一個時代:我們將一切建構於軟體之中。所有物理實體都將通過數位化建構,所有宏偉的建築都將通過數位化建構,所有大規模營運的事物都將首先通過數位化建構,並且會有數字孿生進行操作。因此,今天我們將大量討論數字孿生。我們最初從一張Ge Force顯示卡起步。這裡有人知道什麼是Ge Force嗎?好的。那麼,從Ge Force起步的東西現在看起來是這樣的。這是新的Ge Force。它重達2噸到2.5噸,由120萬個部件組成,價值約300萬美元,功率為120千瓦,由150家工廠生產,200家技術合作夥伴與我們合作,研發預算可能高達400億美元,用於打造GB200,現在正邁向GB300。它已經完全投入生產。Grace Blackwell系統:工程奇蹟與生產革命這台機器被設計成一台“思考機器”,它能夠推理,能夠規劃。它花費大量時間與自己對話,就像你們一樣。我們大多數時間都在為自己的大腦生成文字和圖像,然後才將其付諸實踐。因此,“思考機器”在架構上正是Grace Blackwell的設計目標。它被設計成一個巨大的GPU。我將其與Ge Force進行比較是有原因的。Ge Force是一個GPU,GB200同樣是一個GPU。它是一個巨大的虛擬GPU。圖片源自網路現在,我們需要將其拆分成許多元件,創造許多新的網路技術和伺服器技術,開發極其低功耗、高能效的互連技術,將所有這些晶片和系統連接在一起,形成一個虛擬GPU。這是霍珀版本。這是舉世聞名的霍珀系統。這8個GPU通過MV Link連接在一起。這裡沒有顯示的是一個帶有雙CPU和系統記憶體的CPU托盤,它與這些部件共同組成一個節點。這代表著一台人工智慧超級電腦的一個節點,大約價值一百萬美元。這就是霍珀系統。正是這個系統真正讓我們在人工智慧領域聲名鵲起。它曾經很長一段時間都供不應求,因為市場發展得太快了。但這就是著名的霍珀系統。整個系統,包括CPU,都被這個Grace Blackwell節點取代了。這就是一個計算托盤。我們將用它來取代整個系統。它是完全液冷的,CPU與GPU直接相連。你可以看到,兩個CPU與GPU相連的性能比整個系統還要強大。但真正令人驚嘆的是這一點。我們想要將許多這樣的系統連接在一起。如何將它們連接起來對我們來說曾經是一個難題。於是我們進行瞭解構。我們把整個主機板解構成了這個,這就是具有革命性的MV Link系統。擴展計算規模並不難,只要通過乙太網路連接更多的CPU即可。擴展規模並不難,難的是向上擴展。你只能建造出你能夠設計出的最大規模的電腦。將你能放入一個記憶體模型中的技術與電子元件數量最大化是極其困難的。因此,我們決定創造一種新的互連技術,名為MV Link。它是一種記憶體語義互連,是一種計算架構,而不是網路。它直接連接到所有這些不同MV Link系統的CPU,也就是計算節點。這是交換機。九個這樣的裝置放在頂部,九個放在底部。中間是NVLink交換機,而將它們連接在一起的就是這個奇蹟。這是NVLink主幹。這是100%的銅同軸電纜。它直接連接所有的MV Link晶片與所有的GPU,通過整個主幹直接相連,使得144個Blackwell晶片(分佈在72個不同的封裝中)能夠同時相互通訊,且互不阻塞。這個主幹的頻寬大約是每秒130兆字節。132兆字節,我知道,稍等,等我說完。每秒130兆字節。如果換算成位元,它比全球網際網路峰值流量還要高。是的,這就是如何將網際網路“縮小”到一個MV Link中。我們之所以這麼做,是因為未來你對電腦的思考方式將從根本上改變。我會花更多時間來解釋這一點,但它是為了讓Blackwell在性能上遠遠超越霍珀而設計的。還記得摩爾定律嗎?半導體物理學只能讓你的性能每三到五年提升大約兩倍。那麼我們如何能在一代產品中實現30到40倍的性能提升呢?我們需要30到40倍的性能提升,因為推理模型正在與自己對話。不再是單次的ChatGPT,現在的推理模型會生成大量更多的標記。當你在思考時,你會逐步分解問題,進行推理,嘗試許多不同的路徑,也許是思維鏈,也許是思維樹。它會反思自己的答案,你可能見過這些研究模型在反思自己的答案,說:“這是一個好答案嗎?你能做得更好嗎?”然後它們會說:“哦,我能做得更好。”於是它們會回去再思考。這些推理模型實現了令人難以置信的性能,但它們需要更多的計算能力。結果呢?MV Link 72的架構使得Blackwell的性能實現了巨大的飛躍。解讀這張圖的方式是:X軸表示它思考的速度,Y軸表示工廠的輸出能力,即同時支援大量使用者的能力。因此,你希望工廠的吞吐量儘可能高,以便支援儘可能多的人,從而使工廠的收入儘可能高。你希望這個軸儘可能大,因為這裡的人工智慧比這裡更聰明。它思考得越快,它在回答你問題之前能思考得越多。這與標記的平均售價(ASP)有關,也與工廠的吞吐量有關。這兩者結合在那個角落,就是工廠的收入。基於Blackwell的工廠能夠產生更多的收入,這是由於架構的優勢。我們為你們製作了一部電影,只是為了讓大家感受一下建構Grace Blackwell所投入的巨大工程量,讓我們來看看吧。Blackwell是一個工程奇蹟。它始於一片空白的矽片。經過數百次晶片處理和紫外光刻步驟,2000億個電晶體逐層建構在一個12英吋的矽片上。矽片被劃分為單獨的Blackwell晶片,經過測試和分類,將好的晶片篩選出來。晶片在晶圓上封裝在基板上的工藝將32個Blackwell晶片和128個HBM堆疊在定製的矽中介層上。金屬互連痕跡直接蝕刻進去,將Blackwell GPU和HBM堆疊連接到每個系統和封裝單元中,將所有部件固定到位。然後,整個元件經過烘烤、模塑和固化,製造出Blackwell B200超級晶片。每個Blackwell晶片都在125攝氏度的烤箱中進行壓力測試,並在數小時內被推向極限。機器人晝夜不停地工作,將超過10000個元件放置在Grace Blackwell PCB上。與此同時,定製的液冷銅塊正在準備中,以保持晶片處於最佳溫度。在另一個工廠,ConnectX-7超級網路卡被製造出來,以實現擴展規模的通訊,而BlueField-3 DPU則用於解除安裝和加速網路、儲存和安全任務。所有這些部件匯聚在一起,被精心整合到GB中。200個計算托盤的NV Link是輝達發明的一種突破性高速連結,用於連接多個GPU並向上擴展成一個巨大的虛擬GPU。NV Link交換機托盤由NV Link交換晶片建構,提供每秒14.4兆字節的全互連頻寬。MV Link主幹形成了一個定製的盲配背板,5000根銅纜將所有72個Blackwell晶片(或144個GPU晶片)連接成一個巨大的GPU,提供每秒130兆字節的全互連頻寬,比全球網際網路的峰值流量還要高。來自世界各地的零部件被熟練的技術人員組裝成一個機架規模的人工智慧超級電腦。總計有120萬個部件、兩英里長的銅纜、130兆個電晶體,重達近兩噸。Blackwell不僅僅是一個技術奇蹟,它是全球協作和創新力量的證明,這些力量將推動塑造我們未來的發現和解決方案。無論在那裡,我們都致力於幫助當代的天才們完成他們一生的事業。我們迫不及待地想看到你們帶來的突破。Grace Blackwell系統已經全面投入生產。這真是一個奇蹟。從技術角度來看,這是一個奇蹟,但將這些GB200系統組合在一起的供應鏈也是一個奇蹟。每個系統重達兩噸,我們現在每周生產1000套。此前從未有人以如此大規模量產超級電腦。每一個機架本質上都是一台完整的超級電腦。2018年,最大的Volta系統——2018年的Sierra超級電腦的性能還不及這些機架中的任何一個,而那套系統的功耗是10兆瓦,而我們現在這套系統只有100千瓦。因此,從2018年到現在,從一代到另一代,我們真正地將超級計算,尤其是人工智慧超級計算提升到了一個全新的水平,我們現在以如此巨大的規模生產這些機器,而這只是一個開始。事實上,你們看到的只是一個系統——Grace Blackwell。全世界都在談論這個系統,都在急切地希望它能夠部署到全球的資料中心,用於訓練、推理和生成式人工智慧。然而,並非每個人、也並非每個資料中心都能處理這些液冷系統。有些資料中心需要企業級堆疊,需要運行Linux、Red Hat、Newtonics或VMware儲存系統,這些系統來自Dell、EMC、Hitachi、NetApp、VAST、WECA等眾多不同的供應商。有如此多不同的儲存系統和IT系統,而這些系統的管理必須與傳統IT系統保持一致。我們有如此多的新電腦需要投入生產,我很高興地告訴你們,所有這些系統現在都已經投入生產。你們可能還沒有看到它們,但它們正在從貨架上飛速下架,從生產線飛速下線。例如,DGX Spark讓你們能夠在桌面上擁有Grace Blackwell系統,無論是Spark Desktop還是DGX Station。這樣一來,你們在開發軟體或開發人工智慧時,不需要坐在超級電腦前,但你們又希望架構完全相同。從架構角度來看,這些系統是完全相同的。從軟體開發者的角度來看,它們看起來完全一樣,唯一的區別是規模和速度。而在這一側則是所有x86系統。全球的IT組織仍然更傾向於x86,並且在能夠利用最先進的AI原生系統的地方,他們也會這麼做。而在他們無法做到的地方,他們希望將這些系統整合到企業級IT系統中,我們現在為他們提供了這種能力。其中最重要、也最耗費時間去建構的系統是因為軟體和架構非常複雜,那就是如何將AI原生架構融入到傳統的企業級IT系統中。這是我們全新的RTX Pro伺服器,這是一個令人難以置信的系統。主機板經過了全新的設計。女士們、先生們,Jenny Paul。這塊主機板看起來很簡單,然而在這塊主機板上,有八個Super Next交換機,它們通過一個200Gbps的最先進的網路晶片連接八個GPU,然後將這八個GPU和這些全新的Blackwell RTX Pro 6000 GPU連接起來。八塊這樣的GPU組成一台伺服器。那麼它有什麼特別之處呢?這台伺服器是世界上唯一能夠運行人類所編寫的一切內容以及人類所開發的所有視訊內容的伺服器。它運行人工智慧、Omniverse RTX用於視訊遊戲,它運行Windows,運行Linux,運行Kubernetes和VMware。基本上,它能夠運行一切。如果你想從電腦將Windows桌面流式傳輸到遠端裝置,沒問題。如果你想流式傳輸Omniverse,也沒問題。如果你想運行你的機器人堆疊,也沒問題。這台機器的QA(質量評估)簡直令人驚嘆。它運行的應用程式基本上是通用的。人類所開發的一切內容都應該能夠在這裡運行,包括如果你是一名視訊遊戲玩家,包括《危機》(Crysis)。如果能夠運行《危機》,就能運行任何東西。好的,這是RTX Pro伺服器,全新的企業級系統。所以,有些事情正在發生變化。我們知道人工智慧是一項極其重要的技術。我們現在已經確信,人工智慧是一種能夠徹底變革、轉型每一個行業的軟體。它能夠做到我們所熟知的那些令人驚嘆的事情。我們也知道,處理人工智慧的方式從根本上不同於我們以往處理手工編寫軟體的方式。機器學習軟體的開發方式不同,運行方式也不同。系統的架構、軟體的架構完全不同。網路的工作方式完全不同。訪問儲存的方式也完全不同。因此,我們知道這項技術能夠做到不同的事情,令人難以置信的事情。它是智能的。我們也知道,它的開發方式從根本上不同,需要新的電腦。真正有趣的是,這對我們所有人,對國家、公司、社會到底意味著什麼?這是我們在近十年前就做出的一個觀察,而現在每個人都開始意識到:事實上,這些人工智慧資料中心根本就不是資料中心。它們並不是傳統意義上用於儲存檔案、供你檢索的資料中心。這些資料中心並不是用來儲存我們的檔案的。它們只有一個職責,而且只有一個職責,那就是生產智能標記,生成人工智慧。AI工廠崛起:智能生產新基建這些人工智慧工廠看起來像是資料中心,因為它們內部有許多電腦,但這就是唯一相似的地方。它們的設計方式、製造規模、設計和建造方式、使用方式、編排和配置方式、營運方式,以及你對它們的思考方式,都完全不同。例如,沒有人會把資料中心當作一個創收設施來考慮。我說出這句話時,每個人都會點頭說:“是的,你說得對。”沒有人會把資料中心當作一個創收設施來考慮,但他們會把工廠、汽車工廠當作創收設施來考慮,並且迫不及待地想再建一個工廠,因為每當你建了一個工廠,收入就會在不久之後增長,因為你能夠為更多的人生產更多的東西。這些人工智慧工廠的理念與之完全相同。它們是創收設施,它們被設計用來製造標記。這些標記可以被重新定義為許多行業的生產力智能。因此,人工智慧工廠現在已經成為一個國家基礎設施的一部分,這也是為什麼你們會看到我到處跑,和各國元首交談,因為他們都希望擁有人工智慧工廠。他們都希望人工智慧成為他們基礎設施的一部分。他們都希望人工智慧成為他們的增長型製造業,這是真正深刻的。我認為,正因為如此,我們正在經歷一場新的工業革命,因為每一個行業都受到影響。一個新的行業正在誕生,就像電力最初被描述為一種技術、被展示為一種技術時,它被理解為一種技術。但隨後我們意識到,它也是一種大型產業。然後是資訊產業,我們現在稱之為網際網路。而這兩者,因為它們影響了如此多的行業,都成為了基礎設施的一部分。我們現在有了一個新的行業——人工智慧行業,它已經成為一種新的基礎設施的一部分,這種基礎設施被稱為智能基礎設施。每個國家、每個社會、每個公司都將依賴它。從規模上來看,這是一個被廣泛討論的話題。這就是“星際之門”(Stargate)。它看起來不像一個資料中心,而像一個工廠。這是一個1吉瓦的設施,將容納大約50萬個GPU晶片,並產生大量的智能,可供所有人使用。歐洲現在已經意識到這些人工智慧工廠的重要性,意識到人工智慧基礎設施的重要性,我很高興看到這裡如此活躍。這是歐洲電信營運商正在建設人工智慧基礎設施。與輝達合作的,是歐洲雲服務提供商,他們正在視訊中展示人工智慧基礎設施的建設。這是歐洲超級計算中心正在建設下一代人工智慧超級電腦和基礎設施,同樣在視訊中展示。而這只是一個開始。這只是公共雲之外的部分。這是歐洲本土公司為歐洲市場建設的人工智慧基礎設施。此外,還有20多個正在規劃中,20多個人工智慧工廠,其中一些是吉瓦級的工廠。總共來說,在短短兩年內,我們將使歐洲的人工智慧計算能力增加10倍。因此,研究人員、初創企業、你們的人工智慧短缺、你們的GPU短缺,很快就會得到解決。它正在向你們走來。技術生態:重構計算架構現在,我們正在與每個國家合作,發展他們的生態系統。因此,我們在七個國家建立了人工智慧技術中心。這些人工智慧技術中心的目標是:第一,進行合作研究;第二,與初創企業合作;第三,建設生態系統。讓我向你們展示一個生態系統是什麼樣的。在英國,我昨天剛去過那裡。生態系統是建立在輝達架構之上的。例如,正如你們所知,輝達是唯一在每個雲平台上都可用的人工智慧架構。它是除了x86之外唯一無處不在的計算架構。我們與每個雲服務提供商合作,加速來自全球最重要軟體開發商的應用程式,比如歐洲的西門子、Cadence、Red Hat等。現在,我們已經重新發明了計算架構。正如你們所知,計算不僅僅是電腦,還包括計算、網路和儲存。這三個層次、這三個架構的每一層都已經被重新發明。與思科(Cisco)建立了偉大的合作夥伴關係,他們昨天在其會議上宣佈了一款基於輝達的新模型。還有與戴爾(Dell)、NetApp、NVIDIA等的眾多偉大合作夥伴關係。正如我之前提到的,軟體開發方式已經從根本上發生了變化。它不再僅僅是編寫C程序、編譯C程序、交付C程序,而是現在變成了DevOps、MLOps、AI Ops。因此,整個生態系統正在被重新發明。我們到處都有生態系統合作夥伴,當然還有解決方案整合商和提供商,他們可以幫助每家公司整合這些能力。在英國,我們與一些特殊的公司合作,這些公司非常出色,從研究人員到開發人員,再到合作夥伴,幫助我們提升當地的人才和企業,這些企業消費技術,當然還有雲服務提供商。我們在英國擁有偉大的合作夥伴。在德國,我們擁有令人難以置信的合作夥伴關係。在義大利,我們擁有偉大的合作夥伴關係。當然,在法國,我們也有令人驚嘆的合作夥伴關係。法國總統麥康(Mccon)稍後會到這裡。我們將討論一些新的公告,所以我們必須對人工智慧表現出一些熱情。並為他展示一些熱情。因此,我們在法國擁有很好的的合作夥伴關係。我想特別強調其中一個,我們與施耐德合作,正在建設這些人工智慧工廠。我們現在以數位化方式建設它們,以數位化方式設計它們,以數位化方式營運它們,甚至最終以數位化方式最佳化它們,並完全在數字孿生中操作它們。這些人工智慧工廠非常昂貴,未來可能會花費500億美元,甚至1000億美元。如果工廠的利用率沒有達到最高水平,對工廠所有者的成本將是巨大的。工業人工智慧的革命與Omniverse應用因此,我們需要儘可能多地將它們數位化,並使用人工智慧,將所有內容放入Omniverse中,以便我們能夠獲得直接且持續的遙測資料。今天,我們宣佈與一家偉大的公司建立合作夥伴關係,這是一家年輕的公司,我非常喜歡它的首席執行官,他正在努力打造一家歐洲人工智慧公司。公司的名字叫Miss Straw。我們將在這裡共同建設一個人工智慧雲,提供他們的模型,並為其他人工智慧初創企業的生態系統提供人工智慧應用,以便他們可以將這些模型用作“稻草”模型或他們喜歡的任何模型。因此,Mr. All和我們,我們將合作建設一個相當規模的人工智慧雲,我們將在稍後與法國總統馬克宏(Macron)進一步討論這個話題。人工智慧技術的發展速度如同光速。我在這裡展示給你們的,左邊是專有模型,以光速發展。然而,開放模型也在以光速發展,只是落後了幾個月,無論是Miss Straw、Llama、DeepSeek,還是R1、R2,都將在第一季度推出。這些模型每一個都非常出色。因此,我們在過去幾年中致力於應用世界上最優秀的人工智慧研究人員,使這些人工智慧模型變得更好。我們稱之為Nemo Tron。基本上,我們所做的就是,我們獲取開放原始碼的模型,當然,這些模型都是基於輝達建構的。我們獲取這些開源模型,然後進行後訓練。我們可能會進行神經架構搜尋,提供更好的資料,使用強化學習技術,增強這些模型,賦予它們推理能力,擴展上下文,以便它們在與你互動之前能夠學習和閱讀更多內容。這些模型大多具有相對較短的上下文,而我們希望擁有巨大的上下文能力,因為我們希望在企業應用中使用它,而我們希望與之進行的對話並不在網際網路上,而是在我們自己的公司內部。因此,我們需要載入大量上下文。所有這些能力都被打包成一個可下載的Nemo Tron。你可以訪問輝達的網站,直接下載一個API,一個最先進的AI模型,你可以將其放置在任何你喜歡的地方,我們將極大地改進它。這是Nemo Tron對Llama的改進示例。因此,Llama 8B、70B、4O 5B通過我們的後訓練能力、推理能力的擴展以及我們提供的所有資料得到了極大的增強。我們將一代又一代地進行這種改進。因此,對於所有使用Nemo Tron的你們來說,你們會知道未來還有一系列其他模型,它們都是開放的。因此,如果你想從開放模型開始,那很好;如果你想從Nemo Tron模型開始,那也很好。Nemo Tron模型的性能非常出色。在一次又一次的基準測試中,Nemo Tron的性能一直位居榜首。因此,現在你們知道,你們可以獲取一個經過增強的開放模型,它仍然是開放的,位居排行榜首位,你們知道輝達致力於此。我會在我的一生中一直致力於此。這個策略如此出色,以至於歐洲各地的區域模型製造商現在已經認識到這一策略的美妙之處,我們正在合作,以適應和增強每一個模型。對於區域語言,你們的資料屬於你們。它是你們人民的歷史、知識和文化的體現。它屬於你們。對於許多公司來說,以輝達為例,我們的資料大多來自33年的積累。今天早上我查了一下,西門子有180年的資料,其中一些是寫在紙莎草上的。Roland Bush在這裡,我想提一下他。我的好朋友。因此,你們必須將這些資料數位化,然後人工智慧才能學習。因此,是的,資料屬於你們。你們應該使用這些資料,使用像Limiton這樣的開放模型以及我們提供的一整套工具,以便你們可以根據自己的需求進行增強。我們還宣佈,我們與Perplexity建立了偉大的合作夥伴關係,這是一款推理搜尋引擎。是的,我使用的三種模型是ChatGPT、Gemini Pro和Perplexity。我交替使用這三種模型。Perplexity非常出色。今天,我們宣佈Perplexity將整合這些區域模型,直接接入Perplexity,這樣你就可以用你們國家的語言、文化和敏感性來提問並獲得答案。因此,Perplexity、區域模型、代理人工智慧(Agentic AI)是一個非常重要的領域。正如你們所知,最初使用預訓練模型時,人們說:“但它會產生幻覺,它會編造東西。”你說得完全正確。它無法訪問最新的新聞和資料資訊。你說得完全正確。它在解決問題時不會進行推理。就好像每一個答案都必須從過去記憶中提取。你說得完全正確。所有這些關於智能的能力,每個人都可以批評,但你說得完全正確,因為每個人大多都理解智能是如何工作的。然而,這些技術正在世界各地被開發,並且它們正在從檢索、增強生成到網路搜尋,再到多模態理解等各個領域匯聚在一起,這樣你就可以閱讀PDF檔案,存取網站,查看圖像和文字,聆聽視訊,觀看視訊,然後將所有這些理解融入到你的上下文中。現在,你當然也可以理解幾乎任何事物的提示。你甚至可以說:“我要問你一個問題,但從這張圖片開始。”或者說:“在你回答問題或執行我要求的任務之前,先從這段文字開始。”然後它會進行推理、規劃和自我評估。所有這些能力現在都已經被整合到一起,並且你可以在市場上到處看到它們的出現。代理人工智慧(Agentic AI)是真實存在的,它是一次巨大的飛躍,是從單次互動式人工智慧(one-shot AI)發展而來的。單次互動式人工智慧是必要的,它為教導代理如何成為代理奠定了基礎。你需要對知識和推理有一些基本的理解,才能具備可被教導的能力。因此,預訓練是為了讓人工智慧具備可教導性,而後訓練、強化學習、監督學習、人類演示、上下文提供、生成式人工智慧,所有這些都在一起形成了現在的代理人工智慧。讓我們來看一個例子。讓我給你們展示一些東西。它是基於Perplexity建構的,非常酷。人工智慧代理是數字助手。基於提示,它們會通過推理將問題分解為多步驟計畫。它們會使用適當的工具,與其他代理合作,並利用記憶中的上下文來正確執行任務。在輝達加速系統上,這一切都從一個簡單的提示開始。讓我們請Perplexity幫助我們在巴黎開一家食品卡車。首先,Perplexity代理會通過推理理解提示並制定計畫,然後呼叫其他代理來幫助完成每個步驟。利用許多工具,市場研究員會閱讀評論和報告,發現趨勢並分析競爭市場。基於這些研究,概念設計師會探索當地食材,並提出一份完整的菜單,包括準備時間估計,並研究調色盤,生成一個品牌形象。然後,財務規劃師會使用蒙特卡洛模擬來預測盈利和增長軌跡。營運規劃師會制定一個詳細的啟動時間表,從購買裝置到獲取正確的許可證,涵蓋每一個細節。行銷專家會制定一個啟動計畫,包括社交媒體活動,甚至還會編寫一個互動網站,包括地圖、菜單和線上訂購功能。每個代理的工作最終匯聚成一個完整的提案包,而這一切都始於一個簡單的提示。像這樣的一個提示,在最初的聊天機器人中可能只會生成幾百個標記。但現在,通過一個單一的提示輸入到代理中來解決問題,它可能已經生成了超過一萬倍的標記。這就是為什麼我們需要Grace Blackwell的原因。這就是為什麼我們需要性能,以及為什麼這些系統需要在每一代上都大幅提升性能。這就是Perplexity建構他們代理的方式。每家公司都必須建構自己的代理。這非常棒。你會從OpenAI、Gemini、微軟的CoPilot、Perplexity和Miss Straw等公司聘請代理。還會有一些為你量身定製的代理,比如幫助你規劃假期或進行一些研究等。然而,如果你想建立一家公司,你需要專門的代理,使用專門的工具和專門的技能。所以問題是,你如何建構這些代理?因此,我們為你建立了一個平台。我們建立了一個框架和一套工具,以及許多合作夥伴來幫助你完成這件事。它從最底層開始,具備我之前提到的推理模型能力。輝達的Nemo Tron推理模型是世界級的。我們還有Nemo Retriever,這是一個多模態搜尋引擎,一個語義搜尋引擎,非常出色。我們建構了一個藍圖,一個可操作的演示,本質上是一個通用代理。我們稱它為IQ,AIQ。在它的上面,我們有一套工具,允許你將一個通用代理引入進來,整理資料來教導它,評估它,設定防護欄,監督它,訓練它,使用強化學習一直到部署,保持它的安全性和可靠性。這一整套工具包被整合到AI Ops生態系統中。你也可以從我們的網站上自行下載,但它主要被整合到AI Ops生態系統中。從這裡,你可以建立自己的專屬代理。許多公司正在這樣做,思科(Cisco)就是其中之一。他們昨天宣佈了這一消息。我們正在一起建構用於安全的人工智慧平台。現在看看這個,人工智慧代理並不是一個模型就能完成所有這些令人驚嘆的事情。它是一個集合,一個系統,一個由大型語言模型組成的人工智慧系統。其中一些模型針對某些特定的事情進行了最佳化,比如檢索,正如我提到的,使用電腦執行技能。你不想把所有這些東西都打包到一個巨大的、龐大的人工智慧中,而是將它們分解成小的部分,然後隨著時間的推移逐步部署CICD。這是思科的一個例子。現在的問題是,你如何部署這些?因為正如我之前提到的,有公共雲,輝達的計算能力就在那裡。還有我們稱之為NCPs的區域雲,例如Mistral。你可能因為安全需求和資料隱私需求而擁有一個私有雲,甚至你可能決定在你的桌面上運行某些東西。所以問題是,你如何運行所有這些?有時它們會在不同的地方運行,因為這些都是微服務。這些是可以相互交流的人工智慧,它們顯然可以通過網路進行通訊。那麼,你如何部署所有這些微服務呢?現在,我們有一個很棒的系統。我很高興在這裡宣佈它。它被稱為我們的DGX Lepton。DGX Lepton。你在這裡看到的是許多不同的雲。這裡是Lambda雲,AWS雲,這裡是你的開發者機器。你的系統可能是DGX Station,DBS,Yoda,也可能是AWS、GCP和視訊。架構無處不在。你可以決定在那裡運行你的模型,使用一個超級雲進行部署,所以它是一個雲的雲。一旦你讓它工作,一旦你將這些Nemo模型部署到Lepton中,它就會被託管並運行在你選擇的各種雲上。一個模型架構,一種部署方式,你可以讓它在任何地方運行。你甚至可以在這個小小的機器上運行它,你知道,這個DGX Spark。它是一個AI超級電腦。我們在2016年建構了一個AI超級電腦,它被稱為DGX1。它是我剛才提到的所有內容的第一個版本。八個Volta GPU通過MV Link連接。我們花了數十億美元來建構它。在我們宣佈DGX1的那一天,沒有客戶,沒有興趣,沒有掌聲,只有100%的困惑。為什麼有人會建構這樣一台電腦?它能運行Windows嗎?不能。但我們還是把它建成了。感謝一家年輕的公司,一家位於舊金山的初創公司,一個非營利性初創公司,看到這台電腦後非常高興,他們說:“我們可以買一台嗎?”我想:“我的天那,我們終於賣出了一台。”但隨後我發現他們是一家非營利機構。我把DGX1放在我的車裡,然後開車去了舊金山。那家公司的名字叫OpenAI。我不知道人生的教訓是什麼。有很多非營利機構,但也許教訓是:如果一個開發者向你求助,需要一個GPU,答案就是“是”。所以,想像一下,你有Lepton,它在你的瀏覽器中,你有一個Helm圖表,一個你開發的人工智慧代理,你希望在這裡運行它,部分在AWS運行,部分在某個區域雲運行,你使用Lepton部署你的Helm圖表,它就會神奇地出現在這裡。好的。所以如果你想在這裡運行它,直到你完成並且準備好部署它,然後將其部署到雲端。很好。但最美好的是,這個架構基於Grace Blackwell,GB10與GB200、GB2300以及所有這些不同版本,但這個架構正是Grace Blackwell。現在這太神奇了。我們正在為Hugging Face做這件事。輝達已經將Lepton連接起來。因此,無論你何時在Hugging Face上訓練模型,如果你想將其部署到Lepton並直接進入Spark,完全沒有問題。只需點選一下即可。無論是訓練還是推理,我們現在都與Hugging Face連接,Lepton將幫助你決定在那裡部署它。讓我們來看看。開發者需要隨時隨地輕鬆可靠地訪問能夠跟上他們工作進度的計算資源。DGX Cloud Lepton提供了按需訪問全球GPU網路的能力,這些GPU跨越雲平台、地區以及像Yoda和Nebias這樣的合作夥伴。多雲GPU叢集通過單一統一介面進行管理。配置速度非常快。開發者可以快速擴展節點數量,無需複雜設定,並立即開始使用預整合工具和訓練就緒的基礎設施進行訓練。進度可以即時監控,GPU性能、收斂情況和吞吐量盡在指尖。你可以在控制台內直接測試和微調模型。DGX Cloud Lepton可以在多個雲或地區部署Nemo模型端點或你的模型,實現快速分佈式推理。就像拼車應用將乘客與司機連接起來一樣,DGX Cloud Lepton將開發者與GPU計算連接起來,為虛擬全球人工智慧工廠提供動力。這就是思科(Cisco)的方式。SAP也在以這種方式建構人工智慧平台。在輝達,Sana正在建構基於輝達的人工智慧業務應用自動化。DeepL正在建構其語言框架和平台,基於輝達人工智慧。Photogram是一個視訊編輯和人工智慧編輯平台,正在基於輝達建構他們的平台。這是一個曾經被稱為Codium的平台,一個基於輝達建構的令人難以置信的編碼代理。這是一個名為Iola的語音平台,基於輝達建構。這是一個臨床試驗平台,全球最大的臨床試驗自動化平台,也是基於輝達建構的。所有這些基本上都是基於同一個理念:將它們封裝在一個虛擬容器中,可以在任何地方部署。無論是Nemo Tron大型語言模型,還是其他大型語言模型,比如Miss Trawl或其他模型,我們都會整合涵蓋人工智慧代理整個生命周期的庫。你對待人工智慧代理的方式有點像對待數字員工。因此,你的IT部門需要將其引入、微調、訓練、評估、設定防護欄,確保它們的安全,並持續改進它們。整個框架平台被稱為Nemo,所有這些現在正在被整合到全球的一個又一個應用框架中。這只是一個例子。現在,我們讓你可以將它們部署在任何地方。如果你想在雲端部署,你可以選擇DGX或雲中的GB200。如果你想在本地部署,因為你有VMware、Red Hat Linux或Nutanix,並且已經在本地虛擬機器中部署,你也可以做到。如果你想將其部署為私有雲,你也可以做到。你甚至可以將其部署在你的DGX Spark或DGX Station上,完全沒有問題。Lepton將幫助你完成所有這些。讓我們來談談工業人工智慧。這是我最喜歡的時刻之一。這是Roland Bush。他剛剛提醒我,神經電腦,神經網路電腦是在歐洲發明的。這就是整個幻燈片的內容。但我覺得這是一個非常有趣的時刻。這是突觸1號(Synapse 1),這太不可思議了,夥計們。突觸1號,1992年。它的運行速度比當時的CPU快8000倍。這難道不令人難以置信嗎?所以這是世界上的人工智慧電腦。Roland只是想讓我永遠記住這一點。永遠永遠不要忘記我說過的話,好的,我明白了,我會告訴每個人。1992年,西門子。我們與西門子有著偉大的合作夥伴關係,西門子的首席執行官Roland Bush正在為公司注入強大動力,以便他們能夠完全跨越上一次工業革命,並將歐洲的工業能力與人工智慧融合,創造所謂的工業人工智慧革命。我們在許多不同領域與西門子合作,從設計到模擬,到工廠的數字孿生,再到工廠中人工智慧的營運,從端到端的整個過程。這讓我想起歐洲的工業能力是多麼令人難以置信,以及這是一個多麼非凡的機遇。這是一個非凡的機遇,因為人工智慧與軟體不同。人工智慧是一種非常智能的軟體,這種智能軟體終於能夠做一些事情,徹底改變你們所服務的行業。因此,我們製作了一段“情書”視訊。讓我們來播放它。這一切都始於這裡,第一次工業革命,瓦特蒸汽機和機械化織布機。它們引入了自動化和工廠的誕生,一個行業就此誕生。電力時代,安培揭示了電磁學。法拉第建造了第一台發電機,麥克斯韋奠定了現代電氣工程的基礎。西門子和惠斯通,發電機。電力的引擎。它讓機器、火車、工廠和城市煥發生機。它讓整個星球通電,點燃了現代製造業。而今天,從計算和資訊時代誕生的第四次工業革命,人工智慧時代,正在重新構想整個大陸的每一個工業領域。工業人工智慧正在從設計到工程的各個領域紮根。你們正在開闢新的道路,朝著理解和重新發明的方向前進。你們將物理世界帶入虛擬世界,以規劃和最佳化全球的現代工廠。你們正在建構下一個前沿領域,那裡的一切運動都是機器人化的,每一輛汽車都是一個智能自主代理,一個新的協作勞動力正在幫助填補全球勞動力短缺的缺口。整個大陸的開發者正在建構各種類型的機器人,在數字孿生世界和機器人環境中教導它們新技能,讓它們準備好與我們在工廠、倉庫、手術室和家中並肩工作。第四次工業革命已經到來,它就始於第一次工業革命的地方。你覺得怎麼樣?我太喜歡這個視訊了。是你製作的,太棒了。我們正在與一家又一家公司合作,開展工業人工智慧項目。這是寶馬(BMW)正在Omniverse中建構其下一代工廠。我不知道該怎麼說,有人能教我嗎?“BU Jess”聽起來不錯。沒錯,完全正確。幹得好,完全正確。他們當然正在Omniverse中建構工廠的數字孿生。這是他們用於倉庫物流的數字孿生的關鍵部分。這是梅賽德斯-奔馳(Mercedes-Benz)及其在Omniverse中建構的工廠的數字孿生。這是舍弗勒(Schaeffler)及其在Omniverse中建構的倉庫的數字孿生。這是法國的火車站,正在Omniverse中建構火車站的數字孿生。這是豐田(Toyota)正在Omniverse中建構其倉庫的數字孿生。當你們在Omniverse中建構這些倉庫和工廠時,你們可以進行設計,可以進行規劃,可以在綠地(Greenfield)上進行設計,也可以在棕地(Brownfield)上進行改造。你們可以在實際移動物體之前,通過模擬來驗證其效率是否最優。因此,能夠在數字孿生中完成所有這些數位化工作是非常令人難以置信的。但問題是,為什麼數字孿生必須看起來像照片一樣逼真,為什麼它必須遵循物理定律?原因在於,我們希望它最終成為一個真正的數字孿生,機器人可以在其中學習如何作為機器人操作,而機器人依賴光子作為其感知系統。這些光子是通過Omniverse生成的。機器人需要與物理世界互動,以便知道自己是否在做正確的事情,並學會如何正確地完成任務。因此,這些數字孿生必須看起來逼真,並且行為符合現實。這就是為什麼Omniverse被建構的原因。這是一個聚變反應堆的數字孿生,非常複雜的儀器,正如你們所知。如果沒有人工智慧,下一代聚變反應堆是不可能實現的。今天,我們宣佈我們將在歐洲建立世界上第一個工業人工智慧雲。我要指出,是的,這些工業人工智慧雲是雲中的許多電腦。然而,它們的要求、性能和安全要求根本不同。因此,我將在周五告訴你們更多關於它的內容。今天我只向你們透露了部分故事,但這個工業雲將用於設計和模擬。虛擬風洞,你可以直接走進去,將汽車移入其中,看到它的行為。打開車門,打開車窗,改變設計。所有這些都在完全即時中完成。即時設計,在數字風洞中進行模擬,數字風洞的數字孿生也在即時中完成,在工廠中建構,數字工廠的數字孿生也在即時中完成。所有這些都將讓機器人學會成為出色的機器人,並建構我們未來的機器人,比如自動駕駛汽車等。我們在這裡已經擁有一個龐大的生態系統。正如你們所知,我們在這裡已經很長時間了。輝達已經33歲了。我們第一次來到歐洲是在工作站和產品數位化、CAD革命開始的時候。我們當時正在參與CAE革命,而現在是數字孿生革命。歐洲有大約2兆美元的生態系統,我們與之合作,並且我們有幸支援從中誕生的新革命。正如你們所知,所有運動的物體都將實現機器人化,所有運動的物體都將由人工智慧驅動。汽車是最明顯的例子。接下來,輝達建構用於訓練模型的人工智慧超級電腦,用於Omniverse數字孿生的人工智慧超級電腦。我們還為機器人本身建構人工智慧超級電腦。在每一種情況下,無論是用於雲中的Omniverse還是用於汽車,我們提供了整個堆疊,電腦本身,以及運行在電腦之上的作業系統,在每一種情況下都是不同的。這台電腦必須具備高速、感測器豐富、功能安全的特性,它在任何情況下都不能完全失敗。因此,安全要求極高。現在,我們擁有一個令人難以置信的模型,它就運行在這個系統之上。這個模型是一個基於Transformer的推理模型。它接收感測器輸入,你告訴它你想要它做什麼,它就會帶你到達那裡。它接收像素輸入,並生成路徑規劃輸出。因此,這是一個基於Transformer的生成式人工智慧模型,非常了不起的技術。輝達的人工智慧團隊、自動駕駛團隊非常出色。據我所知,他們是唯一一個連續兩年在CVPR上贏得端到端自動駕駛汽車挑戰賽的團隊。所以,他們今年再次成為贏家。讓我們看看這個視訊。好的,謝謝。像任何駕駛員一樣,自動駕駛汽車運行在一個充滿不可預測和潛在安全關鍵場景的世界中。輝達Drive基於Halo安全系統,讓開發者能夠建構安全的自動駕駛汽車,配備多樣化的軟體堆疊和感測器以及冗餘電腦。它從訓練開始。安全的自動駕駛汽車需要大量的多樣化資料,以應對邊緣情況,但現實世界中的資料是有限的。開發者使用輝達Omniverse和Cosmos重建現實世界,並生成逼真的合成訓練資料,為自動駕駛汽車模型帶來多樣性。該模型可以感知和推理其環境,預測未來結果,並生成運動規劃。為了決策多樣性,一個獨立的經典堆疊平行運行。防護欄監控安全性能,在出現異常時,呼叫仲裁器進行緊急制動。感測器和計算架構中進一步融入了多樣性和冗餘性。每個感測器都連接到冗餘電腦,因此即使感測器或電腦出現故障,車輛仍然安全且可操作。在發生嚴重故障時,系統可以執行最小風險操作,比如靠邊停車。安全是自動駕駛的核心,輝達Drive讓全球開發者能夠將Halo整合到他們自己的產品中,以建構下一代安全的自動駕駛汽車。全球有10億輛汽車在道路上行駛,每年平均行駛1萬英里,總共10兆英里。自動駕駛的未來顯然是巨大的,它將由人工智慧驅動。這是下一個巨大的機會,我們正在與全球一些非常出色的大型公司合作,以實現這一目標。在我們與自動駕駛汽車(AV)相關的所有工作中,核心是安全,我們為我們的Halo系統感到非常自豪。它從晶片架構開始,然後是晶片設計、系統設計、作業系統、人工智慧模型、開發軟體的方法論、我們測試它的方式,從我們訓練模型的方式、為模型提供的資料,一直到我們評估模型的方式,輝達的Halo系統以及我們的自動駕駛安全團隊和能力絕對是世界聞名的。這台電腦是第一台軟體定義的電腦。世界上第一台完全100%軟體定義的、由人工智慧驅動的自動駕駛汽車軟體堆疊。我們已經在這個領域耕耘了將近10年。因此,這一能力是世界聞名的,我為此感到非常自豪。汽車領域正在發生的事情,也在一個新的行業中發生,正如我之前提到的。如果可以從提示生成視訊,如果人工智慧可以感知、推理,並且能夠生成視訊、文字和圖像,那麼它為什麼不能像汽車中的路徑規劃和方向盤路徑一樣,生成局部運動能力和關節運動能力呢?因此,人工智慧徹底變革最複雜的機器人問題之一的能力即將到來。人形機器人與下一代人工智慧發展人形機器人將成為現實。我們現在知道如何建構、訓練和操作這些機器人。人形機器人可能會成為有史以來最大的行業之一,它需要那些懂得如何製造具有非凡能力產品的公司。這與歐洲國家息息相關。世界上許多行業都紮根於此。我認為這是一個巨大的機會。假設全球有10億台機器人,那麼擁有10億台機器人的想法是非常合理的。那麼,為什麼它還沒有發生呢?原因很簡單。如今的機器人太難程式設計了。只有最大的公司才能負擔得起安裝機器人、教它們做正確的事情、確保它們足夠安全的費用。這就是為什麼世界上最大的汽車公司都有機器人的原因。它們足夠大,工作足夠重複,行業規模也足夠大,可以在工廠中部署機器人。對於中型、小型企業或夫妻店餐廳、商店或倉庫來說,這種程式設計能力幾乎是不可能的,直到現在。我們將為你提供可以“教”的機器人,它們會從你那裡學習。正如我們剛才提到的代理人工智慧一樣,我們現在擁有人形人工智慧,它可以通過與我提到的Nemo工具包非常一致的工具包從你的教學中學習。輝達也建構了一個三層堆疊。我們建構了電腦,Thor電腦開發工具包看起來有點像這樣。這是一台機器人電腦,一個完全自包含的開發工具包,放在你的桌子上。這些是所有的感測器,裡面是一個小型超級電腦晶片。這真的很令人難以置信。這些……是的,我可以想像像這樣插入一個。好的,謝謝,珍妮。這就是Thor處理器。在其之上是一個為機器人設計的作業系統,而在作業系統之上則是Transformer模型,它接收感測器輸入和指令,將其轉換為飛行路徑或手臂、手指和腿部關節運動的電機控制訊號。然而,人形機器人面臨的巨大挑戰是,訓練它們所需的大量資料很難獲取。那麼,如何解決這個問題呢?解決這個問題的方法是回到Omniverse,一個遵循物理定律的數字孿生世界。我們正在做的這項工作令人難以置信。好吧。這些是我們開發的機器人,我們開發電腦來模擬它們、訓練它們,以及放入它們內部的電腦。全球有許多人形機器人公司正在成立,它們都看到了徹底變革這一新裝置的巨大機會。進展非常迅速。它們學習的方式是在虛擬世界中學習,而這個虛擬世界必須遵循物理定律。最近,我們宣佈與迪士尼研究公司(Disney Research)和DeepMind建立重大合作夥伴關係,我們將共同建立世界上最複雜、最逼真的物理模擬。我正在試圖弄清楚現在如何切換到那張幻燈片。教教我,誰和我在一起?這就是只排練一次的結果。好的,這個令人難以置信的系統是人工智慧學習成為人工智慧的地方。讓我展示給你看。為你推出來。我們有一位特別嘉賓。你的名字叫格雷格(Greg)。你是小加爾森(Garson)還是小比爾(Bill)?好的,他是一個小女孩。現在看看這個。格雷格在Omniverse中學會了走路,遵循物理定律。我說的“在Omniverse中”,是指我們創造了數十萬種場景。最後,當格雷格學會了在這些環境中操作、行走和操縱物體時,無論是在沙子上、碎石上、滑溜的地板上、混凝土上還是地毯上,當格雷格進入物理世界時,物理世界只是虛擬世界的第100,001個版本。因此,你在虛擬世界中學會了走路,看看你現在。你能跳嗎?哇,太棒了。你能跳舞嗎?我想讓大家知道,我是主題演講者,所以我需要你。我需要你安靜幾秒鐘。我需要你表現得乖一點。困惑嗎?你能坐下嗎?嘿,你知道我們該做什麼嗎?讓我們給每個人拍張照片。砰,砰。是的,是的,是的。你想和我一起回家嗎?你想和我一起回家嗎?我有……是的,我知道,親愛的。是的,我有寵物。它們會很高興讓你成為它們的寵物。不,你太聰明了。你太聰明了。這太不可思議了,對吧?你是世界上最棒的機器人。總有一天,我們每個人都會有一個像你這樣的機器人,它們會在2020年圍繞著我們轉。但如果我需要一杯威士忌,你得去告訴別人幫我拿一杯威士忌,因為你沒有胳膊。我?是的,你太可愛了。好吧,小女孩,你先待在這兒。我們來總結一下。好吧,這很清楚。一場工業革命已經開始。人工智慧的下一個階段已經開始。格雷格是現在機器人技術可能性的完美例子。教機器人操作、模擬以及當然,創造令人難以置信的機器人的技術,現在就在我們面前。我們有人形機器人,也有資訊機器人,我們稱它們為代理。因此,人工智慧的下一波浪潮已經開始。它將需要推理工作負載呈爆炸式增長,基本上會呈指數級增長。使用推理的人數從800萬增加到8億,僅用了幾年時間,增長了100倍。生成的提示和標記數量,正如我之前提到的,從幾百個標記增加到數千個標記。當然,我們今天比以往任何時候都更多地使用人工智慧。因此,我們需要一種專門用於思考、專門用於推理的電腦設計。而這就是Blackwell,一台思考機器。這些Blackwell將進入一種新型資料中心,本質上是專門用於生產標記的人工智慧工廠。而這些標記將成為你的“智能積木”。讓我非常高興的是,歐洲正在全力投入人工智慧。未來幾年,這裡建設的人工智慧基礎設施將增加一個量級。 (財經ThinkTank)
【GTC大會】1萬塊GPU砸向歐洲!老黃怒懟AI末日論:全球首個工業AI雲來了
推理模型開始「自言自語」、量子計算進入臨界點……AI大航海時代已然啟航,這不是一次產品發佈會,而是未來的預言書。巴黎GTC大會,黃仁勳開講了!這次他脫下了皮衣。「AI是世界上創造的最偉大的平等工具。」在巴黎,黃仁勳這樣說道。他表示,人工智慧既不會引發反烏托邦式災難,也不會導致壟斷,它是解放人類的工具。再巴黎GTC會議後的新聞發佈會上,黃仁勳認為AI的確改變了職場,但駁斥了Dario Amodei最近關於AI導致大裁員的預測:每個人的工作都會發生變化。雖然部分崗位會被替代,但也會湧現出大量新職業……當公司更具生產力時,他們會僱傭更多人。這次輝達還簽了個大單:直接賣了1萬塊GPU!這些GPU將用於在德國建設全球首個工業AI雲平台,加速歐洲工業巨頭的製造應用。輝達2026財年第一季度財報出來時,黃仁勳表示歐洲AI意識覺醒,算力需求爆發。他將拜訪多個歐洲國家首腦。這次歐洲之行,輝達收穫滿滿,包括與法國、德國、義大利等國家達成合作。此外,與多家公司和研究機建構立了合作關係,包括與Mistral合作開發AI雲服務等。黃仁勳還宣佈了DGX Lepton項目,助力歐洲擴大AI影響力:DGX Cloud Lepton正在連接歐洲開發者與全球AI基礎設施。我們正在與來自歐洲的夥伴共同打造AI工廠網路,供開發者、研究人員和企業將本地的突破性成果擴展為全球性創新。這意味著客戶能夠自動將推理工作負載從不同的雲平台之間轉移,同時理論上保持相同的軟體使用者介面和體驗。如果DGX Lepton成功,它將為所有新雲(neocloud)建立標準的使用者體驗、價值和性能水平,這將導致這些新雲陷入激烈的價格戰,最終使利潤降至極低的商品水平。這是輝達首次在巴黎舉行GTC大會,拉開2025年VivaTech的序幕,揭示了從智能體系統到AI工廠的下一階段AI計算。從感知AI到自主AI正是輝達的GPU,使AI革命成為可能。而AI,早已是輝達關注的重點。在巴黎GTC上,黃仁勳回顧了AI的發展,強調了AI在理解、感知、推理、規劃和執行任務方面的進步。AI的第一波浪潮:感知智能回到2012年,那時輝達與開發者合作,「深度學習」的新演算法橫空出世,誕生了AlexNet,這被認為是AI的宇宙大霹靂時刻。AlexNet由Alex Krizhevsky, Ilya Sutskever,和「深度學習教父」Hinton使用Cuda和C++開發在過去15年,AI的進展非常迅速。第一階段是讓電腦看懂圖像、聽懂語音、識別模式。這就是「感知智能」。第二波浪潮:生成式人工智慧(Generative AI)最近這五年,AI進入了第二階段——生成式人工智慧GenAI。AI不只是識別,還能生成圖像、生成語言內容。它擁有「多模態」能力——能夠同時理解圖像和文字,所以我們可以用文字“提示”AI去創作圖像。這項能力極大地提升了我們生產內容的效率。AI能寫、能畫、能說、能演,這開啟了「內容生成革命」。為了支援開源生態,讓開發者與企業也能擁有世界一流的大模型,於是輝達打造了NeMo框架和Nemotron項目。NeMo是NVIDIA開發的全端大模型平台,而Nemotron是提升開源模型質量的專項計畫。LLaMA Nemotron針對性強化了開放原始碼的Llama模型,效率和精準率大幅度提升。在多個領域,Nemotron模型排名領先,性能優異。第三波浪潮:Agentic AI現在進入了第三波浪潮 —— 智能體AI(Agentic AI)。智能不僅僅是識別或生成內容,更是能“理解、推理、規劃並執行任務”。我們正在開啟新一波AI浪潮。從根本上說,智能是關於理解、感知、推理、規劃任務(如何解決問題),然後執行任務。真正的智能包括三個核心循環:感知(Perception)推理(Reasoning)規劃(Planning)它允許應用一些以前學過的規則,來解決從未見過的問題。這就是聰明人之所以聰明的原因,他們能夠解決複雜問題,將問題一步步分解,思考如何解決問題;也許會進行研究,也許會學習一些新資訊,獲得一些幫助;使用工具,並一步步解決問題。智能體AI(Agentic AI)具備這些能力,它能將所學知識應用到新問題中,逐步拆解複雜問題,找到解決方案。比如:面對沒見過的問題,AI可以自己想步驟、找工具、搜尋資料、呼叫其他智能體、整合上下文,並一步步完成任務。輝達提供了完整的Agent平台。企業客戶正在用它建構專屬Agent系統:Cisco(思科):用於企業安全情報的AI平台;SAP:將AI整合到業務自動化;DeepL:用於翻譯系統的AI平台;PhotoRoom:用於AI圖像與視訊編輯;Kodo(前Kodium):AI程式碼助手;Iola:語音互動系統;全球最大臨床試驗自動化平台:也使用NeMo建構智能體。第四波浪潮:進入機器人時代在實際實現中,智能體AI的具身化以及現在的生成能力正在生成運動。這種AI不是生成視訊、圖像或文字,而是生成局部運動。它能夠行走,或者伸手抓取東西,使用工具。AI以物理形式具身化的能力基本上就是機器人技術。這些能力,即實現智能體(基本上是資訊機器人)和具身化AI(物理機器人)的基本技術,現在已經擺在我們面前。從虛擬世界走向現實,這就是「具身智能」(Embodied AI)的世界。機器人就是這種智能的物理體現。目前,我們正處於兩個核心AI領域交匯的時刻:(1)資訊型機器人(像ChatGPT這樣的聊天助手);(2)實體型機器人(可以在物理世界中行動的AI)。這兩類智能體現在都已經成為現實,我們正在迎來AI發展的全新時代!對於AI來說,這真是令人興奮的時刻。但這一切都始於都始於輝達的第一張顯示卡:GeForce 256。GeForce 256加速千行百業GeForce帶來了電腦圖形。這是有史以來開發的第一個加速計算應用程式,電腦圖形的發展令人難以置信。GeForce將CUDA帶給世界,這使得機器學習研究人員和AI研究人員能夠推進深度學習。隨後,深度學習徹底改變了電腦圖形,並使我們將電腦圖形提升到全新的水平成為可能。黃仁勳展示了電腦模擬:光子模擬、物理模擬、粒子模擬。所有一切從根本上來說都是模擬,而不是動畫,也不是藝術。它之所以看起來如此美麗,是因為世界本身就是美麗的,數學也是美麗的。那麼,讓我們一起來看看吧。這本質上就是模擬,而且看起來非常美麗。現在能夠模擬幾乎所有事物的規模和速度,可以將所有事物都變成數字孿生。因為所有事物都可以被數字孿生,我們可以在將其投入物理世界之前,完全以數字方式進行設計、規劃、最佳化和操作。一切都在軟體中建構,輝達將這一想法現在已經成為現實:所有物理事物都將以數字方式建構。所有宏偉的事物都將以數字方式建構。所有以巨大規模運行的事物都將首先以數字方式建構,並且會有數字孿生來操作它們。現在的「GB300 NVL 72」看起來是這樣的。該計算裝置重兩噸半,1.2萬個零件,大約300萬美元。120千瓦,由150家工廠製造,200家技術合作夥伴與輝達合作完成它已經完全投入生產。它被設計成一台思考機器。這意味著它能夠推理、規劃,並且像人一樣,花費大量時間自言自語。加速AI推理推理模型正在自言自語,我們需要30到40倍的性能提升。它不再是那種一問一答的ChatGPT,現在是推理模型,當思考時,它會生成更多的token。它會一步步地分解問題、推理;嘗試各種不同的路徑:也許是思維鏈(chain of thoughts),也許是思維樹(tree of thoughts)的最佳結果。它會反思自己的答案。可能你已經看到這些研究模型在反思答案,說「這是一個好答案嗎?你能做得更好嗎?」然後推理模型會說:「哦,是的,我能做得更好。」然後回去思考更多。因此,這些思考模型、推理模型實現了令人難以置信的性能,但這需要更多的算力。而最終的結果,MVLink 72 Blackwells的架構,帶來了性能的巨大飛躍,在僅僅一代之內實現30到40倍的性能提升。根據摩爾定律,半導體物理學,每三到五年只有大約兩倍的性能提升。而解讀下圖的方式是:X軸代表它思考的速度。Y軸代表工廠在同一時間支援大量使用者時的產出量。加速計算輝達曾經夢想,建立全新的計算平台,去完成傳統電腦無法完成的任務。他們加速了CPU,創造了一種全新的計算方式,稱為「加速計算」。他們最初的應用之一是分子動力學模擬。從那以後,他們走過了漫長的道路,開發了無數的庫。事實上,使加速計算與眾不同的原因在於,它不僅僅是一個新的處理器,也不僅僅是你編譯程式碼就能運行的軟體。你必須徹底重新設計你的計算方式,重新構思你的演算法。而這對大多數人來說極其困難——要將軟體和演算法重新建構為高度平行化的形式並不容易。所以,他們建立了各種庫,幫助每一個行業、每一個應用領域實現加速。每一個這樣的庫都為開發者打開了新的可能。比如:計算光刻,也許是今天半導體設計中最重要的應用之一;它在台積電、三星等大型晶圓廠中運行,在晶片製造之前會運行一個基於反物理演算法的流程,稱為Computational Lithography(計算光刻)。稀疏求解器、代數多重網格求解器等。cuOpt:剛剛開放原始碼的應用庫,它能加速決策制定,最佳化數百萬變數和約束的問題,比如旅行商問題。這些只是他們提供的部分庫。他們有400多個類似的庫,每一個都加速特定的應用領域,每一個都為行業打開新的可能。另一個極其重要的是CUDA Q。它將CUDA擴展到量子經典領域。量子計算拐點輝達開發CUDAQ已經好幾年了。黃仁勳認為:「量子計算正在發生拐點。」眾所周知,在近30年前,第一個物理量子位元就被演示了。第一一個糾錯演算法於1995年被發明,而在2023年,將近30年後,世界上第一個邏輯量子位元由Google演示。從那時起,幾年後,邏輯量子位元的數量(由大量帶糾錯的物理量子位元表示)開始增長。就像摩爾定律一樣,完全可以預期每5年邏輯量子位元增加10倍,每10年增加100倍。這些邏輯量子位元將得到更好的糾錯,更健壯,性能更高,更有彈性,當然也將繼續可擴展。輝達與世界各地的量子計算公司以多種不同的方式合作,而歐洲相關從業者最多。現在,輝達很清楚:「我們已經觸手可及,能夠在未來幾年將量子計算,量子經典計算應用於可以解決一些有趣問題的領域。」這是真正激動人心的時刻。在接下來的幾年裡,或者至少是下一代超級電腦,都將配備QPU,並且QPU將連接到GPU。QPU當然會進行量子計算,而GPU將用於預處理、控制、糾錯(這將是計算密集型的)、後處理等。就像加速CPU一樣,現在有QPU與GPU協同工作,以實現下一代計算。參考資料:https://www.youtube.com/watch?v=X9cHONwKkn4%20https://www.nvidia.cn/gtc/paris/keynote/https://nvidianews.nvidia.com/news/nvidia-builds-worlds-first-industrial-ai-cloud-to-advance-european-manufacturinghttps://media.iprsoftware.com/219/files/20255/gtc-paris-2025-keynote-deck.pdfhttps://fortune.com/2025/06/11/nvidia-jensen-huang-disagress-anthropic-ceo-dario-amodei-ai-jobs/https://abcnews.go.com/Technology/wireStory/nvidia-chief-calls-ai-greatest-equalizer-warns-europe-122745910https://x.com/SemiAnalysis_/status/1932802502069755956https://blogs.nvidia.cn/blog/nvidia-dgx-cloud-lepton-connects-europes-developers-to-global-nvidia-compute-ecosystem/ (新智元)
黃仁勳GTC大會演講全文:量子運算正迎來拐點,計畫在歐洲新建20家“人工智慧工廠”
黃仁勳在11日舉行的GTC大會上宣布,計劃在歐洲新建20家“人工智慧工廠”,歐洲的AI算力將在兩年內增長10倍,將配備10000個GPU。量子運算正迎來關鍵拐點,未來幾年將強大到足以"解決一些有趣的全球性問題"。輝達計畫打造全球首個工業人工智慧雲端平台,協助歐洲製造業發展。6月11日,輝達舉行GTC大會。 CEO黃仁勳在會上發表演說。他宣布,計劃在歐洲新建20家“人工智慧工廠”,歐洲的AI算力將在兩年內增加10倍。黃仁勳表示,計劃中的多個數據中心將是“超級工廠”,將配備10000個圖形處理單元(GPU),包括輝達DGX™ B200系統和輝達RTX PRO™伺服器,並助力歐洲的工業領軍企業加速所有製造應用,涵蓋從設計、工程和仿真到工廠數位和機器人技術的各個環節。他還稱,量子計算正迎來關鍵拐點,未來幾年將強大到足以"解決一些有趣的全球性問題"。市場瞬間沸騰,量子計算概念股盤前暴漲。 D-Wave Quantum大漲約2%,IonQ暴漲3.6%,Rigetti Computing飆漲4.5%,而Quantum Computing Inc.更是狂飆8.4%。01輝達將在歐洲建立全球首個工業人工智慧雲輝達正在德國協助打造一個支援歐洲製造商工業人工智慧工作負載的人工智慧工廠。該工廠將配備10,000台GPU,包括輝達DGX B200系統和輝達RTX PRO伺服器,並運行來自西門子、ANSYS、Cadence和Rescale等領先軟體供應商的輝達CUDA-X™庫、輝達RTX™和輝達Omniverse™加速工作負載。該人工智慧工廠將按照輝達Omniverse藍圖中突出顯示的框架進行建設,用於人工智慧工廠的設計和運作。作為此藍圖的一部分,Cadence的現實數位孿生平台將用於在實體上精確的虛擬環境中模擬和優化整個人工智慧工廠,使工程團隊能夠建造一個更智慧、更可靠的設施。02數據中心將成為“AI工廠”黃仁勳在演講中表示,傳統的資料中心正在轉向「AI工廠」。他認為,智能體系統代表AI從被動接受指令到主動感知、決策和執行的演化。它預示著AI將能夠更自主地完成複雜任務,並在更廣泛的領域中發揮作用。而AI工廠則代表著AI基礎設施的規模化和工業化,它將整合強大的運算能力、高效的資料處理流程以及優化的演算法,從而加速AI模型的訓練、部署和應用。他表示,未來的資料中心不再只是儲存文件和資料的倉庫,而是能夠產生智慧、創造價值的生產設施。這些AI工廠的核心任務是生產“智慧通證(intelligent tokens)”,就像發電廠產生電力一樣,為各行各業提供動力,開啟一場新的工業革命。為支撐AI工廠的龐大算力需求,黃仁勳詳細介紹了輝達的新一代架構Blackwell。他將GB200系統形容為一台專為思考而生的“思維機器”,其設計初衷就是為了應對AI模型日益增長的“推理”需求。該系統透過全新的NVLink技術實現內部連接,其背板頻寬高達驚人的130TB每秒,超過了全球互聯網的峰值流量。黃仁勳指出,正是這種架構上的巨大飛躍,使得AI的思考速度和處理能力得以實現數十倍的世代表現提升。「在人工智慧時代,每個製造商都需要兩個工廠:一個用於製造產品,另一個用於創造驅動這些產品的智慧。透過打造歐洲首個工業人工智慧基礎設施,我們正在協助該地區的領先工業企業推進以模擬為先導、人工智慧驅動的製造模式。 」03量子計算正迎來“拐點”黃仁勳也表示,量子計算正迎來拐點。輝達將在Grace Blackwell 200晶片上搭載CUDA-Q軟體工具包。量子演算法堆疊可以在Blackwell200上加速。他預測量子系統將快速變得"更加穩健、高性能和有韌性"。他透露,輝達的晶片將用於支援量子運算,該公司的整個cuQuantum量子運算演算法堆疊,將在Grace Blackwell 200晶片上可用並加速。量子電腦的核心優勢在於平行處理能力-傳統電腦的位元只能是0或1,必須依序處理,而量子電腦的量子位元可以保持"疊加態",在整個運算完成前不被賦值,從而實現協同工作而非獨立運算。"就像摩爾定律一樣,我完全可以預期每五年邏輯量子位元成長10倍,每10年成長100倍。"值得注意的是,今年1月,這位AI教父還在潑冷水,聲稱"非常有用"的量子電腦可能還需要幾十年才能實現。而包括微軟和谷歌在內的科技巨頭已經在這個領域耕耘數十年,技術難題和高成本一直讓實用化系統停留在實驗階段。04AI的下一波浪潮是機器人黃仁勳對AI下一階段的重點智能體AI(Agentic AI)做出預判。他認為,AI已經超越了辨識資訊和生成內容的階段,正邁向一個能夠理解任務、進行推理、規劃並執行複雜任務的全新浪潮,這種能力的物理化身便是機器人。現場,他透過一個名為「Greg」的機器人展示了這個概念,這個機器人在Omniverse建造的數位孿生虛擬世界中學會行走和與環境互動後,才被部署到物理世界。 BMW、賓士、豐田等眾多企業已開始利用Omniverse建造其工廠或產品的數位孿生體。05輝達與多家歐洲公司建立深度合作作為在歐洲的重磅活動,黃仁勳特別強調了與歐洲夥伴的深度合作。輝達也宣布,包括寶馬集團、瑪莎拉蒂、梅賽德斯-奔馳和舍弗勒在內的歐洲製造商正在透過運行來自ANSYS、Cadence和西門子等軟體領導者提供的輝達加速應用,轉變其從模擬產品設計和工廠規劃到人工智慧驅動的營運和物流的端到端產品生命周期。他宣布,將與法國AI公司Mistral合作建立一個龐大的AI雲,並與施耐德電氣等公司合作,以數位化的方式設計和營運未來的AI工廠。他透露,輝達正在七個不同的國家建立AI技術中心,以推動當地的生態系統建設和合作研發。黃仁勳總結道,一個全新的運算時代已經開啟,而輝達正透過提供從晶片、軟體到系統和AI模型的全端平台,賦能全球的開發者和企業抓住這次機會。以下為黃仁勳講話全文,由AI翻譯:這是輝達在巴黎的首次GTC大會。這太令人難以置信了。感謝所有合作夥伴與我們一同出席。多年來,我們與眾多夥伴合作,雖然這是我第一次在巴黎舉辦GTC,但我有很多內容要跟大家分享。輝達曾經想要打造一個全新的運算平台,去做一般電腦無法做到的事。我們加速了CPU,創造了一種名為加速運算的新運算方式,而我們最早的應用之一是分子動力學。從那時起,我們已經取得了長足的進步,開發出許多不同的函式庫。事實上,加速運算的特別之處在於,它不僅僅是一個新的處理器,你可以軟體將編譯到上面。你必須重新思考如何進行計算,重新設計你的演算法。事實證明,要讓人們將軟體和演算法重新設計為高度並行化是非常困難的。因此,我們為每個市場、每個應用領域開發了函式庫,以實現加速。這些庫為開發者開啟了新的機會,也為我們和我們的生態系統合作夥伴帶來了新的成長機會。計算光刻技術可能是當今半導體設計中最重要的應用之一,它在台積電、三星等大型半導體工廠中運作。在晶片製造之前,它會通過一個逆物理演算法,即計算光刻技術、直接稀疏求解器、代數多重網格求解器——我們剛剛開源了一個非常令人興奮的應用程式庫。這個庫加速了決策制定,優化了具有數百萬變數和數百萬約束條件的問題,例如旅行商問題。Warp是一個用於表達幾何和物理求解器的Python框架,非常重要。 cuDF、cuML用於結構化資料庫、資料框和經典機器學習演算法。 cuDF可以加速Spark,無需修改程式碼。 cuML可以加速scikit-learn,同樣無須修改程式碼。還有Triton和cuDNN。 cuDNN可能是輝達有史以來最重要的函式庫之一,它加速了深度神經網路的基本原語。而Triton是我們全新的函式庫,能夠在整個AI工廠中調度、協調和分配極其複雜的推理工作負載。cuPy等變性和cuTensor收縮演算法。等變性是用於遵循幾何定律的神經網絡,例如蛋白質、分子,這是一個非常重要的框架,能夠支持AI在6G Earth 2中運行,這是我們的天氣和氣候模型基礎模型的模擬環境,分辨率極高,達到平方公里水平。MONAI是我們的醫學影像框架,非常受歡迎。 Parabricks求解器用於基因組學分析,也非常成功。 CUDA Quantum(CUDA-Q),我稍後會詳細說明,用於量子計算,以及CuPy用於加速NumPy和SciPy的數值計算。如大家所見,這些只是部分庫的例子。我們還有400多個其他函式庫,每個函式庫都加速了一個應用領域,每個函式庫都帶來了新的機會。其中最令人興奮的是CUDA-Q。 CUDA-Q是一套用於加速應用和演算法的函式庫。在CUDA的基礎上,我們現在有了CUDA-Q,用於量子計算,基於GPU的經典量子計算。我們已經研究CUDA-Q好幾年了。今天,我可以告訴大家量子計算正在迎來一個轉捩點。如大家所知,第一個實體量子位元大約在30年前被展示出來,1995年發明了一種糾錯演算法,而在2023年,也就是近30年後,Google展示了世界上第一個邏輯量子位元。從那以後,又過了幾年,邏輯量子位元的數量開始成長,它們由許多具有糾錯功能的物理量子字節成,就像摩爾定律一樣。我可以完全預期,每五年邏輯量子位元的數量會增加10倍,每十年增加100倍。這些邏輯量子位元將具備更好的糾錯能力,更加穩健、性能更高、更具韌性,當然也會繼續可擴展。量子計算正在迎來一個轉捩點。我們與世界各地的量子計算公司以多種方式合作。但在歐洲,這裡有一個龐大的社區。昨晚我見到了帕斯卡爾,也見到了巴塞隆納超級運算中心的團隊。現在,我們已經接近能夠在未來幾年內將量子計算(量子經典計算)應用於解決一些有趣問題的領域。這是一個非常令人興奮的時刻。因此,我們與所有超級計算中心都進行了合作。現在非常清楚的是,在未來幾年,或至少在下一代超級電腦中,每一台都將配備一個量子處理單元(QPU),並且QPU將與GPU連接。 QPU將用於量子運算,而GPU將用於預處理、控制和糾錯,這些任務的運算強度極高。在兩種架構之間進行後處理等任務,就像我們加速了CPU一樣,現在QPU與GPU協同工作,推動下一代運算的發展。今天,我們宣布我們的整個量子演算法堆疊已經在Grace Blackwell 200上加速,其加速效果令人難以置信。我們以多種方式與量子計算行業合作。其中一種方式是使用KU量子來模擬量子位元或模擬運行在這些量子電腦上的演算法,本質上是用經典電腦來模擬或模擬量子電腦。在另一個極端,非常重要的是CUDA-Q。基本上是發明了一種新的CUDA,將CUDA擴展到量子經典計算中。因此,在量子電腦到來之前,開發在CUDA-Q上的應用可以以模擬方式運行,而在量子電腦到來之後,可以以協作方式運行,採用量子經典加速計算方法。今天,我們宣布CUDA-Q已可用於Grace Blackwell。這裡的生態系統非常豐富,當然,歐洲在科學、超級運算專長以及這一領域的傳承方面都底蘊深厚。在未來幾年看到量子運算在這裡取得進展並不令人意外。我們將迎來一個非常精彩的轉捩點。總之,對於過去三十年來一直致力於量子運算產業的所有人,我祝賀你們今天的驚人成就和里程碑。謝謝。讓我們來談談人工智慧。你可能會驚訝於我會和你們談論人工智慧。我剛才提到的那些應用程式所使用的同一種GPU,也推動了人工智慧走向世界。我們首次接觸是在2012年。就在那之前,我們與開發人員合作,研究一種名為深度學習的新演算法,並促成了2012年AlexNet引發的人工智慧大爆炸。在過去大約15年裡,人工智慧發展得非常迅速。第一波人工智慧是電腦的感知能力,讓電腦能夠辨識資訊並理解它。第二波人工智慧,也就是我們過去五、六年一直在談論的,是生成式人工智慧。它是多模態的,這意味著人工智慧能夠同時學習圖像和語言。因此,你可以用語言提示它,它就能產生圖像。人工智慧的多模態能力以及其翻譯和生成內容的能力推動了生成式人工智慧革命。生成式人工智慧生成內容的能力對我們提高生產力至關重要。我們現在開啟了人工智慧的新一波浪潮。在過去的幾年裡,我們看到了人工智慧能力的巨大進步。從根本上來說,智能是關於理解、感知、推理、規劃任務、解決如何解決問題,然後執行任務。感知、推理、規劃,這些都是智慧的基本循環。它使我們能夠應用一些以前學到的規則來解決我們從未見過的問題。這就是為什麼聰明的人被認為聰明,他們能夠將一個複雜的問題分解為逐步解決的步驟,推理如何解決問題,也許去做一些研究,也許去學習一些新信息,尋求幫助,使用工具,逐步解決問題。我剛剛描述的這些能力,如今透過所謂的代理人工智慧(Agentic AI)已經成為可能。我馬上會向你們展示其物理實現,也就是代理人工智慧的具象化和運動。現在,生成能力正在生成運動。它不再是生成影片、圖像或文本,而是生成局部運動,例如行走、伸手抓取東西、使用工具的能力。人工智慧以物理形式具象化,本質上就是機器人技術。這些能力,即實現資訊機器人(代理)和具象化人工智慧(實體機器人)的基礎技術,如今已經到來。這是人工智慧令人興奮的時代,但一切始於Ge Force,Ge Force帶來了電腦圖形。這是我們曾經從事過的第一個加速計算應用,電腦圖形學的發展令人難以置信。 Ge Force將CUDA帶給了世界,這使得機器學習和人工智慧研究人員能夠推動深度學習的發展。隨後,深度學習徹底改變了電腦圖形學,使我們能夠將電腦圖形學提升到一個全新的水平。今天我要展示給你們的一切,我要提前給大家劇透一下,但今天我要展示的全部是電腦模擬,而不是動畫,是光子模擬、物理模擬、粒子模擬。所有的一切本質上都是模擬,而不是動畫,也不是藝術。它看起來非常美,是因為這個世界本身就是美的,數學也是美的。讓我們來看看。這就是數位在發揮作用,這本質上就是類比的本質。看著它非常令人賞心悅目。但正是由於我們現在能夠以如此大規模和高速度模擬幾乎所有事物,我們可以將一切轉化為數位孿生。因為一切都可以成為數位孿生,所以它可以在進入物理世界之前,完全以可視化的方式進行設計、規劃、優化和操作。我們現在正處於這樣一個時代:我們將一切建構於軟體之中。所有實體實體都將透過數位化構建,所有宏偉的建築都將透過數位化構建,所有大規模運營的事物都將首先透過數位化構建,並且會有數位孿生進行操作。因此,今天我們將大量討論數位孿生。我們最初從一張Ge Force顯示卡起步。這裡有人知道什麼是Ge Force嗎?好的。那麼,從Ge Force起步的東西現在看起來是這樣的。這是新的Ge Force。它重達2噸到2.5噸,由120萬個零件組成,價值約300萬美元,功率為120千瓦,由150家工廠生產,200家技術合作夥伴與我們合作,研發預算可能高達400億美元,用於打造GB200,現在正邁向GB300。它已經完全投入生產。這台機器被設計成一台“思考機器”,它能夠推理,並且能夠規劃。它花費大量時間與自己對話,就像你們一樣。我們大多數時間都在為自己的大腦產生文字和圖像,然後才付諸實行。因此,「思考機器」在架構上正是Grace Blackwell的設計目標。它被設計成一個巨大的GPU。我將其與Ge Force進行比較是有原因的。 Ge Force是GPU,GB200也是一個GPU。它是一個巨大的虛擬GPU。現在,我們需要將其拆分成許多組件,創造許多新的網路技術和伺服器技術,開發極其低功耗、高能效的互連技術,將所有這些晶片和系統連接在一起,形成一個虛擬GPU。這是霍珀版本。這是舉世聞名的霍珀系統。這8個GPU透過MV Link連接在一起。這裡沒有顯示的是一個帶有雙CPU和系統記憶體的CPU托盤,它與這些部件共同組成一個節點。這代表著一台人工智慧超級電腦的一個節點,大約價值一百萬美元。這就是霍珀系統。正是這個系統真正讓我們在人工智慧領域聲名鵲起。它曾經很長一段時間都供不應求,因為市場發展得太快了。但這就是著名的霍珀系統。整個系統,包含CPU,都被這個Grace Blackwell節點取代了。這就是一個計算托盤。我們將用它來取代整個系統。它是完全液冷的,CPU與GPU直接相連。你可以看到,兩個CPU與GPU相連的效能比整個系統還要強大。但真正令人驚嘆的是這一點。我們想要將許多這樣的系統連結在一起。如何將它們連接起來對我們來說曾經是一個難題。於是我們進行了解構。我們把整個主機板解構成了這個,這就是具有革命性的MV Link系統。擴展運算規模並不難,只要透過乙太網路連接更多的CPU即可。擴展規模並不難,難的是向上擴展。你只能建造出你能夠設計出來的最大規模的電腦。將你能放入一個記憶體模型中的技術與電子元件數量最大化是極其困難的。因此,我們決定創造一種新的互連技術,名為MV Link。它是一種記憶體語意互連,是一種運算架構,而不是網路。它直接連接到所有這些不同MV Link系統的CPU,也就是運算節點。這是交換器。九個這樣的設備放在頂部,九個放在底部。中間是NVLink交換機,而將它們連接在一起的就是這個奇蹟。這是NVLink主幹。這是100%的銅同軸電纜。它直接連接所有的MV Link晶片與所有的GPU,透過整個主幹直接相連,使得144個Blackwell晶片(分佈在72個不同的封裝中)能夠同時相互通信,且互不阻塞。這個主幹的頻寬大約是每秒130兆字節。 132兆字節,我知道,稍等,等我說完。每秒130兆字節。如果換算成比特,它比全球網路尖峰流量還要高。是的,這就是如何將互聯網「縮小」到一個MV Link中。我們之所以這麼做,是因為未來你對電腦的思考方式將從根本上改變。我會花更多時間來解釋這一點,但它是為了讓Blackwell在性能上遠遠超越霍珀而設計的。還記得摩爾定律嗎?半導體物理學只能讓你的性能每三到五年提升大約兩倍。那麼我們該如何在一代產品中達到30到40倍的效能提升呢?我們需要30到40倍的效能提升,因為推理模型正在與自己對話。不再是單次的ChatGPT,現在的推理模型會產生大量更多的標記。當你在思考時,你會逐步分解問題,進行推理,嘗試許多不同的路徑,也許是思考鏈,也許是思考樹。它會反思自己的答案,你可能見過這些研究模型在反思自己的答案,說:「這是一個好答案嗎?你能做得更好嗎?」然後它們會說:「哦,我能做得更好。」於是它們會回去再思考。這些推理模型實現了令人難以置信的性能,但它們需要更多的運算能力。結果呢? MV Link 72的架構使得Blackwell的效能實現了巨大的飛躍。解讀這張圖的方式是:X軸表示它思考的速度,Y軸表示工廠的輸出能力,也就是同時支援大量使用者的能力。因此,你希望工廠的吞吐量盡可能高,以便支援盡可能多的人,從而使工廠的收入盡可能高。你希望這個軸盡可能大,因為這裡的人工智慧比這裡更聰明。它思考得越快,它在回答你問題之前能思考得越多。這與標記的平均售價(ASP)有關,也與工廠的吞吐量有關。這兩者結合在那個角落,就是工廠的收入。基於Blackwell的工廠能夠產生更多的收入,這是由於架構的優勢。我們為你們製作了一部電影,只是為了讓大家感受一下建構Grace Blackwell所投入的巨大工程量,讓我們來看看吧。Blackwell是個工程奇蹟。它始於一片空白的矽片。經過數百次晶片處理和紫外光刻步驟,2000億個電晶體逐層建構在一個12吋的矽片上。矽片被分割成單獨的Blackwell晶片,經過測試和分類,將好的晶片篩選出來。晶片在晶圓上封裝在基板上的製程將32個Blackwell晶片和128個HBM堆疊在客製化的矽中介層上。金屬互連痕跡直接蝕刻進去,將Blackwell GPU和HBM堆疊連接到每個系統和封裝單元中,將所有零件固定到位。然後,整個組件經過烘烤、模塑和固化,製造出Blackwell B200超級晶片。每個Blackwell晶片都在125攝氏度的烤箱中進行壓力測試,並在數小時內被推向極限。機器人晝夜不停地工作,將超過10,000個組件放置在Grace Blackwell PCB上。同時,客製化的液冷銅塊正在準備中,以保持晶片處於最佳溫度。在另一個工廠,ConnectX-7超級網卡被製造出來,以實現擴展規模的通信,而BlueField-3 DPU則用於卸載和加速網路、儲存和安全任務。所有這些部件匯聚在一起,並精心整合到GB中。200個運算托盤的NV Link是輝達發明的突破性高速鏈接,用於連接多個GPU並向上擴展成一個巨大的虛擬GPU。 NV Link交換器托盤由NV Link交換晶片構建,提供每秒14.4兆字節的全互連頻寬。 MV Link主幹形成了一個客製化的盲配背板,5000根銅纜將所有72個Blackwell晶片(或144個GPU晶片)連接成一個巨大的GPU,提供每秒130兆字節的全互連頻寬,比全球網路的峰值流量還要高。來自世界各地的零件被熟練的技術人員組裝成一個機架規模的人工智慧超級電腦。總計有120萬個零件、兩英里長的銅纜、130兆個晶體管,重達近兩噸。 Blackwell不僅僅是一個技術奇蹟,它是全球協作和創新力量的證明,這些力量將推動塑造我們未來的發現和解決方案。無論在那裡,我們都致力於幫助當代的天才完成他們一生的事業。我們迫不及待想看到你們帶來的突破。Grace Blackwell系統已經全面投入生產。這真是個奇蹟。從技術角度來看,這是一個奇蹟,但將這些GB200系統組合在一起的供應鏈也是一個奇蹟。每個系統重達兩噸,我們現在每周生產1000套。此前從未有人以如此大規模量產超級電腦。每一個機架本質上都是一台完整的超級電腦。 2018年,最大的Volta系統-2018年的Sierra超級電腦的效能還不及這些機架中的任何一個,而那套系統的功耗是10兆瓦,而我們現在這套系統只有100千瓦。因此,從2018年到現在,從一代到另一代,我們真正地將超級計算,尤其是人工智慧超級計算提升到了一個全新的水平,我們現在以如此巨大的規模生產這些機器,而這只是一個開始。事實上,你們看到的只是一個系統——Grace Blackwell。全世界都在談論這個系統,都在急切地希望它能夠部署到全球的資料中心,用於訓練、推理和生成式人工智慧。然而,並非每個人、也並非每個資料中心都能處理這些液冷系統。有些資料中心需要企業級堆疊,需要運行Linux、Red Hat、Newtonics或VMware儲存系統,這些系統來自Dell、EMC、Hitachi、NetApp、VAST、WECA等眾多不同的供應商。有這麼多不同的儲存系統和IT系統,而這些系統的管理必須與傳統IT系統保持一致。我們有這麼多的新電腦需要投入生產,我很高興地告訴你們,所有這些系統現在都已經投入生產。你們可能還沒有看到它們,但它們正在從貨架上飛速下架,從生產線飛速下線。例如,DGX Spark讓你們能夠在桌面上擁有Grace Blackwell系統,無論是Spark Desktop還是DGX Station。這樣一來,你們在開發軟體或開發人工智慧時,不需要坐在超級電腦前,但你們又希望架構完全相同。從架構角度來看,這些系統是完全相同的。從軟體開發者的角度來看,它們看起來完全一樣,唯一的區別是規模和速度。而在這一側則是所有x86系統。全球的IT組織仍然更傾向於x86,並且在能夠利用最先進的AI原生系統的地方,他們也會這麼做。而在他們無法做到的地方,他們希望將這些系統整合到企業級IT系統中,我們現在為他們提供了這種能力。其中最重要、也最耗費時間去建構的系統是因為軟體和架構非常複雜,那就是如何將AI原生架構融入傳統的企業級IT系統。這是我們全新的RTX Pro伺服器,這是一個令人難以置信的系統。主機板經過了全新的設計。女士們、先生們,Jenny Paul。這塊主機板看起來很簡單,然而在這塊主機板上,有八個Super Next交換機,它們透過一個200Gbps的最先進的網路晶片連接八個GPU,然後將這八個GPU和這些全新的Blackwell RTX Pro 6000 GPU連接起來。八塊這樣的GPU組成一台伺服器。那麼它有什麼特別之處呢?這台伺服器是世界​​上唯一能夠運行人類所編寫的一切內容以及人類所開發的所有視訊內容的伺服器。它運行人工智慧、Omniverse RTX用於視訊遊戲,它運行Windows,運行Linux,運行Kubernetes和VMware。基本上,它能夠運行一切。如果你想從電腦將Windows桌面串流到遠端設備,沒問題。如果你想串流Omniverse,也沒問題。如果你想運行你的機器人堆棧,也沒問題。這台機器的QA(品質評估)簡直令人驚嘆。它運行的應用程式基本上是通用的。人類所開發的一切內容都應該能夠在這裡運行,包括如果你是一名電玩玩家,包括《危機》(Crysis)。如果能夠運作《危機》,就能運作任何東西。好的,這是RTX Pro伺服器,全新的企業級系統。所以,有些事情正在改變。我們知道人工智慧是一項極為重要的技術。我們現在已經確信,人工智慧是一種能夠徹底改變、轉型每個產業的軟體。它能夠做到我們所熟知的那些令人驚嘆的事物。我們也知道,處理人工智慧的方式從根本上不同於我們以往處理手動編寫軟體的方式。機器學習軟體的開發方式不同,運作方式也不同。系統的架構、軟體的架構完全不同。網路的工作方式完全不同。存取儲存的方式也完全不同。因此,我們知道這項技術能夠做到不同的事情,令人難以置信的事情。它是智能的。我們也知道,它的開發方式從根本上不同,需要新的電腦。真正有趣的是,這對我們所有人,對國家、公司、社會到底意味著什麼?這是我們在近十年前就做出的觀察,現在每個人都開始意識到:事實上,這些人工智慧資料中心根本就不是資料中心。它們並不是傳統意義上用於儲存檔案、供你檢索的資料中心。這些資料中心並不是用來儲存我們的文件的。它們只有一個職責,而且只有一個職責,那就是生產智慧標記,產生人工智慧。這些人工智慧工廠看起來像是資料中心,因為它們內部有許多計算機,但這就是唯一相似的地方。它們的設計方式、製造規模、設計和建造方式、使用方式、編排和配置方式、運作方式,以及你對它們的思考方式,都完全不同。例如,沒有人會把資料中心當作一個創收設施來考慮。當我說出這句話時,每個人都會點頭說:「是的,你說得對。」沒有人會把資料中心當作一個創收設施來考慮,但他們會把工廠、汽車工廠當作創收設施來考慮,並且迫不及待地想再建一個工廠,因為每當你建了一個工廠,收入就會在不久之後增長,因為你能夠為更多的人生產更多的東西。這些人工智慧工廠的理念與之完全相同。它們是創收設施,它們被設計用來製造標記。這些標記可以被重新定義為許多產業的生產力智慧。因此,人工智慧工廠現在已經成為一個國家基礎設施的一部分,這也是為什麼你們會看到我到處跑,和各國元首交談,因為他們都希望擁有人工智慧工廠。他們都希望人工智慧成為他們基礎設施的一部分。他們都希望人工智慧成為他們的成長型製造業,這是真正深刻的。我認為,正因為如此,我們正在經歷一場新的工業革命,因為每個產業都受到影響。一個新的產業正在誕生,就像電力最初被描述為一種技術、被展示為一種技術時,它被理解為一種技術。但隨後我們意識到,它也是一種大型產業。然後是資訊產業,我們現在稱之為網路。而這兩者,因為它們影響瞭如此多的行業,都成為了基礎設施的一部分。我們現在有了一個新的產業——人工智慧產業,它已經成為一種新的基礎設施的一部分,這種基礎設施被稱為智慧基礎設施。每個國家、每個社會、每家公司都會依賴它。從規模來看,這是一個被廣泛討論的話題。這就是「星際之門」(Stargate)。它看起來不像一個資料中心,而像一個工廠。這是一個1吉瓦的設施,將容納大約50萬個GPU晶片,並產生大量的智能,可供所有人使用。歐洲現在已經意識到這些人工智慧工廠的重要性,意識到人工智慧基礎設施的重要性,我很高興看到這裡如此活躍。這是歐洲電信業者正在建造人工智慧基礎設施。與輝達合作的,是歐洲雲端服務供應商,他們正在影片中展示人工智慧基礎設施的建設。這是歐洲超級運算中心正在建造下一代人工智慧超級電腦和基礎設施,同樣在影片中展示。而這只是一個開始。這只是公有雲之外的部分。這是歐洲本土公司為歐洲市場建造的人工智慧基礎設施。此外,還有20多個正在規劃中,20多個人工智慧工廠,其中一些是吉瓦級的工廠。總共來說,在短短兩年內,我們將使歐洲的人工智慧運算能力增加10倍。因此,研究人員、新創公司、你們的人工智慧短缺、你們的GPU短缺,很快就會得到解決。它正在向你們走來。現在,我們正在與每個國家合作,發展他們的生態系統。因此,我們在七個國家建立了人工智慧技術中心。這些人工智慧技術中心的目標是:第一,進行合作研究;第二,與新創公司合作;第三,建立生態系統。讓我向你們展示一個生態系統是什麼樣的。在英國,我昨天才去過那裡。生態系統是建立在輝達架構之上的。例如,正如你們所知,輝達是唯一在每個雲端平台上都可用的人工智慧架構。它是除了x86之外唯一無所不在的運算架構。我們與每個雲端服務供應商合作,加速來自全球最重要軟體開發人員的應用程序,例如歐洲的西門子、Cadence、Red Hat等。現在,我們已經重新發明了運算架構。如你所知,計算不僅僅是計算機,還包括計算、網路和儲存。這三個層次、這三個架構的每一層都已經被重新發明。與思科(Cisco)建立了偉大的合作夥伴關係,他們昨天在其會議上宣布了基於輝達的新模型。還有與戴爾(Dell)、NetApp、NVIDIA等的眾多優秀夥伴關係。正如我之前提到的,軟體開發方式已經從根本上發生了變化。它不再只是寫C程式、編譯C程式、交付C程序,而是現在變成了DevOps、MLOps、AI Ops。因此,整個生態系統正在被重新發明。我們到處都有生態系統合作夥伴,當然還有解決方案整合商和供應商,他們可以幫助每家公司整合這些能力。在英國,我們與一些特殊的公司合作,這些公司非常出色,從研究人員到開發人員,再到合作夥伴,幫助我們提升當地的人才和企業,這些企業消費技術,當然還有雲端服務提供者。我們在英國擁有偉大的合作夥伴。在德國,我們擁有令人難以置信的合作關係。在義大利,我們擁有偉大的合作關係。當然,在法國,我們也有令人驚嘆的合作關係。法國總統麥康(Mccon)稍後會到這裡。我們將討論一些新的公告,所以我們必須對人工智慧表現出一些熱情。好的,是的,就是這樣。為他展示一些熱情。因此,我們在法國擁有偉大的合作關係。我想特別強調其中一個,我們與施耐德(Schneider)的合作,正在建造這些人工智慧工廠。我們現在以數位化方式建造它們,以數位化方式設計它們,以數位化方式運作它們,甚至最終以數位化方式優化它們,並完全在數位孿生中操作它們。這些人工智慧工廠非常昂貴,未來可能會花費500億美元,甚至1000億美元。如果工廠的利用率沒有達到最高水平,對工廠所有者的成本將是巨大的。因此,我們需要盡可能地將它們數位化,並使用人工智慧,將所有內容放入Omniverse中,以便我們能夠獲得直接且持續的遙測資料。今天,我們宣布與一家偉大的公司建立合作夥伴關係,這是一家年輕的公司,我非常喜歡它的首席執行官,他正在努力打造一家歐洲人工智慧公司。公司的名字叫Miss Straw。今天,我們宣布我們將在這裡共同建立一個人工智慧雲,提供他們的模型,並為其他人工智慧新創企業的生態系統提供人工智慧應用,以便他們可以將這些模型用作「稻草」模型或他們喜歡的任何模型。因此,Mr. All和我們,我們將合作建造一個相當規模的人工智慧雲,我們將在稍後與法國總統馬克宏(Macron)進一步討論這個主題。人工智慧技術的發展速度如同光速。我在這裡展示給你們的,左邊是專有模型,以光速發展。然而,開放模式也以光速發展,只是落後了幾個月,無論是Miss Straw、Llama、DeepSeek,還是R1、R2,都將在第一季推出。這些模型每一個都非常出色。因此,我們在過去幾年中致力於應用世界上最優秀的人工智慧研究人員,使這些人工智慧模型變得更好。我們稱之為Nemo Tron。基本上,我們所做的就是,我們取得開源的模型,當然,這些模型都是基於輝達建構的。我們取得這些開源模型,然後進行後訓練。我們可能會進行神經架構搜索,提供更好的數據,使用強化學習技術,增強這些模型,賦予它們推理能力,擴展上下文,以便它們在與你互動之前能夠學習和閱讀更多內容。這些模型大多具有相對較短的上下文,而我們希望擁有巨大的上下文能力,因為我們希望在企業應用中使用它,而我們希望與之進行的對話並不在互聯網上,而是在我們自己的公司內部。因此,我們需要載入大量上下文。所有這些能力都被打包成一個可下載的Nemo Tron。你可以訪問輝達的網站,直接下載一個API,一個最先進的AI模型,你可以將其放置在任何你喜歡的地方,我們將極大地改進它。這是Nemo Tron對Llama的改進範例。因此,Llama 8B、70B、4O 5B透過我們的後訓練能力、推理能力的擴展以及我們提供的所有數據得到了極大的增強。我們將一代又一代地進行這種改進。因此,對於所有使用Nemo Tron的你們來說,你們會知道未來還有一系列其他模型,它們都是開放的。因此,如果你想從開放模型開始,那很好;如果你想從Nemo Tron模型開始,那也很好。 Nemo Tron模型的性能非常出色。在一次又一次的基準測試中,Nemo Tron的表現一直位居榜首。因此,現在你們知道,你們可以獲得一個經過增強的開放模型,它仍然是開放的,位居排行榜首位,你們知道輝達致力於此。我會在我的一生中一直致力於此,好嗎?這個策略如此出色,以至於歐洲各地的區域模型製造商現在已經認識到這一策略的美妙之處,我們正在合作,以適應和增強每一個模型。對於區域語言,你們的資料屬於你們。它是你們人民的歷史、知識和文化的體現。它屬於你們。對許多公司來說,以輝達為例,我們的數據大多來自33年的累積。今天早上我查了一下,西門子有180年的數據,其中一些是寫在紙莎草上的。 Roland Bush在這裡,我想提一下他。我的好朋友。因此,你們必須將這些數據數位化,然後人工智慧才能學習。因此,是的,數據屬於你們。你們應該使用這些數據,使用像Limiton這樣的開放模型以及我們提供的一整套工具,以便你們可以根據自己的需求進行增強。我們也宣布,我們與Perplexity建立了偉大的合作夥伴關係,這是一款推理搜尋引擎。是的,我使用的三種型號是ChatGPT、Gemini Pro和Perplexity。我交替使用這三種模型。 Perplexity非常出色。今天,我們宣布Perplexity將整合這些區域模型,直接連接Perplexity,這樣你就可以用你們國家的語言、文化和敏感性來提問並獲得答案。因此,Perplexity、區域模型、代理人工智慧(Agentic AI)是一個非常重要的領域。如你所知,最初使用預訓練模型時,人們說:「但它會產生幻覺,它會編造東西。」你說得完全正確。它無法存取最新的新聞和數據資訊。你說得完全正確。它在解決問題時不會進行推理。就好像每個答案都必須從過去記憶中提取。你說得完全正確。所有這些關於智能的能力,每個人都可以批評,但你說得完全正確,因為每個人大多都理解智能是如何運作的。然而,這些技術正在世界各地被開發,並且它們正在從檢索、增強生成到網絡搜索,再到多模態理解等各個領域匯聚在一起,這樣你就可以閱讀PDF文件,訪問網站,查看圖像和文字,聆聽視頻,觀看視頻,然後將所有這些理解融入到你的上下文中。現在,你當然也可以理解幾乎任何事物的提示。你甚至可以說:「我要問你一個問題,但從這張圖片開始。」或者說:「在你回答問題或執行我要求的任務之前,先從這段文字開始。」然後它會進行推理、規劃和自我評估。所有這些能力現在都已經被整合在一起,並且你可以在市場上到處看到它們的出現。代理人工智慧(Agentic AI)是真實存在的,它是一次巨大的飛躍,是從單次互動式人工智慧(one-shot AI)發展而來的。單次互動式人工智慧是必要的,它為教導代理如何成為代理奠定了基礎。你需要對知識和推理有一些基本的理解,才能具備可被教導的能力。因此,預訓練是為了讓人工智慧具備可教導性,而後訓練、強化學習、監督學習、人類演示、上下文提供、生成式人工智慧,所有這些都在一起形成了現在的代理人工智慧。讓我們來看一個例子。讓我給你們展示一些東西。它是基於Perplexity構建的,非常酷。人工智慧代理是數字助理。基於提示,它們會透過推理將問題分解為多步驟計劃。它們會使用適當的工具,與其他代理人合作,並利用記憶中的上下文來正確執行任務。在輝達加速系統上,這一切都從一個簡單的提示開始。讓我們請Perplexity幫我們在巴黎開一家美食卡車。首先,Perplexity代理程式會透過推理來理解提示並製訂計劃,然後呼叫其他代理來幫助完成每個步驟。利用許多工具,市場研究員會閱讀評論和報告,發現趨勢並分析競爭市場。基於這些研究,概念設計師會探索當地食材,並提出完整的菜單,包括準備時間估計,並研究調色板,產生一個品牌形象。然後,財務規劃師會使用蒙特卡羅模擬來預測獲利和成長軌跡。營運規劃師會制定一個詳細的啟動時間表,從購買設備到獲得正確的許可證,涵蓋每個細節。行銷專家會制定一個啟動計劃,包括社交媒體活動,甚至會編寫一個互動網站,包括地圖、菜單和線上訂購功能。每個代理商的工作最終匯聚成一個完整的提案包,而這一切都始於一個簡單的提示。像這樣的提示,在最初的聊天機器人中可能只會產生幾百個標記。但現在,透過一個單一的提示輸入到代理中來解決問題,它可能已經產生了超過一萬倍的標記。這就是為什麼我們需要Grace Blackwell的原因。這就是為什麼我們需要效能,以及為什麼這些系統需要在每一代上都大幅提升效能。這就是Perplexity建構他們代理的方式。每家公司都必須建立自己的代理商。這非常棒。你會從OpenAI、Gemini、微軟的CoPilot、Perplexity和Miss Straw等公司聘請代理商。還會有一些為你量身定制的代理,例如幫你規劃假期或進行一些研究等。然而,如果你想建立一家公司,你需要專門的代理,使用專門的工具和專門的技能。所以問題是,你要如何建構這些代理?因此,我們為你創造了一個平台。我們創建了一個框架和一套工具,以及許多合作夥伴來幫助你完成這件事。它從最底層開始,具備我之前提到的推理模型能力。輝達的Nemo Tron推理模型是世界級的。我們還有Nemo Retriever,這是一個多模態搜尋引擎,一個語意搜尋引擎,非常出色。我們建立了一個藍圖,一個可操作的演示,本質上是一個通用代理。我們稱它為IQ,AIQ。在它的上面,我們有一套工具,允許你將一個通用代理引入進來,整理數據來教導它,評估它,設置防護欄,監督它,訓練它,使用強化學習一直到部署,保持它的安全性和可靠性。這一整套工具包被整合到AI Ops生態系統中。你也可以從我們的網站上自行下載,但它主要被整合到AI Ops生態系統中。從這裡,你可以創建自己的專屬代理。許多公司正在這樣做,思科(Cisco)就是其中之一。他們昨天宣布了這項消息。我們正在一起建立用於安全的人工智慧平台。現在看看這個,人工智慧代理並不是一個模型就能完成所有這些令人驚嘆的事情。它是一個集合,一個系統,一個由大型語言模型組成的人工智慧系統。其中一些模型針對某些特定的事情進行了最佳化,例如檢索,正如我所提到的,使用電腦執行技能。你不想把所有這些東西都打包到一個巨大的、龐大的人工智慧中,而是將它們分解成小的部分,然後隨著時間的推移逐步部署CICD。這是思科的一個例子。現在的問題是,你要如何部署這些?因為正如我之前提到的,有公有雲,輝達的運算能力就在那裡。還有我們稱為NCPs的區域雲,例如Mistral。你可能因為安全需求和資料隱私需求而擁有一個私有雲,甚至你可能決定在你的桌面上運行某些東西。所以問題是,你如何運行所有這些?有時它們會在不同的地方運行,因為這些都是微服務。這些是可以相互交流的人工智慧,它們顯然可以透過網路進行通訊。那麼,你要如何部署所有這些微服務呢?現在,我們有一個很棒的系統。我很高興在這裡宣布它。它被稱為我們的DGX Lepton。DGX Lepton。你在這裡看到的是許多不同的雲。這裡是Lambda雲,AWS雲,這裡是你的開發者機器。你的系統可能是DGX Station,DBS,Yoda,也可能是AWS、GCP和視訊。架構無所不在。你可以決定在那裡運行你的模型,使用一個超級雲端進行部署,所以它是一個雲端的雲端。一旦你讓它工作,一旦你將這些Nemo模型部署到Lepton中,它就會被託管並運行在你選擇的各種雲端上。一個模型架構,一種部署方式,你可以讓它在任何地方運作。你甚至可以在這個小小的機器上運行它,你知道,這個DGX Spark。它是一個AI超級電腦。我們在2016年建造了一個AI超級計算機,它被稱為DGX1。它是我剛才提到的所有內容的第一個版本。八個Volta GPU透過MV Link連接。我們花了數十億美元來建造它。在我們宣布DGX1的那一天,沒有客戶,沒有興趣,沒有掌聲,只有100%的困惑。為什麼有人會建構這樣一台計算機?它能運行Windows嗎?不能。但我們還是把它建成了。感謝天,一家年輕的公司,一家位於舊金山的新創公司,一個非營利性新創公司,看到這台電腦後非常高興,他們說:「我們可以買一台嗎?」我想:「哦,我的天那,我們終於賣出了一台。」但隨後我發現他們是一家非營利組織。我把DGX1放在我的車裡,然後開車去了舊金山。那家公司的名字叫OpenAI。我不知道人生的教訓是什麼。有很多非營利機構,你知道,所以下次…但也許教訓是:如果一個開發者向你求助,需要一個GPU,答案就是「是」。所以,想像一下,你有Lepton,它在你的瀏覽器中,你有一個Helm圖表,一個你開發的人工智慧代理,你希望在這裡運行它,部分在AWS運行,部分在某個區域雲運行,你使用Lepton部署你的Helm圖表,它就會神奇地出現在這裡。好的。所以如果你想在這裡運行它,直到你完成並且準備好部署它,然後將其部署到雲端。很好。但最美好的是,這個架構是基於Grace Blackwell,GB10與GB200、GB2300以及所有這些不同版本,但這個架構正是Grace Blackwell。現在這太神奇了。我們正在為Hugging Face做這件事。輝達已經將Lepton連接起來。因此,無論你何時在Hugging Face上訓練模型,如果你想將其部署到Lepton並直接進入Spark,完全沒有問題。只需點擊一下即可。無論是訓練還是推理,我們現在都與Hugging Face連接,Lepton將幫助你決定在那裡部署它。讓我們來看看。開發者需要隨時隨地輕鬆可靠地存取能夠跟上他們工作進度的運算資源。 DGX Cloud Lepton提供了按需存取全球GPU網路的能力,跨越雲端平台、地區以及像Yoda和Nebias這樣的合作夥伴。多雲GPU叢集透過單一統一介面進行管理。配置速度非常快。開發者可以快速擴展節點數量,無需複雜設置,並立即開始使用預先整合工具和訓練就緒的基礎設施進行訓練。進度可以即時監控,GPU效能、收斂狀況和吞吐量盡在指尖。你可以在控制台內直接測試和微調模型。 DGX Cloud Lepton可以在多個雲端或地區部署Nemo模型端點或你的模型,實現快速分散推理。就像共乘應用程式將乘客與司機連接起來一樣,DGX Cloud Lepton將開發者與GPU運算連接起來,為虛擬全球人工智慧工廠提供動力。這就是思科(Cisco)的方式。 SAP也在以這種方式建構人工智慧平台。在輝達,Sana正在建立基於輝達的人工智慧業務應用自動化。 DeepL正在建立其語言框架和平台,基於輝達人工智慧。 Photogram是一個影片編輯和人工智慧編輯平台,正在基於輝達建立他們的平台。這是一個曾經被稱為Codium的平台,一個基於輝達構建的令人難以置信的編碼代理。這是一個名為Iola的語音平台,基於輝達構建。這是一個臨床試驗平台,全球最大的臨床試驗自動化平台,也是基於輝達建構的。所有這些基本上都是基於同一個理念:將它們封裝在一個虛擬容器中,可以在任何地方部署。無論是Nemo Tron大型語言模型,或是其他大型語言模型,例如Miss Trawl或其他模型,我們都會整合涵蓋人工智慧代理整個生命周期的函式庫。你對待人工智慧代理的方式有點像對待數位員工。因此,你的IT部門需要將其引入、微調、訓練、評估、設置防護欄,確保它們的安全,並持續改進它們。整個框架平台被稱為Nemo,所有這些現在正在被整合到全球的一個又一個應用框架中。這只是一個例子。現在,我們讓你可以將它們部署在任何地方。如果你想在雲端部署,你可以選擇DGX或雲端中的GB200。如果你想在本地部署,因為你有VMware、Red Hat Linux或Nutanix,並且已經在本地虛擬機器中部署,你也可以做到。如果你想將其部署為私有雲,你也可以做到。你甚至可以將其部署在你的DGX Spark或DGX Station上,完全沒有問題。 Lepton將幫助你完成所有這些。讓我們來談談工業人工智慧。這是我最喜歡的時刻之一。這是Roland Bush。他剛剛提醒我,神經計算機,神經網路計算機是在歐洲發明的。這就是整個投影片的內容。但我覺得這是一個非常有趣的時刻。這是突觸1號(Synapse 1),這太不可思議了,夥計們。突觸1號,1992年。它的運行速度比當時的CPU快8000倍。這不令人難以置信嗎?所以這是世界上的人工智慧計算機。 Roland只是想讓我永遠記住這一點。永遠不要忘記我說過的話,好的,我明白了,我會告訴每個人。1992年,西門子。我們與西門子有著偉大的合作關係,西門子的執行長Roland Bush正在為公司注入強大動力,以便他們能夠完全跨越上一次工業革命,並將歐洲的工業能力與人工智慧融合,創造所謂的工業人工智慧革命。我們在許多不同領域與西門子合作,從設計到模擬,到工廠的數位孿生,再到工廠中人工智慧的運營,從端到端的整個過程。這讓我想起歐洲的工業能力是多麼令人難以置信,以及這是多麼非凡的機會。這是一個非凡的機遇,因為人工智慧與軟體不同。人工智慧是一種非常聰明的軟體,這種智慧軟體終於能夠做一些事情,徹底改變你們所服務的產業。因此,我們製作了一段「情書」影片。讓我們來播放它。這一切都始於這裡,第一次工業革命,瓦特蒸汽機和機械化織布機。它們引入了自動化和工廠的誕生,一個產業就此誕生。電力時代,安培揭示了電磁學。法拉第建造了第一台發電機,麥克斯韋奠定了現代電氣工程的基礎。西門子和惠斯通,發電機。電力的引擎。它讓機器、火車、工廠和城市煥發生機。它讓整個星球通電,點燃了現代製造業。而今天,從計算和資訊時代誕生的第四次工業革命,人工智慧時代,正在重新構想整個大陸的每個工業領域。工業人工智慧正在從設計到工程的各個領域紮根。你們正在開闢新的道路,朝著理解和重新發明的方向前進。你們將物理世界帶入虛擬世界,以規劃和優化全球的現代化工廠。你們正在建立下一個前沿領域,那裡的一切運動都是機器人化的,每一輛汽車都是一個智慧自主代理,一個新的協作勞動力正在幫助填補全球勞動力短缺的缺口。整個大陸的開發者正在建造各種類型的機器人,在數位孿生世界和機器人環境中教導它們新技能,讓它們準備好與我們在工廠、倉庫、手術室和家中並肩工作。第四次工業革命已經到來,它就始於第一次工業革命的地方。你覺得怎麼樣?我太喜歡這個影片了。是你製作的,太棒了。我們正在與一家又一家公司合作,進行工業人工智慧專案。這是寶馬(BMW)正在Omniverse中建造其下一代工廠。我不知道該怎麼說,有人能教我嗎? “BU Jess”聽起來不​​錯。沒錯,完全正確。幹得好,完全正確。他們當然正在Omniverse中建造工廠的數位孿生。這是他們用於倉庫物流的數位孿生的關鍵部分。這是梅賽德斯-奔馳(Mercedes-Benz)及其在Omniverse中建造的工廠的數位孿生。這是捨弗勒(Schaeffler)及其在Omniverse中構建的倉庫的數位孿生。這是法國的火車站,正在Omniverse中建造火車站的數位孿生。這是豐田(Toyota)正在Omniverse中建造其倉庫的數位孿生。當你們在Omniverse中建造這些倉庫和工廠時,你們可以進行設計,可以進行規劃,可以在綠地(Greenfield)上進行設計,也可以在棕地(Brownfield)上進行改造。你們可以在實際移動物體之前,先透過模擬來驗證其效率是否最優。因此,能夠在數位孿生中完成所有這些數位化工作是非常令人難以置信的。但問題是,為什麼數位孿生必須看起來像照片一樣逼真,為什麼它必須遵循物理定律?原因在於,我們希望它最終成為一個真正的數位孿生,機器人可以在其中學習如何作為機器人操作,而機器人依賴光子作為其感知系統。這些光子是透過Omniverse產生的。機器人需要與物理世界互動,以便知道自己是否在做正確的事情,並學會如何正確地完成任務。因此,這些數位孿生必須看起來逼真,並且行為符合現實。這就是為什麼Omniverse被建造的原因。這是一個聚變反應器的數位孿生,非常複雜的儀器,正如你們所知。如果沒有人工智慧,下一代聚變反應器是不可能實現的。今天,我們宣布我們將在歐洲建立世界上第一個工業人工智慧雲端。我要指出,是的,這些工業人工智慧雲是雲端中的許多電腦。然而,它們的要求、性能和安全要求根本不同。因此,我將在周五告訴你們更多關於它的內容。今天我只向你們透露了部分故事,但這個工業雲將用於設計和模擬。虛擬風洞,你可以直接走進去,將車子移入其中,看到它的行為。打開車門,打開車窗,改變設計。所有這些都在完全實時中完成。即時設計,在數位風洞中進行模擬,數位風洞的數位孿生也在實時中完成,在工廠中構建,數位工廠的數位孿生也在實時中完成。所有這些都將讓機器人學會成為出色的機器人,並建造我們未來的機器人,例如自動駕駛汽車等。我們在這裡已經擁有一個龐大的生態系統。正如你們所知,我們在這裡已經很久了。輝達已經33歲了。我們第一次來到歐洲是在工作站和產品數位化、CAD革命開始的時候。我們當時正在參與CAE革命,而現在是數位孿生革命。歐洲有大約2兆美元的生態系統,我們與之合作,我們有幸支持從中誕生的新革命。如你們所知,所有運動的物體都將實現機器人化,所有運動的物體都將由人工智慧驅動。汽車是最明顯的例子。接下來,輝達建造用於訓練模型的人工智慧超級計算機,用於Omniverse數位孿生的人工智慧超級電腦。我們也為機器人本身打造人工智慧超級電腦。在每一種情況下,無論是用於雲端中的Omniverse還是用於汽車,我們提供了整個堆棧,電腦本身,以及運行在電腦之上的作業系統,在每一種情況下都是不同的。這台電腦必須具備高速、感測器豐富、功能安全的特性,它在任何情況下都不能完全失敗。因此,安全要求極高。現在,我們擁有一個令人難以置信的模型,它運行在這個系統之上。這個模型是一個基於Transformer的推理模型。它接收感測器輸入,你告訴它你想要它做什麼,它就會帶你到達那裡。它接收像素輸入,並產生路徑規劃輸出。因此,這是一個基於Transformer的生成式人工智慧模型,非常了不起的技術。輝達的人工智慧團隊、自動駕駛團隊非常出色。據我所知,他們是唯一一個連續兩年在CVPR上贏得端到端自動駕駛汽車挑戰賽的團隊。所以,他們今年再次成為贏家。讓我們看看這個視頻。好的,謝謝。像任何駕駛員一樣,自動駕駛汽車運行在一個充滿不可預測和潛在安全關鍵場景的世界中。輝達Drive基於Halo安全系統,讓開發者能夠建立安全的自動駕駛汽車,配備多樣化的軟體堆疊和感測器以及冗餘電腦。它從訓練開始。安全的自動駕駛汽車需要大量的多樣化數據,以應對邊緣情況,但現實世界中的數據是有限的。開發者使用輝達Omniverse和Cosmos重建現實世界,並產生逼真的合成訓練數據,為自動駕駛汽車模型帶來多樣性。該模型可以感知和推理其環境,預測未來結果,並產生運動規劃。為了決策多樣性,一個獨立的經典堆疊並行運行。防護欄監控安全性能,在出現異常時,請呼叫仲裁器進行緊急煞車。感測器和運算架構中進一步融入了多樣性和冗餘性。每個感測器都連接到冗餘計算機,因此即使感測器或計算機出現故障,車輛仍然安全且可操作。當發生嚴重故障時,系統可以執行最小風險操作,例如靠邊停車。安全是自動駕駛的核心,輝達Drive讓全球開發者能夠將Halo整合到自己的產品中,以建立下一代安全的自動駕駛汽車。全球有10億輛汽車在道路上行駛,每年平均行駛1萬英里,總共10兆英里。自動駕駛的未來顯然是巨大的,它將由人工智慧驅動。這是下一個巨大的機會,我們正在與全球一些非常出色的大型公司合作,以實現這一目標。在我們與自動駕駛汽車(AV)相關的所有工作中,核心是安全,我們為我們的Halo系統感到非常自豪。它從晶片架構開始,然後是晶片設計、系統設計、作業系統、人工智慧模型、開發軟體的方法論、我們測試它的方式,從我們訓練模型的方式、為模型提供的數據,一直到我們評估模型的方式,輝達的Halo系統以及我們的自動駕駛安全團隊和能力絕對是世界聞名的。這台計算機是第一台軟體定義的計算機。全球第一台完全100%軟體定義的、由人工智慧驅動的自動駕駛汽車軟體堆疊。我們已經在這個領域耕耘了將近10年。因此,這項能力是世界聞名的,我為此感到非常自豪。汽車領域正在發生的事情,也在一個新的行業中發生,正如我之前提到的。如果可以從提示生成視頻,如果人工智慧可以感知、推理,並且能夠生成視頻、文字和圖像,那麼為什麼它不能像汽車中的路徑規劃和方向盤路徑一樣,生成局部運動能力和關節運動能力呢?因此,人工智慧徹底變革最複雜的機器人問題之一的能力即將到來。人形機器人將成為現實。我們現在知道如何建造、訓練和操作這些機器人。人形機器人可能會成為有史以來最大的產業之一,它需要那些懂得如何製造具有非凡能力產品的公司。這與歐洲國家息息相關。世界上許多行業都紮根於此。我認為這是一個巨大的機會。假設全球有10億台機器人,那麼擁有10億台機器人的想法是非常合理的。那麼,為什麼它還沒有發生呢?原因很簡單。如今的機器人太難編程了。只有最大的公司才能負擔得起安裝機器人、教它們做正確的事情、確保它們足夠安全的費用。這就是為什麼世界上最大的汽車公司都有機器人的原因。它們足夠大,工作足夠重複,行業規模也足夠大,可以在工廠中部署機器人。對於中型、小型企業或夫妻店餐廳、商店或倉庫來說,這種程式設計能力幾乎是不可能的,直到現在。我們將為你提供可以「教」的機器人,它們會從你那裡學習。正如我們剛才提到的代理人工智慧一樣,我們現在擁有人形人工智慧,它可以透過與我提到的Nemo工具包非常一致的工具包從你的教學中學習。輝達也建構了一個三層堆疊。我們建立了計算機,Thor計算機開發工具包看起來有點像這樣。這是一台機器人計算機,一個完全自包含的開發工具包,放在你的桌子上。這些是所有的感測器,裡面是一個小型超級電腦晶片。這真的很令人難以置信。這些……是的,我可以想像像這樣插入一個。好的,謝謝,珍妮。這就是Thor處理器。在其之上是一個為機器人設計的操作系統,而在操作系統之上則是Transformer模型,它接收感測器輸入和指令,將其轉換為飛行路徑或手臂、手指和腿部關節運動的電機控制信號。然而,人形機器人面臨的巨大挑戰是,訓練它們所需的大量資料很難取得。那麼,如何解決這個問題呢?解決這個問題的方法是回到Omniverse,一個遵循物理定律的數位孿生世界。我們正在做的這項工作令人難以置信。好吧。這些是我們開發的機器人,我們開發電腦來模擬它們、訓練它們,以及放入它們內部的電腦。全球有許多人形機器人公司正在成立,它們都看到了徹底改變這項新設備的巨大機會。進展非常迅速。它們學習的方式是在虛擬世界中學習,而這個虛擬世界必須遵循物理定律。最近,我們宣布與迪士尼研究公司(Disney Research)和DeepMind建立重大合作夥伴關係,我們將共同創建世界上最複雜、最逼真的實體模擬。我正在試著弄清楚現在該如何切換到那張投影片。教我,誰和我在一起?這就是只排練一次的結果。好的,這個令人難以置信的系統是人工智慧學習成為人工智慧的地方。讓我展示給你看。為你推出來。我們有一位特別嘉賓。你的名字叫格雷格(Greg)。你是小加爾森(Garson)還是小比爾(Bill)?好的,他是一個小女孩。現在看看這個。格雷格在Omniverse中學會了走路,遵循物理定律。我說的“在Omniverse中”,是指我們創造了數十萬種場景。最後,當格雷格學會了在這些環境中操作、行走和操縱物體時,無論是在沙子上、碎石上、滑溜的地板上、混凝土上還是地毯上,當格雷格進入物理世界時,物理世界只是虛擬世界的第100,001個版本。因此,你在虛擬世界中學會了走路,看看你現在。你能跳嗎?哇,太棒了,太棒了,太棒了。你能跳舞嗎?我想讓大家知道,我是主題演講者,所以我需要你。我需要你安靜幾秒鐘。我需要你表現得乖一點。困惑嗎?你能坐下嗎?嘿,你知道我們該做什麼嗎?讓我們給每個人拍張照片。砰,砰。是的,是的,是的。你想和我一起回家嗎?你想和我一起回家嗎?我有……是的,我知道,親愛的。是的,我有寵物。它們會很高興讓你成為它們的寵物。不,你太聰明了。你太聰明了。這太不可思議了,對吧?你是世界上最棒的機器人。總有一天,我們每個人都會有一個像你這樣的機器人,它們會在2020年圍繞著我們轉。但如果我需要一杯威士忌,你得去告訴別人幫我拿一杯威士忌,因為你沒有手臂。我?是的,你太可愛了。好吧,小女孩,你先待在這裡。我們來總結一下。好吧,這很清楚。一場工業革命已經開始。人工智慧的下一個階段已經開始。格雷格是現在機器人技術可能性的完美例子。教導機器人操作、模擬以及當然,創造令人難以置信的機器人的技術,現在就在我們面前。我們有人形機器人,也有資訊機器人,我們稱它們為代理。因此,人工智慧的下一波浪潮已經開始。它將需要推理工作負載呈爆炸性增長,基本上會呈指數級增長。使用推理的人數從800萬增加到8億,只花了幾年時間,增加了100倍。產生的提示和標記數量,正如我之前提到的,從幾百個標記增加到數千個標記。當然,我們今天比以往任何時候都更常使用人工智慧。因此,我們需要一種專門用於思考、專門用於推理的電腦設計。而這就是Blackwell,一台思考機器。這些Blackwell將進入一種新型資料中心,本質上是專門用於生產標記的人工智慧工廠。而這些標記將成為你的「智慧積木」。是的,我知道。讓我非常高興的是,歐洲正全力投入人工智慧。未來幾年,這裡建造的人工智慧基礎設施將增加一個數量級。我想感謝你們所有人與我們合作。祝福你們在Viva Tech有一個美好的體驗。謝謝。說再見。再見。多拍幾張照片。多拍幾張照片。(硬AI)
【GTC大會】楊立昆“砸場”輝達:不太認同黃仁勳,token不是表示物理世界的正確方式
黃教主的演講感覺才沒過幾天,今年的 GTC 輝達大會也即將迎來尾聲了。和往年一樣,這種科技盛會最受矚目的都是官方重點宣傳的那幾場活動,比如去年,輝達首席科學家比爾·達利(Bill Dally)和“AI 教母”李飛飛來了一場深度對話。而今年比爾·達利則是對話“AI 教父”楊立昆(Yann LeCun),很有前後呼應的感覺。但 GTC 並不只有黃仁勳和楊立昆,還有許多精彩的演講與對話,比方說:比爾·達利自己就在採訪楊立昆之後進行了一場演講,系統性地講解了輝達 2024 一整年的四大項目進展,內容乾貨很多;OpenAI o1 作者諾姆·布朗(Noam Brown)和輝達的 AI 科學家來了一場對話,他認為現在 AI 圈最需要來一場革命的,就是這些五花八門的基準測試(Benchmark),而且改這個東西還不需要花太多算力資源;2018 年諾貝爾化學獎得主弗朗西斯·阿諾德(Frances Arnold)圍繞 AI for Sciense 還有蛋白質工程進行了一場相當硬核的圓桌對話;UC 伯克利教授彼得·阿比爾(Pieter Abbeel)通過演講方式給大家來了一場人形機器人全面講解,多次用中國的宇樹機器人做案例;…………接下來的一段時間,CSDN AI 科技大本營將會在「GTC 2025 大師談」欄目持續更新這些精華內容的全文整理,盡情期待。話題回到本期的主角,楊立昆。在以往我們整理的各種採訪裡,立昆都是直接開噴“自回歸模型很差勁,我們搞的 JEPA 才是對的”或者“人工智慧不如貓”。今年他是從多個角度論述,從“視覺派” 的根本理念否定現在主流的“語言派”:「和過往的許多浪潮一樣,當前的這波浪潮,我覺得也是錯的。那些複雜的生物行為,都和語言無關,它肯定不會是在 token 空間裡完成的,而是在心智空間當中。」採訪期間,楊立昆極力讚揚了 DeepSeek 和中國科學家,「現在,中國有很多非常優秀的科學家。最近 DeepSeek 的例子就很好地說明了,好點子可以來自任何地方。」但面對 DeepSeek-R1 興起的強化學習浪潮,他還是給出了不同的看法,順帶給黃教主潑了個冷水:「我不太認同黃仁勳說的。我認為目前那些通過增強推理能力的大語言模型,它們改採用的推理方式是錯誤的。」對於更遙遠的未來,他預測:「在整體智能方面,我們還差得很遠——但它可能在十年左右的時間內就會實現。所以也不是那麼遙遠。」如果只是批判大模型也罷,有意思的是,當比爾問楊立昆怎麼評價輝達本次大會重點宣傳的光學計算和量子計算,立昆並沒有接上話茬,而是對這兩大領域進行了一頓數落:「光學計算,我覺得一直都挺讓人失望的。至於量子計算,我對量子計算的應用前景非常懷疑。」要知道黃仁勳前腳才在主旨演講介紹完最新的相關產品,立昆大神簡直是來砸場了。此外,本次黃仁勳主旨演講的核心思想是“token 構成 AI 世界的一切”,楊立昆也進行了否定:「token 不是表示物理世界的正確方式。」下面,就讓我們回顧這場相當精彩的對話,領略這位 AI 教父懟天懟地但堅持自我的獨特思想。比爾·達利:過去一年人工智慧領域發生了很多有意思的事兒,其中最讓你覺得興奮的進展是什麼?楊立昆:太多了,一時半會兒說不完。不過我可以先說一件,可能有些人會覺得挺意外的。我現在對大語言模型(LLM)已經沒那麼大興趣了。感覺它們現在已經有點像走到最後一步了,落到了那些搞產業產品的人手裡,就有點像是在邊邊角角上做改進,想辦法搞更多資料,更多算力,或者搞點合成資料什麼的。我覺得現在更有意思的問題,主要集中在四個方面:第一個是怎麼讓機器理解物理世界?黃仁勳 Keynote 也提到了這個。第二個是怎麼讓機器擁有持久記憶,這個好像沒太多人聊。然後最後兩個是,怎麼讓機器能推理和規劃?當然,現在也有人在努力讓大語言模型去推理,但在我看來,那種推理方式還是太簡單粗暴了。我覺得肯定有更好、更高級的方法來做推理。所以,我現在比較興奮的點,可能是一些在咱們這個圈子裡,或者在科技圈裡,五年後才會火起來的東西。但現在看起來可能沒那麼激動人心,因為都還只是些挺冷門的學術論文。比爾·達利:如果不是大語言模型來推理物理世界,並且具備持久記憶和規劃能力,那會是什麼呢?你覺得底層的模型會是什麼樣的?楊立昆:現在很多人都在研究世界模型。所謂世界模型就是,我們每個人腦子裡都有的東西,是它讓我們能在腦子裡進行思考和操作,我們對現在的世界有個模型。比如現在桌上有個礦泉水瓶,如果我從上面按這個瓶子,它可能會倒,但如果我從下面推它,它就會滑走。還有,如果我按太用力,它可能會爆掉。所以,我們腦子裡有物理世界的模型,這些模型是在我們出生後幾個月內就慢慢形成的。就是這些模型讓我們能處理現實世界,而且處理現實世界比處理語言要難得多。所以我覺得,那種真正能處理現實世界的系統,它們需要的架構跟我們現在用的完全不一樣。大語言模型是預測 token 的,但 token 可以是任何東西。像我們的自動駕駛模型,它用的是感測器傳來的 token,然後輸出控制駕駛的 token。從某種意義上說,它也是在對物理世界進行推理,至少是在判斷那裡可以安全駕駛,不會撞到電線杆。那為什麼說 token 不是表示物理世界的正確方式呢?token 是離散的,當我們說 token 的時候,通常指的是,一組數量有限的可能性。一般的大語言模型,token 的數量大概在 10 萬左右,所以當你訓練一個系統去預測 token 的時候,你永遠不可能訓練它精準預測出一段文字後面會接那個 token,但你可以讓它預測出一個機率分佈,也就是預測字典裡所有可能 token 的機率。這就像一個長長的向量,裡面有 10 萬個 0 到 1 之間的數字,加起來等於 1——這個我們現在已經很會做了。但是對於視訊,對於我們熟知的那種高維度、連續的自然資料,就不知道該怎麼搞了。每次我們想訓練系統,讓它通過預測像素等級的視訊來理解世界、建構心智模型,基本上都失敗了。那怕只是訓練一個神經網路或者其他什麼系統,讓它能學到好的圖像表示,所有那些通過從損壞或變形的圖像中重建圖像的技術,基本上都失敗了。當然,也不是說完全沒用,它們還是有點用的,但效果就是不如另一種架構——“聯合嵌入”,這種架構基本上不嘗試在像素等級重建圖像。它們試圖學習一種表示,一種圖像、視訊或者其他自然訊號的抽象表示,這樣你就可以在這個抽象表示空間裡進行預測。我經常舉的例子是,如果我拍一段這個房間的視訊,然後我把鏡頭搖過來,停在這裡,我讓系統預測,接下來會發生什麼,它可能會預測說,這是一個房間,裡面坐著一些人,等等。它不可能預測出你們每個人長什麼樣,從視訊開頭那一小段來看,這是完全沒法預測的。所以說,世界上有很多東西是根本沒法預測的,如果你訓練系統在像素等級做預測,它就會把所有資源都花在試圖搞清楚那些它根本不可能編造出來的細節上。這完全是浪費資源,而且我們嘗試過的所有方法,我研究這個已經 20 年了,用自監督學習通過預測視訊來訓練系統,都沒用。只有當你把預測放在表示層面,而不是像素層面,才有可能有用。這就意味著,世界模型所需要的架構不可能是生成式的。比爾·達利:你基本上是在說 Transformer 架構沒法做到這些,但現在大家都在用視覺 Transformer 啊,而且效果還不錯。楊立昆:我不是這個意思,因為 Transformer 架構是可以用來做這個的,你可以把 Transformer 放到我說的架構裡。我說的這種架構,叫做“聯合嵌入預測架構”(JEPA),舉例來說,你拿一段視訊或者一張圖片,或者隨便什麼東西,甚至是文字,把它扔進一個編碼器。你得到一個表示,然後你再拿這段文字、視訊或者圖片的後續部分,或者它的某種變形版本,也扔進一個編碼器。現在你嘗試在表示空間裡做預測,而不是在原始的輸入空間裡做預測。比爾·達利:你可以用類似的訓練方法,就是填空,但你是在潛在空間裡填空,而不是在原始的表示裡填空。楊立昆:完全正確。這裡的難點在於,如果你不小心,如果你不用一些巧妙的技巧,系統就很容易崩潰。它會直接忽略輸入,然後隨便輸出一個恆定的表示,這個表示對輸入內容沒什麼資訊量。所以你必須要,在五六年前,我們還沒什麼好辦法來避免這種情況。現在,如果你想把這個東西用在智能體(Agent)系統上,或者用在能推理和規劃的系統上,那你需要的就是我說的這個“預測器”。當它看到一段視訊,它就能大致瞭解當前的世界狀態。它需要做的是,能夠預測接下來世界會變成什麼狀態,假設我採取了某個行動,或者我正在考慮採取某個行動,所以你需要一個預測器,它能根據當前的世界狀態,以及你設想的行動,來預測下一個世界狀態。如果你有這麼一個系統,你就可以規劃一系列的行動,最終達到某個目標。這才是我們人類進行規劃和推理的真正方式。我們不是在 token 空間裡做這些的。我再來舉個簡單的例子,現在有很多所謂的“智能體推理系統”。它們的工作方式是,生成一大堆一大堆的 token 序列,用各種不同的方法隨機生成不同的 token。然後用第二個神經網路,從所有生成的序列裡選出最好的一個。這有點像,在不會寫程序的情況下寫程序。你隨便寫一堆程序,然後一個個測試,留下那個剛好能給出正確答案的。這完全是沒指望的。比爾·達利:實際上現在有些關於“超級最佳化”的論文,說的就是這個思路。楊立昆:對,那些是對於短程序的研究,在短程序上當然可以實現,因為這種方法複雜度會隨著程序長度指數級增長。所以,程序稍微長一點就完全沒戲了。比爾·達利:所以現在很多人都在說,通用人工智慧(AGI),或者我猜你會叫它“高級機器智能”(AMI),馬上就要來了。你對此怎麼看?你覺得它什麼時候會實現?為什麼?現在的差距在那裡?楊立昆:是啊,我不喜歡“通用人工智慧”(AGI)這個詞,因為,大家用這個詞來指代那些擁有人類水平智能的系統。但問題是,人類的智能其實是非常專業化的,所以說它是“通用”的,我覺得有點用詞不當。所以我更喜歡用“高級機器智能”(AMI)這個詞,我們發音成“Ami”,就是 Advanced Machine Intelligence 的縮寫。(法語的 ami 是朋友的意思,楊立昆以前接受採訪的時候說過)我說的這種概念,就是系統能夠學習世界的抽象心智模型,並用這些模型來進行推理和規劃。我覺得我們可能在三到五年內,就能基本搞定,至少在小規模上讓它跑起來。然後接下來就是擴展規模等等的問題。直到我們達到人類水平的人工智慧。現在問題的關鍵是,人工智慧的歷史上,一代又一代的人工智慧研究者,他們每次發現一種新範式,都會說“就是它了!”,說“再過 10 年,或者 5 年,或者隨便多久,我們就能實現人類水平的智能了!”“我們將擁有在所有領域都比人類更聰明的機器!” 這種說法已經持續了 70 年了,每隔十年左右就會出現一波新的浪潮,而當前的這波浪潮,我覺得也是錯的。所以,那種認為“只需要擴大模型規模,或者讓它們生成幾十個 token 序列,然後選出就能達到人類水平智能”的想法,認為“幾年之內,兩年之內,我記得有些人預測說,資料中心裡就會出現一個天才狀態”,引用某個不願透露姓名的人的話。我覺得這完全是胡扯。純粹是胡扯。在很多應用領域,在不久的將來,系統當然可能會達到博士水平(如果你想這麼說的話)。但在整體智能方面,我們還差得很遠——但它可能在十年左右的時間內就會實現。所以也不是那麼遙遠。比爾·達利:那麼,人工智慧已經在很多方面得到了應用,這些應用,改善了人類的狀況,讓人們的生活更輕鬆。你覺得人工智慧的那種應用,是最有說服力、最有利的?楊立昆:當然有一些很明顯的應用。我認為人工智慧對科學和醫學的影響,可能會比我們現在能想像到的還要大得多,儘管現在已經很厲害了。不只是在蛋白質摺疊、藥物設計這類研究方面,在理解生命的運作機制方面,而且在短期內也會有很大影響。現在在美國,你經常會做醫學影像檢查,裡面就有人工智慧參與。如果是乳房 X 光檢查,很可能就先用深度學習系統預先篩查一下,看看有沒有腫瘤。如果你去做核磁共振(MRI),你在 MRI 機器裡待的時間能減少四倍左右,因為現在我們可以,用更少的資料恢復出 MRI 圖像的高解析度版本。所以,像這種短期的好處就有很多。當然,我們每個人的汽車——輝達是這方面的一大驚喜,現在大多數新車都配備駕駛輔助系統或者自動緊急剎車系統。而在歐洲,這些東西現在已經是強制標配好幾年了。這些系統能減少 40% 的碰撞事故。它們能救命。這些顯然都是非常重要的應用。而且這些都不是生成式人工智慧,這些不是大語言模型,這些基本上都是感知 AI 方面的應用。當然,汽車控制也有一點。現在,很明顯,不管是現在的大語言模型,還是未來幾年會發展成什麼樣,在工業界、服務業等等領域,都有很多應用。但是我們也必須考慮到這些應用的侷限性,也就是說,部署和應用那些達到預期精準性和可靠性水平的系統,其實比大多數人想像的要難。自動駕駛肯定就是這樣,“我們什麼時候能實現 L5 級自動駕駛?”這個問題,就像一個不斷後退的地平線一樣。我覺得很多領域都會遇到類似的情況。通常人工智慧會失敗的地方,不是在基礎技術上,不是在那些花哨的演示上,而是在你真正需要部署它、應用它,並且讓它足夠可靠,能和現有系統整合的時候,這時候就會變得非常困難、非常昂貴,而且比預期要花更多時間。比爾·達利:確實,自動駕駛汽車必須一直保持正確,不然就可能有人受傷或者喪命,所以它的精準率必須接近完美。但也有很多應用,只要它大部分時候是正確的,就非常有用了。甚至像一些醫療應用,醫生還會再檢查一遍,當然還有娛樂、教育等等領域,你只需要它做好事多於壞事,而且就算出錯了,後果也不會是災難性的。楊立昆:沒錯。所以,對於大多數系統來說,真正最有用的,是那些能提高人們生產力或者創造力的系統。比爾·達利:比如程式碼助手。楊立昆:基本上就是輔助人們的那種工具,比如在醫學領域、藝術領域、寫作……比爾·達利:如果人工智慧不是要取代人類,那它基本上就是在給人類提供更強大的工具。楊立昆:它可能在某個時候會取代人類,但我不覺得人們會願意接受這個事實。基本上,我們和未來人工智慧系統的關係,包括超級智能,超人類等級的系統,應該是讓我們來當老闆,並讓一群超級智能的虛擬員工為我們工作。我不知道你們感覺怎麼樣,反正我挺喜歡和比我聰明的人一起工作的,這簡直是世界上最棒的事兒。比爾·達利:我也是。所以,反過來說,就像人工智慧能在很多方面造福人類一樣,它也有陰暗面,有些人會用它來做壞事,比如製造深度偽造視訊、傳播假新聞,如果使用不當,它可能會造成情感傷害。你最擔心人工智慧被用在那些方面?我們應該怎麼減輕這些風險?楊立昆:Meta 很熟悉用人工智慧來對抗各種攻擊,不管這些攻擊是不是也來自人工智慧。可能有點出乎意料的是,雖然大語言模型和各種深度偽造技術已經出現好幾年了,但我們那些負責檢測和處理這類攻擊的同事告訴我們,我們並沒有看到,社交網路上出現大量增加的生成內容。或者至少沒有以一種惡意的方式發佈,而且通常都會被標記為是合成內容。總之,我們並沒有看到大家之前擔心的那些災難性場景,人們在三四年前警告說,人工智慧會“摧毀所有的資訊”或者會怎麼怎麼樣。這裡有個挺有意思的故事,我得跟你們說說,在 2022 年秋天,我在 Meta 的同事,一個小團隊,做了一個大語言模型,這個模型是用所有科學文獻來訓練的。他們把能找到的所有技術論文都用上了。這個模型叫 Galactica。他們把它放出來,還附帶一篇長論文,詳細介紹了它是怎麼訓練的,開放原始碼,還有一個演示系統,大家可以直接試用——結果這東西在 Twitter 上被罵慘了。大家都在說,“太可怕了!”“這會害死我們的!”“這會毀掉科學交流體系!”“現在隨便那個白痴都能,寫出一篇聽起來很科學的論文,鼓吹吃碎玻璃的好處了!”等等。網上鋪天蓋地都是負面評價,以至於,我那些可憐的同事們,一個五人小團隊,晚上都睡不著覺,最後他們只好把演示系統撤下來了。他們保留了開放原始碼和論文,但演示系統下線了。我們當時的結論是,“世界還沒有準備好迎接這種技術。”“而且沒人感興趣。”結果,三個星期後,ChatGPT 就橫空出世了,那簡直就像彌賽亞再臨一樣,我們當時都互相看著對方,心想,“什麼鬼?這是怎麼回事?”我們完全無法理解公眾對 ChatGPT 的熱情,考慮到之前大家對 Galactica 的反應,簡直是天壤之別。而且我覺得,OpenAI 實際上也對 ChatGPT 在公眾中取得的成功感到非常意外。所以,很多時候都是認知問題。但 ChatGPT 並沒有試圖寫學術論文,或者搞科學研究。它基本上就是一個你可以對話的東西,你可以問它任何問題,它更加通用,所以在某種程度上,它對更多人來說更有用,或者說更接近於有用。總之,危險肯定是存在的,各種濫用 AI 的可能性都有。但我想再強調一遍,對抗濫用的對策,就是更好的人工智慧。確實會存在不可靠的系統,而解決這個問題的方法,就是更好的人工智慧。我們需要的是可能具備常識的系統,它具備推理能力,能夠檢查答案是否正確,並且能夠評估自身答案的可靠性,而這些都是目前系統所不具備的。至於那些災難性的情景,說實話,我不相信它們會發生。比爾·達利:所以說,人類會適應 AI 的。我也更願意相信,人工智慧總體上是利大於弊的,即使其中會摻雜一些壞的東西。作為一個在大西洋兩岸都有家的人,你擁有非常全球化的視野。你覺得未來人工智慧的創新會來自那裡?楊立昆:創新可以來自任何地方。那裡都有聰明人。沒有人能壟斷好點子。有些人可能覺得自己高人一等,覺得他們可以不跟任何人交流,就能想出所有好主意。但根據我作為科學家的經驗,情況並非如此。好點子往往來自很多人的互動,來自思想的交流,而且,在過去十年或者更久的時間裡,也包括程式碼的交流。所以,這也是為什麼,我一直非常提倡開源人工智慧平台,也是 Meta 在一定程度上也採納了這種理念的原因之一。我們不可能壟斷好點子。就算我們自認為有多聰明,也不可能做到。最近 DeepSeek 的例子就很好地說明了,好點子可以來自任何地方。現在,中國有很多非常優秀的科學家。有一個故事很多人應該知道,如果你問自己,“過去十年裡,所有科學論文中,引用次數最多的論文是那一篇?”答案是一篇發表於 2015 年的論文,正好是十年前。它是關於一種特定的神經網路架構,叫做 ResNet,殘差網路。這篇論文是微軟亞洲研究院在北京的研究人員寫的,作者都是中國科學家。第一作者是何愷明。一年後,他加入了 Meta 在加州 Menlo Park 的 FAIR 實驗室,在那裡工作了大約八年。比爾·達利:他現在去麻省理工學院了。楊立昆:沒錯,去了 MIT。所以,我只是想說明,世界各地都有很多優秀的科學家。好點子可能在任何地方冒出來。但是,要把這些好點子真正變成現實,你需要,龐大的基礎設施,大量的計算資源,而且你需要給你的朋友、同事們很多錢,才能買得起這些東西。比爾·達利:但是,擁有一個開放的知識交流社區,能讓進步更快,因為,可能有人在這裡想出了一半的好點子,另一個人在那裡想出了另一半,如果他們能互相交流,那事情就能成,但如果大家都各自封閉,互不交流,進步就很難發生。楊立昆:沒錯。還有一點是,為了讓創新想法湧現出來,作為輝達的首席科學家,你應該很清楚,你需要給人們足夠的自由空間,你需要讓人們真正地去創新,而不是給他們壓力,讓他們每三個月或者每六個月就必須拿出點成果。事實上,DeepSeek 的例子就是這樣。Llama 也是如此。有一個故事可能很多人都不知道,在 2022 年,Meta 的 FAIR 實驗室裡,有好幾個大語言模型項目在同時進行。其中一個項目投入了大量資源,得到了領導層的支援,各方面條件都很好。另一個項目,規模比較小,有點像“小作坊”項目,是巴黎的十幾個人搞的,他們基本上是想自己做一個大語言模型,因為他們出於某種原因需要用到。結果這個“小作坊”項目,反而成了後來的 Llama。而那個資源充足的大項目,你甚至都沒聽說過,因為它被砍掉了。所以,即使你沒有所有的資源支援,你也能想出好點子。關鍵在於,如果你能在某種程度上和管理層保持一點距離,讓他們別來管你,你反而可能比那些被要求按計畫創新的人,更容易想出更好的點子。當年那十幾個人,他們做出了 Llama 1。然後,Meta 決定選擇 Llama 作為主要平台,而不是另一個項目。再然後,我們又圍繞 Llama 組建了一個大型團隊,開發出了 Llama 2,最終開源,這基本上在整個行業掀起了一場小小的革命。再後來就是 Llama 3。截至這場對話前,Llama 的下載量已經超過 10 億次了。我覺得這太不可思議了,並且你們(輝達)肯定認識他們,因為他們肯定都買了輝達的硬體,才能跑得動這些模型。我們得感謝你賣出了這麼多 GPU。比爾·達利:所以,我們再來聊聊開源。我覺得,Llama 在開源方面做得非常創新,它是一個最先進的大語言模型,它提供了開放權重,這樣大家就可以下載並在本地運行。這樣做有什麼優點和缺點?Meta 顯然投入了巨額資金來開發、訓練和微調這個模型,然後又免費把它放出來。這樣做的好處是什麼?缺點又是什麼?楊立昆:我覺得,如果你是一家指望直接從這項服務中賺錢的公司,那開源肯定是有缺點的。如果那是你唯一的商業模式,那當然,對你來說,公開你所有的秘密可能是不划算的。但如果你是一家像 Meta,或者在某種程度上像 Google 這樣的公司,你的收入來源就不是這個。比爾·達利:比如廣告。楊立昆:像 Meta,收入主要來自廣告,Google 的收入來源就比較多樣了。也許未來還會有其他收入來源。但是,重要的不是你在短期內能賺多少錢,而是,你能否建構出你想要建構的產品所需要的功能?你能否吸引全世界儘可能多的聰明人來參與貢獻?為了整個世界。比如,如果其他公司把 Llama 用在其他用途上,對 Meta 來說也沒什麼損失。比如,他們又沒有社交網路可以基於 Llama 來建構。所以,開源對 Google 來說可能威脅更大一些,因為很明顯,你可以用 Llama 來建構搜尋引擎。這可能也是為什麼 Google 對這種開源模式的態度沒有那麼積極的原因。但是,我們已經看到了 Pytorch 最開始開放原始碼的影響,它對整個行業、對整個社區的影響,以及 Llama 2 開放原始碼的影響,它基本上,一下子就帶動了整個創業生態系統的發展。我們也看到這種情況在更大的行業範圍內出現,有些人一開始可能會用一些專有的 API 來做人工智慧系統的原型,但到了真正要部署的時候,他們發現最划算的方式還是用 Llama,因為你可以在本地或者其他開源平台上運行它。但從更宏觀的角度來看,從哲學層面來說,我認為想要擁有開源平台,最重要、最根本的原因是,在不久的將來,我們與數字世界的每一次互動,都將由人工智慧系統來調解。我現在就戴著 Ray-Ban Meta 智能眼鏡。我可以通過它和 Meta AI 對話,問它任何問題。我們不認為人們會只想要一個助手,而且這些助手都來自美國西海岸或者中國的少數幾家公司。我們需要的是極其多樣化的助手。他們需要說世界上所有的語言,理解世界上所有的文化、所有的價值體系、所有的興趣點。他們需要有不同的偏見、政治觀點等等。所以,我們需要多樣化的助手,就像我們需要多樣化的媒體一樣。不然的話,我們所有人都會從相同的來源獲取相同的資訊,這對民主,以及其他各方面來說,都不是好事。所以,我們需要一個平台,讓任何人都可以用它來建構這些助手,建構一個由各種各樣的助手組成的生態系統。而現在,唯一能做到這一點的途徑,就是開源平台。我認為開源平台在未來會變得更加重要,因為如果我們想要基礎模型能說世界上所有的語言,能理解各種文化,等等,沒有任何一個單一的實體能夠獨自完成這項任務。誰會收集世界上所有語言的所有資料,然後直接交給,OpenAI、Meta、Google 或者 Anthropic 呢?沒人會這麼做。大家都想保留自己的資料。所以,世界各地的不同地區,都希望把自己擁有的資料貢獻到一個全球性的基礎模型中,但實際上並不想直接交出資料。他們可能會參與到訓練全球模型的過程中。我認為這才是未來的模式。基礎模型將會是開放原始碼的,將會以分佈式的方式進行訓練,世界各地的資料中心可以訪問不同的資料子集,然後共同訓練出一個“共識模型”。所以,開源平台是完全不可避免的,而那些專有平台,我認為最終會逐漸消失。比爾·達利:而且開源模式不僅對語言和文化的多樣性有意義,對應用的多樣性也有意義。比如,一家公司可以下載 Llama,然後在他們不想上傳的專有資料上進行微調。楊立昆:現在大家基本上都是這麼做的。現在大多數人工智慧創業公司的商業模式,基本上都是圍繞這個思路展開的,就是,基於開源模型,為一些非常酷的應用場景,建構專門的系統。比爾·達利:所以,在黃仁勳的 Keynote 裡,他舉了一個很棒的例子,用一個智能體大語言模型來做婚禮策劃,來決定婚禮上誰應該和誰坐一桌,這個例子很好地說明了,在訓練上投入精力和在推理上投入精力之間,存在著一種權衡關係。也就是說,你可以選擇訓練一個非常強大的模型,為此投入大量的資源,或者你可以選擇建構一個相對沒那麼強大的模型,但讓它多次運行,通過多次推理來完成任務。你覺得在建構一個強大的模型時,訓練時間和推理或測試時間之間,應該如何權衡?最佳的平衡點在那裡?楊立昆:首先,我認為,黃仁勳說得完全正確,一個能夠進行推理的系統,最終會擁有更強大的能力。但我不太認同他說的另一點。我認為目前那些通過增強推理能力的大語言模型,它們改採用的推理方式是錯誤的。比爾·達利:你是說,這種方法現在能用,但不是正確的方法?楊立昆:對,不是正確的方法。我認為,當我們進行推理,當我們思考的時候,我們是在某種抽象的心智狀態下進行的,這種狀態和語言沒什麼關係。比爾·達利:不太像是通過輸出 token 來推理。你覺得應該在潛在空間裡進行推理,而不是在……楊立昆:對,應該在潛在空間裡,如果我跟你說,“想像一個立方體漂浮在你面前,現在讓這個立方體繞著垂直軸旋轉 90 度”,你可以在腦子裡完成這個操作。這和語言沒什麼關係。貓也能做到這一點。我們當然沒法用語言給貓描述這個問題。但是,當貓計畫跳到家具上的時候,它們會做比這複雜得多的事情,它們做的事情比這複雜得多。而以上這些,都和語言無關,它肯定不是在 token 空間裡完成的,token 空間可能對應的是一些動作。這些推理和規劃,都是在某種抽象的心智空間裡進行的。所以,這就是未來幾年我們要面臨的挑戰,就是要找到新的架構,能夠實現這種類型的能力。這也是我過去一直在研究的方向。比爾·達利:那麼,我們是不是可以期待出現一種新的模型,能讓我們在這種抽象空間裡進行推理?楊立昆:我們把它叫做 JEPA,或者 JEPA 世界模型。我們,我和我的同事們已經發表了一系列關於這方面的論文,算是,在過去幾年裡,朝著這個方向邁出的初步探索。JEPA 的意思是“聯合嵌入預測架構”。這就是我說的那些世界模型,它們學習抽象的表示,這些表示能夠被操縱,並且可能進行推理,產生一系列的行動,最終,達到特定的目標。我認為,我認為這才是未來。我大概在三年前寫過一篇長文,詳細解釋了這種架構可能的工作方式。比爾·達利:所以,要運行這些模型,你需要非常強大的硬體,在過去十年裡,GPU 的性能提升了,大概 5 千到 1 萬倍,基本上在人工智慧模型的訓練和推理方面,從 Kepler 架構到 Blackwell 架構,我們今天也看到了,未來還會有更大的進步。再加上橫向擴展和縱向擴展,又能提供更強的計算能力。在你看來,未來硬體會朝著什麼方向發展?你覺得什麼樣的技術進步,能讓我們建構出你的 JEPA 模型,以及其他更強大的模型?楊立昆:多多益善。因為我們將需要儘可能多的計算資源。所以,這種在抽象空間中進行推理的想法,在執行階段計算量會非常大。這和我們都很熟悉的一個概念有關,心理學家會說 System 1(快思考)和 System 2(慢思考)。System 1 指的是那些你不需要怎麼思考就能完成的任務。你已經習慣了它們,你可以不怎麼動腦子就能完成。比如,如果你是一個經驗豐富的司機,即使沒有駕駛輔助系統,你也能開車。你可以不用怎麼思考就能開車,你還可以同時和別人聊天,同時做其他事情。但如果你是第一次開車,或者剛開始學開車的幾個小時,你坐在駕駛座上,就必須全神貫注,集中注意力,你會預想各種各樣的災難場景,想像各種各樣的事情。這就是 System 2。你調動了整個前額葉皮層,呼叫你的內部世界模型,來搞清楚接下來會發生什麼,然後規劃行動,確保好事發生。而當你對開車這件事已經很熟悉之後,你就可以只用 System 1,有點像自動駕駛一樣完成任務。所以,最開始的推理過程,是 System 2,而那種自動的、潛意識的、反應式的策略,就是 System 1。大語言模型現在可以做到 System 1 的水平,並且正在努力向 System 2 邁進,但最終,我認為我們需要一種不同的架構來實現 System 2。比爾·達利:你覺得能實現 System 2(慢思考)的架構會是你的 JEPA 嗎?楊立昆:我認為,如果你想讓系統理解物理世界,它就不會是一個生成式架構。物理世界比語言要複雜得多,也難理解得多。我們總是覺得語言是人類智慧的巔峰,是人類智力的最高體現。但實際上,語言很簡單,因為它本質上是離散的。之所以是離散的,是因為語言是一種交流機制,它必須是離散的,不然就沒法抗干擾。如果語言不是離散的,你就沒法聽清楚我現在在說什麼。所以,語言的簡單性,是源於它的本質。但現實世界就複雜得多了。這裡有一個例子,你們有些人可能以前聽我說過。目前的大語言模型,通常是用大約 30 兆個 token 來訓練的,一個 token 大概是 3 個字節。所以 30 兆個 token,就是 0.9 * 10^13 字節,我們算它 10^14 字節吧。如果讓人來閱讀這麼多文字,即使是閱讀速度很快的人,也需要超過 40 萬年的時間,因為這幾乎相當於網際網路上所有文字的總量,現在,心理學家告訴我們,一個四歲的孩子,總共清醒的時間大約是 16000 個小時,而且我們通過視神經,每秒鐘大約有 2 兆字節的資料進入視覺皮層,大概每秒 2 兆字節。把這個數字乘以 16000 小時,再乘以 3600 秒,結果大約是 10 的 14 次方字節。也就是說,一個四歲小孩通過視覺在四年內接收到的資料量,和你需要花 40 萬年才能讀完的文字量是差不多的。這說明,無論你對 AGI 的定義是什麼,僅僅通過文字訓練,我們永遠不可能實現通用人工智慧(AGI)。這根本不可能發生。比爾·達利:回到硬體方面,脈衝神經網路系統也取得了很大進展,有些人非常推崇這種系統,並且研究生物系統的工作原理,他們認為神經形態硬體,在人工智慧領域可以發揮作用。你覺得神經形態硬體在人工智慧領域,在補充或者取代 GPU 方面,有什麼應用前景嗎?楊立昆:近期內是看不到的。我得給你們講個關於這個的故事。我 1988 年剛去貝爾實驗室的時候,我所在的那個小組,實際上就是研究用於神經網路的模擬硬體的。他們,做了好幾代完全模擬的神經網路,然後又做了混合模擬數字的,最後在 90 年代中期,轉向了完全數位化的神經網路。那時候大家對神經網路的熱情已經消退了,所以繼續研究模擬硬體也沒什麼意義了。像這種基於比較特殊的底層原理的硬體,問題在於,目前的數字 CMOS 技術已經發展到了一個非常深的局部最優解,想要用其他技術趕上它,需要很長時間,而且需要大量的投資。而且,從原理層面來說,其他技術是否真的有優勢,也還不清楚。像模擬電路,或者脈衝神經元和脈衝神經網路,它們可能在某些方面有內在的優勢,但問題是,它們讓硬體的復用變得非常困難,我們現在用的硬體,在某種意義上都太大了,速度也太快了。所以我們必須儘可能地復用同一塊硬體,通過分時復用的方式,讓同一塊硬體計算神經網路的很多不同部分,如果你用模擬硬體,基本上就沒法做分時復用了。你必須在你的虛擬神經網路裡,為每個神經元都配備一個物理神經元,這意味著你沒法把一個像樣規模的神經網路塞進單個晶片裡。你必須用多晶片互聯的方式。一旦你真的能做到這一點,速度肯定會非常快,但效率會很低,因為你需要做晶片間的通訊,而且,記憶體管理也會變得很複雜,而且最終你還是需要用數字訊號來通訊,因為這是在抗干擾方面,實現高效通訊的唯一方法。事實上關於大腦,這裡有一個有趣的資訊。大多數動物的大腦,或者說大部分動物的大腦,神經元之間都是通過脈衝訊號來通訊的。脈衝訊號是二進制訊號。所以它是數字訊號,不是模擬訊號。神經元內部的計算可能是模擬的,但神經元之間的通訊實際上是數字的。當然,微小的動物除外。比如,秀麗隱桿線蟲,那種 1 毫米長的蠕蟲。它有 302 個神經元。它們的神經元不產生脈衝訊號。它們不需要脈衝訊號,因為它們不需要遠距離通訊。所以,在那種尺度下,它們可以用模擬訊號進行通訊。這告訴我們,即使我們想用模擬計算這種比較特殊的硬體技術,我們也仍然需要以某種方式使用數字通訊。至少為了記憶體管理,也需要數字通訊。所以,現在還不太明朗。你肯定已經多次做過相關的計算,我知道我可能在這方面沒有你瞭解得多,但是,我不認為神經形態硬體會在近期內有什麼大的應用。也許在一些邊緣計算的場景下,會有一些應用空間。比如,如果你想要一個超便宜的微控製器,用來運行你的吸塵器或者割草機的感知系統,那如果你能把整個系統都整合到單個晶片裡,並且可以用相變儲存器或者其他類似的儲存技術來儲存權重,那模擬計算可能就有意義了。我知道有些人正在認真地研究這些東西。比爾·達利:就像你說的,這涉及到人們常說的 PIM,或者叫“記憶體計算”技術,包括模擬和數字的混合。你覺得這種技術有應用前景嗎?它有希望嗎?楊立昆:當然有。我的一些同事實際上對這個非常感興趣,因為他們想開發智能眼鏡的後繼產品,而智能眼鏡需要的是一些視覺處理功能,基本上要一直運行。但現在這還做不到,因為功耗是個大問題。像一個感測器,比如圖像感測器,你不可能讓它一直開著,放在像這樣的智能眼鏡裡,那樣電池幾分鐘就沒電了。因此,一個可能的解決方案是,直接在感測器晶片上進行處理,這樣你就不用把資料從晶片裡搬出來,而資料搬運才是耗電大戶,而不是計算本身。所以,現在有很多關於這方面的研究,但我們還沒能真正實現。比爾·達利:但你認為這是一個很有希望的方向。楊立昆:我認為這是一個很有希望的方向。事實上,生物系統早就搞定了這個問題,也就是我們的視網膜。視網膜大約有 6000 萬個光感受器,在我們的視網膜前面,還有四層神經元,是透明的神經元,它們負責處理光感受器傳來的訊號,把訊號壓縮到 100 萬根視神經纖維,然後傳到我們的大腦視覺皮層。所以,視網膜本身就做了壓縮、特徵提取……各種各樣的處理,目標就是儘可能從視覺系統中提取出最有用的資訊。比爾·達利:那麼,其他新興技術呢?你覺得,量子計算或者超導邏輯,或者其他什麼技術,在未來有可能給我們的人工智慧處理能力帶來巨大的飛躍嗎?楊立昆:超導計算也許有可能。我對這方面瞭解不多,沒法給出確定的判斷。光學計算,我覺得一直都挺讓人失望的。已經有好幾代人在研究光學了。我記得在 1980 年代,我聽到關於神經網路光學實現的報告時,感覺非常驚豔,但結果一直都沒能真正實現。技術肯定是在不斷進步的,所以也許未來情況會有所改變。我認為光學計算的很多成本,都和模擬計算類似。在與數字系統介面的時候,訊號轉換過程中會損失很多性能。至於量子計算,我對量子計算的應用前景非常懷疑。我認為量子計算在中期內唯一有應用前景的領域,就是模擬量子系統。比如,如果你,如果你想做量子化學模擬或者其他類似的模擬,也許可以用得上。但對於其他任何應用,比如通用計算,我個人非常懷疑。比爾·達利:你之前提到過,要建構能像幼年動物一樣從觀察中學習的人工智慧。你覺得要實現這個目標,對硬體會有什麼要求?你認為我們需要在硬體方面做那些發展,才能支援這種人工智慧?楊立昆:你們能給我們提供多少硬體?比爾·達利:這取決於你們願意買多少,買得越多,省得越多。而且,正如我們今天聽到的,你們用得越多,我們賺得越多。楊立昆:這肯定不會便宜,哈哈。我來跟你們說一個實驗,我的一些同事,大概在一年前做的。當時有一種自監督學習技術,可以用重建的方法來學習圖像表示。就是我之前說的那些“沒用”的技術,這是一個叫做 MAE 的項目,掩碼自編碼器。它基本上就是一個去噪自編碼器,很像 U-Net 用的那種,就是說你拿一張圖片,通過移除其中的一部分,實際上是很大一部分,來破壞它,然後你訓練一個巨大的神經網路,基本上在像素等級,或者 token 等級,重建出完整的圖像。然後,你把這個神經網路學到的內部表示,作為下游任務的輸入,比如做有監督的對象識別,或者其他任務。這種方法效果還行。但為了運行這個模型,你得先煮沸一個小池塘,才能給那些液冷 GPU 叢集降溫。但它的效果,遠不如那些聯合嵌入架構。你可能聽說過 DINO,DINO V2,I-JEPA 等等。這些都是聯合嵌入架構,它們的效果往往更好,而且實際上訓練成本也更低。比爾·達利:所以,在聯合嵌入架構裡,你基本上是為兩個輸入類別分別設定了潛在空間,而不是把所有東西都轉換成同一種 token。楊立昆:與其用一張圖像,然後用它的一個損壞或者變形的版本,再訓練模型從損壞或變形的版本重建出完整圖像,不如直接用完整圖像和損壞或變形的版本,把它們都扔進編碼器,然後你嘗試把這兩個編碼器的輸出表示聯絡起來。就是說,從部分可見的、損壞的版本中學習完整圖像的表示。這就是聯合嵌入預測架構。這種方法效果更好,而且成本更低。現在 MAE 團隊說,“好吧,這個方法看起來對圖像還行,我們試試用它來處理視訊。”結果,你要對視訊進行 token 化,基本上把視訊變成,16x16 的圖像塊,即使是很短的視訊,也會有很多圖像塊。然後訓練一個巨大的神經網路,來重建視訊中缺失的圖像塊,或者預測未來的視訊幀。為了做這個實驗,你需要煮沸的就不是一個小池塘了,而是一個小湖。而且結果基本上是失敗的。那個項目被砍掉了。所以,我們現在找到的替代方案,是一個叫做 V-JEPA 的項目,我們正在開發 V-JEPA 的第二個版本,它基本上也是一種聯合嵌入預測架構,它可以在視訊上做預測,而且是在表示層面上做預測,效果看起來非常好。我們有一個例子,V-JEPA 的第一個版本,是用非常短的視訊片段(只有 16 幀)訓練的,它試圖基本上從部分被遮擋的視訊版本中,預測出完整視訊的表示。而且這個系統,似乎能夠判斷一個特定的視訊在物理上是否合理,至少在一些受限的場景下可以做到。比爾·達利:那麼,系統輸出的是非黑即白的判斷嗎?比如,直接給出“這個視訊是合理的”或者“這個視訊是不合理的”這樣的結果?楊立昆:不,其實比這更精細。判斷的依據是系統預測產生的誤差大小。具體來說,就是在視訊上滑動一個 16 幀的窗口,然後觀察系統是否能預測出接下來的幾幀,並測量預測的誤差值。當視訊中出現非常不尋常的情況時,例如物體突然消失或變形,或者物體憑空出現,又或者出現違反物理規律的現象,預測誤差就會顯著升高。比爾·達利:所以,這個系統實際上是通過觀看視訊,自主學習物理世界的規律,從而判斷什麼是符合物理法則的,什麼是合理的。楊立昆:訓練時,我們使用真實的自然視訊;測試時,則使用人工合成的視訊,並在合成視訊中人為地製造一些非常違反常理的事件。比爾·達利:我明白了。那麼,如果用那些“違反常理的事件”頻繁發生的視訊來訓練系統,系統是不是就會認為那些“違反常理的事件”是正常的了?楊立昆:你說的沒錯。那樣的話,系統就不會再認為那些事件是奇怪的了。所以我們當然不會那樣做。這有點類似於人類嬰兒學習“直覺物理學”的過程。例如,嬰兒需要一段時間才能認識到“物體在沒有支撐的情況下會掉落”,也就是理解重力。嬰兒大約在九個月大的時候才能掌握這個概念。如果你給五六個月大的嬰兒看一個物體懸浮在空中的場景,他們並不會感到驚訝。但是,當嬰兒長到八九個月,或者十個月大的時候,如果再看到類似的場景,他們就會非常驚訝地盯著看。這種反應是可以被測量到的,心理學家有專門的方法來測量嬰兒的注意力。這表明,嬰兒的內部世界模型,也就是他們對世界的認知模型,受到了挑戰。嬰兒看到了某些他們認為不可能發生的事情。比爾·達利:也就是和他們的預期不符,是這樣吧。楊立昆:完全正確。所以嬰兒會進行觀察,以便修正他們自己的內部世界模型,告訴自己,“也許我需要重新認識和學習這種現象”。比爾·達利:你之前提到過,要在這個聯合嵌入空間中進行推理和規劃。你認為為了實現這個目標,在模型和硬體層面,分別存在那些瓶頸和挑戰?楊立昆:目前來看,最大的挑戰仍然是讓這個方法真正有效地運行起來。我們需要找到一個有效的“配方”。就像在大家找到訓練簡單摺積神經網路的有效“配方”之前一樣。回想一下,在 2000 年代末期之前,Geoffery Hinton 一直強調“使用反向傳播訓練深度網路非常困難”,“只有 Yann 能夠用 Cornet 做到,而且他可能是世界上唯一能做到的人”。當然,這在當時有一定的事實依據,但實際上也並非完全如此。後來的研究表明,訓練深度網路並沒有想像中那麼困難,但確實需要掌握很多技巧,例如工程上的技巧、直覺性的理解,以及選擇合適的非線性啟動函數。還有像 ResNet 提出的“殘差連接”的思想,那篇論文在過去十年中被引用了 25 萬次,是所有科學論文中引用次數最多的。但其核心思想卻非常簡潔:在網路中加入跨層連接,使得每一層默認情況下都傾向於計算恆等函數,而神經網路的學習目標則轉變為對這種恆等函數進行微小的調整和偏離。這個想法非常簡單,但卻使得建構更深的網路成為了可能。比爾·達利:殘差連接可以有效防止反向傳播過程中的梯度消失。楊立昆:的確如此。殘差連接使得訓練上百層的神經網路成為可能。而現在,我們已經能夠建構更深的網路了。比爾·達利:因為在那之前,為了避免梯度消失,人們嘗試了很多技巧,比如從中間層引出輸出,並在這些中間層加入損失函數,因為梯度很難直接反向傳播到網路的底層。楊立昆:網路中某些層可能會死亡,導致整個網路失效,不得不重新開始訓練。因此,很多人在早期很快就放棄了,因為他們沒有掌握足夠的技巧。所以,在大家找到一個有效的“配方”,並掌握了所有這些技巧之後,包括殘差連接、Adam 最佳化器、歸一化等等,順便說一句,我們最近發表的一篇論文證明,Transformer 架構實際上並不需要歸一化。https://arxiv.org/pdf/2503.10622以及其他類似的技巧,在這些完整的“配方”和技巧被充分掌握之前,深度學習技術的發展確實舉步維艱。自然語言處理(NLP)領域也經歷了類似的階段。在 2010 年代中期,那些基於去噪自編碼器的系統,例如 Bert 類型的系統,其核心思想是破壞文字,然後訓練大型神經網路來恢復缺失的詞語。但最終,這種方法被 GPT 風格的架構所超越。GPT 架構直接在完整的文字序列上進行訓練,本質上是訓練一個自編碼器,但無需手動破壞輸入,因為其架構本身是因果的。這同樣是一個“配方”的成功案例。事實證明,這個“配方”非常有效,並且具有良好的可擴展性。因此,我們現在需要做的,就是為 JEPA 架構找到一個類似的有效“配方”,使其能夠像 GPT 一樣,實現良好的擴展性。而這正是我們目前所欠缺的。比爾·達利:結束之前,你還有什麼最後想對聽眾(各位讀者們)說的嗎?楊立昆:我想再次強調我之前的一個觀點。我認為,人工智慧的進步,以及邁向人類水平人工智慧,或者高級機器智能,或者通用人工智慧(AGI),無論你怎麼稱呼它,都需要每個人的共同努力。它不會憑空產生,也不會僅僅依靠某個機構秘密研發就能實現。這幾乎是不可能的。而且,人工智慧的進步不會是一個突然爆發的事件,而是一個漸進的過程,會經歷持續不斷的進步。人類也不會在人工智慧實現後的短時間內就被毀滅,因為它不會是一個突如其來的事件。更重要的是,人工智慧的發展需要全球範圍內的共同參與和貢獻,因此,開放研究和基於開源平台至關重要。如果訓練模型需要大量的計算資源,那麼更經濟實惠的硬體就顯得尤為重要。所以,輝達可能需要考慮降低硬體價格了,抱歉。比爾·達利:這個建議你可能需要直接向黃仁勳提出。楊立昆:展望未來,我們將會擁有各種各樣的人工智慧助手,它們將在日常生活中為我們提供幫助,可能會通過智能眼鏡或其他智能裝置,時刻伴隨在我們身邊。而我們人類將成為這些人工智慧助手的主導者。它們將服務於我們,為我們工作。未來的社會,或許會變成一個我們每個人都扮演管理者的角色,這聽起來似乎也是一種有趣的未來景象。比爾·達利:就以此作為我們今天的結尾吧。非常感謝你今天帶來的這場精彩絕倫、富有啟發性的對話。期待未來能有機會再次與你交流。 (AI科技大本營)