萬眾期待的AI界科技界春晚-NVIDIA GTC 2024大會今天正式開幕。這不僅是一場面向開發者的盛會, 更是NVIDIA創始人黃仁勳獨領風騷、引領業界方向的重要舞台。
以下和大家分享這次黃教主大會主題演講中的精彩內容, 附上視頻完整版及書面文字版,方便大家深入了解。
影片完整版的B站傳送門:
【【精校】Nvidia GTC2024 黃仁勳主題演講2024.3.19【中英】-嗶哩嗶哩】 https://b23.tv/eEDeOq4
這次GTC大會聚集了來自氣候科技、無線電科學等不同領域的研究人員,他們正探索如何利用AI、機器人技術控制下一代6G無線電、自動駕駛汽車等。大會也邀請了眾多公司代表,他們將運用加速計算解決普通計算機無法應對的難題,應用領域涵蓋生命科學、醫療健康、基因組學、零售、物流、製造、工業等。
NVIDIA的發展歷程始於1993年。2006年,革命性的CUDA運算模型誕生,成為里程碑。2012年,AI首次接觸CUDA,標誌著AlexNet的出現。2016年,NVIDIA發明了DGX-1超級電腦,8個GPU實現170 teraflops運算能力。從2017年Transformer到2022年ChatGPT,這些技術點燃全球想像,彰顯AI非凡潛力。2023年,生成式AI嶄露頭角,開啟全新產業旅程。
資料中心正成為NVIDIA產生Token、浮點數的重要基地。就像工業革命時期的發電機創造了電力,NVIDIA如今正在AI工廠中用GPU生成極其有價值的新型電子Token。以AI為核心的新產業正在形成。
NVIDIA的靈魂在於電腦繪圖、物理、AI的交叉融合,這些在Omniverse模擬的虛擬世界中交會。今天所展示的內容皆為模擬而非動畫,它之所以美,源於其背後的物理學規律,就像真實的世界一樣。更神奇的是,這些動畫是由機器人、AI創作。觀眾將欣賞到前所未有的AI自製音樂會。
加速計算已到達臨界點,通用計算逐漸失去動力。加速計算在性價比上遠超通用計算,幾乎遍布所涉足的每個行業。它的影響不限於單一產業。各行業正在利用數位孿生技術,實現全流程數位化、高保真模擬。這意味著要大幅提升計算規模。合作夥伴正攜手NVIDIA,共同推動整個生態系統進入加速運算時代。
加速運算的另一大優點在於,當整個基礎設施與GPU耦合時,便可輕鬆實現AI生成能力。NVIDIA已與一些重要合作夥伴建立了深度關係。ANSYS、新思科技、Cadence這些頂級公司,正在利用NVIDIA GPU加速系統的巨大安裝基礎,為最終用戶、系統製造商、CSP創造巨大機遇與客戶需求。
Blackwell是NVIDIA推出的全新GPU平台,將涵蓋與Hopper相容的普通系統和與Grace CPU連接的專用系統。Blackwell提供了前所未有的算力,有望突破物理極限,為網路產業注入新動力。
在處理海量資料和複雜計算時,精確性和範圍至關重要。配備第五代NV Link的全新Transformer引擎速度驚人。在多GPU環境中,資訊同步與更新不可或缺。
新型超算的高速運轉離不開早期問題偵測與替換機制。同時,資料加密對價值數億美元的AI模型和程式碼至關重要。高速壓縮引擎可將資料高效導入匯出,速度提升20倍。Nvidia必須全力保留這些功能,因為這些超算的投資和能力都十分驚人。
全新的FP8格式讓記憶體可容納更多參數,大幅提升計算速度。生成式AI作為一種全新運算範式正在興起。NVLink交換晶片實現所有GPU同時全速通訊,彷彿成為一個巨無霸GPU。直接驅動銅技術的突破讓系統更經濟實惠。
訓練一個1.8兆參數的GPT模型,傳統方法可能需要8000個GPU、15MW電力,歷時90天。而Blackwell只需2000個GPU,功耗4MW。
NVIDIA GPU有一半時間運行在雲端,專注於生成Token,如Copilot、ChatGPT等。龐大的語言模型需要後台超算的支援。在眾多GPU中高效分配任務,CUDA及其豐富生態系統不可或缺。Blackwell驚人的推理能力是Hopper的30倍,有望成為未來生成式AI的核心引擎。這些AI工廠旨在產生智慧而非電力。AWS、GCP、Oracle、微軟紛紛為Blackwell做好準備。
數位孿生技術已在各行各業大放異彩。Wistron利用Omniverse SDK客製化軟體,將NVIDIA DGX和HGX工廠實現數位孿生,大幅縮短調試週期。NVIDIA也運用生成式AI預測天氣。CoreDev可透過超高解析度AI預測嚴重風暴,如颱風燦都。這項服務作為NVIDIA Earth 2的一部分,將惠及全球氣象機構。NVIDIA在醫療領域也碩果累累,涵蓋醫學影像、基因定序和計算化學等。
NVIDIA推出BioNeMo NIMS、NVIDIA推理微服務(NIMS)等新品,可在幾分鐘內產生候選分子。微服務包含三大支柱:AI模型、運行AI的工具;AI技術;基礎設施用於AI微調和部署,可在DGX雲等平台上實現。這類似於台積電代工晶片的模式,因此被稱為AI代工廠。
使用者可利用這些服務處理各類結構化和非結構化資料,編碼儲存於向量資料庫,成為企業專屬智慧。透過與智慧資料庫互動,可輕鬆取得所需資訊。NVIDIA AI Foundry正攜手SAP、ServiceNow等巨頭,幫助他們開發自有數據和工具,在聊天機器人中打造企業級Copilot。
要讓AI理解物理世界,需要AI計算機、監測分析計算機和執行任務的機器人三位一體。這就像語言模型,只不過我們要建構的是端到端的機器人系統。
透過強化學習,機器人可適應物理定律。Omniverse提供模擬環境,教導機器人如何成為機器人。OVX託管於Azure。未來的倉儲、工廠都將由軟體定義,機器人自主協同工作。數位孿生是機器人系統CICD的關鍵。西門子正建構工業元宇宙,日產已將Omniverse整合到工作流程。
所有移動設備都將是機器人,包括自動駕駛汽車。從電腦視覺到AI控制,還有很多工作要做。
最後,黃仁勳總結了5個重點:新工業革命、Blackwell平台、NIMS、NEMO和NVIDIA AI Foundry、Omniverse和ISAAC機器人。這些將重塑產業格局,開啟AI新紀元。
歡迎來到GTC。我希望你意識到這不是一場音樂會,你已到達開發者大會。這裡將會有許多科學描述,包括演算法、電腦體系結構、數學。
我突然感覺到房間裡有很重的重量,幾乎就像你來錯地方了。世界上沒有哪個會議,會有更多的研究人員聚集,他們來自如此不同的科學領域,包括氣候技術、無線電科學,他們試圖找出如何使用AI機器人控制MIMO下一代6G無線電、機器人、自動駕駛汽車,甚至人工智慧。即使是人工智慧,我也突然感覺到一種如釋重負的感覺。
此外,本次會議也有代表參加,他們來自一些令人驚嘆的公司。這份名單中,這些不是與會者,這些是主持人,令人驚訝的是這個。如果你帶走我所有的朋友,親密的朋友麥可戴爾就坐在那兒。在IT產業,所有和我一起在這個行業長大的朋友,如果你把那份名單拿走,這就是令人驚奇的事。
這些非IT產業的主講者使用加速運算來解決普通電腦無法解決的問題。它在生命科學、醫療保健、基因組學領域都有代表性。運輸當然是零售、物流、製造業、工業。所代表的行業範圍確實令人驚嘆。您來這裡不僅僅是為了參加,您來這裡是為了談論您的研究。今天這個房間裡有代表世界上100萬億美元的行業的代表,這絕對是驚人的。
絕對有事情發生,有事情發生。這個行業正在轉變,不僅僅是我們的行業,因為電腦產業,電腦是當今社會最重要的工具。計算領域的根本性變革影響著每個產業。但我們是如何開始的呢?我們是怎麼來到這裡的?
我為你做了一個小漫畫,從字面上看是我畫的,在一頁中這是NVIDIA的旅程。1993年開始,這可能是談話的其餘部分。1993年,這是我們的旅程,我們於1993年成立,一路上發生了幾件重要的事件。我想強調幾個關鍵的時間節點。首先是2006年,CUDA的誕生。事實證明,這是一種革命性的計算模型。當時,我們預見到它將引發一場革命,並在一夜之間嶄露頭角。如今,近20年過去了,我們看到了這項預言的實現。
然後是2012年,AlexNet的出現,標誌著人工智慧與CUDA的首次接觸。再後來是2016年,我們認識到這種計算模型的重要性,於是發明了一種全新類型的計算機,我們稱之為DGX-1。這台超級電腦具有170 teraflops的運算能力,8個GPU連接在一起。我親手將第一台DGX-1交付給了一家位於舊金山的新創公司,名為OpenAI。DGX-1是世界上第一台AI超級計算機,記住,它的計算能力達到了170 teraflops。
從2017年的Transformer到2022年的ChatGPT,這些技術激發了全世界的想像力,讓人們體認到人工智慧的重要性和能力。到了2023年,生成式人工智慧出現了,一個新的產業開始了。為什麼我說這是一個新的行業呢?因為這種軟體以前並不存在。我們現在正在用電腦編寫軟體,生產出以前從未存在過的軟體。這是一個全新的類別,它從無到有地佔據了市場份額。這是一個全新的類別,以及一種全新的製作軟體的方式,與我們以前做過的任何事情都不一樣。
在資料中心,我們產生Token,產生浮點數,規模非常大。這就像在最後一次工業革命中,當人們意識到可以建立工廠,對其施加能量,這種看不見的、有價值的東西,叫做電,就出現了交流發電機。100年後,200年後,我們現在正在創建新型電子Token,使用我們稱為工廠的基礎設施——人工智慧工廠來產生這種新的、極其有價值的東西。一個叫做人工智慧的新產業已經出現。
我們將討論這個新行業的許多事情,包括接下來如何進行計算,您因這個新行業而構建的軟體類型,新軟體,您會如何看待這個新軟體,以及這個新興行業的應用情況。然後,我們也許會探討接下來會發生什麼,我們今天如何開始為接下來的事情做準備。
在我開始之前,我想向您展示NVIDIA的靈魂。我們公司的靈魂位於電腦圖形、物理和人工智慧的交叉點。所有這些都在電腦內部交叉,在Omniverse虛擬世界模擬中。我們今天要向您展示的所有內容,都是模擬,而非動畫。它之所以美麗,是因為它是物理學。世界是美麗的。這太神奇了,因為它是用機器人製作的動畫,是用人工智慧製作的動畫。您一整天都會看到的東西,都是在Omniverse中完全模擬生成的。您將要享受的是世界上第一場音樂會,一切都是自製的。您將要觀看一些家庭視頻,所以請坐下來盡情享受。
我愛英偉達。加速計算已達到臨界點。通用運算已經失去動力。我們需要另一種計算方式,這樣我們就可以繼續擴展,這樣我們就可以繼續降低計算成本,這樣我們就可以繼續消耗越來越多的計算。我們正在追求的是永續性。加速計算已經在與通用計算的比較中展現出顯著的優勢。在我所參與的每一個行業中,我都有大量的案例可以向您展示。其影響力巨大,而且在任何行業中,它的重要性都超過了我們自己的行業。這些產業都在使用模擬工具來創造產品。這並不是為了降低計算成本,而是為了擴大計算規模。我們希望能夠進行模擬,我們所做的整個產品都是完全高保真、完全數位化的,這就是我們所說的數位孿生。我們希望設計它、建造它、模擬它、操作它,完全數位化。為了實現這一目標,我們需要加速整個產業的發展。今天,我想宣布,我們有一些合作夥伴正在加入我們的旅程,他們將加速他們的整個生態系統,以便我們可以將世界帶入加速運算的時代。
但是,加速運算還有一個好處。當你的運算速度加快時,你的基礎設施將與GPU耦合。當這種情況發生時,產生人工智慧的基礎設施將完全相同。因此,我很高興地宣布,我們已經與一些非常重要的合作夥伴建立了關係。ANSYS是世界上一些最重要的公司,他們對世界製造的產品進行工程模擬。我們正在與他們合作,加速ANSYS生態系統,將ANSYS連接到Omniverse數位孿生。令人驚訝的是,NVIDIA GPU加速系統的安裝基礎已經遍布世界各地、每個雲端、每個系統。因此,他們加速的應用程式將有一個巨大的安裝基礎可供服務。最終用戶將擁有令人驚嘆的應用程序,當然,系統製造商和CSP也會有巨大的客戶需求。
新思科技(Synopsys)是NVIDIA的第一個軟體合作夥伴,他們在我們公司成立的第一天就參與其中。新思科技透過高水準設計徹底改變了晶片產業。我們將採取行動來加速Synopsys的發展。我們正在加速計算光刻,這是一項鮮為人知但極為重要的應用。為了製作晶片,我們必須將光刻技術推向極限。NVIDIA創建了一個領域特定庫,這加速了計算光刻。令人難以置信的是,一旦我們能夠加速並由軟體定義台積電的全部,台積電今天宣布他們將使用NVIDIA Qlitho投入生產。一旦軟體定義並加速,下一步就是將生成式人工智慧應用於半導體製造的未來,進一步推動幾何學的發展。
Cadence建構了世界上重要的EDA和SDA工具。我們也在使用Cadence。這三家公司,Ansys、Synopsys、Cadence,我們基本上是在建構NVIDIA。我們共同致力於加速Cadence。他們還利用NVIDIA GPU建立超級計算機,以便為他們的客戶提供服務。這樣,他們就可以進行流體力學模擬,基本上是一百、一千倍的規模,即時風洞。Cadence Millennium內建NVIDIA GPU的超級電腦是一家建立超級電腦的軟體公司,我很高興看到這一點。我們正在一起建構Cadence Copilot。想像有一天,當Cadence可以成為Synopsys、Ansys等工具提供者時,將為您提供人工智慧Copilot。這樣我們就有成千上萬的Copilot助理幫我們設計晶片、設計系統。我們也將把Cadence數位孿生平台連接到Omniverse。
正如您在這裡看到的趨勢,我們正在加速世界上的CAE、EDA和SDA,以便我們能夠在數位孿生中創造我們的未來。我們將把它們全部連接到Omniverse,這是未來數位孿生的基本作業系統。受益於規模龐大的產業之一,你們都非常了解這個大型語言模型。基本上,自從Transformer被發明之後,我們能夠以令人難以置信的速度擴展大型語言模型,每六個月有效翻倍。
你可能會問,現在怎麼可能每六個月就會翻一番?我們已經發展了這個行業,到目前為止,我們已經增加了計算需求。原因很簡單。如果你將模型的大小加倍,你的大腦的大小就會加倍,你需要兩倍的資訊來填滿它。因此,每次將參數數量加倍時,您還必須適當增加訓練Token數量。這兩個數字的組合,成為你必須支援的計算規模。
最新、最先進的OpenAI模型,大約有1.8兆個參數。1.8 兆個參數,需要幾兆Token去訓練。所以,幾萬億個參數大約是幾萬億個Token,當你將它們兩者相乘時,大約30、40、500億,四萬億每秒浮點運算。現在我們只需要做一些CO數學就可以了。所以你有300億千萬億,一萬億就像善待動物組織(PETA)。因此,如果你有一個PETA flop GPU,你將需要300億秒來進行計算和訓練該模型,300億秒大約需要1,000年。
一千年,這很值得。我想早點做,但這是值得的。當大多數人告訴我做一件事要花多長時間時,我的答案通常是20年,這是值得的。但我們可以下週做嗎?等了1000年,我們需要的是更大的GPU。
我們需要更大的GPU,我們很早就意識到了這一點。我們意識到答案是將一大堆GPU放在一起,當然一路上創新一大堆東西,例如發明張量核心,推進NVLink,以便我們能夠創造出實質上巨大的東西。GPU並透過來自Mellanox InfiniBand公司的令人驚嘆的網路將它們連接在一起,以便我們可以創建這些巨型系統。
所以,DGX1是我們的第一個版本,但它不是最後一個版本,我們一直在建立超級電腦。2021年,我們有Selene,大約4,500個GPU。然後進入2023年,我們建造了世界上最大的人工智慧超級電腦之一,它剛剛上線,名為埃歐斯。
當我們正在建造這些東西時,我們正在努力幫助世界建造這些東西。為了幫助世界建構這些東西,我們必須先建造它們。我們製造晶片、系統、網路、執行此操作所需的所有軟體。你應該看到這些系統,想像一下寫一個在整個系統上運行並分散計算的軟體。
數千個GPU,但內部是數千個較小的GPU,數以百萬計的GPU,在所有這些之間分配工作並平衡工作負載,以便您可以獲得最大的能源效率,最佳的計算時間,降低您的成本等等。這種根本性創新,是什麼讓我們來到這裡。
我們到了,正如我們所看到的奇蹟,ChatGPT的出現,我們也意識到了,我們還有很長的路要走。我們需要更大的模型,我們將使用多模態資料來訓練它,而不僅僅是網路上的文本,我們將使用文字、圖像、圖形和圖表來訓練它。正如我們所學的那樣,將會有大量觀看視頻,以便這些模型。我們可以以物理學為基礎來理解,為什麼我們的手臂不能穿過牆壁。因此,這些模型具有常識。他們透過觀看世界上的大量影片和各種語言的結合來學習。當我們嘗試學習時,他們會像我們一樣使用合成資料生成等工具。我們可能會用我們的想像力來模擬它將如何結束,就像我在準備這個主題演講時所做的那樣,我一直在模擬它的過程。我希望事情會成功,我腦子裡也有這個想法。
當我正在模擬這個主題演講的結果時,有人確實提到了另一位表演者。她的表演完全是在跑步機上進行的,這樣她就能以飽滿的能量來完成任務。我沒有那樣做。如果我在大約10分鐘內聽到一點風聲,你就知道發生了什麼事。
那我們在哪裡?我們坐在這裡使用合成數據生成,我們將使用強化學習,我們將在我們的腦海中練習。我們將讓人工智慧與人工智慧一起工作,就像學生、老師和辯論者一樣互相訓練。所有這些都將增加我們模型的大小,這將增加我們擁有的資料量,並且我們將不得不建立更大的模型。GPU Hopper非常棒,但我們需要更大的GPU。
女士們、先生們,我想向您介紹一下,至極大的GPU,以大衛·Blackwell的名字命名。他是一位數學家,博弈論學家。我們認為這是一個完美的名字。Blackwell,女士們、先生們,你們會喜歡這個。Blackwell不是晶片,Blackwell是一個平台的名稱。人們認為我們製造GPU,我們確實這麼做了,但GPU的外觀已不再像以前那樣了。如果你願意的話,這是Blackwell系統的核心。公司內部不叫Blackwell,只是一個數字。
這是Blackwell,坐在旁邊的是當今世界上生產的最先進的GPU,這是Hopper。Hopper改變了世界,這是Blackwell。沒關係,Hopper,你很不錯。2080億個晶體管,所以你可以看到,我可以看到,兩個晶片之間有一條小線,這是第一次兩個晶片如此鄰接在一起,以這樣的方式,兩個骰子認為這是一個晶片。每秒10TB之間有10TB的數據,因此Blackwell晶片的兩側不知道它們在哪一側,沒有記憶體局部性問題,沒有快取問題。這只是一塊巨型晶片,所以當我們被告知Blackwell的野心超出了物理學的極限時,工程師說那又怎樣。這就是發生的事情,這就是Blackwell。
晶片及其進入兩種類型的系統:第一種。形狀適合,功能與Hopper兼容,所以你在Hopper上滑動,然後你推入Blackwell,這就是為什麼坡道的挑戰之一將如此高效。世界各地都有安裝Hopper,它們可能是你知道的相同的基礎設施,相同的設計。電源、電力、熱量、軟體相同,將其推回原處,所以這是目前HGX配置的Hopper版本,這就是第二個Hopper的樣子。現在這是一個原型板。
第二個問題是,隨著科技的發展,產品的價格會降低,這對所有消費者來說都是好消息。然而,目前的產品價格相當高,這是因為它是一種創新的啟動產品。
這款產品將以一種新的生產方式進入市場。它配備了兩個Blackwell晶片和四個Blackwell晶片,這些晶片都連接到Grace CPU。Grace CPU具有超快的晶片到晶片鏈接,這是一項令人驚奇的技術。這台計算機是同類產品中的第一台,能夠進行大量的計算。
這款產品的體積小巧,內存充足,所有的組件都能夠協同工作,就像一個幸福的大家庭一樣,共同開發應用程序,保證了產品的連貫性。你可能會看到這款產品的數位規格,包括大量的太字節,這是一項令人驚嘆的技術。
MV連結位於產品的頂部,而PCI Express位於底部。至於CPU晶片到晶片的鏈接,它可能在你的左邊,也可能在我的左邊,這取決於我們的位置。我們正在努力解決這個問題,但我認為這並不重要。
我們希望能夠插入更多的功能,這就是Grace Blackwell系統。但我們還有更多的計劃。所有的規格都很棒,但我們需要開發更多新功能,以突破物理的極限。
我們希望能夠持續提高效能,因此我們發明了第二代Transformer引擎。這款引擎具有動態和自動的能力,可以重新調整和重塑數字格式,即使精度較低,只要它能記住,人工智慧就是關於機率的。
你可能會看到一些數字,例如1.7乘以1.4等等,這些數字是否有意義,取決於數學的精確度和範圍。在處理資料的特定階段,保持精確度和範圍的能力是非常重要的。這不僅是因為我們設計了一個更小的鋁,它並不完全是世界,它並不那麼簡單。你必須弄清楚在整個計算過程中何時可以使用它。
我們有數千個GPU,它們可以連續運行數週,你希望確保訓練工作能夠收斂。因此,我們的新Transformer引擎配備了第五代MV連結。它的速度是Hopper的兩倍,這非常重要,因為它需要在網路中進行計算。
當你有這麼多不同的GPU一起工作時,我們必須彼此分享我們的訊息,我們必須彼此同步和更新。每隔一段時間,我們必須減少部分產品,然後重新廣播部分產品,其中一些部分產品回到其他人。所以有很多所謂的全部減少和全部到所有所有收集都是這的一部分同步和集體領域,這樣我們就可以讓GPU相互協作,具有非常快的鏈接,並且能夠在網絡中正確進行數學運算,使我們能夠從本質上放大甚至更進一步。
因此,即使它的速度是每秒1.8TB,它實際上也高於這個數字,所以可能性是Hopper的許多倍。超級電腦在In上運行數週的時間大約為零,原因是因為有太多組件同時工作。根據統計,它們連續工作的機率非常低,因此我們需要確保只要有一口井,我們就盡可能頻繁地檢查點並重新啟動。然而,如果我們有能力儘早檢測到晶片或筆記型電腦的問題,我們可以將其退役,甚至可能將其替換為另一個處理器。這種能力可以保持超級電腦的高利用率,特別是當你剛剛花了20億美元來建造它時,這是非常重要的。因此,我們在Ras引擎中加入了一個具有可靠性的引擎。
在我們的系統測試中,每一個閘的每一個記憶體位元都會進行百分百的自我檢測。這包括在Blackwell晶片上以及所有連接到的記憶體上。這幾乎就像我們為每個晶片配備了自己的高級測試儀一樣,我們用它來測試我們的晶片。這是我們第一次對它的安全人工智慧感到非常興奮。只有在今天的會議上,我們才為Ras引擎鼓掌。
顯然,保護你剛剛花了數億美元創建的人工智慧和程式碼是非常重要的。這個人工智慧的智慧被編碼在參數中。你需要確保一方面你不會失去它,另一方面它不會被污染。因此,我們現在有能力對資料進行加密,無論是在休息時,還是在運輸途中,甚至在計算時,它都是加密的。所以我們現在有能力加密和傳輸數據,當我們計算它時,它是在可信的環境中,最後一件事是解壓縮。
當計算速度如此之快時,將資料移入和移出這些節點變得非常重要。因此,我們安裝了高線速壓縮引擎,有效地將資料移入和移出這些電腦的速度提高了20倍。這些計算機非常強大,而且投資如此之大,我們最不想做的就是讓它們閒置。因此,所有這些功能都應該保留。
總的來說,與Hopper相比,對於每個晶片的訓練來說,它是fp8性能的兩倍半。它也有這種稱為fp6的新格式,因此即使計算速度是相同的,由於記憶體而放大的頻寬,你可以在記憶體中儲存的參數數量現在已放大。Fp4有效地使吞吐量加倍,這對於推理至關重要。
變得非常清楚的一件事是,每當你使用另一側帶有人工智慧的電腦時,無論是與聊天機器人聊天,提出問題,審查或製作圖像,都要記住後面是一個GPU生成token 。有些人稱之為推理,但更合適的是一代。
過去計算的方式是檢索,你會抓住你的手機,觸摸一些東西,一些信號基本上會消失,一封電子郵件會發送到某個存儲,某處有預先錄製的內容,有人寫了一個故事,有人製作了一張圖像,或者有人錄製了一個內容。影片. 然後,這些預先錄製的內容會流回手機並以基於推薦系統的方式重新組合,向你呈現資訊。
然而,未來你就知道了,絕大多數內容將不會被檢索。原因是因為這是由不了解上下文的人預先錄製的。這就是我們必須檢索這麼多內容的原因。如果你可以與一個人工智慧一起工作,它可以理解你是誰,你出於什麼原因獲取這些信息,並以你喜歡的方式為你生成信息。我們節省的能源量、我們節省的網路頻寬量、我們節省的時間浪費量,將是巨大的。
未來是生成式的,這就是我們稱之為生成式人工智慧的原因,這就是為什麼這是一個全新的產業,我們的運算方式根本不同。我們創建了一個處理器,面向生成人工智慧時代。它最重要的部分之一是內容Token生成,我們稱之為它,這種格式是fp4。這涉及到大量的計算。Token生成的能力是Hopper推理能力的五倍,看起來已經足夠了。但是,為什麼我們要止步於此呢?答案是,這還不夠。我將向您解釋原因。
我們希望有一個更大的GPU,甚至比現在的更大。我們決定擴展它,但在此之前,讓我告訴您我們在過去的八年裡是如何擴展我們的計算能力的。在這八年裡,我們的運算能力增加了一千倍。還記得摩爾定律的美好舊時光嗎?那時,我們的運算能力每五年增加十倍,每十年增加一百倍。在個人電腦革命的鼎盛時期,我們的運算能力每十年增加一百倍。然而,在過去的八年裡,我們的運算能力每十年增加了一千倍,而且我們還有兩年的時間。
我們推進計算的速度是驚人的,但仍然不夠快,所以我們建造了另一個晶片。這個晶片是一個令人難以置信的晶片,我們稱之為MV鏈結開關。它有五百億個晶體管,幾乎有Hopper大小。這個開關晶片本身有四個MV鏈接,每個鏈接每秒可以傳輸1.8TB的資料。正如我所提到的,它具有計算功能。
這個晶片的作用是什麼呢?如果我們製造這樣的晶片,我們可以讓每個GPU同時與其他每個GPU全速通訊。這聽起來似乎有些瘋狂,甚至沒有意義。但是,如果你能找到一種方法來實現這一點,並建立一個系統來實現這一點,那麼這將是非常划算的。如果我們可以透過一致的連結將所有這些GPU連接起來,使它們實際上就是一個巨大的GPU,那將是多麼令人難以置信啊。
為了使其具有成本效益,我們必須直接驅動銅,這是我們的偉大發明。這樣,我們就可以直接驅動到銅,結果是,您可以建立一個如下所示的系統。
現在,這個系統看起來有些瘋狂。這是一個DGX,這就是DGX現在的樣子。還記得六年前的樣子嗎?它相當重,但我能夠舉起它。我交付了第一個DGX,打開了AI的大門。研究人員,你知道這些照片是在網路上的。我們都親筆簽名了。如果你來我的辦公室,你會看到它有親筆簽名,那裡真的很漂亮。但你可以舉起這個DGX。
順便說一句,那個DGX的浮點運算能力是170兆次。如果您不熟悉編號系統,那是0.17兆次浮點運算。所以這是720。我交付給Open AI的第一個是0.17。你可以將其四捨五入到0.2,這不會有任何區別。到那時,就像哇,你知道了,30兆次浮點運算。目前,我們已經擁有了一台720 petaflops的機器,這幾乎等同於exaflops的訓練能力,它是世界上第一台在一個機架中達到1 exaflops的機器。如你所知,在我們的地球上,只有兩台能夠進行三百億次浮點運算的機器。這是一台Exaflops等級的人工智慧系統。
讓我們來看看這台機器的背面。這就是讓這台機器成為可能的關鍵部分,也就是DGX的背面。這裡有一個MV鏈路脊椎,每秒可以處理130 TB的資料。這個資料傳輸速度甚至超過了網路的總頻寬。因此,我們基本上可以在一秒鐘內將所有內容發送給每個人。
這台機器的背面有5000條電纜,這些中壓連接電纜總是達到了2英里。這是一項令人驚奇的技術,如果我們必須使用光學器件,我們將不得不使用收發器和重定時器,而僅這些收發器和重定時器就需要花費20,000瓦的電力。而我們只用了2千瓦的收發器就驅動了MV鏈路主幹。我們透過MV鏈路交換器完全免費完成此操作,因此我們能夠節省整個機架的20千瓦計算功率。120千瓦與20千瓦的差異是巨大的。
這台機器是液體冷卻的,溫度約為室溫攝氏25度。結果是,你的按摩浴缸的溫度會達到攝氏45度。所以,室溫的液體進入按摩浴缸後,每秒鐘會輸出2公升的液體。我們可以出售這些週邊設備。
有人曾經說過,你們知道你們製造GPU,我們也製造GPU。但這就是我們的GPU的樣子。對我來說,當有人說GPU時,我看到的就是這個。兩年前,當我看到GPU是HGX時,它重70磅,需要35,000個零件。而我們現在的GPU有60萬個零件,重3,000磅。這個重量有點像碳纖維的法拉利。我不知道這是否是一個有用的比較。
現在,讓我們看看這台DGX在運行中是什麼樣子。讓我們想像一下我們如何讓它發揮作用,這意味著什麼。如果你要訓練一個擁有1.8兆參數的GPT模型,你需要25,000安培的電力,這可能需要3到5個月的時間。如果我們用傳統的方式來做這件事,可能需要8,000個GPU並會消耗15兆瓦的電力,這需要90天,大約3個月的時間。
你知道這個突破性的人工智慧模型,這顯然不像任何人想像的那麼昂貴,但它需要8,000個GPU,這仍然是一筆巨大的投資。如果你要使用Blackwell來做這件事,只需要2,000個GPU。我們使用了2000個GPU,同樣在90天內完成了任務,但令人驚訝的是,功率僅為4兆瓦。是的,從15開始,這是正確的。我們的目標是不斷降低成本和能源消耗,因為它們與計算相關的成本和能源是正比關係。這樣,我們就可以繼續擴展並擴大我們必須進行的運算訓練,以培養下一代模型。這就是訓練的過程。
推理或生成過程也是至關重要的一步。你可能知道,NVIDIA GPU有一半的時間都在雲端運行,這些天它被用於Token生成。它們可能在運行Copilot,或在進行聊天,例如使用ChatGPT。當你使用這些模型時,它們正在與你互動或生成圖像、影片、蛋白質、化學物質等。所有這些都屬於我們稱為推理的計算類別,但推理過程非常困難。
對於大型語言模型,因為它們非常大,所以它們不適合一個GPU。這就像Excel不適合一個GPU,或者你在日常基礎上運行的某些應用程式不適合一台計算機,就像視頻遊戲不適合一台計算機一樣。事實上,過去很多次,超大規模運算的許多應用程式都安裝在同一台電腦上。現在突然之間,你正在與這個聊天機器人進行互動的推理應用程序,需要一台超級電腦在後台運行。這就是未來,未來是由這些聊天機器人產生的,這些聊天機器人有數萬億的Token和數萬億的參數,它們必須產生Token。
現在,從互動的角度來看,這意味著什麼?好吧,一個字通常由三個Token表示。你知道,“太空是最後的疆域”,這就像80個Token一樣。我不知道這對你是否有用,你知道,溝通的藝術就是選擇好的和好的類比。是的,這個過程並不順利。我不知道他在說什麼,我從未看過《星際爭霸戰》。所以我們在這裡嘗試產生這些Token,當你與它互動時,你希望這些Token盡可能快地回到你,這是你可以閱讀的最快速度。因此,產生Token的能力非常重要,你必須讓這個模型在許多GPU上運作,這樣你就可以實現幾件事。一方面,你想要吞吐量,因為吞吐量可以降低產生每個Token的整體成本,因此吞吐量決定了提供服務的成本。另一方面,你有互動率,它是每秒產生另一個Token,它與每個使用者有關,也與服務品質有關。所以,這兩個目標是互相競爭的。
我們必須找到一種方法,在所有這些不同的GPU上分配工作,並以能夠實現這兩個目標的方式進行操作。事實證明,搜尋空間是巨大的。你知道,我告訴過你這會牽涉到數學。每個人都會感到困擾。我剛才放那張幻燈片時,聽到了一些喘息聲。所以,這個圖表中的y軸表示資料中心的吞吐量,也就是每秒的Token數,x軸表示使用者的互動性,也就是每秒的Token數。請注意,右上角是最好的,你希望互動性非常高,你希望每個使用者每秒的Token數非常高,你希望每個資料中心的每秒Token數非常高。右上角非常棒,但是很難做到這一點。我們正在尋找最好的答案,跨越每一個交點xy座標。所有這些藍點都來自於一些重新分區。在優化軟體的過程中,我們必須明確是否使用張量並行、專家並行、管道並行或資料並行和分佈。這個巨大的模型需要在所有這些不同的GPU上運行並保持所需的性能。如果沒有NVIDIA GPU的可程式性,這個探索空間將是不可能的。因此,我們可以透過CUDA,利用我們豐富的生態系統,探索這個領域並發現新的可能性。
請注意那條綠色屋頂線,它實際上證明了一些重要的事實。TP2EPADP4代表兩個張量並行,跨兩個GPU的張量並行,跨8個GPU的專家並行,跨4個GPU的資料並行。在另一端,您會看到跨4個GPU的張量並行以及跨16個GPU的專家並行。這些都是軟體分佈的不同配置,它們在不同的執行環境中會產生不同的結果。你必須去發現那個屋頂線,這只是一個模型,這只是電腦的一種配置。想像一下,所有在世界各地創建的模型以及所有不同的系統的不同配置將可用。
現在您已經了解了基礎知識,讓我們來看看Blackwell的推理比較。Hopper,這是一件非凡的事。在一代人的時間裡,我們創建了一個專為萬億參數生成人工智慧而設計的系統。Blackwell的推理能力超乎尋常,事實上,它是Hopper的大約30倍。對於大型語言模型,例如ChatGPT和其他類似的大型語言模型,藍線代表我給你的Hopper。想像一下,我們沒有改變Hopper的架構,我們只是把它變成了一個更大的晶片。
我們只使用您所知道的最新最好的技術,我們將兩個晶片連接在一起,我們得到了這個巨大的2080億參數的晶片。如果沒有其他改變,我們會如何執行,結果非常美好。那是紫色線,但沒有那麼好。這就是fp4 Tensor核心、新Transformer引擎和非常重要的NV連結開關的地方。原因是因為所有這些GPU必須共享結果,每當他們互相溝通時,所有人都會聚集在一起。NV交換器的通訊速度幾乎快了10倍,比我們過去使用最快的網路所能做的要多。
Blackwell將成為未來生成人工智慧的一個令人驚嘆的系統。未來的資料中心將被視為我之前提到的人工智慧工廠。在這種情況下,人工智慧工廠的目標是產生智力,而不是發電。這是一種新的工業革命,是智慧的產生,所以這種能力是超級重要的。Blackwell的興奮真的很令人興奮。當我們第一次開始使用漏斗進入市場時,我們有兩個好處,兩個csp加入我們共進午餐,我們很高興。所以我們有兩個客戶,現在我們有更多。對Blackwell來說,這是令人難以置信的興奮。
還有一大堆不同的配置。當然,我向您展示了可滑入Hopper外形尺寸的配置,以便輕鬆升級。我向您展示了液體冷卻的範例,其極端版本是透過MV連接的整個機架連結672個GPU。我們計劃將Blackwell推向全球的人工智慧公司,其中許多公司正在以各種令人驚嘆的方式進行工作。每個雲端服務供應商(CSP)都已經做好準備,包括所有的原始設備製造商(OEM)和原始設計製造商(ODM)。無論是區域性的還是全球的,各地的雲端主權AI和電信公司都正在與Blackwell簽約,以推出這項服務。
Blackwell將是我們歷史上最成功的產品發布,因此我迫不及待地想看到這一切。我要感謝那些加入我們的合作夥伴。亞馬遜網路服務(AWS)正在為Blackwell做準備,他們將使用安全的AI來建立第一個圖形處理器(GPU),並正在建立一個222 exaflops的系統。當我們剛開始動畫數位雙胞胎時,你可能會看到所有的集群都在下降,但實際上並非如此。
我們正在建造的數位孿生就是藝術,除了基礎設施之外,它將會有多大。我們正在與AWS一起做很多事情,我們正在加速Sage製造商人工智慧,我們正在加速基岩人工智慧。亞馬遜機器人正在與我們合作,在Nvidia Omniverse和Isaac Sim AWS Health上使用Nvidia Health,因此AWS已經真正傾向於加速運算。
谷歌正在為Blackwell做準備,Google雲端平台(GCP)已經擁有100H 100T Force LForce的Nvidia Cuda GPUs,他們最近宣布了運行在所有方面的Jemma模型。我們正在努力優化和加速GCP的各個方面,我們正在加速資料處理,用於資料處理,他們的資料處理引擎Vertex AI和Mujoko與Google和GCP合作,跨越一系列舉措。
Oracle正在為Blackwell做準備,Oracle是我們的一個很好的合作夥伴,對於Nvidia DGX雲,我們也在共同努力加速對許多公司來說非常重要的事情,例如Oracle資料庫。
微軟正在為Blackwell做準備,微軟和Nvidia有廣泛的合作關係,我們正在加速Cuda加速各種服務。當你明顯地和AI聊天時,微軟Azure中的服務很可能是Nvidia在後面做推理和Token生成。我們建造了他們建造了最大的Nvidia Infiniband超級計算機,基本上是我們的數位孿生或我們的物理孿生。我們正在將Nvidia生態系統引入Azure Nvidia DGX雲端到Azure Nvidia Omniverse,現在託管在Azure Nvidia Health中關心Azure,所有這些都與微軟結構深度整合和深度連接。
整個行業都在為Blackwell做準備,這就是我要向您展示的最多的內容。到目前為止,您在Blackwell看到的場景是Blackwell的全保真設計,我們公司的所有東西都有數位孿生。事實上,這種數位孿生的想法正在真正傳播,它有助於幫助公司建立非常複雜的東西,完美地第一次,還有什麼比這更令人興奮的呢?
我們正在創建數位孿生,建構一台採用數位孿生建構的電腦。讓我向您展示Wishtron正在做什麼。為了滿足Nvidia加速計算Wishtron的需求,我們的領先製造合作夥伴之一正在使用由Omniverse SDKs和API開發的客製化軟體來建構Nvidia DGX和HGX工廠的數位孿生。對於他們最新的工廠,Wishtron從數位孿生開始,將他們的Multicad和流程類比資料虛擬整合到統一視圖中。在這個物理精確的數位環境中,經過測試和優化佈局,工人的效率提高了51%。在施工過程中,我們使用Omniverse數位孿生來驗證實體建造是否與數位化計畫相匹配,以便儘早發現任何差異。這有助於避免成本高昂的變更訂單。使用數位孿生的結果令人印象深刻,它幫助Wishtron工廠的上線時間縮短了一半,只需兩個半月而不是五個月。全方位數位孿生投入運行,幫助Wishtron快速測試新佈局以適應新流程,或改善現有空間中的操作,並使用生產線上每台機器的即時物聯網數據監控即時操作。
最終,Wishtron將端到端週期時間縮短了50%,缺陷率降低了40%。透過nvidia ai和Omniverse,nvidia的全球合作夥伴生態系統正在建構一個加速人工智慧數位化的新時代。這就是我們的方式,這就是未來的方式。當我們首先以數位方式製造所有東西,然後實際製造它時,人們問我這是如何開始的,是什麼讓我們如此興奮。
這就是那個時刻。這就是當你不排練時會發生的情況。這就是你所知道的,這是第一次接觸。在2012年,AlexNet,你把一隻貓的圖片放進這台電腦裡,結果出來了,上面寫著「貓」。我們驚嘆,這將改變一切。
你拿了一百萬個數字,跨越了RGB的三個通道。這些數字對任何人來說都毫無意義。你把它放入這個軟體中,它會壓縮它,它會在維度上減少它,它從一百萬維減少到向量,一個數字,三個字母。廣義來說,你可以養貓,成為不同的貓。你可以把它放在貓的前面和貓的後面。你看看你說的這件事,令人難以置信的是你指的是任何貓。是的,任何貓。它能夠識別所有這些貓。
我們意識到它是如何系統地做到這一點的。從結構上講,它是可擴展的。你能做多大,你想把它做多大。我們也是這樣想像的。這是一種全新的軟體編寫方式。正如你所知,今天,你可以讓你輸入單字“cat”,出來的是一隻貓。事情卻走向了另一條路。我對嗎?難以置信,這怎麼可能,是的,你怎麼可能拿了三個字母,你從中生成了一百萬個像素,這是有道理的。這就是奇蹟。
十年後,我們真的認識了文本,我們認識了圖像,我們認識了視頻和聲音,我們不僅認識了它們,而且還理解了它們的含義。我們理解文本的含義,這就是我可以和你聊天的原因。它可以為你總結,它理解文本。它理解的不僅僅是識別英語,它理解英語,它不只是識別像素,它理解像素,你甚至可以在兩種模式之間調節它,你可以擁有語言條件圖像,並產生各種有趣的東西。
好吧,如果你能理解這些事情,你還能理解什麼?你已經數位化了。我們從文字開始的原因,你知道圖像是因為我們將這些數位化了,但是我們還數位化了其他東西?事實證明我們數位化了很多東西,像是蛋白質、基因和腦電波。任何可以數位化的東西,只要它們的結構,我們就可以從中學習一些模式,如果我們可以從中學習模式,我們就可以理解它的意義,如果我們可以理解它的意義。我們也許有能力生成它。
因此,生成式人工智慧革命就在眼前。那麼,我們還能生成什麼?我們還能學到什麼?學習是我們的一項願望。我們是否對氣候有所了解?我們願意了解極端天氣,我們願意學習。那麼,我們該如何預測未來的天氣呢?如何在區域範圍內以足夠高的分辨率預測天氣,以便我們可以在傷害到來之前讓人們遠離傷害?
極端天氣造成了世界1500億美元的損失,這個數字肯定還要更高。這些損失並不均勻分佈,1500億美元主要集中在世界的某些地區。對於世界上的某些人來說,我們需要適應,我們需要知道即將發生什麼。因此,我們正在創造地球2,這是地球的數位孿生,用於預測天氣。
我們已經做出了一項非凡的發明,名為CoreDiv,它能夠使用生成式人工智慧以極高的分辨率預測天氣。隨著地球氣候變化,人工智慧天氣預報使我們能夠更準確地預測和追蹤2021年超級颱風「燦圖」等嚴重風暴,該風暴對台灣及週邊地區造成廣泛破壞。目前的人工智慧預測模型可以準確預測風暴的軌跡,但它們的解析度僅限於25公里,這可能會錯過重要細節。
NVIDIA的CoreDiv是一種革命性的新生成AI模型,經過高解析度雷達同化碼頭天氣預報和ERA-5再分析資料的訓練,使用CoreDiv,像Chanthu這樣的極端事件可以從25公里超解析度到2公里分辨率,其速度和能源效率是傳統天氣模型的3000倍。透過結合NVIDIA天氣預報模型ForecastNet的速度和準確性以及CoreDiv等生成式AI模型,我們可以探索數百甚至數千公里範圍的區域天氣預報,以提供清晰的圖片風暴的最佳、最壞和最有可能的影響。
這些豐富的資訊可以幫助最大限度地減少生命損失和財產損失。今天,CoreDiv針對台灣進行了最佳化,但很快,生成式超級採樣將作為NVIDIA Earth2推理服務的一部分提供給全球許多地區。氣象公司必須信任全球天氣預報的來源,我們正在共同努力加速他們的天氣模擬。
模擬的第一個原則基礎,但是,他們還將整合Earth2 CoreDiv,這樣他們就可以幫助企業和國家進行區域高解析度天氣預報。因此,如果您有一些天氣預報您想知道,喜歡做,聯繫我們到氣象公司,這真的是一項令人興奮的工作。
在英偉達醫療保健領域,我們15年前就開始做這件事,對此我們感到非常非常興奮,這是一個讓我們非常非常自豪的領域。無論是醫學影像、基因定序或計算化學,很可能NVIDIA就是背後的計算者。我們在這方面做了很多工作。
今天我們宣布,我們要做一些非常非常酷的事情。想像一下,所有這些正在使用的人工智慧模型來產生圖像和音頻,但不僅僅是圖像和音訊。因為它理解圖像和音頻,我們為基因、蛋白質和氨基酸所做的所有數位化,這種數位化能力就是現在透過機器學習讓我們理解生命的語言。理解生命語言的能力,當然,我們看到了它的第一個證據,那就是阿爾法折疊。這確實是一項了不起的成就。經過幾十年的艱苦努力,我們終於實現了世界的數位化。我們使用了各種不同的技術,如冷凍電子顯微鏡和X射線晶體學,進行重建。
在不到一年的時間裡,AlphaFold竭盡全力重建了200,000個蛋白質。至今,已經重建了2億個蛋白質,基本上包括了每一種被定序過的生物的每一種蛋白質。這是一場完全的革命。這些模型非常難以使用,對於人們來說極難建構。因此,我們的任務就是要建立這些模型,我們將為世界各地的研究人員建構它們。這不會是唯一的,我們還會創建許多其他模型。接下來,我將向您展示我們將如何使用這些模型。
新藥的虛擬篩選是一個計算上難以解決的問題。現有技術只能掃描數十億種化合物,並且需要在數千個標準計算節點上運行數天才能識別新的候選藥物。NVIDIA BioNemo NIMS啟用了新的生成篩選範例。透過使用NIMS進行蛋白質結構預測,透過MolNIM進行AlphaFold分子生成,並與DiffDock對接,我們現在可以在幾分鐘內生成和篩選候選分子。MolNIM可以連接到自訂應用程序,迭代地引導生成過程,優化所需的特性。
這些應用程式可以使用BioNemo微服務定義或從頭開始建立。在這裡,基於物理的模擬優化分子與目標蛋白結合的能力,同時優化其他有利的分子特性。MolNIM產生的高品質藥物樣藥物與標靶結合且可合成的分子,將轉化為更快開發成功藥物的更高可能性。
BioNemo正在啟用藥物發現的新範例,透過NIMS提供可組合的按需微服務,建構強大的藥物發現工作流程,如從頭蛋白質設計或用於虛擬篩選的引導分子生成。BioNemo NIMS正在幫助研究人員和開發人員重新發明計算藥物設計。NVIDIA MOLNIM、MolNIM、CoreDiff以及一大堆其他模型,包括電腦視覺模型、機器人模型,甚至一些非常優秀的開源語言模型,都是開創性的。
然而,對於企業來說,這些模型很難使用。如何使用它們?如何將它們引入您的公司並將其整合到您的工作流程中?如何打包並運行它?請記住,我剛才說過,這個推論是一個非凡的計算問題。您將如何對每個模型進行最佳化,並將運行該超級電腦所需的計算堆疊組合在一起,以便您可以在您的公司中運行這些模型?
因此,我們有一個好主意。我們將發明一種新方法,為您發明一種新方法,接收並操作軟體。這個軟體基本上是自帶,在數位盒子中我們稱之為容器。我們稱之為NVIDIA推理微服務,簡稱NIM。讓我向你解釋一下它是什麼。
NIM是一個預先訓練的模型,所以它非常聰明。它經過打包和優化,可在NVIDIA的安裝基礎上運行,該安裝基礎非常非常大,裡面的內容令人難以置信。您擁有所有這些經過預先訓練的最先進的開源模型。它們可以是開源的,也可以來自我們的合作夥伴之一,也可以由我們創建,例如NVIDIA Moment。它與它的所有依賴項一起打包,因此CUDA,正確的版本CUDNN,正確的版本TensorRT,LLM,分佈在多個GPU上。Trident推理伺服器是一個全面優化並打包的系統。其最佳化程度取決於您是否擁有單一GPU、多GPU或多節點GPU。此外,它也與易用的API相連。
那麼,什麼是AI API呢?AI API是一個接口,您只需與之交談即可。因此,這是未來的軟體,它有一個非常簡單的API,這個API被稱為人類。這些軟體包中的優秀軟體將被優化和打包。我們會將其放在網站上供您下載,您可以隨身攜帶,可以在任何雲端中運行它,也可以在自己的資料中心運行它。如果合適,您甚至可以在工作站中運行它。您只需造訪AI.NVIDIA.com,我們稱之為NVIDIA Inference Microservice,但在公司內部,我們都稱之為NIM。
想像一下,有一天,將會有這些聊天機器人之一,這些聊天機器人將位於NIM中。您將組裝一大堆聊天機器人,這就是未來軟體建構的方式。您不太可能從頭開始編寫它,或者編寫一大堆Python程式碼或類似的東西,您很可能會組建一個人工智慧團隊。可能會有一個超級人工智慧,它將接受您賦予它的任務並將其分解為執行計劃。部分執行計劃可以移交給另一個NIM。NIM可能會理解SAP,SAP的語言是ABAP,它可能理解ServiceNow,並從他們的平台檢索一些資訊。然後它可能會將結果交給另一個NIM,後者會對其進行一些計算,也許這是一個優化軟體,一個組合優化演算法,也許只是一些基本的計算器,也許這就是熊貓。對它進行一些數值分析,然後它會回傳答案。它會與其他人的結合起來,因為它已經被呈現出來,這就是正確的答案應該是什麼樣的,它知道生產的正確答案是什麼,並將其呈現給您。
我們每天都可以得到一份報告,這與構建計劃或一些預測或一些客戶警報或一些錯誤數據庫或其他任何東西有關,我們可以使用所有這些NIM來組裝它,因為這些NIM已打包並準備好在您的系統上工作,只要您的資料中心或雲端有視訊GPU,這些NIM將作為一個團隊一起工作並做出驚人的事情。因此,我們認為這是一個好主意,我們要去這麼做。
因此,NVIDIA在我們公司的各個角落都運行NIM。聊天機器人遍布各地,最重要的聊天機器人之一當然是晶片設計師聊天機器人。您可能不會驚訝我們非常關心構建晶片。所以我們想要建構聊天機器人人工智慧Copilot。這是我們工程師的共同設計師,所以這就是我們這樣做的方式,所以我們為自己設計了一輛Llama 2,這是一輛70b,你知道它封裝在NIM中,我們問它你知道什麼是CTL。事實證明,CTL是一個內部程序,它有一種內部專有語言,但它認為CTL是一種組合時序邏輯,因此它描述了您知道CTL的常規知識,但這對我們來說不是很有用。所以我們給了它一大堆新的例子。員工入職員工。
您問我是否知道,我感謝您的提問。這是一個誤解。然後我們向他們展示,這就是CTL,沒有問題。所以這就是NVIDIA的CTL,以及您可以看到的CTL。您知道,CTL代表計算追蹤庫,這讓您知道我們一直在追蹤計算週期。它寫了“程序真是太棒了”。
這樣,我們的晶片設計人員的生產力就可以提高。這就是您可以使用NIM做的第一件事。您可以使用它進行自訂。我們有一項名為NEMO微服務的服務,可以幫助您管理數據,準備數據,以便您可以在這個人工智慧上進行教學。您可以對它們進行微調,然後您可以對其進行防護,您可以評估答案,根據其他範例評估其性能,這就是所謂的NEMO。
現在出現的微服務是三個要素,我們正在做的事情的三個支柱。第一個支柱當然是發明技術。AI模型和運行AI模型,然後再為您打包。是創建工具來幫助您修改它,其次是擁有人工智慧技術,第二是幫助您修改它,第三是供您微調它的基礎設施。如果您喜歡部署它,您可以將其部署在我們稱為DGX雲端的基礎架構上,或者您可以使用它,將其部署在本地,您可以將其部署在任何您喜歡的地方。
一旦您開發了它,您就可以把它帶到任何地方。所以我們是一家有效的人工智慧代工廠。我們將為您和人工智慧產業所做的事情,就像台積電為我們製造晶片所做的那樣。因此,我們帶著我們的偉大想法去台積電,他們製造,我們隨身攜帶。所以這裡完全相同的事情,人工智慧鑄造廠和三大支柱是NEMS,NEMO微服務和DGX雲端。
您可以做的另一件事是教導NEM要做的就是了解您的專有資訊。請記住,在我們公司內部,我們的絕大多數資料並不在雲端中,而是在我們公司內部。您知道它一直坐在那裡,並且一直在使用。天哪,我們想要取得的資料基本上是NVIDIA的智慧。了解其含義,就像我們了解了我們剛剛談到的幾乎所有其他內容的含義一樣,然後將這些知識重新索引到一種稱為向量資料庫的新型資料庫中。
所以您本質上是採用結構化數據或非結構化數據,您了解它的含義,您編碼它的含義。所以現在這變成了一個人工智慧資料庫和那個人工智慧資料庫。將來,一旦您創建了它,您就可以與它交談。
讓我給您一個例子,說明您可以做什麼。假設您創建了您所得到的,您得到了一大堆多模態數據,其中一個很好的例子就是PDF。所以您將在所有的PDF中,將所有您最喜歡的您知道的東西都拿走。對您專有、對您公司至關重要的,您可以對其進行編碼。就像我們對貓的像素進行編碼一樣,它變成了貓這個詞。我們可以對您所有的PDF進行編碼,然後它就會變成。
現在儲存在向量資料庫內的向量將成為您公司的專有資訊。一旦您擁有該專有訊息,您就可以與它聊天。這是一個智慧資料庫,您只需與數據聊天,您知道這有多有趣。
對我們的軟體團隊來說,他們只是與錯誤聊天資料庫。您知道昨晚有多少錯誤,我們是否取得了任何進展。然後在您完成討論之後,Bug資料庫,您需要治療。所以我們為您準備了另一個聊天機器人。您是否在詢問我們的尼莫檢索器?這個工具的主要功能是快速檢索資訊。您只需對它發出指令,例如:“嘿,檢索我這個信息”,它就會立即為您找到並返回所需的資訊。這就是您想要了解的嗎?我們將其命名為Nemo檢索器。Nemo服務可以幫助您創建各種所需的工具。我們擁有各種不同的NIMS,甚至包括數位人類的NIMS。我是Rachel,您的人工智慧護理經理。
接下來,我要向您展示的是一個非常短的片段。我們有很多影片和演示想要向您展示,所以我只能剪短這個片段。這是戴安娜,她是個數位人類NIM。您只需與她交談,她就會在這種情況下,與希波克拉底人工智慧的醫療保健大型語言模型相連接,這確實令人驚嘆。她在醫療保健方面非常聰明。所以在你完成與我的軟體工程副總裁Dwight和Chatbot討論Bug資料庫之後,你可以過來與Diane交談。Diane是完全由人工智慧驅動的數位人類。
許多公司都希望能夠開發他們所擁有的金礦。企業IT產業就坐擁一座金礦,因為他們對此有深入的了解。他們擁有多年來創建的所有這些令人驚嘆的工具,以及大量的數據。如果他們能夠開發這個金礦並將其轉化為Copilot,這些Copilot可以幫助我們完成工作。
因此,世界上幾乎所有擁有人們使用的有價值工具的IT特許經營IT平台都坐在Copilot的金礦上。他們希望在自己的聊天機器人中建立自己的Copilot。因此,我們宣布NVIDIA AI Foundry正在與世界上一些偉大的公司合作。例如,SAP,它支撐了全球87%的全球商業,基本上世界都在SAP上運作。我們在SAP上運行。NVIDIA和SAP正在使用NVIDIA NEMO和DGX Cloud來建構SAP gem Co-pilots。
ServiceNow經營著85%的世界財富500強公司在ServiceNow上運行其人員和客戶服務業務。他們正在使用NVIDIA AI Foundry來建立ServiceNow輔助虛擬助理。Cohesity備份世界資料。他們坐擁數據金礦,擁有超過10,000家公司的數百艾位元組數據。NVIDIA AI Foundry正在與他們合作,幫助他們建立Gaia生成式AI代理。
Snowflake是一家在雲端儲存全球數位倉庫的公司,每天為10,000家企業客戶提供超過30億次查詢服務。Snowflake正在與NVIDIA AI Foundry合作打造Copilot。透過NVIDIA NEMO和NIMS,NetApp儲存了全球近一半的檔案。NVIDIA AI Foundry正在幫助他們使用NVIDIA NEMO和NIMS建立聊天機器人和Copilot,例如向量資料庫和檢索器。我們與戴爾有著良好的合作關係。我們正在建立聊天機器人和生成人工智慧。當你準備好運行它時,你將需要一個人工智慧工廠。沒有人比戴爾更擅長為企業建立大規模的端到端系統,因此,無論是個人還是公司,都需要建立人工智慧工廠。事實證明,邁克爾戴爾非常樂意接受您的訂單。女士們、先生們,麥可戴爾。
現在,我們來談談機器人和人工智慧的下一波浪潮,即機器人物理人工智慧。到目前為止,我們談論的所有人工智慧都是一台電腦。資料進入一台計算機,世界上許多的資料都以數位文字的形式存在。人工智慧模仿我們,透過閱讀大量的語言來預測下一個單詞,它正在模仿你透過研究所有的模式和所有其他前面的例子。當然,它必須理解上下文等等,但是一旦它理解了上下文,它就本質上是在模仿你。
我們獲取所有數據,將其放入像DGX這樣的系統中,將其壓縮為大型語言模型,數萬億個參數變成數十億個,數十億個Token變成數十億個參數,這些數十億個參數變成你的人工智慧。為了讓我們進入下一波人工智慧浪潮,讓人工智慧理解物理世界,我們將需要三台電腦。
第一台計算機仍然是同一台計算機,它是人工智能計算機,現在它將觀看視頻,也許它正在進行合成數據生成,也許有很多人類示例,就像我們有文本形式的人類示例一樣,我們將以清晰的形式提供人類的例子。人工智慧會監視我們,了解正在發生的事情,並嘗試將其適應上下文。而且因為它可以推廣這些基礎模型,也許這些機器人也可以在物理世界中相當普遍地執行。
我只是用非常簡單的術語描述了大語言模型中剛剛發生的事情,除了機器人的ChatGPT時刻可能即將到來。因此,我們建造機器人端到端系統已經有一段時間了,我對這項工作感到非常非常自豪,我們擁有人工智慧系統DGX。我們有較低的系統,稱為AGX對於自主系統,世界上第一個機器人處理器,當我們第一次建造這個東西時,人們在構建什麼它是一個SOC,它是一個晶片它被設計為非常低功耗但它是專為高速感測器處理和人工智慧而設計。
因此,如果您想在汽車中運行Transformer,或者您想在任何東西中運行Transformer,那麼,我們為您提供了完美的計算機,它被稱為Jetson。因此頂部的DGX用於訓練AI,Jetson是自主處理器,中間我們需要另一台電腦。而大型語言模型有好處。您提供範例,然後進行強化學習人類回饋。
什麼是機器人的強化學習人類回饋,這是強化學習物理回饋,這就是你如何調整機器人,這就是你的方式,這就是機器人在學習時知道這些關節能力和操縱能力,它將正確適應物理定律,所以我們需要一個模擬引擎。以數位方式代表世界對於機器人來說,讓機器人有一個健身房去學習如何成為一個機器人我們稱之為虛擬世界。Omniverse和運行Omniverse的電腦稱為OVX,OVX,電腦本身託管在Azure雲端。
所以基本上我們建構了這三個東西,這三個系統,在這三個系統之上,我們為每個系統都有演算法。現在我將向您展示人工智慧和全宇宙如何協同工作的一個超級範例,我將向您展示的範例有點瘋狂,但它將非常非常接近明天。這是一棟被稱為「倉庫」的機器人大樓。在這棟大樓內,將會有一些自治系統,其中一些將被稱為人類,有些則被稱為堆高機。這些自治系統將自動地相互交互,而倉庫將監控並調整它們的行為,以確保每個人都免受傷害。
倉庫的角色可以被比喻為空中交通管制員,每當有事情發生時,它將重定向交通並為機器人和人們提供新的路徑點,他們會確切地知道該怎麼做。這個倉庫,或者說這棟大樓,也具有溝通的能力。您可以與它進行對話,例如詢問SAP中心今天的感覺如何。
這個我剛剛描述的系統將有Omniverse雲,它託管在DGX雲上運行的虛擬模擬和人工智慧,所有這些都是即時運行的。重工業的未來始於數位孿生。人工智慧代理,它們幫助機器人、工人和基礎設施應對複雜工業空間中不可預測的事件,將首先在複雜的數位孿生中建造和評估。
這個100,000平方英尺的倉庫的Omniverse數位孿生作為一個模擬環境運行,集成了數位工人、運行NVIDIA Isaac受體堆疊的AMR整個倉庫的集中活動地圖,由100個模擬吸頂式攝影機繪製。使用NVIDIA Metropolis並透過NVIDIA進行AMR路線規劃合作軟體循環測試人工智慧代理在這個物理上精確的模擬環境中使我們能夠評估和完善系統如何適應現實世界的不可預測性。
在這裡,當一起事故沿著AMR計劃的路線發生時,其路徑被NVIDIA Metropolis更新,並將實時佔用地圖發送到合作社,在那裡計算出新的最佳路線。AMR能夠查看周圍的拐角處並透過產生人工智慧驅動的Metropolis Vision基礎模型提高其任務效率。操作員甚至可以使用自然語言提出問題。視覺模型可以理解細緻的活動,並可以提供即時見解以改善操作。
所有感測器數據均在模擬中創建,並傳遞給作為NVIDIA推理微服務或NEMS運行的即時AI。準備部署在實體孿生中,也就是真正的倉庫中,我們將Metropolis和Isaac NEMS連接到真實的感測器,能夠持續改進數位孿生和人工智慧模型。
未來的設施倉庫、工廠建築將由軟體定義,因此軟體正在運作。那麼,還有什麼其他方式您會測試軟體,以便測試軟體以建立倉庫、最佳化系統呢?在數位孿生中,所有機器人都在運行自己的自主機器人堆棧,因此在未來機器人系統的CICD中整合軟體的方式是使用數位孿生。
我們已經使全宇宙變得更容易訪問,我們將為簡單的Api和通道創建基本上全宇宙雲api,您可以將您的應用程式連接到它,這將是非常美麗的簡單。在未來全方位宇宙將成為現實,透過這些api,您將擁有我們也已經轉變的神奇數位孿生功能。
我們已經將全宇宙變成了人工智慧,並將其與使用我們語言的語言聊天的能力整合起來。人類和全宇宙是語言,事實證明是通用的場景描述。所以這種語言是相當複雜的,所以我們已經教了我們的全宇宙這種語言。所以你可以用英語對它說話,它會直接生成美元,它會用美元回复,但會用英語跟你說話。你也可以尋找這個世界上的信息,語義上而不是世界被語義編碼,現在在語言中,它在場景中被語義編碼。在某些特定的物件、條件或場景下,人工智慧可以幫助您找到相應的場景,並在生成過程中與您合作。您可以在3D環境中設計一些東西,模擬一些東西,或使用人工智慧在3D環境中產生一些東西。讓我們一起探討這一切將如何進行。
我們與西門子有著良好的合作關係。西門子是世界上最大的工業工程和營運平台。在工業領域,有許多不同的公司,其中太空重工業是其最偉大的最終前沿之一。現在,我們終於擁有了必要的技術,可以產生真正的影響。西門子正在建構工業元宇宙。今天,我們宣布,西門子將他們的皇冠寶石加速器連接到Nvidia Omniverse。讓我們一起來看看。
西門子的技術每天都在改變。對於每個人,團隊中心X的客戶每天都在使用來自西門子加速器平台的領先產品生命週期管理軟體來開發和交付產品。現在,我們正在透過整合Nvidia的技術,大規模地拉近真實世界和虛擬世界的距離,將AI和Omniverse技術引入團隊中心。
Omniverse APIs實現了資料互通性和基於物理的渲染。對於工業規模的設計和製造項目,我們的客戶HD和永續船舶製造的市場領導者正在建造氨和氫動力晶片,這些晶片通常包含超過700萬個分立零件。Omniverse APIs和團隊中心X使HD和其他公司能夠以互動方式統一和視覺化這些海量工程資料集,並整合生成式人工智慧以產生3D物件或HDRI背景,以便在上下文中查看其專案。
這樣的結果是一個超直觀的、基於照片真實物理的數位孿生,消除了浪費和錯誤,大大節省了成本和時間。我們正在建立這個系統,以便於協作,無論是跨越更多的西門子加速器工具,如西門子配件或Star CCM Plus,還是跨團隊致力於他們最喜歡的工作,同一場景中的設備在一起。這只是與Nvidia合作的開始,我們將在整個西門子加速器產品組合中引入加速器運算產生人工智慧和全方位整合。
我的好朋友,專業的配音員羅蘭布什,剛好是西門子的CEO。一旦你將Omniverse連接到你的工作流程和生態系統,從你的設計開始,從工程設計到製造規劃,一直到數位孿生運營,一旦你把一切連接在一起,你可以獲得多少生產力,這真是太瘋狂了。突然間,每個人都在同一個基本事實上運作,這真是太棒了。
你不必交換數據和轉換數據犯錯,每個人都在同一個事實上工作,從設計部門到美術部門,從建築部門一直到工程部門,甚至行銷部門。讓我們來看看Nissan是如何做到的,他們已經將Omniverse整合到他們的工作流程中,這都是因為它透過所有這些出色的工具以及與我們合作的開發人員連接起來。
這不是動畫,這是全宇宙。今天我們宣布全宇宙雲流至視覺專業人士。你在虛擬門周圍走動是非常非常奇怪的。當我從那輛車裡下來的時候,每個人都這樣做,這真的是非常驚人的。願景Pro連結到全宇宙,帶你進入全宇宙。
因為所有這些CAD工具和所有這些不同的設計工具現在都整合並連接到Omniverse,你可以擁有這種類型的工作流程,這真的令人難以置信。讓我們來談談機器人技術,所有移動的東西都將是機器人,毫無疑問,它更安全,更方便。汽車產業將成為最大的產業之一。我們正在從頭開始建立機器人堆疊,就像我在電腦系統中提到的那樣。對於自動駕駛汽車,包括今年年底的自動駕駛汽車應用,我預測明年年初我們將開始使用梅賽德斯發貨,緊隨其後的是捷豹路虎。
這些自主機器人系統是由軟體定義的,它們需要進行大量的工作,包括電腦視覺,人工智慧控制,以及規劃各種非常複雜的技術。這需要數年時間來完善,我們正在建立整個堆疊。
然而,我們將整個堆疊開放給所有汽車產業,這就是我們的工作方式。我們在每個行業都嘗試盡可能多地構建,以便我們理解它,然後我們將其開放給每個人,無論您是否願意購買我們的全球唯一的計算機,都可以訪問它。我們的全功能安全ACLD系統可以運作AI。這種功能安全的優質電腦或作業系統位於我們的資料中心之上。
基本上,不是所有的自動駕駛汽車公司都可以享受這一點,但如果您想享受,我們會很高興。今天我們宣布,世界上最大的電動車公司比亞迪正在採用我們的下一代產品,它被稱為雷神。雷神索爾是為Transformer雷神引擎而設計的,我們的下一代影音電腦將由比亞迪使用。
您可能不知道,我們擁有超過一百萬的機器人開發人員。我們創造了噴射機和這台我們感到非常自豪的機器人電腦。它之上的軟體數量是瘋狂的,但我們之所以能做到這一點,完全是因為它百分之百與CUDA相容。我們所做的一切,我們在公司所做的一切,不是為了我們的開發人員的服務,而是為了我們能夠維護這個豐富的生態系統,並使其與您從我們訪問的所有內容相容。我們可以將所有這些令人難以置信的功能帶到這台小小的電腦上,我們將Jetson稱為我們的機器人電腦。
我們今天也宣布了一個令人難以置信的高級新SDK,我們稱之為Isaac。Isaac感知器是今天大多數機器人的感知器,它們都是預先編程的,它們要么遵循地面數位軌道上的軌道,要么遵循四月的標籤。但在未來,它們將具有感知能力,你可以輕鬆地對其進行編程,你說我想要從A點到B點,它會找到一種導航方式。因此,只需對路點進行編程,整個路線就可以自適應整個環境。可以重新編程,正如我一開始就向您展示的那樣,在倉庫中,您無法通過預先編程的GV做到這一點,如果這些盒子掉下來,它們就會全部粘起來,然後就在那裡等待有人來清理它。所以現在有了Isaac感知器,我們擁有令人難以置信的最先進的視覺里程計,3D重建以及3D重建深度感知。
今天的機器人最常用的是機械手臂。製造手臂,它們還預先編程了電腦視覺演算法、人工智慧演算法、控制和路徑規劃演算法,這些演算法是幾何感知的,計算量非常大。我們已經使這些庫達到了加速,所以我們擁有世界上第一個加速運動規劃器,這是幾何感知的。你把它提出了一個新的計劃並圍繞它進行了闡述,它對3D物體的姿勢估計具有出色的感知能力。它不僅不是2D的姿勢,而是3D的姿勢,所以它必須想像周圍有什麼以及如何最好地抓住它,以便基金會擺出抓地力的姿勢。這種關節演算法現在可用,我們稱之為Isaac操縱器,它們也可以在視訊電腦上運行。我們正在進行一些真正偉大的工作,關於下一代機器人技術。下一代機器人技術可能是人形機器人。我們現在擁有必要的技術,正如我之前所描述的。想像一下所需的技術。廣義的人類機器人技術在某種程度上可能更容易,原因是我們有更多的機器人技術。
我們可以為機器人提供模仿訓練資料。因為我們是以非常相似的方式建構的,所以人類機器人很可能在我們的世界中更有用。我們創造了一個可以互通且能很好地工作的世界,我們建立工作站、製造和物流的方式是為人類設計的,因此這些人類或機器人的部署可能會更有效率。
我們正在創建整個堆棧,就像我們與其他人一樣。從頂部開始,從觀看影片「Human」中學習的基礎模型。範例可以是視訊形式,也可以是虛擬實境形式,然後我們為其創建了一個健身房,稱為艾薩克強化學習健身房。這使得人形機器人能夠學習如何適應物理世界,然後是一台令人難以置信的計算機,這台計算機將進入機器人汽車,這台計算機將在人類或機器人體內運行,稱為雷神,它是為Transformer引擎設計的。
我們將其中的幾個內容合併到一個影片中,您一定會喜歡看一下。這還不足以人類想像。我們必須發明、探索,並推動超越已完成的工作的相當多的細節。我們創造更聰明、更快的機器人。我們推動它失敗,所以它可以學習。我們教它然後幫助它自學。我們拓寬了它的理解,去迎接新的挑戰。具有絕對的精度,並且成功。我們讓它感知、移動,甚至還有理由,所以它可以與我們分享我們的世界。這就是靈感引領我們下一個前沿的地方。
這是NVIDIA計畫組,人形機器人學習的通用基礎模式。群組模型將多模式指令和過去的互動作為輸入,並產生機器人要執行的下一個動作。我們開發了Isaac實驗室,一個機器人學習應用程式來訓練Omniverse Isaac sim組。我們使用Osmo擴展了一種新的計算編排服務,該服務可以協調用於訓練的DGX系統和用於模擬的OVX系統之間的工作流程。
借助這些工具,我們可以在基於物理的模擬中訓練團隊,並將零射擊轉移到現實世界。團體模型將使機器人能夠從少量人類演示中學習,因此它可以幫助完成日常任務。透過觀察我們來模仿人類的運動。這是透過NVIDIA的技術實現的,這些技術可以從視頻中理解人類,訓練模型和模擬,並最終將它們直接部署到物理機器人上,將群組連接到大型語言模型,甚至允許它生成動作,通過遵循自然語言指令,你能給我一個高五嗎?讓我們高五。你能給我們一些很酷的動作嗎?看看這個。
所有這些令人難以置信的智慧均由全新Jetson Thor機器人晶片提供支持,專為面向未來的團隊而設計。透過Isaac lab, Osmo和Groot,我們正在為下一代人工智慧提供建置模組。動力機器人。大小差不多。
NVIDIA的靈魂。電腦圖形學物理人工智慧的交叉點。這一切都在此時產生了通用機器人專案的名稱。003。我知道超好。超好。我想我們有一些特別的客人。大家好,我知道你們都是由Jetson提供動力的,他們是由Jetsons提供動力的小Jetson機器人計算機,他們已經學會了模擬行走。這是橘色的,這是著名的綠色,他們是迪士尼的BDX機器人,這是迪士尼研究的成果。現在,讓我們結束吧,我們走吧。
我想和你們分享五件事。首先,我想問你,你要去哪裡?我就坐在這裡。別怕,綠色,你在說什麼?不,還沒到吃飯的時間。我一會兒就給你吃零食,讓我快點吃完。來吧,綠燈快點停下來。我們不能浪費時間。
最後,五件事。
首先是新工業革命。每個資料中心都應該加速價值萬億美元的已安裝資料中心。由於運算能力帶來了一種新的軟體製作方式,生成式人工智慧(Generative AI)已經出現,因此在未來幾年內將變得現代化。這將創造新的基礎設施,這些基礎設施致力於做一件事且僅做一件事,它們不適用於多用戶資料中心,而是人工智慧生成器。這些人工智慧生成器將創造出極為有價值的軟體。
第二,這次革命的計算機。這一代的計算機,萬億參數的生成式AI。Blackwell,瘋狂數量的運算能力。
第三, Nims。新電腦建立新類型的軟體。新型軟體應該以新的方式分發,以便它可以一方面成為雲端中的端點,易於使用,但仍然允許您隨身攜帶,因為它是您的智慧。你的智慧應該以一種允許你隨身攜帶的方式打包,我們稱之為NIMS。
第四,Nemo and Nvidia AI Foundary。這些NIMS將幫助你為未來創建一種新型的應用程序,而不是你完全從頭開始編寫的應用程序,但您將像Teams一樣整合它們。這些應用程式在NIMS、人工智慧技術、工具Nemo和基礎設施DGX雲端之間擁有出色的能力。在我們的AI工廠裡,幫助您創建專有應用程式、專有聊天機器人。
最後,Omniverse and ISAAC 機器人。未來移動的一切都將是機器人,您不會是唯一的一個和這些機器人系統。無論它們是人形機器人、自動駕駛汽車、堆高機或操縱手臂,他們都需要一件事:巨型體育場倉庫、那裡的工廠可以是工廠、機器人編排工廠、機器人生產線、製造機器人汽車。這些系統都需要一個東西,一個平台,一個數位平台,一個數位孿生平台,我們稱之為全宇宙,機器人世界的作業系統。
這就是我們今天要討論的五件事。
當我們談論GPU時,Nvidia是什麼樣子?當人們首先問我有關GPU的問題時,我看到的是一堆軟體堆疊和類似的東西,然後我看到的是這個,這就是我們今天向您宣布的,這是Blackwell,這是平台。令人驚嘆的處理器MV鏈路交換器網路系統和系統設計,這是一個奇蹟,這是Blackwell,這對我來說就是我心目中的GPU的樣子。
謝謝你們,祝福你們GTC2024愉快,謝謝大家的光臨,謝謝。(Web3天空之城)