輝達是今天生成式AI浪潮中最大的贏家,而黃仁勳要告訴世界,這一切跟運氣無關,是輝達預見並用實力創造了今天的一切。
6月2日晚,輝達創辦人和CEO黃仁勳在COMPUTEX開幕前發表了最新的主題演講,距離上一場在GTC上的重磅發布會僅僅三個月後,這場發布會依然乾貨滿滿,甚至驚喜不斷。
除了更有系統全面的梳理和展示了輝達在加速運算和生成式AI上的最新成果,黃仁勳還劇透了下一代GPU架構—
是的,「史上最強」的Blackwell剛公佈三個月,而且還沒開始量產出貨,下一代就已經在路上了。
黃仁勳表示,2025年輝達會推出Blackwell Ultra,而2026年下一代架構名字為Rubin,2027年繼續推出Rubin Ultra。
一年一款大更新,這節奏,已經趕上手機廠商的發布節奏。
而且,這些大更新會繼續把推理成本指數級的打下來。這張路線圖的劇透,就像是黃式定律在秀肌肉。
一切盡在掌握。你們儘管買輝達的卡就行了。
而在演講中,黃仁勳梳理輝達從GPU,到CUDA,到最新的NIM,再到機器人和數位孿生平台的一系列產品線的歷史時,明顯的改變了講述風格。
黃仁勳形容輝達早就看到了CPU的瓶頸,因而走了GPU和加速運算的路——過往提到輝達GPU產品線的誕生他還總是會謙虛,而業內也總是把GPU形容為碰巧適合人工智慧運算需求的晶片。但今天黃仁勳給的因果關係變了。
「CUDA是輝達和人工智慧的第一次親密接觸。而那之後我們深入理解深度學習的本質,有意識的重新發明了一切。改變了GPU架構,增加Tensor核,發明NV link,推出cuDNN,TensorRT, Nickel,收購Mellanox推出Triton等等。
而其中,CUDA被黃仁勳大夸特誇。 「如果沒有我們精心打造的打造的各類特定領域的庫,全球深度學習科學家們就無法充分利用潛力。CUDA就像OpenGL之於電腦圖形學,SQL之於數據分析。」他說。
「一個新的開發平台和擁有大量的開發者,這是個雞生蛋的問題。它很少被打破。而我們把它打破了。我們花了20年的時間,一個個的域庫,一個個加速庫的做,現在我們擁有500萬開發人員。 “CUDA已經到了一個臨界點,開始實現良性循環。”
黃仁勳在演講裡,乾脆不藏著掖著了,他把輝達定義為今天世界上生成式AI浪潮的來源。
「人工智慧崛起之所以有可能,完全因為我們相信只要讓強大的運算變得越來越便宜,總是會有人找到巨大的用途。」他說。 「正因為我們利用特定演算法將計算邊際成本降低了100萬級別,今天使用互聯網上的所有數據來訓練大模型才成為了所有人默認合乎邏輯的選擇,不再有人懷疑和質疑這個做法。”
而在輝達這麼做之前,“沒有人預料到,沒有人提出這樣的需求。甚至沒有人理解全部潛力。”
在這場演講裡,黃仁勳也不時會說幾句中文。他給了token一個翻譯:詞元。
“今天我們可以為任何有價值的事物生成它的token。就像特斯拉發明交流電機給我們不斷產生電子,輝達發明的是人工智能生成器,正在不斷產生token。”
一切都與token有關,而輝達製造和掌握了這一切。
以下為這場發表會的核心要點和全文實錄。
核心要點整理:
以下為全文實錄:
大家好!很高興再次來到這裡。今晚我將在此舉辦一場「Don't Walk」演講。因為我們要談的事情很多,時間緊迫,所以不能慢慢走,得用跑的。
今晚我將談論以下幾個方面:
目前的產業動態、我們正在共同努力的方向是什麼?
什麼是生成式AI、它對我們及各行各業的影響?
以及我們將如何掌握這個難得的機會。接下來會發生什麼事?
生成式AI及其影響、我們的藍圖、未來的展望。這些都是令人無比興奮的時刻。
1重新整理輝達的歷史:沒有輝達就沒有今天AI的一切
輝達目前正處於電腦圖形模擬的交叉點上,這是我們的靈魂所在。我今天展示的一切都是模擬,是數學,是科學,是電腦科學,是令人驚訝的電腦體系結構。所有內容都不是動畫製作的。這是輝達的靈魂,我們把所有東西都放在了這個我們稱之為「Omniverse」的虛擬世界中。
你所看到的一切都基於兩項基本技術:加速運算和人工智慧。這兩種技術將重塑電腦產業。電腦產業從誕生至今已有60年的歷史。從很多方面來看,我們今天所做的一切都源自於1964年,IBM System 360在那一年發明,引進了中央處理單元、通用運算,並透過作業系統實現了軟硬體分離。
多工處理、I/O、子系統、DMA,我們今天使用的各種技術、架構相容性、向後相容性以及我們今天所知道的關於計算的一切,主要是在1964年後誕生的。當然,PC革命使計算民主化,並將其掌握在每個人手中。 2007年,iPhone推出了行動運算功能,並將電腦放進了我們的口袋。從那時起,一切都透過行動雲端始終連接和運行。
在過去的60年裡,我們看到兩三個主要的技術轉變,兩三個計算領域的結構性轉變,一切都改變了。而這種情況即將再次發生。
第一個問題是處理器,電腦產業在中央處理單元上運行的引擎,其性能擴展已經大大放緩。
然而,我們需要的計算量仍然以指數級的速度翻倍。如果我們需要處理的數據繼續呈指數級增長,但性能卻沒有,我們將經歷計算膨脹。事實上,就在我們說話的時候,世界各地的資料中心電力數量正在大幅成長,電腦的成本也不斷增加。我們看到了計算通貨膨脹。
當然,這種情況無法持續,資料將繼續呈指數級增長,而CPU效能擴展永遠不會恢復。近二十年來,我們致力於加速運算,利用CUDA增強CPU,卸載並加速專用處理器可以做得更好的工作。現在很明顯,隨著CPU擴展速度的減緩並最終大幅停止,我們應該加速一切。
我預測,每個處理密集的應用程式都將加速,並且每個資料中心都將在不久的將來加速。現在,加速運算是非常明智的一件事。如果你看一下應用程序,這裡的100t意味著100個時間單位,它可能是100秒,也可能是100個小時。我們現在正在開發可以運行100天的人工智慧應用程式。 1t是需要順序處理的程式碼,其中單執行緒CPU非常重要。
作業系統控制邏輯對於一條指令接著另一條指令執行非常重要。然而,電腦圖形是一種可以完全並行操作的圖形。電腦圖形學、影像處理、物理模擬、組合最佳化、圖形處理、資料庫處理,當然還有非常著名的深度學習線性代數,有許多類型的演算法非常有助於透過平行處理加速。
因此,我們發明了一種架構來實現這一點,透過向CPU添加GPU ,讓專用處理器花費大量時間並將其加速到令人難以置信的速度。因為這兩個處理器可以並排工作,所以它們都是自主的,而且都是獨立的。也就是說,我們可以將過去需要100個單位時間的東西加速到一個單位時間。
嗯,速度提升聽起來難以置信,但今天我將為您展示許多例子。好處是非常非凡的,它速度提升100倍,但功率只增加了大約3倍,而你只增加了約50%的成本。我們在個人電腦產業一直在這樣做,我們增加了一個GPU,一個500美元的GeForce GPU,到1000美元的電腦,效能大大提高。我們在一個十億美元的資料中心裡這樣做,我們增加了價值5億美元的GPU,突然間它變成了一個AI工廠。
這在當今世界各地都在發生。嗯,節省的成本是非常非凡的,您每美元可以獲得60倍的性能,100倍的速度,加速,您只需要將功率增加3倍,100倍的速度,您只需要將成本增加1.5倍。節省的成本令人難以置信。很明顯,許多公司花費數億美元在雲端處理資料。如果它被加速,你可以節省數億美元,這並不出乎意料。
現在為什麼呢?原因很清楚。
我們在通用計算領域已經經歷了很長時間的通貨膨脹。現在我們終於決心加速,這可以幫助我們挽回巨大的損失。大量捕獲的廢棄數據現在可以將其從系統中釋放出來,這將轉化為儲蓄,儲蓄和金錢,儲蓄和能源。這就是為什麼你聽我說你買的越多,你說的就越多。你買的越多,就越安全。加速計算確實提供了非凡的結果,但這並不容易。
沒有所謂的軟體可以透過交流編譯器運行,然後突然之間該應用程式的運行速度提高了100倍。這甚至不符合邏輯。如果可以做到這一點,他們只需要更改CPU。要做到這一點,實際上你必須重寫軟體,以便您可以重構在CPU上編寫的演算法,以便它可以被加速、卸載、加速和並行運行。電腦科學練習非常困難,在過去的20年裡,我們已經讓它變得容易了。
當然,非常著名的cuDNN,即處理神經網路的深度學習庫,我們有一個人工智慧物理學庫,您可以將其用於流體動力學和許多其他應用,其中神經網路必須遵守物理定律。
我們有一個很棒的新項目,叫做Aerial,它是一個CUDA加速的5G無線電,這樣我們就可以用軟體定義和加速電信網絡,就像我們解決軟體定義世界網路互聯網一樣。因此,我們加速的能力使我們能夠將所有電信變成基本上相同類型的平台、運算平台事業部,就像我們在雲端一樣。
cuLitho是一個計算光刻平台,使我們能夠處理晶片製造中計算密集型的部分,使得台積電(TSMC)掩模使用cuLitho進行生產,節省了大量的能源和資金。但是台積電的目標是加速他們的堆疊,以便他們為演算法的進一步進步和更深入的網路和窄電晶體的更多計算做好準備。
這是我們的基因定序庫。它是世界上最高通量的基因定序庫。 cuOpt 是一個令人難以置信的函式庫,用於組合最佳化、路線規劃最佳化等問題。科學家已經得出結論,你需要一台量子電腦來做這件事,我們創建了一個運行在加速計算上的演算法,它運行得像閃電一樣快,創造了23項世界紀錄。我們今天保持著每項主要的世界紀錄。
cuQuantum是量子電腦的模擬系統。如果你想設計一台量子計算機,你需要一個模擬器來完成。如果你想設計量子演算法,你需要一個量子模擬器來實現。如果量子計算機不存在,你將如何設計這些量子計算機,創建這些量子演算法?你可以使用當今世界上最快的計算機,我們稱之為NVIDIA CUDA,並且在其上我們有一個模擬量子計算機的模擬器,它被世界各地的數十萬研究人員使用。它被整合到所有領先的量子計算框架中,並在世界各地的科學超級計算中心中使用,是一個令人難以置信的數據處理庫。
資料處理消耗了絕大多數的雲指出,而僅靠CUDA是不可能的,世界各地的深度學習科學家都無法使用,CUDA、TensorFlow和PyTorch中使用的演算法、深度學習演算法分離得太遠了。
這幾乎就像嘗試在沒有OpenGL的情況下進行電腦圖形處理一樣,就像在沒有SQL的情況下進行資料處理一樣。這些特定領域的庫真的是我們公司的財富。我們有350個庫,正是它們使我們能夠擁有如此開放的市場的原因。
今天我會給你看一些其他的例子。就在上周,谷歌宣布他們已經將cuDF放入雲端並加速Pandas。 Pandas是世界上最受歡迎的資料科學庫。在座的許多人可能已經在使用Pandas了。它被全球1000萬個資料科學家使用,每月下載1.7億次。 Excel是資料科學家的電子表格。只需點擊一下,您現在就可以在Colab中使用Pandas,這是Google的雲端資料中心平台,由cuDF加速。速度真的令人難以置信。那是個很棒的演示,對吧?
當您加快資料處理速度時,演示不需要很長時間。CUDA現在已經達到了人們所說的臨界點,但它甚至比這更好,CUDA現在已經達到了一個良性循環。如果你回顧歷史和所有的運算架構、運算平台,這種情況很少發生。
在微處理器CPU的情況下,它已經存在了60年。在這個水準上60年沒有改變。
加速運算已經出現,創建一個新的平台非常困難,因為這是一個先有雞還是先有蛋的問題。如果沒有開發人員使用您的平台,那麼當然就沒有用戶,但是如果沒有用戶,就沒有安裝基礎。如果沒有基於安裝的開發人員對它不感興趣。開發人員希望為大型安裝基礎編寫軟體,但大型安裝基礎需要大量應用程序,以便用戶可以創建該安裝基礎。
這個雞或蛋的問題很少被打破,現在已經花了我們20年的時間。一個個的域庫,一個個加速庫,現在我們在全球擁有500萬開發人員。我們服務於每一個產業,包括醫療保健、金融服務、電腦產業、汽車產業,以及世界上幾乎每一個主要產業,幾乎每一個科學領域。因為我們的建築物有很多客戶。 OEM和雲端服務供應商對建置我們的系統感興趣。
系統製造商對建立我們的系統感興趣,然後將更多的系統推向市場,這當然為我們創造了更大的機會,這使我們能夠增加我們的研發規模,從而進一步加快應用程式的速度。嗯,每一次我們加速應用程序,計算成本就會下降。
就像我在幻燈片裡演示的一樣,100倍加速比轉換為97%、96%、98%,因此當我們從100倍速度提高到200倍速度提高到1000倍速度時,計算的邊際成本節省將繼續下降。
當然,我們相信透過令人難以置信地降低計算成本,市場開發者、科學家、發明家將繼續發現新的演算法,這些演算法消耗越來越多的計算資源,這樣總有一天會發生面部表情的變化。計算的邊際成本如此之低,以至於出現了一種新的使用計算機的方式。
事實上,這就是我們多年來所看到的,在過去10年中,我們將特定演算法的邊際計算成本降低了一百萬倍。因此,現在使用網路上的所有資料來訓練大型語言模型是其實是非常合乎邏輯的一件事。沒有人會三思而後行,認為你可以創建一台能夠處理如此多數據的電腦來編寫自己的軟體。
人工智慧的出現之所以成為可能,是因為我們完全相信,如果我們讓運算變得越來越便宜,就會有人發現它有很大的用處。
好的,今天,CUDA已經實現了良性循環,安裝基礎正在成長,運算成本正在下降,這使得更多的開發人員提出更多的想法,從而推動更多的需求。
現在我們正處於一件非常重要的事情的開始。但在我公佈之前,我想先說下什麼是不可能的,如果不是因為我們創造了現代版本的通用AI,生成AI。那我們的新產品將不可能實現。
這是地球2號,我們將創建地球的數位孿生體,我們將前往模擬地球,以便我們可以預測地球的未來,幫助我們更好地避免災難或更好地了解氣候變遷的影響,讓我們可以更好地適應新環境,改變生活習慣。
這個地球的數位孿生體,可能是世界上有史以來最雄心勃勃的項目之一。我們每年都在向前邁出一大步。今年,我們取得了一些重大突破,舉例來說。
周一,風暴將再次向北並接近。它的路徑存在很大的不確定性,不同的路徑將對頂部產生不同程度的影響。想像一個我們能夠預測未來的世界──數位孿生,一個反映真實狀況的虛擬世界,讓我們看見未來。數位孿生是一種反映真實世界的虛擬模型,讓我們能夠從今天的行為來預測對未來世界的影響。
介紹一下NVIDIA Earth-2,一個利用AI物理模擬和電腦圖形技術來預測全球氣候的數位孿生。 FourCastNet是NVIDIA的生成式AI模型,它在WRF數值模擬的基礎上訓練而成,能夠以12倍更高的分辨率生成天氣模式,從25公里提高到2公里,這代表了區域天氣預測的一個巨大飛躍。
令人驚訝的是,FourCastNet比傳統的實體模擬方法快1000倍,且能源效率高3000倍。在氣象局,我們使用這些模型來更精確地預測颱風登陸點。
但我們不止步於此。
下一個前沿是超本地預測,能精確到數十米,並考慮到城市基礎設施的影響。 FourCastNet AI也正在使用像是PALM產生的高解析度資料進行訓練。一個極高解析度的物理模型用於模擬大氣和海洋邊界層。當與天氣模擬風場結合一起時,它可以模擬建築物周圍的氣流。當強風匯聚的情況,我們預期能夠預測下衝這樣的現象。當強風匯聚到街道上,有可能造成損壞並影響行人。
NVIDIA Earth-2是一個絕佳範例,它融合了人工智慧、物理模擬和觀測數據,可以幫助國家和公司預見未來並應對極端天氣的影響。
不久的將來,我們可以隨時隨地提出我們的氣象預報。我們可以隨時掌握當地的氣候變遷。而且它是連續性的預測,為什麼呢?因為我們已經把這個AI都訓練好了,而且它不需要消耗太多的電力。
希望大家喜歡剛才我們的這個例子,我的國語講得標準嗎?但這不是我說的,這個是Jason AI說的,我給他寫了這個台詞,由Jason AI也就是我的數位孿生體幫我做旁白的,所以我的國語不夠好,但我有孿生幫我做的旁白,這真的是個奇蹟。
之前在2012年,我們正致力於推進CUDA ,致力於不斷提高驅動器的性能並降低成本,此時研究人員發現了AI ,這是輝達與AI的第一次接觸。
這是一個非常重要的時間。我們與優秀科學家合作,使深度學習發生成為可能。當然,AlexNet實現了電腦視覺的巨大突破。但我們還需要了解背景是什麼,深度學習的基礎是什麼,它的長期影響是什麼,它的潛力是什麼?
我們意識到這項技術具有巨大的潛力,可以擴展幾十年前發明並發現的演算法。突然之間,我們需要更多的數據,更大的網絡,非常重要的是,更多的計算。突然間,深度學習能夠實現人類演算法現在無法想像的目標。如果我們進一步擴展架構,使用更大的網絡,更多的數據和更多的計算,會發生什麼?所以我們致力於重新發明一切。
在2012年後,我們改變了GPU的架構以添加Tensor Core,我們發明了10年前的NVLink,現在可以使用TensorRT。我們購買了Mellanox,TensorRT,以嘗試推理伺服器,所有這些都整合在一台全新的電腦上。
沒有人理解,事實上,我確信沒有人想買它,所以我們在GTC上和OpenAI介紹它,它當時還是舊金山的一家小公司,他們要求我給他們送一個。我在2016年向OpenAI交付了第一台DGX,世界上第一台AI超級電腦。
好的,在那之後,我們繼續從1台AI超級電腦、1台AI設備擴展到大型超級計算機,到2017年甚至有了Transformer,這樣我們就可以訓練大量數據並識別和學習在很長一段時間內順序排列的模式。現在我們可以訓練這些大型語言模型來理解並實現自然語言理解突破,之後我們繼續努力,建造了更大的模型。
然後在2020年10月22日,在一台非常大的AI超級電腦上訓練了數千、數萬個NVIDIA GPU。 OpenAI五天後宣布ChatGPT達到100萬用戶,五天後增加100萬用戶,兩個月後增加1億用戶,這是史上成長最快的應用程式。
這背後的原因非常簡單,它非常易於使用,使用起來非常神奇,能夠像人類一樣與計算機交互,而且清楚地知道你想要什麼,就像計算機理解你的意思。
ChatGPT還沒跟大家見面之前,所謂的人工智慧都是需要如何理解自然語言、電腦視覺、語音的辨識。換句話說是感知的能力,偵測的能力。
這是我們第一次看到有生成式的人工智慧系統出現,它可以產生我們所謂的詞元(token),一次產生一個詞元,而這些詞元就變成我們的文字。當然有些詞元它可能是影像,它可能是線圖,可能是表格、歌曲、演講、視訊、影片,有可能是任何形式,只要是有意義的,都算是,甚至包括蛋白質、化學分子等等。
你之前在NVIDIA Earth-2看到的,我們正在產生天氣的詞元。我們可以理解,我們可以學習物理。如果你能學習物理,你可以教一個AI模型物理知識。 AI模型可以學習物理學的意義,並且可以產生物理學。我們用的不是過濾的方法,我們用的是深層的人工智慧,讓我們的分辨率,氣候預報的分辨率不斷的提高。所以幾乎所有的事情都可以把它轉換成Token,Token是非常有價值的。
我們現在所處的不是AI時代,而是一個生成式AI時代。那它的重要性在哪裡呢?原本我們說這是一台超級電腦,可是它現在不斷的進化,它已經變成了資料中心。而且它生產的東西是什麼?就是資源。這就是一個人工智慧工廠。他們產生的是新形態的大宗商品,每個產業都用得到,具有無比的價值。而他更好的是,他這種方法是可以複製的,而且是可以擴展的。因此你們有沒有註意到,現在我們每天都有一些新的生成式的AI模型被打造出來。
價值3兆美元的IT產業,即將創造一些可以直接服務價值100兆美元的產業的東西,不再只是資訊儲存或資料處理的工具。而是一個為每個產業產生智慧的工廠。 AI 將帶來一個全新的製造業,不是電腦製造業,而是在製造業中使用電腦。
這是一場工業革命,而不僅僅是對我們產業的影響。我們可以為許多行業創造一種新的商品,一種我們稱為「詞元」(token)的新產品。
正如我之前所說,60年來,不同的運算方式都在改變。從CPU到通用目的的運算,到加速的GPU運算。以前電腦需要指令指令,現在它可以去處理大型語言模型、AI模型。
現在電腦處理大型語言模型、AI模型,而過去的計算模型是基於檢索的,幾乎每次你觸摸手機時,一些預先錄製的文本、預先錄製的圖像或預先錄製的視頻會為您檢索,並根據推薦系統重新合成,以根據您的習慣呈現給您。
但在未來,你的計算機將盡可能多地生成,只檢索必要的內容。原因是產生的數據需要較少的能量來獲取資訊。產生的數據也更具上下文相關性。它將對知識進行編碼,它將編碼你對你的理解,而不是為我獲取這些資訊或為我獲取那個文件。
在未來,你只需要問電腦,它就能提供你所需要的檔案和資訊。未來的電腦不再只是我們所使用的工具了。未來電腦它甚至能夠產生新的技能,它會幫你做一些工作。所以未來這個產業它不再只是去設計軟體,設計應用程式。
當你使用ChatGPT時,在它們的堆疊下面是一堆軟體,在提示符下面是軟體,這是非常複雜的,因為模型有數十億到萬億個參數。它不是只在一台電腦上運行,而是在多台電腦上運行。它必須將工作負載分佈在多個GPU上,張量並行,管道並行數據,各種並行,專家並行,各種並行,將工作負載分佈在多個GPU上,盡可能快地處理它。
當然,這在90年代是非常了不起的。大家別忘記當時微軟他們有這個套裝軟體,可以說是改變了整個電腦的產業。
因為如果沒有這些套裝軟體的話,我們幹嘛要電腦呢?我們電腦能拿來做什麼?
所以這些套裝軟體當然推動了整個產業。但是現在我們有新的工廠,新的電腦,我們現在也會有新的軟體,我們就把它叫做NIM,NVIDIA的推理即服務。這個NIM它是在工廠裡頭運行的,而這個NIM它是一個預先訓練的模型,它是一個AI。這個AI當然本身是非常的複雜,但是去運行這個AI的運算堆疊,它非常的複雜。
你去使用ChatGPT, 它底下有非常非常多軟體。你下一個指令,你下一個提示,背後其實有非常多的軟體正在跑。所以它不只是在一個參數上面跑,是數以萬計、數以億計的這個運算參數在跑。它需要做Tensor的各式各樣的並行、不同的平行等等平行運算。所以它有各式各樣的平行在走,它在不同的GPU上分配它的這個作業負載,它的速度也非常的快。
如果我們今天要經營工廠的話,你的這個產量是多少?跟你的服務品質,跟你的營收,跟有多少人可以使用你的服務有非常正向的關係。
我們現在的這個資料中心,它的傳輸量非常的大,所以傳輸量的使用率就很重要了。以前也很重要,但沒那麼重要。以前很重要,但是大家不會去測量它。現在每一個參數都必須要測量起始時間、使用時間、使用率、idle的時間等等。因為現在它就變成是一座工廠了。它一旦它變成工廠,它的一切的運作就會跟這家公司它的財務表現有很密切的關係。我們知道對大部分的公司來說,這都是非常複雜的事情。
所以我們就去把這個AI裝進了一個盒子裡頭,這些容器,這些container裡面有非常多很棒的軟體。
在這個容器裡頭有CUDA 、cuDNN、TensorRT Triton,它是推理即服務,它是在雲端上的一個堆疊。
除此之外它也有各式各樣的管理的服務,還有hooks可以去讓大家監督自己的AI,它有通用的API 、標準的API,所以基本上你就可以跟這個盒子來對話,你把這個推理就是服務下載,你可以跟他對話。所以你在只要你的電腦上有CUDA,基本上現在基本上每一組每每一朵雲上面都有,有數億台電腦上面都有。大家把它下載之後,你就有AI你可以跟他對話,就像你跟ChatGPT對話一樣。所有的軟體現在都整合在一起了,四百多個dependency都把它整合在一起。
我們測試了這些NIM,每一個都是預先訓練的,是他們都是可以安裝的。在各種雲端上面,不管是Pascal或是Ampere,各種不同的版本,Hopper也可以各式各樣不同的版本。我甚至會忘記有哪一些。所以NIM這個NVIDIA的推理即服務,真的是很棒的一個發明,我真的非常的喜歡。我想大家也知道,我們現在可以創造各式各樣的大型語言模型,還有預先訓練的模型。我們有各式各樣不同的版本,不管它是語言版本的,或者視覺,或者是圖片版本為主的,或者是說針對這個醫療保健產業的、數位生物產業的。
我們還有是所謂的數字人。甚至我們可以請大家去看一下,我們今天才貼了Hugging Face這個Llama 2 NIM,它是完全優化的,大家可以去試試看,甚至可以帶著走,那是免費的。所以大家可以在雲端上面來運行,然後可以下載這個容器放在自己的資料中心裡頭,你可以放在自己的資料中心提供給你的客戶使用。
使用它的方式是將這些微服務連接到大型應用程式。當然,未來最重要的應用之一是客戶服務代理。幾乎每個行業都需要客戶服務代理。它代表著全球數萬億美元的客戶服務。護士在某些方面是客戶服務代理,其中一些是非處方或非診斷性質的。
現在可以透過語言模型和AI增強數千萬的客戶服務,所以你看到的基本上是NIM,其中一些NIM是給定任務的推理代理,找出任務是什麼,將其分解成一個計劃。一些NIM檢索訊息,一些NIM可能會去搜索,可能一些NIM會使用我之前提到的cuDF工具,他們可以使用一種可以在SAP上運行的工具,因此它必須學習一種名為ABAP的特定語言。也許有些NIM必須進行SQL查詢。
因此,所有這些NIM都是現在組成一個團隊的專家。應用層已經發生了變化,曾經用指令編寫的應用程式現在變成了組裝團隊的應用程序,很少有人知道如何編寫程式。幾乎每個人都知道如何分解問題並組建團隊。
我相信未來的每家公司都將擁有大量的NIM團隊,你可以帶下你想要的專家,將他們連接成一個團隊,你甚至不需要弄清楚如何連接他們,你只需將任務交給代理人。給一個名字,以找出誰來分解任務以及將任務交給誰。然後,應用程式的領導者,如果你願意,團隊的領導者會分解任務並將其交給各個團隊成員,團隊成員將執行他們的任務,並將其帶回團隊領導者。
團隊領導會對此進行推理,並向您回饋訊息,就像人類一樣。在不久的將來,這就是應用程式的外觀。現在我們可以透過文字提示和語音提示與這些大型AI服務進行交互,但是,在許多應用程式中,我們希望與其他類似人類的形式進行交互。我們稱它們為數位人類。輝達研究數位人類技術已經有一段時間了。
數位人類有潛力成為一個偉大的互動代理,與你互動,他們可以讓你更有吸引力,更有同理心。當然,我們必須跨越這個令人難以置信的鴻溝,這個不可思議的現實主義鴻溝,這樣數位人類就會顯得更加自然。這當然是我們的願景,這是我們喜歡去的地方的願景,但讓我向您展示我們現在的位置。
想像一下,未來的電腦可以像人類一樣與我們互動。這就是數位人類令人難以置信的潛力。數位人類將徹底改變從客戶服務到廣告和遊戲的各個行業。
利用手機掃描廚房,AI室內設計師就能產生照片級逼真的設計建議,並購買材料和家具。我們已經為您產生了幾種設計方案。數位人類還可以成為AI客戶服務代理,提供更具吸引力的互動體驗,或化身為數位醫療保健工作者,提供及時、個人化的照護。他們甚至可以成為AI品牌大使,引領行銷和廣告的新潮流。
生成式人工智慧和電腦圖形學的新突破,讓數位人類以人類的方式看、聽、理解和與我們互動。從我看到的,您似乎正在進行某種錄音或製作。數位人類的基礎是基於多語言語音辨識和合成的人工智慧模型,以及能夠理解和產生對話的人工智慧模型。
AI連接到另一個生成式AI,動態製作逼真的3D臉部網格動畫。最後,能夠重現逼真外觀的人工智慧模型實現了即時路徑追蹤和次表面散射,模擬光線穿透皮膚、散射並在不同點離開的方式,使皮膚呈現出柔軟和半透明的外觀。
NVIDIA Ace是一套數位人類技術,包裝成易於部署、完全優化的微服務或「Nim」。開發人員可以將Ace Nim整合到他們現有的框架、引擎和數位人類經驗中。 NIM Tron SLM和LM Nim可以理解我們的意圖並協調其他模型。 Riva語音Nim用於互動式語音和翻譯;音訊到臉部和身體動畫的臉部和手勢Nim;以及Omniverse RTX與DLSS用於皮膚和頭髮的神經渲染。 Nim運作在NVIDIA GDM之上,這是一個全球性的NVIDIA加速基礎設施網絡,為100多個地區提供低延遲的數位人類處理。
我們一直在研發AI GPU,為這一天做好準備。原因很簡單,我們一直都知道,要創建一個新的運算平台事業部,首先需要一個已安裝的基礎。最終,應用程式會隨之而來。如果你不創建已安裝的基礎,應用程式從何而來?因此,如果你建造它,它們可能會來,但如果你不建造它,它們一定不會來。因此,我們安裝了每個具有張量核心處理的RTX GPU。現在,我們在全球擁有1億個GeForce RTX AIPC。
在這次發表會上,我們展示了4款令人驚嘆的新筆記型電腦。它們都能夠運行AI。你未來的筆記型電腦,你未來的電腦都會融入AI。它會不斷地幫助你,在後台協助你。 PC還將運行由AI增強的應用程式。當然,你所有的照片編輯、寫作和工具,以及你使用的所有東西都將透過AI得到增強。你的電腦也將託管具有數位人類的應用程式。
AI將以不同的方式在個人電腦上呈現和使用,但個人電腦將成為一個非常重要的AI平台。那我們從這裡走向哪裡呢?我之前談到了我們資料中心的擴展。每一次擴展,當我們從DGX擴展到大型AI超級電腦時,我們發現了一個新的拐點,我們讓Transformer能夠在非常大的資料集上進行訓練。
嗯,一開始發生的事情是,數據是由人類監督的。需要人工標記來訓練人工智慧系統。不幸的是,人類標籤的數量是有限的。 Transformers讓無監督學習成為可能。現在,Transformers只需查看大量數據或查看大量視頻,或查看更大量的圖像,它們可以從研究大量數據中學習,找到模式和關係本身。
雖然下一代AI需要基於物理,但今天大多數AI都不理解物理定律。它不是植根於物理世界,無法產生圖像、視訊、3D圖形和許多物理現象。我們需要基於物理學並理解物理定律的AI。當然,從影片中學習是一個來源。另一種方式是合成數據、模擬數據,另一種方式是使用電腦相互學習。這與使用AlphaGo沒有什麼不同,讓AlphaGo自己玩自己的遊戲,在這兩種能力之間,將相同的能力相互玩很長一段時間,它們變得更加聰明。
你開始看到這種類型的AI崛起,如果任何數據都是合成生成並使用強化學習,那麼數據生成速度將繼續提高是合理的。每一次資料產生的成長,我們所提供的計算量也需要隨之成長。我們即將進入一個階段,在這裡,AI可以學習物理和理解定律,並以物理世界的數據為基礎,因此我們預計模型將繼續成長,我們需要更大的GPU。 Blackwell就是為這一代設計的。
這是Blackwell,擁有幾項非常重要的技術。當然,這只是晶片的大小。我們拿了兩個最大的晶片,一個是TSMC所能做到的最大的晶片,我們將其中兩個連接在一起,每個第二個環節10TB,將世界上最先進的GPU連接在一起。將這兩個連接在一起,然後我們將其中兩個放在一個電腦節點上,用一個Grace CPU連接它。
在訓練情況下,Grace CPU可以用於幾件事。它可以使用,它可以用於快速檢查點和在推理和生成的情況下重新啟動。它可以用於儲存上下文記憶,以便AI具有記憶並理解我們想要的對話的上下文。這是我們的第二代Transformer引擎。 Transformer引擎讓我們可以根據該計算層所需的精度和範圍動態適應較低的精度。這是我們的第二代GPU,具有安全的AI,因此您可以要求服務提供者保護您的AI免遭竊取、盜竊或篡改。這是我們的第五代NVLink。
NVLink允許我們將多個GPU連接在一起。這也是我們第一代具有可靠性和可用性引擎的產品。這個RAS系統,讓我們可以測試每一個電晶體片上記憶體觸發器、片外記憶體,這樣我們就可以在現場確定某個晶片是否沒有MTBF 。同時,一台擁有10000個GPU的超級電腦發生故障之間的間隔是以小時為單位測量的。超級電腦故障之間的時間間隔是100000個GPU的間隔。它以分鐘為單位測量。
如果我們不發明技術來增強其可靠性,超級電腦能夠長期運行並訓練可能持續數月的模型的能力實際上是不可能的。可靠性當然會增加正常運作時間,直接影響成本。最後,減壓。引擎資料處理是我們必須做的最重要的事情之一。我們添加了資料壓縮引擎解壓縮引擎,以便我們可以以比今天更快的速度20倍的速度從儲存中提取資料。
所有這些都代表了Blackwell。我們在GTC期間展示了Blackwell的原型。這是世界上有史以來最複雜、最高效能的電腦。這是灰色的CPU。這些是Blackwell模具,其中兩個連接在一起。
這是世界上最大的晶片。我們用10TB/s的NVLink將兩個GPU連接在一起。這使得Blackwell電腦的效能令人難以置信。我們在八年內將運算量和人工智慧模型規模提高了一千倍。我們透過運算能力的提升降低了能耗。用於訓練GPT-4的2兆參數、8兆token,耗能下降了350倍。以前用Pascal架構需要1000吉瓦時,這意味著需要一個千兆瓦的資料中心。世界上沒有千兆瓦的資料中心,即使有,訓練也需要一個月的時間。
這就是為什麼只有在八年前,我們透過不斷提高效能和能源效率來實現ChatGPT這樣的大型語言模型。如果一台超級電腦有1萬個GPU,平均無故障時間是1萬小時。但現在是用分鐘來衡量的,所以一台超級電腦要能夠運作很長一段時間,才能長期訓練一個模型。這就要求我們的技術非常可靠,不能中斷運作。持續運作需要花費很多時間和金錢。所以我們加入了資料壓縮和解壓縮引擎,讓資料存取速度提高20倍。
這就是Blackwell,我們這裡有一個已經在生產中的Blackwell。在GTC,我給大家看了Blackwell的原型。這就是我們正式生產的Blackwell,裡面有最尖端的技術。這是我們實際生產的版本,可以說是功能和性能最強大的晶片。這是我們的CPU。每個裸晶包含兩個GPU,這可以說是世界上我們可以生產出來的最大的晶片。它兩個串連起來的時候,連線的速度是10TB/s。 Blackwell電腦的效能非常強大。
這是一個DGX Blackwell,氣冷式,裡面有八個這樣的GPU。看看這些GPU上的散熱片大小。大約15千瓦,完全氣冷式。這個版本支援x86,並且進入了我們一直在運輸的Hopper基礎設施。但是,如果您想要液體冷卻,我們有一個新系統。這個新系統是基於模組化的MGX。這是兩個Blackwell板。所以這個節點有四個Blackwell晶片,這是一個兩層的系統。九個這樣的節點加在一起,總共有72個GPU,用新的NVLink連結在一起。這是我們的NVLink交換器,也是我們第五代NVLink產品。
NVLink交換器可以說是科技上的奇蹟,它的資料傳輸速率真的太快了。
如果把所有Blackwell晶片串聯在一起,就可以有一個72個GPU的Blackwell系統。這樣做的好處是,在每個GPU的領域中,看起來就像是GPU,但實際上有72個。與上一代相比,數量是9倍,頻寬是18倍,浮點運算能力是45倍,但耗電量只有10倍。這是一個100千瓦的系統,之前是10千瓦。當然你可以把更多的晶片串連在一起。
為什麼說NVLink晶片是一個科技上的奇蹟呢?
因為NVLink把所有晶片串在一起,大型語言模型不能只有一個節點,不能只有一個GPU。我們必須把整個機架裡頭所有的GPU全部都連在一起,這樣才能有一個可以處理十兆參數以上的大型語言模型。它有500億個晶體管,72個端口,4個NVLink,每秒速度是1.8TB。
這就是我們現在的DGX。很多人都在問我們,NVIDIA到底是做什麼的,為什麼單憑GPU就能變得這麼大?這就是GPU,這可以說是世界上最先進的GPU,不過這是打電話用的GPU。我旁邊的這個也是GPU,各位女士,各位先生,這就是我們的DGX,GPU跟過去已經截然不同了。
這個GPU的後面就是NVLink所組成的背板。這個背板當中有5000條線,加起來有兩英里這麼長。這就是我們所謂的NVLink背板,可以連接72個GPU。把70個GPU連接在一起,這可以說是電機學上面的奇蹟。它透過銅線讓NVLink交換器,透過背板當中的銅線,讓我們一個機架可以節省20千瓦。我們可以把節省下來的20千瓦用來進行資料處理,這就是NVLink背板。
我們要打造AI工廠,所以我們必須要有更高速的網路技術。我們有兩種InfiniBand。第一種InfiniBand用在AI工廠和超級電腦當中,而且它成長的速度非常的快。可是並不是每個資料中心都可以用InfiniBand,因為他們以前已經採用了以太網路了。實際上,管理InfiniBand是需要一些特別的技術。因此我們就把InfiniBand的一些功能,放到以太網路的架構當中。這其實非常的困難,為什麼呢?
道理很簡單。以太網路當初設計的時候,它是針對平均傳輸量比較高的系統。每個電腦、每個節點都是連結到一個不同的人,大部分是資料中心跟另外一端的人在進行溝通。可是AI工廠當中的深度學習系統GPU並不是跟人來做溝通。 GPU是他們彼此之間在做溝通,因為他們在收集數據,也就是把產品的部分數據收集起來,然後進行縮減,然後再重新的來進行分配。所以重點不是平均的傳輸量,而是最後一個接收到訊息的那個GPU。
因為你是從每個人那邊去收集一些資料,看誰的速度最慢。這個系統的速度就決定於哪一個人給資料的時候速度最慢。那個人就決定了這樣的一個速度。過去以太網路是辦不到的,所以我們必須要有端到端的架構。這當中有四種不同的技術。 NVIDIA有全世界最先進的NVLink和RDMA。
RDMA是專門針對以太網路所做的設計。除此之外,我們還有擁塞控制系統,它很快的在處理這些參數的數值。每次假如有任何GPU送出太多的資料,我們就叫他們慢一點,這樣才不會產生瓶頸。第三個就是自適應路由,以太網路必須要傳送和接收資料的時候,必須要依序來。假如我們看到有任何端口沒有使用,或者是有塞車的情形,我們就把這個信息送到沒有使用的端口,這樣我們就可以把工作的順序重新安排好。
還有一個很重要,就是流量隔離。因為我們在訓練的模組不只一個,所以資料中心裡頭一定都會有一些其他流量。一旦進入我們的工作流程當中,就會產生噪音。這樣就會影響資料傳遞的速度,就會使訓練的速度變慢。我們已經打造了一個50億或30億美金造價的資料中心來做訓練。假如網路的利用率降低40%,訓練時間延長了20%,那麼50億美元的資料中心其實花了60億美元。因此成本影響相當大。
使用Spectrum-X乙太網路基本上允許我們大大提高效能,因此網路基本上是免費的。所以這真的是一個相當大的成就。我們非常,我們擁有完整的乙太網路產品管道。這是Spectrum-X 800,它是51.2 Tb每秒和256個連接埠。
接下來即將到來的是512埠的Spectrum-X,也就是一年後的Spectrum-X 800 Ultra。之後的是X 1600。重要的是,X 800是為成千上萬個GPU設計的,X 800 Ultra也是為成千上萬個GPU設計的,而X 1600是為數百萬個GPU而設計的。數百萬GPU資料中心的日子即將到來。
原因很簡單。當我們希望訓練更大的模型時,在未來,幾乎你與互聯網或電腦的每次互動都可能在雲端運行生成式AI。生成式AI正在與你合作,與你互動,生成影片、圖像或文本,或者可能是數位人。因此,你幾乎一直在與電腦進行交互,並且總是有一個生成式AI與之相連。有些在本地,有些在你的裝置上,其中很多可能在雲端。
這些生成式AI還將具有大量的推理能力,而不僅僅是一次性答案,它們可能會對答案進行迭代,以便在將答案提供給您之前提高答案的品質。因此,未來我們將要處理的生成內容的數量將是非凡的。
讓我們現在來看看今晚所有這些,這是我們的第一個夜間主題演講。你不能在早上的主題演講中這樣做。我認為這種基調風格在Computex中從未做過,可能是最後一次。只有媒體才能做到這一點,只有我能做到。當然,Blackwell是最初推出的第一代媒體平台。
正如世界所知,生成式AI時代已經來臨。正如世界意識到AI工廠的重要性一樣,正如這場新工業革命的開始。我們有這麼多的支持者,幾乎每個OEM、每個電腦製造商、每個CSP、每個GPU雲、主權雲,甚至電信公司,世界各地的企業,成功的數量,採用率,對Blackwell的熱情程度都非常令人興奮。我想為此感謝大家。
我們不會止步於此。在這個令人難以置信的成長時期,我們希望確保繼續提高效能,繼續降低成本,包括培訓成本、推理成本,並繼續擴展AI能力,以使每家公司都能接受。我們走的越遠,效能越強,成本下降就越大。當然,Hopper平台可能是史上最成功的資料中心處理器。這只是一個令人難以置信的成功故事。
然而,Blackwell就在這裡,正如你所注意到的,每個平台都有幾件事。你有CPU,有GPU,有NVLink,有NIC,還有這個交換器。 NVLink交換器會把所有的GPU連接在一起,把它變成一個最大的領域。我們因此可以用非常高速的交換器。但其實它是一整個平台,我們打造一整個平台,我們把整平台整合成一個AI工廠的超級電腦,我們再把它分散,讓全世界都可以使用。
在座各位都有能力去創造非常有趣、非常有創意的一個設定配置,可以用不同的風格,不同的資料中心,不同的顧客。你們可以在不同的地方,不同的邊緣,甚至有些是電商等等。所以我們盡量讓它有彈性,讓大家可以有最有創意的方式來建構。
關於Blackwell平台,我們公司以一年一個的節奏推出。我們的基本理念非常簡單,我們要建立整個資料中心,再將它分解,並以一年的節奏部分賣給使用者。我們將一切推向技術極限。無論是什麼TSMC工藝,技術都會把它推向絕對極限,無論是什麼封裝技術,都將它推向絕對極限,無論是什麼存儲技術,都將它推向絕對極限,無論是網絡技術,光學技術,一切都將被推向極限。
然後在那之後,以這樣的方式做所有事情,以便我們所有的軟體都能在整個安裝的基礎上運行。軟體慣性是計算機中最重要的事。當電腦向後相容並且在架構上與已經創建的所有軟體相容時,您進入市場的能力將更快。因此,當我們可以利用整個軟體安裝基礎時,速度是令人難以置信的。這就是我們在Blackwell在場時所創造的一切。
明年我們將推出Blackwell Ultra,就像我們有H-100和H-200一樣,你可能會看到我們的一些非常令人興奮的新一代,Blackwell Ultra再次挑戰極限,推出我提到的下一代Spectrum交換器。
下一個是我們的另一個開發平台,代號Rubin。我不會用太久介紹Rubin,大家一定會拍照來看細節內容。我們有了Rubin平台,一年後我們會有Rubin Ultra平台。到時候所有的產品都會百分之百相容。
在過去的12年裡,從ImageNet讓我們意識到計算的未來將發生根本性變化,到今天,就像2012年之前的早期GeForce和今天的NVIDIA一樣,這家公司確實發生了巨大的變化。我要感謝所有在這裡支持我們每一步的合作夥伴。
接下來,我想談談下一波AI浪潮──物理AI,也就是理解物理定律的AI。
AI可以在我們之間工作,因此它們必須理解世界模型,以便解釋和感知世界。當然,它們也必須具備出色的認知能力,這樣才能理解我們的要求,並在未來執行任務。
機器人技術是一個更普遍的概念。當我說機器人時,通常是指人形機器人,但事實並非如此。所有的工廠都將是機器人員工,工廠將安排機器人工作,這些機器人將建造機器人產品,並與機器人互動。為了實現這一點,我們需要取得一些突破。
總有一天,所有移動的東西都將是自主的。世界各地的研究人員和公司正在開發由實體人工智慧驅動的機器人。物理AI是能夠理解指令的模型,一個自主機器人在現實世界中執行複雜的任務。多模態大型語言模型是使機器人能夠學習、感知和理解周圍世界,並持續突破、計劃如何行動的關鍵。
機器人現在可以學習使用粗略和精細的運動技能與世界互動。推進機器人技術的一項重要技術是強化學習,就像大型語言模型需要從人類回饋中獲取RLHF(Reinforcement Learning from Human Feedback,即基於人類回饋的強化學習)來學習特定技能一樣,物理AI可以利用模擬世界中的物理回饋強化學習來學習技能。這些模擬環境是機器人透過在遵循物理定律的虛擬世界中執行行動來學習決策的地方。機器人可以學習複雜而安全的日常任務,並透過數百萬次的嘗試和行動來完善他們的技能。
在作業系統上,典型的AI模擬並重新建立。
這是一種發展嗎?
世界模擬結合了即時、基於Omniverse的物理模擬和生成式AI技術。機器人可以學習如何成為機器人,他們學習如何自主操縱物體,例如抓取和處理物體,或自主導航環境,在避開障礙物的同時找到最佳路徑。在Omniverse中學習,將模擬與現實的差距最小化,最大化學習行為的遷移。
建造具有這種能力的機器人需要三台輝達AI超級電腦來訓練模型。因此,我們推出了NVIDIA Omniverse,讓機器人可以學習並完善他們的技能。我們建立開發人員和公司所需的平台、加速庫和AI模型,並允許他們使用。
對他們來說,這就是下一波人工智慧機器人的浪潮,人工智慧的時代和工業革命。
我們有幾種方式來服務市場。
首先,我們將為每種類型的機器人系統創建平台,一個用於機器人工廠和倉庫,一個用於操縱事物的機器人,一個用於移動的機器人,一個用於人形機器人。這些機器人平台包括電腦加速庫和預訓練模型,我們測試一切,訓練一切,整合一切。
這裡是機器人學習如何成為機器人的地方。當然,現在機器人倉庫的生態系統真的非常複雜。需要很多公司、很多工具、很多技術來建造一個現代化的倉庫。倉庫越來越趨向自動化,直到某一天將會完全自動化。因此,在每個生態系統中,我們都有SDKs和APIs連接到軟體產業,SDKs和APIs連接到邊緣AI產業和公司。當然,還有為PLC設計的系統和用於ODM的機器人系統。然後由集成商集成,最終為客戶建立倉庫。
工廠擁有完全不同的生態系統,富士康正在建造世界上一些最先進的工廠。他們的生態系統包括用於設計工廠、工作流程、為機器人編程的邊緣電腦和機器人軟體,當然還有協調數位工廠和人工智慧工廠的PLC電腦。我們也有連接到每個生態系統的SDKs。這正在各地發生。富士康已經建立了他們工廠的數位孿生,Delta也正在建立他們工廠的數位孿生。
Pigatron正在建立他們的機器人工廠的數位孿生,Wistron也正在建立他們的機器人工廠的數位孿生。這真的很酷。讓我們來看看富士康新工廠的影片。隨著世界將傳統資料中心現代化為生成式AI工廠,對輝達加速運算的需求正在飆升。富士康,世界上最大的電子產品製造商,正準備透過使用輝達Omniverse建造機器人工廠來滿足這一需求。
霓虹燈工廠規劃人員使用Omniverse來整合來自領先產業應用程式(如西門子Teamcenter)的設施和設備數據,這些數據在數位孿生中得到充分利用。他們優化了地板佈局和線路配置,並找到最佳的攝影機放置位置,以使用輝達Metropolis的視覺AI監控未來的營運。虛擬集成為規劃人員節省了施工期間實體變更單的龐大成本。富士康團隊使用數位孿生作為真相的來源,以溝通和驗證準確的設備佈局。
Omniverse數位孿生也是機器人訓練館,在這裡,富士康開發人員培訓和測試Nvidia Isaac AI應用程序,用於機器人感知和操作,以及Metropolis AI應用程序,用於Omniverse中的感測器融合。富士康在將運行時部署到組裝線上的Judson電腦之前,模擬了2個機器人AI。他們模擬了用於物體辨識、缺陷檢測和軌跡規劃的自動光學檢測的Isaac機械手庫和AI模型。
為了轉移到測試機器人,他們模擬Isaac感知器驅動的Farab AMR,他們透過3D映射和重建感知並在環境中移動。富士康建造了他們的機器人工廠,這些工廠協調運行在Nvidia Isaac上的機器人,以建造視訊AI 2計算機,從而控制起重機Vox。所以一個機器人工廠設計有三台電腦:在Nvidia AI上訓練AI,讓機器人在PLC系統上運行,以協調工廠,然後,當然,你在Omniverse中模擬一切。
機械手臂和機器人的AMRs也是一樣的,三個電腦系統,不同之處在於兩個Omniverse將會結合在一起。所以這些共享一個虛擬空間。當他們共享一個虛擬空間時,這個機械手臂將進入機器人工廠。
再一次,三台計算機,我們為計算機提供加速層和預訓練的AI模型。我們已經將Nvidia的機械手和Nvidia Omniverse與世界領先的工業自動化軟體和系統公司西門子連接起來。這真的是一個非常棒的合作關係。
他們在世界各地的工廠工作。語意拾取AI現在整合了Isaac機械手和語意拾取AI運行,操作ABB、KUKA、Yaskawa、FANUC、Universal Robots和Techman。
我們還有各種其他的集成,例如,Arcbest正在將Isaac感知器集成到Foxx智慧自主機器人中,以增強物體識別和人類運動追蹤。電子產品的運動追蹤和材料處理正在將Isaac操縱器和感知器整合到他們的人工智慧機器人中,以提高全球製造效率。
Idealworks正在將Isaac感知器建構到他們的iWMS軟體中,用於工廠物流內在的AI機器人。 Kivnon正在整合Isaac感知器,以推進AI驅動的運動,以推進AI啟用的物流。 Argo機器人正在將Isaac感知器應用於基於高級視覺的感知引擎。 Solomon在他們的AcuPick中使用Isaac操縱器AI模型。
Tattile機器人正在將Isaac Sim和機械手引入TMF Web加速自動光學檢測。 Teradyne機器人正在將Isaac機械手整合到協作機器人的PolyScope X中,並將Isaac感知器整合到MiR AMRs中。 Mech-Mind正在將Isaac操作器整合到Mech-Eye工業3D相機中,用於AI操作機器人。
機器人來了,物理AI在這裡。
這不是科幻小說,它正在各地使用,真的非常令人興奮。那就是工廠,裡面的機器人,所有的產品都將是機器人。
其中之一是自動駕駛汽車或具有大量自主能力的汽車。輝達再次建構整個堆疊。明年,我們將與賓士車隊一起投入生產。
之後,在2026年,我們向全世界提供完整的JLR艦隊堆疊。但是,歡迎您取用我們堆疊的任何部分或任何層,就像整個驅動器堆疊打開一樣。下一個大批量機器人產品將由機器人工廠製造,內部有機器人,可能是人形機器人。
近年來,由於基礎模型的出現,這在認知的能力和我們正在開發的世界理解能力方面都有了很大的進展。我對這個領域感到非常興奮,最容易適應這個世界的機器人是人類機器人,因為我們為我們建造了這個世界。
我們還需要比其他類型的機器人更大量的數據來訓練這些機器人,因為我們擁有相同的生理學。訓練數據,我們可以透過演示功能和視訊功能提供,這將是非常棒的。
因此,我們將在這個領域看到很多進展。事實證明,這項技術與當今已經建構的所有其他電腦的建構技術非常相似。所以這對我們來說將是一段非常非凡的旅程。(矽星人Pro)