在GTC華盛頓大會主題演講中,黃仁勳官宣了輝達對諾基亞10億美元的投資,發佈了NVIDIA Arc、NVQLink、下一代Vera Rubin超級晶片等新技術、產品,並始終強調通過AI基礎設施等投資保證美國的領先地位。
人工智慧的熱度越來越高,以至於“AI春晚”一年要辦兩場。
美東時間10月27日至29日,人工智慧盛會輝達GTC大會首次在華盛頓特區舉辦“加場”。有別於更聚焦技術、產品的3月聖何塞春季旗艦大會,10月的華盛頓大會更像是“政策專場”,不少討論都聚焦於AI領域的產業政策、政府角色等。
此前輝達官方也曾預告,大會重頭戲——公司CEO黃仁勳的主題演講除了會公佈產品相關資訊外,還將為觀眾釐清AI如何重塑行業、基礎設施及公共部門的路線圖。Wccftech的會前報導也曾指出,考慮地緣問題對輝達變得愈發重要,在華盛頓舉辦的大會或將更加關注“如何確保美國在人工智慧競賽中保持領先地位”。更引人矚目的是,美國總統川普在大會召開之際稱“希望向黃仁勳表示祝賀”,還表示二人隨後就將會面。
美東時間10月28日中午12時許,黃仁勳如期登台發表演講。再次回顧公司發展歷程後,他集中介紹了公司在6G、量子計算、AI基礎設施建設等領域的最新進展和雄心。而在這背後,有關如何保持美國在AI領域的競爭優勢的考慮無處不在。
在6G領域,黃仁勳詳細解釋了公司剛剛宣佈的向諾基亞投資10億美元的計畫。表示雙方將合作開發6G人工智慧平台,諾基亞未來的基站將全面採用主題演講中發佈的全新產品線NVIDIA Arc架構。“這將推動美國重返電信領導地位”,輝達在與黃仁勳主題演講同步發出的新聞稿中寫道。
黃仁勳還在演講中推出了NVQLink,這是一種旨在將量子處理器與GPU計算系統連接起來的系統架構。他表示,未來每台使用輝達GPU的超級電腦都將是混合的,與量子處理器緊密耦合,以擴展計算的可能性。“這是計算的未來”,雖然沒有公佈具體技術進展,但黃仁勳稱已有17家量子計算公司承諾支援NVQLink。另外,主題演講中也明確提到,NVQLink允許量子處理器與美國九個國家實驗室的超級計算系統連接,保持美國在高性能計算領域的領先地位。
與此同時,黃仁勳還宣佈輝達將與美國能源部合作建造7台新的AI超級電腦以推動美國科學發展,這也將成為美國能源部最大的AI超級電腦。
在近2個小時的演講中,黃仁勳還談到了機器人、物理AI、美國的製造業回流等眾多熱點問題,並展示了下一代Vera Rubin超級晶片,還發佈了輝達資料中心/AI GPU路線圖。值得一提的是,就像呼應後者在遠方的祝賀一樣,黃仁勳還感謝了川普,主要是因為他在推動為資料中心加強能源供給方面的舉措。
延續著此前說法,黃仁勳認為人類正處於人工智慧工業革命的黎明,而這項技術將定義每個行業和國家的未來。“美國必須引領這場邁向未來的競賽,這是我們這一代人的阿波羅時刻。下一輪的發明、發現和進步將取決於國家擴展人工智慧基礎設施的能力。我們正在與我們的合作夥伴一起建設有史以來最先進的人工智慧基礎設施,確保美國擁有繁榮未來的基礎,並確保世界人工智慧以美國的創新、開放和協作為基礎造福所有人。”他表示。
在中美AI競賽趨於白熱化,兩國貿易關係持續波動的時刻,黃仁勳和他的輝達也承受著來自雙方的壓力。此前川普政府曾禁止輝達向中國出口高端晶片。但禁令解除後,輝達又在中國接連遭遇反壟斷調查、安全後門等問題。根據公司季度財報和黃仁勳的“親口承認”,輝達在中國的市佔率已從95%直接歸零,從今年二季度開始就無法向中國市場正常銷售晶片。而中國則在加速AI製造國產化替代處理程序,以寒武紀為代表的國產晶片公司備受矚目,被寄予“產生像DeepSeek一樣的衝擊波”的期待。截至10月28日,寒武紀股價已再次超越貴州茅台,成為A股第一高價股。
不過,輝達是全球市值最高的公司。值得一提的是,在黃仁勳發表主題演講的同時,輝達股價繼續走高,盤中突破203美元,總市值逼近5萬億美元,再次創下歷史新高。
以下為黃仁勳主題演講的中文翻譯版,經AI輔助和人工編輯:
歡迎來到GTC。
今天我們有太多內容要和大家分享。GTC是我們探討工業、科學、計算、現在與未來的地方。所以今天我要涵蓋的內容非常多。
但在我開始之前,我想感謝我們所有的合作夥伴。他們幫助贊助了這次活動。你們會在展會周圍看到他們。他們來這裡與大家會面,這真的很棒。沒有我們整個生態系統的合作夥伴,我們無法完成我們所做的一切。
大家都說,這是AI領域的“超級碗”。那麼,每一屆“超級碗”都應該有一個精彩的開場秀。你們覺得剛才的開場秀(指開場播放的回顧美國及全球科技產業發展的短片)和我們的“全大寫全明星”陣容(指大螢幕上展示的贊助商名單)怎麼樣?全是全明星運動員和全明星陣容。看看這些傢伙。
在接下來的三個半小時裡,AI生態系統的各個行業將齊聚一堂,共同探討一些事情。
那麼,我們開始吧。
如大家在視訊中所見,輝達在60年來首次發明了一種新的計算模型。一種新的計算模型很少出現。這需要大量的時間和一系列我們觀察到的條件。我們發明這種計算模型,是因為我們想解決通用電腦、普通電腦無法解決的問題。我們還觀察到,總有一天,電晶體會繼續增加,但電晶體的性能和功耗提升將會放緩。這就意味著,摩爾定律將無法持續,它會受到物理定律的限制。那個時刻現在已經到來,我們的縮放已經停止了。這被稱為“德納德縮放”。德納德縮放大約在十年前就幾乎停止了。事實上,電晶體性能及其功耗的提升已經大幅放緩。
然而,電晶體數量仍在繼續增長。我們在很久以前就注意到了這一點,並且在過去的30年裡,我們一直在推進這種我們稱之為“加速計算”的計算形式。我們發明了GPU。我們發明了名為CUDA的程式設計模型。我們觀察到,如果我們能增加一個處理器,利用越來越多的電晶體,應用平行計算,將其與順序處理的CPU相結合,我們就能將計算能力擴展到遠超以往的程度。而這個時刻確實已經到來了。
我們已經看到了這個拐點:加速計算,它的時代現在已經來臨。
然而,加速計算是一種本質上就不同的程式設計模型。你不能只是把手工編寫的、順序執行的CPU軟體放到GPU上,並指望它能正常運行。事實上,如果你只是那樣做,它實際上會運行得更慢。所以你必須重新發明新演算法,你必須建立新的庫,事實上,你必須重寫應用程式,這就是為什麼它花了這麼長時間。我們花了將近30年才走到這裡,但我們是一步一個腳印走來的。這也是我們公司的瑰寶。
大多數人談論GPU的重要性,但如果沒有一個建構在其之上的程式設計模型,並且沒有對這個程式設計模型進行代際相容的dedication(我們現在是CUDA 13,即將推出14),如果沒有數百萬個GPU在每台電腦上完美相容地運行。那麼開發者就不會以這個計算平台為目標。如果我們沒有建立這些庫,那麼開發者就不知道如何使用演算法,並充分發揮架構的潛力。我的意思是,這真的是我們公司的瑰寶。
(對應現場螢幕的展示依次解釋)我們花了將近七年的時間才讓cuLitho達到現在的水平。現在台積電在使用它,三星在使用它,ASML也在使用它。這是一個用於計算光刻的不可思議的庫,這是製造晶片的第一步。
cuOpt,在數值最佳化方面打破了幾乎每一項紀錄……
cuDF,一個資料幀方法,基本上是加速SQL、資料幀、專業資料幀資料庫。
這個庫是共同啟動AI的庫,cuDNN,以及建構在它之上的名為Megatron Core的庫,使我們能夠模擬和訓練極其龐大的語言模型。這樣的例子還有很多。MONAI,非常重要,世界排名第一的醫學影像AI框架。順便說一下,我們今天不會過多討論醫療保健,但請務必觀看Kimberly的主題演講。她會詳細討論我們在醫療保健領域的工作。這樣的例子還有很多,基因組學處理、航空影像… 請大家注意,今天我們在這裡要做一些非常重要的事情。那就是cuQuantum,量子計算。
螢幕展示的這只是我們公司350個不同庫的代表。這裡的每一個庫都重新設計了加速計算所需的演算法。每一個庫都使得我們所有的生態系統合作夥伴能夠利用加速計算,並且每一個庫都為我們開闢了新的市場。讓我們看看CUDA-X能做什麼。
準備好了嗎?開始。
(現場展示了數段遊戲、動畫CG片段)
是不是很神奇?你們看到的一切都是模擬。沒有藝術,沒有動畫。這就是數學之美。這是深度的電腦科學,深度的數學,它的美令人難以置信。涵蓋了每一個行業,從醫療保健和生命科學,到製造業、機器人技術、自動駕駛汽車、電腦圖形學…甚至電子遊戲。你們看到的第一個鏡頭是輝達運行過的第一個應用程式。那是我們1993年開始的地方。我們一直堅信我們正在努力做的事情。很難想像,你能看到那個最初的虛擬戰鬥機場景活生生地呈現出來。而同一家公司相信我們今天會站在這裡。這真是一段不可思議的旅程。我想感謝所有輝達員工,請大家為他們鼓掌,感謝你們所做的一切。這真的太不可思議了。
今天,我們涵蓋了很多行業。我的演講也將涵蓋AI、6G、量子模型、企業計算、機器人和工廠。
讓我們開始吧。我們要涵蓋很多內容,有很多重大發佈,有很多新合作夥伴,這些可能會讓你們非常驚訝。
電信是我們經濟、我們工業、我們國家安全的支柱和生命線。自從無線技術誕生以來,我們定義技術,我們定義全球標準,我們將美國技術出口到世界各地,以便世界可以基於美國的技術和標準進行建設。然而,距離那時已經過去很久了。
當今世界部署的無線技術很大程度上都基於外國技術。我們基本的通訊架建構立在外國技術之上。這種情況必須停止。
而我們有機會做到這一點,尤其是在這個根本性的平台轉型期。
如你們所知,電腦技術實際上是每個行業的基礎。它是科學最重要的工具。它是工業最重要的工具。我剛剛說過我們正在經歷一個平台轉型。這個平台轉型應該是我們千載難逢的機會,讓我們重新回到遊戲中,開始基於美國技術進行創新。今天,我們宣佈我們將這樣做。我們與諾基亞建立了重大合作夥伴關係。
諾基亞是世界第二大電信裝置製造商。這是一個3萬億美元的產業。包含數千億美元的基礎設施,全球有數百萬個基站。如果雙反進行合作,我們可以基於這個令人難以置信的、根本上基於加速計算和AI的新技術進行建設。並且讓美國成為6G下一次革命的中心。所以今天,我們宣佈輝達有一個新的產品線。它叫做輝達Aerial RAN Computer Arc。Arc由三項基本新技術建構而成:出色的CPU——Blackwell GPU,以及我們用於此應用的ConnectX網路。
所有這些使我們能夠運行這個庫。我前面提到的這個CUDA-X庫叫做Aerial,本質上是一個運行在CUDA之上的無線通訊系統。
我們將首次建立一個軟體定義的、可程式設計的電腦,它能夠無線通訊,同時進行AI處理。
這完全是革命性的。我們稱之為輝達Arc。
而諾基亞將與我們合作,整合我們的技術,重寫他們的軟體棧。這是一家擁有7000項5G基本專利的公司。
很難想像,還有比這更偉大的電信領導者了。所以我們將與諾基亞合作。他們未來的基站將全面採用輝達Arc。而輝達Arc也與諾基亞當前的AirScale基站相容。
這意味著,我們將採用這項新技術,並能夠用6G和AI升級全球數百萬個基站。現在,6G和AI確實很重要,我們也將首次能夠使用AI技術——“AI for ran”——通過使用人工智慧、強化學習,根據環境、流量、移動性、天氣等即時調整波束成形,來提高無線通訊的頻譜效率。
所有這些都可以被考慮進去,這樣我們就能提高頻譜效率。基站消耗了全球約1.5%到2%的電力。所以提高頻譜效率意味著我們可以在不增加必要能源的情況下,通過無線網路傳輸更多資料。
我們能做的另一件事是“AI on ran”。這是一個全新的機會。請記住,網際網路實現了通訊,但令人驚奇的是,像AWS這樣的聰明公司在網際網路之上建構了雲端運算系統。我們現在將在無線電信網路之上做同樣的事情。這個新的雲將是一個邊緣工業機器人云。
這就是說,“AI for ran”來提高無線電頻譜效率。“AI on ran”本質上則是無線電信的雲端運算。雲端運算將能夠直接延伸到邊緣,那裡沒有資料中心,因為我們在世界各地都有基站。這個發佈非常令人興奮。Justin Hodar,諾基亞他們的CEO,我想他就在會場某處,感謝您與我們合作,感謝您幫助將電信技術帶回美國。這真是一次了不起的合作。非常感謝。
(現場響起諾基亞經典鈴聲)這是慶祝諾基亞的最佳方式。
接下來,讓我們談談量子計算。1981年,粒子物理學家、量子物理學家理查德·費曼設想了一種新型電腦,可以直接模擬自然。他稱之為量子電腦。
四十年後,這個行業取得了根本性的突破。
就在去年,實現了一個根本性的突破。現在可以製造出一個邏輯量子位元。一個相干的、穩定的、並且經過糾錯的邏輯量子位元。這一個邏輯量子位元由有時是幾十個,有時是幾百個物理量子位元共同工作組成。如您所知,量子位元這些粒子極其脆弱。它們可能非常不穩定。
任何觀察、任何採樣、任何環境條件都可能導致它退相干。
因此,它需要極其受控的環境,現在還需要許多不同的物理量子位元讓它們協同工作,讓我們能夠對它們進行糾錯,這些被稱為輔助量子位元或綜合徵量子位元。讓我們能夠糾正錯誤,並推斷出那個邏輯量子位元的狀態。有各種不同類型的量子電腦,超導、光子、囚禁離子、穩定原子,各種不同的製造量子電腦的方法。
我們現在意識到,將量子電腦直接連接到GPU超級電腦是至關重要的,這樣我們才能進行糾錯,才能進行量子電腦的人工智慧校準和控制,才能進行協同模擬,共同工作,讓正確的演算法運行在GPU上,正確的演算法運行在QPU(量子處理單元)上,並讓這兩個處理器、兩台電腦並肩工作。
這是量子計算的未來。讓我們看看。
(現場播放了一段量子計算相關的視訊,其中稱量子糾錯是答案,NVQ Link則是一種新的互連架構,直接將量子處理器與輝達GPU連接起來,他們還將能夠協調量子裝置和AI超級電腦來運行量子GPU應用程式。)
所以今天,我們正式發佈NVQ、NVQ Link。這得益於兩件事,當然,這個互連實現了量子電腦控制和校準、量子糾錯,以及連接兩台電腦(QPU和我們的GPU超級電腦)的混合模擬。它也是完全可擴展的。它不僅僅針對今天少量量子位元進行糾錯。它也為未來進行糾錯,屆時我們將把這些量子電腦從今天的幾百個量子位元擴展到數萬個量子位元,未來甚至到數十萬個量子位元。
所以我們現在有一個架構,可以進行控制、協同模擬、量子糾錯,並面向未來進行擴展。行業的支援一直令人難以置信。
在CUDA-Q的發明期間,記住,CUDA是為GPU-CPU加速計算設計的,基本上是用合適的工具做合適的工作。現在CUDA-Q已經擴展到CUDA之外,這樣我們就可以支援QPU,並讓兩個處理器(QPU和GPU)協同工作,計算在幾微秒內來回移動,這是與量子電腦協作所需的關鍵延遲。所以現在CUDA-Q是一個如此不可思議的突破,被眾多不同的開發者採納。今天我們宣佈有17家不同的量子電腦行業公司支援NVQ Link架構。我對此感到非常興奮。還有8個不同的美國能源部下屬實驗室:伯克利、布魯克海文、費米實驗室、林肯實驗室、洛斯阿拉莫斯、橡樹嶺… 幾乎每個美國能源部實驗室都與我們合作,與我們的量子電腦公司和這些量子控製器生態系統合作,以便我們將量子計算整合到未來的科學中。
我們還有一個額外的重要發佈。
今天,我們宣佈美國能源部正與輝達合作,建造7台新的AI超級電腦,以推動我們國家的科學發展。
我必須向克里斯·賴特部長(美國能源部部長)部長致敬。他給能源部帶來了如此多的活力,能量的激增、激情的激增,以確保美國再次引領科學。
正如我提到的,計算是科學的基本工具,我們正在經歷幾個大的平台轉型期。一方面,我們轉向加速計算。這就是為什麼未來的每台超級電腦都將是基於GPU的超級電腦。而且,我們轉向AI,這樣AI和基於原理的求解器、基於物理的模擬都不會消失,但它可以得到增強,從而通過使用代理模型、AI模型協同工作來擴展規模。
我們也知道,基於原理的求解器、經典計算可以通過使用量子計算來增強,以理解自然狀態。我們也知道,未來,我們有如此多的訊號,如此多的資料需要從世界中採樣。遙感比以往任何時候都更重要。而這些實驗室,除非它們是機器人工廠、機器人實驗室,否則我們無法以我們需要的規模和速度進行實驗。所以所有這些不同的技術正在同時進入科學領域。
賴特部長理解我們,他希望美國能源部抓住這個機會,為自己注入超強動力,並確保美國保持在科學的前沿。
我想為此感謝你們所有人。謝謝。
接下來,讓我們談談AI。
什麼是AI?大多數人會說AI是一個聊天機器人,這確實是正確的。毫無疑問,ChatGPT是人們認為的AI前沿。然而,正如你現在看到的,這些科學超級電腦不是用來運行聊天機器人的。它們將進行基礎科學AI。
AI的世界遠不止聊天機器人,當然。聊天機器人極其重要,而AGI從根本上來說至關重要。深度電腦科學、不可思議的計算能力、偉大的突破對於AGI仍然至關重要。但除此之外,AI還有更多內涵。
事實上,我將用幾種不同的方式來描述AI。
第一種方式,你首先會想到的是,AI已經完全重塑了計算棧。
我們過去編寫軟體的方式是手工編碼的軟體運行在CPU上。今天AI是機器學習、訓練、資料密集型程式設計,如果你願意這麼說的話,通過AI進行訓練和學習,而AI運行在GPU上。為了實現這一點,整個計算棧已經改變。注意,你在這裡看不到Windows。你看不到CPU。
你看到的是一個完全不同的、根本不同的棧。
我們還可以從對能源的需求開始說起,這是另一個領域,我們的政府、川普總統值得巨大讚譽,他支援能源發展的倡議,他認識到這個行業需要能源來增長,需要能源來進步,我們需要能源來獲勝。他認識到這一點,並將國家的力量置於支援能源增長之後,完全改變了遊戲規則。如果沒有發生這種情況,我們可能會陷入糟糕的境地。我為此感謝川普總統。
在能源之上是這些GPU。這些GPU被連接起來,建構成我稍後會展示的基礎設施。在這個基礎設施之上,包括巨型資料中心,輕鬆有這個房間大小的好多倍,消耗巨大的能量,然後通過這些稱為GPU超級電腦的新機器轉化能量,以生成數字。這些數字被稱為Token,可以說是人工智慧的語言、計算單元、詞彙表。你幾乎可以將任何東西標記化。你當然可以將英文單詞標記化。這就是為什麼你能夠識別圖像或生成圖像。將視訊標記化,將3D結構標記化,你可以標記化學物質、蛋白質和基因,你可以標記我們自己,或者幾乎任何有結構的東西,任何有資訊內容的東西。
一旦你能將其標記化,AI就能學習那種語言及其含義。一旦它理解了那種語言的含義,它就能翻譯、能響應,就像你與ChatGPT互動一樣。它也能生成,就像ChatGPT能生成一樣。所以,你看到ChatGPT做的所有基本事情,你只需要想像,如果它是蛋白質會怎樣?
如果它是化學物質呢?如果它是一個像工廠一樣的3D結構呢?如果它是一個機器人,而標記是理解行為,並將動作和運動標記化呢?所有這些概念基本上都是一樣的,這就是為什麼AI正在取得如此非凡的進展。
在這些模型之上是應用程式。Transformer不是一個通用模型。它是一個非常有效的模型,但不存在一個通用的模型。只是AI具有普遍的影響力而已。我們有太多不同類型的模型了。在過去的幾年裡,我們享受了多模態的發明並經歷了創新突破。有太多不同類型的模型。有CNN模型,有狀態空間模型,有圖神經網路模型。
在這些模型架構之上是應用程式,即過去的軟體。這是對人工智慧的一個深刻理解,一個深刻的觀察。
過去的軟體行業是關於建立工具的。Excel是一個工具,Word是一個工具,網頁瀏覽器也是一個工具。我們之所以知道這些是工具,是因為大家在使用它們。
工具,就像螺絲刀和錘子一樣,行業只有這麼大,這些IT工具大約價值1萬億美元左右。
但AI不是一個工具,AI是工作者,這就是深刻的區別。AI實際上是能夠使用工具的工人。
我真正感到興奮的事情之一是由Irvin在Perplexity所做的工作,他們使用網頁瀏覽器來預訂假期或購物。
基本上是一個使用工具的AI。Cursor是一個AI和代理式AI系統,我們在輝達使用它。輝達的每一位軟體工程師都在使用Cursor。這極大地提高了我們的生產力。它基本上是我們每一位軟體工程師生成程式碼的合作夥伴。它也使用名叫VS Code的工具。所以Cursor是一個AI,一個代理式AI系統,而VS Code是它使用的工具。
所有這些不同的行業,無論是聊天機器人,還是數字生物學(在那裡我們有AI助理研究員),或者機器人計程車。說到這,在機器人計程車內部,雖然看不見的,但顯然有一個AI司機。那個司機在工作,而它用來工作的工具就是汽車。
所以,我們至今創造的一切,整個世界,我們至今創造的一切都是供我們使用的工具。有史以來第一次,技術現在能夠自己工作並幫助我們提高生產力。
這樣的機會列表還在繼續,這就是為什麼AI所涉及的經濟領域是它從未觸及過的。
它是在工具之下的幾萬億美元、甚至百萬億美元全球經濟。現在,AI將首次涉足這百萬億美元的經濟,使其更具生產力,增長更快,規模更大。我們面臨嚴重的勞動力短缺,擁有增強勞動力的AI將幫助我們增長。
從技術產業的角度來看,有趣的是,在AI是開創經濟新領域的新技術這一事實之外,AI本身也是一個新產業。
正如我早先解釋的,這些Token,這些數字,在你將所有不同的模態和資訊標記化之後,需要一個工廠來生產這些數字,這與過去不同。過去的電腦行業和晶片行業,請注意,如果你看過去的晶片行業的話,過去的晶片行業約佔IT行業的5%到10%,也許更少。
原因是,使用Excel不需要那麼多計算,使用瀏覽器不需要那麼多計算,使用Word不需要那麼多計算。
但是在這個新世界裡,需要有一台電腦始終理解上下文。它無法預先計算,因為每次你使用AI電腦,每次你要求AI做某事時,上下文都是不同的。所以它必須處理所有這些資訊環境。例如,在自動駕駛汽車的情況下,它必須處理汽車的上下文。你提出的指令是什麼?要求AI去做?然後它必須逐步分解問題,進行推理,制定計畫並執行。每一步都需要生成大量的Token,這就是為什麼我們需要一種新型系統,我稱之為AI工廠。
它當然是一個AI工廠。它不同於過去的資料中心,它是一個AI工廠。
因為,這個工廠只生產一樣東西,不像過去的資料中心什麼都做,為我們所有人儲存檔案,運行各種不同的應用程式。你可以像使用電腦一樣使用那個資料中心來處理所有應用程式。你可以一天用它來玩遊戲,你可以用它來瀏覽網頁,你也可以用它來做會計。
所以那是過去的電腦,一個通用的、多用途的電腦。
我在這裡談論的電腦是一個工廠。它基本上只運行一樣東西:它運行AI。其目的是設計用來生產儘可能有價值的Token,意思是它們必須聰明,並且你希望以驚人的速度生產這些Token。因為當你向AI提問時,你希望它快速響應。並且注意到在高峰時段,這些AI的響應越來越慢,因為它要為很多人做很多工作。
所以你希望以驚人的速度生產有價值的Token,並且你希望以高效的方式生產它。我使用的每一個詞都與AI工廠、汽車工廠或任何工廠的概念一致。
它絕對是一個工廠。而這些工廠以前從未存在過。在這些工廠內部是堆積如山的晶片,這引出了今天的話題。
過去幾年發生了什麼。事實上,去年發生了一些相當深刻的事情。
實際上,如果你看今年年初,每個人對AI都有某種態度。這種態度通常是:這將會很大,這將是未來。幾個月前,它進入了渦輪增壓模式。原因有幾個。首先,在過去的幾年裡,我們已經找到了如何讓AI更聰明的方法。這不僅僅是預訓練。預訓練基本上是說,讓我們把人類創造的所有資訊都給AI學習。這本質上是記憶和泛化。這不像我們小時候上學。學習的第一階段,預訓練從來不是,就像學前班從來不是教育的終點一樣。預訓練僅僅是教你智能的基本技能,以便你能夠理解如何學習其他一切。
接下來是後訓練。預訓練之後是教你解決問題的技能,分解問題,進行推理。
關於如何解決數學問題,如何編碼,如何逐步思考這些問題,使用第一性原理推理。然後在那之後,才是計算真正開始發揮作用的時候。如你們所知,我們上了學,那對我來說是幾十年前的事了。但自那以後,我學到了更多,思考了更多。原因是我們在不斷地用新知識夯實自己。我們不斷地進行研究,我們不斷地思考,這確實是智能的全部意義所在。
所以現在我們擁有三個基本的技術技能。我們有這三個技術:預訓練,這仍然需要巨大的計算量。我們現在有後訓練,它使用甚至更多的計算。而現在,“思考”給基礎設施帶來了難以置信的計算負荷,因為它是在為我們每一個人思考。
所以AI進行推理、“思考”所需的計算量確實非常巨大。我以前聽人說推理很容易,輝達應該做訓練,輝達需要做。
但是,思考怎麼可能容易?
思考是困難的,這就是為什麼這三個擴展法則給計算量帶來了如此大的壓力。現在另一件事發生了,從這三個擴展法則中,我們得到了更聰明的模型,這些更聰明的模型需要更多的計算。而模型越聰明,就有越多的人使用它,這就需要越多的計算。而且,現在它們值得付費了。輝達為每一份Cursor許可證付費,我們很樂意這樣做,因為Cursor正在幫助價值數十萬美元的員工——軟體工程師或AI研究員——提高數倍的生產力。所以,我們當然非常樂意這樣做。
這些AI模型已經好到值得付費了。Cursor、11 Labs、Cynthia、Abridge、OpenEvidence,這樣的例子還有很多。當然還有OpenAI、Claude。這些模型現在如此之好,以至於人們願意為之付費。因為人們付費並更多地使用它,而每次他們更多地使用它,你就需要更多的計算。我們現在有兩個指數級增長。這兩個指數,一個是三個擴展法則帶來的指數級計算需求。
第二個指數是,模型越智能,就有越多的人使用它,使用者增長和模型能力提升相互促進,都導致計算需求指數級增長。
兩個指數現在同時對世界的計算資源施加壓力,正好在我剛才告訴你摩爾定律已基本結束的時候。
所以問題是,我們該怎麼做?
如果我們有這兩個指數級增長的需求,而我們找不到方法來驅動成本下降,那麼這個正反饋系統就會崩潰。良性循環對幾乎任何行業都至關重要,對任何平台行業都至關重要。它對輝達也至關重要。
我們現在已經達到了CUDA的良性循環。
建立的應用越多,人們創造的應用越多,CUDA就越有價值,CUDA就越有價值。購買的CUDA電腦越多,購買的電腦越多,開發者就越想為該平台建立應用。輝達的這個良性循環在經過30年後現在已經實現了。15年後,我們也將為AI實現了這個良性循環。
AI現在已經達到了一個良性循環。所以,你越多地使用它,因為AI很智能並且我們願意付費,就能產生越多的利潤。產生的利潤越多,投入到電網中的計算資源就越多,投入到AI工廠中的計算就越多,AI就能變得越智能,越多的人使用它,越多的應用使用它,我們能解決的問題就越多。這個良性循環現在開始運轉了。
我們需要做的是大幅降低成本,以便第一讓使用者體驗更好,當你提示AI時,它響應你的速度要快得多;第二,這樣我們就能通過驅動成本下降來保持這個良性循環繼續,這樣它就能變得更聰明,這樣就有更多人使用它,如此循環下去,這個良性循環現在正在加速。
但是當摩爾定律真的達到極限時,我們該怎麼做呢?答案叫做協同設計。你不能只設計晶片,然後指望運行在上面的東西會更快。在設計晶片方面,你能做的最好就是每隔幾年增加可能50%的電晶體。如果你增加了更多電晶體,或者只是不斷增加更多電晶體,但那都是百分比增長,不是指數增長。我們需要復合指數增長來保持這個良性循環繼續,我們稱之為極端協同設計。輝達是當今世界上唯一一家真正從一張白紙開始,能夠同時思考新的基礎架構、電腦架構、新晶片、新系統、新軟體、新模型架構和新應用的公司。在座的許多人之所以在這裡,是因為你們是這個堆疊不同層面的一部分。通過與輝達合作,我們從根本上重新設計了從底層到頂層的一切。
然後,因為AI是一個如此龐大的問題,我們將其規模化。我們首次建立了一台電腦,這台電腦已經擴展成整個機架。那是一台電腦,一個GPU,然後我們通過發明一種新的AI乙太網路技術(我們稱之為Spectrum-X Ethernet)將其橫向擴展。
每個人都會說乙太網路就是乙太網路。而Spectrum-X乙太網路是為AI性能而設計的,這就是它如此成功的原因。即使那樣也還不夠大。我們會用AI超級電腦和GPU填滿整個房間。那仍然不夠大,因為AI的應用數量和使用者數量持續呈指數級增長,我們將多個這樣的資料中心連接在一起,我們稱之為跨規模擴展,使用Spectrum-X GS,千兆規模X,Spectrum-X Gigascale XGS。
通過這樣做,我們在如此巨大的層面上進行協同設計,如此極端的層面,以至於性能提升是驚人的。不是每一代提升50%,不是每一代提升25%,而是多得多。
這是我們製造過的最極端的協同設計電腦,坦白說,自IBM System 360以來,在現代時期,我認為從未有過像這樣從頭開始、徹底重新發明的電腦。建立這個系統極其困難。我稍後會向你們展示其好處。但本質上我們所做的,我們創造了NVLink 72,如果我們要建立一個巨大的晶片,一個巨大的GPU,它看起來會是這樣。這是我們必須要做的晶圓級處理的水平,是不可思議的。所有這些,所有這些晶片現在都被放入一個巨大的機架,這個巨大的機架使所有這些晶片作為一個整體協同工作。這看上去完全不可思議。
(現場演示環節)
不管怎樣,我們基本上,過去我們創造的是這個。這是NVLinks,NVLink 8。現在這些模型如此巨大,我們解決的方法是把這個模型,這個巨大的模型,變成一大堆專家,有點像團隊。所以這些專家擅長某些類型的問題,我們把一大堆專家聚集在一起。所以這個巨大的數萬億美元AI模型有所有這些不同的專家,我們把所有這些不同的專家放在GPU上。現在是NVLink 72。我們可以把所有的晶片放入一個巨大的交換網路中,每個專家都可以相互交談。所以主專家、主要專家可以與所有下屬專家交談,以及所有必要的上下文、提示和我們必鬚髮送給所有專家的大量資料。專家們,無論哪個專家被選中來解答問題,我們會更多地嘗試響應,然後它會一層接一層地去做,有時八層,有時十六層。有時這些專家,有時六十四個,有時兩百五十六個。但關鍵是專家越來越多。
那麼,這裡,NVLink 72,我們有72個GPU。正因為如此,我們可以在一個GPU裡放四個專家。你需要為每個GPU做的最重要的事情是生成Token,這取決於你的HBM記憶體的頻寬量。
我們有一個H100 GPU為四個專家生成“思考”。而在這裡,因為每台電腦只能放八個GPU,我們必須把三十二個專家放進一個GPU。所以這個GPU要為一個專家進行三十二次“思考”。
對比這個系統,每個GPU只為一個專家進行四次“思考”。正因為如此,速度差異是驚人的。這個剛剛出來,是由SemiAnalysis進行的基準測試。他們做了非常徹底的工作,他們對所有可進行基準測試的GPU進行了基準測試。結果發現並沒有那麼多。如果你看看GPU列表,實際上可以基準測試的GPU大概90%是輝達。
好吧。但是,所以我們是在和自己比較,但世界上第二好的GPU是H200,運行所有工作負載。
Grace Blackwell每個GPU的性能是H200的10倍。當你只增加了兩倍的電晶體時,如何獲得10倍的性能?答案是極端協同設計。通過理解未來AI模型的性質,並且我們在整個堆疊上進行思考,我們可以為未來建立架構。這是件大事。這意味著我們現在可以更快地響應。但接下來是更大的事。
這張圖片顯示世界上成本最低的Token是由Grace Blackwell NVLink 72生成的,這是最昂貴的電腦。一方面,GB200是最昂貴的電腦。另一方面,它的Token生成能力如此強大,以至於它以最低的成本生產Token。
因為每秒Token數除以Grace Blackwell的總擁有成本是如此之好,以至於它是生成Token成本最低的方式。通過這樣做,提供驚人的性能,10倍的性能提升,並提供10倍的低成本,以此讓良性循環可以繼續。
不管怎樣,有兩個平台轉型正在同時發生。一個平台轉型是從通用計算轉向加速計算。
記住,加速計算,正如我之前向你們提到的,它進行資料處理、圖像處理、電腦圖形學,它進行各種計算。它運行SQL,運行Spark,不管你需要什麼,我相當確定我們有一個很棒的庫能夠給你。你可能是一個試圖製造掩範本來生產半導體的資料中心。我們有一個很棒的庫給你。所以,在底層, irrespective of AI,世界正在從通用計算轉向加速計算,這與AI無關。事實上,許多CSP在AI出現之前早就有了服務。記住,它們誕生於機器學習時代,經典的機器學習演算法,如XGBoost,用於推薦系統、協同過濾、內容過濾的演算法,像資料幀這樣的演算法,所有這些技術都是在通用計算的時代建立的。
即使是那些演算法,即使是那些架構,現在通過加速計算也變得更好。所以,即使沒有AI,世界的CSP也將投資於加速。而我們的GPU是唯一能完成所有這些事情的GPU。
而ASIC可能能做AI,但它不能做任何其他事情。
輝達能完成所有那些。
這就解釋了為什麼僅僅依賴輝達的架構是如此安全。我們現在已經達到了我們的良性循環,達到了我們的拐點。這相當不尋常。我有很多合作夥伴在座,你們所有人都是我們供應鏈的一部分,我知道你們工作得多麼努力。
我想感謝你們所有人,感謝你們如此努力地工作。非常感謝。
現在我要向你們展示原因。這是我們公司業務正在發生的情況。我們看到Grace Blackwell的增長非常驚人,原因正如我剛才提到的。它是由兩個指數驅動的。我們現在能見度很高,我想我們可能是歷史上第一家能看到截至2026年累計5000億美元Blackwell訂單和早期Ruben(下一代平台)訂單的技術公司。如您所知,2025年還沒結束,2026年還沒開始。這是已經預訂的業務量,價值5000億美元。
到目前為止,我們已經出貨了600萬個Blackwell GPU…
在最初幾個季度,我想,是頭四個生產季度或三個半生產季度。2025年我們還有一個季度要完成。然後我們還有四個季度。所以接下來五個季度,要完成5000億美元,那是五倍的增長速度。
這某種程度上告訴了你一些事情。這是上一代的Hopper的整個生命週期的數額。還不包括中國和亞洲市場。
所以Hopper在其整個生命週期中是400萬個GPU。每個Blackwell模組裡面有2個GPU,是一個大封裝。Blackwell在早期階段就有2000萬個GPU,增長非常驚人。
所以我想感謝我們所有的供應鏈合作夥伴,各位。我知道你們工作得多麼努力。我製作了一個視訊來慶祝你們的工作。讓我們播放它。
(播放一段關於美國製造業的視訊)
我們再次在美國進行製造,這太不可思議了。
川普總統之前講的第一件事就是讓製造業回歸,因為這對國家安全是必要的。讓製造業回歸,因為我們想要那些工作崗位。我們想要那部分經濟。
九個月後,我們現在在亞利桑那州全面生產Blackwell。Extreme Blackwell,GB200 NV Grace,Blackwell NVLink 72。極端協同設計給我們帶來了10倍的代際提升。這完全不可思議。現在,真正不可思議的部分是,這是我們製造的第一台AI超級電腦。
這是在2016年,我把它交付給舊金山的一家初創公司,這家公司後來被證明是OpenAI。這就是那台電腦。
而為了製造那台電腦,我們設計了一款新晶片以便我們進行協同設計。
現在我們必須設計的所有晶片。這就是目前所需要的。你不可能拿一個晶片就讓電腦快10倍。那不會發生。讓電腦快10倍的方法,讓我們能夠持續指數級提升性能、持續指數級驅動成本下降的方法,就是極端協同設計,同時研發所有這些不同的晶片。我們現在已經有了下一代的Ruben晶片。
這是我們的第三代NVLink 72機架規模電腦。GB200是第一代。我們在世界各地的所有合作夥伴,我知道我聽說你們工作有多努力。第一代做得非常艱難,第二代順暢多了。而這一代,看這個(現場展示),對我們來說真的不算什麼了。這些現在都在實驗室裡了。這是下一代Ruby。在我們發貨的同時,我們正在準備投入生產,你知道,大概明年這個時候,甚至可能稍早一點。所以每一年,我們都會推出最極端的協同設計系統,這樣我們就能持續提升性能,持續降低Token生成成本。看看這個,這非常漂亮。所以這太神奇了。
(接下來是現場展示和介紹,包括Vera Rubic計算托盤、BlueField、NVLink交換機等)
現在,如你所注意到的,輝達最初從設計晶片開始,然後我們開始設計系統,我們設計AI超級電腦。現在我們正在設計整個AI工廠。
每次我們向外擴展並整合更多需要解決的問題,我們就能提出更好的解決方案。我們現在建造整個AI工廠。這個AI工廠是我們為Vera Ruben建造的,我們建立了一種技術,使我們所有的合作夥伴能夠數位化地整合到這個工廠中。讓我展示給你們看。
(現場播放一段相關視訊)
完全數位化。遠在Vera Ruben作為實體存在之前,遠在這些AI工廠存在之前。我們就最佳化它,並將它作為數字孿生來營運。所以所有與我們合作的合作夥伴,很高興你們所有人都支援我們。我們一起建造AI工廠。
再來,讓我們談談模型,開源模型。
在過去的幾年裡,發生了幾件事。一個是開源模型,由於推理能力相當強大,例如Stability AI,這些不同的能力使得開源模型首次對開發者來說非常有用,它們現在是初創公司的命脈。
每個行業都有其自己的用例,不同行業的初創公司需要讓那個領域專業知識能夠嵌入到一個模型中。開源使之成為可能。研究人員需要開源,開發者需要開源。世界各地的公司,我們需要開源模型,這非常重要。
美國也必須在開源方面領先。我們有驚人的專有模型,但我們還需要驚人的開源模型。
我們的國家依賴於此,我們的初創公司依賴於此,所以輝達正致力於去做這件事。
我們現在是開源貢獻的最大領導者。我們有23個模型在排行榜上。我們有所有這些不同的領域,從語言模型到物理AI模型再到生物學模型。每個模型都有龐大的團隊。這就是我們為自己建構超級電腦的原因之一,以促成所有這些模型的建立。我們有排名第一的語音模型,排名第一的推理模型,排名第一的物理AI模型。下載量非常可觀。我們致力於此。原因是科學需要它,研究人員需要它,初創公司需要它。
我很高興AI初創公司基於輝達建構。他們這樣做有幾個原因。當然,我們的系統豐富。我們的工具運行良好。我們所有的工具都在我們所有的GPU上運行。我們的GPU無處不在,在每一個雲上都可用,你可以下載我們的軟體棧,然後它就能工作。我們擁有豐富的開發者生態系統的優勢,他們正在使這個生態系統更加豐富。
所以我真的很高興與所有我們合作的初創公司建立關係。謝謝你們。同樣的情況是,許多這些初創公司現在開始創造更多的方式來利用我們的GPU,僱傭人員並擴展規模。
Nibias、Lama、love、Lambda, 所有這些公司都很棒。
所有我談到的CUDA-X庫。我告訴過你們關於如何開源AI,將我談到的所有模型貨幣化,我們整合到AWS中,我們整合到Google Cloud中……我們還將真實的庫整合到世界SaaS中,這樣每一個SaaS最終都將成為一個代理式SaaS。
總有一天,我很想僱傭一個AI代理基本設計師,與我們的ACS合作,本質上是Synopsys的Cursor,如果你願意這麼說的話。我們與Anirudh Devgan、Cadence合作。
今天早些時候,他是開場秀的一部分,Cadence在做不可思議的工作,加速他們的堆疊以建立AI代理,這樣我們就能擁有Cadence AI、AC設計師和系統設計師工作。今天,我們宣佈一個新的合作。AI將極大提高生產力。AI將改變幾乎每一個行業。
但AI也將極大地加劇大型網路安全挑戰,那些壞AI。所以,我們需要一個不可思議的防禦者。我無法想像有比CrowdStrike更好的防禦者了。
George Voltage在這裡。他剛才在這裡。是的,我早些時候看到他了。我們正在與CrowdStrike合作,使網路安全達到光速。建立一個在雲中擁有網路安全AI代理的系統,同時也在本地或邊緣擁有真正優秀的AI代理。這樣,無論何時出現威脅,你都能在瞬間檢測到它。我們需要速度,我們需要快速的代理式AI,超級智能的代理。然後,還有一個發佈要宣佈。
這是世界上增長速度最快、最有價值的企業,可能是當今世界上最重要的企業堆疊——Palantir。他們獲取資訊,獲取資料,獲取人類判斷,並將其轉化為商業洞察。我們與Palantir合作,加速Palantir所做的一切,這樣我們就能以更大的規模和更快的速度進行資料處理。
無論是過去的結構化資料,還是非結構化資料。然後,我們會為我們的政府處理這些資料,為了國家安全,也為世界各地的企業。以光速處理這些資料,並從中發現洞察。這就是未來的樣子。Palantir將整合輝達技術,以便我們能夠以光速處理資料。
接下來,讓我們談談物理AI吧。
物理AI需要三台電腦,就像訓練一個語言模型需要兩台電腦一樣:一台訓練它,一台評估和推理。好吧,所以那就是你看到的大型GB200。為了給物理AI做這件事,你需要三台電腦。你需要電腦來訓練它。這是GB,Grace Blackwell NVLink 72,是進行所有我早先向你們展示的模擬的電腦,使用Omniverse DSX。那基本上是一個大窗口,讓機器人學習如何成為一個好機器人,讓工廠本質上成為一個數字工具。
(現場展示)這台電腦必須非常擅長生成式AI,並且必須擅長電腦圖形學、感測器模擬、光線追蹤、訊號處理。
這台電腦,它叫做Omniverse電腦。一旦我們訓練了模型,在數字孿生中模擬那個AI,那個數字孿生可以是一個工廠的數字孿生,也可以是一大堆機器人的數字孿生,然後你需要操作那個機器人。而這是機器人電腦。這個進入自動駕駛汽車。它的一半可以進入一個機器人。好吧?或者你實際上可以有,你知道,相當敏捷和快速操作的機器人。它可能需要兩個這樣的電腦。這三台電腦都運行CUDA。
這使得我們能夠推進物理AI,讓AI理解物理世界,理解物理定律、因果關係、持久性。我們有令人難以置信的合作夥伴與我們一起建立工廠的物理AI。我們自己也在使用它在德克薩斯州建立我們的工廠。現在一旦我們建立了機器人工廠,裡面有一堆機器人,而這些機器人也需要物理AI,應用物理AI並在可視化孿生中工作。
讓我們看看美國的再工業化。在德克薩斯州的休斯頓,富士康正在建設一個最先進的機器人設施,用於製造輝達AI基礎設施系統。面對勞動力短缺和技能差距,數位化、機器人技術和物理AI比以往任何時候都更加重要。工廠在Omniverse中以數字方式誕生。富士康工程師在基於Omniverse技術的西門子數字孿生解決方案中組裝他們的虛擬工廠。每個系統,機械、電氣、管道,都在施工前經過驗證。
西門子Plant Simulation運行設計空間探索最佳化,以確定理想的佈局。當出現瓶頸時,工程師使用由西門子TeamCenter管理的更改來更新佈局。
在Isaac Sim中,相同的數字孿生用於訓練和模擬機器人AI。在裝配區,發那科機械手建構GB300托盤模組。由FII的靈巧機械手和熟練的AI將母線排安裝到托盤中。AMR(自主移動機器人)將托盤運送到測試艙。富士康使用Omniverse進行大規模感測器模擬,機器人AI在其中學習作為車隊協同工作。在Omniverse中,基於輝達Metropolis和Cosmos建構的視覺AI智能體從上方監視機器人車隊和工人以監控操作,並在出現異常、安全違規甚至人與機器人協同工作。這就是製造業的未來,工廠的未來。我想感謝我們的合作夥伴富士康,他們的CEO就在這裡。
所有這些生態系統合作夥伴使得我們建立機器人工廠成為可能。你知道,完成這項工作所需的軟體量如此巨大,除非你能在數字孿生中完成,在這個星球上設計它,在數字孿生中操作它,否則讓這個正常工作的希望很渺茫。我也非常高興地看到,Caterpillar,我的朋友Joe Creed和他有百年歷史的公司也正在將數字孿生融入他們製造這些工廠的方式中。
我們將擁有未來的機器人系統。而最先進的系統之一是Figure。Brett Abcock今天在這裡,他剛在三年前創立了一家公司。他們今天價值近400億美元。我們正在一起合作訓練AI,、訓練機器人、模擬機器人,當然,還有進入Figure的機器人電腦。真的很驚人。我有幸看到了它。它真的非常了不起。
還有我的朋友馬斯克也在研究人形機器人,這很可能將成為最大的新型消費電子市場之一,並且肯定也是最大的工業裝置市場之一。Peggy Johnson,Agility的同事們正在與我們合作,是關於倉庫自動化機器人的。Johnson & Johnson的同事們再次與我們合作,訓練機器人,在數字孿生中模擬以及操作機器人。這些Johnson & Johnson的手術機器人甚至將執行完全現代的非侵入性手術,其精度將是世界前所未見的。當然,還有最可愛的機器人,迪士尼機器人。這個真的非常貼近我們的心。我們正與迪士尼研究部門合作,基於一項革命性的技術,開發一個全新的框架和模擬平台,使得機器人能夠在一個物理上準確、基於物理的環境裡學習如何成為一個好機器人。讓我們看看它。
(現場播放了一段機器人相關視訊)
現在,記住,你剛剛看到的一切…那不是動畫,不是電影,是模擬。那個模擬是在Omniverse中實現的,是數字孿生。所以這些工廠的數字孿生、倉庫的數字孿生、手術室的數字孿生,他們學習如何操作和導航、與世界互動的數字孿生,而且全部都是即時完成的。這將成為世界上最大的消費電子產品線,這是人形機器人的未來,當然,現在人形機器人仍在開發中。但與此同時,有一種機器人顯然正處於拐點,並且基本上已經到來,那就是輪式機器人。機器人計程車本質上是一個AI司機。
現在我們今天要做的一件事是,發佈輝達Drive Hyperion。
這是件大事!我們建立了這個架構,以便世界上每家汽車公司都能製造汽車。車輛可以是商用的,可以是乘用的,可以專用於機器人計程車。製造作為機器人計程車的車輛。
本質上,3個環繞攝影機和雷達、雷射雷達使我們能夠實現最高水平的環繞繭式感測器感知和冗餘,這是最高安全等級所必需的。Drive Hyperion現在已被梅賽德斯-奔馳等採用了,未來還有許多其他汽車企業會採用。
(現場播放了一段機器人自動駕駛相關視訊)
好吧,所以這就是我們今天討論的內容。我們討論了大量的事情,核心是兩個平台轉型,從通用計算轉向加速計算,以及輝達CUDA。而那套名為CUDA-X的庫使我們能夠涉足幾乎每個行業,並且我們正處在拐點上。它現在正在增長,正如良性循環所預示的那樣,第二個拐點現在正降臨到我們身上。
第二個平台轉型,AI,從經典的手寫軟體轉向人工智慧。兩個平台轉型同時發生,這就是為什麼我們感受到了如此驚人的增長。
我們談到了量子計算、開源模型。在企業方面,我們與CrowdStrike和Palantir合作,加速他們的平台。我們談到了機器人技術,它即將成為最大的消費電子和工業製造領域之一。當然,我們還談到了6G,輝達為6G提供了新平台。我們稱之為Arc。我們為機器人汽車提供了新平台,我們稱之為Hyperion。
我們甚至為工廠提供了新平台,兩種類型的工廠:AI工廠,我們稱之為DSX。然後是應用AI的工廠,我們稱之為Mega。所以現在我們也在美國進行製造。
女士們先生們,感謝你們今天蒞臨,感謝你們允許我將GTC帶到華盛頓特區。我們希望每年都能在這裡舉辦。感謝你們所有人,讓美國再次偉大。謝謝! (Barrons巴倫)