美國聖荷西3月19日現場報導,美國科技圈最矚目的AI技術盛會輝達(NVIDIA)GTC大會正在火熱舉行。今日,輝達創辦人兼CEO黃仁勳在GTC大會上與芯東西等全球媒體進行交流,回應中美摩擦對輝達的影響、對中國GPU產品出口計劃、Blackwell GPU的定價與銷售策略、台積電CoWoS供需情況等20個關鍵問題。
輝達最新發表的旗艦AI晶片Blackwell GPU為雙芯設計方案,而上一代H100、H200是單晶片方案,在定價上不好做出直接的對比。黃仁勳強調說,不同系統會存在價格差異,相較於只賣晶片,輝達盯上的是整個資料中心的生意。
此外,據黃仁勳透露,在HBM3E競爭中嚴重落後的三星已搭上輝達這輛豪華巨輪——輝達正在測試三星HBM,並宣布將使用它。
這兩天,GTC大會肉眼可見地人氣爆棚,聖荷西會議中心周圍四處飄揚著輝達GTC大會的道旗廣告,街上到處都是佩帶標誌性輝達綠badge的與會者。還有一些輝達合作夥伴們花式助陣,比如宇樹科技派出機器狗陣隊,當街調戲美國本土狗;WEKA別出心裁地在附近街邊停靠了幾輛吸睛的紫色汽車,汽車前蓋上大字寫著「現已獲得NVIDIA DGX SuperPOD認證」。
除了輝達新品,黃仁勳還在接受媒體提問時分享了對OpenAI視頻生成模型Sora、OpenAI CEO Sam Altman擴大芯片規模的計劃、怎麼預測AGI時間表、AI是否會滅掉碼農、如何回應AI芯片創企Groq的叫囂的觀點。
特別是與Groq的交鋒,快演成反轉電視劇了,昨天輝達GTC主題演講剛結束,以碰瓷科技大佬出圈的大模型推理芯片創企Groq就發文,指名道姓地硬剛輝達表態:「依然更快」。今天Groq又追加一句「…而且也依然耗電量更少」。
在媒體溝通會上,被問到對此事的看法時,黃仁勳回應說:「我真的不太了解,無法明智地作出評價……晶片的存在是用來實現軟體的。我們的工作是促進下一個ChatGPT的發明。如果是Llama-7B,我會感到非常驚訝和震驚。 ”
事情還沒完,Groq創始人兼CEO Jonathan Ross隨即在社交平台上發文並曬出跟黃仁勳的合照:「我之前見過黃仁勳,他的團隊本週專門更新了GTC,以回應Groq,所以對Groq不太了解似乎不太可能。也就是說,***Groq運行700億參數模型的速度比輝達運行70億參數模型的速度快。***體驗一下:groq.com”
鋒芒畢露的美國AI晶片公司顯然對GTC高度重視並緊密關注。
最近剛發表第三代晶圓級晶片的Cerebras,今日在距離GTC展區步行不到10分鐘的地方舉辦Cerebras AI Day,在這裡宣布“擁有4萬億顆電晶體的世界最快AI晶片CS-3” 、「選擇高通在AI推理中提供前所未有的性能」、算力達8EFLOPS的AI超級電腦G42破土動工,並分享了晶圓級架構的核心、AI能力鴻溝、GPU挑戰、大模型在大晶片上訓練得最好、新的多模態大模型發布。
Cerebras不忘發文踩一腳GPU:「在CS-3上,與GPU相比,我們能夠以數量級的效能優勢進行大規模訓練。但即便是我們最大的叢集本身也是作為單一裝置運作的…現在👏🏻鼓掌!”
以下是黃仁勳媒體溝通會20個問答(為方便閱讀,部分問題及回答在盡可能不違背原意的前提下進行了精編處理):
01 .中美摩擦,對輝達的影響有多大?
1.中美緊張局勢如何影響生產製造與系統?
黃仁勳回答說:“是的,有兩件事我們必須做,一是確保我們理解並遵守政策,二是盡我們所能地增強供應鏈的彈性。”
世界供應鏈很複雜,他舉例說,HGX有35,000個零件,其中8個零件來自台積電,其它中很大一部分來自中國,汽車和國防產業也是如此。
他相信各國的目標並不是對立的:“世界末日的情景不太可能發生,我希望這不會發生。我們能做的事情與彈性和合規性相關。 ”
2.輝達與台積電的關係過去兩年如何發展,包括晶片、封裝以及Blackwell雙芯設計?
黃仁勳稱輝達與台積電的合作關係是「業界最密切的合作關係之一」。輝達做的事情很難,但台積電做得很好。輝達有運算die、CPU die、GPU die、CoWoS基板,記憶體來自美光、SK海力士、三星,在台灣組裝。供應鏈並不簡單。這需要大公司的協調,替輝達做這件事。
「他們也意識到需要更多的CoWoS。我們會全部解決的。」他談道,跨公司協作是好的,你組裝它們,另一家公司負責測試,再由另一家公司來構建系統,你需要一台超級計算機來測試超級計算機,製造層是一個巨大的資料中心。
「Blackwell是個奇蹟,但我們必須在系統層面實現它。人們問我是否像SoC一樣製造GPU,但我看到的是機架、電纜和開關,這是我對GPU的心理模型。台積電對我們至關重要。」黃仁勳說。
3.對於台積電,企業總是想要得到更多,能談談今年明年年輝達的供需情況嗎?例如今年輝達的CoWoS需求是去年的3倍?
「你想要確切的數字,很有意思。」黃仁勳說,輝達今年對CoWoS需求非常高,明年會更高,因為正處於AI轉型的開始階段——只有1000億美元投入這一旅程,還有很長的路要走。
黃仁勳對台積電的成長非常有信心,說他們是很好的合作夥伴,理當成為現在的樣子。他認為人們工作得非常努力,技術處在完美的位置。生成式AI正處於不可思議的位置。
4.輝達新的網路技術計畫出售給中國多少、能否告知中國在運算晶片上整合其他技術的具體傾向?
黃仁勳說:「我今年幾乎沒宣布過,有點貪心了哈。這是我們要宣布的。無論何時何地賣給中國,當然有出口管制,所以我們就會考慮這個問題。對於中國,我們有L20和H20。我們正在盡最大努力為中國某些客戶優化它。”
5.當雲端運算廠商紛紛開始自研晶片,輝達正轉向雲端業務,你怎麼看這現象?他們自研晶片會影響價格嗎?輝達在中國的雲端運算策略和解決方案是什麼?
黃仁勳解答說,輝達生產HGX,然後賣給戴爾,戴爾把它放進電腦裡,再賣出去。輝達開發了在戴爾(設備)上運行的軟體,創造了市場需求,來幫助銷售這些電腦。
「我們與雲端服務供應商合作,將NVIDIA Cloud放到他們的雲端。」他強調說,「我們不是雲端運算公司,我們的雲端叫DGX Cloud,但實際上我們是他們雲端中的一員,我們的目標是把客戶帶到雲端上,讓客戶在這台機器上交易。”
「我們將培養開發者,我們將創造對雲端服務的需求。」他談道,「這與任何人的晶片無關——輝達是一家計算平台公司,必須發展我們自己的開發者——這就是GTC存在的原因。”
「如果我們是x86公司,為什麼還要辦開發者大會?」黃仁勳犀利發問,「開發者大會是做什麼的?因為架構仍在被接受,它的使用是複雜的,我們還沒克服,所以DRAM不需要開發者大會,互聯網不需要開發者大會,但向我們這樣的計算平台需要,因為我們需要開發者,這些開發者會感激輝達在每個雲上都無處不在。”
02 .解釋Blackwell定價:沒想賣GPU,資料中心才是追求
Raymond James分析師估計輝達製造每個H100成本約3320美元,B200成本約6000美元,GB200解決方案成本遠高於80GB記憶體的單晶片GH100;一個H100售價2.5萬~3萬美元,新GPU價格將比H100高出50%~60%。
不過輝達並未公開其定價,這也是輝達少見地沒在官網直接列出B200的詳情頁,僅放出DGX B200和DGX B200 SuperPOD的介紹信息,Blackwell架構介紹頁面也還沒有上線。
這週接受CNBC專訪時,黃仁勳透露新GPU架構的研發預算大概是100億美元,Blackwell GPU的售價約3萬~4萬美元。對於這個問題,黃仁勳在今日的媒體溝通會上做了補充說明:
6.Blackwell定價範圍是多少?你之前提到每個Blackwell GPU價格是3萬-4萬美元。還有TAM,你想在2500億美元TAM中佔多大比例?
黃仁勳回覆說:“我只是想讓大家對我們產品的定價有大概的了解,並不打算報價——我們賣得不是芯片,而是系統。 ”
據他解釋,Blackwell對不同系統的定價不同,不僅是Blackwell,系統還包括NVLink,分區是不同的,輝達會給每個產品定價,定價將一如既往來自TCO。 「輝達並沒有製造晶片,輝達建造資料中心。」黃仁勳強調。
輝達建構了全端系統和所有軟體,透過調試,使它具有高效能,建構資料中心。輝達把資料中心分解成很多個模組,讓客戶依需求選擇如何配置,自行決定買多少、怎麼買。
一個原因是,也許你的網路、儲存、控制平台、安全性、管理是不同的,所以輝達和你一起分解所有的東西,幫你探索如何把它們整合到你的系統中,並有專門團隊來提供幫助。
因此這不是買晶片,不是人們過去賣晶片的方式,是關於設計和整合資料中心的,輝達的商業模式反映了這一點。
至於輝達想在2500億美元TAM中佔多大比例?黃仁勳說,輝達的機會不是GPU的機會,而是晶片的機會。 GPU市場與輝達所追求的市場截然不同,輝達正在追求資料中心。全球資料中心大約是2000億歐元,這是其中的一個建築。輝達的機會是這2500億美元的一部分,現在將會成長,AI被證明是相當成功的,去年是2500億美元,符合增長率為20-25%,長期機會將會是1萬億~2萬億美元,取決於時間表。
7.在建構像Blackwell這樣的平台時,你是如何估計(客戶)的運算需求的?目標基本上是增加計算,你如何考慮電力、效率和可持續性?
「我們必須弄清楚物理極限,達到極限,並且要超越極限。」黃仁勳說,如何超越,是讓事情變得更節能,例如,你可以用1/4的功率訓練GPT。
Hopper需要用8000個GPU的任務,Blackwell只需2000個GPU,相同時間只消耗更少能源效率。因為能效更高,可以挑戰極限。能源效率和成本效率是首要任務。輝達把從大語言模型生成tokens提速30倍,以此節省很多能源,即生產相同tokens所需的能源減少到原來的1/30。
8.除了HBM之外,怎麼看待三星和SK海力士的生產?
黃仁勳調侃說:“這就像問台積電,除了代工,除了GPU,你還喜歡輝達嗎?”
據他分享,HBM是複雜的,附加價值很高。輝達在HBM上花了很多錢!
「我們正在測試三星HBM,我們將使用它。」黃仁勳透露道,「三星是一個很好的合作夥伴。韓國是世界先進記憶體生產量最多的國家。HBM非常複雜,它不像DDR5。這是一個科技奇蹟。這就是它這麼快的原因。HBM就像邏輯,而且越來越複雜,越來越半定制化。”
他稱讚HBM是個奇蹟,由於生成式AI,整個資料中心的DDR已經成為過去,未來屬於HBM。
「三星和SK海力士的升級週期令人難以置信。我們的合作夥伴將與我們一起成長。我們將用HBM替換資料中心中的DDR。能效提高了很多。」黃仁勳說,這就是輝達讓世界更永續發展的方式-更先進的內存,更低的功耗。
9.輝達AI代工廠與企業合作的整體策略與長期目標是什麼?
黃仁勳說,代工廠的目標是製造軟體,不是作為工具的軟體,但別忘了,輝達一直是軟體公司。輝達很久以前創建了兩個重要軟體,一個叫OptiX,後來變成了RTX;另一個叫cuDNN,是一個AI庫,我們有很多不同的函式庫。
未來的庫是一種微服務,不僅是用數學來描述,在AI中也有描述。這些庫,輝達叫cuFFT、cuBLAS、cuLitho——未來它們將是NIM。這些NIM是一些超級複雜的軟體,輝達將其打包,所以你能訪問網站來使用它,或下載它,在雲端或電腦、工作站上運行它。輝達將使得NIM性能更好。
當企業運行這些函式庫時,自訂作業系統會進行授權,授權費用為4500美元/GPU/年,你可以在上面運行任意多的模型。
03 .人工智慧晶片競爭對手公開挑釁,黃仁勳回擊“真的不了解”
10.你對Groq這樣的晶片創企有何評論,Groq昨天發了一條推文,說要比你的「孩子」更快?
「我真的不太了解,無法做出明智的評價。」黃仁勳認為token生成很難,取決於你想要的模型,每個模型都需要自己特殊的分區方式。
在他看來,成為Transformer並不是所有模型的終點——每個Transformer都是相關的,因為都有註意力;但它們又都是完全不同,有些是前饋或MoE(混合專家),有些MoE是2個專家,有些是4個,分工方式都是不同的,所以這些模型中的每一個都需要非常特殊的最佳化。
如果計算機太脆弱,被設計來做一些非常具體的事情,它就變成了一台可配置的計算機,而不是可編程的計算機。它不會讓你從軟體創新的速度中獲益。
黃仁勳認為,不能低估CPU奇蹟的原因——由於可編程,CPU隨著時間推移已經克服了主機板上、PC上這些可配置的東西。軟體工程師的天才可以透過CPU來實現,如果把它固定到晶片中,那就切斷了軟體使用者的晶片才華。它真正要做的是從兩者中獲益。
他說,輝達已經找到了一種特殊的計算形式,採用平行流計算模型,具有容錯性,性能非常好,並且可編程。有一個架構從AlexNet開始就存在了,貫穿了所有的模型,最後Transformer出現了,有一大堆變種,這些模型在狀態空間、記憶體和體系結構中不斷發展。
「我們能做出一個有水平的模型是很重要的。」黃仁勳說,「晶片的存在是用來實現軟體的。我們的工作是促進下一個ChatGPT的發明。如果是Llama-7B,我會感到非常驚訝和震驚。”
04 .怎麼看OpenAI CEO的晶片工廠網路計畫?
11、Sam Altman一直在和整個晶片產業的人充分談論擴大範圍和規模。你跟他聊過嗎?你怎麼看他想做什麼?這對你和輝達有什麼影響?
「我不知道他的意圖,除非他認為生成式AI是一個巨大的市場機會,我同意。」黃仁勳說。
他從基本原理談起,今天電腦產生像素、檢索、解壓縮、顯示。人們認為整個過程只需要很少的能量,但事實恰恰相反。原因是每個提示字、每件事、每次你用手機,它都要傳到某個地方的資料中心,以一種從推薦系統的角度來看有意義的方式獲得一些回應,然後把它發回給你。
例如,如果每次問他一個問題,他都要跑到自己的辦公室,而不是直接回答,這就很浪費時間和精力。他認為一起工作的方式應該是擴大AI生成。未來越來越多的計算將是生成的,而不是檢索,一代必須是聰明的,並且上下文相關。
「我相信,我想Sam也相信,幾乎每個電腦上的每個像素,每次你與電腦互動時,都由一個生成式晶片生成。」他希望Blackwell和後續迭代能繼續在這個領域做出很大貢獻。
「如果每個人的電腦體驗都是生成式的,我不會感到驚訝。但今天還不是這樣。這是個很大的機會,我想我會同意這個問題。」黃仁勳說。
05 .AI替寫程式碼,人類不用學程式了?
12、你之前說過沒人需要學程式設計了,是在暗示人們不應該學習程式設計技能嗎?
黃仁勳認為人們在學習很多技能,像鋼琴、小提琴這樣的技能真的很難,並認為無論是數學、代數、微積分還是微分方程,人們都應該盡可能地學習這些技能。但對於成功者來說,程式設計技能並不是不可或缺的。
「曾經有一段時間,全世界很多大佬都在提倡,每個人都必須學習編程,因此你效率低。」他分享說,「但我認為這是錯誤的,學C++不是一個人的工作,這是計算機的工作來讓C++起作用。”
在他看來,AI已經對社會做出了最大的貢獻——你不必是一個C++工程師才能成功,只要做一個及時的工程師。例如,人類透過對話進行交流,我們需要學習如何提示AI,就像在運動中提示隊友獲得你想要的結果一樣,這取決於你想要做的工作、想要取得的高品質結果、是否尋找更多想像力,或是否想在結果中更具體。根據不同的答案、不同的人,你會給予不同的提示。
「我相信AI所做的第一件偉大的事,是縮小技術鴻溝。看看YouTube上所有的視頻,都是人們創建AI,而不是編寫任何程序,所以我認為這很有趣。」黃仁勳說, “但如果有人想學習程式設計——請這樣做。我們正在招聘程式設計師! ”
06 .給AGI設定時間表,是否害怕AGI?
13.你之前提到AGI將在5年內實現,這個時間表還在嗎?你害怕AGI嗎?
黃仁勳略帶回懟地回答道:「首先,定義AGI。」他沉默了一會兒,接著說道:「我停頓了一下,是因為現在,正如我所說的,我確信每個人都很難做到這一點。我想讓你具體定義一下AGI,這樣我們每個人都知道我們什麼時候能到達。”
他直接表達出對先前新聞報導斷章取義做法的不滿:「每次回答這個問題,我都會指定AGI規範。但每次報導時,都沒有人具體說明。所以這取決於你的目標是什麼。我的目標是和你溝通。你的目標是弄清楚你想講什麼故事。”
「OK,所以我相信AGI,正如我所指出的,可能在5年內,AGI,也就是通用智能,我不知道我們是如何互相定義對方的,這就是為什麼我們有這麼多不同的詞來形容彼此的智力。」他談道。
在黃仁勳看來,預測我們何時會看到一個通用的AGI,取決於如何定義AGI,需要明確AGI在問題中的具體意義。
他舉了兩個例子,例如定義聖克拉拉在哪裡,它的位置很具體;再例如定義新年,儘管所處時區不同,每個人都知道新年什麼時候到來。
但AGI有些不同。黃仁勳說,如果我們將AGI指定為具體特定的東西,例如一個軟體程式做完一組測試成績可以達到優秀(80%以上),比大多數人甚至比所有人都好,你認為電腦能在5年內做到這一點嗎?答案可能是肯定的。
這些測驗可以是數學、閱讀、邏輯、學術、經濟測驗以及律師資格、醫學預科考試等。
14.未來我們的生活如何隨著大語言模型和基礎模型而改變?
黃仁勳認為,問題是我們如何擁有自己的大語言模型。
「有幾個方法可以做到,一開始,我們認為你不斷微調,但微調很耗時,然後我們發現了提示調優,發現了長上下文視窗、工作記憶。我認為答案是所有這些因素的結合。」他談道。
在他看來,未來你只用調整一層權重就能微調。你不需要調整所有的,只需像LoRA一樣微調一層。低成本微調、提示工程、上下文、記憶存儲,所有這些一起構成你的客製化大語言模型。它可以在某個雲端服務裡,也可以在你自己的電腦裡。
15.軟體最大的成長機會在哪裡?是微服務嗎?
黃仁勳說,輝達最近的機會是兩種類型的資料中心計算,一個是關於資料中心的現代化計算,另一個是資料中心的新提示生成。
輝達這樣做是想幫助客戶製造AI。 Llama、Mixtral、Grok……很多團隊創造了AI,但這些AI很難使用。基礎模型是原始的,不好用。
輝達將創建其中的一些,然後選擇一些主流的開源合作夥伴,並將這些模型轉化為產品品質的可用模型。它還需提供服務,例如NeMo。
「我們不僅會發明AI,還要製造AI軟體,這樣每個人都能使用它們。我們的軟體大約是10億美元運行率,我認為製造AI肯定能做相當多的事。」黃仁勳說。
16.一些關鍵任務要求100%正確,AI幻覺問題可以解決嗎?
黃仁勳認為,幻覺是可以解決的,只要確保答案得到充分研究。
他談道,添加一條規則,對於每個答案,你都必須找到答案,這就是RAG檢索增強生成。如果你做一個查詢,它應該先做搜索,不會編造一個答案並輸出,而是優先考慮最準確地回答內容,然後反饋給用戶。這個AI如果很重要,它不只是回答你,會先做研究,確定哪個答案是最好的,然後再總結。這不是幻覺,是研究助理。這也取決於臨界情況——更多的護欄或及時的工程。
對於關鍵任務的答案,例如健康建議或類似問題,黃仁勳認為,可能檢查核對多種資源和已知的事實來源才是前進的方向。
17.你談到用生成式AI和模擬來大規模訓練機器人,但很多東西不好模擬,尤其當機器人走出建築環境時,你認為模擬會有什麼限制?當我們碰到這些限制時該怎麼做?
黃仁勳說,有幾種不同的方式來思考這個問題。首先是建構你對大語言模型的想法。請記住,大語言模型是在一個不受約束的、非結構化的世界中運作的。這可能是個問題,但它從中學到了很多教訓。大語言模型的泛化能力是神奇的,然後透過迭代或透過提示來獲取上下文視窗。
例如你要在廚房裡做煎蛋捲,只有你能具體說明問題,指定背景、你能用的工具,描述機器人的環境,這個機器人應該可以有效地泛化。
這是機器人的ChatGPT時刻。仍有一些問題需要解決,但可以看到推論。這一切都可以產生token,這些token在機器人看起來像這樣之前就已經生成了。機器人學對軟體是有意義的。軟體不懂其中的差別,只是個token。所以你必須組織所有的姿勢,將所有輸出標註化,概括環境,輸入上下文,加強人類反饋,給它一大堆適當的問答例子,在哲學、化學、數學中的適當答案。
其中一些在頁面中進行了描述。你可能需要1萬多個大模型範例才能做出ChatGPT。我們的大腦可以區分文字和機器人動作之間的區別,計算機只能看到數字,它不知道這些東西的區別。
18.關於電腦遊戲,去年你說每個像素都會被生成、渲染,你認為我們離這個每個像素都以實時幀速率生成的世界還有多遠?你對遊戲/非遊戲的願景是什麼?
黃仁勳認為幾乎所有的技術,S曲線都不會比技術長。一旦它變得實用和更好,就像ChatGPT一樣,我想用不了10年的時間。在10年時間裡,你是另一種專家;5年後,事情在即時變化,一切正在發生。所以你只需要決定我們在這方面走了多遠。現在大概是2年了。在接下來的5-10年裡,情況基本上就是這樣。
19、您曾說過很多行業都將迎來ChatGPT時刻,能挑個令你興奮的講講嗎?
黃仁勳說,有些讓他興奮的是技術性原因,有些是因為第一次接觸,有些是因為影響。
「我對Sora非常興奮,OpenAI做的很棒,去年我們在自動駕駛公司Wayve上看到了同樣的情況,你也看到了我們所做的一些例子,差不多兩年前,關於從作品中生成視頻。他談道。
為了產生視頻,模型必須了解物理,所以當你把杯子放下時,杯子是在桌子上,而不是在桌子的中間。它有感受力。它不必遵守物理定律,但它必須是明智的,理解所有的物理定律。
其次,黃仁勳認為輝達對Earth-2氣候數位孿生雲平台的生成式AI模式CoreDiff所做的工作對預測2-3公里範圍內的天氣有巨大影響。輝達使其能源效率提高了3000倍,同時速度提高了1000倍,可以預測極端天氣下的飛行路線,在混亂天氣的情況下,可以更頻繁地採樣,採樣1萬次。這個例子得到最可能答案的能力有很大提升。
第三,在分子生成、藥物發現所做的工作,在具有目標蛋白質非常理想的特性的可藥物分子中。你可以把它放在像AlphaGo這樣的強化學習循環中,生成各種分子與蛋白質的連接,進而探索巨大的空間。這是非常令人興奮的。
20、請深入談談你對藥物發現、蛋白質結構預測和分子設計的看法,這對其他領域有何影響?
黃仁勳說:「我們可能是最大的不製造量子電腦的量子運算公司。我們這樣做的原因是因為我們相信它,我們想在這裡,我們只是認為沒有必要再建立一個。」QPU是一個加速器,就像GPU一樣,用於一些非常特定的事情。
輝達打造了cuQuantum,模擬量子電腦。可以有34-36個量子位元。人們用它來模擬量子電路。我們可以做後量子加密,讓世界為量子做好準備,因為當量子到來時,所有資料都被正確地編碼、加密。輝達可以為所有人做出貢獻,與世界上大多數量子計算公司合作。黃仁勳相信還需要一段時間才能帶來突破。
對於數位生物學來說,NIM的敏感度來自於數位生物學。 BioNeMo是輝達的第一個NIM。這些模型太複雜了,所以輝達想用一種特殊的方式來封裝它們,以便所有研究人員都能使用。 BioNeMo在許多地方都得到了應用。輸入一對化學蛋白,它會告訴你結合能是否有效;或發送一種化學物質,並要求它產生其他化學物質。
附:黃仁勳15分鐘演講資訊實錄
現場媒體溝通會分為兩部分。在進行媒體問答前,黃仁勳先做了15分鐘的單人演講。期間,黃仁勳特別提到對OpenAI視訊生成模型Sora的看法,並從對生成式AI趨勢、AI編程的見解,聊到輝達重點產品線的技術規劃和佈局邏輯,包括新架構Blackwell的革命性進展、 Omniverse API、系統模組化設計等。
以下是黃仁勳15分鐘演講精編:
產業正同時經歷兩個轉型:一是從通用運算到加速運算;二是生成式AI新工具出現。
生成式AI被一些人稱作資料中心。一個標準資料中心有文件,而生成式AI產生token,它產生的浮點數會變成文字、影像、聲音。
未來,這些token將是蛋白質、化學物質、動畫機器、機器人。如果計算機能說話,為什麼它不能像機器人一樣移動呢?
生成器是一個新的類別、新的產業,這就是為什麼說新工業革命正在發生。這些房間、建築被稱為AI工廠。上一次工業革命,投入水和燃料,產生電力。現在進入AI工廠的是數據,輸出的是token,token可以分散到全世界,納入公司成本、營運費用、資本支出。
在新世界,軟體非常複雜,越來越大,需要很多不同的東西。今天它透過文字、圖像、影片、強化學習、合成數據,透過像AlphaGo一樣的辯論來學習。隨著時間推移,這些模型會變得越來越複雜,它會學習很多方法。
黃仁勳著重分享了3個突破:
1.節能省錢:輝達為萬億參數的未來創造了全新一代計算,由Blackwell實現。 Blackwell非常有效率。以訓練GPT-MoE-1.8T參數模型為例,H100是90天15MW電力,而Blackwell是4MW,節省了11MW。 「我們降低了這項工作量。」黃仁勳說這節省了很多很多的能源、很多很多的錢。
2.AI生成:遊戲玩家總是將GPU看成一個生成式引擎,生成影像和像素。你看到的所有圖像都是由最大的GPU產生的。未來,影像、影片、文字、蛋白質、分子都將由GPU生成。 GPU從圖形生成發展到AI訓練、AI推理,現在是AI生成。我們幾乎所有的計算經驗都將在大量產生,一切都將被預先記錄、個人化生成。未來一切都將被創造出來,而這需要一個特殊的處理器。輝達打造了Blackwell,有第二代Tranformer引擎、下一代NVLink、多GPU並行。
3.軟體:未來,軟體是AI,你只要跟它說話,就能互動,非常好用。 API如此自然,可以將許多AI連接在一起。輝達打造了NIM微服務,把它們連在一起,讓公司可以用現成的、客製化的。 NeMo服務可協助客戶客製化NIM,這被稱為AI代工廠。輝達擁有實現該目標的技術、專業知識、基礎設施,這就是代工廠,輝達可幫助每個公司來建立客製化AI,把AI技術推向世界。
在黃仁勳看來,對於下一波AI浪潮,AI必須理解物理世界。
「我們從OpenAI看到了一些革命性的、令人驚嘆的AI,叫作Sora。當Sora生成的視頻是有意義的,汽車停在路上轉彎,一個沉思的人走在街上有倒影,顯然AI理解這一點,理解物理定律。」他解釋說,“如果我們把它發揮到極限,那麼AI就能在物理世界中行動,這就是機器人技術。”
因此,下一代需要新的電腦來運行新的機器人、新的工具Omniverse、數位孿生,必須開發新的基礎模型。輝達以技術平台而非工具製造商的身份進入市場。企業可使用Omniverse API來建立數位孿生。黃仁勳對於該任務的成功感到非常高興,並表示連接到這些工具是「超級充電」。
Blackwell是晶片的名字,也是電腦系統的名字。輝達有一個沿用之前版本的x86系統,叫HGX,你可以把Hopper的托盤拉出來,然後把Blackwell推進去。由於支援生產的基礎設施已經存在,生產轉換和客戶成長將變得容易得多。
輝達也有DGX,液冷新架構,可以創建大型NVLink域,支援在一個域中採用8個GPU,即16個die。如果想要打造更大的機器,輝達有Blackwell和Grace Blackwell超級晶片的堆疊版本,以及NVLink Switch。
黃仁勳說,NVLink Switch是“世界上性能最高的交換機”,是非常模組化的,很受歡迎。(芯東西)
