輝達CEO黃仁勳與高盛半導體分析師對話全文

當地時間2024年9月11 日,輝達CEO黃仁勳(Jensen Huang)參加高盛交流與技術大會(Goldman Sachs Communacopia & Technology Conference),接受了高盛半導體分析師Toshiya Hari採訪。



在訪談中,黃仁勳回顧了輝達的發展歷程,談到了計算市場的變革,以及輝達的創新、以及擁有的競爭優勢,此外他還重申了最新AI晶片Blackwell的發貨節奏。


精彩觀點:

這樣的架構相容性思維、建立龐大的安裝基礎、將軟體生態系統的投資與我們一起發展,這種想法從1993 年開始,我們一直堅持到今天。這也是為什麼NVIDIA 的CUDA 能有如此龐大的安裝基礎,因為我們始終在保護它。

事實證明,NVIDIA 擅長的事情就是創造新市場。我們已經這樣做了很長時間,現在似乎NVIDIA 的加速計算無處不在,但實際上我們是一個市場一個市場地開發出來的。

生成式AI 不僅僅是一種工具,它是一項技能。這就是為什麼一個新的行業已經誕生的原因。到目前為止,整個IT 行業都在製造工具和裝置供人們使用。而現在,我們將首次創造出能夠增強人類的技能。

過去10 到15 年裡,虛擬化和雲端運算的趨勢掩蓋了底層發生的根本性變化,那就是摩爾定律的終結。我們在虛擬化和雲端運算中找到了2 倍、4 倍的成本降低,但這掩蓋了電晶體縮放終止的影響。

AI 並不僅僅是一個晶片,AI 是一個基礎設施。當你想建構這種AI 電腦時,人們會使用諸如「超級叢集」、「基礎設施超級電腦」這樣的詞,這是有原因的。因為這不僅僅是一個晶片,也不僅僅是一台電腦,而是整個資料中心的建構。

我們與全球每一家資料中心合作。隨之而來的是巨大的責任。我們肩負著許多人的期望,每個人都在依賴我們。 。需求非常之大,我們的元件、技術、基礎設施和軟體的交付影響著客戶的情緒,因為這直接影響他們的收入和競爭力。


以下內容是「智能超參數」根據seekingalpha 的會議實錄翻譯而來,enjoy:

Toshiya Hari:我們將儘可能輕鬆地進行,試著讓你談談一些你非常關心的話題。但我想先從31 年前你創立公司時說起。你將輝達從一家專注於遊戲的GPU 公司,轉變為如今為資料中心行業提供廣泛硬體和軟體的公司。我想請你談談這段歷程。最初你是怎麼想的?這個過程如何演變?因為這真是一個非凡的旅程。然後,你可以談談你的關鍵優先事項和對未來的展望?

黃仁勳:是的,David,很高興來到這裡。我認為我們做對的一件事是,我們的願景是有另一種計算形式可以增強通用計算能力,以解決通用計算無法有效處理的問題。起初這種處理器是用來做CPU 非常難以應付的事情,也就是電腦圖形,但我們逐漸將其擴展到其他領域。

最初我們選擇的是圖像處理,它是電腦圖形學的補充。接著,我們將其擴展到實體模擬領域,因為在我們選擇的應用領域——電子遊戲中,不僅要使其視覺效果美觀,還要動態變化,以創造虛擬世界。

我們一步步地發展,後來還涉足了科學計算。第一個應用之一是分子動力學模擬,另一個是地震處理,基本上就是逆向物理學。地震處理與CT 重建非常相似,都是逆向物理學的一種形式。因此,我們就是這樣一步步地推理出相鄰行業的演算法,逐步解決問題。

當時的共同願景是,加速計算可以解決一些有趣的問題。如果我們能夠保持架構的一致性,也就是說,今天開發的軟體可以運行在龐大的安裝基礎上,而你之前開發的軟體可以透過新技術進一步加速。這樣的架構相容性思維、建立龐大的安裝基礎、將軟體生態系統的投資與我們一起發展,這種想法從1993 年開始,我們一直堅持到今天。這也是為什麼NVIDIA 的CUDA 能有如此龐大的安裝基礎,因為我們始終在保護它。從一開始,我們公司最優先的任務就是保護軟體開發者的投資。在這個過程中,我們還解決了一些其他問題,包括如何成為創始人、如何成為CEO、如何經營業務、如何建立公司。


Toshiya Hari:這確實不容易。

黃仁勳:這些都是新的技能,我們就像在學習如何發明現代電腦遊戲產業。大家可能不知道,NVIDIA 是全球最大的電玩架構安裝基礎。 GeForce 擁有全球約3 億遊戲玩家,仍在快速成長,充滿活力。所以,我認為每次我們進入一個新的市場,我們都必須學習新的演算法,理解新的市場動態,建立新的生態系統。

我們必須這樣做的原因是,與通用電腦不同,如果你建構了那個處理器,那麼最終一切都會正常運作。但我們是一個加速電腦,這意味著你必須問自己的問題是,你要加速什麼?因為沒有所謂的通用加速器。


Toshiya Hari:深入談談通用計算和加速計算之間的差異。

黃仁勳:如果你看看你寫的軟體,其中有很多檔案I/O 操作,很多資料結構的設定。而軟體中的某些部分則包含了所謂的“神奇核心”,即核心演算法。

根據不同的需求,這些演算法可能不同,例如是電腦圖形、圖像處理,或其他可能的任務。它可能是流體、粒子、逆向物理學(如我所提到的地震處理),也可能是影像領域的任務。因此,這些不同的演算法都不同。

如果你建立了一種特別擅長這些演算法的處理器,並且與CPU 互補,理論上你可以顯著加速應用程式的運作。原因是通常5% 到10% 的程式碼佔用了99.999% 的執行階段間。所以,如果你將那5% 的程式碼解除安裝到加速器上,技術上你應該能夠將應用程式的速度提升100 倍。

這並不罕見,我們經常能做到這一點。我們常常可以將影像處理速度提升500 倍。現在我們也處理資料了,資料處理是我最喜歡的應用之一,因為幾乎所有與機器學習相關的東西都是資料驅動的軟體。資料處理已經演變成了各種形式,可能是SQL 資料處理,可能是Spark 之類的資料處理,可能是向量資料庫處理,各種處理無結構資料或結構化資料(如資料幀)的方式,我們大大加速了這些過程。

為了實現這些,你必須建立那個頂級庫。例如在電腦圖形領域,我們很幸運有Silicon Graphics 的OpenGL 和微軟的DirectX 作為基礎庫。但在這些之外,幾乎沒有庫存在。所以,我們建立了一個叫做cuDNN 的庫,它是世界上第一個用於神經網路計算的庫。我們還建立了cuOpt 用於組合最佳化、cuQuantum 用於量子模擬和模擬、cuDF 用於資料幀處理(例如SQL 資料)。這些不同的庫必須被發明出來,以便重新建構應用程式中的演算法,使我們的加速器能夠運行它們。如果你使用這些庫,你可以獲得100 倍的加速。


Toshiya Hari:速度會更快。

黃仁勳:令人難以置信。所以這個概念很簡單,也非常有意義,但問題是你如何發明所有這些演算法,並促使視頻遊戲行業採用它?如何寫這些演算法,並讓整個地震處理和能源產業使用它?再寫出新演算法讓整個AI 產業使用它?你懂我的意思嗎?


Toshiya Hari:是的。

黃仁勳:因此,這些庫-我們必須先進行電腦科學的研究。其次,我們必須透過生態系統的發展,去說服大家使用它。然後再考慮它會在那些類型的電腦上運行,不同的電腦也各不相同。我們就是這樣一步步地從一個領域到另一個領域發展。

我們有一個豐富的庫為自動駕駛汽車服務,我們有一個為機器人服務的優秀庫,還有一個用於虛擬篩選的庫,無論是基於物理的虛擬篩選,還是基於神經網絡的虛擬篩選。我們還有一個用於氣候技術的出色庫。因此,一個領域接一個領域地推進。我們必須去交朋友,創造市場。而事實證明,NVIDIA 擅長的事情就是創造新市場。我們已經這樣做了很長時間,現在似乎NVIDIA 的加速計算無處不在,但實際上我們是一個市場一個市場地開發出來的。


Toshiya Hari:許多投資者對資料中心市場特別關注。能否分享一下公司對中長期機會的看法?顯然,你們正在推動下一次工業革命。這個行業面臨那些挑戰?談談你對當下資料中心市場的看法。

黃仁勳:有兩件事情同時發生,容易混為一談,但把它們分開講會更有幫助。首先,我們假設一個沒有AI 的世界。在這樣的世界裡,通用計算的進步已經停滯了。大家都知道,對於半導體物理學感興趣的聽眾來說,Dennard 縮放和Mead-Conway 的晶體管縮放都結束了。也就是說,晶體管的縮放帶來等功率下的性能提升的時代已經結束。我們不會再看到CPU 每年都快一倍的時代了。

如果CPU能每10年快兩倍,那已經算幸運了。摩爾定律-大家記得,過去摩爾定律的提升是每五年10 倍、每十年100 倍。過去我們只需要等著CPU 提速,而隨著世界資料中心處理更多資訊,CPU 每年都會快一倍,因此我們沒有看到計算膨脹。但是現在,情況變了,計算的膨脹來了。因此,我們必須加速所有可以加速的部分。如果你做的是SQL 處理,必須加速它。如果你做的是任何形式的資料處理,都需要加速它。如果你正在建立一家互聯網公司,擁有推薦系統,必須加速它。如今它們都已經完全加速了。

幾年前,所有這些還都是運行在CPU 上,但現在,世界上最大的推薦系統資料處理引擎都已經實現了加速。因此,如果你有推薦系統、搜尋系統,或任何大規模的資料處理系統,你必須加速它。第一個將發生的事情是,全球價值數億美元的通用資料中心將被現代化,加速成能夠處理更多工的計算架構。這將不可避免地發生,因為摩爾定律已經結束了。

因此,第一個動態是,你會看到電腦的密集化。這些巨大的資料中心效率極低,因為它們充滿了空氣,而空氣是電的不良導體。因此,我們要做的是,將這些50、100 或200 兆瓦的資料中心濃縮成非常小的資料中心。

如果你看一下我們的伺服器機架,NVIDIA 的伺服器機架看起來很昂貴,可能每個機架要花費幾百萬美元,但它可以替換成千上萬個節點。令人驚訝的是,連接傳統通用計算系統的電纜成本甚至比替換這些系統並將它們壓縮到一個機架還要高。

壓縮的另一個好處是,一旦你將其壓縮得足夠小,你就可以用液體冷卻它,因為要冷卻一個龐大的資料中心很難,但冷卻一個小型資料中心卻很容易。因此,我們首先在加速和現代化資料中心,壓縮它們,使其更加節能。你可以節省成本,節省電力,使其更有效率。如果我們只是專注於這一點,那麼未來十年我們只會加速這個過程。

當然,還有第二個動態,NVIDIA 的加速計算帶來了巨大的成本降低。在過去的十年裡,計算能力擴展了100 萬倍,而不是摩爾定律的100 倍。所以問題是,如果你的飛機速度快了100 萬倍,你會做什麼?這時,人們突然意識到,為什麼不讓電腦來寫軟件呢?與其我們去想出所有的功能和演算法,不如把所有的資料都交給電腦,讓它找出演算法。這就是機器學習和生成式AI。因此,我們在大規模資料領域做了這樣的事情,現在電腦不僅理解如何處理數據,還能理解數據的意義。由於它能夠同時理解多種模式,它可以翻譯資料。例如它可以從英文翻譯成圖像,從圖像翻譯回英文,從英文翻譯成蛋白質,從蛋白質翻譯成化學分子。

由於它能夠同時理解所有的資料,它可以進行這種數據翻譯。我們稱之為生成式AI。大段文字可以縮寫成短文,短文字可以擴展成長文,依此類推。我們現在正處於這場電腦革命的時代。

令人驚訝的是,未來的第一個兆資料中心將加速,創造出這種新類型的軟件,稱為生成式AI。這種生成式AI 不僅僅是一種工具,它是一項技能。這就是為什麼一個新的行業已經誕生的原因。到目前為止,整個IT 行業都在製造工具和裝置供人們使用。而現在,我們將首次創造出能夠增強人類的技能。因此,人們認為AI 將超越現有的兆資料中心和IT 領域,進入技能的世界。

什麼是技能?一個數字司機是一項技能;自動化裝配線上的機器人是一項技能;數字客戶服務聊天機器人也是一種技能。像NVIDIA 這樣的公司中有一個數字員工,用來規劃供應鏈。這可能是數字SAP 代理程式。我們公司使用大量的ServiceNow,現在我們有了數字員工服務。所以現在我們有了這些「數字人類」。這就是我們現在所處的AI 浪潮。


Toshiya Hari:讓我們換個角度。根據你剛才所說的內容,金融市場上有一種持續的爭論,那就是隨著我們繼續建立AI 基礎設施,是否有足夠的投資回報。你如何評估客戶在這個周期中的投資回報率?如果你回顧一下個人電腦和雲端運算在類似採用周期中的情況,當時的投資回報如何?與現在我們繼續擴展時相比,它們表現得如何?

黃仁勳:這個問題很好。讓我們來看看。在雲端運算之前,主要的趨勢是虛擬化,大家還記得嗎?虛擬化基本上是說,我們將資料中心中所有的硬體虛擬化成一個虛擬資料中心,然後我們可以在整個資料中心中移動工作負載,而不必與特定的電腦直接關聯。結果是,資料中心的利用率提升了,成本大幅降低了,幾乎是兩倍或兩倍半的成本降低。

虛擬化之後,我們將這些虛擬電腦放入雲端。因此,不僅一個公司的多個應用可以共享相同資源,多個公司也可以共享相同資源,再次帶來了成本降低,利用率再次提升。過去10 到15 年裡,這些趨勢掩蓋了底層發生的一個根本性變化,那就是摩爾定律的終結。我們在虛擬化和雲端運算中找到了2 倍、4 倍的成本降低,但這掩蓋了晶體管縮放終止的影響。

現在,這些效應已經被充分利用,我們已經見到了資料中心和計算成本的上漲。所以,接下來要發生的事情是加速計算。這就是為什麼加速計算非常重要。我們舉一個例子,例如在資料處理中,Spark 是目前世界上使用最廣泛的資料處理引擎。如果你使用NVIDIA 的GPU 在雲端加速Spark,看到20 倍的加速並不罕見。因此,你可以節省大約10 倍的成本。雖然你需要為NVIDIA 的GPU 支付一些費用,這會使計算成本稍微增加,但你減少了大約20 倍的計算時間,因此你會看到10 倍的節省。在加速計算中看到這樣的投資回報率並不罕見。

所以我建議大家盡可能加速你們的所有工作,然後使用GPU 來運行這些加速的任務。這是加速帶來的即時投資回報。除此之外,生成式AI 的對話正在進行的第一個浪潮是基礎設施供應商,例如我們自己,以及所有雲服務供應商,他們將基礎設施放到雲端,這樣開發者就可以使用這些機器來訓練模型、微調模型、設定模型的保護措施等。由於需求龐大,每花費1 美元在我們這裡,就能在租賃中帶來5 美元的收入。這種情況正在全球各地發生,所有的計算資源都供不應求。因此,需求真的非常驚人。

我們已經知道的一些應用,包括OpenAI 的ChatGPT、GitHub 的Copilot,或是我們公司使用的程式碼產生器,這些工具帶來了巨大的生產力提升。我們公司沒有一個軟件工程師不使用代碼產生器,無論是我們自己為CUDA 建構的代碼產生器,還是我們使用的其他語言(如USD、Verilog 或C 和C++)的代碼產生器。因此,我認為每一行程式碼都由軟件工程師手工編寫的日子已經一去不復返了。我們所有的軟件工程師都會有一個24/7 的數字工程師助手在身邊,這就是未來。

所以,我將NVIDIA 看作是擁有32,000 名員工的公司,圍繞在這32,000 名員工身邊的,應該是100 倍更多的數字工程師。


Toshiya Hari:許多行業都在接受這項技術。你對那些應用場景或產業感到最興奮?

黃仁勳:在我們公司,我們用AI 來做電腦圖形。如果沒有AI,我們已經無法再做電腦圖形了。我們計算一個像素,然後推測出其他32 個像素。換句話說,我們「幻想」出其他32 個像素,這些像素看起來在時間上是穩定的,看起來具有真實的視覺效果,影像品質驚人,性能也非常出色。我們節省了大量能量,推測一個像素需要的計算能力很少,速度也非常快。

其中一個關鍵點是,AI 不僅僅是關於訓練模型,這只是第一步。更重要的是使用模型。使用模型時,你能節省大量的能源和處理時間。因此,我們將AI 用於電腦圖形。如果沒有AI,我們也無法為自動駕駛汽車產業提供支援。如果沒有AI,我們在機器人和數字生物學領域的工作也無法完成。幾乎每一個我遇到的科技生物公司都建立在NVIDIA 的平台上。他們使用它來進行數據處理,產生蛋白質…


Toshiya Hari:這似乎是一個非常令人興奮的領域。

黃仁勳:確實如此。小分子生成、虛擬篩選——這個領域將第一次被人工智慧徹底改造,帶來基於電腦輔助的藥物發現。因此,在這個領域有很多令人難以置信的工作在進行。


Toshiya Hari:談談競爭和你們的競爭壁壘。有許多上市和私營公司希望打破你們的領先地位。你如何看待自己的競爭優勢?

黃仁勳:首先,我想說幾件事情是我們與眾不同的。首先要記住,AI 並不僅僅是一個晶片,AI 是一個基礎設施。今天的計算並不是製造一個晶片,然後人們來購買你的晶片,將其放入電腦。這種方式屬於1990 年代的計算模式。今天,如果你看看我們的新Blackwell 系統,我們設計了七種不同類型的晶片來建構這個系統,Blackwell 是其中之一。


Toshiya Hari:我想讓你談談Blackwell。

黃仁勳:是的,令人驚訝的是,當你想建造這種AI 電腦時,人們會使用諸如「超級叢集」、「基礎設施超級電腦」這樣的詞,這是有原因的。因為這不僅僅是一個晶片,也不僅僅是一台電腦,而是整個資料中心的建構。你可以想像在一個超級叢集中的所有軟件,去運行它。這裡沒有所謂的Microsoft Windows 這樣的操作系統。這些日子已經過去了。所有這些電腦內部的軟件都是完全訂製的,必須由人們去編寫。所以,設計晶片的公司和設計超級電腦、超級叢集以及所有這些軟件的公司是同一個公司是非常合理的,因為這樣做會更加優化,性能更高,能效更高,成本也更有效。

第二點是,AI 關乎演算法。我們非常擅長理解什麼是演算法,它對計算堆棧的影響是什麼,以及如何在數百萬個處理器上分佈這種計算,連續數天運行,同時使電腦盡可能高效,保持能源效率並快速完成任務。我們非常擅長這些事。

最後,AI 是一種計算形式。 AI 是電腦上運行的軟件。我們知道,對電腦來說,最重要的是安裝基礎。擁有相同的架構,無論是在雲端,還是本地部署到雲端,都應該保持一致。無論是在雲端構建、在自己的超級電腦上構建,還是在某個機器人或某台PC 上運行,都能使用相同的架構來運行相同的軟件,這是非常重要的。這就是所謂的「安裝基礎」。我們過去30 年對這個理念的堅持,正是今天成功的原因。

這也是為什麼如果你要創業,最明顯的架構選擇就是NVIDIA 的架構。因為我們在每一個雲平台上都存在,你可以在任何地方購買到我們,而你只要拿起一台標有NVIDIA 的電腦,你就知道可以運行所有相關軟件。


Toshiya Hari:你們的創新速度非常快。我想讓你多談談Blackwell。相較於前身Hopper,在訓練方面快了四倍,推理速度快了30 倍。看起來你們的創新速度驚人。你們能否保持如此快速的創新步伐?當你考慮到合作夥伴時,他們如何跟上你們的創新速度?

黃仁勳:我們的創新速度背後的基本方法是,因為我們建造的是一個基礎設施。我們有七種不同的晶片,每個晶片的更新節奏最好是兩年一輪。我們可以每年給它一個中期升級,但如果每兩年推出一個新的架構,那你已經以光速運行了,這已經是非常快的了。現在我們有七種不同的晶片,它們共同提升系統效能。因此,我們每年都可以推出比上一代更好的AI 群集或超級群集,因為我們有許多不同的元件可以進行優化。

這種效能上的提升直接轉化為總擁有成本(TCO) 的改進。例如,Blackwell 性能提高了三倍,對於擁有1 千兆瓦電力的人來說,那意味著收入提高了三倍。效能的提升直接轉化為吞吐量,而吞吐量又轉化為收入。對於擁有1 千兆瓦電力的公司來說,你的收入是之前的三倍。你無法通過晶片降價來彌補三倍的收入差距。因此,我們透過整合所有不同的部分並對整個堆疊、整個叢集進行優化,能夠持續交付更好的價值。

相反的情況也同樣成立。對於任何想要支出的資金,假如你以同樣的功率花費,你可以獲得三倍的收入。以同樣的支出,你可以獲得三倍的性能,這實際上是另一種形式的成本降低。因此,我們有最好的性能/瓦比(即收入),我們有最好的性能/總擁有成本比(即毛利率)。我們將這種能力不斷推向市場,客戶因此獲益,而且這種改進不是每兩年一次的。

更重要的是,所有這些架構都是相容的。昨天開發的軟體,今天依然可以運行。今天開發的軟體,未來也可以在你整個安裝基礎上運行。因此,我們可以以驚人的速度前進。如果每一代架構都是不同的,那你無法做到這一點。僅僅為了整合一個系統,你可能需要一整年的時間。而因為我們所有的元件都是一起設計的,客戶在我們發貨後的19 天內就有了一個全新的超級叢集。這是某人曾在推特上提到的,如果你在硬體和軟體上要整合不同的晶片,你會很幸運,如果你能在一年內完成。因此,我認為我們將這種創新速度轉化為客戶更多的收入和更好的毛利率,這是一件了不起的事情。


Toshiya Hari:你們大部分的供應鏈合作夥伴都在亞洲,特別是台灣。鑑於目前的地緣情況,展望未來,你如何看待這個問題?

黃仁勳:如你所知,亞洲的供應鏈非常廣泛且緊密相連。很多人認為,當我們說「GPU」的時候,意味著我舉起一個晶片——就像很久以前,我宣佈新一代晶片時那樣。如今,NVIDIA 的新GPU 是由35,000 個零件組成,重達80 磅,消耗10,000 安培的電流。當你將它安裝在機架上時,它重達3,000 磅。因此,這些GPU 複雜得像一輛電動車。整個生態系統非常多樣化,並且在亞洲非常緊密地聯絡在一起。我們在每一個方面都儘可能地設計了多樣性和冗餘性。

最後一點是,我們在公司內部有足夠的智慧財產權。如果我們需要從一個晶圓廠轉移到另一個,我們有能力這樣做。可能工藝技術不是那麼先進,可能無法達到相同的性能或成本,但我們能夠提供供應。因此,如果發生任何事情,我們應該能夠快速切換,並在其他地方生產。

我們在台積電生產,是因為它是世界上最好的,不是小幅領先,而是領先得非常多。因此,不僅僅是我們與他們合作的悠久歷史,他們的靈活性、反應速度和大規模生產能力都非常出色。 NVIDIA 去年收入大幅上升,除非供應鏈能夠快速回應,否則這種成長是不可能實現的。因此,台積電的靈活性和響應能力令人難以置信。

在不到一年的時間裡,我們大幅提高了CoWoS(晶片封裝技術)的產能,明年我們還將繼續擴大產能,後年還會進一步擴大。不過,不管怎樣,供應鏈的靈活性和能力真的令人讚嘆不已。因此,我們選擇台積電是因為他們表現卓越,但如果有必要,我們當然可以啟用其他供應商。


Toshiya Hari:公司確實處於非常有利的地位。我們談了很多很棒的事。你有什麼擔憂嗎?

黃仁勳:我們的公司現在與全球每家AI 公司合作。我們與全球每一家資料中心合作。我不認為有一家資料中心、一家雲端服務供應商或一家電腦製造商沒有與我們合作。因此,隨之而來的是巨大的責任。我們肩負著許多人的期望,每個人都在依賴我們。需求非常之大,我們的元件、技術、基礎設施和軟體的交付影響著客戶的情緒,因為這直接影響他們的收入和競爭力。

所以我們今天可能擁有比以往任何時候都更多的情緒化客戶——這是理所當然的。如果我們能滿足每個人的需求,那麼情緒化就會消失。但現在情況非常緊張,我們肩負著很大的責任,我們正盡力而為。

我們正全力推動Blackwell 的量產。我們將在第四季開始發貨,並且計畫從第四季到明年進行大規模生產。需求之大,每個人都想要第一個拿到產品,每個人都想要最多的資源,每個人都想要儘可能快的速度。這種緊張的氣氛非常強烈。

因此,我認為,在創造下一個計算時代的過程中,雖然非常有趣,看到這些令人驚嘆的應用被開發出來也令人激動,看到機器人在四處走動也很不可思議,看到數字代理團隊一起在電腦中解決問題也令人驚奇,看到我們用來設計AI 晶片的AI 本身,也非常了不起。

這一切都令人歎為觀止。但同時,這個過程的壓力也非常大。全球的目光都聚焦在我們身上,這意味著少一些睡眠時間也沒關係,只要能有三個小時的好覺就足夠了。


Toshiya Hari:好吧,祝你好運。非常感謝你今天能來到這裡與我們對話。

黃仁勳:謝謝你。保重。 (智慧超參數)