當前的AI訓練熱潮和即將到來的推理市場
我們目前正處於人工智慧加速的大規模資本支出熱潮之中。
建構最佳LLM 的競爭驅動力(資料大小、資料品質、模型大小和運算能力的函數)導致了對更大GPU 運算叢集的需求。
例如,從參數數量來衡量模型大小來看,即使在對數尺度上,每個領先模型的LLM參數數量目前也呈指數級增長(下圖來自Nature)。
GPT4 估計在1.8 兆個參數上運行,在25,000 台Nvidia A100 上的訓練時間超過三個月。
訓練1萬到2.5萬個GPU的集群已經變得很普遍。例如,我們知道特斯拉正在大約1到1.4萬個GPU的集群上訓練他們的FSD系統,馬斯克(Elon Musk) 為他最近的AI新創公司購買了類似數量的產品,該公司現已發布了Grok的第一個beta版本。
半導體和AI訓練的週期性
一個關鍵問題是,這個資本支出階段將持續多久,基礎設施投資是眾所周知的周期性投資,半導體也不例外。
從Nvidia最近的歷史來看,收入通常會在六到八個季度內擴張,然後是周期性修正,需要一到兩個季度才能找到底部。正如您在綠線上看到的那樣,在這些低迷的季度中,收入往往會環比下降20% 到30%。
在這種歷史背景下,華爾街模型的營收將繼續再成長五個季度。
在Nvidia的上一季度,來自大型雲端和網路巨頭的需求最為突出。本季度,雖然這一領域的需求持續成長,但我們也開始看到來自企業和政府市場的收入來源更加多樣化。
Nvidia的CFO解釋:
「消費互聯網公司和企業在第三季度推動了非凡的環比增長,約占我們數據中心收入的一半,並超過了總增長。像Meta 這樣的公司正在全面開發深度學習推薦系統,並且還在投資生成式AI,以幫助廣告商優化圖像和文字。企業採用人工智慧的浪潮現在開始了。企業軟體公司,如Adobe, Databricks ,Snowflake和ServiceNow正在將AI copilots添加到他們的平台。更廣泛的企業正在為特斯拉和自動駕駛等垂直產業應用開發客製化AI。雲端雲服務供應商在本季度推動了我們資料中心收入的大約一半。所有超大規模CSP以及一系列GPU專用CSP的需求都很強勁。Nvidia H100 GPU實例現在幾乎可以在每個雲端中使用。為了滿足強勁的需求,我們今年每個季度都大幅增加了供應,並預計明年將繼續這樣做。”
最後一句話至關重要,因為該公司正在指引明年繼續增加供應。
後來,Jensen Huang在電話會議上證實了這一點,UBS分析師問道:
“您認為資料中心甚至可以成長到2025年嗎?”
Jensen回答:
“當然,我們相信資料中心可以成長到2025。”
Nvidia的CFO在這裡補充了一些細節: “我們在每個季度都做得非常紮實,這決定了我們的收入。我們仍在努力改善供應,併計劃在明年全年繼續增長。”
我對此的理解是明年每個季度的環比增長都將繼續,顯然這是一個非常看漲的指引。
現在,請記住,即使是Nvidia,也很難看到從現在起9到12個月後的需求會是什麼樣子,semi公司通常會給出看漲的前景,直到有一天早上你醒來,他們突然指引下個季度下降30%。當我們談到估值時,我們將討論其中有多少已經被納入股價了。
關鍵問題仍然是當前加速計算的建設將持續多長時間。
我之前估計,AI訓練的資本支出計劃可能如下所示——第一年的初始支出很大,第二年和第三年有一些替換和有限的擴展,如果項目成功,第四年還有一大筆支出來更新和擴展基礎設施。這顯然會為輝達帶來非常週期性的收入。
推理是比AI訓練更大的市場
Nvidia業務潛力巨大
然而,據估計,推理是兩者中最大的市場,在這裡,GPU將更多地根據需求安裝,從而提供更多的非週期性收入,這些收入的增長應該與AI軟體產生的收入更加一致。
將目前的Nvidia出貨量與已安裝的全球運算能力進行比較,可能會給我們一個暗示,Nvidia的收入將從現在開始持續成長多久。
雖然在現階段加速計算的滲透率似乎不太可能達到100%,但也許大約15%的已安裝運算能力將變得加速是有道理的。顯然,這個數字有很大的上升空間,因為LLM在提高生產力方面具有巨大的潛力。
Nvidia的資料中心業務目前以每年680億美元的速度產生收入,Jensen經常引用的數字是全球資料中心裝置容量為1兆美元。
現在,這在某種程度上比較了蘋果vs橙子,但無論如何,在此基礎上的滲透率約為6.8%。目前,與已安裝的運算能力相比,目前Nvidia的出貨量仍然有限。
另一種方法是將Nvidia交付的資料中心GPU的數量與已安裝的伺服器的數量進行比較,這是已安裝的全球運算能力的代理,大約有1.04億台伺服器(在Nvidia的資本市場日期間,他們提到目前在公有雲中運行的2600萬台伺服器,假設雲端滲透率為25%,我們可以得到估計的伺服器總數)。由於Nvidia目前應該以每年約280萬台的速度交付資料中心GPU (隨著H100 和H200 組合的增加而減少),這將使加速計算的滲透率達到2.7% 左右:
現在,這兩種方法都不精確,但它們給出了一個想法,即與現有的運算能力相比,Nvidia目前的銷售額仍然有限。
因此,如果LLM成為日常工作負載的重要組成部分,例如隨著copilots,數位助理,skynet和生成式AI的興起,這使得Nvidia的收入有可能在未來幾年增長,因為推理需求繼續增長。
看多or看空Nvidia取決於推理市場的發展
因此,簡而言之,多頭市場的理由是,儘管隨著AI訓練GPU的資本支出激增,收入成長已經非常驚人,隨著推理市場的發展,我們將在未來幾年繼續看到成長。
另一方面,熊市的理由是,對推理的需求令人失望,我們在4到6個季度左右的時間內得到了通常的周期性修正。
當我們談到估值時,我們將把這些情境繪製出來,看看這對股價中的風險回報圖景意味著什麼。
Nvidia保持領先的策略
為了在競爭中保持領先地位,Nvidia將在硬體和軟體方面進行創新。
資料中心GPU發布節奏加速
在下面的時間軸上,您可以看到A100和H100發布之間存在兩年的差距。然而,現在該公司每年都會發布一個新的旗艦架構,B100在 '24和X100在 '25。
在這兩者之間,我們還獲得了具有更高頻寬記憶體的H100、H200的升級。
這種節奏加速的一個關鍵原因是人工智慧方法仍在快速發展,這不僅使該公司能夠使其晶片更強大,而且還可以使它們適應新型工作負載。
Nvidia也將在同一塊板上發布GH200 ,GPU和強大的基於ARM的CPU。
H200和GH200都使用先進的CoWoS封裝,將晶片並排互連到一個功能模組中。由於這是一個供應受限的過程,這是Nvidia今年無法滿足GPU需求的主要原因。
該公司也將發布不需要CoWoS的功能較弱的GPU,即L40S 。這個GPU夠強大,可以進行AI模型的微調和推理。所以應該有充足的需求。
Jensen在第二季度電話會議上解釋了GH200:
「Grace Hopper現在正在大量生產。隨著我們在高效能運算和人工智慧基礎設施方面取得的所有設計勝利,我們的第一個資料中心CPU正以非常快的速度發展到數十億美元的產品線。Grace Hopper具有非常快的內存以及非常大的內存。在矢量數據庫或語義搜索領域,即所謂的檢索增強生成(RAG),您可以讓生成式AI 模型能夠在生成響應之前引用專有數據,並且該數據非常大,並且上下文長度非常高。這樣,生成模型一方面仍然能夠自然地與您交互,另一方面,能夠引用專有數據或特定領域的數據並減少幻覺。”
GH200由一個基於ARM的72核心Nvidia CPU (名為Grace) 和一個Nvidia H100 GPU (Hopper) 組成。總記憶體很大,根據版本的不同,RAM為480GB,另外還有96GB或141GB的HBM ,總共可快速存取的記憶體約為600GB。通訊透過NVLink進行,頻寬為每秒900GB。
Nvidia對晶片驅動軟體的快速更新
GPU節奏增加的另一個主要原因是Nvidia將能夠更好地更新其驅動這些強大晶片的軟體。
軟體更新可以帶來強大的效能提升,甚至提升20%或更多。
CUDA之父和Nvidia現任加速運算負責人Ian Buck在BoA會議上對此進行了深入研究:
「路線圖的另一部分是軟體。查看基準測試結果、查看條形圖並假設它是硬體的速度很容易。但經常被低估的是Nvidia在軟體堆疊中的投資。對於推理,你可以找到比訓練中更多的優化,因為你正在走出最後一英里。以Hopper為例,我們剛剛發布了一款名為TensorRT-LLM的新軟體。TensorRT是我們用於推理的優化編譯器。我們在該軟體中進行的優化使Hopper的推理性能提高了一倍。這是通過一系列優化實現的,對於tensor核心,它使用8位浮點,它改進了GPU資源的調度和管理。”
Jensen Huang在Q3電話會議期間繼續討論這個主題:
「我們可以創建TensorRT-LLM,因為CUDA是可編程的。如果CUDA和我們的GPU不那麼可編程,我們真的很難按照我們的速度改進軟體堆疊。同一GPU上的TensorRT-LLM將性能提高了兩倍,然後,H200將其提高了2倍。因此,我們的推理性能在大約一年的時間內提高了4倍。所以很難跟上。大多數情況下,軟體受益於架構。因此,出於這個原因,我們希望加快我們的路線圖。”
我們之前已經討論過人工智慧的軟體前景,以及Nvidia與其他公司相比如何領先十多年。這要歸功於他們的CUDA計算平台以及隨後整合到流行的基於Python/c ++ 的訓練庫 (如Tensorflow和Pytorch) 中。
競爭對手正在緩慢但穩定地趕上這一點。例如,AMD的競爭對手ROCm平台現在在Linux上享受Pytorch的本機支持,尚未在Mac或Windows上獲得支援。
然而,Nvidia CUDA現在也得到了Python的pandas的支持,這是用於資料預處理的關鍵軟體庫,以及Apache Spark,這是資料流的主要庫。
Jensen在Q3電話會議上談到了這一點:
「在訓練模型之前,你必須整理數據,也許你必須用合成數據來擴充數據,清理數據並對數據進行規範化。所有這些數據都以TB和PB為單位。在數據工程之前,你所做的數據處理量相當大,它可能佔你最終所做工作量的30%到50%。我們加速Spark。我們加速Python。我們剛剛做的最酷的事情之一叫做cuDF pandas,沒有一行程式碼,pandas現在被Nvidia CUDA加速了,開箱即用。”
Nvidia建構了從硬體到軟體的完整堆疊
Nvidia的最後一個優勢是能夠將所有這些硬體和軟體整合到一個完整的堆疊中,從而可以輕鬆地在資料中心內推出AI加速功能。
Nvidia擁有GPU,現在還有CPU,Mellanox (Nvidia的網路業務,包括Infiniband,現在還包括乙太網路),然後編寫了無數的軟體包,讓一切都易於使用。
Jensen在Q3電話會議上討論這個問題:
「Nvidia存在於每個雲端中,但每個人的平台都不同,但我們已經整合到他們的所有堆疊中。我們與他們所有人合作得非常好。它包括我們創建的所有特定領域的庫,這就是為什麼每個電腦公司都可以不假思索地將Nvidia整合到他們的路線圖中的原因。我們擁有的特定領域庫的清單非常廣泛。最後,現在我們有一個面向資料中心的端到端解決方案: InfiniBand網絡,以太網網絡,x86,ARM,...。幾乎提供了技術解決方案和軟體堆疊的所有組合。但真正把它聯繫在一起的是,這是我們幾十年前做出的一個偉大的決定,一切都是架構兼容的。”
Ian Buck在BoA會議上補充了一些進一步的細節:
「當然,可以將一個AI工作負載放在任何人的硬體平台上。困難的是使其成為一個持續優化和發展的平台,並成為一個可以運行資料中心內運行的所有工作負載的平台。有這麼多人在人工智慧領域進行創新,他們在這裡的創新速度比我們實際生產新架構要快得多。在Nvidia工作的好處之一是,我們可以與所有不同的人工智慧公司合作,因此我們可以優化重要的堆疊層。我們可以在硬體層、編譯器層、系統軟體層和庫層進行創新。”
Nvidia HGX平台的開箱即用整合解決方案
客戶喜歡開箱即用的整合解決方案。例如,目前絕大多數收入是由Nvidia的HGX平台驅動的 (來源: Nvidia的CFO)。
這就是為什麼Microsoft能夠在其資料中心實現與Nvidia在自己的資料中心內產生的相同出色的處理能力的原因之一。這種將所有內容整合在一起的整體方法也很容易擴展目前的資料中心,這是LLM不斷增長的重要要求。
為了說明這一點,Nvidia的HGX平台是透過NVLink連接的一個基板上的八個H100 GPU的組合。其中32個平台可以連網在一起,總共256個GPU可以作為一個單元。NVLink的頻寬是最新一代PCIe的14倍,能夠每秒傳輸900GB。一個HGX平台如何運作的示意圖:
在現實生活中,下面的主機板插入了六個A100 GPU,還有兩個剩餘的開放插槽。這很容易插入伺服器以連接到CPU 和網路介面卡 (NIC)。
總之,Nvidia不僅領先,而且在各方面都在創新。即使是像AMD或英特爾這樣的大型競爭對手也無法與這種創新步伐相提並論,更不用說該領域的新手了。
稍後我們將更詳細地了解AMD,但Nvidia在研發方面甚至超過了這個大型競爭對手,前者也非常專注於CPU。
這意味著與AMD相比,Nvidia可以將更多的研發資金集中在CPU上,因此純粹在這一領域的差異將更加明顯:
Nvidia在即將到來的推理市場中的優勢
Copilots將驅動龐大的推理需求
到目前為止,Nvidia的大部分GPU收入都是由AI訓練推動的。但是,我們現在正在進入下一個階段,即部署經過訓練的大型語言模型進行推理。
Nvidia的CFO詳細介紹了這個新的需求來源:
「推理正在為我們的資料中心需求做出重大貢獻,因為人工智慧現在已經全面投入生產,用於深度學習推薦器、聊天機器人、副駕駛和文字到圖像生成。而這僅僅是個開始。Nvidia AI提供最佳的推理性能和多功能性,因此擁有成本最低。我們也在快速降低成本。
我們已經在上面討論了公司的快速創新曲線。
Ian Buck也詳細介紹了,Nvidia計劃如何在推理方面處於領先地位:
「訓練和推理是高度相關的,為了訓練一個模型,你必須先推斷和計算誤差,然後將誤差應用回模型,使其更聰明。因此,訓練的第一步是推理,因此客戶自然地將他們的推理模型與他們的訓練叢集以及他們的HGX一起部署。我們的推理平台包含多種選擇,可針對TCO、工作負載和效能進行最佳化。在推理的情況下,它通常與資料中心吞吐量和延遲有關。您有L40S,它通常用於較大的推理和微調任務。因此,您可以採用現有的基礎模型,然後對其進行微調,以便為您的數據工作負載進行最後一英里的專業化處理。通過將它們與NVLink連接,我們基本上可以將八個GPU變成一個GPU,並以更快的速度運行模型以提供實時延遲。”
為了讓推理成為一個龐大的市場,我們將需要一個願意為LLM類型的助手或入口網站付費的龐大用戶群。其中最有前景的是Copilots,它是內建在軟體應用程式中的LLM,在使用者的命令下可以自動執行各種任務,從而提高生產力。
例如,LLMs可以產生新的軟體程式碼,根據提供的資訊建立新的投影片,或建立各種excel公式和操作。這使得更廣泛的員工可以使用高級軟體,因為您現在可以基於文字進行交互,而不必制定SQL查詢,這顯然不適合所有人。再舉一個例子,您可以在Google地圖中內建一個LLM,它突出顯示了城市旅行期間的最佳景點,同時也為您預訂了合適的飯店和晚餐地點。這些副駕駛中較小的可以在您的設備上運行,而較大的將在雲端中運行。因此,除了OpenAI的GPT4和Google的Gemini等大型基礎模型外,該公司還將為其應用程式提供更小的客製化Copilots。
Nvidia AI foundry客製化模型的價值
Nvidia多年來一直致力於進一步進軍軟體領域,因此他們在這裡建立了客製化AI模型的服務也就不足為奇了。
AI foundry是一個雲端平台,客戶可以在其中客製化Nvidia提供的基礎模型。這與Amazon Bedrock非常相似。
CFO在第三季度電話會議上討論了這一點:
「在上週的Microsoft Ignite上,我們在整個堆疊中加深並擴展了與Microsoft的合作。我們引入了AI foundry服務,用於開發和調優在Azure上運行的自訂生成AI應用程式。客戶可以帶來他們的領域知識和專有數據,我們幫助他們使用我們的AI專業知識和DGX雲中的軟體堆疊來建立他們的AI模型。SAP和Amdocs是Microsoft Azure的首批客戶。”
Jensen提供了一些進一步的細節:
「我們的獲利模式是,我們的每個合作夥伴,他們在DGX雲端上租用一個沙盒,我們在那裡一起工作。我們幫助他們建立自訂AI。然後,客戶AI成為他們的,他們將其部署在運行時,可以跨越Nvidia 的所有內容。我們在雲端、本地、任何地方都有龐大的安裝基礎。我們稱之為Nvidia AI Enterprise。我們的商業模式基本上是軟體授權。然後,我們的客戶可以在此基礎上建立他們的貨幣化模型。”
因此,Nvidia建構了一個針對AI加速進行最佳化的完整硬體和軟體堆疊,客戶可以利用該平台在上面運行其客製化的AI。
這應該很有意義。輝達在人工智慧模式建構方面似乎也有強大的能力,因為梅賽德斯和其他知名汽車製造商現在正在利用該公司的自動駕駛軟體平台。作為回報,梅賽德斯甚至給了輝達50%的自動駕駛業務收入份額。
Nvidia在推理市場將佔據大量份額
Ian Buck對LLMs的下一步發展發表了自己的看法:
「GPT如此之大的原因之一是,它是在人類理解的語料庫上訓練的。因此,當你問及容量以及容量將如何隨著時間的推移而增長時,不會有一種模型來統領所有這些。基於將繼續在這個領域進行的創新,以及所有這些領域的專業化,將會有各種各樣的不同模型。大型語言模型不必只是人類的語言,它可以是生物學,物理學或材料科學的語言。我們看到專業的區域GPU數據中心隨處可見。我們已經從數據中心的一個角落變成了現在正在設計的數據中心。”
綜上所述,我認為Nvidia在推理市場上也應該處於強勢地位,儘管我預計這裡的一些主要競爭對手能夠佔據一些份額,這是他們迄今為止在人工智慧訓練中一直在努力解決的問題。
因此,Nvidia在這一領域的市場份額不應該像他們在人工智慧訓練領域80%的份額那樣佔據主導地位,但他們應該處於有利地位,仍然可以佔據很大的市場份額。
AMD和英特爾仍然遠遠落後
英特爾一直在MLPerf上競爭,但通常會被Nvidia硬體的優勢所淘汰。今年早些時候的測試結果如下所示。
請注意,英特爾沒有參加八項測試中的四項,這說明了Nvidia GPU的多功能性,它們能夠在每種類型的AI工作負載上產生最佳結果。
然而,英特爾最近再次參加GPT3 測試,他們縮小了表現不佳的差距。
來自《富比士》:
「根據英特爾的計算,增加對FP8的支援使Habana Gaudi 2的效能提高了一倍,使其達到Nvidia H100每節點結果的50%左右。英特爾聲稱,這等同於卓越的性價比,我們透過通路檢查驗證了這一點,這表明Gaudi 2的性能相當不錯,並且比Nvidia更實惠和可用。這些結果應該有助於為2024年的Gaudi 2鋪平道路。但當然,到那時,英特爾將不得不與Nvidia的下一代GPU B100 (又名Blackwell) 競爭。”
英特爾展示了他們在八項測試中的四項測試中的結果:
因此,英特爾在GPT3 上實現更好的性價比是一個有趣的結果,然而,這在多大程度上導致訂單成長仍然值得懷疑。
英特爾在他們的Q3電話會議上提到,他們的管道翻了一番,但這將是一個非常低的基數。
稍微好一點的是,AMD計劃在明年使用其新的MI300 GPU實現20億美元的收入,但與Nvidia目前在資料中心GPU中每年產生的560億美元相比,這幾乎是杯水車薪。
然而,瑞銀在技術會議上提到,AMD目前獲得的訂單是Nvidia的10%。這樣的份額對於AMD來說非常有吸引力,但目前他們在HBM和頻寬方面擁有優勢,他們的MI300現在開始發貨。Nvidia將在未來12個月內發布兩個GPU,這可能會再次縮小AMD的份額。
AMD的MI300可能主要用於推理工作負載,Lisa Su在電話會議上也提到了這一點: “我們對MI300的推理性能非常滿意,特別是對於大型語言模型的推理,我們給出了一些內存頻寬和內存容量。我們認為這對我們來說將是一個巨大的工作量。“
顯然,與Nvidia相比,這兩個競爭對手的份額仍然很小,我懷疑在未來兩到三年內情況仍然如此。
從長遠來看,隨著英特爾和AMD不斷建立其軟體堆疊,並能夠建立更好、更通用的硬件,應該有空間在資料中心GPU市場中佔據更大的份額。
也許他們真正需要的是放慢人工智慧創新的步伐,因為目前Nvidia似乎是唯一真正能夠建立合適的硬體來運行最新模型的公司。人工智慧的快速創新確實是Nvidia的優勢,因為他們都擁有快速發展並跟上人工智慧產業步伐的堆疊和規模。
科技巨頭的客製化晶片將成為更強大的競爭對手
眾所周知,Google擁有TPU,儘管該TPU主要仍用於該公司的內部工作負載;Amazon提供Trainium和Inferentia,Microsoft最近宣布了Maia。
通常,超大規模提供者還將提供編譯器,以便您可以在其晶片上執行Pytorch程式碼。就目前使用的這種晶片而言,它主要用於推理工作負載。
Nvidia的GPU仍然供不應求,因此目前正在將這些GPU分配給訓練,而推理在可用的晶片上運行。
例如,騰訊和百度在最近的電話會議中都發表了類似的評論,他們正在尋找國產晶片來運行他們的推理,同時保留他們的Nvidia進行所有訓練。
當然,超大規模企業財力雄厚,他們也應該能夠保持體面的創新節奏。
例如,Amazon將在明年發布Trainium 2和Inferentia 3。但是,請注意,Google每兩年左右發布一次新的TPU,目前已經是第五代,而與Nvidia競爭的能力仍然有限。
請注意,Amazon最近在最新的晶片徵集中引用了一些人工智慧的勝利:
「正如大多數人所知,晶片行業目前確實存在短缺。很難獲得每個人都想要的GPU數量。因此,這就是Trainium和Inferentia對人們如此有吸引力的另一個原因。它們比其他選項具有更好的性價比特徵,而且您可以訪問它們。因此,您會看到非常大的LLM提供者在這些晶片上下了大賭注。我認為,Anthropic決定在Trainium上訓練他們未來的LLM模型並使用Inferentia確實是一個聲明。然後你看看真正炙手可熱的創業公司Perplexity.ai,他們也剛剛決定在Trainium 和Inferentia 之上進行所有訓練和推理。所以這是兩個例子”
然而,Dylan Patel的SemiAnalysis指出,亞馬遜正在利用這些晶片作為虧損的領導者:
「值得注意的是,亞馬遜正在購買和部署更多的Trainium和Inferentia 2晶片,儘管它們不如Microsoft的Maia。這是因為亞馬遜的Nvidia GPU分配相對較低,也因為亞馬遜相信補貼自己的部分來推動外部生態系統的發展。與此形成鮮明對比的是Microsoft,其AI加速器主要用於內部工作負載,因為他們實際上擁有強大的AI服務和API業務。這意味著Microsoft將選擇最好的TCO晶片,而不是補貼像亞馬遜這樣的虧損領導者。”
同一篇文章提到,與AMD和Nvidia的訂單相比,Microsoft對Maia 100的訂單相當低。
AI快節奏創新的最大贏家— Nvidia
因此,目前我們的情況是,Nvidia的競爭對手正在出現,但人工智慧創新的快節奏對Nvidia有利——競爭對手很難追逐快速發展的目標。
Nvidia擁有規模,人才和堆疊,可以針對AI的最新創新進行快速創新和優化。
公有雲由亞馬遜、Microsoft和谷歌這三大巨頭主導,它們可以利用自己的強勢地位在各自的雲端上推廣自己的客製化晶片。例如,例如透過有吸引力的價格,如上面的SemiAnalysis所指出的那樣。這意味著從長遠來看,它們可能會對Nvidia構成更激烈的競爭,尤其是在人工智慧創新步伐放緩的情況下。
然而,快速的創新可能會持續數十年。以物理學為例,愛因斯坦在1905年的奇蹟年開始了快速的發現,一直持續到1960年代。(產業報告研究院)
原文連結:
https://www.techfund.one/p/nvidia-amd-and-the-ai-cycle