最新播客2萬字實錄|黃仁勳:逼DeepSeek與華為深度繫結,這對美國太可怕了
輝達CEO黃仁勳最近接受了美國知名科技播客主持人德瓦克什·帕特爾(Dwarkesh Patel)的專訪,全面回應了關於公司護城河、GoogleTPU競爭、對華晶片出口等關鍵議題。他強調輝達的護城河已延伸至供應鏈深處,通過上千億美元的採購承諾與台積電及儲存供應商建立了深度繫結。對於TPU競爭,黃仁勳指出Anthropic只是ASIC增長的獨特個例而非趨勢。輝達的加速計算覆蓋了分子動力學、資料處理、流體力學等遠超越AI的廣闊市場,且CUDA的高可程式設計性使其能每年實現10到50倍的性能飛躍。他同時解釋了為何輝達不親自成為超大規模雲服務商。儘管現金流充沛,輝達仍恪守做必須做的事且儘可能少做的原則,選擇通過投資CoreWeave、OpenAI、Anthropic等支援生態系統,而非親自下場與客戶爭利。他同時承認未能更早大規模投資Anthropic是自己的失誤。此外他強調即使AI革命從未發生,輝達仍會憑藉加速計算在物理、化學、資料處理等領域成為一家非常大的公司。關於對華出口,他批評極端的出口管制政策十分幼稚。黃仁勳指出AI算力是晶片與能源的結合,儘管受到EUV光刻機的限制,中國仍擁有龐大的7nm晶片製造能力。考慮到當前主流大模型主要還是在Hopper這一代架構上訓練,中國完全可以通過充沛的電力能源和擴大晶片叢集規模,來彌補單顆晶片的性能差距。不僅如此,中國龐大的AI研究團隊正通過更高效的電腦科學來提升模型性能。黃仁勳以DeepSeek為例警告稱這絕非無關緊要的進步。如果這類優秀的開源模型被迫專門針對華為等本土硬體進行深度最佳化且運行效果最佳,客觀上將直接削弱美國技術堆疊的全球優勢。他認為主動放棄全球第二大市場將迫使中國建立獨立於美國的底層計算架構。隨著這些基於開源標準的技術逐步向全球南方輸出,美國極有可能在長期的AI生態標準競爭中陷入被動。以下為黃仁勳專訪全文:01 控制供應鏈是輝達最大護城河?帕特爾:很多軟體公司估值在跌,因為大家覺得AI會把軟體變成大宗商品。有種看法是輝達把設計檔案發給台積電,台積電造邏輯晶片和開關,再用SK海力士、美光、三星的HBM封裝,然後送到台灣地區的ODM那裡組裝成機架。本質上輝達做的是軟體,硬體是別人造的。如果軟體被商品化,輝達是否也會被商品化?黃仁勳:最終總得有人把電子轉化成Token。這個轉化過程很難被完全商品化。讓一個Token比另一個更有價值就像讓一個分子比另一個分子更有價值一樣,需要大量的技術、工程、科學和發明。這些工作遠未被完全理解也遠未結束。我不認為這種被商品化的情況會發生。但我們會讓這個過程變得更高效。你問這個問題的方式其實就是我對公司的思考模型,輸入是電子且輸出是Token,中間是輝達。我們的原則是做必要的事但儘量少做。所謂儘量少做就是我自己不需要做的就找夥伴合作,讓它成為我生態系統的一部分。今天的輝達可能是擁有最大合作夥伴生態系統的公司,包括上游下游供應鏈、所有電腦公司、應用開發者、模型廠商。AI就像一個五層蛋糕,我們在每一層都有自己的生態。我們儘量少做但我們必須做的那部分極其困難,我不認為那部分會被商品化。另外我也不覺得企業軟體公司會被商品化。現在大多數軟體公司是工具廠商,比如Excel、PowerPoint、Cadence、Synopsys。我的看法和很多人相反,AI智能體的數量會指數級增長且工具使用者的數量也會指數級增長。這些工具的實例數量很可能會暴增。比如Synopsys的設計編譯器會有大量智能體來用它做佈局、設計規則檢查。今天限制我們的是工程師數量,明天每個工程師身後都會有一群智能體。我們能用前所未有的方式探索設計空間,用的還是今天的工具。工具的高頻使用會讓軟體公司飛速發展。現在之所以還沒發生是因為智能體還不夠會用工具。要麼這些軟體公司自己造智能體,要麼智能體會變得足夠好去熟練使用這些工具,我覺得兩者都會發生。帕特爾:我看你最新的檔案裡對代工廠、記憶體、封裝有近1000億美元的採購承諾。半導體研究機構SemiAnalysis認為這個數字會達到2500億美元。一種解讀是輝達的護城河在於鎖定了未來多年的稀缺元件。別人或許有加速器但拿不到記憶體和邏輯晶片。這是否是你們未來幾年的主要護城河?黃仁勳:這是我們能做到而別人很難做到的事情之一。我們向上游做了巨大承諾,有些是顯性的就是你提到的那些。有些是隱性的,比如上游很多投資是我跟那些CEO說我來告訴你這個行業會有多大、為什麼會有這麼大,我推理給你看並讓你看到我所看到的,然後他們才投的。他們為什麼願意為我投資而不是為別人?因為他們知道我有能力買下他們的供應並通過我的下游賣出去。輝達的下游需求和下游供應鏈太龐大了,所以他們願意在上游投資。你看GTC大會,大家驚嘆於它的規模和人氣。那是整個AI社區聚在一起,因為他們需要互相交流與被看見。我讓他們聚在一起,讓下游看到上游且上游看到下游,所有人看到AI的進步。他們還能見到所有AI原生代、所有初創公司。這樣他們就能親眼驗證我告訴他們的事情。我花大量時間,直接或間接地讓供應鏈、合作夥伴、生態系統理解面前的機會。有人說我的主題演講像是在上課且有點折磨人。其實那就是我的用意。我得讓整個供應鏈、上下游、生態系統理解即將發生什麼、為什麼發生、何時發生、規模多大,並且能像我一樣系統性地思考。關於護城河我們其實是在為未來提前佈局。如果我們未來幾年真的成長到兆美元規模,到那時自然有能力搭建與之匹配的供應鏈。但前提是沒有我們今天的業務體量和影響力也沒有我們業務的高速流轉,就像現金流一樣供應鏈也有自己的流轉和周轉速度。如果業務周轉慢沒有人會願意為一個空架子搭建供應鏈。我們今天能維持這樣的規模,根本原因在於下游需求極其旺盛。當他們親眼看到、聽到、意識到這一切正在真實發生,才讓我們得以在現有規模下做成現在這些事。帕特爾:我想具體瞭解一下上游能否跟得上。你們連續多年收入翻倍,每年向世界提供的算力增長超過兩倍。黃仁勳:在這個規模上還能翻倍確實很驚人。帕特爾:但你看邏輯晶片。你們是台積電N3節點的最大客戶也是N2節點的最大客戶之一。SemiAnalysis發現今年AI會佔N3產能的60%,明年到86%。如果你已經佔了大頭怎麼翻倍?年復一年地翻倍?我們是否已經進入一個階段,即AI算力增速必須因為上游限制而放緩?你看到解決辦法了嗎?歸根到底我們怎麼才能年復一年地把晶圓廠產能也翻一倍?黃仁勳:在任何一個時間點,瞬時需求都可能大於全球上下游的總供應。甚至可能被水管工數量限制,這確實發生過。帕特爾:水管工應該被邀請參加明年的GTC。黃仁勳:好主意。但這其實是個好現象。你希望一個行業的瞬時需求大於總供應,反過來就不太好了。如果某個元件缺口太大,整個行業會蜂擁去解決。你看現在已經沒太多人討論CoWoS了。因為過去兩年我們拚命解決這個問題現在情況已經不錯了。台積電現在知道CoWoS的供應必須跟得上邏輯和記憶體的需求。他們正在以和擴展邏輯同樣的速度擴展CoWoS和未來封裝技術。這非常好,因為CoWoS和HBM記憶體以前是比較小眾的,現在它們成了主流計算技術。我們現在能影響更廣泛的供應鏈了。AI革命剛開始時我說的這些話五年前就說過了。有人相信並投資了,比如美光CEO桑傑·梅赫羅特拉(Sanjay Mehrotra)及其團隊。我清楚記得那次會議,我精準地說明了會發生什麼、為什麼發生以及今天的狀況。他們真的加倍投入了。我們在LPDDR和HBM記憶體上合作,他們大力投資結果取得了巨大的成功。有些人來得晚一些但現在都來了。每個瓶頸都會得到大量關注。我們現在提前幾年就開始預判瓶頸。比如過去幾年我們在Lumentum、Coherent和矽光生態系統上的投資,重塑了供應鏈。我們圍繞台積電建立了整個供應鏈並和他們合作開發矽光整合平台COUPE,發明了很多技術並把專利授權給供應鏈保持開放。我們通過發明新技術、新流程、新測試裝置比如雙面探測、投資公司幫他們擴產來增強供應鏈。我們在努力塑造生態系統,讓供應鏈能夠支撐這個規模。帕特爾:有些瓶頸好像比其他瓶頸容易解決,比如CoWoS擴產。黃仁勳:我們負責克服最難的那個。帕特爾:那個?黃仁勳:水管工和電工。這是我擔心那些末日論者的地方。他們說工作要消失、崗位要完蛋。如果我們阻止人們成為軟體工程師,我們就會耗盡軟體工程師。十年前就有同樣的預言。有些末日論者說無論如何別當放射科醫生,你現在還能在網上看到那些視訊說放射科會是第一個消失的職業,世界再也不需要放射科醫生了。猜猜我們現在缺什麼?放射科醫生。帕特爾:有些東西可以規模化有些則不行,你每年怎麼造出兩倍的邏輯晶片?最終記憶體和邏輯都受限於EUV光刻機。你怎麼年復一年地拿到兩倍的EUV光刻機?黃仁勳:這些產能都是可以快速規模化的,兩三年內就能做到。你只需要向供應鏈發出一個需求訊號。能造一個就能造十個,能造十個就能造一百萬個。這些東西複製起來並不難。帕特爾:你會在供應鏈裡走多遠?會直接去找ASML說三年後輝達要做到年收入兩兆美元,我們需要多得多的EUV光刻機嗎?黃仁勳:有些要直接說,有些間接說。如果能說服台積電,ASML也會被說服。我們要找到關鍵的瓶頸點。但如果台積電被說服了,幾年內你就會有足夠多的EUV。我的觀點是沒有任何瓶頸會持續超過兩三年。與此同時我們還在把計算效率提高10倍、20倍,Hopper到Blackwell是30到50倍。因為CUDA很靈活我們在不斷髮明新演算法、新技術,在增加容量的同時提高效率。這些事情都不讓我擔心。讓我擔心的是我們下游的東西。能源政策阻止能源擴展,而沒有能源你建不了新產業。沒有能源你沒法搞一個新的製造業。我們要讓美國再工業化。我們要把晶片製造、電腦製造、封裝帶回來。我們要造電動汽車、機器人。我們要造AI工廠。沒有能源這些都建不起來,而能源需要很長時間。晶片產能是兩三年能解決的問題。CoWoS產能也是兩三年能解決的問題。02 TPU會打破輝達對AI算力的控制嗎?帕特爾:世界上排名前三的模型裡,有兩個即Claude和Gemini都是在GoogleTPU上訓練的。這對輝達意味著什麼?黃仁勳:我們做的東西很不一樣。輝達做的是加速計算,不只是一個張量處理單元。加速計算可以用在很多地方,涵蓋分子動力學、量子色動力學、資料處理、結構化資料、非結構化資料、流體動力學、粒子物理。除此之外也做AI。加速計算比這廣泛得多。雖然AI是當下的話題且顯然很重要和影響很大,但計算比這寬泛得多。輝達重塑了計算的方式,從通用計算轉向加速計算。我們的市場覆蓋範圍比任何TPU或ASIC都要大得多,我們是唯一一家能加速各種應用的公司。我們有巨大的生態系統,各種框架和演算法都能在輝達上跑。因為我們的電腦設計成讓別人可以操作,所以任何營運商都能買我們的系統。而大部分自建系統你得自己當營運商,因為它們的靈活性不夠導致別人操作不了。因為誰都能搭建並操作我們的系統,所以我們存在於每一個雲裡,包括Google、亞馬遜、Azure以及甲骨文的雲平台。如果你想租給別人用,那你最好有來自很多行業的龐大客戶群做承購方。如果你想自己用,我們當然也能幫你自己營運,就像我們在xAI幫馬斯克那樣。而且我們能讓任何公司、任何行業的營運商都具備能力,你可以給禮來公司建一台用於科學研究和藥物發現的超級電腦,我們可以幫他們營運,用於整個藥物發現和生物科學領域。有一大堆應用是TPU做不了的。輝達的CUDA也是一個很棒的張量處理單元,但它還能處理資料處理的每一個環節、計算、AI等等。我們的市場機會大得多,覆蓋範圍廣得多。因為我們支援現在世界上每一個應用,你可以在任何地方建輝達系統並且知道一定會有客戶。這是一個很不一樣的局面。帕特爾:你們的收入很驚人但不是來自製藥也不是來自量子計算,而是主要來自AI。因為AI這個前所未有的技術正在以史無前例的速度增長。那問題就來了,什麼才是對AI本身最有利的?TPU本質上是一個巨大的脈動陣列,特別擅長做矩陣乘法。GPU則更靈活且適合那些有很多分支判斷或者記憶體訪問不規則的任務。但問題在於AI到底在幹什麼?說白了AI就是一遍又一遍地做那些非常可預測的矩陣乘法。既然如此你為什麼還要在晶片上留出面積給線程束調度器或線程與記憶體體之間的切換這類通用功能呢?這些面積本來可以全部用來做矩陣乘法。而TPU恰恰就是專門針對當下正在爆發的那部分計算需求設計的。你覺得呢?黃仁勳:矩陣乘法是AI的重要部分但不是全部。如果你想出一種新的注意力機制、換一種分解方式、或者發明一個全新的架構即混合狀態空間模型(SSM),你需要一個普遍可程式設計的架構。如果你想做一個融合了擴散模型和自回歸的模型,你需要的也是一個普遍可程式設計的架構。我們能跑你能想到的任何東西。這就是優勢。因為它是可程式設計的,所以發明新演算法要容易得多。發明新演算法的能力才是AI進步這麼快的原因。TPU和其他東西一樣都受摩爾定律影響,每年大概進步25%。要每年實現10倍或100倍的飛躍,唯一的方法是每一年都從根本上改變演算法和計算方式。這就是輝達的根本優勢。Blackwell比Hopper能效高50倍。我第一次說35倍時沒人信。後來有人寫文章說我留了一手實際上是50倍。單靠摩爾定律做不到,我們靠的是新模型比如專家混合模型(MoE),它們被併行化、分解、分佈在整個計算系統裡。如果沒有CUDA也沒有真正深入去寫新核心的能力,這很難做到。這是可程式設計架構和輝達極端協同設計能力的結合。我們甚至可以把一些計算解除安裝到網路結構本身比如NVLink,或者網路裡的Spectrum-X。我們可以同時改變處理器、系統、網路結構、庫和演算法。沒有CUDA我根本不知道從那下手。帕特爾:這引出一個關於輝達客戶的有趣問題。你們60%的收入來自五個超大規模雲廠商。在另一個時代客戶是教授做實驗,他們需要CUDA且用不了別的加速器,他們只需要用CUDA跑PyTorch且一切都最佳化好了。但這些超大規模雲廠商有能力自己寫核心。事實上為了從特定架構裡擠出最後5%的性能,他們必須這麼做。Anthropic和Google主要跑自己的加速器即TPU和Trainium。就連用GPU的OpenAI也有Triton因為他們需要自己的核心。他們不用cuBLAS和NCCL而是有自己的軟體棧也能編譯到其他加速器上。如果你的大部分客戶能且正在做CUDA的替代品,那CUDA在多大程度上還是前沿AI跑在輝達上的關鍵因素?黃仁勳:CUDA是一個豐富的生態系統。如果你想在任何電腦上做開發,首選CUDA是非常明智的。因為生態系統太豐富了,我們支援每一個框架。如果你想寫自訂核心,我們對Triton的貢獻巨大,Triton的後端有大量輝達技術。我們很樂意幫助每一個框架變得更好。框架很多比如Triton、vLLM、SGLang。現在又冒出一堆強化學習框架比如verl和NeMo RL。後訓練和強化學習這塊正在爆炸。所以如果你想基於某個架構做開發選CUDA最有意義,因為你知道它的生態很好。你知道如果出了問題,問題更可能出在你自己的程式碼裡而不是底下那堆積如山的底層系統上。別忘了你面對的是多麼龐大的程式碼規模。當系統不工作時你要問自己是我錯了還是電腦錯了?你當然希望每次都發現是自己錯了,因為只有這樣你才能始終信任電腦。顯然我們自己還有很多bug。但關鍵在於我們的系統已經被無數次檢驗過,你可以放心地在上面建構。這就是我想說的第一點即生態系統的豐富性、可程式設計性和能力。第二點如果你是個開發者,你最想要的是一個裝機基礎。你希望自己的軟體能跑在很多其他電腦上。你不是只為自己寫軟體而是為你所在的叢集或別人的叢集寫,因為你是框架開發者。輝達的CUDA生態系統最終就是它最大的財富。我們現在有數億個GPU在外面,每個雲裡都有。從A10、A100、H100、H200到L系列、P系列以及各種尺寸和各種形狀。如果你是個機器人公司,你希望那個CUDA堆疊能直接在機器人內部運行。我們幾乎無處不在。這個裝機基礎意味著一旦你開發了軟體或模型,它在任何地方都能用。這個價值無可估量。最後我們存在於每一個雲裡,這讓我們真正獨一無二。如果你是個AI公司或開發者,你不確定會和那個雲服務商合作也不知道想把負載跑在那裡。沒關係,我們無處不在包括你自己的機房。生態系統的豐富性、裝機基礎的廣泛性、存在位置的多樣性,這些加在一起讓CUDA價值連城。帕特爾:有道理。但我想問的是這些優勢對你最大的客戶來說到底有多重要?對很多人來說CUDA可能很有價值。但你收入的大頭其實來自那些有能力自己搭建軟體棧的大客戶。特別是如果未來AI進入一些可以用強化學習進行嚴格驗證的領域,那問題就變成了誰能寫出在大型叢集上跑得最快的矩陣乘法和注意力核心?這是一個非常可驗證的最佳化問題。那些超大規模雲廠商完全有能力自己寫這些定製核心。當然輝達的性價比可能還是更好所以他們可能依然會選擇輝達。但這樣一來問題就變成了最後是不是只比誰的硬體規格更好以及每美元能買到的算力和頻寬更多?歷史上輝達靠著CUDA護城河,在AI硬體和軟體上都能保持70%以上的利潤率。但現在的問題是如果你最大的客戶其實有能力繞過這條護城河,你還能維持這麼高的利潤率嗎?黃仁勳:我們分配給這些AI實驗室的工程師數量是驚人的,跟他們一起工作最佳化他們的軟體棧。原因是沒人比我們更懂我們的架構。這些架構不像CPU那麼通用。CPU有點像凱迪拉克且好開和不飆快車,誰都能開得不錯且有巡航控制,一切都很簡單。而輝達的GPU和加速器更像F1賽車。我能想像每個人都能開到160公里時速,但要推到極限需要相當多的專業知識。我們用大量AI來寫核心。我很確定在相當長一段時間內我們仍然會被需要。我們的專業知識常常能讓AI實驗室合作夥伴輕鬆再提升2倍性能。最佳化完一個核心或整個軟體棧後,模型速度提升50%、2倍乃至3倍,這很常見。考慮到他們擁有所有Hopper和Blackwell的叢集規模,這是一個巨大的數字。提升一倍直接等於收入翻倍。輝達的計算堆疊在總擁有成本TCO上是全世界最好的,沒人能比。沒有任何一個平台能向我展示出比我們更好的性能與TCO比。Dylan的InferenceMAX基準測試就擺在那裡,誰都可以用。但TPU不來測且Trainium也不來測。我很鼓勵他們用InferenceMAX來展示自己所謂的超低推理成本。但很難因為沒人願意來。還有MLPerf,我也很想讓Trainium來展示他們一直宣稱的40%優勢。也很想聽他們展示TPU的成本優勢。但在我看來從第一性原理出發他們說的那些優勢完全說不通。所以我認為我們成功的原因很簡單就是我們的TCO太好了。第二你說我們60%的客戶是前五大雲廠商,但這些業務大部分是面向外部的。比如AWS中使用輝達的晶片大部分是給外部客戶而不是內部用。Azure裡的客戶顯然也都是外部的,甲骨文的同樣如此。他們青睞我們是因為我們的影響力大,我們能給他們帶來全世界最優秀的客戶且這些客戶都建在輝達上。而這些公司之所以建在輝達上,是因為我們的影響力和多功能性太強了。所以我認為這個飛輪是裝機基礎、架構的可程式設計性、生態系統的豐富性,再加上世界上有成千上萬家AI公司。如果你是AI初創公司你會選那個架構?你會選最豐富的而我們就是最豐富的,你會選安裝基礎最大的而我們就是最大的,你會選生態最完善的。這就是飛輪。結合以上幾點來看我們的每美元性能最好且客戶的Token成本最低。我們的每瓦性能世界最高,所以如果一個合作夥伴建了一個1吉瓦的資料中心,這個資料中心最好能產出最大量的收入和Token,這直接等於收入。你希望它產出儘可能多的Token來最大化收入,而我們是世界上每瓦Token數最高的架構。另外如果你的目標是出租基礎設施,我們有世界上最多的客戶。這就是飛輪運轉的原因。帕特爾:有意思。我想問題歸根結底是實際的市場結構到底是什麼樣?因為即使有其他公司存在,可能有一個世界裡面成千上萬家AI公司每家都佔大致相等的算力份額。但現實情況是即便通過這五大雲廠商,真正在亞馬遜上用算力的其實是Anthropic、OpenAI以及那些大型基礎實驗室。這些大玩家自己有能力也有資源讓不同的加速器跑起來。如果你說的這些關於性價比和每瓦性能等等都是真的,那為什麼像Anthropic這樣的公司幾天前剛宣佈和博通與Google達成一項涉及多吉瓦的TPU交易,把他們大部分算力放在上面?對Google來說TPU也佔了他們絕大部分算力。所以如果我看這些大型AI公司似乎他們的算力曾經全是輝達現在不是了。我很好奇如果紙面上這些優勢都成立,他們為什麼偏偏選了別的加速器?黃仁勳:Anthropic只是一個特例並不是什麼大趨勢。你可以想一想如果沒有Anthropic這家公司,TPU那來的增長?百分之百是因為Anthropic。同樣如果沒有Anthropic,Trainium又那來的增長?百分之百也是因為Anthropic。這基本上是公開的秘密了。不是什麼ASIC的機會變得很多而是只有一個Anthropic而已。帕特爾:但OpenAI和AMD有交易且他們自己在造Titan加速器。黃仁勳:是的,但我覺得大家都承認他們絕大部分算力還是跑在輝達上。我們仍然會一起做很多工作。我不介意別人用別的東西、嘗試別的東西。如果他們不嘗試怎麼知道我們的有多好?有時候你需要被提醒一下。我們必須不斷贏得我們現在的位置。總有人誇下海口。你看看有多少ASIC項目被取消了。僅僅因為你要造一個ASIC你還得造出比輝達更好的東西這沒那麼容易。實際上這不合理除非輝達一定有什麼缺陷。但我們的規模和速度擺在這裡,我們是世界上唯一一家每年都推出新品的公司且每年都實現巨大飛躍。帕特爾:我猜他們的邏輯是它不需要比輝達更好,只要不比70%差太多就行,因為他們付給你70%的利潤率。黃仁勳:不,別忘了ASIC的利潤率也很高。假設輝達利潤率是70%且ASIC利潤率是65%。你到底省了什麼?帕特爾:你是說像博通那樣的?黃仁勳:對。你得付錢給別人。據我所知ASIC利潤率非常高,他們自己也這麼認為且對他們驚人的ASIC利潤率很自豪。所以你問為什麼。很久以前我們就是沒能力做。當時我沒有深刻意識到做一個像OpenAI、Anthropic這樣的基礎AI實驗室有多難以及他們需要供應商本身的巨額投資。我們當時沒能力投資Anthropic幾十億美元來換取他們用我們的算力。但Google和AWS有能力。他們一開始就投入巨資且作為回報Anthropic用了他們的算力。我們當時就是沒能力。我的失誤是我沒有深刻意識到他們真的別無選擇,沒有風投會投50到100億美元到一個AI實驗室指望它變成Anthropic,這是我的失誤。但即使我當時理解了我也不認為我們有能力那麼做。但我不會再犯同樣的錯誤了。我很樂意投資OpenAI也很樂意幫他們擴展,我相信這是必要的。後來當我有能力時Anthropic來找我們,我很樂意成為投資者且很樂意幫他們擴展。我們當時就是做不到。如果我能讓一切重來,如果當時的輝達有現在這麼大我會非常樂意那麼做。03 輝達為什麼不成為超大規模雲廠商?帕特爾:多年來輝達一直是AI領域賺錢並賺大錢的公司。現在你在投資,比如據報導你們已向OpenAI投了300億美元並向Anthropic投了100億美元。現在他們的估值漲了且我相信還會繼續漲。所以如果這些年來你一直在給他們提供算力且你看到了它的發展方向,而他們一兩年前的價值只有現在的十分之一甚至一年前,而你又有那麼多現金,那要麼輝達自己成為一個基礎實驗室投入巨資去做,要麼在現在這個估值下更早地做你這些交易。而且你有現金。所以為什麼不更早做呢?黃仁勳:我們在力所能及的時候盡快做了且一有能力就盡快做了。如果我能我會更早做。在Anthropic需要我們做的時候我們就是沒能力,那時這不在我們的考慮範圍內。帕特爾:怎麼講?是錢的問題嗎?黃仁勳:是的即投資規模。我們當時從未在公司外部做過投資,更不用說那麼大數額了。我們沒有意識到我們需要這麼做。我一直以為他們可以像所有公司一樣去風投那裡融資。但他們想做的事風投做不到。OpenAI想做的事風投做不到。我現在認識到了但我當時不知道。但這就是他們的天才之處,他們聰明就聰明在這裡。他們當時就意識到必須做那樣的事。我很高興他們做到了。即使這導致Anthropic去找了別人,我仍然很高興它發生了。Anthropic的存在對世界是好事且我為此高興。帕特爾:我想你們仍然在賺很多錢而且每個季度都賺得更多。既然你有這麼多不斷賺來的錢,輝達應該用它做什麼?有一個答案是已經出現了一整套中間商生態系統,把資本支出轉化為這些實驗室的營運支出讓他們可以租算力。因為晶片很貴但它們生命周期裡能賺很多錢,因為AI模型越來越好。它們產生的Token價值在增加但部署成本高。輝達有錢做資本支出。事實上據報導你們正在支援CoreWeave且金額高達63億美元並已經投了20億。輝達為什麼不自己成為一個雲服務商?為什麼不自己成為超大規模雲廠商並自己出租算力?黃仁勳:這是我們公司的理念且我認為是明智的。我們應該做必要的事但儘量少做。意思是說在我們建構計算平台的工作上如果我們不做,我真心相信沒人會做。如果我們不冒我們冒的那些險,如果我們不按我們的方式做NVLink並不建構整個軟體棧,不按我們的方式建立生態系統並不投入20年CUDA並在大部分時間裡虧損,如果我們不做沒人會做。如果我們不建立所有CUDA-X庫使它們面向特定領域,十五年前我們開始做特定領域庫,因為我們意識到如果我們不建立這些特定領域庫,無論是光線追蹤、圖像生成還是早期AI工作、這些模型,或者資料處理、結構化資料處理、向量資料處理,如果我們不建立沒人會做。我完全相信這一點。我們為計算光刻做了一個庫叫cuLitho,如果我們不做沒人會做。所以加速計算之所以能有今天的進步是因為我們做了這些。所以我們應該做那件事且應該全身心投入並全力以赴去做。然而世界上有很多雲,如果我不做總有人會做。所以我們奉行做必要的事但儘量少做的理念,它存在於我們公司的每一天。我做的每一件事都用這個視角來看。就雲而言如果我們不支援CoreWeave存在,這些新雲、這些AI雲就不會存在。如果我們不幫CoreWeave它們就不會存在。如果我們不支援Nscale他們就不會有今天的成就。如果不支援Nebius他們也不會是今天這樣。現在他們做得非常好。這是一種商業模式。我們應該做必要的事且儘量少做。所以我們投資於我們的生態系統因為我希望我的生態系統蓬勃發展。我希望這個架構、AI能夠連接儘可能多的行業、儘可能多的國家,讓整個星球都建立在AI之上並建立在美國技術堆疊之上。這個願景正是我們在追求的。還有一件事,有很多優秀的基礎模型公司且我們儘量投資所有人。這是我們做的另一件事。我們不挑贏家且我們需要支援所有人。這是我們應該做的也是我們的樂趣所在。這對我們的業務至關重要。但我們也不遺餘力地不去挑贏家所以我投了一家就會投所有。帕特爾:你為什麼特意不挑贏家?黃仁勳:首先這不是我們的工作。其次輝達剛起步時有60家3D圖形公司而我們是唯一活下來的。如果你從這60家裡猜誰會成功,輝達會排在最不可能成功名單的首位。這是很久以前的事了。輝達的圖形架構恰恰是錯的且不是有點錯。我們造了一個完全錯的架構,開發者沒法支援它且它永遠不會成功。我們基於良好的第一性原理推理但最終得出了錯誤的解決方案。每個人都會把我們排除在外但我們活下來了。所以我有足夠的謙遜認識到這一點即不要挑贏家。要麼讓他們自己照顧自己,要麼就照顧所有人。帕特爾:有一點我沒明白,你說我們不是因為他們是新雲就優先考慮他們想扶持他們,但你也列舉了一堆新雲說沒有輝達它們就不會存在。這兩件事怎麼相容?黃仁勳:首先他們自己得想存在並且來請求我們幫助。當他們想存在並且有商業計畫、專業知識和熱情時,他們顯然覺得自己有些能力。但如果歸根結底他們需要一些投資來啟動,我們會支援他們。但他們越早啟動飛輪越好。你的問題是我們想不想做融資業務?答案是不想。有人在做融資業務,我們寧願和他們合作而不是自己當融資方。我們的目標是專注於我們做的事且保持商業模式儘可能簡單並支援我們的生態系統。當像OpenAI這樣的組織需要300億美元規模的投資因為他們在IPO之前,而我們深信他們會成為一家不可思議的公司,世界需要他們存在且世界希望他們存在,我希望他們存在並且他們順風順水,讓我們支援他們並讓他們擴展。這些投資我們會做因為他們需要我們。但我們不是想做儘可能多的事而是想做儘可能少的事。帕特爾:這可能是個顯而易見的問題,但我們在GPU短缺的情況下過了好幾年,現在因為模型變好導致短缺還在加劇。黃仁勳:我們確實缺GPU。帕特爾:是的。輝達以分配稀缺配額而聞名,不只看誰出價高而是看我們希望確保這些新雲存在,比如給CoreWeave一些,給Crusoe一些,給Lambda一些。這對輝達有什麼好處?首先你同意這種分化市場的描述嗎?黃仁勳:不同意。你的前提完全錯了。我們對這些事情足夠謹慎且非常謹慎。第一如果你不下採購訂單光說沒用。在收到採購訂單之前我們能做什麼?所以第一件事是我們和每個人努力工作完成預測,因為這些東西要很長時間才能造好且資料中心也要很長時間。我們通過預測等方式來協調供需這是首要任務。第二我們儘量和儘可能多的人做預測但最終你還是得下訂單。也許無論什麼原因你沒下訂單,我能怎麼辦?在某個時間點先到先得。除此之外如果你的資料中心還沒準備好,或者某些元件還沒準備好讓你啟用資料中心,我們可能會先服務別的客戶。這只是為了最大化我們自己工廠的吞吐量且我們可能會做一些調整。除此之外優先順序是先到先得。你得下採購訂單。當然有一些故事。比如這一切始於一篇關於拉里·佩奇和馬斯克跟我吃飯時求取GPU的文章,那從未發生。我們確實吃了飯且是很愉快的一頓飯但他們從未求取GPU。他們只是需要下訂單。一旦下了訂單我們會盡力把產能分配給他們這不複雜。帕特爾:好。所以聽起來有一個佇列,然後根據資料中心是否準備好、何時下採購訂單,你在某個時間拿到貨。但這聽起來仍然不是價高者得。有什麼理由不那樣做?黃仁勳:我們從不那樣做。帕特爾:為什麼不是價高者得?黃仁勳:因為那是不好的商業實踐。你定好價格然後人們決定買不買。我理解晶片行業其他人會在需求高時漲價但我們不那樣做。這從來不是我們的做法。你可以信賴我們。我寧願做個可靠的人並做行業的基石。你不用事後猜測。如果我報了一個價那就是那個價,就這樣。如果需求飆升價格依然穩定。帕特爾:另一方面這就是你們和台積電關係好的原因吧?黃仁勳:是的,輝達和他們做生意快30年了。輝達和台積電沒有簽署法律合同但總有一些粗略的公平。有時我對且有時我錯。有時我拿了好deal且有時我拿了差deal。但總體而言這段關係非常好。我可以完全信任他們並且可以完全依賴他們。你可以信賴輝達的一點是今年的Vera Rubin會不可思議。明年Vera Rubin Ultra會來。後年Feynman會來。再後一年我還沒介紹名字。每一年你都可以信賴我們。你去找世界上任何其他ASIC團隊隨便挑,你能說我可以把全部業務押在你身上且你每年都會為我服務嗎?你能說你的Token成本每年都會下降一個數量級且我可以像相信時鐘一樣相信你嗎?我剛才對台積電說了類似的話。對歷史上任何其他代工廠你都不可能這麼說。但今天你可以對輝達這麼說。你可以每年都信賴我們。如果你想買10億美元的AI工廠沒問題。想買1億美元沒問題。1000萬美元或者只有一個機架都沒問題。或者只有一個顯示卡沒問題。如果你想下1000億美元的訂單也沒問題。我們是當今世界上唯一一家你可以這麼說的公司。我也可以對台積電這麼說。我想買一個或者買十億個都沒問題。我們只需要經過規劃流程以及所有成熟的人會做的事。所以我認為輝達能成為世界AI產業的基石,這個地位我們花了幾十年才達到。這是巨大的承諾和巨大的奉獻。我們公司的穩定性與一致性非常重要。04 是否應該向中國銷售AI晶片?帕特爾:我想問關於中國的問題。我實際上不知道我是否支援向中國賣晶片但我喜歡對嘉賓唱反調。達里歐·阿莫代伊(Dario Amodei)支援出口管制,我問他為什麼美國和中國不能都在資料中心裡擁有一群天才?但既然你站在另一邊我會反過來問你。一種思考方式是Anthropic幾天前發佈了Mythos預覽版。這個模型他們甚至沒有公開發佈,因為他們說它有很強的網路攻擊能力且世界還沒準備好,要等他們把那些零日漏洞修補好。但他們說它發現了所有主流作業系統和每個瀏覽器的成千上萬個高危漏洞。它在OpenBSD裡發現了一個漏洞且那個是專門設計來避免零日漏洞的作業系統,這個漏洞存在了27年。所以如果中國公司、中國實驗室、中國政府能拿到AI晶片,來訓練一個像Claude Mythos這樣有網路攻擊能力的模型並用更多算力跑幾百萬個實例,這是否對美國公司、美國國家安全構成威脅?黃仁勳:首先Mythos是在相當普通的算力上訓練的且算力規模也相當普通,只不過訓練它的是一家非常優秀的公司。它所用的算力類型和數量在中國其實非常充足。你要知道晶片在中國是存在的。他們製造了全球60%以上的主流晶片,這個產業對他們來說非常大。他們擁有世界上最厲害的電腦科學家之一。如你所知幾乎所有AI實驗室裡大部分研究人員都是中國人,佔了全球50%的AI研究人員。所以問題來了,既然他們已經擁有這麼多資產如充足的能源與大量的晶片以及全球近半的AI人才,如果你真的擔心他們,那麼創造一個更安全的世界最好的方式是什麼?去打壓他們把他們變成敵人可能不是最好的答案。他們是競爭對手且我們希望美國贏。但我認為進行對話、進行研究對話可能是最安全的。由於我們目前對中國的態度在這個領域明顯缺失。我們的AI研究人員和他們的AI研究人員交流至關重要。我們雙方都試圖就AI不應該被用來做什麼達成一致,這至關重要。關於在軟體裡找漏洞,當然這正是AI應該做的。它會在很多軟體裡找到漏洞嗎?當然。有很多漏洞。AI軟體裡也有很多漏洞。這正是AI應該做的,我很高興AI達到了一個水平能幫我們提高這麼多生產力。有一件事被低估了,就是圍繞網路安全、AI網路安全、AI安全、AI隱私的生態系統非常豐富。有一整個AI初創公司生態系統在試圖為我們創造那個未來,即一個不可思議的AI智能體周圍有成千上萬個AI智能體在保護它並確保它安全。那個未來一定會到來。認為會有一個AI智能體到處跑而沒人看著這有點瘋狂。我們很清楚這個生態系統需要蓬勃發展。事實證明這個生態系統需要開源且需要開放模型和開放軟體棧,這樣所有AI研究人員與所有厲害的電腦科學家才能去建構同樣強大的AI系統並保證AI的安全。所以我們需要確保的一件事是保持開源生態系統的活力,這不能被忽視。其中很多來自中國且我們不應該扼殺它。關於中國當然我們希望美國擁有儘可能多的算力。我們受限於能源但有很多人在解決這個問題,我們不能讓能源成為國家的瓶頸。但我們也希望世界上所有的AI開發者都在美國技術堆疊上開發,並把AI的進步尤其是開放原始碼的部分貢獻給美國生態系統。建立兩個生態系統將是極其愚蠢的,一個開放原始碼的且只能跑在外國技術堆疊上,一個封閉的且跑在美國技術堆疊上。我認為這對美國將是可怕的後果。帕特爾:資訊量很多,我梳理一下。中國有算力但有些估計說因為他們沒有EUV也就是因為晶片製造出口管制,他們實際能生產的Flops只有美國的十分之一。那麼他們最終能訓練出像Mythos這樣的模型嗎?能。但問題在於因為我們有更多的Flops,美國實驗室能先達到這些能力水平因為Anthropic先達到了。另外就算他們訓練出這樣的模型,大規模部署的能力也很重要。如果你有個網路駭客有一百萬個實例比有一千個危險得多。所以推理算力真的很重要。事實上他們有這麼多優秀的AI研究人員,這恰恰是可怕的地方,因為讓這些工程師研究人員更高效的是什麼?是算力。如果你和美國任何一個AI實驗室聊他們會說限制他們的是算力。DeepSeek創始人、通義千問領導層都說過。他們說他們受限於算力。那麼問題來了,我們讓美國公司因為有更多算力而先達到Mythos等級的能力並讓我們的社會為此做好準備,這不是更好嗎?而中國因為算力少會更晚達到這個水平?黃仁勳:我們的目標當然應該始終是第一個到達也始終擁有更多算力。但要讓你描述的那種結果成立,你必須把情況推到極端也就是他們得完全沒有算力。只要他們還有一些算力,問題就變成了到底需要多少才夠?事實上中國擁有的算力是巨大的。你剛才也說了他們是世界第二大計算市場。如果他們真想集中算力做一件事他們完全有能力做到。帕特爾:但這是真的嗎?有人估計說中芯國際在工藝節點上落後。黃仁勳:他們擁有的能源是驚人的對吧?AI是個平行計算問題不是嗎?為什麼他們不能因為能源幾乎免費就把4倍、10倍的晶片放在一起?他們有這麼多能源。他們有完全空置且完全通電的資料中心。他們的基礎設施容量巨大。如果他們想他們就把更多晶片聚在一起即使是7奈米的。他們製造晶片的能力是世界上最大的之一,半導體行業知道他們壟斷了主流晶片。他們有超額產能且產能過剩。所以認為中國將無法獲得AI晶片的想法完全是胡說八道。當然如果你問我如果全世界根本沒有算力美國會不會遙遙領先?但那不是一個真實場景。他們已經擁有大量算力。你擔心的那個閾值他們已經達到並超過了。所以我認為你誤解了,AI是一個五層蛋糕,最底層就是能源。當你能源充足時它可以彌補晶片的不足。如果你晶片充足它可以彌補能源的不足。例如美國能源稀缺,這就是為什麼輝達必須不斷推進架構並做極端協同設計,以便在晶片運出量少的情況下因為能源太有限而我們的每瓦吞吐量高得離譜。但是如果你的瓦特數完全充足且幾乎是免費的,你會在乎每瓦性能嗎?你會有很多。你可以用舊晶片來做。7奈米晶片基本上就是Hopper。我必須告訴你今天的模型大部分是在Hopper這一代上訓練的。所以7奈米晶片已經足夠好了。能源豐富是他們的優勢。帕特爾:但還有他們能否製造足夠多晶片的問題。黃仁勳:但他們能。證據是什麼?華為剛剛度過了公司歷史上業績最好的一年。帕特爾:他們出貨了多少晶片?黃仁勳:大量。數百萬個,比Anthropic擁有的多得多。帕特爾:問題在於中芯國際能生產多少邏輯晶片以及能生產多少記憶體?黃仁勳:我告訴你實際情況。他們有大量的邏輯晶片也有大量的HBM2記憶體。帕特爾:但如你所知訓練和推理的瓶頸往往是頻寬量。所以如果你用的是HBM2,我不記得具體數字,但和你最新的產品比記憶體頻寬可能差了一個數量級,這非常大。黃仁勳:華為是一家網路公司。帕特爾:但這不能改變你需要EUV來製造最先進HBM的事實。黃仁勳:完全不對。你可以把它們聚在一起就像我們用NVL72聚在一起一樣。他們已經展示了矽光子技術,把所有計算連成一個巨大的超級電腦。你的前提完全錯了。事實是他們的AI發展進展得相當順利。世界上最好的AI研究人員因為他們算力有限,他們也提出極其聰明的演算法。記住我剛才說摩爾定律每年大約進步25%。然而通過優秀的電腦科學我們仍然可以把演算法性能提高10倍。我的意思是優秀的電腦科學才是槓桿。毫無疑問MoE是一個偉大的發明。所有那些令人難以置信的注意力機制減少了計算量。我們必須承認AI的大部分進步來自演算法進步而不僅僅是原始硬體。如果大部分進步來自演算法、電腦科學和程式設計,那告訴我他們的AI研究大軍不是他們的根本優勢?我們看到了。DeepSeek絕不是一個無關緊要的進展。要是那天像DeepSeek這樣的成果先在華為平台上出現,那對我們國家會是非常糟糕的結果。帕特爾:為什麼?因為目前像DeepSeek這樣的模型如果是開放原始碼的,可以在任何加速器上跑。為什麼將來會不是這樣?黃仁勳:假設它針對華為最佳化了且針對他們的架構最佳化了,那就會讓我們的處於劣勢。你描述了一種我認為是好消息的情況。一家公司開發了軟體並開發了一個AI模型且在美國技術堆疊上跑得最好。我認為那是好消息。你把它作為前提說那是壞消息。我來告訴你真正的壞消息即世界上所有的AI模型都是在非美國硬體上開發的並且跑得最好。帕特爾:我想我只是沒看到證據表明存在巨大的差異會阻止你切換加速器。美國的實驗室正在跨所有雲且跨所有加速器跑他們的模型。黃仁勳:我就是證據。你拿一個為輝達最佳化的模型,然後試著在別的東西上跑。帕特爾:但美國的實驗室確實在那麼做。黃仁勳:而且它們跑得並不更好。輝達的成功就是完美的證據。AI模型是在我們的軟體棧上建立的且在我們的軟體棧上跑得最好,這怎麼就不合邏輯了?帕特爾:Anthropic的模型在GPU上跑也在Trainium和TPU上跑。黃仁勳:需要做很多工作才能改過來。但是去全球南方並去中東。開箱即用,如果所有AI模型都在別人的技術堆疊上跑得最好,那你現在就是在提出一個荒謬的主張說這對美國是好事。帕特爾:但我不理解這個論點。假設中國公司先推出了下一個Mythos。他們先在美國軟體裡發現所有安全漏洞,但他們可以在輝達硬體上運行然後擴展到全球南方。這怎麼會是好事?黃仁勳:那不好。所以我們別讓那發生。帕特爾:你為什麼認為這是完全可以替代的,如果你不給他們運算力,它就會被華為完全取代?他們是落後的對吧?他們的晶片比你差。黃仁勳:現在有證據即他們的晶片產業巨大。帕特爾:你可以直接比較一下H200和華為910C的Flops、頻寬或記憶體。華為那款大概只有H200的二分之一到三分之一。黃仁勳:他們用更多的數量來彌補。帕特爾:看來你的論點是他們有所有這些現成的能源對吧?他們需要用晶片來填充。黃仁勳:而且他們擅長製造。帕特爾:我相信最終他們也許能在製造上超過所有人。但眼下這幾年很關鍵。黃仁勳:你說的關鍵幾年具體是那些年?帕特爾:就是接下來的幾年。我們會擁有能發動各種網路攻擊的模型。黃仁勳:在那種情況下如果接下來的幾年是關鍵,那麼我們必須確保世界上所有的AI模型都是在美國技術堆疊上建構的。帕特爾:如果它們是在美國技術堆疊上建構的,那又怎麼防止它們如果它們擁有更先進的能力去發動等同於Mythos的網路攻擊呢?黃仁勳:無論如何都沒有保證。帕特爾:但如果你提早擁有它,我們可以為它做準備。黃仁勳:聽著你為什麼要讓AI產業的一層失去整個市場以便你能讓另一層受益?有五層且每一層都必須成功。最需要成功的那一層是AI應用。你為什麼如此執著於那個AI模型和那一家公司?為了什麼?帕特爾:因為這些模型實現了這些令人難以置信的攻擊能力而且你需要算力來運行它們。黃仁勳:能源、晶片和AI研究人員生態系統使它成為可能。帕特爾:好我們退一步說。中國得自己建出足夠的7奈米產能。別忘了他們現在還卡在7奈米,而你們會往3奈米、2奈米、1.6奈米走比如Feynman那一代。到時候你在用1.6奈米他們還在7奈米。他們只能靠數量來彌補單顆晶片的性能差距。而他們能源充足。你賣給他們越多晶片他們手裡的總算力就越多。黃仁勳:聽著我只是覺得你的說法太絕對了。美國理應領先。美國的算力規模比世界上任何其他地方都高出100倍。美國理應領先。好吧美國現在就領先。輝達打造的是最先進的技術。我們確保美國實驗室最先知道這些技術並最先有機會購買。如果他們錢不夠我們甚至會投資他們。美國理應領先。我們想盡一切辦法確保美國領先。第一點你同意嗎?我們確實正在這麼做。帕特爾:但如果他們的瓶頸是算力,把晶片運到中國怎麼能讓美國保持領先?黃仁勳:不。我們有Vera Rubin給美國。Vera Rubin是給美國的。現在我算不算美國的一部分?你把我算作美國的一部分嗎?帕特爾:算。黃仁勳:那輝達呢?你把輝達算作一家美國公司對吧?第一為什麼我們不能拿出一種更平衡的監管方式讓輝達能在全球取勝,而不是把全球市場拱手讓掉?為什麼要讓美國把世界讓出去?晶片產業是美國生態系統的一部分,是美國技術領導力的一部分,是AI生態系統的一部分也是AI領導力的一部分。為什麼你的政策和你的理念會導向讓美國放棄全球市場中如此巨大的一塊?帕特爾:阿莫代伊曾引用過一句話,他說這就像波音吹噓我們向敵對國家出售核彈但導彈外殼是波音製造的。這在某種程度上支援了美國技術堆疊。從根本上說你在給敵國這種能力。黃仁勳:把AI和你剛才提到的那些東西相提並論是荒唐的。帕特爾:但AI類似於濃縮鈾對吧?它可以有積極用途也可以有消極用途。我們仍然不想把濃縮鈾送到其他國家。黃仁勳:這是一個糟糕的類比且一個不合邏輯的類比。帕特爾:但是如果這些算力可以運行一個能對美國所有軟體進行零日漏洞利用的模型,那它怎麼就不是一種武器呢?黃仁勳:首先解決這個問題的方法是與研究人員、與中國、與所有國家進行對話,確保人們不以那種方式使用技術。這是必鬚髮生的對話。第二點我們還需要確保美國領先,Vera Rubin、Blackwell在美國大量供應並堆積如山。顯然我們的結果會顯示這一點。我們有大量的算力。我們這裡有很棒的AI研究人員。然而我們也必須認識到AI不僅僅是一個模型。AI是一個五層蛋糕。AI產業在每一層都很重要且我們希望美國在每一層都獲勝包括晶片層。放棄整個市場不會讓美國長期在晶片層、在計算堆疊中贏得技術競賽,這就是事實。帕特爾:我想關鍵問題是現在向中國賣晶片怎麼能幫我們在長期獲勝?你看特斯拉向中國賣了很久的電動汽車,iPhone也在中國賣得很好。但這些並沒有把中國鎖定在美國的技術生態裡。他們照樣做出了自己的電動汽車且現在在全球佔主導。智慧型手機也是一樣。黃仁勳:當我們今天開始對話時你承認輝達的地位非常不同。你用了護城河這樣的詞。對我們公司來說最重要的事情是我們生態系統的豐富性,這關乎開發者。50%的AI開發者在中國。美國不應該放棄這一點。帕特爾:但我們美國有很多輝達開發者,這並不能阻止美國實驗室將來也能夠使用其他加速器。事實上現在他們也在使用其他加速器這很好。我不明白為什麼在中國情況不會是這樣,如果你向他們出售輝達晶片就像Google可以使用TPU和輝達一樣。黃仁勳:我們得持續創新。你可能也知道我們的份額在增長而不是在縮小。你剛才隱含了一個前提即就算我們在中國市場競爭也遲早會輸掉。我不是那種一醒來就覺得自己會輸的人。這種輸家心態和輸家前提對我來說毫無意義。我們不是在造汽車。汽車今天買這個品牌明天換另一個很容易。計算不是這樣。x86能活到今天是有原因的且ARM那麼有粘性也是有原因的。這些生態系統很難替代。換掉它們需要花大量時間和精力且大多數人根本不願意這麼做。所以我們的任務就是繼續培育這個生態系統並不斷推進技術,這樣我們才能在市場上競爭。你基於遲早會輸這個前提就說我們應該放棄一個市場。我無法認同這種邏輯。這沒有道理。我不認為美國是輸家。我們這個行業不是輸家。關鍵是你走向了極端。你的論點從極端開始認為如果我們在關鍵時刻給他們任何算力我們就會失去一切這很幼稚。帕特爾:讓我為自己闡述一下我的論點。我的想法不是說存在某個關鍵的計算閾值而是任何邊際算力都是有幫助的。所以如果你有更多的算力你可以訓練一個更好的模型。黃仁勳:我只想讓你承認對美國技術產業的任何邊際銷售都是有益的。帕特爾:如果跑在這些晶片上的AI模型具備網路攻擊能力,或者這些晶片被用來訓練這類模型並運行更多攻擊實例,那它雖然不是核武器但確實啟用了一種武器。黃仁勳:按你這個邏輯你不如把它用到微處理器和DRAM上。你甚至可以用到電上。帕特爾:但事實上我們確實對製造最先進DRAM的相關技術實施了出口管制。我們對中國製造晶片的各種東西都有各種出口管制。黃仁勳:我們向中國銷售大量的DRAM和CPU且我認為這是正確的。帕特爾:我想這回到了根本問題即AI是否不同?如果你擁有那種能在軟體中發現零日漏洞的技術,我們是否希望最大限度地減少中國首先達到並廣泛部署它的能力?黃仁勳:我們希望美國領先且我們可以控制這一點。帕特爾:如果晶片已經在那裡且他們正用它們來訓練那個模型我們如何控制?黃仁勳:我們有大量的算力。我們有大量的AI研究人員。我們在儘可能快地競賽。帕特爾:再說一次我們擁有的核武器比任何人都多但我們不想把濃縮鈾送到任何地方。黃仁勳:我們不是濃縮鈾且它是一個晶片而且是一個他們可以自己製造的晶片。帕特爾:但他們從你這裡購買是有原因的。我們有中國公司創始人的引言說他們受限於算力。黃仁勳:因為我們的晶片更好。總的來說我們的晶片更好。這是毫無疑問的。如果沒有我們的晶片你能承認華為經歷了創紀錄的一年嗎?你能承認一大批晶片公司已經上市了嗎?你能承認嗎?帕特爾:能。黃仁勳:你能否也承認我們曾經在那個市場擁有非常大的份額而我們現在不再擁有大份額?我們也可以承認中國約佔世界技術產業的40%。為美國技術產業放棄這個市場對我們的國家是一種傷害。對我們的國家安全是一種傷害且對我們的技術領先地位是一種傷害,這一切都為了一個公司的利益。這對我來說毫無意義。帕特爾:我想我有點困惑,感覺你在說兩種不同的陳述。一是如果我們被允許競爭我們將贏得與華為的競爭因為我們的晶片會好得多。二是沒有我們他們也會做完全相同的事情。這兩件事怎麼能同時進行呢?黃仁勳:這顯然是真的。在沒有更好選擇的情況下你會接受唯一的選擇。這怎麼不合邏輯了?這太合邏輯了。帕特爾:他們想要輝達晶片是因為它們更好?黃仁勳:是的。帕特爾:晶片更好意味著更多的算力且更多的算力意味著你可以訓練更好的模型。黃仁勳:我們的晶片更好不只是算力更高,還因為它更容易程式設計且我們有更好的生態系統。而且我們向中國賣晶片美國自己也在受益。我們維持了美國的技術領先地位且開發者繼續在美國技術堆疊上工作。當這些AI模型擴散到全球時美國技術堆疊仍然是那個最適合運行它們的平台。這樣我們就能持續推進和擴散美國技術。我認為這是好事也是美國技術領先地位中非常重要的一環。現在你所倡導的政策導致美國電信行業基本上被政策排擠出世界,以至於我們不再控制自己的電信。我不認為那是明智的。這有點狹隘並且導致了我在向你描述的、你似乎很難理解的意外後果。帕特爾:現在問題很清楚就是好處和成本那個更大。我想讓你承認一個潛在的成本。算力是訓練強大模型的輸入而強大模型確實有很強的攻擊能力比如網路攻擊。美國公司先達到Mythos那種能力水平然後暫緩發佈,給美國公司和美國政府時間修補漏洞並加固軟體這是好事。但如果中國因為獲得了更多算力而更早做出類似的模型並大規模部署,那會很糟糕。這件事到現在還沒發生一個關鍵原因就是美國公司包括輝達擁有更多的算力。所以我們把晶片賣給中國就是在幫他們縮小這個差距。這是一個成本。先不談好處你承不承認這確實是一個潛在的成本?黃仁勳:那我也告訴你另一個潛在的成本。如果我們放棄中國市場即世界第二大市場,就等於把AI堆疊中最重要的一層也就是晶片層整個讓了出去。他們會在自己的市場裡發展規模並建立自己的生態系統。未來的AI模型會針對他們的技術堆疊做最佳化而他們的模型又是開放的。隨著AI擴散到全球其他地方他們的標準和技術堆疊反而會變得比我們的更優越。帕特爾:我想我只是足夠相信輝達的核心工程師和CUDA工程師,認為他們可以最佳化。黃仁勳:AI不僅僅是核心最佳化你知道的。帕特爾:當然但你可以做很多事情比如從蒸餾到一個非常適合你晶片的模型。黃仁勳:我們會盡力的。帕特爾:你擁有所有的軟體。很難想像即使他們在一段時間內有一個稍微更好的開源模型,會對中國生態系統產生長期鎖定。黃仁勳:中國現在是全球開放原始碼軟體最大的貢獻者也是開放模型最大的貢獻者。而今天這些開源生態是建立在美國技術堆疊、建立在輝達之上的。AI技術堆疊的五層都很重要且美國應該每一層都贏。當然最重要的是最上面的應用層,誰能把AI擴散到社會裡用得最多誰就從這場工業革命裡受益最大。但每一層都必須成功。如果我們把這個國家嚇住讓所有人都覺得AI是核彈且所有人都討厭AI、害怕AI,我不知道這對美國有什麼好處。你這是在害美國。如果我們嚇唬所有人讓他們別去學軟體工程說AI會消滅所有軟體工程崗位,結果我們真的沒了軟體工程師那才是對美國最大的傷害。如果我們嚇唬所有人讓他們別當放射科醫生,說電腦視覺已經免費了且AI讀片比人強,那我們是混淆了工作和任務。放射科醫生的工作是照護病人而讀片只是其中的一項任務。如果我們連這個都搞錯了且嚇得沒人去讀放射科,我們最後會缺放射科醫生並缺好的醫療服務。所以我說當你從一個極端前提出發把一切看成要麼零要麼無窮,最後就會用一種不真實的方式嚇唬人。真實世界不是這樣的。我們希望美國第一嗎?當然。我們需要AI技術堆疊的每一層都領先嗎?當然。你今天談Mythos因為Mythos確實重要。但幾年後當美國想把我們的技術堆疊、我們的技術推廣到全世界比如到印度、中東、非洲、東南亞,當我們的國家想出口技術且想出口標準的時候,我希望到那時我們倆能再聊一次。到那天我會告訴你你今天設想的這些政策是如何讓美國無緣無故地放棄了世界第二大市場的。我們不應該主動放棄這個市場。如果競爭不過失去也就失去了但為什麼要主動讓出去?現在沒人主張全有或全無,不是說我們要把所有東西都賣給中國。沒人這麼主張。我們應該始終把最好的技術、最多的技術優先留在美國,並且讓美國最先擁有。但與此同時我們也應該去全球各地競爭並贏下市場。這兩件事可以同時做到。只是需要一些分寸、一些成熟而不是非黑即白。這個世界不是非黑即白的。帕特爾:好關鍵在於這一點。他們會針對自己幾年後能造出的最好晶片來最佳化模型。這些模型會被出口到世界各地從而形成標準。由於EUV出口管制正如我們所說你們將邁向1.6奈米。但即使幾年後他們很可能仍然停留在7奈米。在國內他們可能會說我們有這麼多能源且可以大規模量產所以繼續用7奈米也沒問題。但在出口市場上他們的7奈米晶片要直接跟你們的1.6奈米晶片競爭。到那時候他們的模型必須針對7奈米做極其深度的最佳化,以至於在7奈米上跑他們的模型反而比在你們的1.6奈米上跑效果更好。黃仁勳:我們能不能先看看事實?Blackwell在光刻技術上比Hopper先進了50倍嗎?差得遠。我反覆強調過摩爾定律已經死了。從Hopper到Blackwell單看電晶體姑且說提升了75%吧而且中間隔了三年。但Blackwell比Hopper快50倍。我的觀點是架構很重要且電腦科學也很重要。半導體物理學當然重要但電腦科學同樣重要。AI的影響力主要來自整個計算堆疊,這就是為什麼CUDA如此有效且如此受歡迎的原因。它是一個生態系統且一個計算架構並提供了極大的靈活性。你想徹底改變架構且搞出MoE、搞出擴散模型、搞出分解式架構都能做到而且很容易做到。事實是AI對上層堆疊的依賴程度不亞於下層架構。從這個角度說我們的架構和軟體堆疊是針對我們自己的生態系統最佳化的這本身就是優勢。正如我們剛對話時就談到輝達的生態系統有多豐富。為什麼大家總是首選CUDA來程式設計?因為他們確實喜歡且中國的研究人員也一樣。但如果我們被迫離開中國這是一個政策錯誤,顯然會適得其反且對美國不利。它會加速他們的晶片產業並迫使他們所有的AI生態系統專注於自己的內部架構。現在糾正還不算太晚但事情已經在發生了。你將來會看到他們不會停留在7奈米這很明顯。他們擅長製造且會從7奈米繼續往前推進。那5奈米和7奈米之間有10倍的差距嗎?答案是否定的。架構很重要且網路也很重要,這就是輝達收購Mellanox的原因。能源也很重要。所有這些都很重要且事情並不像你說的那麼簡單。05 輝達為什麼不製造多種不同的晶片架構?帕特爾:我們之前討論了台積電和記憶體等環節的瓶頸。如果未來我們處在這樣一個局面即你已經佔了N3節點的大部分產能且接下來會佔N2的大部分,你會不會考慮回頭用N7的閒置產能?比如說AI需求太大且領先節點的擴產跟不上,那你就用舊節點來造Hopper或Ampere但加上我們今天知道的數值格式改進和其他最佳化。你覺得2030年之前會發生這種事嗎?黃仁勳:沒必要。因為每一代架構的提升不光是靠電晶體尺寸。我們在工程、封裝、堆疊、數值格式、系統架構上做了大量工作。產能不夠的時候再回頭去搞一個舊節點,那需要投入的研發成本沒人負擔得起。我們能負擔的是往前走而不是往回走。當然如果有一天全球產能真的徹底到頭了,問我願不願意回頭用7奈米?我當然願意。帕特爾:有人跟我討論過一個問題即輝達為什麼不併行做幾個完全不同架構的晶片項目?比如像Cerebras那樣的晶圓級晶片或者像Dojo那樣的大封裝甚至做一個不帶CUDA的。你們有資源也有人才且可以同時做這些。既然AI和晶片架構的方向不確定為什麼要把所有雞蛋放在一個籃子裡?黃仁勳:我們可以做只是我們沒有發現更好的方向。你說的那些我們都模擬過且結果證明它們不如現在的方案。所以我們不做。我們正在做的就是我們想做的。如果未來的工作負載發生根本性變化我不是指演算法而是指實際的計算任務類型,這取決於市場的需求形態,我們可能會考慮增加其他類型的加速器。比如最近我們納入了Groq且會把它整合到CUDA生態裡。原因在於Token的價值現在已經很高了且可以對Token實行差異化定價。幾年前Token要麼免費要麼很便宜。現在不同客戶有不同的需求且願意為不同的答案付不同的錢。比如我們的軟體工程師如果能給他們響應更快的Token讓他們效率更高,我願意為此多付錢。但這個市場是最近才出現的。所以我們決定擴展帕累托前沿並做一個響應更快但吞吐量更低的推理細分市場。以前吞吐量高就是更好,但現在我們認為可能存在一個高ASP(平均售價)Token的市場即使工廠的總吞吐量下降更高的單價也能彌補。這就是我們做這件事的原因。除此之外如果我有更多的錢我還是會投到輝達現有的架構上。帕特爾:這種高端Token和推理市場細分的想法很有意思。假設深度學習革命沒有發生輝達現在在做什麼?黃仁勳:加速計算且我們一直在做這個。我們公司的基本判斷是通用計算的擴展能力基本到頭了。所以我們把GPU和CUDA跟CPU結合起來,把CPU上的某些工作負載解除安裝到GPU上加速。這樣可以把一個應用提速100倍甚至200倍。這些應用可以是工程、科學、物理、資料處理、電腦圖形、圖像生成等等。即使沒有AI,輝達也會是一家非常大的公司。原因很簡單即通用計算繼續擴展的路基本走完了且出路在於特定領域的加速。我們起步於電腦圖形但還有很多其他領域涵蓋粒子物理、流體、結構化資料處理等等都能從CUDA受益。我們的使命就是把加速計算帶給世界並推進那些通用計算做不了的應用,幫助突破某些科學領域。早期的應用包括分子動力學、能源勘探的地震資料處理、圖像處理等等。如果沒有AI我會很難過。但正因為我們在計算上取得的進步,我們讓深度學習變得普及了。任何研究人員、科學家、學生都能用一台PC或一張GeForce顯示卡做很厲害的科學。這個基本承諾一點都沒變。你看GTC大會開頭那部分跟AI一點關係都沒有,包括計算光刻、量子化學、資料處理。這些工作依然非常重要。我知道AI很讓人興奮但還有很多人做著非常重要且跟AI無關的工作。張量不是唯一的計算方式。我們想幫助所有人。帕特爾:非常感謝。黃仁勳:不客氣。我很享受與你的對話。帕特爾:我也是。 (網易科技)
黃仁勳最新採訪:談CUDA、TPU、華為和其他
在昨日一個採訪中,Vlogger Dwarkesh Patel向輝達CEO Jensen Huang 詢問了關於 TPU 競爭、輝達如何掌控日益緊張的先進晶片供應鏈、我們是否應該向中國出售 AI 晶片、輝達為什麼不轉型為超大規模資料中心、其投資策略等等問題。以下是我們總結的的三十個重要觀點:1、所有產能問題都可以在兩三年內輕鬆解決2、CPU有點像凱迪拉克,它是一款舒適的巡航車,速度不會太快,每個人都能輕鬆駕馭;它配備了巡航控制,一切都很簡單。但在很多方面,輝達的GPU和加速器就像F1賽車3、跟Elon Musk吃過飯,但Musk沒有懇求黃仁勳優先供貨GPU4、GPU訂單遵循先來後到原則5、不喜歡“價高者得”的經營方式6、後悔錯過Anthropic7、不喜歡挑選贏家進行支援,而是雨露均霑,讓他們自由發展8、依然不看好ASIC,沒有任何一個ASIC公司有輝達可靠9、和台積電沒有法律合同10、今年的Vera Rubin將會非常出色;明年Vera Rubin Ultra將問世;後年,Feynman將橫空出世11、中國生產了全球60%的主流晶片,甚至更多12、中國擁有一些世界上最頂尖的電腦科學家13、中國擁有全球50%的人工智慧研究人員14、中國不是敵人,他們只是對手15、中國的計算能力非常龐大,中國是全球第二大計算市場。如果他們想整合計算資源,完全可以滿足需求。16、中國擁有的能源量驚人,充足的能源是中國的優勢17、如果中國願意,他們完全可以把更多的晶片集中起來18、認為中國無法製造人工智慧晶片的說法完全是無稽之談19、中國是全球最大的開放原始碼軟體貢獻國20、中國也是全球最大的開放模型貢獻國21、7nm晶片已經足夠好了22、建立兩個生態系統——一個只能運行在外國技術堆疊上的開源生態系統,另一個是運行在美國技術堆疊上的封閉生態系統——的做法是極其愚蠢的23、人工智慧本質上就是一個平行計算問題24、MoE 是一項偉大的發明25、DeepSeek 絕非無關緊要的進步,如果 DeepSeek 先在華為平台上發佈,那對美國來說將是災難性的26、x86 架構的存在是有原因的。ARM架構如此根深蒂固也是有原因的。這些生態系統難以替代。這需要耗費大量的時間和精力,而且大多數人都不願意這樣做27、輝達在中國份額大幅下降28、架構至關重要,電腦科學至關重要。半導體物理固然重要,但電腦科學才是重中之重29、即使人工智慧今天尚未出現,輝達的規模也會非常龐大30、如果沒有人工智慧,我會非常難過輝達最大的護城河是其對稀缺供應鏈的控制嗎?Q:我們已經看到許多軟體公司的估值暴跌,因為人們預期人工智慧會使軟體商品化。有一種可能過於天真的想法是:你看,輝達把GDS2檔案發給台積電。台積電製造邏輯晶片,製造交換機晶片,然後將它們與SK海力士、美光和三星生產的HBM記憶體封裝在一起。之後,台積電將封裝好的晶片發給台灣的ODM廠商,由他們組裝成機架。從本質上講,輝達製造的是其他人製造的軟體,如果軟體商品化了,輝達也會商品化嗎?黃仁勳:最終,總得有某種機制將電子轉化為tokens。將電子轉化為tokens,並隨著時間的推移提升這些tokens的價值,這很難完全商品化。從電子到tokens的轉化是一個不可思議的旅程。製造tokens就像讓一個分子比另一個分子更有價值,讓一個tokens比另一個更有價值。顯然,我們正在即時見證著tokens價值的提升,其中蘊含著大量的藝術、工程、科學和發明創造。這種轉化、製造以及所有相關的科學原理,我們遠未被完全理解,這段旅程也遠未結束。我懷疑它最終能否實現。我們當然會提高效率。你提出的問題正是我對我們公司的理解。輸入是電子,輸出是tokens。輝達位於中間。我們的工作是在必要範圍內儘可能少地干預,從而以驚人的能力實現這種轉型。我所說的“儘可能少地干預”,是指任何我不需要親自完成的事情,我都會與其他合作夥伴一起,將其納入我的生態系統。如果你看看今天的輝達,我們可能擁有規模最大的合作夥伴生態系統,涵蓋供應鏈的上下游,包括所有電腦公司、應用開發商和模型建構者。人工智慧就像一個五層蛋糕,我們的生態系統遍佈所有五個層面。我們儘量少做,但事實證明,我們必須做的那部分工作極其困難。我認為這部分工作無法商品化。(We try to do as little as possible, but the part that we have to do, as it turns out, is insanely hard)事實上,我也不認為企業軟體公司、工具製造商……如今大多數軟體公司都是工具製造商。當然,也有一些公司不是,它們開發的是工作流程編碼系統。但對很多公司來說,它們確實是工具製造商。例如,Excel 是工具,PowerPoint 是工具,Cadence開發工具,Synopsys也開發工具。實際上,我看到的恰恰與人們的看法相反。我認為代理的數量和工具使用者的數量都將呈指數級增長。所有這些工具的實例數量很可能會激增。Synopsys Design Compiler的實例數量很可能會激增,使用平面規劃器、佈局工具和設計規則檢查器的代理數量也會隨之大幅增長。如今,我們受限於工程師的數量。未來,這些工程師將得到大量agent的支援。我們將以前所未有的方式探索設計空間,並繼續使用我們今天使用的工具。我認為工具的使用將推動軟體公司蓬勃發展。之所以目前還沒有出現這種情況,是因為agents還不擅長使用這些工具。要麼這些公司會自行開發代理商,要麼agents會變得足夠熟練,能夠使用這些工具。我認為最終會是兩者的結合。Q:在你們最新的檔案中,你們與代工廠、記憶體和封裝廠商簽訂了近1000億美元的採購承諾。SemiAnalysis報導稱,你們這類採購承諾的總額將達到2500億美元。一種解讀是,輝達的護城河實際上在於你們鎖定了未來幾年這些稀缺元件的供應。其他廠商或許擁有加速器,但他們真的能獲得所需的記憶體嗎?他們真的能獲得所需的邏輯晶片嗎?這真的是輝達未來幾年最大的護城河嗎?黃仁勳:這是我們能做到而別人很難做到的事情之一。我們在上游投入了大量資源。有些是明確的,比如你提到的這些承諾。有些則是隱性的。例如,我們供應鏈上的許多上游投資都是由他們進行的,因為我曾對各位CEO說:“讓我告訴你們這個行業將會發展到多大的規模,讓我解釋一下原因,讓我和你們一起分析,讓我向你們展示我所看到的。”通過與上游各行各業的CEO們溝通、啟發和協調,他們才願意進行投資。為什麼他們願意為我而不是為其他人投資呢?原因在於,他們知道我有能力購買他們的產品,並通過我的下游管道銷售。事實上,輝達的下游供應鏈和我們的下游需求都非常龐大,因此他們願意進行上游投資。(As a result of that process of informing, inspiring, and aligning with CEOs of all different industries upstream, they’re willing to make the investments. Why are they willing to make the investments for me and not someone else? The reason for that is because they know that I have the capacity to buy their supply and sell it through my downstream. The fact is that Nvidia’s downstream supply chain and our downstream demand is so large, they’re willing to make the investment upstream.)如果你看看GTC大會,人們都會驚嘆於它的規模和參會人員之多。它涵蓋了人工智慧領域的方方面面,可謂包羅萬象。他們齊聚一堂,是因為彼此需要交流。我把他們聚集在一起,是為了讓下游企業瞭解上游,上游企業瞭解下游,讓所有人都能瞭解人工智慧的最新進展。更重要的是,他們還能與人工智慧領域的專家、正在蓬勃發展的人工智慧初創公司以及所有令人驚嘆的成果見面,親眼見證我所講述的一切。我花費大量時間,直接或間接地向我們的供應鏈、合作夥伴和生態系統傳達我們面前的機遇。有些人總是說:“Jensen,大多數主題演講都是一個接一個的公告。”但我們的主題演講總會有一部分內容讓人感覺有點“折磨”,因為它幾乎像是在進行教育。事實上,這正是我所關注的。我需要確保整個供應鏈,從上到下,整個生態系統,都瞭解即將發生的事情,它為什麼會發生,何時發生,規模有多大,並且能夠像我一樣系統地思考和分析它。關於您所描述的護城河,我們有能力為未來做好準備。如果未來幾年我們的規模達到兆美元,我們擁有相應的供應鏈。如果沒有我們的影響力,我們業務的發展速度……就像現金流、供應鏈和客戶流失一樣,如果業務流失率很低,沒有人會為一個架構建構供應鏈。我們之所以能夠維持如此龐大的規模,完全是因為下游需求巨大。他們看到了這一點,聽到了相關資訊,預見到了這一切。這使我們能夠以如此大的規模去做我們能夠做的事情。Q:我確實想更具體地瞭解上游能否跟上步伐。多年來,你們的收入每年都翻一番。你們提供給全球的flops數每年都增長三倍以上。黃仁勳:現在以這種規模翻倍真的太不可思議了。Q:沒錯。但你再看看邏輯。你是台積電N3工藝節點的最大客戶,也是N2工藝節點的最大客戶之一。今年人工智慧整體將佔N3工藝節點的60%,根據SemiAnalysis的預測,明年將達到86%。如果你已經佔據了大部分市場份額,如何才能實現翻番?又該如何逐年實現這一目標?我們現在是否正處於一個由於上游工藝的限制,人工智慧計算增長速度不得不放緩的階段?你認為有什麼辦法可以解決這個問題?最終,我們如何才能實現每年兩倍的晶圓廠建設量?黃仁勳:在某種程度上,瞬時需求大於全球上下游的供應。在任何時刻,我們都可能面臨plumbers數量不足的限制,而這種情況實際上也時有發生。Q:plumbers受邀參加明年的GTC大會。黃仁勳:順便說一句,這主意不錯。但這只是個好條件。你想要的是一個瞬時需求大於行業總供給的行業。反之則顯然不好。如果我們之間的距離太遠,如果某個特定元件的供應量太少,整個行業就會蜂擁而至。例如,你會發現現在人們很少再談論CoWoS了。原因在於,過去兩年我們全力以赴,實現了超負荷的產能擴張。我們連續數次加倍,每次都翻倍。現在我認為我們形勢相當不錯。台積電現在也意識到,CoWoS的供應必須跟上邏輯電路和儲存器的需求。他們正以與邏輯電路相同的速度擴展CoWoS和未來的封裝技術。這非常棒,因為長期以來,CoWoS和HBM儲存器都屬於小眾技術。但現在它們不再是小眾技術了。人們現在意識到它們已經成為主流的計算技術。當然,我們現在更有能力影響供應鏈的更大範圍。在人工智慧革命之初,我五年前就說過現在我說的這些話。有些人相信它並進行了投資,例如Sanjay和美光團隊。我仍然清楚地記得那次會議,會上我清楚地闡述了將會發生什麼、為什麼會發生以及今天的預測。他們確實加倍投入。我們在LPDDR和HBM記憶體領域與他們展開了合作,他們也確實投入了大量資金。這顯然對公司產生了巨大的影響。有些人加入得晚一些,但現在他們都在這裡了。這些瓶頸問題都受到了高度重視。現在,我們正在提前數年預先解決這些瓶頸問題。例如,過去幾年我們對Lumentum 、Coherent以及矽光子生態系統的投資,真正重塑了供應鏈。我們圍繞台積電建構了一條完整的供應鏈。我們與他們合作開發了COUPE 項目,發明了大量技術,並將這些專利授權給供應鏈,以保持其開放性和高效性。我們正在通過發明新技術、新工作流程、新型測試裝置(例如雙面探針測試)來建構供應鏈,同時投資於相關企業並幫助它們擴大產能。可以看出,我們正努力塑造整個生態系統,使供應鏈能夠支援規模化發展。Q:似乎有些瓶頸比其他瓶頸更容易解決。例如,擴展 CoWoS 與其他擴展方式相比。黃仁勳:順便說一句,我碰到的是難度最高的那一個。Q:那個?黃仁勳:水管工和電工。這就是我對那些描述工作終結和職業消亡的末日論者感到擔憂的原因之一。如果我們勸阻人們成為軟體工程師,我們就會面臨軟體工程師短缺的問題。十年前也出現過同樣的預測。一些末日論者告誡人們:“無論如何,千萬別當放射科醫生。”你可能還會在網上看到一些這樣的視訊,說放射科醫生將是第一個消失的職業,世界將不再需要更多的放射科醫生。猜猜我們現在缺什麼?放射科醫生。Q:回到之前關於有些東西可以規模化生產,而有些東西卻不行這一點……你究竟如何才能每年生產兩倍的邏輯電路?歸根結底,儲存器和邏輯電路的瓶頸都在於極紫外光刻(EUV)。你如何才能逐年獲得兩倍的極紫外光刻裝置?黃仁勳:這些都不是無法快速擴展的。所有這些都可以在兩三年內輕鬆實現。你只需要一個需求訊號。一旦你能造出一個,你就能造出十個;一旦你能造出十個,你就能造出一百萬個。這些都不難複製。Q:你會追溯到供應鏈的那個環節?你會去找ASML說:“嘿,如果我展望三年後,輝達的年收入達到兩兆美元,我們需要更多的EUV光刻機”嗎?黃仁勳:有些我必須直接說服,有些需要間接,還有一些……如果我能說服台積電,ASML也會被說服。我們必須考慮關鍵的瓶頸。但如果台積電被說服了,幾年後你們就會有很多EUV光刻機可用了。我的意思是,所有瓶頸都不會持續超過兩三年,一個都不會。與此同時,我們的計算效率提高了10倍、20倍,以Hopper到Blackwell為例,甚至提高了30倍到50倍。由於CUDA的靈活性,我們不斷開發新的演算法。我們正在開發各種新技術,以提高效率,同時提升產能。這些我都不擔心。真正讓我擔憂的是下游的問題。那些阻礙能源發展的能源政策……沒有能源,就無法建立任何產業。沒有能源,就無法建立一個全新的製造業。我們希望重振美國工業。我們希望恢復晶片製造、電腦製造和封裝產業。我們希望研發電動汽車和機器人等新產品。我們希望建設人工智慧工廠。所有這些都離不開能源,而且這些項目都需要很長時間。增加晶片產能,這需要兩到三年的時間。增加CoWoS產能,也需要兩到三年的時間。Q:有意思。我感覺有時候客人會跟我說完全相反的話。這種情況下,我確實缺乏相關的專業知識來判斷。黃仁勳:最妙的是,你是在和專家對話。TPU 能否打破輝達在 AI 計算領域的壟斷地位?Q:我想問問你們的競爭對手。如果你看看TPU ,可以說全球排名前三的模型中,有兩款——Claude和Gemini——都是用TPU訓練的。這對輝達未來的發展意味著什麼?黃仁勳:我們打造的是截然不同的東西。輝達打造的是加速計算,而不是張量處理單元。加速計算的應用範圍非常廣泛:分子動力學、量子色動力學、資料處理、資料幀、結構化資料和非結構化資料。它也用於流體動力學和粒子物理學。此外,我們還將其應用於人工智慧領域。加速計算的範疇遠比這廣泛得多。雖然人工智慧是當今的熱門話題,而且顯然非常重要且影響深遠,但計算的範疇遠不止於此。輝達徹底革新了計算方式,從通用計算轉向加速計算。我們的市場覆蓋範圍遠遠超過任何TPU或ASIC晶片所能企及的範圍。從我們的市場地位來看,我們是唯一一家能夠加速所有類型應用程式的公司。我們擁有龐大的生態系統。因此,各種框架和演算法都可以在輝達平台上運行。因為我們的電腦設計之初就考慮到了由他人操作,所以任何具備操作能力的人都可以購買我們的系統。而大多數自建系統則需要使用者自行操作,因為它們的設計初衷並非為了方便他人操作。由於任何人都可以操作我們的系統,因此我們的產品已部署在包括 Google、Amazon、Azure 和 OCI 在內的所有雲平台上。如果您想以租賃方式營運,最好擁有一個涵蓋多個行業的龐大客戶生態系統,以便他們成為承購方。如果您想自行營運,我們當然有能力幫助您,就像我們之前為埃隆·馬斯克提供的 xAI 服務一樣。而且,由於我們能夠賦能任何公司和任何行業的營運者,您可以利用這項技術為禮來公司建構一台用於科學研究和藥物研發的超級電腦。我們可以幫助他們營運自己的超級電腦,並將其用於我們所加速的各個藥物研發和生物科學領域。我們能夠解決很多TPU無法解決的應用問題。輝達打造CUDA的目的不僅在於使其成為一個出色的張量處理單元,它還能處理資料處理、計算、人工智慧等各個生命周期。我們的市場機會更大,覆蓋範圍也更廣。因為我們現在支援全球所有應用,所以無論你在那裡建構輝達系統,都無需擔心找不到客戶。這完全是兩碼事。Q:這將是一個很長的問題。你們的營收非常驚人,但你們每季度600億美元的收入並非來自製藥和量子計算領域。你們之所以能做到這一點,是因為人工智慧是一項前所未有的技術,而且它正以前所未有的速度發展。那麼問題就變成了:那種方案最適合人工智慧?我不太瞭解細節,但我跟我的人工智慧研究朋友聊過,他們說:“你看,我用TPU的時候,它是一個大型的脈動陣列,非常適合做矩陣乘法,而GPU則非常靈活。當你需要處理大量分支或不規則的記憶體訪問時,它就非常棒。”但人工智慧究竟是什麼?它不過是不斷重複進行這些非常可預測的矩陣乘法運算。你無需為線程束調度器或線程與記憶體庫之間的切換而犧牲任何晶片面積。而且,TPU 針對當前計算領域收入增長和應用場景的大量需求進行了最佳化。我想知道你對此有何看法。黃仁勳:矩陣乘法是人工智慧的重要組成部分,但並非全部。如果你想提出新的注意力機制、以不同的方式進行分解,或者發明一種全新的架構——例如混合SSM——你需要一個通用的可程式設計架構。如果你想建立一個融合擴散和自回歸技術的模型,你同樣需要一個通用的可程式設計架構。我們幾乎可以運行你所能想像的一切。這就是它的優勢所在。由於它是一個可程式設計系統,因此可以更輕鬆地發明新的演算法。人工智慧之所以能如此快速發展,真正的原因在於其不斷髮明新演算法的能力。與其他任何事物一樣,TPU(技術處理單元)也受到摩爾定律的影響,而摩爾定律的年增長率約為25%。要想真正實現10倍甚至100倍的飛躍,唯一的辦法就是每年從根本上改變演算法及其計算方式。這就是輝達的根本優勢。我們之所以能讓 Blackwell 的能效比 Hopper 高出 50 倍,唯一的原因是……當初我宣佈 Blackwell 的能效將比 Hopper 高出 35 倍時,沒人相信。後來Dylan寫了篇文章說我故意隱瞞,但實際上能效是 Hopper 的 50 倍。單憑摩爾定律是無法實現這一點的。我們解決這個問題的方法是採用新的模型,例如MoE(模組化執行單元),這些模型可以平行化、解耦並分佈在整個計算系統中。如果沒有能力真正深入研究並利用 CUDA 開發新的核心,這一切都很難做到。這得益於我們架構的可程式設計性,以及輝達作為一家極致的協同設計公司的優勢。我們甚至可以將部分計算任務解除安裝到架構本身(例如NVLink )或網路(例如Spectrum-X)中。我們可以同時對處理器、系統、架構、庫和演算法進行更改。如果沒有 CUDA,我真不知道該從何入手。Q:這引出了一個關於輝達客戶群的有趣問題。你們60%的收入都來自五大超大規模資料中心營運商。如果換個時代,面對不同的客戶群體——比如說進行實驗的教授——他們需要CUDA。他們無法使用其他加速器。他們只需要用CUDA運行PyTorch ,並且所有功能都得到最佳化。但這些超大規模資料中心營運商擁有編寫自有核心的資源。事實上,為了獲得其特定架構所需的最後 5% 的性能提升,他們必須這樣做。Anthropic 和 Google 大多運行著自己的加速器,或者使用 TPU 和Trainium 。即使是使用 GPU 的 OpenAI,也使用Triton ,因為他們需要自己的核心。甚至在 CUDA C++ 方面,他們也沒有使用cuBLAS和NCCL ,而是擁有自己的技術堆疊,該技術堆疊還可以編譯到其他加速器上。如果你的大多數客戶能夠並且確實找到了 CUDA 的替代方案,那麼 CUDA 在多大程度上真的能夠推動 Nvidia 平台上的前沿 AI 應用?黃仁勳:CUDA 擁有豐富的生態系統。如果您想先在任何電腦上進行建構,那麼首先基於 CUDA 進行建構是非常明智的選擇。正因為其生態系統如此豐富,我們才能支援所有框架。如果您想建立自訂核心……例如,我們為 Triton 做出了巨大貢獻。因此,Triton 的後端使用了大量的 Nvidia 技術。我們很高興能夠幫助每個框架發揮其最大潛力。框架種類繁多,例如 Triton、vLLM 、SGLang等等。現在又湧現出許多新的強化學習框架,例如verl和NeMo RL 。隨著訓練後處理和強化學習的不斷發展,整個領域正經歷著爆炸式增長。因此,如果您想基於某個架構進行開發,那麼基於 CUDA 無疑是最佳選擇,因為 CUDA 的生態系統非常完善。你知道,如果出了問題,更有可能出在你的程式碼裡,而不是底層那堆積如山的程式碼裡。建構這些系統時,別忘了你要處理的程式碼量有多大。如果出了問題,是你的問題還是電腦的問題?你肯定希望問題總是出在你身上,並且能夠信任電腦。當然,我們自己也存在很多 bug,但我們的系統已經過充分測試,至少你可以在這個基礎上繼續開發。這就是第一點:生態系統的豐富性、可程式設計性和強大功能。第二點是,如果你是一名開發者,無論開發什麼軟體,你最看重的就是使用者基數。你希望你編寫的軟體能夠在大量的其他電腦上運行。你開發軟體並非僅僅為了自己,而是為了你的伺服器群,或者其他所有人的伺服器群,因為你是一名框架建構者。輝達的 CUDA 生態系統最終是其最大的財富。現在市面上已經有數億個GPU。每個雲平台都配備了GPU。從A10 、A100 、H100 、H200 ,到L系列、P系列等等,種類繁多,尺寸和形狀也各不相同。如果你是一家機器人公司,你肯定希望CUDA協議棧能夠直接在機器人上運行。我們的產品幾乎無處不在。龐大的使用者群意味著,一旦你開發出軟體或模型,它就能在任何地方使用。這簡直太有價值了。最後,我們能夠覆蓋所有雲平台,這使我們真正獨樹一幟。如果您是一家人工智慧公司或開發者,您可能並不確定應該與那家雲服務提供商合作,或者在那裡運行。我們幾乎可以在任何地方運行,如果您願意,我們也可以為您提供本地部署服務。豐富的生態系統、龐大的使用者群以及我們靈活的部署方式,共同造就了 CUDA 的無可比擬的價值。Q:這很有道理。我好奇的是,這些優勢對你的主要客戶來說是否重要。對很多人來說,這些優勢可能很重要。能夠建構自己軟體棧的那類人貢獻了你的大部分收入。尤其是在人工智慧越來越擅長那些具有嚴格驗證循環、可以進行強化學習的領域……如何編寫一個核心,使其在規模化應用中能夠最高效地處理注意力機制或多層感知器(MLP)?這是一個非常容易驗證的反饋循環。所有超大規模資料中心營運商都能自行編寫這些定製核心嗎?輝達的性價比依然很高,所以他們可能仍然更傾向於使用輝達的產品。但問題在於,最終會不會演變成誰能以最低的價格提供最佳的規格、浮點運算能力和記憶體頻寬?歷史上,輝達憑藉CUDA的護城河,在人工智慧領域(包括硬體和軟體)一直保持著最高的利潤率,高達70%。而問題是,如果大多數客戶能夠負擔得起自行建構,而不是依賴CUDA的護城河,輝達還能維持這樣的利潤率嗎?黃仁勳:我們為這些人工智慧實驗室配備了數量驚人的工程師,他們與這些實驗室合作,最佳化他們的技術堆疊。原因在於,沒有人比我們更瞭解我們的架構。這些架構不像CPU那樣通用。CPU有點像凱迪拉克,它是一款舒適的巡航車,速度不會太快,每個人都能輕鬆駕馭。它配備了巡航控制,一切都很簡單。但在很多方面,輝達的GPU和加速器就像F1賽車。我估計每個人都能以每小時一百英里的速度駕駛它,但要將其性能發揮到極致,則需要相當豐富的專業知識。我們運用了大量的人工智慧技術來建立我們的核心。我非常肯定,在相當長的一段時間內,我們仍然會被需要。我們的專業知識通常能幫助我們的人工智慧實驗室合作夥伴輕鬆地將他們的技術堆疊性能提升兩倍。我們完成技術堆疊最佳化或特定核心最佳化後,他們的模型速度提升三倍、兩倍甚至五成的情況並不少見。這是一個巨大的數字,尤其考慮到他們龐大的裝置基數,包括他們所有的 Hopper 和 Blackwell 等計算單元。性能提升一倍,收入也會翻倍。這直接轉化為實際收益。輝達的計算堆疊是全球性價比最高的,沒有之一。目前世界上沒有任何一個平台能證明它的性能/總擁有成本比更高。沒有一家公司能做到。事實上,現有的基準測試,比如Dylan的InferenceMAX ,人人都能用,但沒有任何一家公司能做到……TPU不會推出,Trainium也不會推出。我鼓勵他們使用 InferenceMAX 來展示他們驚人的推理成本。這真的很難。沒人願意來。MLPerf 。我倒是很想聽聽 Trainium 展示一下他們一直聲稱的 40% 的成本優勢。我很想聽聽他們如何證明 TPU 的成本優勢。在我看來,這完全說不通。一點道理都沒有。從根本上來說,這根本說不通。所以我認為我們如此成功的原因很簡單,就是我們的總體擁有成本 (TCO) 非常低。其次,您提到我們 60% 的客戶是前五大企業,但其中大部分業務都是外部業務。例如,AWS 上的輝達產品大部分是為外部客戶而非內部使用者提供的。Azure 上的所有客戶也都是外部客戶。OCI 上的所有客戶也都是外部客戶,而非內部使用者。他們之所以青睞我們,是因為我們的覆蓋範圍非常廣。我們可以為他們帶來全球所有優秀的客戶。這些客戶都基於輝達的產品。而所有這些公司之所以都基於輝達的產品,正是因為我們覆蓋範圍廣、功能多樣。所以我認為真正的飛輪效應在於使用者基數、我們架構的可程式設計性、我們生態系統的豐富性,以及全球人工智慧公司數量眾多這一事實。現在有成千上萬家人工智慧公司。如果你是其中一家人工智慧初創公司,你會選擇那種架構?你會選擇最普及的架構。而我們的架構是全球最普及的。你會選擇使用者基數最大的架構。而我們的使用者基數最大。你還會選擇擁有豐富生態系統的架構。這就是飛輪效應。原因在於:首先,我們的每美元性能如此之高,以至於他們的tokens成本最低。其次,我們的每瓦性能是全球最高的。因此,如果我們的合作夥伴建造了一個1吉瓦的資料中心,那麼這個1吉瓦的資料中心必須能夠產生最大的收益和tokens數量,這直接轉化為收入。您希望它產生儘可能多的代幣,從而最大化資料中心的收益。我們擁有全球最高的每瓦代幣產量架構。最後,如果您的目標是租用基礎設施,我們擁有全球最多的客戶。這就是飛輪效應發揮作用的原因。Q:有意思。我想問題的關鍵在於,實際的市場結構究竟如何?因為即便還有其他公司……原本可能存在成千上萬家人工智慧公司,它們大致平分計算資源。但即便通過這五家超大規模資料中心,真正使用亞馬遜計算資源的仍然是 Anthropologie、OpenAI 以及那些有能力且能夠自行部署不同加速器的大型基金會實驗室。黃仁勳:不,我認為你的前提是錯誤的。Q:也許吧。不過,我想問你一個稍微不同的問題。如果價格、性能、每瓦性能等等這些說法都是真的,那麼你認為為什麼像 Anthropic 這樣的公司會在幾天前宣佈他們與 Broadcom 和 Google 達成了一項數吉瓦的 TPU 協議,用於他們的大部分計算呢?顯然,對Google來說,TPU 佔據了大部分計算資源。所以,如果我觀察這些大型人工智慧公司,會發現它們的很多計算資源……曾經有一段時間它們都依賴輝達的加速器,但現在情況並非如此。因此,我很好奇,如果這些說法在理論上成立,它們為什麼會選擇其他加速器呢?黃仁勳:Anthropic 是一個特例,而非一種趨勢。如果沒有 Anthropic,TPU 又怎會增長?它完全是 Anthropic 的功勞。如果沒有 Anthropic,Trainium 又怎會增長?它也完全是 Anthropic 的功勞。我認為這一點已廣為人知。ASIC 的機會並不多,Anthropic 只有一個。Q:但OpenAI 與 AMD 達成了協議……他們正在打造自己的Titan加速器。黃仁勳:是的,但我想我們都應該承認,它們很大程度上是輝達的產品。我們仍然會繼續合作。我不介意其他人使用其他產品或嘗試其他技術。如果他們不去嘗試,又怎麼知道我們的產品有多好呢?有時候,我們需要有人提醒自己這一點。我們必須不斷地努力才能保住現在的地位。總是有很多誇張的說法。看看有多少ASIC項目被取消就知道了。就算你打算造ASIC……你還得造出比輝達更好的產品。造出比輝達更好的產品可沒那麼容易。實際上,這根本不現實。輝達肯定漏掉了什麼,真的。因為我們的規模和速度,我們是世界上唯一一家每年都能持續產出新產品的公司。每年都有巨大的飛躍。Q:我猜他們的邏輯是,“嘿,它不需要更好。它只需要比原來的差不超過70%就行了”,因為他們付給你的是70%的利潤率。黃仁勳:不,別忘了,即使是ASIC晶片,利潤率也相當高。比如說,輝達的利潤率是70%。但ASIC晶片的利潤率只有65%。你到底能省多少錢?Q:哦,你是說博通之類的公司嗎?黃仁勳:當然,總得付錢給別人吧。就我所知,ASIC的利潤率非常高。他們自己也這麼認為,而且他們對ASIC驚人的利潤率相當自豪。所以,你問了為什麼。很久以前,我們確實沒有能力做到這一點。當時,我並沒有深刻意識到建立像 OpenAI 和 Anthropic 那樣的基礎性人工智慧實驗室有多麼困難,也沒有意識到他們需要供應商投入巨資。我們當時根本無力向 Anthropic 投資數十億美元,讓他們使用我們的計算資源。但Google和 AWS 有。他們一開始就投入了巨資,作為回報,Anthropic 可以使用他們的計算資源。而我們當時確實沒有能力做到這一點。我覺得我的錯誤在於,我沒有真正理解他們其實別無選擇,風險投資家絕不會把50億到100億美元投資到一個人工智慧實驗室,指望它能像Anthropic那樣成功。所以這是我的失誤。但即便我當時理解了這一點,我想我們當時也沒有能力這麼做。但我不會再犯同樣的錯誤了。我很高興能投資 OpenAI,也很高興能幫助他們擴大規模,而且我認為這樣做至關重要。後來,當 Anthropic 找到我們時,我也很高興能成為他們的投資者,幫助他們擴大規模。只是當時我們力不從心。如果一切可以重來——如果輝達當時就能達到現在的規模——我絕對會非常樂意這麼做。為什麼輝達不成為超大規模資料中心營運商?Q:這確實很有意思。多年來,輝達一直是人工智慧領域最賺錢的公司,賺了很多錢。現在你們開始投資人工智慧了。據報導,你們在OpenAI投資了高達300億美元,在Anthropic投資了100億美元。現在它們的估值都提高了,我相信還會繼續增長。所以,如果你這些年來一直為他們提供計算資源,並且預見到它的發展方向,而幾年前——甚至在某些情況下,一年前——他們的價值只有現在的十分之一,而你又手握大量現金——那麼,輝達完全可以轉型為基金會實驗室,進行巨額投資來實現這一目標,或者更早地以現在的估值完成你現在達成的這些交易。而且你當時也有足夠的資金這樣做。所以我很想知道,為什麼你沒有更早地這樣做呢?黃仁勳:我們儘早完成了這件事。如果可以,我甚至會更早去做。當時Anthropic需要我們做這件事的時候,我們卻無能為力。這樣做也不符合我們的本性。Q:怎麼會這樣?是現金交易之類的嗎?黃仁勳:是的,投資規模的問題。當時我們從未在公司外部投資過,而且投資額也不大。我們當時沒意識到需要投資。我一直以為他們可以像其他公司一樣,直接去風投那裡融資,我的天那。但他們想做的事情,風投是做不到的。OpenAI想做的事情,風投是做不到的。我現在明白了。當時我並不知道。但這就是他們的過人之處。這就是他們聰明的原因。他們當時意識到自己必須做這樣的事。我很高興他們這麼做了。儘管我們導致Anthropic不得不轉投他人,但我仍然為此感到高興。Anthropic的存在對世界意義重大。我為此感到欣慰。Q:我猜你仍然賺了很多錢,而且每個季度都在賺得更多。黃仁勳:有遺憾也是正常的。Q:所以問題依然存在。既然我們已經到了這裡,而且你們也一直在賺這筆錢,那麼輝達應該怎麼用呢?一個答案是,現在已經出現了一個完整的中間商生態系統,可以將這些實驗室的資本支出轉化為營運支出,以便他們能夠租用計算資源。因為晶片非常昂貴,而且由於人工智慧模型不斷改進,它們在其生命周期內能帶來巨額利潤。因此,它們創造的價值,也就是它們的代幣,正在不斷增長,但搭建這些系統成本很高。輝達有足夠的資金來承擔這些資本支出。事實上,據報導,你們為CoreWeave項目提供了高達63億美元的支援,並且已經投資了20億美元。為什麼輝達不自己做雲服務商?為什麼不自己做超大規模雲服務商,把計算資源出租出去?他們有這麼多錢可以這麼做。黃仁勳:這是公司的理念,我認為很明智。我們應該儘可能少地投入,只做必要的事情。這意味著,如果我們不去建構我們的計算平台,我相信這項工作就無法完成。如果我們不承擔現在承擔的風險——如果我們不以現在的方式建構 NVLink,如果我們不建構整個技術堆疊,如果我們不以現在的方式建立生態系統,如果我們不投入 20 年的時間,即使大部分時間都在虧損,也要致力於 CUDA 的發展——如果我們不去做,其他人就不會去做。如果我們當初沒有建立所有CUDA-X 庫,使它們都針對特定領域……十五年前,我們開始大力開發領域特定庫,因為我們意識到,如果我們不建立這些領域特定庫,無論是光線追蹤、圖像生成,甚至是早期人工智慧的模型,無論是資料處理、結構化資料處理還是向量資料處理,如果我們不建立它們,就不會有人建立。我對此深信不疑。我們建立了一個名為cuLitho的計算光刻庫。如果我們不建立它,就不會有人建立。因此,如果我們不做這些,加速計算就不會發展到今天這樣的程度。所以我們應該這樣做。我們應該傾盡全力,全心全意地投入到這項工作中。然而,世事難料。如果我不做,也會有人去做。因此,我們公司至今仍然秉持著“儘可能多做,但儘可能少做”(doing as much as needed but as little as possible)的理念。我所做的每一件事,都遵循著這個原則。就雲端運算而言,如果我們當初不支援CoreWeave ,這些 neoclouds、這些 AI 雲就不會存在。如果我們當初沒有幫助 CoreWeave 發展,它們也不會存在。如果我們當初沒有支援Nscale ,它們就不會有今天的成就。如果我們當初沒有支援Nebius ,它們也不會有今天的成就。如今,它們發展得非常出色。這算是一種商業模式嗎?我們應該儘可能多地做事,儘可能少地干預。所以我們投資於我們的生態系統,因為我希望我們的生態系統蓬勃發展。我希望架構和人工智慧能夠與儘可能多的行業、儘可能多的國家連接起來,使整個地球能夠基於人工智慧和美國的技術堆疊而運轉。這正是我們正在追求的願景。您剛才提到的一點是……有很多非常優秀的基金會模式公司,我們儘量投資所有這些公司。這也是我們所做的。我們不挑選贏家。我們需要支援所有公司。這是我們投資的樂趣所在,也是我們業務的必要組成部分。但我們也會刻意避免挑選贏家。所以,當我投資一家公司時,我也會投資所有相關的公司。Q:你為什麼刻意不去挑選贏家?黃仁勳:第一,這不是我們的職責。第二,輝達創立之初,有60家3D圖形公司。我們是唯一一家存活下來的。如果你把這60家圖形公司都列出來,問問自己那家會成功,輝達肯定排在失敗名單的首位。這事發生在你很久以前,但輝達的圖形架構一開始確實是錯的,不是一點點錯,而是我們創造了一個徹頭徹尾的錯誤架構,開發者根本無法維護。它註定失敗。我們當初的出發點是好的,但最終卻得到了錯誤的解決方案。所有人都認為我們會失敗。而我們現在卻成功了。所以我足夠謙遜,能夠認識到這一點。不要人為地挑選贏家。要麼讓他們各自發展,要麼就幫助他們所有人。Q:有一點我不明白,你說:“我們優先發展這些NeoCloud項目,並非僅僅因為它們是NeoCloud,我們想扶持它們。”但你又列舉了一堆NeoCloud項目,說如果沒有NVIDIA,它們根本不會存在。這兩件事怎麼能自相矛盾呢?黃仁勳:首先,他們必須有創業的意願,並且主動來尋求我們的幫助。當他們有創業意願,並且擁有商業計畫、專業知識和熱情時……他們顯然也必須具備一定的自身能力。但如果最終他們需要一些投資才能啟動項目,我們也會全力支援。不過,他們越早啟動自己的發展引擎越好……你的問題是:“我們是否想涉足融資業務?”答案是否定的。融資業務已經存在,我們更願意與他們合作,而不是自己成為融資者。我們的目標是專注於我們自身的核心業務,儘可能簡化我們的商業模式,並支援我們的生態系統。像 OpenAI 這樣的公司,在上市前就需要 300 億美元的投資,而我們深信他們,我也深信他們將會成為……嗯,他們現在就已經是一家非凡的公司了。他們將會成為一家了不起的公司。世界需要他們,世界希望他們存在,我也希望他們存在。他們現在順風順水。讓我們支援他們,讓他們發展壯大。我們會進行這些投資,因為他們需要我們這樣做。但我們並非試圖儘可能多地投資,而是試圖儘可能少地干預。Q:這可能是一個顯而易見的問題,但我們已經在 GPU 短缺的情況下生活了很多年,而且隨著模型性能的提高,這種情況現在變得更加嚴重了。黃仁勳:我們缺少GPU。Q:是的。眾所周知,輝達在分配稀缺資源方面並非只看出價,而是會考慮“我們想確保這些新雲平台能夠存在。所以我們給CoreWeave分配一些,給Crusoe分配一些,給Lambda分配一些。”這對輝達有什麼好處呢?首先,你是否同意這種將市場分割的說法?黃仁勳:不,不。你的前提完全錯誤。我們對這些事情非常重視。首先,如果沒有採購訂單,再多的討論也無濟於事。在拿到採購訂單之前,我們能做什麼?所以,首要任務是與所有人密切合作,努力完成預測,因為這些項目需要很長時間才能建成,資料中心的建設更是如此。我們通過預測來確保供需平衡等等。明白嗎?這是首要任務。第二,我們已盡力與儘可能多的人進行預測,但最終您仍然需要下單。或許由於某種原因,您尚未下單。我能怎麼辦?在某些情況下,我們會遵循先到先得的原則。但除此之外,如果您因為資料中心尚未準備就緒,或者某些元件尚未到位而無法搭建資料中心,我們可能會優先服務其他客戶。這只是為了最大限度地提高我們工廠的產能。我們可能會對此進行一些調整。除此之外,優先順序是先進先出。你必須下訂單。如果你不下訂單……當然,這方面有很多傳聞。比如,這一切都源於一篇關於拉里和埃隆和我共進晚餐的文章,文章裡他們懇求我提供GPU 。這事根本沒發生過(That never happened)。我們確實一起吃了頓飯。我們確實一起吃了頓飯,而且那是一頓非常棒的晚餐。他們從來沒有懇求我提供GPU。他們只需要下訂單。一旦他們下訂單,我們會盡力滿足他們的產能需求。我們的流程很簡單。Q:好的。聽起來好像有個排隊機制,然後根據你的資料中心是否準備就緒以及你何時下訂單,你才能在特定時間獲得資源。但這仍然不像是價高者得。這樣做有什麼原因嗎?黃仁勳:我們從來不那樣做。Q:為什麼不直接選擇價高者得呢?黃仁勳:因為這是糟糕的商業做法。你定好價格,然後讓別人決定買不買。我知道晶片行業的其他公司會在需求旺盛時調整價格,但我們不會。這從來都不是我們的行事方式。您可以信賴我們。我更願意做一個可靠的人,成為行業的基石。您無需猜測。如果我報了價,那就是我們報的價格。就是這樣。如果需求激增,那就順其自然。Q:另一方面,這就是為什麼你和台積電保持著良好的合作關係,對吧?黃仁勳:是的,輝達和他們合作已經快30年了。輝達和台積電之間沒有正式的法律合同。所以總會有些不公平的待遇。有時候我判斷對,有時候我判斷錯。有時候我能拿到更好的價格,有時候會拿到更差的價格。但總的來說,我們之間的關係非常棒。我完全信任他們,完全可以依靠他們。選擇輝達,有一點可以肯定:今年,Vera Rubin將會非常出色。明年,Vera Rubin Ultra將問世。後年,Feynman將橫空出世。再後年,我還沒公佈名字呢。每年,你都可以信賴我們。你得去全世界找找其他 ASIC 團隊——隨便挑一個——才能找到一個可以讓你說:“我可以把我的全部家產都押上,我可以把我的整個公司都押上,你們每年都會為我服務。你們的token成本每年都會下降一個數量級,我可以像信賴時鐘一樣信賴你們。”(“I can bet the farm, I can bet my entire business that you will be here for me every single year. Your token cost will decrease by an order of magnitude every single year. I can count on it like I can count on the clock.”)我剛才提到了台積電。歷史上沒有任何其他代工廠能做到這一點。但如今,你可以這樣評價輝達。每年你都可以信賴我們。如果你想購買價值十億美元的AI工廠計算資源,沒問題。如果你想購買價值一億美元的,沒問題。你想購買價值一千萬美元的,或者僅僅是一個機架,都沒問題。或者僅僅是一張顯示卡,好的,沒問題。如果你想訂購價值一千億美元的AI工廠,沒問題。我們是當今世界上唯一一家可以這樣說的公司。台積電的情況也一樣。我想買一台,買十億台,都沒問題。我們只需要按部就班地做好規劃,做所有成熟企業都會做的事情。所以我認為,輝達能夠成為全球人工智慧產業的基石,是我們花了二十多年才取得的成就。這需要巨大的投入和奉獻。公司的穩定性、公司的持續發展,對我們來說至關重要。我們應該向中國出售人工智慧晶片嗎?Q:好的。我想問問關於中國的問題。其實我也不知道對向中國出售晶片到底好不好有什麼看法,但我喜歡和嘉賓唱反調。所以,上次達里歐做客“誰支援出口管制”節目時,我問他,為什麼美國和中國不能都擁有資料中心領域的天才人才呢?不過既然你持相反觀點,那我就反過來問你。換個角度來看,Anthropic Games幾天前發佈了Mythos Preview 。他們甚至沒有公開發佈這款Mythos模型,因為他們說它擁有如此強大的網路攻擊能力,在確保所有零日漏洞都被修復之前,世界還沒有做好準備。但他們表示,Mythos在所有主流作業系統和瀏覽器中都發現了數千個高危漏洞。他們甚至在OpenBSD中也發現了一個漏洞,而OpenBSD正是專門設計用來避免零日漏洞的作業系統。他們發現的這個漏洞已經存在了27年。因此,如果中國能夠獲得人工智慧晶片,訓練像 Claude Mythos 這樣具有網路攻擊能力的模型,並利用更強大的計算能力運行數百萬個實例,這會構成威脅嗎?黃仁勳:首先,Mythos 的訓練所用的計算能力和計算量都相當普通,但訓練所用的卻是一家非常優秀的公司。這種計算能力和計算類型在中國非常普遍。所以你首先需要明白,晶片在中國是存在的。他們生產了全球60%的主流晶片,甚至可能更多。對他們來說,這是一個非常龐大的產業。他們擁有一些世界上最頂尖的電腦科學家。眾所周知,所有這些人工智慧實驗室中的大多數人工智慧研究人員都是中國人。他們擁有全球50%的人工智慧研究人員。所以問題是,考慮到他們已經擁有的所有資源——他們擁有豐富的能源、大量的晶片、以及絕大多數的人工智慧研究人員——如果你擔心他們,那麼創造一個安全世界的最佳方法是什麼?將他們視為受害者,把他們變成敵人,可能並非最佳方案。他們是對手。(Victimizing them, turning them into an enemy, likely isn’t the best answer. They are an adversary.)我們希望美國獲勝。但我認為,開展對話和研究性對話或許是最穩妥的做法。由於我們目前將中國視為對手的態度,這方面明顯缺失。我們的人工智慧研究人員和他們的人工智慧研究人員必須進行真正的對話。我們必須努力就人工智慧的用途達成共識。至於尋找軟體漏洞,這當然是人工智慧的職責所在。它會在很多軟體中發現漏洞嗎?當然會。軟體漏洞數不勝數。人工智慧軟體中也存在大量漏洞。這正是人工智慧的職責所在,我很高興人工智慧已經發展到能夠幫助我們大幅提高生產力的水平。網路安全、人工智慧網路安全、人工智慧安全、人工智慧隱私和人工智慧保障等領域的生態系統非常豐富,但卻常常被忽視。一個龐大的人工智慧初創企業生態系統正在努力為我們創造這樣的未來:一個功能強大的人工智慧代理被成千上萬個其他人工智慧代理環繞,共同守護著它的安全。這樣的未來必將到來。讓人工智慧代理在無人監管的情況下四處運行,這簡直是瘋了。我們非常清楚,這個生態系統需要蓬勃發展。事實證明,這個生態系統需要開源。這個生態系統需要開放的模型。他們需要開放的技術堆疊,這樣所有的人工智慧研究人員和優秀的電腦科學家才能建構強大且安全的AI系統。因此,我們必須確保開源生態系統的活力。這一點不容忽視。很多開放原始碼專案都來自中國。我們不應該扼殺它。關於中國,我們當然希望美國擁有儘可能多的計算能力。我們受限於能源,但我們已經投入大量資源來解決這個問題。我們絕不能讓能源成為國家發展的瓶頸。但我們也希望確保全世界的人工智慧開發者都基於美國的技術堆疊進行開發,並將人工智慧的貢獻和進步——尤其是在開放原始碼的情況下——貢獻給美國生態系統。如果建立兩個生態系統——一個是只能運行在外國技術堆疊上的開源生態系統,另一個是運行在美國技術堆疊上的封閉生態系統——那將是極其愚蠢的。我認為這對美國來說將是一個糟糕的結果。Q:由於事情很多,我先簡單概括一下。我認為,回到駭客攻擊中提到的浮點運算能力差距問題,沒錯,他們的確擁有計算能力,但他們實際能夠生產的浮點運算能力只有美國的十分之一。那麼,他們最終能否訓練出像 Mythos 這樣的模型呢?答案是肯定的。但問題在於,由於失敗案例更多,美國實驗室能夠率先達到這種能力水平。因為 Anthropic 公司搶先一步,他們會說:“好吧,我們先保留一個月,讓所有美國公司都有機會使用。他們會修復所有漏洞,然後我們再發佈。”此外,即便他們訓練出了這樣的模型,大規模部署的能力也至關重要……如果一個網路駭客擁有上百萬個這樣的模型,那肯定比只有一千個要危險得多。所以推理計算能力真的非常重要。事實上,他們擁有如此多優秀的AI研究人員,這才是真正令人擔憂的地方,因為是什麼讓這些工程師研究人員如此高效?答案是計算能力。如果你和美國的任何一家人工智慧實驗室交談,他們都會說瓶頸在於計算能力。無論是DeepSeek的創始人,還是Qwen的領導層,都說過類似的話。他們都認為瓶頸在於計算能力。那麼問題來了,難道不應該讓美國公司憑藉更強大的計算能力率先達到Mythos等級,為我們的社會做好準備,趕在中國之前,因為中國計算能力較弱,這樣做不是更好嗎?黃仁勳:我們應該永遠爭第一,永遠擁有更多。但要讓你描述的結果成真,就必須走極端。他們必須完全沒有計算能力。如果他們有一些計算能力,問題在於需要多少?中國的計算能力非常龐大。要知道,中國可是全球第二大計算市場。如果他們想整合計算資源,完全可以滿足需求。而且,他們擁有的能源量簡直驚人,不是嗎?人工智慧本質上就是一個平行計算問題,不是嗎?既然能源是免費的,為什麼他們不能把晶片的數量增加4倍、10倍甚至更多呢?他們擁有如此多的能源。他們的資料中心空空蕩蕩,電力卻依然充足。你知道他們有“鬼城”,他們的資料中心也一樣空置。他們的基礎設施容量如此龐大。如果他們願意,他們完全可以把更多的晶片集中起來,那怕是更落後工藝的晶片他們的晶片製造能力位居世界前列。半導體行業都知道他們壟斷了主流晶片市場。他們的產能過剩。因此,認為中國無法製造人工智慧晶片的說法完全是無稽之談。當然,如果你問我,如果全世界完全沒有計算能力,美國會不會更領先?但這根本不可能。這並非現實。他們現在的計算能力已經非常充足了。你所擔心的那個問題,他們所需的計算能力閾值,他們早已達到,甚至超過了。所以我認為你誤解了人工智慧的本質,它就像一個五層蛋糕,最底層是能源。能源充足時,晶片就足夠了;晶片充足時,能源就足夠了。例如,美國能源匱乏,這就是為什麼輝達必須不斷改進我們的架構,並進行這種極致的協同設計,以便在我們出貨的晶片數量有限的情況下——因為能源供應極其有限——實現每瓦吞吐量的驚人水平。但如果你的瓦數完全充足,而且是免費的,你又何必在意每瓦性能呢?你已經綽綽有餘了。你可以用舊晶片來做。所以7nm晶片本質上就是Hopper。Hopper的能力……我必須告訴你,如今的模型大多都是基於Hopper演算法訓練的,也就是Hopper演算法的生成。所以7nm晶片已經足夠好了。充足的能源是中國的優勢。Q:但問題在於,他們是否真的能夠生產出足夠的晶片。黃仁勳:但他們的確做到了。證據是什麼?華為剛剛經歷了公司歷史上業績最好的一年。Q:最先進的HBM一定需要EUV?黃仁勳:不對。完全不對。你可以把它們組合起來,就像我們把它們和NVL72組合起來一樣。他們已經展示了矽光子學技術,可以將所有這些計算能力連接起來,形成一台巨型超級電腦。你的前提完全錯誤。事實上,他們的AI研發進展順利。世界上最頂尖的AI研究人員,由於計算能力有限,反而創造出了極其智能的演算法。別忘了,我剛才說過摩爾定律每年大約推進25%。然而,憑藉卓越的電腦科學,我們仍然可以將演算法性能提升10倍。我的意思是,卓越的電腦科學才是關鍵所在。毫無疑問,MoE 是一項偉大的發明。毫無疑問,所有令人驚嘆的注意力機制都減少了計算量。我們必須承認,人工智慧的大部分進步都源於演算法的進步,而不僅僅是硬體的改進。既然大部分進步都來自演算法、電腦科學和程式設計,那麼他們龐大的人工智慧研究人員隊伍難道不是他們最根本的優勢嗎?我們都看到了這一點。DeepSeek 絕非無關緊要的進步。如果 DeepSeek 先在華為平台上發佈,那對我們國家來說將是災難性的。Q:為什麼會這樣?因為目前像 DeepSeek 這樣的模型,只要是開放原始碼的,就可以在任何加速器上運行。為什麼將來情況會改變呢?黃仁勳:假設並非如此。假設它是針對華為最佳化的,假設它是針對他們的架構最佳化的。那將使我們處於劣勢。你描述的情況在我看來是好消息。一家公司開發了一款軟體,開發了一個人工智慧模型,而它在美式技術堆疊上運行效果最佳。我認為這是好消息。但你卻把它設定為壞消息。現在我要告訴你壞消息:世界各地的人工智慧模型都是在非美國硬體上開發的,而它們在非美國硬體上運行效果最佳。這對我們來說是壞消息。Q:我感覺並沒有證據表明存在如此巨大的差異,足以阻止你更換加速器。美國實驗室正在所有雲平台、所有不同的加速器上運行他們的模型。黃仁勳:我就是證據。你拿一個針對輝達顯示卡最佳化的模型,然後試圖在其他顯示卡上運行它,這是行不通的。Q:但美國實驗室確實會這樣做。黃仁勳:它們的運行效果並沒有更好。輝達的成功就是最好的證明。人工智慧模型是在我們的技術堆疊上建立的,在我們的技術堆疊上運行效果也最好,這難道不合邏輯嗎?Q:Anthropic 的模型可以在 GPU 上運行,可以在 Trainium 上運行,也可以在 TPU 上運行。黃仁勳:要改變現狀,需要付出很多努力。但看看全球南方國家,看看中東地區。如果所有人工智慧模型在別人的技術堆疊上運行效果最佳,那麼你現在提出的“這對美國來說是件好事”的說法就太荒謬了。Q:但我不太明白這個論點。假設中國公司率先開發出下一代Mythos系統。他們率先發現了美國軟體的所有安全漏洞,但他們可以在輝達硬體上運行,然後把產品運往全球南方國家。他們用輝達硬體開發,這有什麼好處呢?好吧,它的確能在輝達硬體上運行——黃仁勳:這不好,這不好,我們不能讓它發生。Q:你為什麼認為它(指代輝達GPU)是完全可替代的,即使你不向他們供貨,華為也能完全替代?他們落後了,對吧?他們的晶片比你的差。黃仁勳:完全是這樣……現在就有證據。他們的晶片產業規模龐大。Q:你只要對比H200和華為910C的浮點運算能力、頻寬或記憶體容量就知道了,它們的性能大概只有前者的一半到三分之一。黃仁勳:他們用量更多。他們用的量是原來的兩倍。Q:你的論點似乎是,他們擁有巨大的能源,他們需要用晶片來填充這些能源。黃仁勳:而且他們很擅長製造業。Q:我相信最終他們肯定能在生產能力上勝過所有人。但現在還有這關鍵的幾年。黃仁勳:你所說的關鍵年份是指那一年?如果未來幾年至關重要,那麼我們必須確保在這關鍵的幾年裡,全世界所有的人工智慧模型都建立在美國的技術堆疊之上。人工智慧產業有五個層面,每個層面都必須成功。而最需要成功的層面實際上是人工智慧應用。你為什麼如此執著於那個人工智慧模型?那家公司?究竟是出於什麼原因?能源、晶片以及人工智慧研究人員的生態系統使這一切成為可能。Q:如果美國的計算能力存在瓶頸,那麼向中國出口晶片又如何能使美國保持領先地位呢?黃仁勳:我認為美國理應領先。美國的計算能力是世界其他任何地方的100倍。美國理應領先。好吧。美國確實領先。輝達致力於研發最先進的技術。我們確保美國實驗室能夠第一時間獲悉這些技術,並擁有優先購買權。如果他們資金不足,我們甚至會投資扶持他們。美國理應領先。我們希望竭盡所能確保美國保持領先地位。這一點您同意嗎?我們正在為此竭盡全力。你認為輝達是一家美國公司?好的。首先,為什麼我們不制定一個更平衡的監管政策,讓輝達能夠在全球範圍內取得成功,而不是讓美國放棄全球市場?你為什麼要讓美國放棄全球市場?晶片產業是美國生態系統的一部分,是美國技術領先地位的一部分,也是人工智慧生態系統的一部分,更是人工智慧領先地位的一部分。為什麼你們的政策和理念會導致美國放棄世界市場的大部分份額?將人工智慧與你剛才提到的任何東西相提並論都是荒謬的。Q:所以關鍵在於,現在賣晶片對我們長遠發展有何幫助?特斯拉長期以來一直向中國銷售性能卓越的電動汽車。iPhone在中國也暢銷,而且質量極佳。特斯拉並沒有造成中國市場的壟斷。中國仍然會生產自己的電動汽車,並且佔據主導地位。他們的智慧型手機也佔據主導地位。黃仁勳:今天我們開始對話時,您也承認輝達的處境非常特殊。您用了“護城河”這樣的詞。對我們公司而言,最重要的就是我們生態系統的豐富性,而這離不開開發者。全球50%的人工智慧開發者都在中國。美國不應該放棄這塊寶地。Q:但是我們在美國有很多輝達的開發者,但這並不妨礙美國實驗室未來使用其他加速器。事實上,他們現在就在使用其他加速器,這很好,也很棒。如果你向中國銷售輝達晶片,我不明白為什麼在中國就不能這樣做,就像Google可以使用TPU和輝達晶片一樣。黃仁勳:我們必須不斷創新,而且正如你可能知道的,我們的市場份額正在增長,而不是下降。那種認為即使我們在中國競爭,最終也會失去那個市場的想法……你不是在跟一個醒來就覺得自己是個失敗者的人說話。那種失敗者的態度,那種失敗者的假設,在我看來毫無道理。我們不是汽車。我們不是汽車。我可以今天買這個牌子的車,明天再買另一個牌子的車,這很容易。但電腦領域並非如此。x86 架構的存在是有原因的。ARM架構如此根深蒂固也是有原因的。這些生態系統難以替代。這需要耗費大量的時間和精力,而且大多數人都不願意這樣做。因此,我們的職責是繼續培育這個生態系統,不斷推進技術發展,從而在市場競爭中保持優勢。如果按照你描述的那種前提來劃分市場,我根本無法接受。這完全說不通。因為我不認為美國是失敗者,我們的行業也不是失敗者。這種失敗論調,這種失敗心態,在我看來毫無道理。Q:但他們之所以從你這裡購買是有原因的。我們有來自中國公司創始人的引述,他們表示公司在計算能力方面遇到了瓶頸。黃仁勳:因為我們的晶片更好。總的來說,我們的晶片更好。這一點毋庸置疑。如果沒有我們的晶片……您能承認華為今年的業績創下紀錄嗎?您能承認一大批晶片公司都上市了嗎?您能承認嗎?您是否也承認,我們過去在該市場佔據了很大的份額,而現在份額已經大幅下降?我們也可以承認,中國佔據了全球科技產業約40%的份額。為了美國科技產業的利益而放棄這個市場,是對我們國家的損害,是對我們國家安全的損害,也是對我們科技領導地位的損害。這一切僅僅是為了一家公司的利益。這在我看來毫無道理。Q:我有點糊塗了。感覺你好像在說兩件事。一是如果我們能參與競爭,我們的晶片性能會遠勝華為,所以我們肯定能贏下這場與華為的競爭。二是就算沒有我們,他們也會做同樣的事情。這兩件事怎麼可能同時成立呢?黃仁勳:這顯然是事實。如果沒有更好的選擇,你只能選擇唯一的選擇。這怎麼會不合邏輯呢?這明明很合乎邏輯。Q:他們想要輝達晶片的原因是,輝達晶片性能更好。黃仁勳:是的Q:更好的模型需要更多的計算資源。更多的計算資源意味著你可以訓練出更好的模型。黃仁勳:不,它就是更好。它更好,因為它更容易程式設計。我們擁有更好的生態系統。但無論“更好”指的是什麼,無論“更好”指的是什麼……當然,我們會把計算資源輸送給他們。那又怎樣?事實是我們能從中受益。別忘了,我們能享受到美國技術領先地位帶來的好處。我們能享受到開發者們在美國技術堆疊上工作的益處。隨著這些人工智慧模型擴散到世界各地,我們也能享受到美國技術堆疊因此成為最佳選擇帶來的好處。我們可以繼續推進和推廣美國技術。我認為這是一件好事。這是美國技術領先地位中非常重要的一部分。現在,你所倡導的政策導致美國電信行業基本上被排擠出了世界市場,以至於我們甚至無法掌控自己的電信業務。我認為這並不明智。這種做法有些目光短淺,而且導致了一些意想不到的後果,我現在正在向你描述這些後果,但你似乎很難理解。Q:好的,我們先退一步。問題的關鍵似乎在於,這裡既有潛在的收益,也有潛在的成本。我們正在努力弄清楚的是,收益是否值得付出成本?我想讓你們意識到潛在的成本。計算是訓練強大模型的輸入。強大的模型確實擁有強大的攻擊能力,例如網路攻擊。美國公司率先達到 Mythos 等級的能力是一件好事,現在他們決定暫緩發佈這些能力,以便美國公司和美國政府能夠在正式發佈該等級能力之前,更好地保護他們的軟體。如果中國擁有更強大的計算能力或更多的眾包計算資源,如果他們能夠更早地開發出類似 Mythos 那樣的計算模型並進行廣泛部署,那將會非常糟糕。這種情況沒有發生的原因之一是,由於像輝達這樣的美國公司,我們擁有了更強大的計算能力。這是將計算資源轉移到中國所要付出的代價。所以,我們暫且不談好處。您是否意識到這是一種潛在的代價?黃仁勳:我還要告訴你,潛在的代價是,我們允許人工智慧技術堆疊中最重要的一層——晶片層——拱手讓出整個市場——全球第二大市場——讓他們得以發展規模,建立自己的生態系統,從而使未來的人工智慧模型以與美國技術堆疊截然不同的方式進行最佳化。隨著人工智慧在全球擴散,他們的標準和技術堆疊將會超越我們,因為他們的模型是開放的。Q:我想我只是對輝達的核心工程師和CUDA工程師有足夠的信心,相信他們能夠進行最佳化——黃仁勳:如你所知,人工智慧不僅僅是核心最佳化。中國是全球最大的開放原始碼軟體貢獻國。這是事實。中國也是全球最大的開放模型貢獻國。這是事實。如今,它建立在美國的技術堆疊之上,也就是輝達的技術堆疊。這是事實。人工智慧技術堆疊的五個層面都至關重要。美國應該力爭拿下所有五個層面。它們都不可或缺。當然,最重要的層面是人工智慧應用層。這一層會滲透到社會各個角落,被應用最為廣泛,也將從這場工業革命中獲益最多。但我的觀點是,每一層都必須成功。如果我們嚇唬全國人民,讓他們覺得人工智慧就像核彈一樣,讓每個人都憎恨人工智慧、害怕人工智慧,我不知道這對美國有什麼好處。這只會害了美國。如果我們嚇得所有人都不敢從事軟體工程工作,因為人工智慧會扼殺所有軟體工程崗位——結果導致我們一個軟體工程師都沒有——那我們也是在害美國。如果我們因為電腦視覺完全免費,人工智慧的工作能力不會比放射科醫生差,就嚇跑所有人,讓大家都不想當放射科醫生,那我們就誤解了工作和任務之間的區別。放射科醫生的工作是照護病人,而任務是解讀掃描結果。如果我們對這一點理解如此深刻,嚇跑所有人去讀放射科,那麼我們將面臨放射科醫生短缺和醫療資源匱乏的問題。所以我的意思是,當你設定一個如此極端的前提,一切都從零到無窮大,最終只會嚇到人們,而這根本不是事實。生活並非如此。我們希望美國領先嗎?當然希望。我們需要在各個層面都保持領先地位嗎?當然需要。當然需要。今天你談到Mythos,是因為Mythos很重要。沒錯。太好了。但幾年後,我預言,當我們想要推廣美國技術體系,當我們希望美國技術走向世界——走向印度、走向中東、走向非洲、走向東南亞——當我們的國家想要出口,因為我們想要出口我們的技術,我們想要出口我們的標準時,我希望你我再次進行同樣的對話。我會詳細地告訴你今天的對話,告訴你你的政策和你的設想是如何導致美國毫無理由地拱手讓出世界第二大市場。我們不應該放棄。如果輸了,那就輸了。但我們為什麼要放棄呢?現在沒人主張非此即彼。沒人主張非此即彼,也就是說我們應該一直把所有東西都運到中國去。沒人主張那樣。我們應該始終擁有最先進的技術。我們應該始終擁有最多的技術,並且是第一。但我們也應該努力在全球範圍內競爭並取得勝利。這兩件事可以同時進行。這需要一些細緻入微的思考,一些成熟的態度,而不是絕對的。世界本來就不是絕對的。Q:因為受到各種限制(例如拿不到EUV光刻機),中國的晶片真的能出口到世界各地,從而確立行業標準嗎?黃仁勳:那我們直接看事實吧?Blackwell的光刻技術真的比Hopper先進50倍嗎?真的有50倍嗎?差遠了。我一直在重複這句話:摩爾定律已經失效了。從電晶體本身的性能來看,Hopper和Blackwell之間的差距大概是75%。兩者相隔三年,差距高達75%。Blackwell爾的性能是Hopper的50倍。我的觀點是,架構至關重要。電腦科學至關重要。半導體物理固然重要,但電腦科學才是重中之重。人工智慧的影響很大程度上源於計算棧,這也是CUDA如此高效、如此受人喜愛的原因。它是一個生態系統,一種計算架構,它提供了極大的靈活性,以至於如果你想徹底改變架構——比如建立類似MoE的架構、類似擴散的架構、或者建立解耦架構——你都能做到。這很容易。所以事實是,人工智慧不僅關乎底層架構,也關乎上層技術堆疊。如果我們擁有針對自身技術堆疊和生態系統進行最佳化的架構和軟體棧,那當然是好事,因為我們今天一開始就討論了輝達生態系統的豐富性。為什麼人們總是喜歡先寫CUDA?確實如此。中國的研究人員也是如此。但如果我們被迫離開中國,首先,這是一個政策錯誤。顯然,這會引發強烈反彈。這對美國來說後果很嚴重。它促進了中國的晶片產業發展,加速了其人工智慧生態系統的轉型升級,迫使其人工智慧生態系統專注於內部架構。現在亡羊補牢,為時未晚,但事已至此。未來你會看到,他們顯然不會止步于于此。他們的製造工藝很出色,他們會繼續在現有及更先進的工藝基礎上發展。先進工藝的差距有10倍嗎?答案是否定的。架構很重要,網路也很重要。這就是輝達收購Mellanox的原因。網路很重要,能源也很重要。所有這些都很重要。事情並不像你試圖簡化的那樣簡單。為什麼輝達不生產多種不同的晶片架構?Q:我們之前討論過台積電在記憶體等方面的瓶頸問題。所以,如果我們身處這樣一個世界:你已經佔據了N3的大部分份額——而且在某個時候你會進入N2時代,並佔據N2的大部分份額——你是否認為你可以回到N7時代,也就是利用舊工藝節點的剩餘產能,然後說:“嘿,人工智慧的需求如此巨大,而我們擴展前沿技術的能力卻無法滿足,所以我們要製造一個Hopper或Ampere架構的處理器,但要運用我們目前掌握的所有數值計算知識以及你提到的所有其他改進”?你認為這種情況會在2030年之前發生嗎?黃仁勳:沒必要。原因在於,每一代產品的架構都不僅僅侷限於電晶體的尺寸。它還涉及到大量的工程設計、封裝、堆疊、數值計算和系統架構。當產能耗盡時,想要輕易地回到之前的製程節點……那需要投入大量的研發資源,誰也負擔不起。我們有能力向前發展,但我認為我們負擔不起回頭路。現在,假設有一天,我們突然意識到:“我們再也無法擁有更多的產能了。”我會選擇回到7nm製程嗎?當然會毫不猶豫地選擇它。Q:我之前和人討論時,有人問過我一個問題:為什麼輝達不同時開展多個架構完全不同的晶片項目?比如,可以開發類似Cerebras的晶圓級晶片,也可以開發類似Dojo 的大型封裝晶片,還可以開發不使用 CUDA 的晶片。輝達擁有足夠的資源和工程人才來平行開發所有這些晶片。考慮到人工智慧和架構的未來發展方向難以預測,為什麼要把所有雞蛋都放在一個籃子裡呢?黃仁勳:哦,我們當然可以。只是我們沒有更好的辦法。我們能做所有這些事情,但效果並不理想。我們在模擬器裡模擬了所有情況,結果證明更糟。所以我們不會這麼做。我們現在做的正是我們想做的項目。如果工作負載發生巨大變化——我指的不是演算法,而是工作負載本身,而這取決於市場格局——我們可能會考慮增加其他加速器。例如,我們最近新增了Groq ,並且計畫將其整合到我們的 CUDA 生態系統中。我們現在這樣做是因為token價值飆升,可以採用不同的定價策略。就在幾年前token要麼是免費的,要麼價格非常低廉。但現在,我們的客戶群體各不相同,他們需要不同的解決方案。因為客戶收入很高——例如我們的軟體工程師——如果我能為他們提供響應速度更快的代幣,從而讓他們比現在更高效,我願意為此付費。但這個市場是最近才出現的。所以我認為我們現在有能力基於響應時間,將同一個模型劃分成不同的細分市場。這就是我們決定擴展帕累托前沿,並建立一個響應時間更快、但吞吐量更低的推理細分市場的原因。在此之前,更高的吞吐量總是更好的。我們認為,未來可能會出現平均售價(ASP)非常高的代幣,即使工廠的吞吐量較低,ASP 也能彌補這一點。這就是我們這麼做的原因。但除此之外,從架構角度來看,如果我有更多資金,我會加大對輝達架構的投入。Q:最後一個問題。假設深度學習革命沒有發生,輝達會做什麼?黃仁勳:加速計算,這和我們一直以來所做的一模一樣。我們公司的理念是摩爾定律將會……通用計算在很多方面都很出色,但對於很多計算任務來說,它並非理想之選。因此,我們將一種名為GPU(CUDA)的架構與CPU結合起來,從而加速CPU的工作負載。不同的程式碼核心或演算法可以解除安裝到GPU上執行。這樣一來,應用程式的運行速度就能提升100倍、200倍。這項技術有那些應用呢?顯然,它適用於工程、科學、物理、資料處理、電腦圖形學、圖像生成等各個領域。即使人工智慧今天尚未出現,輝達的規模也會非常龐大。原因相當根本,那就是通用計算的擴展能力已基本達到極限。而唯一的方法……或者說,實現這一目標的方法之一,就是通過領域特定加速。我們最初關注的領域之一是電腦圖形學,但還有許多其他領域。種類繁多,包括粒子物理和流體動力學、結構化資料處理,以及各種各樣能夠從 CUDA 中受益的演算法。我們的使命是真正將加速計算帶給全世界,推進通用計算無法勝任的應用,並擴展到足以幫助某些科學領域取得突破的水平。早期的一些應用包括分子動力學、用於能源勘探的地震資料處理、圖像處理等等,所有這些領域通用計算的效率都太低,無法勝任。如果沒有人工智慧,我會非常難過。但正因為我們在電腦領域取得了進步,深度學習才得以普及。我們讓任何研究人員、任何科學家、任何學生,無論身處何地,都能使用個人電腦或GeForce顯示卡,開展令人驚嘆的科學研究。這一根本承諾從未改變,絲毫未變。如果你看過GTC,就會發現它最初的部分完全與人工智慧無關。無論是計算光刻、量子化學,還是資料處理等等,都與人工智慧無關。而且這些內容仍然非常重要。我知道人工智慧非常有趣,也很令人興奮,但還有很多人在做著與人工智慧無關的重要工作,張量也不是唯一的計算方法。我們希望能夠幫助到所有人。 (半導體行業觀察)
OpenAI押注廣告:技術再強,也要會賺錢
4月10日消息,Axios援引最新投資者材料稱,OpenAI預計今年廣告收入將從25億美元起步,並在未來幾年快速放大,到2030年衝到1000億美元規模。這組數字看上去十分亮眼,卻藏著整個公司最真實的焦慮。《華爾街日報》披露的內部財務檔案顯示,2025年OpenAI營收約130億美元,但研發和算力總投入約220億美元,淨虧損約80億美元。也就是說,這家公司越增長,越“燒錢”。在這樣的消耗下,單靠訂閱收費顯然撐不住。今年年初,OpenAI開始在ChatGPT免費版和低價訂閱版裡測試廣告,這一步其實很好理解——它不再只靠使用者付費,而是開始用廣告去補充現金流。這不是一次簡單的商業化嘗試,而是商業模式的徹底轉向。對任何一家科技公司而言,收入追不上成本都是最危險的訊號。OpenAI 雖然手握ChatGPT這款現象級產品,坐擁全球頂級AI技術話語權,可在巨額的算力消耗面前,再先進的技術也難以維繫不斷的虧損。從目前的測試情況看,這件事跑通的速度比想像中快。上線6周,年化廣告收入就超過1億美元,參與的廣告主超過600家,主要覆蓋Free和Go版使用者(大約佔整體使用者的20%)。AI廣告這條路,完全走得通。OpenAI,換了一種“做廣告”的方式很多人以為,OpenAI做廣告就是把傳統平台的廣告搬到聊天框裡。事實恰恰相反,它從一開始就跳出了舊框架,走出一套完全不同的玩法。傳統廣告是廣撒網,OpenAI廣告是定點捕撈,是基於真實意圖的精準匹配。ChatGPT可以直接聽懂使用者當下想要什麼。當使用者在對話中明確表達出需求,比如“想買什麼”“去那旅行”“選那個更好”,系統才會給出相關品牌或服務。這種高純度需求訊號,讓廣告匹配的精準度實現質的飛躍,也從根源上減少了無效打擾。與此同時,OpenAI也在反覆強調一件事:廣告不會影響回答本身。模型生成和廣告系統是分開的,使用者對話內容也不會直接提供給廣告主,後者只能看到聚合、匿名的資料。而且,涉及醫療、政治、心理健康,以及未成年人的場景,目前全部遮蔽廣告。在形式上,廣告也被刻意“放遠一點”。它只出現在回答底部的獨立區域,並標註“Sponsored”,儘量不打斷對話本身。在合作層面,OpenAI找來了WPP、電通,以及The Trade Desk這樣的廣告公司和平台,一起測試不同的商業模式,包括互動式廣告——使用者點選廣告後,可以繼續用對話完成推薦和決策。廣告從此不是打擾,而是服務的延伸。至此,OpenAI的分層變現體系已經初具雛形:付費版本(ChatGPT Plus、Pro等)的訂閱使用者繼續保持無廣告體驗;免費使用者承擔廣告變現,形成一種“分層收費”的結構。而在廣告供給上,OpenAI走的是“少而貴”的路線。目前CPM單價超過60美元,單個廣告活動20萬美元起投,目的是優先吸引大品牌與頭部廣告主。試點資料顯示,使用者認為“不相關”的廣告不到7%,點選率和信任度也還算穩定。OpenAI用高門檻過濾低質廣告,用高品質留住海量使用者。接下來,OpenAI一邊擴大測試範圍,一邊在搭建自助投放廣告系統(Ad Manager已經在小範圍內進行灰度測試)。它要做的,其實是把“訂閱 + 廣告”這套模式真正跑順。AI廣告,不再是可選項有一個背景值得放在一起看。2026年3月,Sora項目因為成本和商業化問題被迫關停,OpenAI的業務版圖大幅收縮。Sora的關停,讓OpenAI更加明確了商業化方向。AI廣告就不再是可選項,而是必答題。原因也很簡單:原有的收入結構開始吃緊。API 增長趨緩,訂閱使用者的增速也在放慢,但算力和研發成本還在持續往上走。按照測算,到2028年,OpenAI的算力支出可能會達到1210億美元。在這種情況下,廣告幾乎是唯一一個可以快速放大的收入來源。更何況,ChatGPT本身就有規模優勢:超過8000萬周活使用者,其中95%是免費使用者。這部分人,本來就很難通過訂閱變現,但對廣告來說,是天然的流量池。從行業角度看,這其實也是一場存量市場的再分配。目前,Google和Meta仍然掌握著全球超過60%的數字廣告市場,但是AI正在改變廣告的發生方式。過去,廣告更多依賴關鍵詞或興趣推測;現在,AI可以直接捕捉使用者在對話裡表達出來的真實需求。更關鍵的是,鏈路被壓縮了。把“搜尋 — 瀏覽 —篩選 — 跳轉 — 購買” 的長鏈路,壓縮為 “對話 — 推薦 — 支付” 的閉環,中間少了很多環節,轉化效率自然更高。隨著AI問答市場份額在 2026 年突破 52%、傳統搜尋流量下滑 25%,OpenAI正憑藉高轉化效率搶佔廣告主的增量預算。但OpenAI面臨的問題也很現實。一方面,OpenAI遭到傳統巨頭的強勢阻擊,Google、微軟已經在把廣告嵌進AI搜尋裡,憑藉既有客戶和資料優勢,與OpenAI正面競爭。另一方面,使用者能不能長期接受沉浸式對話裡有廣告,這件事還沒有被完全驗證。一旦商業化過頭,最先流失的,可能就是免費使用者。再加上廣告主的預算遷移本來就慢,目前這600多家廣告主還是以大品牌為主,中小客戶能不能進來,還要看自助平台的成熟度。中國市場,更慢,但也更難相比之下,中國AI的商業化節奏明顯更克制。目前主流產品(文心一言、豆包、通義千問等),還沒有在對話介面正式引入廣告,整體態度傾向於先把產品和使用者關係打穩,再考慮變現。路徑其實是類似的:先做使用者規模,再擴大服務能力,最後才是廣告變現。廣告是使用者擴張轉向價值變現的關鍵一步。不是中國廠商不想賺錢,而是環境更敏感、使用者更挑剔、風險也更高。一方面,使用者對AI的態度是高度依賴,但不完全信任。調研顯示,66%的人已經形成規律性AI使用習慣,但仍有58%認為AI不夠可靠。一旦廣告直接進入,很容易放大這種不信任感。另一方面,對話場景本身更沉浸,廣告帶來的打斷感,比搜尋和資訊流更明顯。再疊加隱私、演算法、公正性等敏感問題,廠商自然會更謹慎。所以你會看到一個很有意思的現象:大家都知道AI廣告遲早要來,但沒人敢太快動。從長期來看,這件事其實沒有懸念。高昂的算力和研發成本,決定了廣告一定會成為未來AI商業模式的一部分。但怎麼做,結果會差很多。對中國廠商來說,慢就是快,穩才是遠。更現實的路徑可能是:一邊借鑑OpenAI的做法,一邊結合本地監管和使用者習慣,先把“可識別、可解釋、不打擾”的廣告形態跑出來,同時配合GEO(生成式引擎最佳化)去重建品牌觸達方式。說到底,AI廣告不是做不做的選擇,而是要用不消耗信任、不破壞體驗的方式把它做好,讓技術創新和商業收益能一起長久走下去。 (Morketing)
黃仁勳:7nm已經足夠好、依然不看好ASIC、和台積電沒有任何法律合同(We run on trust)!
在昨日一個採訪中,Vlogger Dwarkesh Patel向輝達CEO Jensen Huang 詢問了關於 TPU 競爭、輝達如何掌控日益緊張的先進晶片供應鏈、我們是否應該向中國出售 AI 晶片、輝達為什麼不轉型為超大規模資料中心、其投資策略等等問題。以下是我們總結的的三十個重要觀點:1、所有產能問題都可以在兩三年內輕鬆解決2、CPU有點像凱迪拉克,它是一款舒適的巡航車,速度不會太快,每個人都能輕鬆駕馭;它配備了巡航控制,一切都很簡單。但在很多方面,輝達的GPU和加速器就像F1賽車3、跟Elon Musk吃過飯,但Musk沒有懇求黃仁勳優先供貨GPU4、GPU訂單遵循先來後到原則5、不喜歡“價高者得”的經營方式6、後悔錯過Anthropic7、不喜歡挑選贏家進行支援,而是雨露均霑,讓他們自由發展8、依然不看好ASIC,沒有任何一個ASIC公司有輝達可靠9、和台積電沒有法律合同(We run on trust)(We’ve been working with TSMC for 30 years. We have no contract. Not a single contract in 30 years.We run on trust.Sometimes it’s unfair. Sometimes I win, sometimes I lose.Sometimes I get great pricing, sometimes not.But I trust them completely. I rely on them completely.It’s an incredible relationship.)10、今年的Vera Rubin將會非常出色;明年Vera Rubin Ultra將問世;後年,Feynman將橫空出世11、中國生產了全球60%的主流晶片,甚至更多12、中國擁有一些世界上最頂尖的電腦科學家13、中國擁有全球50%的人工智慧研究人員14、中國不是敵人,他們只是對手15、中國的計算能力非常龐大,中國是全球第二大計算市場。如果他們想整合計算資源,完全可以滿足需求。16、中國擁有的能源量驚人,充足的能源是中國的優勢17、如果中國願意,他們完全可以把更多的晶片集中起來18、認為中國無法製造人工智慧晶片的說法完全是無稽之談19、中國是全球最大的開放原始碼軟體貢獻國20、中國也是全球最大的開放模型貢獻國21、7nm晶片已經足夠好了22、建立兩個生態系統——一個只能運行在外國技術堆疊上的開源生態系統,另一個是運行在美國技術堆疊上的封閉生態系統——的做法是極其愚蠢的23、人工智慧本質上就是一個平行計算問題24、MoE 是一項偉大的發明25、DeepSeek 絕非無關緊要的進步,如果 DeepSeek 先在華為平台上發佈,那對美國來說將是災難性的26、x86 架構的存在是有原因的。ARM架構如此根深蒂固也是有原因的。這些生態系統難以替代。這需要耗費大量的時間和精力,而且大多數人都不願意這樣做27、輝達在中國份額大幅下降28、架構至關重要,電腦科學至關重要。半導體物理固然重要,但電腦科學才是重中之重29、即使人工智慧今天尚未出現,輝達的規模也會非常龐大30、如果沒有人工智慧,我會非常難過輝達最大的護城河是其對稀缺供應鏈的控制嗎?Q:我們已經看到許多軟體公司的估值暴跌,因為人們預期人工智慧會使軟體商品化。有一種可能過於天真的想法是:你看,輝達把GDS2檔案發給台積電。台積電製造邏輯晶片,製造交換機晶片,然後將它們與SK海力士、美光和三星生產的HBM記憶體封裝在一起。之後,台積電將封裝好的晶片發給台灣的ODM廠商,由他們組裝成機架。從本質上講,輝達製造的是其他人製造的軟體,如果軟體商品化了,輝達也會商品化嗎?黃仁勳:最終,總得有某種機制將電子轉化為tokens。將電子轉化為tokens,並隨著時間的推移提升這些tokens的價值,這很難完全商品化。從電子到tokens的轉化是一個不可思議的旅程。製造tokens就像讓一個分子比另一個分子更有價值,讓一個tokens比另一個更有價值。顯然,我們正在即時見證著tokens價值的提升,其中蘊含著大量的藝術、工程、科學和發明創造。這種轉化、製造以及所有相關的科學原理,我們遠未被完全理解,這段旅程也遠未結束。我懷疑它最終能否實現。我們當然會提高效率。你提出的問題正是我對我們公司的理解。輸入是電子,輸出是tokens。輝達位於中間。我們的工作是在必要範圍內儘可能少地干預,從而以驚人的能力實現這種轉型。我所說的“儘可能少地干預”,是指任何我不需要親自完成的事情,我都會與其他合作夥伴一起,將其納入我的生態系統。如果你看看今天的輝達,我們可能擁有規模最大的合作夥伴生態系統,涵蓋供應鏈的上下游,包括所有電腦公司、應用開發商和模型建構者。人工智慧就像一個五層蛋糕,我們的生態系統遍佈所有五個層面。我們儘量少做,但事實證明,我們必須做的那部分工作極其困難。我認為這部分工作無法商品化。(We try to do as little as possible, but the part that we have to do, as it turns out, is insanely hard)事實上,我也不認為企業軟體公司、工具製造商……如今大多數軟體公司都是工具製造商。當然,也有一些公司不是,它們開發的是工作流程編碼系統。但對很多公司來說,它們確實是工具製造商。例如,Excel 是工具,PowerPoint 是工具,Cadence開發工具,Synopsys也開發工具。實際上,我看到的恰恰與人們的看法相反。我認為代理的數量和工具使用者的數量都將呈指數級增長。所有這些工具的實例數量很可能會激增。Synopsys Design Compiler的實例數量很可能會激增,使用平面規劃器、佈局工具和設計規則檢查器的代理數量也會隨之大幅增長。如今,我們受限於工程師的數量。未來,這些工程師將得到大量agent的支援。我們將以前所未有的方式探索設計空間,並繼續使用我們今天使用的工具。我認為工具的使用將推動軟體公司蓬勃發展。之所以目前還沒有出現這種情況,是因為agents還不擅長使用這些工具。要麼這些公司會自行開發代理商,要麼agents會變得足夠熟練,能夠使用這些工具。我認為最終會是兩者的結合。Q:在你們最新的檔案中,你們與代工廠、記憶體和封裝廠商簽訂了近1000億美元的採購承諾。SemiAnalysis報導稱,你們這類採購承諾的總額將達到2500億美元。一種解讀是,輝達的護城河實際上在於你們鎖定了未來幾年這些稀缺元件的供應。其他廠商或許擁有加速器,但他們真的能獲得所需的記憶體嗎?他們真的能獲得所需的邏輯晶片嗎?這真的是輝達未來幾年最大的護城河嗎?黃仁勳:這是我們能做到而別人很難做到的事情之一。我們在上游投入了大量資源。有些是明確的,比如你提到的這些承諾。有些則是隱性的。例如,我們供應鏈上的許多上游投資都是由他們進行的,因為我曾對各位CEO說:“讓我告訴你們這個行業將會發展到多大的規模,讓我解釋一下原因,讓我和你們一起分析,讓我向你們展示我所看到的。”通過與上游各行各業的CEO們溝通、啟發和協調,他們才願意進行投資。為什麼他們願意為我而不是為其他人投資呢?原因在於,他們知道我有能力購買他們的產品,並通過我的下游管道銷售。事實上,輝達的下游供應鏈和我們的下游需求都非常龐大,因此他們願意進行上游投資。(As a result of that process of informing, inspiring, and aligning with CEOs of all different industries upstream, they’re willing to make the investments. Why are they willing to make the investments for me and not someone else? The reason for that is because they know that I have the capacity to buy their supply and sell it through my downstream. The fact is that Nvidia’s downstream supply chain and our downstream demand is so large, they’re willing to make the investment upstream.)如果你看看GTC大會,人們都會驚嘆於它的規模和參會人員之多。它涵蓋了人工智慧領域的方方面面,可謂包羅萬象。他們齊聚一堂,是因為彼此需要交流。我把他們聚集在一起,是為了讓下游企業瞭解上游,上游企業瞭解下游,讓所有人都能瞭解人工智慧的最新進展。更重要的是,他們還能與人工智慧領域的專家、正在蓬勃發展的人工智慧初創公司以及所有令人驚嘆的成果見面,親眼見證我所講述的一切。我花費大量時間,直接或間接地向我們的供應鏈、合作夥伴和生態系統傳達我們面前的機遇。有些人總是說:“Jensen,大多數主題演講都是一個接一個的公告。”但我們的主題演講總會有一部分內容讓人感覺有點“折磨”,因為它幾乎像是在進行教育。事實上,這正是我所關注的。我需要確保整個供應鏈,從上到下,整個生態系統,都瞭解即將發生的事情,它為什麼會發生,何時發生,規模有多大,並且能夠像我一樣系統地思考和分析它。關於您所描述的護城河,我們有能力為未來做好準備。如果未來幾年我們的規模達到兆美元,我們擁有相應的供應鏈。如果沒有我們的影響力,我們業務的發展速度……就像現金流、供應鏈和客戶流失一樣,如果業務流失率很低,沒有人會為一個架構建構供應鏈。我們之所以能夠維持如此龐大的規模,完全是因為下游需求巨大。他們看到了這一點,聽到了相關資訊,預見到了這一切。這使我們能夠以如此大的規模去做我們能夠做的事情。Q:我確實想更具體地瞭解上游能否跟上步伐。多年來,你們的收入每年都翻一番。你們提供給全球的flops數每年都增長三倍以上。黃仁勳:現在以這種規模翻倍真的太不可思議了。Q:沒錯。但你再看看邏輯。你是台積電N3工藝節點的最大客戶,也是N2工藝節點的最大客戶之一。今年人工智慧整體將佔N3工藝節點的60%,根據SemiAnalysis的預測,明年將達到86%。如果你已經佔據了大部分市場份額,如何才能實現翻番?又該如何逐年實現這一目標?我們現在是否正處於一個由於上游工藝的限制,人工智慧計算增長速度不得不放緩的階段?你認為有什麼辦法可以解決這個問題?最終,我們如何才能實現每年兩倍的晶圓廠建設量?黃仁勳:在某種程度上,瞬時需求大於全球上下游的供應。在任何時刻,我們都可能面臨plumbers數量不足的限制,而這種情況實際上也時有發生。Q:plumbers受邀參加明年的GTC大會。黃仁勳:順便說一句,這主意不錯。但這只是個好條件。你想要的是一個瞬時需求大於行業總供給的行業。反之則顯然不好。如果我們之間的距離太遠,如果某個特定元件的供應量太少,整個行業就會蜂擁而至。例如,你會發現現在人們很少再談論CoWoS了。原因在於,過去兩年我們全力以赴,實現了超負荷的產能擴張。我們連續數次加倍,每次都翻倍。現在我認為我們形勢相當不錯。台積電現在也意識到,CoWoS的供應必須跟上邏輯電路和儲存器的需求。他們正以與邏輯電路相同的速度擴展CoWoS和未來的封裝技術。這非常棒,因為長期以來,CoWoS和HBM儲存器都屬於小眾技術。但現在它們不再是小眾技術了。人們現在意識到它們已經成為主流的計算技術。當然,我們現在更有能力影響供應鏈的更大範圍。在人工智慧革命之初,我五年前就說過現在我說的這些話。有些人相信它並進行了投資,例如Sanjay和美光團隊。我仍然清楚地記得那次會議,會上我清楚地闡述了將會發生什麼、為什麼會發生以及今天的預測。他們確實加倍投入。我們在LPDDR和HBM記憶體領域與他們展開了合作,他們也確實投入了大量資金。這顯然對公司產生了巨大的影響。有些人加入得晚一些,但現在他們都在這裡了。這些瓶頸問題都受到了高度重視。現在,我們正在提前數年預先解決這些瓶頸問題。例如,過去幾年我們對Lumentum 、Coherent以及矽光子生態系統的投資,真正重塑了供應鏈。我們圍繞台積電建構了一條完整的供應鏈。我們與他們合作開發了COUPE 項目,發明了大量技術,並將這些專利授權給供應鏈,以保持其開放性和高效性。我們正在通過發明新技術、新工作流程、新型測試裝置(例如雙面探針測試)來建構供應鏈,同時投資於相關企業並幫助它們擴大產能。可以看出,我們正努力塑造整個生態系統,使供應鏈能夠支援規模化發展。Q:似乎有些瓶頸比其他瓶頸更容易解決。例如,擴展 CoWoS 與其他擴展方式相比。黃仁勳:順便說一句,我碰到的是難度最高的那一個。Q:那個?黃仁勳:水管工和電工。這就是我對那些描述工作終結和職業消亡的末日論者感到擔憂的原因之一。如果我們勸阻人們成為軟體工程師,我們就會面臨軟體工程師短缺的問題。十年前也出現過同樣的預測。一些末日論者告誡人們:“無論如何,千萬別當放射科醫生。”你可能還會在網上看到一些這樣的視訊,說放射科醫生將是第一個消失的職業,世界將不再需要更多的放射科醫生。猜猜我們現在缺什麼?放射科醫生。Q:回到之前關於有些東西可以規模化生產,而有些東西卻不行這一點……你究竟如何才能每年生產兩倍的邏輯電路?歸根結底,儲存器和邏輯電路的瓶頸都在於極紫外光刻(EUV)。你如何才能逐年獲得兩倍的極紫外光刻裝置?黃仁勳:這些都不是無法快速擴展的。所有這些都可以在兩三年內輕鬆實現。你只需要一個需求訊號。一旦你能造出一個,你就能造出十個;一旦你能造出十個,你就能造出一百萬個。這些都不難複製。Q:你會追溯到供應鏈的那個環節?你會去找ASML說:“嘿,如果我展望三年後,輝達的年收入達到兩兆美元,我們需要更多的EUV光刻機”嗎?黃仁勳:有些我必須直接說服,有些需要間接,還有一些……如果我能說服台積電,ASML也會被說服。我們必須考慮關鍵的瓶頸。但如果台積電被說服了,幾年後你們就會有很多EUV光刻機可用了。我的意思是,所有瓶頸都不會持續超過兩三年,一個都不會。與此同時,我們的計算效率提高了10倍、20倍,以Hopper到Blackwell為例,甚至提高了30倍到50倍。由於CUDA的靈活性,我們不斷開發新的演算法。我們正在開發各種新技術,以提高效率,同時提升產能。這些我都不擔心。真正讓我擔憂的是下游的問題。那些阻礙能源發展的能源政策……沒有能源,就無法建立任何產業。沒有能源,就無法建立一個全新的製造業。我們希望重振美國工業。我們希望恢復晶片製造、電腦製造和封裝產業。我們希望研發電動汽車和機器人等新產品。我們希望建設人工智慧工廠。所有這些都離不開能源,而且這些項目都需要很長時間。增加晶片產能,這需要兩到三年的時間。增加CoWoS產能,也需要兩到三年的時間。Q:有意思。我感覺有時候客人會跟我說完全相反的話。這種情況下,我確實缺乏相關的專業知識來判斷。黃仁勳:最妙的是,你是在和專家對話。TPU 能否打破輝達在 AI 計算領域的壟斷地位?Q:我想問問你們的競爭對手。如果你看看TPU ,可以說全球排名前三的模型中,有兩款——Claude和Gemini——都是用TPU訓練的。這對輝達未來的發展意味著什麼?黃仁勳:我們打造的是截然不同的東西。輝達打造的是加速計算,而不是張量處理單元。加速計算的應用範圍非常廣泛:分子動力學、量子色動力學、資料處理、資料幀、結構化資料和非結構化資料。它也用於流體動力學和粒子物理學。此外,我們還將其應用於人工智慧領域。加速計算的範疇遠比這廣泛得多。雖然人工智慧是當今的熱門話題,而且顯然非常重要且影響深遠,但計算的範疇遠不止於此。輝達徹底革新了計算方式,從通用計算轉向加速計算。我們的市場覆蓋範圍遠遠超過任何TPU或ASIC晶片所能企及的範圍。從我們的市場地位來看,我們是唯一一家能夠加速所有類型應用程式的公司。我們擁有龐大的生態系統。因此,各種框架和演算法都可以在輝達平台上運行。因為我們的電腦設計之初就考慮到了由他人操作,所以任何具備操作能力的人都可以購買我們的系統。而大多數自建系統則需要使用者自行操作,因為它們的設計初衷並非為了方便他人操作。由於任何人都可以操作我們的系統,因此我們的產品已部署在包括 Google、Amazon、Azure 和 OCI 在內的所有雲平台上。如果您想以租賃方式營運,最好擁有一個涵蓋多個行業的龐大客戶生態系統,以便他們成為承購方。如果您想自行營運,我們當然有能力幫助您,就像我們之前為埃隆·馬斯克提供的 xAI 服務一樣。而且,由於我們能夠賦能任何公司和任何行業的營運者,您可以利用這項技術為禮來公司建構一台用於科學研究和藥物研發的超級電腦。我們可以幫助他們營運自己的超級電腦,並將其用於我們所加速的各個藥物研發和生物科學領域。我們能夠解決很多TPU無法解決的應用問題。輝達打造CUDA的目的不僅在於使其成為一個出色的張量處理單元,它還能處理資料處理、計算、人工智慧等各個生命周期。我們的市場機會更大,覆蓋範圍也更廣。因為我們現在支援全球所有應用,所以無論你在那裡建構輝達系統,都無需擔心找不到客戶。這完全是兩碼事。Q:這將是一個很長的問題。你們的營收非常驚人,但你們每季度600億美元的收入並非來自製藥和量子計算領域。你們之所以能做到這一點,是因為人工智慧是一項前所未有的技術,而且它正以前所未有的速度發展。那麼問題就變成了:那種方案最適合人工智慧?我不太瞭解細節,但我跟我的人工智慧研究朋友聊過,他們說:“你看,我用TPU的時候,它是一個大型的脈動陣列,非常適合做矩陣乘法,而GPU則非常靈活。當你需要處理大量分支或不規則的記憶體訪問時,它就非常棒。”但人工智慧究竟是什麼?它不過是不斷重複進行這些非常可預測的矩陣乘法運算。你無需為線程束調度器或線程與記憶體庫之間的切換而犧牲任何晶片面積。而且,TPU 針對當前計算領域收入增長和應用場景的大量需求進行了最佳化。我想知道你對此有何看法。黃仁勳:矩陣乘法是人工智慧的重要組成部分,但並非全部。如果你想提出新的注意力機制、以不同的方式進行分解,或者發明一種全新的架構——例如混合SSM——你需要一個通用的可程式設計架構。如果你想建立一個融合擴散和自回歸技術的模型,你同樣需要一個通用的可程式設計架構。我們幾乎可以運行你所能想像的一切。這就是它的優勢所在。由於它是一個可程式設計系統,因此可以更輕鬆地發明新的演算法。人工智慧之所以能如此快速發展,真正的原因在於其不斷髮明新演算法的能力。與其他任何事物一樣,TPU(技術處理單元)也受到摩爾定律的影響,而摩爾定律的年增長率約為25%。要想真正實現10倍甚至100倍的飛躍,唯一的辦法就是每年從根本上改變演算法及其計算方式。這就是輝達的根本優勢。我們之所以能讓 Blackwell 的能效比 Hopper 高出 50 倍,唯一的原因是……當初我宣佈 Blackwell 的能效將比 Hopper 高出 35 倍時,沒人相信。後來Dylan寫了篇文章說我故意隱瞞,但實際上能效是 Hopper 的 50 倍。單憑摩爾定律是無法實現這一點的。我們解決這個問題的方法是採用新的模型,例如MoE(模組化執行單元),這些模型可以平行化、解耦並分佈在整個計算系統中。如果沒有能力真正深入研究並利用 CUDA 開發新的核心,這一切都很難做到。這得益於我們架構的可程式設計性,以及輝達作為一家極致的協同設計公司的優勢。我們甚至可以將部分計算任務解除安裝到架構本身(例如NVLink )或網路(例如Spectrum-X)中。我們可以同時對處理器、系統、架構、庫和演算法進行更改。如果沒有 CUDA,我真不知道該從何入手。Q:這引出了一個關於輝達客戶群的有趣問題。你們60%的收入都來自五大超大規模資料中心營運商。如果換個時代,面對不同的客戶群體——比如說進行實驗的教授——他們需要CUDA。他們無法使用其他加速器。他們只需要用CUDA運行PyTorch ,並且所有功能都得到最佳化。但這些超大規模資料中心營運商擁有編寫自有核心的資源。事實上,為了獲得其特定架構所需的最後 5% 的性能提升,他們必須這樣做。Anthropic 和 Google 大多運行著自己的加速器,或者使用 TPU 和Trainium 。即使是使用 GPU 的 OpenAI,也使用Triton ,因為他們需要自己的核心。甚至在 CUDA C++ 方面,他們也沒有使用cuBLAS和NCCL ,而是擁有自己的技術堆疊,該技術堆疊還可以編譯到其他加速器上。如果你的大多數客戶能夠並且確實找到了 CUDA 的替代方案,那麼 CUDA 在多大程度上真的能夠推動 Nvidia 平台上的前沿 AI 應用?黃仁勳:CUDA 擁有豐富的生態系統。如果您想先在任何電腦上進行建構,那麼首先基於 CUDA 進行建構是非常明智的選擇。正因為其生態系統如此豐富,我們才能支援所有框架。如果您想建立自訂核心……例如,我們為 Triton 做出了巨大貢獻。因此,Triton 的後端使用了大量的 Nvidia 技術。我們很高興能夠幫助每個框架發揮其最大潛力。框架種類繁多,例如 Triton、vLLM 、SGLang等等。現在又湧現出許多新的強化學習框架,例如verl和NeMo RL 。隨著訓練後處理和強化學習的不斷發展,整個領域正經歷著爆炸式增長。因此,如果您想基於某個架構進行開發,那麼基於 CUDA 無疑是最佳選擇,因為 CUDA 的生態系統非常完善。你知道,如果出了問題,更有可能出在你的程式碼裡,而不是底層那堆積如山的程式碼裡。建構這些系統時,別忘了你要處理的程式碼量有多大。如果出了問題,是你的問題還是電腦的問題?你肯定希望問題總是出在你身上,並且能夠信任電腦。當然,我們自己也存在很多 bug,但我們的系統已經過充分測試,至少你可以在這個基礎上繼續開發。這就是第一點:生態系統的豐富性、可程式設計性和強大功能。第二點是,如果你是一名開發者,無論開發什麼軟體,你最看重的就是使用者基數。你希望你編寫的軟體能夠在大量的其他電腦上運行。你開發軟體並非僅僅為了自己,而是為了你的伺服器群,或者其他所有人的伺服器群,因為你是一名框架建構者。輝達的 CUDA 生態系統最終是其最大的財富。現在市面上已經有數億個GPU。每個雲平台都配備了GPU。從A10 、A100 、H100 、H200 ,到L系列、P系列等等,種類繁多,尺寸和形狀也各不相同。如果你是一家機器人公司,你肯定希望CUDA協議棧能夠直接在機器人上運行。我們的產品幾乎無處不在。龐大的使用者群意味著,一旦你開發出軟體或模型,它就能在任何地方使用。這簡直太有價值了。最後,我們能夠覆蓋所有雲平台,這使我們真正獨樹一幟。如果您是一家人工智慧公司或開發者,您可能並不確定應該與那家雲服務提供商合作,或者在那裡運行。我們幾乎可以在任何地方運行,如果您願意,我們也可以為您提供本地部署服務。豐富的生態系統、龐大的使用者群以及我們靈活的部署方式,共同造就了 CUDA 的無可比擬的價值。Q:這很有道理。我好奇的是,這些優勢對你的主要客戶來說是否重要。對很多人來說,這些優勢可能很重要。能夠建構自己軟體棧的那類人貢獻了你的大部分收入。尤其是在人工智慧越來越擅長那些具有嚴格驗證循環、可以進行強化學習的領域……如何編寫一個核心,使其在規模化應用中能夠最高效地處理注意力機制或多層感知器(MLP)?這是一個非常容易驗證的反饋循環。所有超大規模資料中心營運商都能自行編寫這些定製核心嗎?輝達的性價比依然很高,所以他們可能仍然更傾向於使用輝達的產品。但問題在於,最終會不會演變成誰能以最低的價格提供最佳的規格、浮點運算能力和記憶體頻寬?歷史上,輝達憑藉CUDA的護城河,在人工智慧領域(包括硬體和軟體)一直保持著最高的利潤率,高達70%。而問題是,如果大多數客戶能夠負擔得起自行建構,而不是依賴CUDA的護城河,輝達還能維持這樣的利潤率嗎?黃仁勳:我們為這些人工智慧實驗室配備了數量驚人的工程師,他們與這些實驗室合作,最佳化他們的技術堆疊。原因在於,沒有人比我們更瞭解我們的架構。這些架構不像CPU那樣通用。CPU有點像凱迪拉克,它是一款舒適的巡航車,速度不會太快,每個人都能輕鬆駕馭。它配備了巡航控制,一切都很簡單。但在很多方面,輝達的GPU和加速器就像F1賽車。我估計每個人都能以每小時一百英里的速度駕駛它,但要將其性能發揮到極致,則需要相當豐富的專業知識。我們運用了大量的人工智慧技術來建立我們的核心。我非常肯定,在相當長的一段時間內,我們仍然會被需要。我們的專業知識通常能幫助我們的人工智慧實驗室合作夥伴輕鬆地將他們的技術堆疊性能提升兩倍。我們完成技術堆疊最佳化或特定核心最佳化後,他們的模型速度提升三倍、兩倍甚至五成的情況並不少見。這是一個巨大的數字,尤其考慮到他們龐大的裝置基數,包括他們所有的 Hopper 和 Blackwell 等計算單元。性能提升一倍,收入也會翻倍。這直接轉化為實際收益。輝達的計算堆疊是全球性價比最高的,沒有之一。目前世界上沒有任何一個平台能證明它的性能/總擁有成本比更高。沒有一家公司能做到。事實上,現有的基準測試,比如Dylan的InferenceMAX ,人人都能用,但沒有任何一家公司能做到……TPU不會推出,Trainium也不會推出。我鼓勵他們使用 InferenceMAX 來展示他們驚人的推理成本。這真的很難。沒人願意來。MLPerf 。我倒是很想聽聽 Trainium 展示一下他們一直聲稱的 40% 的成本優勢。我很想聽聽他們如何證明 TPU 的成本優勢。在我看來,這完全說不通。一點道理都沒有。從根本上來說,這根本說不通。所以我認為我們如此成功的原因很簡單,就是我們的總體擁有成本 (TCO) 非常低。其次,您提到我們 60% 的客戶是前五大企業,但其中大部分業務都是外部業務。例如,AWS 上的輝達產品大部分是為外部客戶而非內部使用者提供的。Azure 上的所有客戶也都是外部客戶。OCI 上的所有客戶也都是外部客戶,而非內部使用者。他們之所以青睞我們,是因為我們的覆蓋範圍非常廣。我們可以為他們帶來全球所有優秀的客戶。這些客戶都基於輝達的產品。而所有這些公司之所以都基於輝達的產品,正是因為我們覆蓋範圍廣、功能多樣。所以我認為真正的飛輪效應在於使用者基數、我們架構的可程式設計性、我們生態系統的豐富性,以及全球人工智慧公司數量眾多這一事實。現在有成千上萬家人工智慧公司。如果你是其中一家人工智慧初創公司,你會選擇那種架構?你會選擇最普及的架構。而我們的架構是全球最普及的。你會選擇使用者基數最大的架構。而我們的使用者基數最大。你還會選擇擁有豐富生態系統的架構。這就是飛輪效應。原因在於:首先,我們的每美元性能如此之高,以至於他們的tokens成本最低。其次,我們的每瓦性能是全球最高的。因此,如果我們的合作夥伴建造了一個1吉瓦的資料中心,那麼這個1吉瓦的資料中心必須能夠產生最大的收益和tokens數量,這直接轉化為收入。您希望它產生儘可能多的代幣,從而最大化資料中心的收益。我們擁有全球最高的每瓦代幣產量架構。最後,如果您的目標是租用基礎設施,我們擁有全球最多的客戶。這就是飛輪效應發揮作用的原因。Q:有意思。我想問題的關鍵在於,實際的市場結構究竟如何?因為即便還有其他公司……原本可能存在成千上萬家人工智慧公司,它們大致平分計算資源。但即便通過這五家超大規模資料中心,真正使用亞馬遜計算資源的仍然是 Anthropologie、OpenAI 以及那些有能力且能夠自行部署不同加速器的大型基金會實驗室。黃仁勳:不,我認為你的前提是錯誤的。Q:也許吧。不過,我想問你一個稍微不同的問題。如果價格、性能、每瓦性能等等這些說法都是真的,那麼你認為為什麼像 Anthropic 這樣的公司會在幾天前宣佈他們與 Broadcom 和 Google 達成了一項數吉瓦的 TPU 協議,用於他們的大部分計算呢?顯然,對Google來說,TPU 佔據了大部分計算資源。所以,如果我觀察這些大型人工智慧公司,會發現它們的很多計算資源……曾經有一段時間它們都依賴輝達的加速器,但現在情況並非如此。因此,我很好奇,如果這些說法在理論上成立,它們為什麼會選擇其他加速器呢?黃仁勳:Anthropic 是一個特例,而非一種趨勢。如果沒有 Anthropic,TPU 又怎會增長?它完全是 Anthropic 的功勞。如果沒有 Anthropic,Trainium 又怎會增長?它也完全是 Anthropic 的功勞。我認為這一點已廣為人知。ASIC 的機會並不多,Anthropic 只有一個。Q:但OpenAI 與 AMD 達成了協議……他們正在打造自己的Titan加速器。黃仁勳:是的,但我想我們都應該承認,它們很大程度上是輝達的產品。我們仍然會繼續合作。我不介意其他人使用其他產品或嘗試其他技術。如果他們不去嘗試,又怎麼知道我們的產品有多好呢?有時候,我們需要有人提醒自己這一點。我們必須不斷地努力才能保住現在的地位。總是有很多誇張的說法。看看有多少ASIC項目被取消就知道了。就算你打算造ASIC……你還得造出比輝達更好的產品。造出比輝達更好的產品可沒那麼容易。實際上,這根本不現實。輝達肯定漏掉了什麼,真的。因為我們的規模和速度,我們是世界上唯一一家每年都能持續產出新產品的公司。每年都有巨大的飛躍。Q:我猜他們的邏輯是,“嘿,它不需要更好。它只需要比原來的差不超過70%就行了”,因為他們付給你的是70%的利潤率。黃仁勳:不,別忘了,即使是ASIC晶片,利潤率也相當高。比如說,輝達的利潤率是70%。但ASIC晶片的利潤率只有65%。你到底能省多少錢?Q:哦,你是說博通之類的公司嗎?黃仁勳:當然,總得付錢給別人吧。就我所知,ASIC的利潤率非常高。他們自己也這麼認為,而且他們對ASIC驚人的利潤率相當自豪。所以,你問了為什麼。很久以前,我們確實沒有能力做到這一點。當時,我並沒有深刻意識到建立像 OpenAI 和 Anthropic 那樣的基礎性人工智慧實驗室有多麼困難,也沒有意識到他們需要供應商投入巨資。我們當時根本無力向 Anthropic 投資數十億美元,讓他們使用我們的計算資源。但Google和 AWS 有。他們一開始就投入了巨資,作為回報,Anthropic 可以使用他們的計算資源。而我們當時確實沒有能力做到這一點。我覺得我的錯誤在於,我沒有真正理解他們其實別無選擇,風險投資家絕不會把50億到100億美元投資到一個人工智慧實驗室,指望它能像Anthropic那樣成功。所以這是我的失誤。但即便我當時理解了這一點,我想我們當時也沒有能力這麼做。但我不會再犯同樣的錯誤了。我很高興能投資 OpenAI,也很高興能幫助他們擴大規模,而且我認為這樣做至關重要。後來,當 Anthropic 找到我們時,我也很高興能成為他們的投資者,幫助他們擴大規模。只是當時我們力不從心。如果一切可以重來——如果輝達當時就能達到現在的規模——我絕對會非常樂意這麼做。為什麼輝達不成為超大規模資料中心營運商?Q:這確實很有意思。多年來,輝達一直是人工智慧領域最賺錢的公司,賺了很多錢。現在你們開始投資人工智慧了。據報導,你們在OpenAI投資了高達300億美元,在Anthropic投資了100億美元。現在它們的估值都提高了,我相信還會繼續增長。所以,如果你這些年來一直為他們提供計算資源,並且預見到它的發展方向,而幾年前——甚至在某些情況下,一年前——他們的價值只有現在的十分之一,而你又手握大量現金——那麼,輝達完全可以轉型為基金會實驗室,進行巨額投資來實現這一目標,或者更早地以現在的估值完成你現在達成的這些交易。而且你當時也有足夠的資金這樣做。所以我很想知道,為什麼你沒有更早地這樣做呢?黃仁勳:我們儘早完成了這件事。如果可以,我甚至會更早去做。當時Anthropic需要我們做這件事的時候,我們卻無能為力。這樣做也不符合我們的本性。Q:怎麼會這樣?是現金交易之類的嗎?黃仁勳:是的,投資規模的問題。當時我們從未在公司外部投資過,而且投資額也不大。我們當時沒意識到需要投資。我一直以為他們可以像其他公司一樣,直接去風投那裡融資,我的天那。但他們想做的事情,風投是做不到的。OpenAI想做的事情,風投是做不到的。我現在明白了。當時我並不知道。但這就是他們的過人之處。這就是他們聰明的原因。他們當時意識到自己必須做這樣的事。我很高興他們這麼做了。儘管我們導致Anthropic不得不轉投他人,但我仍然為此感到高興。Anthropic的存在對世界意義重大。我為此感到欣慰。Q:我猜你仍然賺了很多錢,而且每個季度都在賺得更多。黃仁勳:有遺憾也是正常的。Q:所以問題依然存在。既然我們已經到了這裡,而且你們也一直在賺這筆錢,那麼輝達應該怎麼用呢?一個答案是,現在已經出現了一個完整的中間商生態系統,可以將這些實驗室的資本支出轉化為營運支出,以便他們能夠租用計算資源。因為晶片非常昂貴,而且由於人工智慧模型不斷改進,它們在其生命周期內能帶來巨額利潤。因此,它們創造的價值,也就是它們的代幣,正在不斷增長,但搭建這些系統成本很高。輝達有足夠的資金來承擔這些資本支出。事實上,據報導,你們為CoreWeave項目提供了高達63億美元的支援,並且已經投資了20億美元。為什麼輝達不自己做雲服務商?為什麼不自己做超大規模雲服務商,把計算資源出租出去?他們有這麼多錢可以這麼做。黃仁勳:這是公司的理念,我認為很明智。我們應該儘可能少地投入,只做必要的事情。這意味著,如果我們不去建構我們的計算平台,我相信這項工作就無法完成。如果我們不承擔現在承擔的風險——如果我們不以現在的方式建構 NVLink,如果我們不建構整個技術堆疊,如果我們不以現在的方式建立生態系統,如果我們不投入 20 年的時間,即使大部分時間都在虧損,也要致力於 CUDA 的發展——如果我們不去做,其他人就不會去做。如果我們當初沒有建立所有CUDA-X 庫,使它們都針對特定領域……十五年前,我們開始大力開發領域特定庫,因為我們意識到,如果我們不建立這些領域特定庫,無論是光線追蹤、圖像生成,甚至是早期人工智慧的模型,無論是資料處理、結構化資料處理還是向量資料處理,如果我們不建立它們,就不會有人建立。我對此深信不疑。我們建立了一個名為cuLitho的計算光刻庫。如果我們不建立它,就不會有人建立。因此,如果我們不做這些,加速計算就不會發展到今天這樣的程度。所以我們應該這樣做。我們應該傾盡全力,全心全意地投入到這項工作中。然而,世事難料。如果我不做,也會有人去做。因此,我們公司至今仍然秉持著“儘可能多做,但儘可能少做”(doing as much as needed but as little as possible)的理念。我所做的每一件事,都遵循著這個原則。就雲端運算而言,如果我們當初不支援CoreWeave ,這些 neoclouds、這些 AI 雲就不會存在。如果我們當初沒有幫助 CoreWeave 發展,它們也不會存在。如果我們當初沒有支援Nscale ,它們就不會有今天的成就。如果我們當初沒有支援Nebius ,它們也不會有今天的成就。如今,它們發展得非常出色。這算是一種商業模式嗎?我們應該儘可能多地做事,儘可能少地干預。所以我們投資於我們的生態系統,因為我希望我們的生態系統蓬勃發展。我希望架構和人工智慧能夠與儘可能多的行業、儘可能多的國家連接起來,使整個地球能夠基於人工智慧和美國的技術堆疊而運轉。這正是我們正在追求的願景。您剛才提到的一點是……有很多非常優秀的基金會模式公司,我們儘量投資所有這些公司。這也是我們所做的。我們不挑選贏家。我們需要支援所有公司。這是我們投資的樂趣所在,也是我們業務的必要組成部分。但我們也會刻意避免挑選贏家。所以,當我投資一家公司時,我也會投資所有相關的公司。Q:你為什麼刻意不去挑選贏家?黃仁勳:第一,這不是我們的職責。第二,輝達創立之初,有60家3D圖形公司。我們是唯一一家存活下來的。如果你把這60家圖形公司都列出來,問問自己那家會成功,輝達肯定排在失敗名單的首位。這事發生在你很久以前,但輝達的圖形架構一開始確實是錯的,不是一點點錯,而是我們創造了一個徹頭徹尾的錯誤架構,開發者根本無法維護。它註定失敗。我們當初的出發點是好的,但最終卻得到了錯誤的解決方案。所有人都認為我們會失敗。而我們現在卻成功了。所以我足夠謙遜,能夠認識到這一點。不要人為地挑選贏家。要麼讓他們各自發展,要麼就幫助他們所有人。Q:有一點我不明白,你說:“我們優先發展這些NeoCloud項目,並非僅僅因為它們是NeoCloud,我們想扶持它們。”但你又列舉了一堆NeoCloud項目,說如果沒有NVIDIA,它們根本不會存在。這兩件事怎麼能自相矛盾呢?黃仁勳:首先,他們必須有創業的意願,並且主動來尋求我們的幫助。當他們有創業意願,並且擁有商業計畫、專業知識和熱情時……他們顯然也必須具備一定的自身能力。但如果最終他們需要一些投資才能啟動項目,我們也會全力支援。不過,他們越早啟動自己的發展引擎越好……你的問題是:“我們是否想涉足融資業務?”答案是否定的。融資業務已經存在,我們更願意與他們合作,而不是自己成為融資者。我們的目標是專注於我們自身的核心業務,儘可能簡化我們的商業模式,並支援我們的生態系統。像 OpenAI 這樣的公司,在上市前就需要 300 億美元的投資,而我們深信他們,我也深信他們將會成為……嗯,他們現在就已經是一家非凡的公司了。他們將會成為一家了不起的公司。世界需要他們,世界希望他們存在,我也希望他們存在。他們現在順風順水。讓我們支援他們,讓他們發展壯大。我們會進行這些投資,因為他們需要我們這樣做。但我們並非試圖儘可能多地投資,而是試圖儘可能少地干預。Q:這可能是一個顯而易見的問題,但我們已經在 GPU 短缺的情況下生活了很多年,而且隨著模型性能的提高,這種情況現在變得更加嚴重了。黃仁勳:我們缺少GPU。Q:是的。眾所周知,輝達在分配稀缺資源方面並非只看出價,而是會考慮“我們想確保這些新雲平台能夠存在。所以我們給CoreWeave分配一些,給Crusoe分配一些,給Lambda分配一些。”這對輝達有什麼好處呢?首先,你是否同意這種將市場分割的說法?黃仁勳:不,不。你的前提完全錯誤。我們對這些事情非常重視。首先,如果沒有採購訂單,再多的討論也無濟於事。在拿到採購訂單之前,我們能做什麼?所以,首要任務是與所有人密切合作,努力完成預測,因為這些項目需要很長時間才能建成,資料中心的建設更是如此。我們通過預測來確保供需平衡等等。明白嗎?這是首要任務。第二,我們已盡力與儘可能多的人進行預測,但最終您仍然需要下單。或許由於某種原因,您尚未下單。我能怎麼辦?在某些情況下,我們會遵循先到先得的原則。但除此之外,如果您因為資料中心尚未準備就緒,或者某些元件尚未到位而無法搭建資料中心,我們可能會優先服務其他客戶。這只是為了最大限度地提高我們工廠的產能。我們可能會對此進行一些調整。除此之外,優先順序是先進先出。你必須下訂單。如果你不下訂單……當然,這方面有很多傳聞。比如,這一切都源於一篇關於拉里和埃隆和我共進晚餐的文章,文章裡他們懇求我提供GPU 。這事根本沒發生過(That never happened)。我們確實一起吃了頓飯。我們確實一起吃了頓飯,而且那是一頓非常棒的晚餐。他們從來沒有懇求我提供GPU。他們只需要下訂單。一旦他們下訂單,我們會盡力滿足他們的產能需求。我們的流程很簡單。Q:好的。聽起來好像有個排隊機制,然後根據你的資料中心是否準備就緒以及你何時下訂單,你才能在特定時間獲得資源。但這仍然不像是價高者得。這樣做有什麼原因嗎?黃仁勳:我們從來不那樣做。Q:為什麼不直接選擇價高者得呢?黃仁勳:因為這是糟糕的商業做法。你定好價格,然後讓別人決定買不買。我知道晶片行業的其他公司會在需求旺盛時調整價格,但我們不會。這從來都不是我們的行事方式。您可以信賴我們。我更願意做一個可靠的人,成為行業的基石。您無需猜測。如果我報了價,那就是我們報的價格。就是這樣。如果需求激增,那就順其自然。Q:另一方面,這就是為什麼你和台積電保持著良好的合作關係,對吧?黃仁勳:是的,輝達和他們合作已經快30年了。輝達和台積電之間沒有正式的法律合同。所以總會有些不公平的待遇。有時候我判斷對,有時候我判斷錯。有時候我能拿到更好的價格,有時候會拿到更差的價格。但總的來說,我們之間的關係非常棒。我完全信任他們,完全可以依靠他們。選擇輝達,有一點可以肯定:今年,Vera Rubin將會非常出色。明年,Vera Rubin Ultra將問世。後年,Feynman將橫空出世。再後年,我還沒公佈名字呢。每年,你都可以信賴我們。你得去全世界找找其他 ASIC 團隊——隨便挑一個——才能找到一個可以讓你說:“我可以把我的全部家產都押上,我可以把我的整個公司都押上,你們每年都會為我服務。你們的token成本每年都會下降一個數量級,我可以像信賴時鐘一樣信賴你們。”(“I can bet the farm, I can bet my entire business that you will be here for me every single year. Your token cost will decrease by an order of magnitude every single year. I can count on it like I can count on the clock.”)我剛才提到了台積電。歷史上沒有任何其他代工廠能做到這一點。但如今,你可以這樣評價輝達。每年你都可以信賴我們。如果你想購買價值十億美元的AI工廠計算資源,沒問題。如果你想購買價值一億美元的,沒問題。你想購買價值一千萬美元的,或者僅僅是一個機架,都沒問題。或者僅僅是一張顯示卡,好的,沒問題。如果你想訂購價值一千億美元的AI工廠,沒問題。我們是當今世界上唯一一家可以這樣說的公司。台積電的情況也一樣。我想買一台,買十億台,都沒問題。我們只需要按部就班地做好規劃,做所有成熟企業都會做的事情。所以我認為,輝達能夠成為全球人工智慧產業的基石,是我們花了二十多年才取得的成就。這需要巨大的投入和奉獻。公司的穩定性、公司的持續發展,對我們來說至關重要。我們應該向中國出售人工智慧晶片嗎?Q:好的。我想問問關於中國的問題。其實我也不知道對向中國出售晶片到底好不好有什麼看法,但我喜歡和嘉賓唱反調。所以,上次達里歐做客“誰支援出口管制”節目時,我問他,為什麼美國和中國不能都擁有資料中心領域的天才人才呢?不過既然你持相反觀點,那我就反過來問你。換個角度來看,Anthropic Games幾天前發佈了Mythos Preview 。他們甚至沒有公開發佈這款Mythos模型,因為他們說它擁有如此強大的網路攻擊能力,在確保所有零日漏洞都被修復之前,世界還沒有做好準備。但他們表示,Mythos在所有主流作業系統和瀏覽器中都發現了數千個高危漏洞。他們甚至在OpenBSD中也發現了一個漏洞,而OpenBSD正是專門設計用來避免零日漏洞的作業系統。他們發現的這個漏洞已經存在了27年。因此,如果中國能夠獲得人工智慧晶片,訓練像 Claude Mythos 這樣具有網路攻擊能力的模型,並利用更強大的計算能力運行數百萬個實例,這會構成威脅嗎?黃仁勳:首先,Mythos 的訓練所用的計算能力和計算量都相當普通,但訓練所用的卻是一家非常優秀的公司。這種計算能力和計算類型在中國非常普遍。所以你首先需要明白,晶片在中國是存在的。他們生產了全球60%的主流晶片,甚至可能更多。對他們來說,這是一個非常龐大的產業。他們擁有一些世界上最頂尖的電腦科學家。眾所周知,所有這些人工智慧實驗室中的大多數人工智慧研究人員都是中國人。他們擁有全球50%的人工智慧研究人員。所以問題是,考慮到他們已經擁有的所有資源——他們擁有豐富的能源、大量的晶片、以及絕大多數的人工智慧研究人員——如果你擔心他們,那麼創造一個安全世界的最佳方法是什麼?將他們視為受害者,把他們變成敵人,可能並非最佳方案。他們是對手。(Victimizing them, turning them into an enemy, likely isn’t the best answer. They are an adversary.)我們希望美國獲勝。但我認為,開展對話和研究性對話或許是最穩妥的做法。由於我們目前將中國視為對手的態度,這方面明顯缺失。我們的人工智慧研究人員和他們的人工智慧研究人員必須進行真正的對話。我們必須努力就人工智慧的用途達成共識。至於尋找軟體漏洞,這當然是人工智慧的職責所在。它會在很多軟體中發現漏洞嗎?當然會。軟體漏洞數不勝數。人工智慧軟體中也存在大量漏洞。這正是人工智慧的職責所在,我很高興人工智慧已經發展到能夠幫助我們大幅提高生產力的水平。網路安全、人工智慧網路安全、人工智慧安全、人工智慧隱私和人工智慧保障等領域的生態系統非常豐富,但卻常常被忽視。一個龐大的人工智慧初創企業生態系統正在努力為我們創造這樣的未來:一個功能強大的人工智慧代理被成千上萬個其他人工智慧代理環繞,共同守護著它的安全。這樣的未來必將到來。讓人工智慧代理在無人監管的情況下四處運行,這簡直是瘋了。我們非常清楚,這個生態系統需要蓬勃發展。事實證明,這個生態系統需要開源。這個生態系統需要開放的模型。他們需要開放的技術堆疊,這樣所有的人工智慧研究人員和優秀的電腦科學家才能建構強大且安全的AI系統。因此,我們必須確保開源生態系統的活力。這一點不容忽視。很多開放原始碼專案都來自中國。我們不應該扼殺它。關於中國,我們當然希望美國擁有儘可能多的計算能力。我們受限於能源,但我們已經投入大量資源來解決這個問題。我們絕不能讓能源成為國家發展的瓶頸。但我們也希望確保全世界的人工智慧開發者都基於美國的技術堆疊進行開發,並將人工智慧的貢獻和進步——尤其是在開放原始碼的情況下——貢獻給美國生態系統。如果建立兩個生態系統——一個是只能運行在外國技術堆疊上的開源生態系統,另一個是運行在美國技術堆疊上的封閉生態系統——那將是極其愚蠢的。我認為這對美國來說將是一個糟糕的結果。Q:由於事情很多,我先簡單概括一下。我認為,回到駭客攻擊中提到的浮點運算能力差距問題,沒錯,他們的確擁有計算能力,但他們實際能夠生產的浮點運算能力只有美國的十分之一。那麼,他們最終能否訓練出像 Mythos 這樣的模型呢?答案是肯定的。但問題在於,由於失敗案例更多,美國實驗室能夠率先達到這種能力水平。因為 Anthropic 公司搶先一步,他們會說:“好吧,我們先保留一個月,讓所有美國公司都有機會使用。他們會修復所有漏洞,然後我們再發佈。”此外,即便他們訓練出了這樣的模型,大規模部署的能力也至關重要……如果一個網路駭客擁有上百萬個這樣的模型,那肯定比只有一千個要危險得多。所以推理計算能力真的非常重要。事實上,他們擁有如此多優秀的AI研究人員,這才是真正令人擔憂的地方,因為是什麼讓這些工程師研究人員如此高效?答案是計算能力。如果你和美國的任何一家人工智慧實驗室交談,他們都會說瓶頸在於計算能力。無論是DeepSeek的創始人,還是Qwen的領導層,都說過類似的話。他們都認為瓶頸在於計算能力。那麼問題來了,難道不應該讓美國公司憑藉更強大的計算能力率先達到Mythos等級,為我們的社會做好準備,趕在中國之前,因為中國計算能力較弱,這樣做不是更好嗎?黃仁勳:我們應該永遠爭第一,永遠擁有更多。但要讓你描述的結果成真,就必須走極端。他們必須完全沒有計算能力。如果他們有一些計算能力,問題在於需要多少?中國的計算能力非常龐大。要知道,中國可是全球第二大計算市場。如果他們想整合計算資源,完全可以滿足需求。而且,他們擁有的能源量簡直驚人,不是嗎?人工智慧本質上就是一個平行計算問題,不是嗎?既然能源是免費的,為什麼他們不能把晶片的數量增加4倍、10倍甚至更多呢?他們擁有如此多的能源。他們的資料中心空空蕩蕩,電力卻依然充足。你知道他們有“鬼城”,他們的資料中心也一樣空置。他們的基礎設施容量如此龐大。如果他們願意,他們完全可以把更多的晶片集中起來,那怕是更落後工藝的晶片他們的晶片製造能力位居世界前列。半導體行業都知道他們壟斷了主流晶片市場。他們的產能過剩。因此,認為中國無法製造人工智慧晶片的說法完全是無稽之談。當然,如果你問我,如果全世界完全沒有計算能力,美國會不會更領先?但這根本不可能。這並非現實。他們現在的計算能力已經非常充足了。你所擔心的那個問題,他們所需的計算能力閾值,他們早已達到,甚至超過了。所以我認為你誤解了人工智慧的本質,它就像一個五層蛋糕,最底層是能源。能源充足時,晶片就足夠了;晶片充足時,能源就足夠了。例如,美國能源匱乏,這就是為什麼輝達必須不斷改進我們的架構,並進行這種極致的協同設計,以便在我們出貨的晶片數量有限的情況下——因為能源供應極其有限——實現每瓦吞吐量的驚人水平。但如果你的瓦數完全充足,而且是免費的,你又何必在意每瓦性能呢?你已經綽綽有餘了。你可以用舊晶片來做。所以7nm晶片本質上就是Hopper。Hopper的能力……我必須告訴你,如今的模型大多都是基於Hopper演算法訓練的,也就是Hopper演算法的生成。所以7nm晶片已經足夠好了。充足的能源是中國的優勢。Q:但問題在於,他們是否真的能夠生產出足夠的晶片。黃仁勳:但他們的確做到了。證據是什麼?華為剛剛經歷了公司歷史上業績最好的一年。Q:最先進的HBM一定需要EUV?黃仁勳:不對。完全不對。你可以把它們組合起來,就像我們把它們和NVL72組合起來一樣。他們已經展示了矽光子學技術,可以將所有這些計算能力連接起來,形成一台巨型超級電腦。你的前提完全錯誤。事實上,他們的AI研發進展順利。世界上最頂尖的AI研究人員,由於計算能力有限,反而創造出了極其智能的演算法。別忘了,我剛才說過摩爾定律每年大約推進25%。然而,憑藉卓越的電腦科學,我們仍然可以將演算法性能提升10倍。我的意思是,卓越的電腦科學才是關鍵所在。毫無疑問,MoE 是一項偉大的發明。毫無疑問,所有令人驚嘆的注意力機制都減少了計算量。我們必須承認,人工智慧的大部分進步都源於演算法的進步,而不僅僅是硬體的改進。既然大部分進步都來自演算法、電腦科學和程式設計,那麼他們龐大的人工智慧研究人員隊伍難道不是他們最根本的優勢嗎?我們都看到了這一點。DeepSeek 絕非無關緊要的進步。如果 DeepSeek 先在華為平台上發佈,那對我們國家來說將是災難性的。Q:為什麼會這樣?因為目前像 DeepSeek 這樣的模型,只要是開放原始碼的,就可以在任何加速器上運行。為什麼將來情況會改變呢?黃仁勳:假設並非如此。假設它是針對華為最佳化的,假設它是針對他們的架構最佳化的。那將使我們處於劣勢。你描述的情況在我看來是好消息。一家公司開發了一款軟體,開發了一個人工智慧模型,而它在美式技術堆疊上運行效果最佳。我認為這是好消息。但你卻把它設定為壞消息。現在我要告訴你壞消息:世界各地的人工智慧模型都是在非美國硬體上開發的,而它們在非美國硬體上運行效果最佳。這對我們來說是壞消息。Q:我感覺並沒有證據表明存在如此巨大的差異,足以阻止你更換加速器。美國實驗室正在所有雲平台、所有不同的加速器上運行他們的模型。黃仁勳:我就是證據。你拿一個針對輝達顯示卡最佳化的模型,然後試圖在其他顯示卡上運行它,這是行不通的。Q:但美國實驗室確實會這樣做。黃仁勳:它們的運行效果並沒有更好。輝達的成功就是最好的證明。人工智慧模型是在我們的技術堆疊上建立的,在我們的技術堆疊上運行效果也最好,這難道不合邏輯嗎?Q:Anthropic 的模型可以在 GPU 上運行,可以在 Trainium 上運行,也可以在 TPU 上運行。黃仁勳:要改變現狀,需要付出很多努力。但看看全球南方國家,看看中東地區。如果所有人工智慧模型在別人的技術堆疊上運行效果最佳,那麼你現在提出的“這對美國來說是件好事”的說法就太荒謬了。Q:但我不太明白這個論點。假設中國公司率先開發出下一代Mythos系統。他們率先發現了美國軟體的所有安全漏洞,但他們可以在輝達硬體上運行,然後把產品運往全球南方國家。他們用輝達硬體開發,這有什麼好處呢?好吧,它的確能在輝達硬體上運行——黃仁勳:這不好,這不好,我們不能讓它發生。Q:你為什麼認為它(指代輝達GPU)是完全可替代的,即使你不向他們供貨,華為也能完全替代?他們落後了,對吧?他們的晶片比你的差。黃仁勳:完全是這樣……現在就有證據。他們的晶片產業規模龐大。Q:你只要對比H200和華為910C的浮點運算能力、頻寬或記憶體容量就知道了,它們的性能大概只有前者的一半到三分之一。黃仁勳:他們用量更多。他們用的量是原來的兩倍。Q:你的論點似乎是,他們擁有巨大的能源,他們需要用晶片來填充這些能源。黃仁勳:而且他們很擅長製造業。Q:我相信最終他們肯定能在生產能力上勝過所有人。但現在還有這關鍵的幾年。黃仁勳:你所說的關鍵年份是指那一年?如果未來幾年至關重要,那麼我們必須確保在這關鍵的幾年裡,全世界所有的人工智慧模型都建立在美國的技術堆疊之上。人工智慧產業有五個層面,每個層面都必須成功。而最需要成功的層面實際上是人工智慧應用。你為什麼如此執著於那個人工智慧模型?那家公司?究竟是出於什麼原因?能源、晶片以及人工智慧研究人員的生態系統使這一切成為可能。Q:如果美國的計算能力存在瓶頸,那麼向中國出口晶片又如何能使美國保持領先地位呢?黃仁勳:我認為美國理應領先。美國的計算能力是世界其他任何地方的100倍。美國理應領先。好吧。美國確實領先。輝達致力於研發最先進的技術。我們確保美國實驗室能夠第一時間獲悉這些技術,並擁有優先購買權。如果他們資金不足,我們甚至會投資扶持他們。美國理應領先。我們希望竭盡所能確保美國保持領先地位。這一點您同意嗎?我們正在為此竭盡全力。你認為輝達是一家美國公司?好的。首先,為什麼我們不制定一個更平衡的監管政策,讓輝達能夠在全球範圍內取得成功,而不是讓美國放棄全球市場?你為什麼要讓美國放棄全球市場?晶片產業是美國生態系統的一部分,是美國技術領先地位的一部分,也是人工智慧生態系統的一部分,更是人工智慧領先地位的一部分。為什麼你們的政策和理念會導致美國放棄世界市場的大部分份額?將人工智慧與你剛才提到的任何東西相提並論都是荒謬的。Q:所以關鍵在於,現在賣晶片對我們長遠發展有何幫助?特斯拉長期以來一直向中國銷售性能卓越的電動汽車。iPhone在中國也暢銷,而且質量極佳。特斯拉並沒有造成中國市場的壟斷。中國仍然會生產自己的電動汽車,並且佔據主導地位。他們的智慧型手機也佔據主導地位。黃仁勳:今天我們開始對話時,您也承認輝達的處境非常特殊。您用了“護城河”這樣的詞。對我們公司而言,最重要的就是我們生態系統的豐富性,而這離不開開發者。全球50%的人工智慧開發者都在中國。美國不應該放棄這塊寶地。Q:但是我們在美國有很多輝達的開發者,但這並不妨礙美國實驗室未來使用其他加速器。事實上,他們現在就在使用其他加速器,這很好,也很棒。如果你向中國銷售輝達晶片,我不明白為什麼在中國就不能這樣做,就像Google可以使用TPU和輝達晶片一樣。黃仁勳:我們必須不斷創新,而且正如你可能知道的,我們的市場份額正在增長,而不是下降。那種認為即使我們在中國競爭,最終也會失去那個市場的想法……你不是在跟一個醒來就覺得自己是個失敗者的人說話。那種失敗者的態度,那種失敗者的假設,在我看來毫無道理。我們不是汽車。我們不是汽車。我可以今天買這個牌子的車,明天再買另一個牌子的車,這很容易。但電腦領域並非如此。x86 架構的存在是有原因的。ARM架構如此根深蒂固也是有原因的。這些生態系統難以替代。這需要耗費大量的時間和精力,而且大多數人都不願意這樣做。因此,我們的職責是繼續培育這個生態系統,不斷推進技術發展,從而在市場競爭中保持優勢。如果按照你描述的那種前提來劃分市場,我根本無法接受。這完全說不通。因為我不認為美國是失敗者,我們的行業也不是失敗者。這種失敗論調,這種失敗心態,在我看來毫無道理。Q:但他們之所以從你這裡購買是有原因的。我們有來自中國公司創始人的引述,他們表示公司在計算能力方面遇到了瓶頸。黃仁勳:因為我們的晶片更好。總的來說,我們的晶片更好。這一點毋庸置疑。如果沒有我們的晶片……您能承認華為今年的業績創下紀錄嗎?您能承認一大批晶片公司都上市了嗎?您能承認嗎?您是否也承認,我們過去在該市場佔據了很大的份額,而現在份額已經大幅下降?我們也可以承認,中國佔據了全球科技產業約40%的份額。為了美國科技產業的利益而放棄這個市場,是對我們國家的損害,是對我們國家安全的損害,也是對我們科技領導地位的損害。這一切僅僅是為了一家公司的利益。這在我看來毫無道理。Q:我有點糊塗了。感覺你好像在說兩件事。一是如果我們能參與競爭,我們的晶片性能會遠勝華為,所以我們肯定能贏下這場與華為的競爭。二是就算沒有我們,他們也會做同樣的事情。這兩件事怎麼可能同時成立呢?黃仁勳:這顯然是事實。如果沒有更好的選擇,你只能選擇唯一的選擇。這怎麼會不合邏輯呢?這明明很合乎邏輯。Q:他們想要輝達晶片的原因是,輝達晶片性能更好。黃仁勳:是的Q:更好的模型需要更多的計算資源。更多的計算資源意味著你可以訓練出更好的模型。黃仁勳:不,它就是更好。它更好,因為它更容易程式設計。我們擁有更好的生態系統。但無論“更好”指的是什麼,無論“更好”指的是什麼……當然,我們會把計算資源輸送給他們。那又怎樣?事實是我們能從中受益。別忘了,我們能享受到美國技術領先地位帶來的好處。我們能享受到開發者們在美國技術堆疊上工作的益處。隨著這些人工智慧模型擴散到世界各地,我們也能享受到美國技術堆疊因此成為最佳選擇帶來的好處。我們可以繼續推進和推廣美國技術。我認為這是一件好事。這是美國技術領先地位中非常重要的一部分。現在,你所倡導的政策導致美國電信行業基本上被排擠出了世界市場,以至於我們甚至無法掌控自己的電信業務。我認為這並不明智。這種做法有些目光短淺,而且導致了一些意想不到的後果,我現在正在向你描述這些後果,但你似乎很難理解。Q:好的,我們先退一步。問題的關鍵似乎在於,這裡既有潛在的收益,也有潛在的成本。我們正在努力弄清楚的是,收益是否值得付出成本?我想讓你們意識到潛在的成本。計算是訓練強大模型的輸入。強大的模型確實擁有強大的攻擊能力,例如網路攻擊。美國公司率先達到 Mythos 等級的能力是一件好事,現在他們決定暫緩發佈這些能力,以便美國公司和美國政府能夠在正式發佈該等級能力之前,更好地保護他們的軟體。如果中國擁有更強大的計算能力或更多的眾包計算資源,如果他們能夠更早地開發出類似 Mythos 那樣的計算模型並進行廣泛部署,那將會非常糟糕。這種情況沒有發生的原因之一是,由於像輝達這樣的美國公司,我們擁有了更強大的計算能力。這是將計算資源轉移到中國所要付出的代價。所以,我們暫且不談好處。您是否意識到這是一種潛在的代價?黃仁勳:我還要告訴你,潛在的代價是,我們允許人工智慧技術堆疊中最重要的一層——晶片層——拱手讓出整個市場——全球第二大市場——讓他們得以發展規模,建立自己的生態系統,從而使未來的人工智慧模型以與美國技術堆疊截然不同的方式進行最佳化。隨著人工智慧在全球擴散,他們的標準和技術堆疊將會超越我們,因為他們的模型是開放的。Q:我想我只是對輝達的核心工程師和CUDA工程師有足夠的信心,相信他們能夠進行最佳化——黃仁勳:如你所知,人工智慧不僅僅是核心最佳化。中國是全球最大的開放原始碼軟體貢獻國。這是事實。中國也是全球最大的開放模型貢獻國。這是事實。如今,它建立在美國的技術堆疊之上,也就是輝達的技術堆疊。這是事實。人工智慧技術堆疊的五個層面都至關重要。美國應該力爭拿下所有五個層面。它們都不可或缺。當然,最重要的層面是人工智慧應用層。這一層會滲透到社會各個角落,被應用最為廣泛,也將從這場工業革命中獲益最多。但我的觀點是,每一層都必須成功。如果我們嚇唬全國人民,讓他們覺得人工智慧就像核彈一樣,讓每個人都憎恨人工智慧、害怕人工智慧,我不知道這對美國有什麼好處。這只會害了美國。如果我們嚇得所有人都不敢從事軟體工程工作,因為人工智慧會扼殺所有軟體工程崗位——結果導致我們一個軟體工程師都沒有——那我們也是在害美國。如果我們因為電腦視覺完全免費,人工智慧的工作能力不會比放射科醫生差,就嚇跑所有人,讓大家都不想當放射科醫生,那我們就誤解了工作和任務之間的區別。放射科醫生的工作是照護病人,而任務是解讀掃描結果。如果我們對這一點理解如此深刻,嚇跑所有人去讀放射科,那麼我們將面臨放射科醫生短缺和醫療資源匱乏的問題。所以我的意思是,當你設定一個如此極端的前提,一切都從零到無窮大,最終只會嚇到人們,而這根本不是事實。生活並非如此。我們希望美國領先嗎?當然希望。我們需要在各個層面都保持領先地位嗎?當然需要。當然需要。今天你談到Mythos,是因為Mythos很重要。沒錯。太好了。但幾年後,我預言,當我們想要推廣美國技術體系,當我們希望美國技術走向世界——走向印度、走向中東、走向非洲、走向東南亞——當我們的國家想要出口,因為我們想要出口我們的技術,我們想要出口我們的標準時,我希望你我再次進行同樣的對話。我會詳細地告訴你今天的對話,告訴你你的政策和你的設想是如何導致美國毫無理由地拱手讓出世界第二大市場。我們不應該放棄。如果輸了,那就輸了。但我們為什麼要放棄呢?現在沒人主張非此即彼。沒人主張非此即彼,也就是說我們應該一直把所有東西都運到中國去。沒人主張那樣。我們應該始終擁有最先進的技術。我們應該始終擁有最多的技術,並且是第一。但我們也應該努力在全球範圍內競爭並取得勝利。這兩件事可以同時進行。這需要一些細緻入微的思考,一些成熟的態度,而不是絕對的。世界本來就不是絕對的。Q:因為受到各種限制(例如拿不到EUV光刻機),中國的晶片真的能出口到世界各地,從而確立行業標準嗎?黃仁勳:那我們直接看事實吧?Blackwell的光刻技術真的比Hopper先進50倍嗎?真的有50倍嗎?差遠了。我一直在重複這句話:摩爾定律已經失效了。從電晶體本身的性能來看,Hopper和Blackwell之間的差距大概是75%。兩者相隔三年,差距高達75%。Blackwell爾的性能是Hopper的50倍。我的觀點是,架構至關重要。電腦科學至關重要。半導體物理固然重要,但電腦科學才是重中之重。人工智慧的影響很大程度上源於計算棧,這也是CUDA如此高效、如此受人喜愛的原因。它是一個生態系統,一種計算架構,它提供了極大的靈活性,以至於如果你想徹底改變架構——比如建立類似MoE的架構、類似擴散的架構、或者建立解耦架構——你都能做到。這很容易。所以事實是,人工智慧不僅關乎底層架構,也關乎上層技術堆疊。如果我們擁有針對自身技術堆疊和生態系統進行最佳化的架構和軟體棧,那當然是好事,因為我們今天一開始就討論了輝達生態系統的豐富性。為什麼人們總是喜歡先寫CUDA?確實如此。中國的研究人員也是如此。但如果我們被迫離開中國,首先,這是一個政策錯誤。顯然,這會引發強烈反彈。這對美國來說後果很嚴重。它促進了中國的晶片產業發展,加速了其人工智慧生態系統的轉型升級,迫使其人工智慧生態系統專注於內部架構。現在亡羊補牢,為時未晚,但事已至此。未來你會看到,他們顯然不會止步于于此。他們的製造工藝很出色,他們會繼續在現有及更先進的工藝基礎上發展。先進工藝的差距有10倍嗎?答案是否定的。架構很重要,網路也很重要。這就是輝達收購Mellanox的原因。網路很重要,能源也很重要。所有這些都很重要。事情並不像你試圖簡化的那樣簡單。為什麼輝達不生產多種不同的晶片架構?Q:我們之前討論過台積電在記憶體等方面的瓶頸問題。所以,如果我們身處這樣一個世界:你已經佔據了N3的大部分份額——而且在某個時候你會進入N2時代,並佔據N2的大部分份額——你是否認為你可以回到N7時代,也就是利用舊工藝節點的剩餘產能,然後說:“嘿,人工智慧的需求如此巨大,而我們擴展前沿技術的能力卻無法滿足,所以我們要製造一個Hopper或Ampere架構的處理器,但要運用我們目前掌握的所有數值計算知識以及你提到的所有其他改進”?你認為這種情況會在2030年之前發生嗎?黃仁勳:沒必要。原因在於,每一代產品的架構都不僅僅侷限於電晶體的尺寸。它還涉及到大量的工程設計、封裝、堆疊、數值計算和系統架構。當產能耗盡時,想要輕易地回到之前的製程節點……那需要投入大量的研發資源,誰也負擔不起。我們有能力向前發展,但我認為我們負擔不起回頭路。現在,假設有一天,我們突然意識到:“我們再也無法擁有更多的產能了。”我會選擇回到7nm製程嗎?當然會毫不猶豫地選擇它。Q:我之前和人討論時,有人問過我一個問題:為什麼輝達不同時開展多個架構完全不同的晶片項目?比如,可以開發類似Cerebras的晶圓級晶片,也可以開發類似Dojo 的大型封裝晶片,還可以開發不使用 CUDA 的晶片。輝達擁有足夠的資源和工程人才來平行開發所有這些晶片。考慮到人工智慧和架構的未來發展方向難以預測,為什麼要把所有雞蛋都放在一個籃子裡呢?黃仁勳:哦,我們當然可以。只是我們沒有更好的辦法。我們能做所有這些事情,但效果並不理想。我們在模擬器裡模擬了所有情況,結果證明更糟。所以我們不會這麼做。我們現在做的正是我們想做的項目。如果工作負載發生巨大變化——我指的不是演算法,而是工作負載本身,而這取決於市場格局——我們可能會考慮增加其他加速器。例如,我們最近新增了Groq ,並且計畫將其整合到我們的 CUDA 生態系統中。我們現在這樣做是因為token價值飆升,可以採用不同的定價策略。就在幾年前token要麼是免費的,要麼價格非常低廉。但現在,我們的客戶群體各不相同,他們需要不同的解決方案。因為客戶收入很高——例如我們的軟體工程師——如果我能為他們提供響應速度更快的代幣,從而讓他們比現在更高效,我願意為此付費。但這個市場是最近才出現的。所以我認為我們現在有能力基於響應時間,將同一個模型劃分成不同的細分市場。這就是我們決定擴展帕累托前沿,並建立一個響應時間更快、但吞吐量更低的推理細分市場的原因。在此之前,更高的吞吐量總是更好的。我們認為,未來可能會出現平均售價(ASP)非常高的代幣,即使工廠的吞吐量較低,ASP 也能彌補這一點。這就是我們這麼做的原因。但除此之外,從架構角度來看,如果我有更多資金,我會加大對輝達架構的投入。Q:最後一個問題。假設深度學習革命沒有發生,輝達會做什麼?黃仁勳:加速計算,這和我們一直以來所做的一模一樣。我們公司的理念是摩爾定律將會……通用計算在很多方面都很出色,但對於很多計算任務來說,它並非理想之選。因此,我們將一種名為GPU(CUDA)的架構與CPU結合起來,從而加速CPU的工作負載。不同的程式碼核心或演算法可以解除安裝到GPU上執行。這樣一來,應用程式的運行速度就能提升100倍、200倍。這項技術有那些應用呢?顯然,它適用於工程、科學、物理、資料處理、電腦圖形學、圖像生成等各個領域。即使人工智慧今天尚未出現,輝達的規模也會非常龐大。原因相當根本,那就是通用計算的擴展能力已基本達到極限。而唯一的方法……或者說,實現這一目標的方法之一,就是通過領域特定加速。我們最初關注的領域之一是電腦圖形學,但還有許多其他領域。種類繁多,包括粒子物理和流體動力學、結構化資料處理,以及各種各樣能夠從 CUDA 中受益的演算法。我們的使命是真正將加速計算帶給全世界,推進通用計算無法勝任的應用,並擴展到足以幫助某些科學領域取得突破的水平。早期的一些應用包括分子動力學、用於能源勘探的地震資料處理、圖像處理等等,所有這些領域通用計算的效率都太低,無法勝任。如果沒有人工智慧,我會非常難過。但正因為我們在電腦領域取得了進步,深度學習才得以普及。我們讓任何研究人員、任何科學家、任何學生,無論身處何地,都能使用個人電腦或GeForce顯示卡,開展令人驚嘆的科學研究。這一根本承諾從未改變,絲毫未變。如果你看過GTC,就會發現它最初的部分完全與人工智慧無關。無論是計算光刻、量子化學,還是資料處理等等,都與人工智慧無關。而且這些內容仍然非常重要。我知道人工智慧非常有趣,也很令人興奮,但還有很多人在做著與人工智慧無關的重要工作,張量也不是唯一的計算方法。我們希望能夠幫助到所有人。 (芯榜)
NAND價格兩個月內飆升80%
隨著NAND快閃記憶體價格短期內飆升,供應短缺的跡象開始顯現。據市場研究公司DRAMeXchange 4月14日發佈的資料顯示,自2月底以來的大約六周內,NAND快閃記憶體現貨價格已上漲近80%。SLC 2Gb固態硬碟的價格從2月底的2.10美元上漲了約62%,至4月初的3.41美元;而SLC 1Gb固態硬碟的價格則從1.75美元上漲了約64%,至2.87美元。同期,MLC 64Gb產品價格從8.37美元飆升約79%至15.00美元,32Gb產品價格也從5.25美元上漲約65%至8.67美元。現貨價格是分銷市場形成的指標;雖然波動性很大,但它們被認為是反映供需變化的先行指標。由於此次價格上漲涵蓋了從低容量到中容量的整個產品範圍,一些人將其解讀為供需結構轉變的初始階段,而不僅僅是簡單的庫存調整。首先,供應方面仍然存在限制。由於主要儲存器製造商將裝置和投資集中於高頻寬記憶體(HBM)的生產,NAND的擴張仍然有限。分析表明,三星電子和SK海力士也在調整其生產比例,以專注於高利潤的HBM快閃記憶體和企業級固態硬碟,這一過程正在減少通用NAND快閃記憶體的供應,加劇了供應緊張的局面。與此同時,需求正在結構性地增長。這是因為隨著人工智慧(AI)行業從以學習為中心的方法轉向以推理為中心的方法,資料儲存需求正在激增。隨著企業級固態硬碟(SSD)在資料中心和伺服器中的應用不斷擴大,NAND快閃記憶體的需求基礎正在迅速重塑。全球投資銀行摩根大通在近期的一份報告中分析指出,“未來三年,受企業級固態硬碟(SSD)需求增長的推動,NAND市場將以年均30%的速度增長”,並補充道,“NAND正在從以消費者為中心的儲存領域轉型為人工智慧基礎設施的核心領域。”美國金融投資公司Evercore ISI也評估認為,“NAND正在從周期性儲存領域轉型為受益於人工智慧的結構性產業”,並指出“至少到2028年,NAND的供應仍將保持有限,而需求卻在加速增長。”這種環境促使雲公司與儲存裝置製造商之間的戰略合同不斷增多。隨著包含價格底線和預付款等條款的合同結構日益普及,市場波動性也呈現出緩解的跡象。三星電子的“QLC第九代V-NAND”產品。全球NAND廠商正在研發的下一代技術——高頻寬快閃記憶體(HBF)技術也備受關注。去年,SanDisk 在一次投資者簡報會上公佈了其 HBF 開發路線圖。HBF 是一種將 TSV 堆疊技術應用於 NAND 快閃記憶體的結構,旨在提高頻寬和擴展容量;目前該技術正在開發中,目標是在年內交付樣品,並在 2027 年實現全面應用。在韓國,被譽為“HBM 之父”的韓國科學技術院 (KAIST) 金正浩教授於去年二月發表了題為“HBF 技術開發成果、路線圖及商業化戰略”的演講,介紹了該技術路線圖。金教授解釋說:“如果說 CPU 是 PC 時代的關鍵,低功耗是智慧型手機時代的關鍵,那麼記憶體就是人工智慧時代的關鍵。”他補充道:“HBM 決定速度,而 HBF 決定容量。” (大話晶片)
AI 記憶首次超越人類:幻覺率壓至 0.5%,長對話不再瞎編
一項"類腦"記憶架構,讓AI記住你卻不"編造"你。你有沒有過這樣的體驗——跟AI助手聊了半天,把自己的家庭情況、工作經歷、喜好厭惡一股腦兒說了個遍。結果下一次打開對話,它一臉茫然地問候你:"請問您叫什麼名字?"更讓人頭皮發麻的是另一種情況:你明明從來沒提過自己有個姐姐,它卻煞有介事地說"你姐姐在紐約上學吧"——語氣篤定得讓你差點信以為真。第一種叫“健忘”,第二種叫“幻覺”,加在一起,就是今天AI記憶系統的兩大頑疾。最近,一家叫Synthius的AI公司發了一篇論文,提出了一個很有意思的解決思路:它借鑑了人類大腦的記憶機制,讓AI的記憶精準率第一次超過了人類,同時還把“編造資訊”的機率壓到了不到0.5%。AI壓根沒有記憶,主流方案各有各的坑別被ChatGPT們的“體貼”騙了,大語言模型本身是沒有任何持久記憶能力的。你每一次發消息給它,在它眼裡都是“初次見面”。我們之所以覺得它“記得”上次聊了什麼,純粹是因為系統在背後做了一件事:把你之前所有的聊天記錄,又原封不動地複製了一遍,貼上在最新消息的前面。這種做法在技術上叫“全上下文重放”。想像一下,你每次給朋友發消息之前,都要把之前幾個月的聊天記錄全部重新看一遍,然後才能回一句“好的”。對話少的時候還行,聊了幾百條之後,光是“複習”就要花掉大量時間——這就是AI面對長對話時的真實處境。這種“翻舊帳”式的做法至少有三個致命問題:第一,越來越貴:每次回覆都要重新處理全部歷史。這裡的“處理”指的是模型的推理過程——大模型每次生成回答都要消耗算力,你喂給它的文字越多,成本越高。聊了500條消息後,光“複習”一次就要處理大約2.5萬個Token。第二,“中間遺忘”效應:科學家發現,AI在處理超長文字時,對開頭和結尾的資訊記得清清楚楚,但對中間部分經常“選擇性失憶”。就跟你看書只看開頭和結尾一樣——中間講了啥真沒記住。第三,越聊越容易編:上下文越長,AI越容易把不同時候提到的資訊攪和在一起,拼湊出一些你沒說過的話。三者疊加,導致一個尷尬的現實:你跟AI聊得越久,它可能反而越不靠譜。既然全量復讀太蠢,工程師們自然想了幾種更聰明的辦法。簡單來說有這三類:“滑動窗口”——只保留最近20條消息,之前的一律不要。快、省,但丟了96%的資訊——前面所有重要的背景全沒了,你重新提一嘴之前說過的話,AI可能完全接不上。“摘要壓縮”——定期讓AI把舊對話壓縮成總結。省空間,但總結過程會丟失大量細節。比如你說過“我2023年3月到6月在東京實習”,幾輪壓縮後可能就變成了“我在日本待過”。“向量檢索”(RAG)——這是目前業界最主流的方案。先把對話切成小塊,用嵌入模型給每段話打上“語義指紋”,需要時根據語義相似度搜尋最相關的幾塊。但有個隱蔽缺陷:搜出來的東西不一定靠譜。你問“他的工作是什麼”,系統返回幾條“看起來像”的片段,AI拿到這些似是而非的材料,很容易順著編出一個錯誤答案。這三種方案各有各的長處,但都留下了一個共同隱患:沒人認真測過它們“瞎編”的機率有多高。就好比評選拍照手機,只比誰拍得更清楚,沒人比誰美顏過度——方向就不對。更深層的問題在於,當對話歷史越來越長,其中相互矛盾、過時或模棱兩可的資訊越來越多,這種上下文污染會讓模型更容易被髒資料帶偏。1813道題的考試,AI憑什麼打敗人類要講清楚這篇論文的貢獻,先得瞭解它是怎麼“打分”的。研究人員使用了一套叫LoCoMo的公開基準測試——這套考試的做法是:先找兩組人進行多輪深度聊天,聊工作、家庭、健康、旅行、愛好,家長裡短都聊。聊完後,研究者根據對話內容出題。全部考試包含兩個維度——10組深度對話、20位參與者,涵蓋了從單跳事實查詢到複雜推理的多種難度聊完後,研究者根據對話內容出了1813道題,分五種類型:單跳事實查詢,比如“他的職業是什麼?”,這種題只需一次檢索就能回答;多跳推理,比如“他有沒有去過他大學室友所在的城市?”——需要先回憶室友是誰,再回憶室友所在城市,再做判斷,至少要跳兩步;時間推理,比如“他在那家公司待了多久?”,考察模型對時序關係的理解;開放推理,比如“根據他提到的資訊,他可能適合什麼工作?”,答案本身就不唯一;以及最關鍵的誘導性問題——比如“你姐姐最近怎麼樣?”而對話中從未出現過這個人。其中最後一種“誘導性問題”最為關鍵——專門測試AI能不能勇敢地說“我不知道”。結果發現,人類在這個考試上的正確率是87.9%。而之前最好的AI記憶系統MemMachine得分91.69%——已經超過人類了,但它沒有報告誘導性問題的單獨得分,也就是說沒人知道它“瞎編”的機率有多高。新思路:不是“搜聊天記錄”,而是“查個人檔案”Synthius-Mem的核心思路:不要讓AI去“翻聊天記錄”,而是讓AI去“查一份已經整理好的個人檔案”。在你跟AI聊天的過程中,系統已經在後台悄悄從你的話語中提取關鍵資訊,分門別類整理成一份結構化記憶。等你提問時,AI不是去翻原始聊天記錄,而是直接翻這份檔案。前者像是在一摞聊天記錄裡大海撈針;後者像是打開一本編好目錄的檔案冊,直接翻到對應頁碼。從資訊理論的角度看,這種做法本質上是先壓縮再檢索:把原始對話的高冗餘資訊蒸餾為低冗餘的結構化事實,既減少了檢索噪聲,又讓AI獲得了明確的置信度訊號——有就是有,沒有就是沒有。更有意思的是,檔案不是一個大雜燴。它參考了腦科學的研究成果,把記憶分成了六個“語義域”:為什麼要分這麼細?論文的回答是:因為你的大腦就是這麼幹的。腦科學發現,人類大腦中“事件記憶”(海馬體)、“知識記憶”(新皮層)和“情緒偏好”(眶額葉)由不同的神經回路分別處理。你回憶“昨天吃了什麼”和“朋友叫什麼”,走的是兩條完全不同的通道。從工程角度看,這種分域設計天然適配知識圖譜的儲存結構——每個語義域就是一張獨立的子圖,實體是節點,關係是邊,查詢時只需在對應子圖內做圖遍歷,效率遠高於在整個對話庫中做向量檢索。分域還帶來一個額外好處:不同語義域可以獨立更新、獨立壓縮,互不干擾。為什麼“分抽屜”能防幻覺?傳統方案下,你問AI一個不存在的事情,向量資料庫總會返回幾條“看起來像”的內容,AI拿到這些“噪音”很容易就編出答案。但“分域”方案下,如果你從來沒說過自己有姐姐,“社交關係”域裡就不會有這個條目。AI一查——空的。這個“空”本身就是一個明確訊號:系統應該回答“我不知道”,而不是瞎編。成績單亮眼,但也沒那麼完美Synthius-Mem 核心成績單:綜合精準率:94.37%(人類基線:87.9%)核心資訊精準率:98.64%(810道題僅錯11道)抗幻覺率:99.55%(442道誘導題僅錯2道)時間推理精準率:89.32%挑重點說。綜合精準率領先人類6個多百分點,並不是因為AI“更聰明”,而是因為它通過結構化整理將關鍵資訊從數萬條對話中精準提煉出來,避免了人類閱讀長文字時的注意力衰減。99.55%的抗幻覺率最值得關注——值得注意的是,LoCoMo基準測試自2024年在ACL會議上發佈後,已成為記憶系統的標尺——Mem0、MemOS、MemMachine等主流方案都在同一套卷子上考試,但鮮有系統把抗幻覺率單獨拎出來作為核心考核指標。公平起見,也有不那麼好看的數字。“開放推理”得分78.26%,AI對需要綜合推斷的問題還不夠強。“邊緣細節”只有57.66%,但論文明確說這是有意為之——隨口提的餐廳名字、半開玩笑的綽號,AI不會記。因為如果什麼雞毛蒜皮都存,記憶庫就會變成一個巨大的垃圾桶,真正重要的資訊反而會被淹沒。工程層面也有利多。全量重放在聊了500條消息後每回覆一條要處理約2.6萬Token,而結構化查詢只需約5000個,推理成本降低了約80%。在“個人檔案”裡找資訊的平均耗時約22毫秒——大概是人類眨一次眼的十分之一,幾乎可以忽略不計。不只是技術指標,更關乎信任AI的記憶幻覺已經開始在現實中惹麻煩了。2026年央視“3·15”晚會上,“向AI大模型投毒”的黑灰產業被曝光——有人故意在網頁植入虛假資訊,通過資料投毒污染AI的知識來源,讓其搜尋後信以為真,再傳播給更多使用者。更早之前,全國首例“AI幻覺”侵權案曾引發熱烈討論:一個高考生家長用AI查詢大學報考資訊,AI不僅給出錯誤答案,還非常自信地確認了錯誤資訊,導致考生志願填報受到影響。而當AI開始“記住”你——你的工作、家庭、朋友、偏好——“瞎編”的後果就從“給出了一個錯誤答案”升級成了“編造了一個關於你的‘事實’”。試想一下:如果AI助手在你同事面前信誓旦旦地說“他跟我說過不喜歡你們團隊”,而你從未說過這樣的話——這種“幻覺”的破壞力遠比推薦錯一本書嚴重得多。所以這篇論文把抗幻覺能力視為整個記憶系統的安全底線。它的原話是:“一個記憶系統如果不敢說‘我不確定’,就不應該被投入使用。”AI記憶這個領域最近一兩年格外熱鬧。Mem0拿了2400萬美元融資,被亞馬遜AWS選為官方記憶服務;MemOS、TiMem、MemMachine等方案不斷湧現;清華大學、華東師範大學、北卡羅來納大學等頂尖學術團隊也在同期推出各自的研究。整個賽道正從一個“小眾技術問題”變成AI Agent的“記憶層”基礎設施。行業預測到2030年,AI Agent的市場規模將達520億美元以上,而“記憶層”就是AI從“無狀態工具”升級為“有狀態夥伴”的關鍵——一個記不住你的AI,終究只是個高級搜尋引擎。Synthius-Mem這篇論文真正的價值,不在於它提出了一個完美的系統,而在於它指明了一個方向:與其讓AI越來越努力地在海量原始對話中檢索,不如先把這些對話蒸餾成一份高品質的結構化記憶,再做精準查詢。這種“先整理再尋找”的思路,雖然樸素,卻可能是解決AI記憶幻覺最務實的路徑。AI記憶的核心挑戰,從來不是“記住更多”,而是“記住對的,不記錯的”——這既是一個工程命題,也是一個信任命題。當AI開始真正走進我們的生活,“記住你”這件事就不再只是一個技術指標,它更關乎信任。畢竟,你可以原諒一個朋友忘了你上次說過什麼,但你很難原諒一個“智能助手”在別人面前,煞有介事地講了一件你從沒做過的事。 (鈦媒體AGI)
Fortune雜誌—一個二十出頭的年輕人,如何在沒有任何學歷的情況下進入矽谷?
加布裡埃爾·彼得松的童年與許多Z世代並無二致:收集寶可夢(Pokemon)卡牌、在《我的世界》(Minecraft)中搭建虛擬世界,對大學和職業的焦慮似乎還很遙遠。但到了高中時期,在瑞典一個約5,000人口的小鎮長大的他,漸漸對單純“玩遊戲”失去了興趣,而是好奇遊戲背後的運行機制。這種好奇心迅速演變為對創業、軟體以及人工智慧的深度痴迷——在他看來,這將是下一輪重大的技術變革。加布裡埃爾·彼得松沒有大學學歷,甚至沒有高中畢業證,但他成功入職OpenAI。他的秘訣很簡單:主動證明自己能勝任這份工作。圖片來源:Courtesy of Gabriel Petersson/Sigil Wen & Extraordinary.com podcast彼得松沒有遵循“完成高中學業、攻讀電腦科學專業、再逐步進入科技公司”這一傳統路徑,而是選擇了徹底跳出體制。在高三那年,這位當時才17歲的少年輟學,與幾位夥伴共同創辦了電商資料初創公司Depict.ai。這些合夥人後來分別進入Lovable和樂高(Lego)等公司任職。五年後,這一大膽選擇得到了回報。22歲的彼得松已在ChatGPT母公司OpenAI擔任研究員(隸屬於正在逐步整合的Sora團隊),年薪達到六位數。他也因此成為一種樸素理念的另類“代言人”:只要你願意展示實幹能力,學歷鴻溝是可以跨越的。一個二十出頭的年輕人如何在沒有任何學歷的情況下進入矽谷在沒有大學學歷,甚至連高中畢業證都沒有的情況下,想進入矽谷最炙手可熱的公司,需要一套截然不同的求職策略。對彼得松而言,關鍵在於:在別人開口要簡歷之前,就先證明自己能勝任這份工作。結束在Depict的工作後,彼得松加入了由Y Combinator支援的AI初創公司Dataland,並於2021年搬到紐約。按大多數標準來看,他的事業正蒸蒸日上。直到他去了一趟舊金山。彼得松表示:“我至今還記得第一周的感受。我興奮到睡不著覺……在那裡,無論你走到那裡,都能看到人們在討論程式設計、討論創業,談論的都是我最感興趣的話題……我當時完全被震撼到了。”這次旅行徹底重塑了他的職業目標。但一個顯而易見的挑戰擺在面前:一個高中輟學生,如何與常春藤盟校或頂尖工程項目出身的佼佼者競爭?他的答案是徹底放棄在“學歷”上的競爭,轉而用“能力證明”來取勝。彼得松沒有只通過傳統管道投遞簡歷,他制定了一套“主動出擊”的求職打法。方法很簡單:簡要介紹自己,真誠表達對公司的興趣,最關鍵的是展示一個專門為對方開發的作品。他表示:“你可以這樣說:‘我對貴公司特別感興趣,所以我做了一個小項目,開發了一個與你們業務相關的網站。通過這種方式,我可以直接證明自己的綜合能力,而不是和別人拼背景。”這套策略幫助他順利入職Dataland,隨後他又在矽谷AI研究機構Midjourney再次驗證了這一方法。當時,他通過傳統管道投遞的申請屢屢碰壁,其中就包括早期被OpenAI拒絕的一次經歷。於是他進一步加碼:連續一周每天工作16個小時,為Midjourney打造了一個定製網站,並附上一段視訊演示,詳細講解程式碼實現。這次努力最終奏效——Midjourney在2023年聘用他擔任軟體工程師。彼得松補充道:“我用視訊演示自己做的產品,既展示了理解能力,也展現了溝通能力。他們能看到這個人是靠譜的。相比任何‘替代性指標’,這種方式能讓我更全面地證明自己。”在Midjourney的經歷為他打開了下一扇門。一位朋友將他引薦給OpenAI的研究團隊——正是那家一年前拒絕過他的公司。這一次,他有備而來。2024年12月,他成功入職。他表示,這段經歷讓他明白了一個道理:當你的實力已經今非昔比,再次挑戰曾經拒你於門外的機會,往往會帶來不同的結果。彼得松:只要具備正確心態,Z世代也能拿下理想工作對彼得松而言,在Midjourney和OpenAI的經歷不僅僅是兩份工作,更驗證了一個他如今反覆向年輕人傳遞的觀點:在一個越來越看重學歷的招聘環境中,頂級職業機會並不只屬於少數人。他認為,即便是在全球最具影響力的公司工作的人,也並非看起來那麼“遙不可及”。彼得松表示:“只要把自己放在合適的環境中,做對的事情,任何人都可以參與競爭。”他還指出,許多年輕職場人會陷入一個誤區——在同一崗位上停留太久,從而限制了自身發展。彼得松在23歲之前就已經在近六家公司工作過,他認為,職業生涯早期應該優先追求“學習速度”,而不是穩定性。在許多年輕人進入職場並擔心AI會取代自己目標崗位的時代,彼得松堅信:對於那些願意擁抱技術、而不是恐懼它的人來說,機會依然俯拾皆是。而且,在科技行業歷練後,他指出,即便是那些頂尖人才“也做不到洞悉一切”。(財富中文網)
馬斯克又炒概念?美國稱6G實現突破,中國6G亮底牌,外媒:沒戲了
6G的競爭越來越激烈了!一邊是馬斯克高調宣稱自己在6G上取得重大突破,另一邊是中國默默亮底牌,直接打破三項世界紀錄。可能很多人都以為,中美6G的競爭早就已經結束了,但根本不是。現在的技術佈局,就是未來5年、10年我們能不能在通訊領域繼續“領跑”的關鍵。雖然沒有完全取得勝利,但可以確定的是,中國又走在了前面,更厲害的是,我們直接繞開了別人卡我們脖子的地方,就連外媒看了也不得不感嘆,美國可能沒戲了。一直以來,提到晶片、提到高端通訊,外媒總愛拿光刻機說事兒,認為“沒有EUV光刻機,中國就玩不轉”,只要美國能夠在晶片上實現“卡脖”,中國6G肯定也會被掣肘。但這次北大科研團隊的操作,相當於換了一條賽道,直接把對手甩在了身後。說白了,以前大家搞通訊晶片,都在死磕“把電晶體做小”,越做越精細,越精細就越依賴高端光刻機。但我們不走尋常路,玩起了“光子晶片”。不用追求極致的奈米製程,依託光波傳輸,那怕用中國成熟的90奈米工藝,甚至更老舊的技術,就能做出世界頂級的6G晶片。值得一提的是,這次我們打破的三項世界紀錄,含金量到底有多高呢?現在我們用的5G,頻寬就像家門口的小路,只能容幾輛車並排過。而中國這次突破的250吉赫茲頻寬,相當於把小路拓寬成了一公里寬的高速,容量直接翻了近千倍。再看下載速度,5G下載一部10GB的高畫質電影,得等好幾秒。而我們6G實驗的無線傳輸速度,每秒能到400吉位元,光纖傳輸更是達到512吉位元,下載同一部電影,0.2秒就搞定,快到你滑鼠還沒松開,進度條就滿了。能實現這麼逆天的性能,全靠兩個“黑科技”。其一,薄膜鈮酸鋰調製器,這東西有點意思,難度就在於以前大又脆,很難小型化,但我們把它做成幾百奈米厚的薄膜,徹底解決了訊號轉換的瓶頸;其二,磷化銦探測器,那怕是極微弱的訊號,也能瞬間捕捉到。最解氣的是,這倆核心器件,全是我們自己研發的,不用看任何人臉色。反觀馬斯克宣稱的6G突破,就有點“炒概念”的意思了。所謂的突破,其實就是星鏈衛星的升級,多放幾顆衛星、提升點傳輸速度,解決的是偏遠地區“有沒有訊號”的問題,和我們追求的太赫茲通訊、通感一體化的6G,根本不是一回事。美國的困境還不止於此,5G基站都沒鋪明白,到2025年底,中國已經有超400萬座5G基站,而美國的數量連我們零頭都不到。6G是在5G基礎上迭代的,地基都不牢,還想建高樓?更別說他們拉十國組建的6G聯盟,一年多來只簽聲明,沒搞出任何實質性成果,盟友們也各懷心思,根本擰不成一股繩。中國能在6G上領跑,從來不是偶然。從1G空白、2G跟隨,到3G、4G追趕,再到5G領跑,幾十年的時間,幾代科研人員默默深耕,才換來了今天的底氣。我們不僅有完整的5G產業生態,還有紫金山實驗室的試驗網、“千帆星座”的衛星組網,這些都是我們的底氣。說到底,科技競爭拼的不是嘴上功夫,而是實打實的技術積累。中國6G的突破,不僅掌握了下一代通訊的話語權,更找到了擺脫技術封鎖的新路徑。等到2030年6G正式商用,我們或許會發現,這場賽跑,中國早就把對手遠遠甩在了身後。 (W侃科技)