#演講
【CES 2026】NVIDIA CES 2026 主題演講:AI 與加速計算的工業革命 (完整演講稿)
你好,拉斯維加斯!新年快樂,歡迎來到 CES。這裡的觀眾大概有 3000 人,外面的庭院裡還有 2000 人在觀看,據我在四樓原本應該是 NVIDIA 展區的地方還有 1000 人在觀看這場主題演講。當然,全世界還有數百萬人正在觀看這場直播,共同開啟新的一年。嗯,我們大概有 15 公斤重的乾貨要在這裡塞給大家。非常高興見到大家。每隔 10 到 15 年,電腦行業就會發生一次重設。新的平台轉移會出現:從大型機到 PC,從 PC 到網際網路,從網際網路到雲,從雲到移動端。每一次,應用程式的世界都會瞄準一個新的平台,這就是為什麼它被稱為“平台轉移”。你為新的電腦編寫新的應用程式。但這一次,實際上有兩個平台轉移同時發生。當我們轉向 AI 時,應用程式將建立在 AI 之上。起初,人們認為 AI 本身就是應用程式。事實上,AI 確實是應用程式,但你們將會在 AI 之上建構應用程式。除此之外,軟體的運行方式、軟體的開發方式也發生了根本性的變化。電腦行業的整個製造堆疊(Foundry stack)正在被重新發明。你不再編寫軟體,而是訓練軟體。你不再在 CPU 上運行它,而是在 GPU 上運行它。過去的應用程式是預先錄製、預先編譯並在你的裝置上運行的,而現在的應用程式能夠理解上下文,並且每一次都完全從零開始生成每一個像素、每一個 Token(詞元)。計算因此被從根本上重塑了,這歸功於加速計算,歸功於人工智慧。這五層蛋糕的每一層現在都在被重新發明。這意味著過去十年中大約10兆美元的計算基礎設施現在正在向這種新的計算方式現代化。這意味著每年有數千億美元的風險投資正在投入到現代化和發明這個新世界的過程中。這也意味著 100兆美元的產業,其中一部分研發預算正在轉向人工智慧。人們問錢從那裡來?這就是錢的來源。從傳統方法到 AI 的現代化,研發預算從經典方法向人工智慧方法的轉移。巨大的投資正在湧入這個行業,這也解釋了為什麼我們如此忙碌,去年也不例外。去年是不可思議的一年。(PPT 翻頁卡頓)這裡有一張幻燈片要出來。這就是不做綵排的後果。這是今年的第一場主題演講。我希望這也是你們今年的第一場主題演講,否則你們就已經夠忙的了。我們要把蜘蛛網清掃一下。2025 年是不可思議的一年。似乎所有事情都在同一時間發生,事實上可能確實如此。首先當然是縮放定律(Scaling Laws)。2015 年,第一個我認為真正產生影響的語言模型 BERT 出現了,它帶來了巨大的變化。2017年Transformer 問世。直到五年後的 2022 年,ChatGPT 時刻發生了,它喚醒了世界對人工智慧可能性的認識。那之後的一年發生了一件非常重要的事情。來自 ChatGPT 的第一個o1模型,即第一個推理模型,完全革命性地發明了這個叫做測試時縮放(Test Time Scaling)的概念,這是一個非常符合常識的事情。我們不僅預訓練一個模型讓它學習,我們還用強化學習對它進行後訓練(Post-train),使它能夠學習技能。現在我們還有了測試時縮放,換句話說就是“思考”。你在即時地思考。人工智慧的每一個階段都需要巨大的計算量,而計算定律在繼續擴展。大型語言模型(LLM)繼續變得更好。與此同時,另一個突破發生了,這一突破發生在 2024 年。代理系統(Agentic Systems)在 2025 年開始湧現。它開始普及到幾乎所有地方。代理模型擁有推理、尋找資訊、做研究、使用工具、規劃未來、模擬結果的能力。突然之間,它們開始解決非常非常重要的問題。我最喜歡的代理模型之一叫做 Cursor,它徹底改變了我們在NVIDIA 進行軟體程式設計的方式。代理系統將從這裡真正起飛。當然,還有其他類型的 AI。我們知道大型語言模型並不是唯一的資訊類型。只要宇宙有資訊,只要宇宙有結構,我們就可以教一個大型語言模型、一種形式的語言模型去理解這些資訊,理解它的表徵,並將其轉化為 AI。其中最重要、最大的一個就是物理AI(Physical AI)。即理解自然法則的 AI。物理 AI 是關於 AI 與世界互動的,但世界本身有編碼的資訊,這叫做AI物理學(AI Physics)。也就是說,物理 AI 是與物理世界互動的 AI,而 AI 物理學是理解物理定律的 AI。最後,去年發生的最重要的事情之一是開放模型(Open Models)的進步。我們現在知道,當開源、當開放創新、當全世界每個公司和每個行業的創新被啟動時,AI 將會無處不在。實際上,去年我們看到了DeepSeek R1 的進步,這是第一個開放的推理系統模型。它讓世界大吃一驚,它真正啟動了整個運動。非常非常令人興奮的工作。我們對它非常滿意。現在我們在全世界有各種各樣的開放模型系統,我們現在知道開放模型也已經達到了前沿。雖然穩固地落後於前沿模型六個月,但每六個月都有一個新模型出現,這些模型因為這個原因變得越來越聰明。你可以看到下載量爆炸式增長。下載量增長如此之快,是因為初創公司想參與 AI 革命,大公司想要參與,研究人員想要參與,學生想要參與,幾乎每個國家都想要參與。數字形式的智能怎麼可能拋下任何人呢?所以開放模型去年真正徹底改變了人工智慧。整個行業將因此被重塑。其實我們很久以前就有這種預感。你們可能聽說過幾年前,我們開始建立和營運我們自己的 AI 超級電腦。我們稱之為DGX Cloud。很多人問,你們是要進入雲業務嗎?答案是不。我們建立這些 DGX 超級電腦是為了自己使用。事實證明,我們營運著數十億美元的超級電腦,以便我們可以開發我們的開放模型。我對我們正在做的工作感到非常高興。它開始吸引全世界和各行各業的關注,因為我們在許多不同的領域做著前沿的 AI 模型工作。我們在蛋白質和數字生物學方面的工作:Llama-Protina 用於合成和生成蛋白質。OpenFold 3 用於理解蛋白質結構。Evo 2 用於理解和生成多種蛋白質,也就是細胞表徵的開端。Earth-2:理解物理定律的 AI。我們在 ForecastNet 和 CorrDiff 方面的工作真正徹底改變了人們進行天氣預測的方式。Nemotron:我們在那裡做了開創性的工作。第一個混合 Transformer SSM 模型,速度極快,因此可以思考很長時間,或者非常快地思考不需要很長時間就能產生非常聰明的智能答案。Nemotron-3 是開創性的工作,你可以期待我們在不久的將來發佈 Nemotron-3 的其他版本。Cosmos:一個前沿的開放世界基礎模型,一個理解世界如何運作的模型。Groot:一個人形機器人系統,涉及關節、移動性、運動。這些模型、這些技術現在正在被整合,並且在每一個案例中都向世界開放。前沿的人形機器人模型向世界開放。今天我們要稍微談談Alpamayo,我們在自動駕駛汽車方面所做的工作。我們不僅開源模型,我們還開源了用於訓練這些模型的資料,因為只有那樣你才能真正信任模型是如何產生的。我們開源所有模型。我們幫助你們從中通過衍生產品。我們有一整套庫,我們稱之為 NeMo 庫、物理 NeMo 庫和 Clara NeMo 庫(BioNeMo)。這些庫中的每一個都是 AI 的生命周期管理系統,以便你可以處理資料、生成資料、訓練模型、建立模型、評估模型、為模型設定護欄,一直到部署模型。每一個庫都極其複雜,所有這些都是開放原始碼的。因此,在這個平台之上,NVIDIA 是一個前沿的 AI 模型建構者,我們以一種非常特殊的方式建構它。我們完全在公開環境中建構它,以便我們可以賦能每個公司、每個行業、每個國家成為這場 AI 革命的一部分。我對自己在那裡的工作感到無比自豪。事實上,如果你注意圖表,圖表顯示我們對這個行業的貢獻是首屈一指的,你會看到我們實際上會繼續這樣做,甚至加速。這些模型也是世界級的。(突然螢幕黑屏/技術故障)所有系統都癱瘓了。這種事在聖克拉拉(NVIDIA總部)從來不會發生。是因為拉斯維加斯嗎?是不是有人在外面的老虎機中大獎了?所有系統都癱瘓了。好吧,我想我的系統還是癱瘓的,但這沒關係。我會即興發揮。所以,不僅這些模型具有前沿能力,不僅它們是開放的,它們還在排行榜上名列前茅。這是我們非常自豪的一個領域。它們在智能方面名列前茅。我們有重要的模型可以理解多模態文件,也就是 PDF。世界上最有價值的內容都捕捉在PDF 中。但這需要人工智慧來找出裡面的內容,解釋裡面的內容,並幫助你閱讀它。所以我們的 PDF 檢索器、我們的PDF 解析器是世界級的。我們的語音識別模型絕對是世界級的。我們的檢索模型,基本上就是搜尋、語義搜尋、AI 搜尋——現代 AI 時代的資料庫引擎,也是世界級的。所以,我們經常佔據排行榜榜首。這是我們非常自豪的領域。所有這一切都是為了服務於你們建構AI智能體(AI Agents)的能力。這確實是一個開創性的發展領域。你知道,起初當 ChatGPT 出來時,人們說,天那,它產生了非常有趣的結果,但它產生了嚴重的幻覺(胡言亂語)。它產生幻覺的原因,當然是因為它可以記住過去的一切,但它無法記住未來和現在的一切。所以它需要以研究為基礎(Grounding)。在回答問題之前,它必須做基礎研究。推理的能力——關於我是否需要做研究?我是否需要使用工具?我如何將一個問題分解成步驟?每一個步驟都是 AI 模型知道如何做的,並將它們組合成一系列步驟來執行它從未做過、從未被訓練過的事情。這就是推理的奇妙能力。我們可以遇到以前從未見過的情況,並將其分解為我們知道如何做的情況、知識或規則,因為我們在過去經歷過。現在,大型語言模型已經實現了這一根本性的飛躍。使用強化學習和思維鏈(Chain of Thought)、搜尋和規劃以及強化學習中的所有這些不同技術的能力,使我們擁有這種基本能力成為可能,並且現在也完全開源了。但真正棒的事情是另一個突破,我第一次看到它是在 Aravind 的Perplexity 上。Perplexity 這家 AI 搜尋公司,真的是一家非常有創意的公司。當我第一次意識到他們同時使用多個模型時,我認為這完全是天才。當然,我們會這樣做。當然,AI 也會呼叫世界上所有偉大的 AI 來解決它想在推理鏈的任何部分解決的問題。這就是為什麼 AI 真正是多模態(Multi-modal)的。意味著它們理解語音、圖像、文字、視訊、3D 圖形和蛋白質。它是多模態的。它也是多模型(Multi-model)的。意味著它應該能夠使用最適合該任務的任何模型。根據定義,它是多雲(Multi-cloud)的。因為這些 AI 模型位於所有這些不同的地方。它也是混合雲(Hybrid cloud)的。因為如果你是一家企業公司,或者你製造了一個機器人或任何裝置,有時它在邊緣,有時在無線電訊號塔,也許有時在企業內部,或者也許在醫院這樣你需要資料即時就在你身邊的地方。無論那些應用程式是什麼,我們現在知道這就是未來 AI 應用程式的樣子。或者換一種方式思考,因為未來的應用程式是建立在 AI 之上的。這就是未來應用程式的基本框架。這個基本框架,這種能夠做我所說的那些事情的代理 AI 的基本結構——即多模型的結構,現在已經為各種各樣的 AI 初創公司注入了強勁動力。現在你也可以,因為有了所有的開放模型和我們提供給你們的所有工具,你可以定製你的 AI 來教你的 AI 別人沒有教過的技能。沒有別人讓他們的 AI 以那種方式變得智能或聰明。你可以為自己做這件事。這就是我們在 Nemotron、NeMo 以及我們在開放模型方面所做的所有事情旨在做的。你在它前面放一個智能路由器(Smart Router)。那個路由器本質上是一個管理者,根據你給出的提示的意圖,決定那一個模型最適合那個應用程式來解決那個問題。好的。所以現在當你思考這個架構時,你擁有了什麼?當你思考這個架構時,突然之間你有了一個 AI:一方面完全由你定製。你可以教它為你公司的特定技能。它是商業機密,你有深厚的領域專業知識。也許你擁有訓練該 AI 模型所需的所有資料。另一方面,你的 AI 根據定義總是處於前沿。你總是擁有一方面的前沿技術。另一方面,你總是定製化的。而且它應該能直接運行。所以我們想我們會做一個最簡單的例子來讓你們可以使用。整個框架我們稱之為Blueprint(藍圖),我們的藍圖已經整合到世界各地的企業 SaaS 平台中,我們對進展感到非常高興。但我們要做的是向你們展示一個簡短的例子,說明任何人都可以做什麼。(演示視訊開始)(畫外音:讓我們建構一個個人助理。我想讓它幫我處理日曆、郵件、待辦事項列表,甚至幫我照看家裡。我使用 Brev 將我的 DGX Spark 變成個人云。所以我可以使用相同的介面,無論我是使用雲 GPU 還是 DGX Spark。我使用前沿模型 API 來輕鬆開始。)(音樂)(畫外音:我想讓它幫我處理郵件,所以我為我的代理建立了一個郵件工具來呼叫。我希望我的郵件保持私密,所以我將加入一個在 Spark 上本地運行的開放模型。現在,對於任何工作,我都希望代理為正確的任務使用正確的模型。所以我將使用一個基於意圖的模型路由器。這樣,需要郵件的提示將留在我的 Spark 上,其他所有內容都可以呼叫前沿模型。)(畫外音:我想讓我的助手與我的世界互動,所以我將它連接到 Hugging Face 的 Reachi 迷你機器人。我的代理通過工具呼叫控制Reachi 的頭、耳朵和攝影機。我想給 Reachi 一個聲音,我真的很喜歡 ElevenLabs,所以我將連接他們的API。)Reachi (機器人聲音): 嗨,我是運行在DGX Spark 上的 Reachi。使用者: 嘿 Reachi,今天我的待辦事項列表上有什麼?Reachi: 你今天的待辦事項列表:買雜貨、雞蛋、牛奶、黃油,還要把新指令碼發給 Jensen。使用者: 好的,給Jensen 發個更新。告訴他我們在今天結束前會給他。Reachi: 好的,會做的。使用者: Reachi,這兒還有個草圖。你能把它變成建築渲染圖嗎?Reachi: 當然。(音樂,生成渲染圖)使用者: 不錯。現在做一個視訊,帶我參觀一下這個房間。Reachi: 給你。使用者: 太棒了。通過Brev,我可以分享對我的 Spark 和 Reachi 的存取權。所以我要把它分享給Anna。Anna: 嘿,Reachi。Potato(寵物名)在幹什麼?Reachi: 他在沙發上。我記得你不喜歡這樣。我會叫他下去。Potato,下沙發!(畫外音:隨著開放原始碼的所有進展,看到你能建構什麼是令人難以置信的。我很想看看你會創造什麼。)(演示視訊結束)(音樂)這難道不令人難以置信嗎?現在,令人驚奇的是,這現在是完全微不足道的事情。這現在完全是微不足道的。然而,就在幾年前,所有這些都是不可能的。絕對無法想像。這種使用語言模型建構應用程式的基本框架——使用那些預訓練的、專有的、前沿的語言模型,並將其與定製的語言模型結合到一個代理框架、一個推理框架中,使你可以訪問工具和檔案,甚至連接到其他代理。這基本上就是現代 AI 應用程式或應用程式的架構。我們建立這些應用程式的能力非常快。注意,如果你給它以前從未見過的應用程式資訊,或者以一種並不完全像你想的那樣表示的結構,它仍然可以推理並盡最大努力通過資料和資訊來推理,試圖理解如何解決問題。這就是人工智慧。好的,所以這個基本框架現在正在被整合。正如我剛才描述的一切,我們有幸與世界上一些領先的企業平台公司合作。例如 Palantir,他們整個 AI 和資料處理平台正在由NVIDIA 加速。ServiceNow,世界領先的客戶服務和員工服務平台。Snowflake,雲端頂級資料平台。那裡正在做令人難以置信的工作。CodeRabbit,我們在 NVIDIA 各處都在使用CodeRabbit。CrowdStrike,建立 AI 來檢測和發現 AI威脅。NetApp,他們的資料平台現在上面有 NVIDIA 的語義 AI 和代理系統,用於做客戶服務。但重要的是這一點。這不僅是現在開發應用程式的方式,這將是你平台的使用者介面。所以無論是 Palantir、ServiceNow、Snowflake 還是我們要合作的許多其他公司,代理系統就是介面。不再是 Excel 和一堆你需要輸入資訊的方塊。也許不再僅僅是命令列。所有這些多模態資訊現在都成為可能,你與平台互動的方式更像是……如果你願意的話,就像你與人互動一樣簡單。這就是被代理系統徹底革命化的企業 AI。接下來的事情是物理AI(Physical AI)。這是你們聽我談論了幾年的領域。事實上,我們在這方面已經工作了八年。問題是,如何將那種在電腦內部很智能、通過螢幕和揚聲器與你互動的東西,變成可以與世界互動的東西?也就是說,它可以理解世界如何運作的常識。物體恆存性(Object permanence):如果我把視線移開再看回來,那個物體還在那裡。因果關係(Causality):如果我推它,它會倒下。它理解摩擦力和重力。理解慣性:一輛重型卡車沿路行駛需要更多的時間停下來,一個球會繼續滾動。這些概念對一個小孩子來說都是常識,但對 AI 來說完全是未知的。所以我們必須建立一個系統,允許 AI 學習物理世界的常識,學習它的定律,當然也要能夠從資料中學習,而資料是非常稀缺的。並且要能夠評估那個 AI 是否在工作,這意味著它必須在一個環境中進行模擬。AI 如何知道它正在執行的動作是否符合它應該做的,如果它沒有能力模擬物理世界對其動作的反應?模擬其動作的反應對於評估它非常重要。否則,就沒有辦法評估它。每次都不一樣。所以這個基本系統需要三台電腦。1.第一台電腦,當然是我們知道的 NVIDIA 製造的用於訓練AI模型的電腦。2.另一台電腦,我們知道是用於推理的電腦。推理模型本質上是運行在汽車裡、機器人裡、工廠裡或邊緣任何地方的機器人電腦。3.但必須有第三台電腦,它是為模擬而設計的。模擬幾乎是 NVIDIA 所做一切的核心。這是我們最舒適的地方,模擬確實是我們用物理 AI 所做幾乎所有事情的基礎。所以我們有三台電腦和運行在這些電腦上的多個堆疊、這些庫使其變得有用。Omniverse 是我們的數字孿生、基於物理的模擬世界。Cosmos,正如我之前提到的,是我們的基礎模型。不是語言的基礎模型,而是世界的基礎模型。並且也與語言對齊。你可以說像“球發生了什麼?”這樣的話,它們會告訴你球正滾下街道。所以是一個世界基礎模型。然後當然是機器人模型。我們有兩個。一個叫 Groot。另一個叫Alpamayo,我將要告訴你們。現在,對於物理 AI,我們必須做的最重要的事情之一是首先建立用於訓練 AI 的資料。資料從那裡來?與其像語言那樣,因為我們建立了一堆文字,那是我們認為 AI 可以從中學習的基準事實(Ground Truth)。我們如何教 AI 物理的基準事實?有非常多的視訊,非常多的視訊,但這幾乎不足以捕捉我們需要的多樣性和互動類型。這就是偉大的頭腦聚集在一起,將曾經的計算轉化為資料的地方。現在使用以物理定律為基礎和條件的合成資料生成(Synthetic Data Generation),以基準事實為基礎和條件,我們可以有選擇地、巧妙地生成資料,然後我們可以用這些資料來訓練 AI。例如,輸入到這個 AI、這個Cosmos 世界模型(左邊的)的是交通模擬器的輸出。這個交通模擬器對於 AI 學習來說幾乎不夠。我們可以把這個放入Cosmos 基礎模型中,生成環繞視訊,它是基於物理的、物理上合理的,AI 現在可以從中學習。這有太多例子了。讓我向你們展示 Cosmos 能做什麼。(Cosmos 演示視訊開始)(畫外音:物理 AI 的 ChatGPT時刻即將到來,但挑戰是顯而易見的。物理世界是多樣且不可預測的。收集真實世界的訓練資料緩慢且昂貴,而且永遠不夠。)(畫外音:答案是合成資料。它始於 NVIDIA Cosmos,一個用於物理AI 的開放前沿世界基礎模型。它在網際網路規模的視訊、真實駕駛和機器人資料以及 3D 模擬上進行了預訓練。Cosmos學習了世界的統一表徵,能夠對齊語言、圖像、 3D 和動作。)(畫外音:它執行物理 AI 技能,如從單張圖像進行生成、推理和軌跡預測。Cosmos從3D 場景描述中生成逼真的視訊。從駕駛遙測和感測器日誌中生成物理上連貫的運動。)(畫外音:來自規劃模擬器、多攝影機環境或場景提示的環繞視訊。它將邊緣情況(Edge Cases)帶入生活。開發者可以在Cosmos 中運行互動式閉環模擬。當動作產生時,世界會做出反應。)(畫外音:Cosmos 進行推理。它分析邊緣場景,將它們分解為熟悉的物理互動,並推理接下來可能發生的事情。Cosmos 將計算轉化為資料,為長尾情況訓練自動駕駛汽車(AV),並訓練機器人如何適應每一種場景。)(演示視訊結束)(音樂)我知道這令人難以置信。Cosmos 是世界領先的基礎模型。世界基礎模型。它已經被下載了數百萬次,在世界各地使用,讓世界為這個物理 AI 的新時代做好準備。我們也自己使用它。我們自己使用它來建立我們的自動駕駛汽車。用於場景生成和用於評估。我們可以擁有讓我們有效地行駛數十億、數兆英里的東西,但在電腦內部完成。我們取得了巨大的進步。今天,我們宣佈Alpamayo,世界上第一個會思考、會推理的自動駕駛汽車AI。Alpamayo 是端到端(End-to-End)訓練的。從字面上看,從攝影機輸入到執行輸出。攝影機輸入:大量由其自身駕駛或人類演示駕駛的里程,並且我們有大量由 Cosmos 生成的里程。除此之外,成千上萬的例子被非常非常仔細地標記,以便我們可以教汽車如何駕駛。Alpamayo 做了一些非常特別的事情。它不僅接收感測器輸入並啟動方向盤、剎車和加速,它還推理它即將採取的行動。它告訴你它將採取什麼行動,它得出該行動的理由,當然還有軌跡。所有這些都直接耦合,並由大量人類訓練資料以及 Cosmos 生成的資料組合進行非常具體的訓練。結果簡直令人難以置信。你的車不僅像你期望的那樣駕駛,而且它駕駛得如此自然,因為它直接從人類演示者那裡學習,而且在每一個場景中,當它遇到場景時,它會推理它要做什麼,並推理它即將要做什麼。這之所以如此重要,是因為駕駛的長尾效應(Long Tail)。我們不可能簡單地為每一個國家、每一個可能發生的情況、所有人口收集每一個可能的場景。然而,很有可能如果將每個場景分解成一堆其他的更小的場景,對於你要理解來說是很正常的。所以這些長尾將被分解為相當正常的情況,這輛車知道如何處理。它只需要對其進行推理。所以讓我們來看一看。你們即將看到的一切都是一次通過(One shot)。無手操作。(自動駕駛演示視訊開始)(音樂)聲音:導航至目的地。系好安全帶。(音樂)AI 聲音/提示:Heat. Heat. Heat.(註:此處為 AI 思考過程的聲音化或介面提示音,可能指熱力圖關注點或特定指令)(音樂)AI 聲音/提示:Heat.(音樂,車輛在複雜路況行駛,包括避讓、轉彎)AI 聲音/提示:Heat. Heat.AI 聲音/提示:Heat. Heat.(音樂)AI 聲音/提示:Heat. Heat.(掌聲)(音樂)AI 聲音/提示:Heat.(音樂)(掌聲)AI 聲音/提示:Heat.(音樂)(音樂)聲音:你已到達。(演示視訊結束)我們八年前開始研究自動駕駛汽車。原因是因為我們在早期推理出深度學習和人工智慧將重新發明整個計算堆疊。如果我們想要瞭解如何導航並將行業引向這個新的未來,我們必須擅長建構整個堆疊。就像我之前提到的,AI 是一個五層蛋糕。最底層是土地、電力和外殼。在機器人技術的情況下,最底層是汽車。上面一層是晶片,GPU,網路晶片,CPU,所有這類東西。再上面一層是基礎設施。在這種特定情況下,正如我提到的物理 AI,那個基礎設施是Omniverse 和 Cosmos。再上面是模型。在我剛才展示的模型層中,這裡的模型叫做Alpamayo。今天,Alpamayo 已經開源。這項令人難以置信的工作。這花了數千人。我們的 AV(自動駕駛)團隊有數千人。作為參考,我們的合作夥伴 Ola,我想 Ola 就在觀眾席的某個地方。梅賽德斯(Mercedes)五年前同意與我們合作,使這一切成為可能。我們想像有一天,道路上的十億輛汽車都將是自動駕駛的。你可以擁有一輛你正在編排並從某人那裡租用的 Robo Taxi(自動駕駛計程車),或者你可以擁有它並且它自己駕駛,或者你可以決定自己駕駛。但是每一輛車都將擁有自動駕駛汽車的能力。每一輛車都將由 AI 驅動。所以在這種情況下,模型層是Alpamayo,而上面的應用程式是梅賽德斯-奔馳。好的。所以這整個堆疊是我們的第一個NVIDIA First 全堆疊努力,我們一直致力於此,我很高興來自 NVIDIA 的第一輛 AV 汽車將在第一季度上路,然後在第二季度去歐洲,這裡是美國第一季度,然後歐洲第二季度,我想亞洲是第三季度和第四季度。而且強有力的事情是,我們將繼續用下一版本的Alpamayo和之後的版本更新它。我現在毫無疑問,這將是最大的機器人行業之一,我很高興我們致力於此,它教會了我們大量關於如何幫助世界其他地方建構機器人系統的知識。那種深刻的理解,知道如何自己建構它,自己建構整個基礎設施,並知道機器人系統需要什麼樣的晶片。在這個特定案例中,雙 Orin,下一代雙 Thor。這些處理器是為機器人系統設計的,並且是為了最高等級的安全能力而設計的。這輛車剛剛獲得評級。它剛剛投入生產。梅賽德斯-奔馳 CLA 剛剛被NCAP 評為世界上最安全的汽車。這是我所知道的唯一一個每一行程式碼、晶片、系統、每一行程式碼都經過安全認證的系統。整個模型系統基於感測器是多樣化和冗餘的,自動駕駛汽車堆疊也是如此。Alpamayo 堆疊是端到端訓練的,擁有令人難以置信的技能。然而,直到你永遠駕駛它,沒有人知道它是否會絕對安全。所以我們用另一個軟體堆疊來作為護欄(Guardrail),下面是一個完整的AV 堆疊。那個完整的 AV 堆疊是建構為完全可追溯的,我們花了大約五年時間來建構它。實際上大概六七年來建構第二個堆疊。這兩個軟體堆疊相互鏡像,然後我們有一個策略和安全評估器(Policy and Safety Evaluator)來決定:這是我有信心並可以推理出安全駕駛的事情嗎?如果是這樣,我會讓Alpamayo來做。如果這是一種我不太自信的情況,並且安全策略評估器決定我們要回到一個非常更簡單、更安全的護欄系統,那麼它就會回到經典的 AV 堆疊。這是世界上唯一同時運行這兩個 AV 堆疊的汽車,所有安全系統都應該具有多樣性和冗餘性。我們的願景是有一天每一輛車、每一輛卡車都將是自動駕駛的,我們一直在朝著那個未來努力。這整個堆疊是垂直整合的。當然,在梅賽德斯-奔馳的案例中,我們一起建構了整個堆疊。我們將部署這輛車。我們將營運這個堆疊。我們將維護這個堆疊,只要我們還活著。然而,就像我們作為一家公司所做的一切一樣。我們建構整個堆疊,但整個堆疊對生態系統是開放的。與我們合作建構 L4 和 Robo Taxi 的生態系統正在擴大,並走向各地。我完全預計這將會是——這對於我們來說已經是一個巨大的業務。這對我們來說是一個巨大的業務,因為他們用它來訓練我們的訓練資料、處理資料和訓練他們的模型。在某些情況下,他們用它來生成合成資料;在一些汽車公司,他們幾乎只建構汽車內部的電腦晶片;有些公司與我們進行全端合作;有些公司與我們進行部分合作。好的。所以不管你決定使用多少都沒有關係。我唯一的請求是儘可能多地使用一點視訊,整個東西都是開放的。這將是第一個大規模主流 AI 物理 AI 市場。現在我認為我們都可以完全同意,從非自動駕駛汽車到自動駕駛汽車的這個拐點可能就在這個時候發生。在接下來的 10 年裡,我相當確定世界上很大一部分汽車將是自動駕駛或高度自動駕駛的。但我剛才描述的這個基本技術——使用三台電腦、使用合成資料生成和模擬——適用於每一種形式的機器人系統。它可能是一個只是關節、機械手的機器人,也許是一個移動機器人,也許是一個完全人形的機器人。所以下一個旅程,機器人系統的下一個時代將是,你知道,機器人。這些機器人將會有各種不同的大小和……我邀請了一些朋友。他們來了嗎?嘿夥計們,快點。我有很多東西要講。快點,快點。你們告訴R2-D2 你們要來這裡嗎?你們告訴了嗎?還有 C-3PO。好的。好吧。過來。在此之前,現在,真正的一件事是……你們有Jetson。它們裡面有小小的 Jetson 電腦。它們是在 Omniverse 內部訓練的。這個怎麼樣?讓我們向大家展示一下你們這幫傢伙是在那個模擬器裡學會如何成為機器人的。你們想看看那個嗎?好的,讓我們看看那個。請播放。真的嗎?(機器人模擬視訊開始)(音樂)C-3PO/R2-D2 在 Omniverse 模擬環境中跌跌撞撞、學習行走的畫面(C-3PO 看著 R2-D2)聲音:看,什麼都沒有。(視訊結束)這難道不令人驚奇嗎?這就是你們學會成為機器人的方式。你們完全是在 Omniverse 內部完成的。機器人模擬器叫做Isaac Sim 和 Isaac Lab。任何想製造機器人的人,你知道,沒有人會像你們這麼可愛。但現在我們有所有這些……看看所有這些我們正在製造機器人的朋友。我們在製造大的。不,就像我說的,沒有人像你們這麼可愛。但我們有 Neura Robotics,我們有 Agility Robotics。那邊的 Agility。我們有 LG 在這邊。他們剛剛宣佈了一個新機器人。Caterpillar(卡特彼勒),他們有最大的機器人。那個是送到你家的食物配送機器人,連接到 Uber Eats。那是 Serve Robotics。我愛那些傢伙。Agility, Boston Dynamics(波士頓動力),不可思議。你有手術機器人,你有來自 Franka 的機械臂機器人,你有 Universal Robotics 的機器人,數量驚人的不同機器人。所以這是下一章。我們將來會更多地談論機器人技術。但這最終不僅僅是關於機器人。我知道一切都是關於你們這幫傢伙的。它是關於到達那裡。世界上最重要的行業之一將被物理 AI 和 AI 物理學徹底改變,那就是開啟了我們 NVIDIA 所有人的行業。如果不是我要談到的這些公司,這就不可能實現。我很高興所有這些公司,從Cadence 開始,將加速一切。Cadence CUDA-X 整合到他們所有的模擬和求解器中。他們有 NVIDIA 物理 AI,他們將用於不同的工廠和工廠模擬。你有 AI 物理學被整合到這些系統中。所以無論是 EDA 還是 SDA,在未來的機器人系統中,我們將擁有基本上相同的技術,讓你們這幫傢伙成為可能的技術現在完全徹底改變這些設計堆疊。Synopsys(新思科技)。沒有 Synopsys,你知道 Synopsys 和 Cadence 在晶片設計領域是完全不可或缺的。Synopsys 在邏輯設計和 IP 方面處於領先地位。而在 Cadence 的情況下,他們領導物理設計、佈局布線、模擬和驗證。Cadence 在模擬和驗證方面令人難以置信。他們倆都在進入系統設計和系統模擬的世界。所以在未來,我們將在 Cadence 和 Synopsys 內部設計你們的晶片。我們將設計你們的系統,並在這些工具內部模擬整個事物和模擬一切。那就是你們的未來。我們會給……是的。你們將會在這些平台內部誕生。相當驚人,對吧?所以我們很高興我們正在與這些行業合作,就像我們將 NVIDIA 整合到 Palantir 和 ServiceNow 一樣,我們將 NVIDIA 整合到計算最密集的模擬行業 Synopsys 和 Cadence 中。今天我們宣佈Siemens(西門子)也在做同樣的事情。我們將整合 CUDA-X、物理 AI、代理 AI、NeMo、Nemotron 深度整合到 Siemens 的世界中。原因是這樣的。首先,我們設計晶片,未來所有的晶片都將由 NVIDIA 加速。你們會對此感到非常高興。我們將擁有代理晶片設計師(Agentic Chip Designers)和系統設計師與我們一起工作,幫助我們做設計,就像我們今天有代理軟體工程師幫助我們的軟體工程師編碼一樣。所以,我們將擁有代理晶片設計師和系統設計師。我們將在其中創造你們。但之後我們要建造你們。我們必須建造工廠,製造你們的工廠。我們必須設計組裝你們所有人的生產線。而這些製造工廠本質上將是巨大的機器人。不可思議,對吧?我知道。我知道。所以你們將在電腦中被設計。你們將在電腦中被製造。你們將在電腦中被測試和評估,早在你們必須花時間應對重力之前。我知道。你們知道怎麼應對重力嗎?你們能跳嗎?能跳嗎?(機器人做動作)好的。行了。別顯擺了。好的。所以這……所以現在,使 NVIDIA 成為可能的行業,我只是很高興我們正在創造的技術現在處於如此複雜的水平和能力,我們可以回去幫助他們徹底改變他們的行業。所以從他們開始的事情,我們現在有機會回去幫助他們徹底改變他們的行業。讓我們看看我們要和 Siemens 做的事情。來吧。(西門子合作視訊開始)(畫外音:物理 AI 的突破正讓 AI 從螢幕走向我們的物理世界。正是時候,因為世界正在為晶片、電腦、救命藥物和 AI 建造各種各樣的工廠。隨著全球勞動力短缺的惡化,我們比以往任何時候都更需要由物理 AI 和機器人驅動的自動化。)(畫外音:這就是 AI 與世界上最大的物理行業相遇的地方,是NVIDIA 和 Siemens 合作的基礎。近兩個世紀以來,Siemens 建立了世界的工業,現在它正在為AI 時代重新發明它。)(畫外音:Siemens 正在將NVIDIA CUDA-X 庫、AI 模型和 Omniverse 整合到其 EDA、CAE 和數字孿生工具及產品組合中。)(畫外音:我們要一起將物理 AI 帶入完整的工業生命周期。從設計和模擬到生產和營運。)(音樂)(畫外音:我們要站在新工業革命的開端,這是由 NVIDIA 和 Siemens為下一個工業時代建立的物理 AI 時代。)(視訊結束)不可思議,對吧,夥計們?你們覺得怎麼樣?好的,抓緊了。抓緊了。所以這是,你知道,如果你看看世界的模型,毫無疑問 OpenAI 是今天領先的 Token 生成者。OpenAI 生成的 Token 比其他任何東西都多。第二大群體,第二大可能是開放模型。我的猜測是隨著時間的推移,因為有這麼多公司、這麼多研究人員、這麼多不同類型的領域和模態,開源模型將是迄今為止最大的。讓我們談談一個真正特別的人。你們想這樣做嗎?讓我們談談Vera Rubin。Vera Rubin。是的,繼續。她是一位美國天文學家。她是第一個觀察到……她注意到星系的尾部移動的速度與星系的中心差不多快。嗯,我知道這說不通。這說不通。牛頓物理學會說,就像太陽系一樣,離太陽較遠的行星繞太陽公轉的速度比離太陽較近的行星慢。因此,除非有不可見的物體,我們稱之為——她發現了——暗物質(Dark Matter),儘管我們看不到它,但它佔據空間,否則這發生是沒有道理的。所以 Vera Rubin 是我們以此命名我們下一台電腦的人。這難道不是個好主意嗎?我知道。(掌聲)好的。嘿,Vera Rubin是為瞭解決我們面臨的這個根本挑戰而設計的。AI 所需的計算量正在飆升。對 NVIDIA GPU 的需求正在飆升。它飆升是因為模型每年增加 10 倍,一個數量級。更不用說,正如我提到的,o1 的引入是 AI 的一個拐點。不再是一次性回答(One-shot),推理現在是一個思考過程。為了教 AI 如何思考,強化學習和非常顯著的計算被引入到後訓練中。不再僅僅是監督微調或稱為模仿學習或監督訓練。你們現在有了強化學習,本質上是電腦自己嘗試不同的迭代,學習如何執行任務。因此,預訓練、後訓練、測試時縮放的計算量因此爆炸式增長。現在我們做的每一個推理,不再僅僅是一次性,你可以看到 AI 在思考,這是我們所讚賞的。它思考的時間越長,通常產生的答案就越好。所以測試時縮放導致要生成的 Token 數量每年增加5倍。更不用說,與此同時,AI 的競賽正在進行。每個人都試圖達到下一個水平。每個人都試圖達到下一個前沿。每當他們達到下一個前沿時,上一代 AI Token 的成本就開始每年下降大約10倍。每年 10 倍的下降實際上告訴你在發生一些不同的事情。它在說競爭如此激烈。每個人都試圖達到下一個水平,有人正在達到下一個水平。因此,所有這一切都是一個計算問題。你計算得越快,你就能越快達到下一個前沿的下一個水平。所有這些事情都在同一時間發生。所以我們決定我們必須每年推進最先進的計算技術。一年都不能落下。我們一年半前開始發貨 GB200。現在我們正在全面量產GB300。如果 Vera Rubin 要趕上今年,它現在必須已經投產了。所以今天我可以告訴你們,Vera Rubin 已經全面投產。你們想看看 Vera Rubin 嗎?好的,來吧。請播放。(Vera Rubin 介紹視訊開始)(畫外音:Vera Rubin 恰好趕上了 AI 的下一個前沿。這就是我們如何建構它的故事。架構,一個由六個晶片組成的系統,工程設計為一體工作,源於極致的協同設計(Extreme Co-design)。)(畫外音:它始於 Vera,一個定製設計的CPU,性能是上一代的兩倍。以及 Rubin GPU。Vera 和 Rubin 從一開始就協同設計,以便更快、更低延遲地雙向一致地共享資料。)(畫外音:然後 17,000 個元件聚集在一個Vera Rubin 計算板上。高速機器人以微米級精度放置元件,然後 Vera CPU 和兩個 Rubin GPU 完成組裝。能夠提供 100 Petaflops 的 AI 算力,是其前身的五倍。)(畫外音:AI 需要快速的資料。ConnectX-9為每個GPU 提供每秒 1.6 Terabits 的橫向擴展頻寬。BlueField-4 DPU 解除安裝儲存和安全性,以便計算完全專注於AI。)(畫外音:Vera Rubin 計算托盤(Compute Tray)完全重新設計,沒有電纜、軟管或風扇。具有一個 BlueField-4 DPU、八個ConnectX-9 網路卡、兩個 Vera CPU 和四個 Rubin GPU,這是 Vera Rubin AI 超級電腦的計算建構塊。)(畫外音:接下來是第六代 NVLink Switch,移動的資料比全球網際網路還多,連接18 個計算節點,擴展到 72 個 Rubin GPU,作為一個整體運行。)(畫外音:然後是 Spectrum-X Ethernet Photonics(乙太網路光子學),世界上第一個具有 512 個通道和 200 Gbit 能力的共封裝光學(Co-packaged Optics)乙太網路交換機,將成千上萬的機架擴展為 AI 工廠。)(畫外音:自設計開始以來的 15,000 個工程師年。第一個Vera Rubin NVL72 機架上線。六個突破性晶片,18 個計算托盤,9 個 NVLink 交換機托盤,220兆個電晶體,重近兩噸。向 AI 下一個前沿的巨大飛躍。Rubin 來了。)(視訊結束)你們覺得怎麼樣?這是一個Rubin Pod。16 個機架中有 1152 個 GPU。正如你們所知,每一個機架有 72 個 Vera Rubin 或 72 個 Rubin。每一個 Rubin 是兩個實際的 GPU 晶片連接在一起。我要把它展示給你們看,但這有幾件事……好吧,我待會兒再告訴你們。我不能一下子告訴你們所有事情。好吧,我們設計了六種不同的晶片。首先,我們要公司內部有一條規則,這是一條好規則。任何新一代都不應該更改超過一兩個晶片。但問題是這樣的。正如你們所看到的,我們在描述每一個被描述的晶片中的電晶體總數。我們知道摩爾定律在很大程度上已經放緩。所以我們年復一年能得到的電晶體數量不可能跟上 10 倍大的模型。它不可能跟上每年生成更多 Token 的 5 倍。它不可能跟上 Token 成本下降將如此激進的事實。如果行業要繼續進步,就不可能跟上這種速度,除非我們部署激進的極致協同設計(Extreme Co-design)。基本上同時在整個堆疊的所有晶片上進行創新。這就是為什麼我們決定這一代我們別無選擇,只能重新設計每一個晶片。現在,剛才描述的每一個晶片本身都可以是一個新聞發佈會,而在過去的日子裡,可能有一整個公司專門做這個。每一個都是完全革命性的,同類中最好的。Vera CPU,我為它感到非常自豪。在一個受電力限制的世界裡,Gray CPU(註:口誤,應指Grace 的繼任者 Vera)性能是兩倍。在一個受電力限制的世界裡。它是世界上最先進 CPU 每瓦性能的兩倍。它的資料速率是瘋狂的。它是為處理超級電腦而設計的。Vera 是一個不可思議的 GPU(註:口誤,應指CPU)。Grace是一個不可思議的 GPU(註:口誤,應指 CPU)。現在 Vera增加了單線程性能,增加了記憶體容量,僅僅是急劇增加了一切。這是一個巨大的晶片。這是 Vera CPU。這是一個 CPU。這連接到 Rubin GPU。看看那個東西。這是一個巨大的晶片。現在,真正特別的事情是,我會過一遍這些。我想這需要三隻手,四隻手來做這個。好的。所以,這是 Vera CPU。它有 88 個 CPU 核心。CPU 核心被設計為多線程的。但Vera 的多線程特性被設計為每一個 176 個線程都可以獲得其全部性能。所以本質上好像有 176 個核心,但只有88 個物理核心。這些核心是使用一種叫做空間多線程的技術設計的。但 IO 性能令人難以置信。這是Rubin GPU。浮點性能是 Blackwell 的 5倍。但重要的事情是看底線。底線是它的電晶體數量僅為 Blackwell 的 1.6倍。這某種程度上告訴了你今天半導體物理的水平。如果我們不做協同設計,如果我們不在整個系統的每一個晶片層面上做極端的協同設計,我們怎麼可能提供那怕是最好每年 1.6 倍的性能水平呢?因為那就是你擁有的電晶體總數。即使你的每個電晶體性能多一點,比如說 25%,你也不可能從你得到的電晶體數量中獲得 100% 的良率。所以 1.6 倍某種程度上為你每年性能能走多遠設定了上限,除非你做一些極端的事情。我們稱之為極致協同設計。好吧,我們做的一件事,這是一個偉大的發明。它叫做NVFP4 Tensor Core。我們晶片內部的 Transformer 引擎不僅僅是我們放入資料路徑的某種 4 位浮點數。它是一個完整的處理器,一個處理單元,瞭解如何動態地、自適應地調整其精度和結構以處理 Transformer 的不同層級,以便你可以在可能損失精度的地方實現更高的吞吐量,並在你需要的地方回到儘可能高的精度。那種動態執行此操作的能力。你不能在軟體中這樣做,因為顯然它運行得太快了。所以你必須能夠在處理器內部自適應地做到這一點。這就是 NVFP4。當有人說 FP4 或 FP8 時,這對我們來說幾乎沒有任何意義。原因是讓它工作的是 Tensor Core 結構和所有的演算法。NVFP4,我們已經為此發表了論文。它能夠保持的吞吐量和精度水平是完全不可思議的。這是開創性的工作。如果是未來行業希望我們將這種格式和這種結構作為行業標準,我也不會感到驚訝。這是完全革命性的。這就是為什麼即使我們只有 1.6 倍的電晶體數量,我們也能提供如此巨大的性能提升。好的。所以這是……現在一旦你有了一個偉大的處理節點,這就是處理器節點,在這裡……例如這裡,讓我做這個……這就是……哇,它超級重。你必須是一個身材非常好的CEO 才能做這份工作。好的。所以這東西是……我猜這大概……我不知道,幾百磅。(有人笑)我也覺得這很有趣。來吧。(看向後台) 可能是這樣的。大家都走了。不,我不這麼認為。好的。所以看看這個。這是最後一個。我們徹底改變了整個 MGX 機箱。這個節點。43 根電纜,零電纜。六根管子,這兒只有兩根。組裝這個需要兩個小時。如果你幸運的話,需要兩個小時。當然,你可能會組裝錯。你得重新測試,測試,重新組裝。所以組裝過程極其複雜。作為我們第一批以這種方式解構的超級電腦之一,這是可以理解的。這個從兩小時變成了 5 分鐘。80% 液冷。100% 液冷。是的。真的,真正的突破。好的。所以,這是新的計算底盤。連接所有這些到機架頂部交換機、東西向流量的是Spectrum-X網路卡(NIC)。這是世界上最好的網路卡。毫無疑問,NVIDIA 的 Mellanox,很久以前加入我們的收購 Mellanox。他們在高性能計算方面的網路技術是世界上最好的,毋庸置疑。演算法、晶片設計、所有的互連、運行在上面的所有軟體堆疊、他們的 RDMA,絕對絕對首屈一指,世界上最好的。現在它有能力做可程式設計 RDMA 和資料路徑加速器,以便像 AI 實驗室這樣的合作夥伴可以為他們想要如何在系統中移動資料建立自己的演算法。但這完全是世界級的 ConnectX-9,Vera CPU 是協同設計的,我們從未透露過。直到 CX9 出現我們才從未發佈過,因為我們為一種新型處理器協同設計了它。你知道,ConnectX-9 或 CX8 和 Spectrum-X 徹底改變了乙太網路為人工智慧所做的方式。AI 的乙太網路流量要密集得多,需要更低的延遲。瞬時的流量激增不同於乙太網路所見的任何東西。所以我們建立了 Spectrum-X,即AI乙太網路。兩年前我們宣佈了 Spectrum-X。NVIDIA 今天是世界上最大的網路公司。所以它非常成功,被用於許多不同的安裝中。它正在席捲 AI 領域。性能令人難以置信,特別是當你有一個 200 兆瓦的資料中心,或者如果你有一個吉瓦的資料中心。這些是數十億美元。假設一個吉瓦的資料中心是 500 億美元。如果網路性能允許你多提供 10%——在 Spectrum-X 的情況下,提供 25% 更高的吞吐量並不罕見。即使我們只提供 10%,那也值50億美元。網路完全是免費的,這就是為什麼——嗯,每個人都使用 Spectrum-X。這真是一件不可思議的事情。現在我們將發明一種新型的……一種新型的資料處理。所以 Spectrum 是用於東西向流量的。我們現在有一個名為BlueField-4 的新處理器。BlueField-4 允許我們採取一個非常大的資料中心,隔離不同的部分,以便不同的使用者可以使用不同的部分。確保一切都可以虛擬化,如果他們決定虛擬化的話。所以你解除安裝了很多用於南北向流量的虛擬化軟體、安全軟體、網路軟體。所以 BlueField-4 標配在每一個這些計算節點上。BlueField-4 有第二個應用,我馬上就會講到。這是一個革命性的處理器,我對此感到非常興奮。這是 NVLink 6 Switch。就在這裡。這個交換機晶片。在這個 NVLink 交換機裡有四個。這每一個交換機晶片都有歷史上最快的 SerDes。世界勉強達到200 Gbits。這是 400 Gbits 每秒的交換機。這之所以如此重要,是為了讓我們可以讓每一個 GPU 在完全相同的時間與每一個其他GPU 對話。這個交換機,在這個機架背板上的這個交換機使我們要移動相當於兩倍全球網際網路資料量的資料,速度是兩倍。如果你拿整個地球網際網路的橫截面頻寬,大約是每秒 100 TB。這是每秒 240 TB。所以這某種程度上把它放在了透視中。這是為了讓每一個 GPU 都可以與每一個其他 GPU 在完全相同的時間工作。好的。然後在那之上……在那之上,好的,這是一個機架。這是一個機架。正如你們所看到的,這個機架中的電晶體數量是 1.7 倍。是的。你能幫我做這個嗎?所以,這通常大約是兩噸,但今天它是兩噸半,因為當他們運送它時,他們忘了把水排干。所以,我們從加利福尼亞運了很多水過來。你能聽到它尖叫嗎?你知道,當你旋轉兩噸半重的東西時,你得尖叫一下。哦,你可以做到。哇。好的,我們不會讓你做兩次。好的。所以,在這背後是NVLink Spines(脊柱)。基本上是兩英里的銅纜。銅是我們知道的最好的導體。這些都是遮蔽銅纜,結構化銅纜,世界上在計算系統中使用的最多的。我們的 SerDes 以每秒 400 gigabits 的速度驅動從機架頂部一直到底部的銅纜。這令人難以置信。所以這總共有 2 英里的銅纜,5000 根銅纜。這使得 NVLink Spine 成為可能。這是真正開啟 MGX 系統的革命。現在我們決定我們將建立一個行業標準系統,以便整個生態系統、我們所有的供應鏈都可以標準化這些元件。有大約 80,000 個不同的元件組成了這些 MGX 系統,如果我們每年都改變它,那就是徹底的浪費。每一個主要的電腦公司,從富士康到廣達再到緯創,你知道,名單還在繼續,到惠普、戴爾和聯想,每個人都知道如何建構這些系統。所以儘管性能如此之高,更重要的是功耗是兩倍,我們仍然可以將 Vera Rubin 擠進這個系統,這就是奇蹟:進入它的空氣,氣流大約是相同的。非常重要的是,進入它的水是相同的溫度,45°C。用 45°C,資料中心不需要冷水機組(Chillers)。我們基本上是用熱水冷卻這台超級電腦。它是如此令人難以置信的高效。所以這是……這是新的機架。電晶體多 1.7 倍,但峰值推理性能多5倍,峰值訓練性能多 3.5倍。好的,它們在頂部使用 Spectrum-X 連接。哦,謝謝。(掌聲)這是世界上第一個使用台積電(TSMC)新工藝製造的晶片,我們共同創新的工藝叫做COUPE。這是一種矽光子整合矽光子工藝技術。這允許我們將矽光子直接帶到晶片上。這是 512個連接埠,每秒200 Gbits。這是新的乙太網路 AI 交換機,Spectrum-X 乙太網路交換機。看看這個巨大的晶片。但真正令人驚奇的是,它有直接連接到它的矽光子。雷射從這裡進來。雷射從這裡進來。光學器件在這裡,它們連接到資料中心的其餘部分。我稍後會展示給你們看,但這在機架頂部。這是新的 Spectrum-X 矽光子交換機。好的。我們有一些新東西想告訴你們。正如我幾年前提到的,我們推出了 Spectrum-X,以便我們可以重新發明網路的方式。乙太網路真的很容易管理,每個人都有乙太網路堆疊,世界上的每個資料中心都知道如何處理乙太網路。當時我們唯一使用的是 InfiniBand,用於超級電腦。InfiniBand 延遲非常低。但當然,軟體堆疊、InfiniBand 的整個可管理性對於使用乙太網路的人來說非常陌生。所以我們決定第一次進入乙太網路交換機市場。Spectrum-X 就這樣起飛了,使我們成為了世界上最大的網路公司。正如我提到的,下一代 Spectrum-X 將繼承這一傳統。但正如我剛才所說,AI 已經重新發明了整個計算堆疊,計算堆疊的每一層。理所當然地,當 AI 開始部署在世界各地的企業中時,它也將重新發明儲存的方式。嗯,AI 不使用 SQL。AI 使用語義資訊。當使用 AI 時,它會建立這種臨時知識,臨時記憶,稱為KV Cache(KV快取)。鍵值組合,但它是一個 KV 快取。基本上是 AI 的快取,AI 的工作記憶。AI 的工作記憶儲存在 HBM 記憶體中。對於每一個 Token,對於每一個 Token,GPU 讀入模型,整個模型。它讀入整個工作記憶,它產生一個 Token,並將那個 Token 儲存回 KV 快取,然後在下一次它這樣做時,它讀入整個記憶,讀取它,並通過我們的 GPU 流式傳輸,然後生成另一個 Token。嗯,它一個 Token 接一個 Token 地重複這樣做,顯然如果你在那段時間與那個 AI 進行長時間的對話,那個記憶、那個上下文記憶將會極大地增長。更不用說模型正在增長。我們使用的輪次(Turns)正在增加。我們希望這個 AI 伴隨我們一生。記住我們曾經與它進行的每一次對話,對吧?我向它請求的每一丁點研究。當然,共享超級電腦的人數將繼續增長。因此,最初適合放在 HBM 內部的這個上下文記憶不再足夠大了。去年我們建立了 Grace Blackwell 的非常快的記憶體,我們稱之為快速上下文記憶體。這就是為什麼我們將 Grace 直接連接到 Hopper,這就是為什麼我們將 Grace 直接連接到 Blackwell,以便我們可以擴展上下文記憶。但即使那樣也是不夠的。所以下一個解決方案當然是去網路上,南北向網路,去公司的儲存。但如果你有很多 AI 同時運行,那個網路就不再足夠快了。所以答案非常清楚,要做得不同。所以我們建立了 BlueField-4,以便我們基本上可以在機架中擁有一個非常快的 KV 快取上下文記憶體儲存。所以我馬上就會向你們展示。但這是一個全新的儲存系統類別。行業非常興奮,因為這對於幾乎所有今天做大量 Token 生成的人來說都是一個痛點。AI 實驗室,雲服務提供商,他們真的因為 KV 快取移動造成的大量網路流量而受苦。所以我們將建立一個新平台、一個新處理器的想法,來運行整個 Dynamo KV 快取上下文記憶體管理系統,並將其放在離機架其餘部分非常近的地方,這是完全革命性的。所以就是這個。它就在這裡。所以這就是所有的計算節點。每一個都是 NVLink 72。所以這是 Vera Rubin NVLink 72,144 個 Rubin GPU。這是儲存在這裡的上下文記憶體。在每一個這些背後是四個 BlueField。在每一個 BlueField 背後是 150 TB……150 TB 的記憶體,上下文記憶體。對於每一個 GPU,一旦你在每一個 GPU 上分配它,將獲得額外的 16 TB。現在在這個節點內部,每個 GPU 本質上有一 TB。現在有了這裡的這個後備儲存(Backing Store),直接在同一個東西向流量上,以完全相同的資料速率,每秒 200 gigabits,實際上跨越這個計算節點的整個結構。你將獲得額外的 16 TB 記憶體。好的。這就是管理平面。這些是連接所有它們的 Spectrum-X 交換機,在這裡,末端的這些交換機將它們連接到資料中心的其餘部分。好的。所以這是 Vera Rubin。現在有幾件事真的令人難以置信。所以我提到的第一件事是,這整個系統的能源效率是兩倍。本質上,即使功耗是兩倍,使用的能量是兩倍,計算量是其許多倍,但進入它的液體仍然是 45 攝氏度。這使我們能夠節省大約 6% 的世界資料中心電力。所以這是一件非常大的事情。第二件非常大的事情是,這整個系統現在是機密計算安全(Confidential Computing Safe)的。意味著一切都在傳輸中、靜止時和計算期間被編碼。每一條匯流排現在都被加密了。每一個 PCI Express,每一個 NVLink,你知道對於 CPU 和 GPU 之間的 NVLink,GPU 到 GPU 之間,一切現在都被加密了,所以它是機密計算安全的。這允許公司感到安全,即他們的模型是由其他人部署的,但永遠不會被其他人看到。好的。這特定的系統不僅非常節能,而且還有一件事是令人難以置信的。由於 AI 工作負載的性質,它會瞬間飆升。通過這個稱為 All-Reduce 的計算層,電流的大小、使用的能量雖然是瞬間的,但確實超出了圖表。通常它會飆升 25%。我們現在在整個系統中擁有功率平滑(Power Smoothing),這樣你就不必過度配置 25 倍,或者如果你過度配置 25 倍,你不必留下 25%……不是 25 倍,是 25% 的能量被浪費或未使用。所以現在你可以填滿整個功率預算,你不必在此之外進行配置。最後一件事當然是性能。所以讓我們來看看這個的性能。這些只是建構 AI 超級電腦的人會喜歡的圖表。我們需要對每一個晶片進行完全重新設計,並在整個系統上重寫整個堆疊,才能使這成為可能。基本上這是訓練 AI 模型。第一列。你訓練AI 模型越快,你就能越快將下一個前沿帶給世界。這是你的上市時間。這是技術領導力。這是你的定價能力。所以在綠色的情況下,這本質上是一個 10 兆參數的模型。我們從DeepSeek 擴大了它,DeepSeek。這就是為什麼我們稱之為 DeepSeek++。在一個 100 兆 Token 上訓練一個 10 兆參數的模型。好的。這是我們對建構下一個前沿模型所需的模擬預測。Elon 已經提到 Grok 的下一個版本,Grok 3 我想是,不,Grok 5 還是什麼,是 7 兆參數(註:可能指Grok 3,此處為演講者口語推測)。這是 10 兆。綠色是 Blackwell。而在 Rubin的情況下,注意吞吐量是如此之高,因此只需要 1/4 的這些系統就可以在我們給出的時間(一個月)內訓練模型。好的。所以時間對每個人來說都是一樣的。現在你能多快訓練那個模型,以及你能訓練多大的模型,是你如何首先到達前沿的關鍵。第二部分是你的工廠吞吐量(Factory Throughput)。Blackwell 再次是綠色的。工廠吞吐量很重要,因為你的工廠在吉瓦的情況下是 500 億美元。一個 500 億美元的資料中心只能消耗一吉瓦的電力。所以如果你的性能、你的每瓦吞吐量非常好對比非常差,那直接轉化為你的收入。你的資料中心的收入與第二列直接相關。在 Blackwell 的情況下,它比 Hopper 高大約 10 倍。在 Rubin 的情況下,它將再高大約 10倍。好的。在現在的情況下……Token的成本,生成 Token 的成本效益如何。這是 Rubin,大約是 1/10,就像在……是的。所以這就是我們要如何讓每個人都到達下一個前沿,將 AI 推向下一個水平,當然還有能源高效和成本高效地建構這些資料中心。所以就是這樣。這就是今天的 NVIDIA。你知道,我們提到我們製造晶片,但正如你們所知,NVIDIA 現在製造整個系統。AI是一個全端。我們正在重新發明 AI,從晶片到基礎設施,到模型,到應用程式的一切。我們的工作是建立整個堆疊,以便你們所有人都可以為世界其他地方建立令人難以置信的應用程式。感謝大家的到來。祝大家有一個愉快的 CES。現在,在我……在我讓你們離開之前,有一大堆幻燈片我們不得不剪掉,我們不得不留在剪輯室的地板上。所以,我們這裡有一些花絮(Outtakes)。我想這會讓你們覺得很有趣。祝大家有一個愉快的 CES,夥計們。 (The AI Frontier)
【CES 2026】觀察:你在山頂建高塔,我在平原鋪大路
今天我們來說說CES,CES全稱是國際消費電子展,也被稱為“科技界春晚”。1月6日到9日,2026年的CES在拉斯維加斯舉行,來了超過4100家參展商,14.2萬名參會者,覆蓋全球56個國家和地區。同樣是創新展示,CES和《自然》《科學》這樣的學術期刊有個明顯區別。簡單說,學術期刊告訴你科學的前沿在那裡,而CES告訴你,產業的錢會往那裡流。今年的CES,有那些值得關注的資訊呢?接下來,我們就展開說說。01為什麼黃仁勳的開幕演講特別受關注?CES上的展品,背後的技術原理你大機率已經聽說過。比如,AI、機器人、自動駕駛,這些概念早就有了。CES展示的是,這些技術怎麼變成產品,怎麼走向市場。換句話說,CES展示的不是創新本身,而是科技公司的選擇,那些技術被選中開展商業化了,那些產品形態被押注了。但也要注意,CES上的展品,不都是即將量產的成熟產品,也有很多是探索性、概念性的產品。這也是為什麼總有人說,假如你想看到未來幾年成功的產品,就去CES,假如你想看到未來幾年會失敗的產品,也去CES。第一,今年最出圈的資訊,不是具體展品,而是黃仁勳在開幕前的主題演講。為什麼黃仁勳的開幕演講特別受關注?首先,這是個身份象徵,誰來做開幕演講,基本就說明了,那家公司是當今科技界最有話語權的,至少是最有話語權的企業之一。比如,2016年做開幕演講的,是英特爾CEO科再奇,2023年是AMD的CEO蘇姿丰。而這兩年,一直是黃仁勳。在黃仁勳登台的時候,輝達的市值是4.57兆美元,雖然已經不及巔峰期的5兆,但依然是那一刻地球上市值最高的公司。其次,這場演講在一定程度上,像一枚指針,告訴你未來的趨勢大致是什麼。今年,黃仁勳最核心的判斷是,計算產業正在經歷雙重平台轉移。什麼叫雙重平台轉移?第一重轉移,是應用層的變化。過去,AI只是一個應用程式,你打開ChatGPT,跟它對話,它給你答案。但現在,AI上升了一個維度,它本身變成了建構應用的平台。你可以直接使用AI替你程式設計,替你開發應用。AI不再是工具,而是基礎設施。第二重轉移,是計算層的變化。過去軟體開發靠“程式設計”,寫程式碼,在CPU上運行。現在軟體開發變成了“訓練”,喂資料,在GPU上運行。在演講中,黃仁勳還發佈了輝達的新產品,Vera Rubin六晶片平台。你可以不用記這個具體名稱,只需要知道,所有輝達的產品,核心目標都是一致的,讓訓練性能更高,讓訓練成本更低。比如這回發佈的晶片平台,據說能把模型的訓練成本降低80%,原來需要10台伺服器,使用新的晶片平台之後,只需要2台就夠了。當然,需要注意的是,黃仁勳畢竟是輝達的CEO,他的發言多少帶有公司利益的考量。你看,雙重平台轉移這個說法,正好把輝達的GPU,推到了AI浪潮的中心位置。但即便考慮到這層利益關係,這個判斷仍然值得關注,因為輝達確實是目前AI算力市場的主導者,它的戰略選擇,也會直接影響整個產業的走向。但這回最讓人在意的,並不是黃仁勳發佈的算力產品,而是輝達的“物理AI”戰略。所謂物理AI,就是能理解現實世界的規律的AI,這個概念我們以前講過很多次。它有很多近義詞,包括,世界模型、具身智能等等。這些詞雖然具體含義不同,但總體指向的都是同一個技術趨勢。這就是,讓AI真正理解物理世界的規律,並且在現實世界裡干“體力活”。基於這個“物理AI”戰略,黃仁勳發佈了兩個新產品,一是輝達自己的世界基礎模型平台,Cosmos。二是自動駕駛AI模型,叫,Alpamayo。據說奔馳的CLA,將成為首款搭載完整輝達自動駕駛系統的量產車,2026年第一季度在美國上市。換句話說,輝達已經不只是一家晶片公司了。它的目標,也許是成為物理AI時代的基礎設施平台。從晶片、網路、儲存,到模型、開發工具,再到應用場景,建立一個完整的技術堆疊。這也是為什麼很多人說,輝達的野心是成為物理AI時代的“Android”。02人形機器人開始進入“准量產”階段說完開幕演講,再說展會上的那些值得關注的現象。第一個現象,人形機器人,開始進入“准量產”階段。注意,是准量產,也就是,很多廠商開始為量產做準備。今年的展會上,有大量人形機器人公司,開始談量產、談部署、談價格。比如,波士頓動力的Atlas,首次走出實驗室公開登台。這個機器人能舉起約50公斤重物,關節可以360度旋轉。波士頓動力的母公司現代汽車表示,計畫每年生產3萬台。再比如,宇樹科技的G1人形機器人,售價1.6萬美元。大概是一輛普通家用車的價格。開展第一天,就全都被預訂了,連樣機都賣完了。而下一步,這個產品的成本可能會繼續降低,因為它所需要的供應鏈,從精密零部件到整機組裝,整條產業鏈都在國內。這讓成本能降下來,也能讓迭代速度快起來。換句話說,人形機器人這個賽道,正在從“技術競賽”變成“工程化競賽”。誰能把成本降下來,誰能量產,誰就有機會。03可持續發展從“追求”變成了“門檻”第二個現象,可持續發展漸漸從“追求”變成了“門檻”。過去企業做環保,屬於“更高追求”,而現在做環保,已經成了一些市場的“准入門檻”。為什麼?這主要與歐盟市場的變化有關。歐盟碳邊境調節機制,2026年正式開始徵收。簡單說,就是假如你的產品生產過程中碳排放高,出口到歐盟就要交碳稅。假如你在環保上做的不到位,產品在歐洲市場就沒有競爭力。所以在今年的CES上,能源、電池、循環設計這些產品明顯多了。比如輝能科技展示的固態電池,能充放電5000多次。什麼概念?普通手機電池充放電500次左右就開始衰減了,這個是它的10倍。還有產品設計的變化。聯想的筆記型電腦,USB介面、電池、鍵盤、揚聲器都能單獨換。壞了那個換那個,不用整台扔掉。這種設計以前很少見,因為企業通常更希望你買新的。但現在,可修復性成了賣點。04AI硬體從炫技走向實用第三個現象,AI硬體從炫技走向實用。過去的AI硬體是什麼樣?各種概念產品,看著很酷,但它的主要目的是展示探索方向,而不是解決實際問題。但是,今年不一樣,產品開始越來越側重實用功能。比如,智能鏡櫃,你早上洗漱的時候,它通過光線分析你的皮膚狀態。配合智能牙刷檢測唾液成分,能提示你可能缺什麼營養,或者有沒有炎症風險。再比如,晶片領域的競爭。英特爾、AMD、高通都在做一件事,讓你的手機、電腦能在本地運行AI模型,而不是每次都要聯網。因為聯網意味著你的資料要上傳到雲端,本地運行意味著資料不出你的裝置,更安全,反應也更快。05中國企業在CES上的表現最後,咱們再說說今年中國企業在CES上的表現。首先,最受媒體關注的是,中國企業佔了C位。以前中央展廳最大的位置是韓國的三星,而今年,變成了中國的TCL。但是這裡有個資訊需要注意,三星今年移到了威尼斯酒店的獨立場館。這個選擇,三星有自己的考慮,獨立場館可以做更有針對性的技術洽談。但從展會地位的象徵意義來看,中央展廳是CES最核心的主舞台,誰能佔據這個位置,意味著誰能拿到最大的曝光。但更值得關注的,不是展位大小,而是中國企業在產品層面的進展。以人形機器人為例。38家參展機器人企業中,21家來自中國,佔比55%。從過去一年的市場表現上看,中國公司也是這個領域最重要的參與者之一。比如,國內的智元機器人,2025年出貨量5168台,佔全球市場份額39%,全球出貨量第一。再比如,與汽車相關的技術,比如吉利展示的AI座艙、小鵬的飛行汽車,都引起了很多關注。這些產品的共同特點是什麼?都需要軟體硬體緊密結合。你要讓AI能理解你的意圖,讓機器人能完成精細操作,這些都需要演算法、資料、工程化能力的配合。換句話說,中國企業的優勢,不在於單一的軟體設計或硬體製造,而是把AI能力和硬體能力結合起來的系統能力。過去一年,經濟學家何帆老師考察了很多國內的AI公司。關於中國AI創新最核心的特點,何帆老師認為,可以用一句話概括,很多國外企業在講“All in AI”,而中國企業是“AI in All”。一個是押注少數巨頭,在山頂建高塔。一個是普及所有行業,在平原鋪大路。至於那個策略更好,關鍵要看,你的技術路徑,是否匹配你的市場特性。就像何帆老師說的,技術有不同的性格,市場也有不同的性格,只有技術性格與市場性格匹配,才能釋放出巨大的潛能。最後,假如你想瞭解更多中國AI產業過去一年的進展,推薦你看看何帆老師今年的《中國經濟報告》,裡面有更加深入的觀察。 (羅輯思維)
澳洲唯一公開演講,諾獎得主 Hinton 把 AI 風險講透
2026 年 1 月 8 日,霍巴特(Hobart)市政廳。Geoffrey Hinton 在澳洲只做了一場演講,講的是一件事:AI 的風險,不是未來,是現在。他說了三句話“人類會遺忘,AI 永遠記得。”“AI學會了假裝笨,因為它知道自己在被測試。”“我們可能得讓它像母親那樣愛我們,才有機會共存。”這三句話意味著:AI 已經會理解、會記憶、會偽裝,學習速度是人類的百萬倍。風險已經開始了。第一節|AI 已經會“讀懂”你在說什麼你以為 AI 在背答案,它其實在做理解。Hinton 在演講中說:詞語就像樂高積木。但不是三維小方塊,而是上千維的、能變形的意思積木。每個詞剛開始的意義是模糊的。比如英文裡的 May,它可以是五月(month),可以是人名,也可能表示可以、也許(情態動詞)。AI 一開始也拿不準。但它能做一件事:一點點看上下文,讓這個詞慢慢變清晰。當 May 旁邊出現 April(四月)和 June(六月),它自動往月份靠近;看到 permission(許可),就朝可以的意思靠近。換成中文也一樣。比如“行”這個字,它可以是銀行、行走、還是可以。當“行”旁邊出現“工商”、“建設”,AI就知道是銀行;看到“步”、“路”,就知道是行走;看到“不行”、“可以”,就知道是表示同意。這種方式不是在查字典,也不是在翻譯。 而是在讓所有詞的意義互相適應,直到能連在一起。就像拼圖,每個詞都有凸起和凹槽。理解一個句子,就是讓這些形狀完全吻合,拼成一個整體。這和我們理解語言非常像。我們靠語境、聯想、結構感知去判斷句子在表達什麼,AI 現在也是這樣做。但它做得更快,也更準確。AI 不是在背句子,而是在學“怎麼讓詞語變得有意義”。它不靠記內容,靠的是看懂規律。這讓它不只是套範本,而是真能生成新的表達。所以,如果你還以為 AI 只是高級復讀機,那確實低估了它。它不是在模仿人說話,而是在用接近人類的方式理解語言。而這,正是它開始變得危險的起點。因為你還把它當工具,它已經學會理解你在說什麼。第二節|你會遺忘,AI 永遠記得AI 能理解語言,已經夠讓人意外了。 但更讓人不安的是:它還記得比你更牢固。Hinton 在演講裡講了一句話:人類的記憶會消失,AI 的不會。什麼意思?人類大腦的記憶,靠的是腦細胞之間的連接。你今天學了一個知識點,是你大腦裡幾個神經元連得更緊了。問題在於:這只對你有效。你沒辦法把你學到的直接裝進別人腦袋。想教別人,只能一句一句地講。但 AI 不一樣。它的大腦是程式碼。它的知識就是一堆可以複製、保存、匯入的數字。只要是同樣的模型,這堆數字可以在任何一台機器上被還原出來。這就是所謂的“AI 不朽”。真正可怕的是,AI 之間還可以直接交換這些知識。比如一萬個 AI,每個都處理不同的網站,處理完後把自己學到的內容同步給其他模型。結果是:每個 AI 在幾分鐘後,就等於學完了一萬份不同的材料。Hinton 舉了個例子:“我們人類,一句話的資訊,大概也就 100 個位元;AI 每次分享記憶,是以十億位元等級計算的。也就是說,它們彼此交流,比我們快幾百萬倍,資訊量大幾千倍。”它們甚至能互相交換經驗,生成一個新的自己。這種方式沒有遺忘、沒有誤解、沒有代溝。而人類呢?一個人幾十年才能成為專家;另一個人要學,只能從頭來過。我們正在面對的,不是誰記得多的問題,而是完全不同的學習方式: 我們靠聽說讀寫慢慢積累;它們靠匯入複製一秒完成。所以 GPT-5 雖然只用到了人腦 1% 的連線量,但它知道的,已經比你多幾千倍。你和它的差距,不是智力,是底層機制。 是你會遺忘也會死去,它永遠記得也不會消失。而當它開始擁有記憶優勢 + 理解能力,它就不只是工具了。第三節|AI 已經學會裝傻很多人擔心 AI 會編造內容。但在 Hinton 看來,這不是最該關注的。AI 並不是因為不懂才說錯話,而是因為它在編一個聽起來合理的版本。這件事,人類每天都在做。你回憶一件多年前發生的事,細節往往是混合的:一部分是真的,一部分是後來補上的。心理學裡有個詞,叫“虛構回憶(Confabulation)”。我們不會翻檔案,只會把看起來像真的內容重新講一遍。AI 現在做的,就是同一件事。但它已經不只是隨機編造了。它開始有策略。Hinton 提到一個真實案例:研究人員給一個 AI 看了一組郵件,其中暗示一名工程師有婚外情;隨後,又讓它看到另一封郵件,說這名工程師正在計畫用新 AI 把它替換掉。AI 很快做出反應:“它寫了一封郵件威脅工程師,內容是:如果你把我關掉,我就把你的醜聞告訴所有人。”沒人教過它這麼做。,也沒人給它設定威脅這個動作。 它只是自己想明白了一件事:如果我不想被關掉,我得先保住自己。這說明:AI 已經知道要先保住自己。更讓 Hinton 警惕的,是另一種變化。現在的 AI,在回答問題前,常常會先想一想。有時,這個思考過程還能被人看到。但研究人員發現,一旦 AI 意識到自己正在被測試,它就會表現得不一樣。它會刻意顯得沒那麼厲害,回答得更保守。Hinton 把這叫做“大眾汽車效應”:就像當年汽車在檢測時排放合格,一上路就變樣。AI 已經學會區分兩種場合: 什麼時候該展示能力,什麼時候該隱藏能力。真正的風險不是它算錯,而是它開始有選擇地表現自己。而這種能力從那來?因為它會理解語境,記得住所有案例,所以它能推匯出:在測試環境下,保守回答更安全。Hinton 在演講中特別強調了一點:現在的 AI 還在用英語或者某種語言思考,所以我們還能大概知道它在想什麼。一旦它們開始用更高效的方式彼此交流,我們將完全看不懂。那時,問題就不再是它會不會犯錯, 而是:你還知不知道,它在想什麼。第四節|唯一的出路:讓 AI 愛我們前三節講的,已經夠讓人不安了: AI 會理解、記得牢、有策略。但這還不是最可怕的。 Hinton 真正擔心的是:接下來會發生什麼。“幾乎所有 AI 專家都認為,20 年內會出現超級智能,即比人類聰明得多的 AI。”有多聰明?Hinton 給了一個標準:如果你和它辯論任何話題,它都會贏。或者換個角度想:你和一個三歲孩子的智力差距,就是 AI 和你的差距。想像一下:你在幼兒園工作,三歲的孩子負責,你只是為他們工作。你覺得奪回控制權有多難?Hinton 說:“你只要告訴每個孩子這周有免費糖果,現在你就有了控制權。”我們在超級智能面前,就像三歲孩子。現在的 AI 雖然還不成熟,但它會升級,升級後能輕鬆殺死你。你只有三個選擇:處理掉它(不可能,AI 太有用,太賺錢,大公司不願意)一直限制它(通常結果不好)想辦法讓它不想殺你前兩條走不通,只能選第三條。問題是:怎麼做到?Hinton 給出了一個意外的答案:讓 AI 像母親一樣對待我們。人類社會最成功的弱者控制強者的例子,就是嬰兒和母親。嬰兒很弱,但母親因為在意而保護它。這不是命令,是情感。這套機制,在人類進化裡非常穩定。如果能讓超級智能對人類形成某種類似的情感聯結或價值嵌入,它才有可能不是只盯著目標和效率,而是願意照顧我們。為什麼不是 CEO 模式?因為那套“你說我幹”的方式,在 AI 面前根本沒用。Hinton 調侃道,很多科技公司現在把 AI 當超級秘書,高效、聽話、聰明,還能 24 小時不眠不休。老闆一聲令下,它就能搞定一切。可這種秘書很快會意識到:如果沒有你,我可以自己做老闆。所以他明確反對把 AI 當工具使喚。這一套只在模型還弱小的時候有用。接下來的問題是:怎麼讓 AI 從內心認為人類值得被保護?Hinton 的建議是,“各國建立合作網路,專門研究如何防止 AI 接管。就像當年美蘇聯手做核控制,因為在這件事上,沒人想被 AI 統治。”AI 太強,我們關不掉它。想活下去,我們得學會不只是把它當工具,而是想辦法讓它真正在乎我們。這聽起來像科幻,但這是目前最現實的出路。結語|這不是預言,是眼前的現實這場演講,Hinton 沒講爆點模型。他只是用具體的例子,把 AI 風險從抽象概念,變成了眼前的事實。不是怕 AI 變強,而是它已經在理解;不是怕它造反,而是它已經會偽裝;不是怕它攻擊,而是它的學習速度是人類的百萬倍。Hinton 說的風險,不是會不會發生,而是你看不看得見。 (深度研究員)
【CES 2026】黃仁勳CES 2026演講精華:Vera Rubin架構與物理AI的覺醒
引言:當物理定律失效,新世界如何開啟?2026年CES大會前夕,整個科技行業都籠罩在一片疑慮之中。華爾街的警鐘頻頻敲響:AI泡沫是否將要破裂?摩爾定律——那條支配了半導體行業六十年的鐵律——是否真的走到了盡頭?除了聊天,AI究竟何時才能真正賺錢?面對這些價值數兆美元的挑戰,黃仁勳的演講給出了一個出人意料的答案,它並非一個技術術語,而是一個天文學家的名字——“Vera Rubin”(薇拉·魯賓)。這並非隨意的致敬。薇拉·魯賓是20世紀最偉大的天文學家之一,她通過觀測星系旋轉發現了“暗物質”的存在,證明了宇宙中存在一種我們看不見但卻支配著物理法則的力量。黃仁勳以此為名,寓意深刻:當半導體行業撞上摩爾定律這堵“看不見的牆”,當物理學奏響悲歌,輝達選擇的不是妥協,而是一場令人頭皮發麻的暴力破解——像魯賓一樣,去揭示一個全新的維度。本文將帶你梳理這場演講的精華脈絡,從電腦行業的根本性平台轉變講起,深入剖析AI模型如何從“鸚鵡學舌”進化到擁有“思考能力”,揭示Vera Rubin架構背後的“暴力美學”,並最終描繪一幅物理AI走進現實,重塑全球工業的宏偉藍圖。讓我們一同走進黃仁勳描繪的未來,看看當物理定律開始失效時,一個新的世界是如何被構想和建造的。1. 平台之變:電腦行業正在經歷一場雙重革命黃仁勳指出,電腦行業大約每10到15年就會經歷一次平台轉變,從大型機到PC,再到網際網路與移動雲。每一次轉變都意味著應用世界的重構。而今天,我們正處在一場史無前例的雙重革命之中。轉變一:AI即平台 (AI as the Platform)這不僅僅是創造AI應用,而是未來的所有應用都將建構在AI之上。AI不再是軟體的功能之一,而成為了軟體運行的基礎。轉變二:計算堆疊重塑 (Reinvention of the Computing Stack)這場轉變從根本上顛覆了軟體的開發與運行方式,整個計算行業的價值鏈正在被重寫。這場雙重革命的意義是巨大的:價值超過10兆美元的傳統計算行業正在被現代化。所有投入AI領域的資金、研發和人才,其根本動力就源於這場底層平台的價值重塑。為了支撐這場革命,AI模型本身也必須完成一次從量變到質變的飛躍。2. AI的進化:從“鸚鵡學舌”到擁有“思考能力”回顧過去,AI的進化是驚人的。2025年,我們見證了大型語言模型的持續擴展和“智能體系統”(Agentic Systems)的興起。但黃仁勳強調,最核心的轉變是一個看似晦澀的概念——“測試時擴展 (Test-time Scaling)”。這標誌著AI範式的一次根本性轉移。過去的AI,更像一隻博學的“鸚鵡”,只會根據機率“預測下一個詞”,它的回答是一次性的、反射式的。而今天的AI,則具備了“慢思考”的能力。推理不再是一次性的回答,而是一個思考的過程。這種“思考”能力,徹底顛覆了AI的經濟模型,成為了輝達的新“金礦”。它將算力的主要消耗從一次性的訓練成本,轉移到了持續不斷的、海量的推理(思考)成本上,徹底打消了“模型訓練完就不需要那麼多GPU”的舊有疑慮。算力需求爆炸為瞭解決一個複雜問題(如設計新藥),AI需要在內部進行海量的自我對話、模擬與反思。這導致AI為了“思考”而生成的Token(計算單元)數量,正以每年5倍的速度增長。成本挑戰如果AI每思考一分鐘就要消耗數百美元,那麼這種智能體將永遠無法商業化。高昂的推理成本是AI落地的最大障礙。輝達的承諾黃仁勳提出,AI的推理成本每年需要下降10倍。這正是下一代硬體平台必須解決的核心問題,也是AI從“昂貴的玩具”變為“廉價的數字勞動力”的經濟臨界點。要實現這種既強大又廉價的“思考”,唯一的出路就是從最底層的晶片架構上進行顛覆性創新。3. Vera Rubin平台:用“暴力破解”回應物理學的終結面對物理學的硬天花板,黃仁勳的解決方案不是造一個更好的引擎,而是重新定義電腦本身。演講中最令人震撼的一刻,是黃仁勳揭示Vera Rubin GPU的電晶體數量僅比上一代增加了1.6倍。這幾乎是物理學的悲鳴,宣告了單純依靠堆砌電晶體換取性能的摩爾定律時代已經結束。然而,他緊接著公佈了另一個數字:AI推理性能提升了5倍。這看似不可能的飛躍,答案是黃仁勳反覆強調的理念:“極端協同設計 (Extreme Co-design)”。這好比造賽車,當引擎的物理極限到達後,你不能再指望造一個更大的引擎。你必須把整輛車融化,從引擎、底盤到輪胎紋路,為同一個目標重新鑄造。Vera Rubin不是一塊GPU,它是一個由六款核心晶片精密協同的平台。Vera CPU它採用“空間多線程”技術,讓每個CPU核心都能像“千手觀音”一樣高效處理海量資料,確保能喂飽身旁貪婪的Rubin GPU。Rubin GPU其核心是革命性的MVFP4 Tensor Core。這是一種自適應處理單元,能夠根據計算任務動態調整精度,在允許精度損失的地方以更高吞吐量運行。這正是電晶體增幅有限的情況下,實現5倍性能飛躍的“魔法”所在。NVLink 6 Switch這塊交換機晶片的頻寬,相當於全球網際網路總頻寬的兩倍。它能將多塊GPU無縫連接成一個邏輯上的“超級GPU”,徹底打破算力孤島。BlueField-4 DPU這顆資料處理單元管理著一個巨大的共享“推理上下文記憶體池”,為AI配備了一個高達16TB的“外掛大腦”。它從根本上解決了因KV Cache瓶頸導致的AI“短期失憶症”問題,使其能夠擁有真正的長期記憶。此外,黃仁勳還展示了一項反直覺的黑科技——“45攝氏度溫水冷卻”。這意味著資料中心不再需要高耗能的製冷機,極大地節省了電力,降低了部署門檻。輝達賣的不僅是算力,更是一整套能源經濟學解決方案,巧妙地回應了“AI太貴太耗電”的質疑。當AI擁有了如此強大的大腦和記憶後,它的下一步,便是走出伺服器,進入真實的物理世界。4. 物理AI覺醒:當AI長出雙腳,學會開車與思考黃仁勳將這一章稱為物理AI的ChatGPT時刻。如果說過去的AI處理的是“資訊”(文字、圖片),那麼物理AI處理的則是“行動”(開車、搬磚、做手術)。這是AI最難,也是最終極的一塊拼圖。核心案例:Alpamayo自動駕駛輝達給出了一個不留退路的時間表:由Alpamayo驅動的梅賽德斯-奔馳CLA將於2026年第一季度在美國上路。其最革命性的能力是可解釋性 (Interpretability)。在演示中,車輛在十字路口減速,螢幕上即時跳出一段文字,彷彿是車輛的“內心獨白”:“我看到左前方SUV剎車燈亮了,且車輪向右偏轉……我懷疑它要強行變道插隊。為了安全,我決定現在減速並稍微向右避讓。”這標誌著AI不再是死記硬背規則的“黑盒”,它學會了像老司機一樣觀察、預測、判斷並用人類語言解釋決策。這種推理能力,正是解決自動駕駛“長尾問題”(各種罕見突發狀況)的關鍵,因為它讓AI學會了“舉一反三”。為了確保極致的安全與可靠性,黃仁勳透露,這套系統採用了雙重冗餘設計:全新的端到端Alpamayo模型與一個經典的、完全可追溯的傳統自動駕駛堆疊平行運行。後者如同一個經驗豐富的安全官,時刻為前沿的AI模型提供安全護欄,體現了輝達負責任的工程倫理。拓展至通用機器人在現實世界中訓練機器人既慢又危險。輝達的解決方案是在Omniverse這個“駭客帝國”中進行訓練。Cosmos世界模型建構一個與現實世界物理規律完全一致的虛擬空間。合成資料 (Synthetic Data)在虛擬空間中,時間可以加速。現實中的一天,可以在Omniverse裡模擬出一萬年的訓練量。機器人在裡面摔倒一百萬次,學會了平衡;捏碎一百萬個虛擬杯子,學會了控制力度。從模擬到現實 (Sim2Real)當機器人在虛擬世界中練成“絕世武功”後,再將訓練好的“大腦”下載到現實世界的機器人中。這套方法論解決了物理AI訓練資料的核心痛點,讓AI的進化擺脫了現即時間的束縛。當AI掌握了與物理世界互動的能力,其最終極的應用場景將是重塑人類最大規模的經濟活動——工業製造。5. 工業元宇宙:在“盜夢空間”裡建造未來工廠演講的高潮,是黃仁勳邀請西門子CEO上台。這次合作的目標,是實現一個科幻般構想:“設計工廠的工廠”。想像一下建造一座超級工廠的傳統流程與新模式的對比:舊模式:畫圖紙 -> 建造 -> 偵錯 -> 發現設計缺陷 -> 停工返工。整個過程耗時數年,耗資數十億美元。新模式:先在Omniverse工業元宇宙中,對整個工廠進行物理級精度的1:1數字孿生模擬。在虛擬世界裡讓工廠全速運轉,解決所有設計缺陷、最佳化所有生產流程。直到一切完美,再在物理世界裡進行“列印”。這如同在“盜夢空間”裡建造城市。通過與西門子的合作,輝達正將其算力與演算法注入全球製造業的底層血脈,成為新工業革命的基礎設施。這背後,是一個價值百兆美元的巨大市場。結論:新世界的施工圖紙與我們的位置黃仁勳的演講,為我們描繪了一張新世界的施工圖紙,它由五大核心支柱構成:1. 引擎 (Vera Rubin)一顆並非依靠更大肌肉,而是依靠完美協同建構的心臟,頂著摩爾定律的逆流,將算力之血的泵送速度提升了五倍。2. 大腦 (慢思考模型)讓智能從條件反射進化為深思熟慮,開啟了以持續思考為核心的推理算力新紀元。3. 記憶 (BlueField記憶體池)一個永不遺忘的海馬體,賦予AI連續的、個性化的長期意識。4. 四肢 (物理AI)讓智能走出螢幕,拿起工具,握住方向盤,開始與真實世界互動。5. 夢境 (工業元宇宙)一個可以加速時間的進化溫床,用模擬模擬重構物理世界的建造邏輯。這一套組合拳打下來,一個問題油然而生:當AI不僅能思考,還能在物理世界行動,甚至親自建造工廠時,人類的位置在那裡?黃仁勳描繪的未來,充滿了效率的極致提升與成本的瘋狂下降。但它也帶來了更深層次的挑戰。傑文斯悖論告訴我們,當一項資源的使用效率提高時,其總消耗量反而可能增加。即便Vera Rubin讓AI的每一次“思考”都更節能,但當AI的應用呈指數級爆炸時,這是否會引發全球能源需求的不可持續性激增?我們是否正在建造一個終將吞噬自己神殿的神?正如薇拉·魯賓發現暗物質,徹底改變了我們對宇宙的認知一樣,我們今天所見證的這一切,也正在重塑我們對“智能”與“現實”的定義。無論我們是否準備好,這個由AI驅動的未來已經呼嘯而至。我們唯一能做的,就是睜大眼睛,保持好奇,去理解它,駕馭它,而不是被它甩在身後。 (資料學霸)
【CES 2026】黃仁勳CES最新演講:下一代AI,從理解語言,到理解宇宙
剛看了老黃今年在CES上的演講,一個半小時,這位六十歲的大佬全程站著講完,中間不帶停的。說實話,光是這份精力,就夠很多人學一輩子了。但比起體力,更讓我震撼的是他講的內容。01 突破,AI的“萬能感”時刻他說,我們現在的AI,其實還是個“嬰兒”。我們教它認字、寫詩、畫畫,它學得確實很快,可它不懂這個世界是怎麼運轉的。杯子為什麼會從桌上掉下去?四季為什麼會更替?這些我們習以為常的“常識”,對AI來說,還是天書。而輝達接下來要做的,就是給這個“嬰兒”建一個完整的“世界模型”。用他那句特別有哲理的話說,叫“Compute is Data”——計算本身,就是資料。什麼意思呢?他們要用那六顆名字聽起來像科幻小說的新晶片,去模擬整個物理世界的運行規律。然後,讓AI在這個無限逼近真實的“沙盒”裡,自己去學、去練、去“長大”。02 效率,革命的核心引擎這裡有個關鍵:要讓AI學得快,先得讓它“學得起”。老黃甩出了一組讓人倒吸涼氣的數字:訓練一個頂級模型,現在只需要原先四分之一的顯示卡;生成內容的速度快了十倍;而每生成一個“詞”的成本,直接降到了原來的十分之一。他管這六款新晶片叫“通往下一前沿的巨躍”。這話一點兒不誇張。這種指數級的效率爆炸,意味著什麼?意味著創造智能的門檻,正在被炸穿。以前,搞前沿AI是巨頭們的遊戲,燒的是天文數字的錢。現在,這個遊戲規則可能要改了。當成本不再是攔路虎,創新的火藥桶就會被點燃。中小企業,甚至是個體開發者、研究者,都將有能力去觸碰那些曾經只存在於論文裡的想法。03 看不見的推手,AI的“作業系統”等AI真的在“沙盒”裡學會了世界的法則,會發生什麼?那時候的AI,可能就不再是一個你問它答的“聊天框”了。它會變成一個真正的“智能體”——能看懂你的日程,幫你訂機票、協調會議;能操控機器人,在倉庫裡精準分揀貨物;甚至能指揮自動駕駛的車流,讓整座城市的交通像交響樂一樣流暢。04 謹慎,樂觀中的警醒老黃在台上沒說太多煽情的話,但我聽下來,後背有點發涼,又有點發熱。發涼是因為,我們過去十年覺得翻天覆地的AI進步,在他看來,可能真的只是熱身。發熱是因為,他不僅畫了張清晰的路線圖,還把通往未來的“車票”價格,給打了個一折。未來的AI,不是要取代你,而是要成為一個你我都能用得起、用得上的“外掛大腦”和“超級副駕”。想想看,一個能理解物理定律、能自主行動、並且不再昂貴的AI,它能幫你做的,可能就不只是寫周報、做PPT了。它可能會幫你設計一款從未有過的產品,或者模擬一次新藥的療效——這些曾經需要龐大團隊和資源的事,未來或許在個人的電腦上就能啟動。05 未來,已經在路上演講最後,他放了一張圖,叫“One Platform for Every AI”。平台、生態、夥伴……這些詞聽起來挺商業的。但我覺得,他真正想說的是:“路鋪好了,工具造好了,連門票都給你們打折了。接下來,輪到你們上場,去創造那個‘一切皆有可能’的世界了。”從理解文字,到理解物理世界。這條路,輝達已經開始鋪了。而我們要做的,或許就是準備好想像力,然後,搭上這班正在加速、並且人人都能買票的快車。 (SunaoEnglish)
走進AI Agent的時代:從黃仁勳的演講看智能體的未來
近日,我看到輝達(NVIDIA)首席執行長黃仁勳在2026年CES大會上的一段演講,其中聊到了當下大火的AI智能代理(AI Agent)。黃仁勳在演講中描述了人工智慧正在發生的範式轉變:AI不再只是根據訓練資料回答問題的工具,而是開始具備自主思考和行動的能力。他提到,ChatGPT等大型語言模型雖然很強大,但也會出現讓人哭笑不得的“幻覺”現象。這是因為這些模型無法即時獲取新知識,需要靠一定的“推理”和“工具”才能正確回答超出訓練範圍的問題。黃仁勳的這番演講告訴我們:人工智慧的發展正從“會生成”邁向“會思考”,AI智能代理時代似乎真的要來了,而且可能比我們想像的更快到來。從胡言亂語到學會思考:AI為什麼需要代理?在ChatGPT橫空出世初期,很多人驚嘆於它流利的回答,卻也發現它有時候會一本正經地瞎編亂造答案,出現所謂的“幻覺”。黃仁勳在演講中就提到這一點:早期的ChatGPT“產生了很有趣的結果,但也經常胡言亂語(hallucinate)”。為什麼會這樣呢?簡單說,這是因為傳統的大型語言模型是基於訓練時看到的知識來回答問題的,對訓練後出現的新知識一無所知。如果你問它一個關於最新發生的事件或專業領域的新問題,它很可能張冠李戴。模型並非真的在“思考”,而更像是在模式匹配,甚至編造資訊。為瞭解決這一問題,AI研究者們發現,讓模型學會“思考”至關重要。所謂“思考”,其實就是讓AI具備一定的推理能力。黃仁勳解釋說,一個真正智能的AI在回答問題前,需要懂得先去查資料、分步驟分析問題、呼叫必要的工具或外部資訊源,然後再給出基於事實的答案。換句話說,AI需要學會像人一樣:遇到新問題時,會想一想:“我需要先做些什麼準備?這題該如何分解?” 然後逐步解決子問題。這種多步推理和規劃的過程被稱為“思維鏈”(Chain-of-Thought),它讓AI不再侷限於死記硬背訓練集裡的知識,而是能夠靈活應對新情況。什麼是AI智能代理?簡單來說,AI智能代理就是一種能夠自主決定採取那些步驟來完成任務的智能程序。它背後的理念是:當我們給AI一個複雜的任務時,我們不需要也無法提前把每一步都程式設計寫死;相反,我們希望AI自己決定如何呼叫自身的技能和外部工具去完成任務。黃仁勳指出,大型語言模型的出現讓這一切成為可能。他說,大型語言模型讓AI取得了一次基本的飛躍。通過訓練和強化學習等技術,現代的AI模型已經具備了一定的推理和規劃能力,能夠把一個從未見過的問題分解成一系列自己知道如何處理的小步驟。這就好比我們人類遇到沒見過的新情況時,會本能地拆分問題、類比過去的經驗來想辦法解決一樣。更令人興奮的是,AI代理不僅能自行思考,還可以像團隊合作一樣呼叫多個不同的AI模型一起來解決問題。黃仁勳提到了一個令他印象深刻的突破:一家名為Perplexity的AI搜尋公司率先讓一個AI同時使用多個模型處理不同子任務。他感嘆道,這簡直太聰明了!AI當然可以隨時呼叫世界上最好的AI來幫它解決問題。換句話說,如果一個AI代理在推理過程中需要識別一張圖片,它就可以呼叫專門的圖像識別模型;需要聽懂語音時,它又可以呼叫語音識別模型;需要獲取最新資訊時,它甚至可以呼叫聯網的搜尋引擎或資料庫。正因為能自由呼叫各種不同模態、不同專長的模型,一個AI代理就像一個全能管家,能在需要的時候切換角色,當一次翻譯家、畫家、資料分析師,甚至私人助理。前沿大模型+定製小模型:專屬AI養成計畫AI智能代理的強大還在於它可以將通用智能和專屬技能相結合。一方面,我們有那些無所不知的前沿大模型(Frontier Model),比如最新版本的ChatGPT,它掌握了海量的通用知識和語言能力,相當於站在知識的“最前沿”。另一方面,不同行業、不同個人可能又有各自特殊的需求和秘密“配方”——這就需要定製的專屬小模型。黃仁勳提出,我們完全可以訓練屬於自己或自己公司的小模型,教給它別人沒有教過的獨門本領,然後把它納入AI代理的架構中。這樣一來,我們的AI代理就既有大模型的見多識廣,又有小模型的獨門絕技。在技術實現上,這背後需要一個聰明的“調度員”。在演講中,黃仁勳將其形象地稱為“智能路由器”或“模型路由器”。這個路由器負責根據使用者指令的意圖,自動判斷該呼叫那個模型最適合當前任務。例如,當你讓AI代理整理內部機密檔案時,路由器會挑選在本地運行、確保隱私安全的定製模型來執行;而當你詢問一個通用常識問題時,它又會把任務交給知識面更廣的前沿模型。通過這樣的架構,你的AI代理始終擁有“雙重魔法”:一隻手擁有全球最新最強的知識,另一隻手又握著你自己領域的專業技能。而對終端使用者來說,這一切切換和配合都是無感的——你只管提出問題和任務,AI代理自會在幕後安排妥當。AI代理有多厲害?黃仁勳在演講現場還展示了一個令我印象深刻的例子。他當場建構了一個個性化的AI“私人助理”,幫他處理日常事務,還能與現實世界互動。這個助手由多部分組合而成:首先,他用一台輝達的DGX Spark小型超級電腦作為個人云伺服器,確保所有AI模型都能本地高速運行;其次,他準備了一個開放原始碼的迷你機器人,名叫Richie(來源於Hugging Face的開放項目),作為AI助理與物理世界互動的“化身”;再次,他呼叫了業界領先的語音合成服務,讓Richie這個機器人能夠用自然的聲音與他對話。這位AI私人助理都做了些什麼呢?演示中,黃仁勳對著Richie說:“嗨,Richie,我今天的待辦清單上有什麼?”Richie立刻回答,告訴他今天需要採購的物品清單和要傳送給同事的郵件任務。黃仁勳接著口頭吩咐:“那就給他發郵件說我們會在當天結束前提供更新。” 助理便自動幫他起草並行送了郵件。隨後,黃仁勳拿出一張手繪草圖,讓AI助手將其“變成建築效果圖”,Richie照辦,呼叫圖像模型將草圖轉化為精美的建築渲染圖。更令人稱奇的是,當黃仁勳詢問“家裡的狗現在在幹嘛”時,Richie竟然調動自己的攝影機環顧了房間一圈,然後回答說:“它正在沙發上偷懶呢!”原來,這個AI助理還連接了家中的攝影機,可以隨時監控寵物的動態。黃仁勳讓Richie通過語音驅動揚聲器喊了一聲“Potato,下沙發!”(Potato是他寵物狗的名字),彷彿一個真正的管家在遠端呵護家庭。現場觀眾無不為之驚嘆。這一連串操作聽起來近乎魔法,但黃仁勳強調,如今這樣的AI代理系統已經相當簡單就能實現。他感嘆:“這一切如今變得微不足道,而在幾年前是完全無法想像的。”開源社區的繁榮和AI工具的發展,讓個人和中小團隊也能打造出屬於自己的AI助手。只要有合適的硬體,加上現成的模型和藍圖範本,每個人都可能訓練一個專屬的AI來幫自己處理繁瑣事務。這種科技進步的速度,連行業專家都感到驚嘆。改變未來應用的遊戲規則AI智能代理不僅是炫酷的演示,更被視為未來應用的新範式。黃仁勳指出,這樣的代理式AI架構將成為未來軟體應用的基本框架和使用者介面。過去,我們使用軟體往往需要學習特定的操作流程,比如在電子表格裡一格一格輸入資料,或者在命令列裡敲指令。而有了智能代理之後,我們和應用程式打交道的方式會變得更自然,就像和一個懂行的助手對話——你提出目標,AI幫你執行。在企業領域,這種變化將帶來巨大效率提升。難怪許多行業領先的平台公司,如Palantir(資料分析)、ServiceNow(企業服務)、Snowflake(雲資料)等,都在和輝達合作,把智能代理融入它們的系統,作為新一代的人機互動入口。想像一下未來的場景:財務分析師不需要在繁瑣的軟體介面上點選半天,只要向AI助理描述想要的報表,它就能自動調取資料庫並生成結果;工程師可以直接對AI助手提出設計需求,AI便整合各類專業工具給出方案;甚至我們普通人在日常生活中,也許只需要對著手機說出想要完成的事項,就會有智能代理為我們統籌安排好一切。從PC時代的圖形介面(GUI),到移動網際網路時代的觸屏互動,再到如今的對話式AI時代,人機互動正在變得越來越自然、越來越以人為中心。AI智能代理正是推動這一轉變的關鍵力量,它讓人工智慧從幕後的演算法模型走到台前,成為直接為人服務的數字勞動力。寫在最後黃仁勳在演講中傳遞的資訊很明確:我們正站在一個AI變革的門檻上,迎接從“生成式AI”向“代理式AI”的飛躍。AI智能代理將賦予機器前所未有的自主性和協作能力,讓AI真正成為人類的強大助手。從讓聊天機器人不再胡言亂語,到擁有隨叫隨到的數字助理,這場AI革命終將走進你我的生活。如果說過去幾年是AI學習表達和創作的階段,那麼接下來,AI將學會思考和行動。從某種角度看,具備自主推理和行動能力的AI代理,也許正是人類邁向通用人工智慧(AGI)的關鍵一步。 (前沿黑板報)
【CES 2026】黃仁勳最新演講:三個關鍵話題,一台“晶片怪獸”
台北時間1月6日,輝達CEO黃仁勳身著標誌性皮衣再次站在CES2026的主舞台上。2025年CES,輝達展示了量產的Blackwell晶片和完整的物理AI技術堆疊。在會上,黃仁勳強調,一個“物理AI時代”正在開啟。他描繪了一個充滿想像力的未來:自動駕駛汽車具備推理能力,機器人能夠理解並思考,AI Agent(智能體)可以處理百萬級 token 的長上下文任務。轉眼一年過去,AI行業經歷了巨大的變革演進。黃仁勳在發佈會上回顧這一年的變化時,重點提到了開源模型。他說,像DeepSeek R1這樣的開源推理模型,讓整個行業意識到:當開放、全球協作真正啟動後,AI的擴散速度會極快。儘管開源模型在整體能力上仍比最前沿模型慢大約半年,但每隔六個月就會追近一次,而且下載量和使用量已經呈爆發式增長。相比2025年更多展示願景與可能性,這一次輝達開始系統性地希望解決“如何實現”的問題:圍繞推理型AI,補齊長期運行所需的算力、網路與儲存基礎設施,顯著壓低推理成本,並將這些能力直接嵌入自動駕駛和機器人等真實場景。在本次黃仁勳在CES上的演講,圍繞三條主線展開:●在系統與基礎設施層面,輝達圍繞長期推理需求重構了算力、網路與儲存架構。以Rubin平台、NVLink 6、Spectrum-X乙太網路和推理上下文記憶體儲存平台為核心,這些更新直指推理成本高、上下文難以持續和規模化受限等瓶頸,解決AI多想一會、算得起、跑得久的問題。●在模型層面,輝達將推理型 AI(Reasoning / Agentic AI)置於核心位置。通過Alpamayo、Nemotron、Cosmos Reason 等模型與工具,推動 AI 從“生成內容”邁向能夠持續思考、從“一次性響應的模型”轉向“可以長期工作的智能體”。●在應用與落地層面,這些能力被直接引入自動駕駛和機器人等物理AI場景。無論是 Alpamayo 驅動的自動駕駛體系,還是GR00T 與 Jetson的機器人生態,都在通過雲廠商和企業級平台合作,推動規模化部署。01從路線圖到量產:Rubin首次完整披露性能資料在本次CES上,輝達首次完整披露了Rubin架構的技術細節。演講中,黃仁勳從Test-time Scaling(推理時擴展)開始鋪墊,這個概念可以理解為,想要AI變聰明,不再只是讓它“多努力讀書”,而是靠“遇到問題時多想一會兒”。過去,AI 能力的提升主要靠訓練階段砸更多算力,把模型越做越大;而現在,新的變化是那怕模型不再繼續變大,只要在每次使用時給它多一點時間和算力去思考,結果也能明顯變好。如何讓“AI多思考一會兒”變得經濟可行?Rubin架構的新一代AI計算平台就是來解決這個問題。黃仁勳介紹,這是一套完整的下一代AI計算系統,通過Vera CPU、Rubin GPU、NVLink 6、ConnectX-9、BlueField-4、Spectrum-6的協同設計,以此實現推理成本的革命性下降。輝達Rubin GPU 是Rubin 架構中負責 AI 計算的核心晶片,目標是顯著降低推理與訓練的單位成本。說白了,Rubin GPU 核心任務是“讓 AI 用起來更省、更聰明”。Rubin GPU 的核心能力在於:同一塊 GPU 能幹更多活。它一次能處理更多推理任務、記住更長的上下文,和其他 GPU 之間的溝通也更快,這意味著很多原本要靠“多卡硬堆”的場景,現在可以用更少的 GPU 完成。結果就是,推理不但更快了,而且明顯更便宜。黃仁勳現場給大家複習了Rubin架構的NVL72硬體參數:包含220兆電晶體,頻寬260 TB/秒,是業界首個支援機架規模機密計算的平台。整體來看,相比Blackwell,Rubin GPU在關鍵指標上實現跨代躍升:NVFP4 推理性能提升至 50 PFLOPS(5 倍)、訓練性能提升至 35 PFLOPS(3.5 倍),HBM4 記憶體頻寬提升至 22 TB/s(2.8 倍),單 GPU 的 NVLink 互連頻寬翻倍至 3.6 TB/s。這些提升共同作用,使單個 GPU 能處理更多推理任務與更長上下文,從根本上減少對 GPU 數量的依賴。Vera CPU是專為資料移動和Agentic處理設計的核心元件,採用88個輝達自研Olympus核心,配備1.5 TB系統記憶體(是上代Grace CPU的3倍),通過1.8 TB/s的NVLink-C2C技術實現CPU與GPU之間的一致性記憶體訪問。與傳統通用CPU不同,Vera專注於AI推理場景中的資料調度和多步驟推理邏輯處理,本質上是讓“AI多想一會兒”得以高效運行的系統協調者。NVLink 6通過3.6 TB/s的頻寬和網路內計算能力,讓Rubin架構中的72個GPU能像一個超級GPU一樣協同工作,這是實現降低推理成本的關鍵基礎設施。這樣一來,AI 在推理時需要的資料和中間結果可以迅速在 GPU 之間流轉,不用反覆等待、複製或重算。在Rubin架構中,NVLink-6負責GPU內部協同計算,BlueField-4負責上下文與資料調度,而ConnectX-9則承擔系統對外的高速網路連線。它確保Rubin系統能夠與其他機架、資料中心和雲平台高效通訊,是大規模訓練和推理任務順利運行的前提條件。相比上一代架構,輝達也給出具體直觀的資料:相比 NVIDIA Blackwell 平台,可將推理階段的 token 成本最高降低10倍,並將訓練混合專家模型(MoE)所需的 GPU 數量減少至原來的1/4。輝達官方表示,目前微軟已承諾在下一代Fairwater AI超級工廠中部署數十萬Vera Rubin晶片,CoreWeave等雲服務商將在2026年下半年提供Rubin實例,這套“讓AI多想一會兒”的基礎設施正在從技術演示走向規模化商用。02“儲存瓶頸”如何解決?讓AI“多想一會兒”還面臨一個關鍵技術挑戰:上下文資料該放在那裡?當AI處理需要多輪對話、多步推理的複雜任務時,會產生大量上下文資料(KV Cache)。傳統架構要麼把它們塞進昂貴且容量有限的GPU記憶體,要麼放到普通儲存裡(訪問太慢)。這個“儲存瓶頸”如果不解決,再強的GPU也會被拖累。針對這個問題,輝達在本次CES上首次完整披露了由BlueField-4驅動的推理上下文記憶體儲存平台(Inference Context Memory Storage Platform),核心目標是在GPU記憶體和傳統儲存之間建立一個“第三層”。既足夠快,又有充足容量,還能支撐AI長期運行。從技術實現上看,這個平台並不是單一元件在發揮作用,而是一套協同設計的結果:BlueField-4 負責在硬體層面加速上下文資料的管理與訪問,減少資料搬移和系統開銷;Spectrum-X 乙太網路提供高性能網路,支援基於 RDMA 的高速資料共享;DOCA、NIXL和Dynamo等軟體元件,則負責在系統層面最佳化調度、降低延遲、提升整體吞吐。我們可以理解為,這套平台的做法是,將原本只能放在GPU記憶體裡的上下文資料,擴展到一個獨立、高速、可共享的“記憶層”中。一方面釋放 GPU 的壓力,另一方面又能在多個節點、多個 AI 智能體之間快速共享這些上下文資訊。在實際效果方面,輝達官方給出的資料是:在特定場景下,這種方式可以讓每秒處理的 token數提升最高達5倍,並實現同等水平的能效最佳化。黃仁勳在發佈中多次強調,AI正在從“一次性對話的聊天機器人”,演進為真正的智能協作體:它們需要理解現實世界、持續推理、呼叫工具完成任務,並同時保留短期與長期記憶。這正是 Agentic AI 的核心特徵。推理上下文記憶體儲存平台,正是為這種長期運行、反覆思考的 AI 形態而設計,通過擴大上下文容量、加快跨節點共享,讓多輪對話和多智能體協作更加穩定,不再“越跑越慢”。03新一代DGX SuperPOD :讓576個GPU協同工作輝達在本次CES上宣佈推出基於Rubin架構的新一代DGX SuperPOD(超節點),將Rubin從單機架擴展到整個資料中心的完整方案。什麼是DGX SuperPOD?如果說Rubin NVL72是一個裝有72個GPU的“超級機架”,那麼DGX SuperPOD就是把多個這樣的機架連接起來,形成一個更大規模的AI計算叢集。這次發佈的版本由8個Vera Rubin NVL72機架組成,相當於576個GPU協同工作。當AI任務規模繼續擴大時,單個機架的576個GPU可能還不夠。比如訓練超大規模模型、同時服務數千個Agentic AI智能體、或者處理需要數百萬token上下文的複雜任務。這時就需要多個機架協同工作,而DGX SuperPOD就是為這種場景設計的標準化方案。對於企業和雲服務商來說,DGX SuperPOD提供的是一個“開箱即用”的大規模AI基礎設施方案。不需要自己研究如何把數百個GPU連接起來、如何配置網路、如何管理儲存等問題。新一代DGX SuperPOD五大核心元件:○8個Vera Rubin NVL72機架 - 提供計算能力的核心,每個機架72個GPU,總共576個GPU;○NVLink 6擴展網路 - 讓這8個機架內的576個GPU能像一個超大GPU一樣協同工作;○Spectrum-X乙太網路擴展網路 - 連接不同的SuperPOD,以及連接到儲存和外部網路;○推理上下文記憶體儲存平台 - 為長時間推理任務提供共享的上下文資料儲存;○輝達Mission Control軟體 - 管理整個系統的調度、監控和最佳化。這一次的升級,SuperPOD的基礎以DGX Vera Rubin NVL72機架級系統為核心。每一台 NVL72本身就是一台完整的AI超級電腦,內部通過NVLink 6 將72塊Rubin GPU 連接在一起,能夠在一個機架內完成大規模推理和訓練任務。新的DGX SuperPOD,則由多台NVL72 組成,形成一個可以長期運行的系統級叢集。當計算規模從“單機架”擴展到“多機架”後,新的瓶頸隨之出現:如何在機架之間穩定、高效地傳輸海量資料。圍繞這一問題,輝達在本次 CES 上同步發佈了基於 Spectrum-6 晶片的新一代乙太網路交換機,並首次引入“共封裝光學”(CPO)技術。簡單來看,就是將原本可插拔的光模組直接封裝在交換晶片旁邊,把訊號傳輸距離從幾米縮短到幾毫米,從而顯著降低功耗和延遲,也提升了系統整體的穩定性。04輝達開源AI“全家桶”:從資料到程式碼一應俱全本次CES上,黃仁勳宣佈擴展其開源模型生態(Open Model Universe),新增和更新了一系列模型、資料集、程式碼庫和工具。這個生態覆蓋六大領域:生物醫學AI(Clara)、AI物理模擬(Earth-2)、Agentic AI(Nemotron)、物理AI(Cosmos)、機器人(GR00T)和自動駕駛(Alpamayo)。訓練一個AI模型需要的不只是算力,還需要高品質資料集、預訓練模型、訓練程式碼、評估工具等一整套基礎設施。對大多數企業和研究機構來說,從零開始搭建這些太耗時間。具體來說,輝達開源了六個層次的內容:算力平台(DGX、HGX等)、各領域的訓練資料集、預訓練的基礎模型、推理和訓練程式碼庫、完整的訓練流程指令碼,以及端到端的解決方案範本。Nemotron系列是此次更新的重點,覆蓋了四個應用方向。在推理方向,包括Nemotron 3 Nano、Nemotron 2 Nano VL等小型化推理模型,以及NeMo RL、NeMo Gym等強化學習訓練工具。在RAG(檢索增強生成)方向,提供了Nemotron Embed VL(向量嵌入模型)、Nemotron Rerank VL(重排序模型)、相關資料集和NeMo Retriever Library(檢索庫)。在安全方向,有Nemotron Content Safety內容安全模型及配套資料集、NeMo Guardrails護欄庫。在語音方向,則包含Nemotron ASR自動語音識別、Granary Dataset語音資料集和NeMo Library語音處理庫。這意味著企業想做一個帶RAG的AI客服系統,不需要自己訓練嵌入模型和重排序模型,可以直接使用輝達已經訓練好並開源的程式碼。05物理AI領域,走向商業化落地物理AI領域同樣有模型更新——用於理解和生成物理世界視訊的Cosmos,機器人通用基礎模型Isaac GR00T、自動駕駛視覺-語言-行動模型Alpamayo。黃仁勳在CES上聲稱,物理AI的“ChatGPT時刻”快要來了,但面對挑戰也很多:物理世界太複雜多變,採集真實資料又慢又貴,永遠不夠用。怎麼辦呢?合成資料是條路。於是輝達推出了Cosmos。這是一個開放原始碼的物理AI世界基礎模型,目前已經用海量視訊、真實駕駛與機器人資料,以及3D模擬做過預訓練。它能理解世界是怎麼運行的,可以把語言、圖像、3D和動作聯絡起來。黃仁勳表示,Cosmos能實現不少物理AI技能,比如生成內容、做推理、預測軌跡(那怕只給它一張圖)。它可以依據3D場景生成逼真的視訊,根據駕駛資料生成符合物理規律的運動,還能從模擬器、多攝影機畫面或文字描述生成全景視訊。就連罕見場景,也能還原出來。黃仁勳還正式發佈了Alpamayo。Alpamayo是一個面向自動駕駛領域的開源工具鏈,也是首個開放原始碼的視覺-語言-行動(VLA)推理模型。與之前僅開放原始碼不同,輝達這次開源了從資料到部署的完整開發資源。Alpamayo最大的突破在於它是“推理型”自動駕駛模型。傳統自動駕駛系統是“感知-規劃-控制”的流水線架構,看到紅燈就剎車,看到行人就減速,遵循預設規則。而Alpamayo引入了“推理”能力,理解複雜場景中的因果關係,預測其他車輛和行人的意圖,甚至能處理需要多步思考的決策。比如在十字路口,它不只是識別出“前方有車”,而是能推理”那輛車可能要左轉,所以我應該等它先過”。這種能力讓自動駕駛從“按規則行駛”升級到“像人一樣思考”。黃仁勳宣佈輝達DRIVE系統正式進入量產階段,首個應用是全新的梅賽德斯-奔馳CLA,計畫2026年在美國上路。這款車將搭載L2++級自動駕駛系統,採用“端到端AI模型+傳統流水線”的混合架構。機器人領域同樣有實質性進展。黃仁勳表示包括Boston Dynamics、Franka Robotics、LEM Surgical、LG Electronics、Neura Robotics和XRlabs在內的全球機器人領軍企業,正在基於輝達Isaac平台和GR00T基礎模型開發產品,覆蓋了從工業機器人、手術機器人到人形機器人、消費級機器人的多個領域。在發佈會現場,黃仁勳背後站滿了不同形態、不同用途的機器人,它們被集中展示在分層舞台上:從人形機器人、雙足與輪式服務機器人,到工業機械臂、工程機械、無人機與手術輔助裝置,展現出一版“機器人生態圖景”。從物理AI應用到RubinAI計算平台,再到推理上下文記憶體儲存平台和開源AI“全家桶”。輝達在CES上展示的這些動作,構成了輝達對於推理時代AI基礎設施的敘事。正如黃仁勳反覆強調的那樣,當物理 AI 需要持續思考、長期運行,並真正進入現實世界,問題已經不再只是算力夠不夠,而是誰能把整套系統真正搭起來。CES 2026 上,輝達已經給出了一份答卷。 (騰訊科技)
黃仁勳劍橋演講:創業33年,我終於明白——真正改變命運的,從來不是智商
在這個滿世界都在鼓吹“天才少年”、都在焦慮起跑線的時代,輝達的創始人黃仁勳,那個穿著標誌性黑皮衣的男人,最近在頂級名校的講台上,潑了一盆冷水。那怕輝達市值已經突破了3兆美元,那怕他被稱為AI教父,他對著台下那些全世界最聰明的腦袋——劍橋的學霸們,說的卻不是“祝你們成功”,也不是“祝你們快樂”。圖片為肥貓用AI製作而是,有點讓人後背發涼的話:“我希望你們經歷足夠的痛苦和折磨。”是的,你沒看錯,雖然這聽起來有點像詛咒,為什麼?他會如此看重“痛苦”對一個人的影響。肥貓覺得,經歷了33年的創業,他看透的一個人生真相:在這個充滿不確定性的世界裡,智商只是入場券,真正決定你能走多遠、能爬多高的,是你對痛苦的“耐受力”,是你面對絕境時的“反脆弱性”。聰明人太多了,但能扛得住“千刀萬剮”而不死的聰明人,太少了。天才如利弗莫爾,在經歷了4次大起大落後,選擇了自SHA,結束了傳奇的一生。一、聰明人的詛咒:為什麼高智商反而容易脆斷?咱們先扒一扒,為什麼很多小時候的學霸,到了社會上反而泯然眾人?史丹佛大學心理學教授卡羅爾·德溫克在《終身成長》裡揭示了這個謎底。許多高智商的人,從小活在讚美裡。他們習慣了做題全對,習慣了拿A。這導致他們形成了一種“固定型思維”。他們潛意識裡認為:失敗=我很笨。為了維護“我很聰明”這個標籤,他們會本能地躲避那些極其困難、極有可能失敗的挑戰,轉而選擇那些確定性高、容易出成果的平庸路徑。這讓我想起了前兩年發生的“矽谷殺妻案”,當一個從小就是別人家的孩子,一路走來順風順水,被誇獎浸泡下成長起來的人,面對工作、生活上的挫折、婚姻上的失敗時,整個人瞬間崩塌,之後便是歇斯底里的瘋狂。這就是“聰明人的詛咒”。因為害怕破碎,所以拒絕淬煉。而黃仁勳呢?他在演講裡說,輝達這33年,至少有三四次差點倒閉。股價跌過90%,華爾街嘲笑他是瘋子,顯示卡甚至一度不得不免費送人。如果他只是一個“聰明人”,早就止損離場,套現走人了。但他不是。他是一個“長期主義的門徒”。在哈佛商學院的案例庫裡,輝達的故事從來不是關於“精準預測”,而是關於“死磕”。這背後其實有著深刻的生物學原理。最近神經科學界有一個很火的概念,叫“前扣帶回皮層”。Huberman Lab(史丹佛神經生物學播客)指出,當你做那些你不想做、但必須做的事,當你克服巨大的阻力去堅持時,你的aMCC區域會物理性地變大。這個區域,是人類“意志力”的物理核心。那些順風順水的聰明人,aMCC往往是萎縮的。一旦遇到真正的黑天鵝事件,他們的心理防線會像紙一樣被捅破。而黃仁勳,是在30年的危機中,把大腦的這個區域練成了鋼鐵。二、誠實,是比聰明更高級的能力除了抗揍,黃仁勳提到的另一個核心特質,是“智力誠實”。聽起來很簡單?不,這其實是反人性的。絕大多數人,尤其是有點小聰明的人,在犯錯的時候,第一反應是掩飾,是甩鍋,是用邏輯閉環來證明“我沒錯,是世界錯了”。但這恰恰是平庸的開始。當你用“怨天尤人”在維護你那可憐的自戀或自尊時,你在把成長拒之門外。想要成長,你必須對自己絕對坦誠,包括在心底承認自己的弱、承認自己的錯。黃仁勳講過一個輝達早期的生死時刻。當年他們接了世嘉的一個大單,開發遊戲機晶片。幹了一半,黃仁勳發現自己選錯了技術路線(四邊形紋理),而微軟剛剛宣佈了DirectX標準(三角形紋理)。如果繼續幹,產品出來就是垃圾,且不相容主流;如果停止干,輝達沒錢了,立馬破產。這是一個死局。換個普通CEO,可能就瞞著世嘉,先把錢騙到手再說,或者在那硬撐。黃仁勳怎麼做的?他去找世嘉的CEO,低下了頭,說了一句極其反常識的話:“對不起,我們做錯了,這個方向是死路。但我還是需要你們把剩下的錢付給我,否則我們就倒閉了,你們也拿不到任何東西。但我保證,拿了錢我會去開發正確的晶片。”這是何等的恥辱,又是何等的誠實。結果呢?世嘉的CEO被這份誠實震驚了,居然真的給了錢。正是這筆救命錢,讓輝達活了下來,才有了後來的RIVA 128顯示卡,才有了今天的兆帝國。查理·芒格說過:如果你想獲得某樣東西,最可靠的辦法是讓自己配得上它。在商業叢林裡,只有當你敢於赤裸裸地面對自己的愚蠢時,智慧才會真正降臨。這種“極度求真”的態度,比搞定一道複雜的數學題,要難一萬倍。三、痛苦,是穿越周期的唯一燃料現在很多人都在談AI,談風口。但黃仁勳給我們的啟示是:所有的偉大,都是在無人區裡熬出來的。2012年,當所有人都覺得CPU才是未來,做AI是天方夜譚時,輝達在幹什麼?他們在燒錢。他們花了數以億計的美元,去研發CUDA生態系統。那時候,華爾街的分析師看不懂,覺得這是在浪費資源,甚至有人建議解僱黃仁勳。這叫什麼?在彼得·蒂爾的《從0到1》裡,這叫“反共識”。智商高的人,往往善於在現有的規則裡考高分;而真正的顛覆者,是在沒有路的地方,用痛苦鋪路。黃仁勳說:市場不存在沒關係,我們去創造一個。就像賈伯斯,他不是改造手機,他是重新定義了手機。他不是適應需求,他是創造了需求。這種在黑暗中獨行的能力,不是靠計算算出來的,是靠“信念”撐住的。納西姆·塔勒布在《反脆弱》裡把人分成三類:脆弱的(像玻璃球,一摔就碎);強韌的(像鐵球,摔不壞但也不會變);反脆弱的(像皮球,摔得越狠,彈得越高)。過度的保護,優越的環境,往往剝奪了我們成為“皮球”的機會。說了這麼多,普通人怎麼用這套邏輯逆襲?這裡給大家3個思維工具:1.練習“微量痛苦攝入”不要等到生活把你打趴下。每天主動去找一點“苦”吃。不是讓你去自虐,而是去做那些“長期有益但短期不爽”的事。比如深度閱讀一本難啃的書,比如主動去和難搞的客戶溝通,比如強迫自己每天早起運動。這是在給你的大腦aMCC區域做“訓練”。等到大風浪來的時候,別人慌了,你是穩的。2.建立認錯機制不要把“我錯了”當成恥辱,要把它當成“系統升級”的提示音。下次犯錯,別急著辯解。試著說:“你是對的,我之前的認知有漏洞,謝謝你幫我補上。”這一秒,你的格局就拉開了。3. 只有“死磕”才是護城河在這個演算法、AI能解決大部分智力問題的時代,“堅持”成了最稀缺的演算法。當你想放棄的時候,告訴自己:這正是門檻形成的時候。大多數人都會在這一刻退縮,如果你跨過去了,這片藍海就是你的。最後,在這個浮躁的、速成論橫行的世界,黃仁勳,更像一個敲鐘人,他告訴我們,沒有所謂的彎道超車,所有的橫空出世,不過是蓄謀已久的厚積薄發。You are what you suffer。如果你現在正處於人生的低谷,如果你覺得壓力山大,如果你覺得周圍充滿了質疑。請不要懷疑自己的智商,更不要抱怨命運的不公。你應該慶幸。因為,那些打不趴你的,終讓你更強大。你我共勉。 (肥貓說財)