#演講
馬化騰最新內部演講,透露騰訊AI的5個關鍵點
近期,騰訊一年一度的員工大會如期而至。在全球AI浪潮重塑科技行業的當下,馬化騰的內部講話,無疑成為洞察這家公司AI航向的窗口。馬化騰沒有以激進姿態追逐AI熱點,而是基於騰訊自身的“基因”與“體質”,闡述了公司穿越周期的路徑。講話中,馬化騰表示,雖然過去幾年跌宕起伏,但騰訊通過“聚焦主業、降本增效、減脂增肌”,逐步恢復增長,並且在AI投入上持續加大力度。這段穿越周期的經歷,深刻影響了騰訊當下對AI的戰略決策。面對AI這場前所未有的技術革命,騰訊認為其不是短跑衝刺,而是一場考驗耐力的馬拉松。馬化騰講話的核心,不僅是對過去一年AI佈局的復盤,更是對未來數年騰訊在AI時代如何生存、發展的思考。我們綜合公開資料梳理了這次發言的要點,從中可以看到騰訊AI戰略的五個關鍵點:基因決定節奏,在喧囂中堅持“穩紮穩打”“每個企業的基因不同,體質也不太一樣,穿越周期的節奏也並不一樣。”馬化騰在講話開篇便定下了基調。馬化騰認為,騰訊的基本盤(遊戲、社交、內容等長青業務)是堅實後盾,使得公司有底氣進行長期、持續的AI投入,而不必將所有賭注押在朝夕之間。這種底氣,讓騰訊得以在AI戰略上堅持“穩紮穩打”的風格。騰訊希望建構的AI能力,是基於自身核心優勢的有機延伸。這需要時間去“升級技能點”,去打磨產品,去驗證模式。喧囂與焦慮成為行業主旋律的當下,騰訊選擇保持戰略定力,按照自己的步伐前進。這既是自信,也是對科技發展客觀規律的尊重。一體化協同作戰,重塑AI基建與組織架構如果說“穩紮穩打”是戰略節奏,那麼在戰術執行層面,騰訊正進行大力度的組織與技術變革。馬化騰提出,未來將把大模型和AI產品以一體化的方式來考慮,要打破壁壘,實現高效協同。為此,混元大模型團隊與元寶產品團隊之間,已經開展交叉、派駐、協同設計等工作。這種組織形式確保最底層的模型能力能夠與上層的產品需求緊密耦合,避免技術與市場的脫節。為了支撐這一戰略,騰訊在AI基礎設施和人才引進上投入巨大。騰訊重構了整個AI研發團隊,新成立了AI Infra(人工智慧基礎設施)部、AI Data(人工智慧資料)部及資料計算平台部。人才層面,騰訊加大了對業界原生AI人才的吸引,通過年輕化力量加強研發團隊的能力與活力。這一系列調整,都指向一個共同的目標:為AI這場持久戰,打造一個高效、協同、具備強大基礎能力的作戰體系。使用者體驗是核心,談微信AI的去中心化與開放在騰訊所有AI應用場景中,微信的智能化無疑最受外界關注。馬化騰在講話中花了一定篇幅闡述微信生態的AI哲學,其核心可以概括為:以使用者長期價值為依歸,兼顧創新與安全。對使用者隱私和安全的敬畏,是騰訊不可動搖的底線,也是微信AI進展相對謹慎的根本原因。其次,馬化騰對“全家桶”模式提出思考,認為這種形式“大家不一定喜歡”。在他看來,微信生態的核心優勢在於其開放性。小程序生態之所以成功,正是因為它彙集了業界大量優質的服務與產品,而不是騰訊自己包攬一切。因此,微信的AI生態建設,將繼續堅持“去中心化”的思路。馬化騰特別提到,“我們不會控制所有的入口,任何創業者都可以在微信的智能生態產生自己的入口,然後去推廣這個專有入口,這是沒有問題的。我們只提供底層連接,這樣比較科學合理,生態夥伴也比較放心和可以接受,因此是可持續的。”探索“AI+社交”,在自身擅長的領域發力馬化騰在講話中重點介紹了元寶App即將推出的社交功能。這個新嘗試就是元寶派,其建構了一個全新的、AI原生的社交空間。在這個空間裡,使用者不僅可以和朋友互動,還可以與AI互動,甚至可以引入陌生人一起分享交流。為了豐富這一體驗,騰訊還將開放QQ音樂、騰訊視訊等優質內容,讓使用者可以在這個AI空間裡和朋友“一起聽”、“一起看”。這被視為騰訊在探索“AI+社交”上的關鍵一步,也是騰訊在自身擅長的AI領域持續發力。對於元寶將發放10億元現金紅包活動,馬化騰解釋了背後的邏輯。他表示,元寶希望把節省下來的行銷費用,直接轉化為給使用者分享的紅包。這不僅是一次行銷大促,更是騰訊利用春節這一超級社交場景,實現AI業務提速的關鍵動作。馬化騰說,希望通過這種方式,讓使用者在體驗AI功能的同時,重溫過去搶紅包的快樂。AI是“倍增器”,持續點亮業務新技能AI並非某個獨立部門的KPI,而是提升各個業務發展的“倍增器”,是為騰訊這棵大樹全面“點亮技能”的關鍵所在。過去一年,CSIG(雲與智慧產業事業群)業務對AI相關產品進行了更緊密的整合,包括QQ瀏覽器、騰訊會議、元寶等。值得一提的是,除了C端業務,2025年雲業務整體規模化盈利,實現了里程碑突破。對於WXG(微信事業群),馬化騰認為微信是騰訊的中流砥柱,大家寄予厚望,視訊號、微信電商等業務都有自己的成長邏輯和軌跡,如何結合自己特點,點亮新技術不斷升級,要多給時間和耐心,謀定後動。在廣告和金融支付業務上,馬化騰認為,AI讓騰訊廣告收入增速很快,但相對於行業平均水平,其收入佔比依然較低,未來仍有廣闊的商業化發展空間 。而金融支付業務則要繼續保持謹慎,始終以安全為首要原則。對於業務及產品眾多的PCG(平台與內容事業群),今年則在積極探索AI整合能力。比如,QQ秀更打通AI能力,使用者可以自行上傳素材生成圖像。騰訊新聞堅持高品質資訊內容,探索用AI幫助使用者提高資訊瀏覽效率。騰訊視訊則在嘗試利用AI多模態能力,通過與閱文合作,推動更多自有版權內容進行影視化落地。馬化騰表示,在AI戰略上,騰訊有自己的節奏,核心是產品的長期競爭力和使用者的體驗,各個業務類股都需要仔細思考,持續點亮新的技能點。AI競速是一場考驗耐力的馬拉松,只有持續進化,才能穿越周期。 (湧現觀察)
卡尼:“好好先生”對美“掀桌子”
去年成為加拿大總理時,馬克·卡尼在人們心目中主要是一位技術官僚,能在全球金融界取得成功的央行行長。但本周從瑞士達沃斯世界經濟論壇年會返回時,卡尼突然成為全球政壇明星。在這個億萬富翁、投資者、首席執行長和政治家們的年度聚會上,向來矜持的聽眾在卡尼30分鐘激昂的演講結束後,罕見地全體起立鼓掌。1月22日,加拿大總理卡尼在加拿大魁北克城出席記者會。嘗試對美拉開距離卡尼坦率評估了美國總統川普造成全球秩序不可逆轉的“決裂”,並敦促其他中等強國加入加拿大,共同開闢一條獨立於超級大國的道路。卡尼說話非常直白,這與其他一些對川普阿諛奉承的人形成鮮明對比。卡尼從達沃斯回國後不到一天,就在魁北克市發表演講,闡述加拿大的方向。他說:“加拿大無法解決世界上所有的問題。但我們可以證明可能有另一種道路。歷史的弧線並非註定要扭曲成威權主義和排外主義,它仍然可以傾向進步與正義。”卡尼這番演講如同他在達沃斯的演講一樣,沒有直接點名川普,但指向性非常明顯。這次演講主要涉及國內議題,包括魁北克最近重新燃起的分離主義情緒,似乎既是為了安撫,也是為了激勵那些因川普執政一年而感到憤怒、疲憊和恐懼的加拿大人。雖然與川普總體上保持著友好關係,但卡尼的這兩場演講凸顯這位加拿大領導人計畫進一步將本國與川普版本的美國拉開距離。美國是加拿大出口依賴型經濟的最大市場,兩國共享世界上最長的陸地邊界。儘管加拿大與美國和墨西哥簽訂自由貿易協定,但川普已對包括汽車、鋼鐵和鋁在內的加拿大關鍵產業施加了各種關稅威脅。不管川普想接管加拿大的另一個鄰居格陵蘭島的願望最終是何結果,這一問題已在加拿大人中激起擔憂和憤怒,川普還曾威脅要把加拿大變成美國的第51個州。手握籌碼改變策略卡尼上任近一年來,一直試圖與美國總統川普建立友好關係。如今,他開始採取強硬路線。“卡尼一直試圖表現友好,但收效甚微。”美國約翰斯·霍普金斯大學加拿大研究主任克里斯托弗·桑茲說,“卡尼正加大行動力度,博得更多關注。”卡尼基本未談及他為何大幅調整對川普的策略,但分析人士指出了兩個正在浮現的原因。分析人士認為,首先,在美加墨協定談判之前展現實力,可以為卡尼提供一些談判籌碼。加拿大卡爾頓大學國際政治學教授芬·漢普森說,卡尼已決定“是時候不再客氣,採取強硬路線”。加拿大阿巴卡斯資料公司總裁戴維·科萊托說,卡尼在達沃斯的演講是為可能提前的大選做鋪墊,以期在議會贏得多數。目前,卡尼領導的自由黨政府屬於少數派政府,這意味著如果反對黨聯合起來,他們可能會失去權力。“在卡尼描述的世界裡,穩定成了一種資產。”科萊托說,“因此,如果卡尼想利用達沃斯敘事框架為提前選舉引路,那麼更明確的資訊可能不是‘給我多數席位’,而是‘給加拿大穩定’。”卡尼還試圖與歐洲和海灣國家建立更緊密的關係。卡尼在卡達表示,他獲得了卡達對加拿大清潔能源項目、人工智慧企業和國防領域的投資承諾。加拿大還獲得了參與一個歐盟國防基金的管道,以減少對美國的依賴。卡尼定於3月訪問澳大利亞。澳大利亞總理安東尼·阿爾巴尼斯表示,他認同卡尼達沃斯演講的主旨。該演講呼籲加拿大和澳大利亞等國家協同行動,反擊全球霸主的經濟脅迫,但隻字不提川普。 (新華國際頭條)
【達沃斯論壇】加拿大總理卡尼演講全文
“ 當地時間2026年1月20日,瑞士達沃斯,2026年世界經濟論壇年會,加拿大總理馬克·卡尼特別致詞。”這篇文章包含了加拿大總理馬克·卡尼在達沃斯世界經濟論壇 2026 年年會上的特別演講的完整文字記錄。卡尼強調了基於規則的國際秩序的終結,並闡述了加拿大如何通過建立戰略自主性同時維護諸如人權和主權等價值觀來做出調整。加拿大總理呼籲像他自己這樣的中等強國攜手合作,以對抗硬實力的崛起和大國之間的競爭,從而建構一個更加合作、更具韌性的世界。“非常感謝你,拉里。我先用法語開始講,然後會再切換回英語。”(以下內容是根據法語翻譯的)“謝謝你,拉里。今晚能與您相聚在這個對加拿大乃至整個世界都至關重要的時刻,我感到既榮幸又感到責任重大。今天我要談論的是世界秩序的一次破裂,一種美好幻想的終結,以及一個嚴酷現實的開端。在這個世界裡,地緣政治,那些強大的主導力量,地緣政治不再受到任何限制和約束。另一方面,我想告訴您,其他國家,尤其是像加拿大這樣的中等強國,並非無能為力。它們有能力建構一個涵蓋我們這些價值觀的新秩序,比如尊重人權、可持續發展、團結、各國的主權和領土完整等。弱者的力量源於誠實。”[卡尼再次開始用英語發言]“似乎每天我們都會被提醒:我們生活在一個大國之間激烈競爭的時代,基於規則的秩序正在瓦解,強者可以為所欲為,而弱者只能承受他們所必須承受的一切。而修昔底德的這一格言被表述為是必然之事,被視為國際關係中固有邏輯的再度顯現。面對這種邏輯,各國往往會採取妥協的態度,相互遷就,避免衝突,期望遵守規則能夠換來安全。然而,並非如此。那麼,我們有那些選擇呢?1978 年,捷克的異議人士瓦茨拉夫·哈維爾(後來成為總統)撰寫了一篇名為《無權者的力量》的文章,在文中他提出了一個簡單的問題:共產主義制度是如何維持自身的運轉的?而他的回答是以一位蔬菜水果商販的故事開篇的。每天早上,這位店主都會在自家店窗上貼上一塊牌子:“全世界的勞動者團結起來”。他自己並不相信這句口號,也沒有人相信,但他還是這麼做,是為了避免衝突,為了表明順從的態度,為了和睦相處。而且因為每條街上每家店主都這麼做,這個體系得以延續——並非僅僅依靠暴力,而是依靠普通民眾在內心明知是虛假的儀式中所做出的參與。哈維爾將此稱為“生活在謊言之中”。這個體系的力量並非源於其真實性,而是源於每個人願意按照其規定行事從而使其顯得真實的過程,而它的脆弱性同樣源自於這一根源。當那怕有一個人停止執行規定時,當賣蔬菜水果的攤主摘下他的招牌時,這種假象就開始出現裂痕。朋友們,是時候讓公司和國家也把它們的招牌摘下來了。數十年來,像加拿大這樣的國家在我們所稱的基於規則的國際秩序下蓬勃發展。我們加入了其相關機構,讚頌其原則,受益於其可預測性。正因為如此,我們能夠在該秩序的保護下推行基於價值觀的外交政策。我們深知那種認為國際規則體系是完全公正合理的觀點是不正確的,因為實力最強的國家在方便的時候就會自行豁免;而且貿易規則的執行也是有差異的;此外,我們還明白國際法的適用力度會因被告或受害者的身份不同而有所差異。這種虛構的情景確實發揮了作用,而美國的霸權地位尤其有助於提供公共產品、開闢海上航道、建立穩定的金融體系、提供集體安全保障以及為解決爭端的框架提供支援。於是,我們把標識牌掛在了窗戶上。我們參與了相關活動,並且在很大程度上避免了刻意強調言語與現實之間的差距。這個交易不再有效了。讓我直截了當地說吧。我們正處於分裂狀態,而非過渡階段。在過去二十年裡,金融、衛生、能源和地緣政治領域的一系列危機揭示了極度全球一體化所帶來的風險。但近年來,大國開始將經濟一體化作為武器、關稅作為籌碼、金融基礎設施作為施壓手段、供應鏈作為可利用的弱點。當整合成為導致你處於從屬地位的根源時,你就無法通過整合來維持那種表面上的互利關係了。中等強國所依賴的多邊機構——世界貿易組織、聯合國、氣候變化大會——這些集體解決問題的架構本身正面臨威脅。因此,許多國家得出了同樣的結論:他們必須在能源、糧食、關鍵礦產、金融以及供應鏈等領域增強自身的戰略自主性。這種衝動是可以理解的。一個無法養活自己、無法提供能源、也無法保衛自身的國家,其選擇自然就十分有限。當規則不再為你提供保護時,你就必須自己保護自己。但我們要清醒地看到這會走向何處。一個由堡壘構成的世界將更貧窮、更脆弱、也更不可持續。還有另一個事實:如果大國甚至放棄對規則與價值的表面承諾,而轉向毫無阻礙地追求自身權力與利益,那麼交易主義帶來的收益將更難複製。霸權國家無法不斷將其關係貨幣化。盟友將通過多元化來避險不確定性。他們會購買“保險”,增加選擇以重建主權--這種主權曾經以規則為基礎但將越來越多地錨定在承受壓力的能力上。在座各位都知道,這就是經典的風險管理。風險管理是有代價的,但戰略自主與主權的成本也可以分擔。對韌性的集體投資,比每個人各自修建堡壘更便宜。共同標準減少碎片化。互補性帶來正和結果。對加拿大這樣的中等強國而言,問題不在於是否適應新的現實--我們必須適應。問題在於,我們是僅僅通過築起更高的牆來適應還是能做得更有雄心。加拿大是最早聽到警鐘的國家之一,這促使我們從根本上調整戰略姿態。加拿大人知道,我們過去那種舒適的假設--認為地理位置和盟友成員身份會自動帶來繁榮與安全--不再成立。而我們的新方法建立在芬蘭總統亞歷山大·斯圖布所稱的“基於價值的現實主義”之上。換句話說,我們力求既有原則,也務實。有原則體現在我們對基本價值的承諾:主權、領土完整除非符合《聯合國憲章》否則禁止使用武力,以及尊重人權。務實,則體現在承認進步往往是漸進的,利益會分化,並非每一個夥伴都會分享我們所有的價值觀。因此,我們以開放的眼光、戰略性地廣泛參與。我們主動面對真實的世界,而不是等待一個我們希望存在的世界。我們正在校準我們的關係,使其深度反映我們的價值觀;並在當下世界流動性極強、風險重重、且對未來走向利害攸關之際,優先推進廣泛接觸,以最大化我們的影響力。而且,我們不再只是依賴我們價值觀的力量,也要依賴我們力量的價值。我們正在國內建設這種力量。自本屆政府上任以來,我們下調了個人收入稅、資本利得稅和企業投資稅。我們取消了所有聯邦層面的省際貿易壁壘。我們正在加速推進1兆美元的投資,涵蓋能源、人工智慧、關鍵礦產、新貿易走廊等領域。我們將在本十年結束前將國防開支翻倍,並以能夠建設本國產業的方式來實現這一點。我們也在迅速推進對外多元化。我們已同歐盟達成全面戰略夥伴關係,包括加入SAFE(歐洲防務採購安排)。在六個月內,我們在四大洲簽署了另外 12 項貿易與安全協議。過去幾天裡,我們又與中國和卡達達成了新的戰略夥伴關係。我們正在與印度、東盟、泰國、菲律賓和南方共同市場(Mercosur)談判自由貿易協定。我們還在做另一件事:為幫助解決全球問題,我們正在推進“可變幾何”。換句話說,基於共同價值觀與利益,針對不同議題組建不同聯盟。因此,在烏克蘭問題上,我們是“志願聯盟”(Coalition of the Willing)的核心成員,也是其防務與安全人均貢獻最大的國家之一。在北極主權問題上,我們堅定與格陵蘭和丹麥站在一起,並全力支援他們決定格陵蘭未來的獨特權利。我們對北約第五條的承諾堅定不移,因此我們正與北約盟友合作,包括北歐一波羅的海八國(Nordic-Baltic Eight),進一步鞏固聯盟北翼和西翼的安全,其中包括加拿大對超視距雷達、潛艇、飛機以及地面部隊--冰上靴子--進行史無前例的投資。加拿大堅決反對針對格陵蘭的關稅,並呼籲開展聚焦對話,以實現我們在北極地區安全與繁榮的共同目標。在多邊貿易方面,我們正在推動搭建“跨太平洋夥伴關係”與歐盟之間的橋樑,這將基於關鍵礦產打造一個覆蓋15億人口的新貿易集團。我們正在組建以七國集團為支點的買方俱樂部,讓世界能夠從集中供應中實現多元化。並且在人工智慧方面,我們正與志同道合的民主國家合作,以確保我們最終不會被迫在霸權國家與超大規模雲服務商之間作出選擇。這不是天真的多邊主義,也不是依賴他們的機構。這是在逐項議題上與擁有足夠共同基礎、能夠共同行動的夥伴建立聯盟。在某些情況下,這將涵蓋絕大多數國家。它正在做的是,在貿易、投資、文化等領域編織一張密集的聯結網路,我們可以在未來的挑戰與機遇中加以運用。我們的觀點是,中等強國必須共同行動,因為如果我們不在桌上,我們就在菜單上。但我也要說,大國目前還負擔得起單干。他們擁有市場規模、軍事實力和足以左右局勢的籌碼來制定條件。中等強國沒有。但當我們只與一個霸權國家進行雙邊談判時,我們是從弱勢出發談判。我們接受被提供的一切。我們彼此競爭,看誰最順從。這不是主權。這是在接受從屬地位的同時,上演主權的表演。在大國競爭的世界裡,夾在中間的國家有一個選擇:彼此爭寵,或聯合起來開闢一條有影響力的第三條道路。我們不應讓硬實力的崛起矇蔽我們,看不到:合法性、正直與規則的力量,只要我們選擇共同運用,它就仍將強大。這就把我帶回到哈維爾。對中等強國而言,“活在真實中”意味著什麼?第一,它意味著指認現實。不要再把“基於規則的國際秩序”掛在嘴邊,彷彿它仍按宣傳那樣運作。要把它稱作它本來的樣子:一個大國競爭不斷加劇的體系,最強者將經濟一體化作為脅迫工具來追逐自身利益。它意味著一以貫之地行動,對盟友與對手適用同樣標準。當中等強國批評來自某一方向的經濟恐嚇卻對來自另一方向的同類做法保持沉默時,我們只是在把招牌繼續掛在窗裡。它意味著去建設我們聲稱相信的東西,而不是等待舊秩序恢復。它意味著建立名副其實、如其所述地運作的制度與協議,也意味著削弱使脅迫成為可能的槓桿。這就是建設強大的國內經濟。它應當是每個政府的當務之急。而國際多元化不僅是經濟上的審慎;它也是誠實外交政策的物質基礎,因為國家通過降低自身遭報復的脆弱性,贏得堅持原則立場的權利。所以,加拿大。加拿大擁有世界所需要的東西。我們是能源超級大國。我們擁有大量關鍵礦產儲備。我們擁有世界上受教育程度最高的人口。我們的養老基金是全球規模最大、最成熟的投資者之一。換句話說,我們擁有資本與人才。我們還擁有財政能力極強、能夠果斷行動的政府。並且我們擁有許多人嚮往的價值觀。加拿大是一個能夠運轉的多元社會。我們的公共空間喧鬧、多樣而自由。加拿大人仍致力於可持續發展。在一個幾乎一切都不穩定的世界裡,我們是穩定可靠的夥伴--一個著眼長遠、重視並經營關係的夥伴。我們還有另一項優勢:我們認識到正在發生什麼並決心據此行動。我們明白,這場裂變需要的不只是適應; 它需要對真實世界的誠實。我們正在把窗裡的招牌撤下來。我們知道舊秩序不會回來了。我們不應為它哀悼。懷舊不是戰略,但我們相信,從裂縫中我們可以建造出更大、更好、更強、更公正的東西。這是中等強國的任務--這些國家在“堡壘世界”中損失最大,卻在真正合作中獲益最多。強者擁有他們的力量。但我們也有一樣東西:停止假裝的能力,指認現實的能力,在國內建立實力的能力,以及共同行動的能力。這就是加拿大的道路。我們公開而自信地選擇它而且這條道路向任何願意與我們同行的國家敞開,非常感謝。(加元出國)
【CES 2026】黃仁勳CES演講2萬字全文:迎接計算量指數級增長,重新發明AI——突破運算新邊界的Vera Rubin時代,全端整合的高效“AI工廠”!
Agentic系統開啟的AI藍圖:人指揮Agent、多模態互動、融合物理AI,建構未來應用的基礎框架——智能代理系統(AIS)黃仁勳:拉斯維加斯的各位,新年快樂!歡迎大家前來觀摩。我們準備了約15場主題演講的豐富內容。見到各位我非常高興。這座禮堂裡坐著3000人,庭院裡還有2000人正在觀看。據說四樓原定作為輝達展區的區域,此刻也有上千人同步收看這場主題演講。當然,全球還有數百萬觀眾將通過直播共同開啟新年序幕!100兆美元規模的產業中,研發預算正轉向AI,而每年湧入AI的投資達數百億美元電腦行業每隔10到15年就會經歷一次重設。平台變革從大型機到個人電腦,從網際網路到雲端運算,再到移動裝置,每次都推動應用程式世界轉向新平台——這正是平台變革的本質。為新型電腦編寫新應用程式時,我們正面臨雙重平台變革——人工智慧與應用程式的同步演進。最初人們認為人工智慧即應用程式,事實上人工智慧確實屬於應用範疇,但未來我們將基於人工智慧建構更高級的應用程式。但除此之外,軟體的運行方式和開發方式也發生了根本性變革。整個電腦行業的技術堆疊正在被重新發明。你不再程式設計,而是訓練軟體。運行平台從 CPU 轉向 GPU。應用程式從預先編譯的固定程序轉變為即時生成——每次執行階段,它們都能理解上下文,從零開始生成每個像素、每個符號。由於加速計算和人工智慧的發展,計算領域已發生根本性變革。五層架構的每一層都在經歷重塑。這意味著過去十年約10兆美元的計算投資正向新型計算模式轉型。每年數百億美元的風險投資正湧入這個新興領域,推動技術革新與世界重構。更重要的是,價值100兆美元的產業體系中,數百分比的研發預算正轉向人工智慧領域。常有人問:資金從何而來?答案就在這裡——人工智慧的現代化處理程序,研發預算從傳統方法向人工智慧方法的轉移,以及湧入該行業的巨額投資,這些都解釋了我們為何如此忙碌。過去這一年也不例外。過去這一年令人難以置信。這一年,我們即將迎來一個轉折點。這是今年的第一場主題演講。希望這也是你今年的第一場主題演講。否則,你可能已經相當忙碌了。這是我們今年的第一場主題演講。我們要重回狀態。非凡的2025年:Scaling Laws突破、Agentic系統湧現、開源模型讓AI無處不在2025 年堪稱非凡之年,彷彿所有重大事件都同時爆發。事實上,首要突破當屬Scaling Laws!2015 年,那是我認為真正能改變格局的首個語言模型,它帶來了革命性變革, 它名為 BERT。2017 年 Transformer 模型問世。直到五年後的 2022 年,ChatGPT 的突破性時刻才真正喚醒世界對人工智慧潛能的認知。而一年後又發生了至關重要的事件——ChatGPT 推出的首個 o1 模型,作為首個具備推理能力的模型,徹底顛覆了行業格局。它開創了"測試時Scaling"這一革命性理念,本質上是極具常識性的創新: 我們不僅通過預訓練讓模型學習知識,更通過強化學習進行後訓練使其掌握技能。如今"測試時Scaling"技術的出現,本質上是實現即時思考的新途徑。人工智慧的每個發展階段都需要海量計算資源,而計算能力法則仍在持續擴展。大型語言模型正不斷精進。與此同時,另一項突破在 2024 年發生。Agentic系統於 2025 年開始湧現,並迅速滲透到幾乎所有領域。這些具備推理能力、資訊檢索能力、研究能力、工具使用能力、未來規劃能力及結果模擬能力的代理模型,突然間開始解決極其重要的問題。我最青睞的智能體模型名為Cursor,它徹底革新了輝達的軟體程式設計方式。智能體系統將由此迎來真正的騰飛。當然,人工智慧還有其他類型。我們知道大型語言模型並非唯一的資訊載體。宇宙中凡存在資訊之處,凡存在結構之處,我們都能訓練大型語言模型——作為語言模型的一種形式——去理解這些資訊,理解其表徵形式,並將其轉化為人工智慧。其中最宏大、最重要的當屬物理人工智慧(Physical AI),它們理解自然法則。而物理人工智慧的核心在於人工智慧與世界的互動——世界本身蘊含著編碼資訊。這種物理人工智慧既能與物理世界互動,又能理解物理定律。最後,去年最重要的進展之一是開源模型的突破。當開源理念、開放創新以及全球每家企業、每個行業的創新活動被啟動時,我們便能預見人工智慧將無處不在地普及。與此同時,開源模型在去年真正騰飛。事實上,去年我們見證了首個開源模型 Deep Seek R1 的突破性進展——這套推理系統令全球矚目,並切實推動了整個趨勢的興起。這項工作令人振奮,我們對此深感欣喜。如今全球各地湧現出各種開源模型系統。我們已知開源模型同樣抵達了前沿領域——儘管仍落後於前沿模型半年之久,但每隔半年便有新模型誕生。這些模型正變得日益智能。正因如此,下載量呈現爆發式增長。下載量激增源於初創企業渴望參與人工智慧革命。 大企業渴望參與,研究者渴望參與,學生渴望參與,幾乎每個國家都渴望參與。數字智能怎會讓任何人掉隊?開源模型去年真正引發了人工智慧革命,整個行業都將因此重塑格局。輝達的DGX雲與AI模型矩陣:橫跨生物、氣候、機器人與自動駕駛其實我們早有預感。或許你聽說過,幾年前我們開始自主研發並營運人工智慧超級電腦,稱之為 DGX 雲。許多人問:你們要進軍雲端運算業務嗎?答案是否定的。我們建造這些 DGX 超級電腦是為自身使用。事實上,我們投入數十億美元營運這些超級電腦,正是為了開發開源模型。我對我們正在開展的工作感到非常滿意。這項工作正開始引起全球及各行業的廣泛關注,因為我們在眾多不同領域都在進行前沿的人工智慧模型研究。我們在蛋白質領域、數字生物學領域(LA Protina 項目)取得的突破,實現了蛋白質的合成與生成。Open Fault 3 項目致力於解析聯合國機制,揭示蛋白質結構奧秘。Evil 2 項目探索多蛋白質的理解與生成機制。此外,我們還開創了細胞表徵的先河。更重要的是,我們研發的 AI 系統已具備理解物理定律的能力。我們與 Forecast Net 及 Cordiff 的合作,真正革新了人們進行天氣預測的方式。Nemo 系統正在嘗試突破。我們正在該領域開展開創性工作,首創的混合變壓器 SSM 模型具備驚人速度——既能進行長時間深度思考,也能在短時間內快速推演,從而生成極具智慧的智能答案。Nematon 3 是突破性成果,未來不久我們將推出該模型的其他版本。Cosmos,一個前沿的開放世界基礎模型,它理解世界的運作規律。Groot,一個類人機器人系統,具備關節活動能力、機動性和行走能力。這些模型與技術正在融合,每項成果都向世界開放——前沿的人類與機器人模型正向世界敞開大門。今天我們將重點探討 Alphamayo 項目——我們在自動駕駛領域的探索成果。建構未來應用的基礎框架:智能代理系統,模型到資料集的全端開源、多模態與檢索引擎的底層能力、多雲&多模型的智能體生態我們不僅開源模型,更開源訓練這些模型的資料集。唯有如此,才能真正驗證模型生成的可靠性。所有模型均開放原始碼,助力您基於此進行衍生創新。我們擁有完整的庫套件,包括 Nemo 庫、物理 Nemo 庫和 Clara Nemo 庫、BioNeMo庫。每一個都是 AIS 生命周期管理系統,支援資料處理、資料生成、模型訓練、模型建立、模型評估、模型防護,直至最終部署。 這些庫都極其複雜,且全部開源。基於這個平台,輝達成為前沿 AI 模型建構者,我們以獨特方式建構它。我們堅持完全開放的建設模式,旨在讓每家企業、每個行業、每個國家都能參與這場人工智慧革命。我對這項工作深感自豪。事實上,如圖表所示,我們在該領域的貢獻無可匹敵。未來我們將持續推進這項事業,甚至加速發展步伐。這些模型同樣堪稱世界級。因此這些模型不僅具備前沿能力,不僅開放共享,更穩居排行榜榜首。這是令我們引以為豪的領域——它們在排行榜和智能領域均處於領先地位。我們擁有能理解多模態文件(即 PDF 檔案)的重要模型。全球最具價值的內容都封存在 PDF 中,但需要人工智慧來發掘其內涵、解讀其內容並助您理解。我們的 PDF 檢索器、PDF 解析器、世界級語音識別模型,絕對是頂尖水平。檢索模型涵蓋語義搜尋、AI 搜尋等功能,堪稱現代 AI 時代的資料庫引擎,同樣達到世界級水準。正因如此,我們始終穩居排行榜前列。這是我們引以為豪的領域,所有這些都旨在助力您建構人工智慧代理。這確實是具有開創性的發展領域。記得最初 ChatGPT 問世時,人們驚嘆它能產出如此有趣的結果,但同時也存在嚴重幻覺問題。產生幻覺的原因在於:它能記憶過去的一切,卻無法預知當下與未來。因此必須建立在研究基礎上——在回答問題前,它需要進行基礎研究。關鍵在於具備推理能力:是否需要開展研究?是否需要使用工具?如何將問題分解為步驟?這些步驟都是 AI 模型已掌握的技能。通過組合這些步驟,它就能執行從未被訓練過的全新任務。這是推理能力的奇妙之處。我們能夠在面對前所未見的處境時,將其分解為已知情境。憑藉過往經驗,我們能運用已知的答案、知識或規則來應對。因此,當前人工智慧模型具備推理能力是極其強大的,智能體的推理能力為各類應用打開了大門。 我們不必再要求 AI 模型在初始階段就通曉萬物——正如人類也不可能在初始階段就掌握全部知識——關鍵在於它應具備在任何情境下,通過推理來解決問題的能力。大型語言模型如今已實現這一根本性飛躍——通過強化學習與思維鏈技術,包括突發性決策、規劃等多種方法,強化學習使我們具備了這項基礎能力,且該技術現已完全開源。但真正令人驚嘆的是另一項突破性進展——我第一次看到它是在Perplexity(AI搜尋公司)那裡,真是個創新者。當我意識到他們同時運用多個模型時,我認為這簡直是天才之舉。當然,我們也會這麼做。當然,人工智慧還會呼叫全球所有頂尖人工智慧來解決推理鏈中任何環節的問題。這正是人工智慧真正實現多模態的原因——它們能理解語音、圖像、文字、視訊、3D 圖形乃至蛋白質結構。這種多模態特性也意味著它們具備多模型能力,能夠靈活選用最適合任務的模型。從定義上講,它必然是多雲架構——因為這些 AI 模型分佈在不同位置。同時它也是混合雲架構,因為企業公司或機器人等裝置有時位於邊緣端,有時可能在無線基站,有時在企業內部,有時則在需要即時資料支援的場所(如醫院),具體取決於應用場景。我們現在知道,這就是未來人工智慧應用的模樣——或者換個角度理解,因為未來的應用都將基於智能代理系統(AIS)建構。這是未來應用的基礎框架。這種基礎架構,這種能夠實現我所描述的多模態智能的智能代理系統基礎結構,如今正為各類人工智慧初創企業注入強勁動力。如今借助我們提供的所有開源模型和工具,您還能定製專屬 AI 技能——這些技能無人傳授,也無人能讓其 AI 真正變得智能。這種智慧可由您自主實現。這正是我們通過 Nematon、Nemo 及所有開源模型項目所致力於實現的目標。在系統前端部署智能路由器,它實質上是決策管理者——根據你給出的指令意圖,判斷那個模型最適合特定應用場景,最能解決該問題。Agentic系統開啟的AI藍圖:人指揮Agent、多模態互動、融合物理AI好的,那麼現在當你思考這種架構時,你擁有什麼?當你思考這種架構時,突然間你擁有了一種人工智慧:它一方面完全可由你定製,能夠被訓練來執行你公司特有的技能;它能守護領域機密,承載你深厚的專業知識,或許你已擁有訓練 AI 模型的全部資料。另一方面,你的 AI 始終處於技術前沿——從定義上講,它既永葆定製化特性,又始終處於創新前沿,更應實現無縫運行。因此我們決定打造最簡潔的示例,讓它觸手可及。我們稱整個框架為藍圖,這些藍圖已整合到全球各地的企業 SaaS 平台中。我們對進展感到非常滿意。但我們想展示一個簡短示例——這是任何人都能實現的功能。“讓我們打造一個個人助理。我希望它能協助管理我的日程、郵件、待辦事項,甚至監控家中狀況。我使用 Brev 將 DGX Spark 轉化為個人云端,這樣無論使用雲端 GPU 還是 DGX Spark,都能通過統一介面操作。借助前沿模型 API,我輕鬆完成了初始配置。為實現郵件管理功能,我建立了專供智能助手呼叫的郵件工具。為保障郵件隱私,我將本地部署的開源模型運行在 Spark 上。現在,任何任務都需要智能助手選擇正確的模型處理,因此我採用了基於意圖的模型路由器。這樣,涉及郵件的提示語將留在本地 Spark 處理,其餘任務則呼叫前沿模型。我想讓我的助手融入我的生活。因此我將它與 HuggingFace 的 Richie Mini 機器人連接起來。我的代理通過工具呼叫控制 Richie 的頭部、耳朵和攝影機。我想賦予 Richie 聲音,而我非常喜歡 11 laps。所以我會接入他們的 API。'你好,我是Richie,正在DGX上跑步。嘿,Richie,我今天的待辦事項清單上有什麼?你今天的待辦事項?買些雜貨,雞蛋、牛奶、黃油,再把新劇本發給Jensen。好的,把這個更新發給Jensen。告訴他我們會在今天結束前建立一個論壇。我們來做。Richie,還有個草圖。你能把它變成建築效果圖嗎?當然。不錯。現在拍個視訊,帶我看看房間。給你。太棒了。有了 Brev,我就能共享我的 Spark 和 Richie 的存取權。所以我要和 Anna 共享。嘿,Richie,土豆最近怎麼樣?他在沙發上。我記得你不喜歡這樣。我會叫他起來。土豆,快從沙發上下來。隨著技術進步和開源浪潮,人們創造出的成果令人驚嘆。我真想看看你們能做出什麼。”這難道不神奇嗎?更神奇的是,如今這些都變得輕而易舉。然而就在幾年前,這一切還完全不可能實現,簡直難以想像。這種建構應用程式的基礎框架和方法,如今已變得如此基礎。使用預訓練的專有語言模型,它們代表著前沿技術。將其與定製化語言模型結合,建構為智能體框架——一個推理框架,使您能夠訪問工具和檔案,甚至可能連接其他智能體。這基本構成了現代人工智慧應用的架構。我們建構這類應用的能力正以驚人速度提升。關鍵在於:即便面對從未接觸過的應用資訊,或結構與預期不符的資料,它仍能通過推理機制全力解析資訊,試圖理解並解決問題。這個基礎框架正在整合中,我剛才描述的所有內容都受益於我們與全球頂尖企業平台公司的合作。例如 Palantir,他們的整個 AI 和資料處理平台正通過 Nvidia Today 服務實現整合與加速——該服務現已成為全球領先的客戶服務與員工服務平台;還有 Snowflake,全球頂尖的雲端資料平台。 這些公司正在開展令人驚嘆的工作。在輝達內部,我們全面採用 Code Rabbit 技術;Crowdstrike 正開發人工智慧系統來檢測和定義 AI 威脅;Netapp 的資料平台現已搭載輝達語義 AI 技術,並建構了代理系統以實現客戶服務功能。但關鍵在於:這不僅是當前應用程式的開發方式,更將成為平台的使用者介面。無論是 Palantir、ServiceNow、Snowflake 還是我們合作的眾多企業,代理系統就是介面本身。它不再是 Excel 表格里那些需要手動輸入資訊的方格。它甚至突破了命令列的侷限——所有多模態資訊互動如今皆可實現。你與平台的互動方式變得更像與人交流般自然流暢。這就是Agentic系統如何徹底革新企業人工智慧的圖景。物理AI的ChatGPT時刻即將到來,推出Alphamayo——全球首款具備思考與推理能力的自動駕駛汽車物理AI的ChatGPT時刻即將到來Cosmos模型已下載數百萬次,應用遍及全球接下來是物理人工智慧。這是我多年來反覆強調的領域。事實上,我們已在此領域深耕八年。關鍵問題在於:如何將電腦內部通過螢幕和揚聲器與人互動的智能系統,轉化為能與現實世界互動的智能體——這意味著它必須理解世界運作的常識性規律:物體恆存性(我移開視線再回來,物體還在那裡)、因果關係(我推它,它會倒下);它理解摩擦力和重力,理解慣性:一輛重型卡車在公路上滾動時需要更長時間才能啟動,而球體則會持續滾動。這些概念對幼兒而言都是常識,但對人工智慧而言卻是完全陌生的領域。因此我們必須建構一套系統,讓人工智慧既能學習物理世界的常識與規律,又能從稀缺資料中獲取知識,同時通過環境模擬來評估其運作狀態。若缺乏模擬物理世界反饋的能力,AI 如何確認自身行為符合預期?行為反饋的模擬至關重要——否則將無法評估系統表現,因為每次運行結果都可能截然不同。因此這個基礎系統需要三台電腦。其中一台電腦,我們都知道是輝達為訓練 AI 模型而打造的。另一台電腦用於模型推理——推理模型本質上是運行在汽車、機器人或工廠等邊緣場景中的機器人電腦。但必須另有一台專為模擬設計的電腦,而模擬正是輝達幾乎所有業務的核心。這是我們最擅長的領域,模擬技術實為我們所有物理人工智慧應用的基石。因此我們擁有三台電腦及運行於其上的多重技術堆疊——這些庫使電腦真正發揮價值。Omniverse 是我們的數字孿生平台,建構基於物理原理的模擬世界。Cosmos 如前所述,是我們的基礎模型,並非語言基礎模型,而是世界基礎模型,同時兼具語言理解能力。例如當你詢問"球體狀態"時,它能描述"球體正沿街道滾動"。這就是世界基礎模型。此外我們還擁有兩款機器人模型:其一是 Groot,另一款即我即將介紹的 Alphamayo。在物理人工智慧領域,我們首要且至關重要的任務是建立用於訓練 AI 的資料。這些資料從何而來?與語言資料不同,我們需要建立大量文字作為基準資料,供 AI 學習參考。如何向 AI 傳授物理學中的真實資料?雖然有海量視訊資料,但遠不足以涵蓋所需的多樣性與互動類型。正因如此,眾多傑出頭腦匯聚一堂,將傳統計算轉化為資料生成。如今借助基於物理定律和真實資料的合成資料生成技術,我們能夠有選擇性地智能生成訓練 AI 所需的資料。例如,輸入左側 Cosmos AI 世界模型的資料來源自交通模擬器。但僅憑模擬器輸出,AI 難以有效學習。我們將資料匯入 Cosmos 基礎模型,即可生成符合物理原理且具有可信度的環景視訊,供 AI 學習。此類應用案例不勝列舉,接下來我將展示 Cosmos 的實際能力。“物理 AI 的 ChatGPT 時刻即將到來,但挑戰顯而易見。物理世界千變萬化且難以預測。收集真實世界訓練資料既耗時又昂貴,且永遠供不應求。解決方案在於合成資料。其起點是 Nvidia Cosmos——一款基於網際網路規模視訊、真實駕駛&機器人資料及 3D 模擬預訓練的物理 AI 開放前沿世界基礎模型。Cosmos 掌握了統一的世界表徵能力,能夠整合語言、圖像、3D 資料與動作。它能從單張圖像中執行物理 AI 技能,包括生成、推理和軌跡預測。Cosmos 可根據 3D 場景描述生成逼真視訊,從駕駛遙測資料和感測器日誌中生成物理一致的運動軌跡,並能從規劃模擬器、多攝影機環境或場景提示中生成環繞視訊。它讓邊緣案例栩栩如生。開發者可運行互動式閉環模擬與 Cosmos 系統。當操作發生時,世界隨之響應。Cosmos 通過推理分析邊緣場景,將其分解為熟悉的物理互動,並推演後續可能發生的情況。該系統將計算轉化為資料,為自動駕駛車輛訓練長尾場景能力,同時指導機器人適應各類情境。”我知道這難以置信。Cosmos 是全球領先的基礎模型,世界級基礎模型。它已被下載數百萬次,應用遍及全球。它正在讓世界為物理 AI 的新時代做好準備。推出Alphamayo——全球首款具備思考與推理能力的自動駕駛汽車我們自身也在使用它。我們用它開發自動駕駛汽車,用於場景生成和評估。它能讓我們在電腦內部實現數十億乃至數兆英里的有效行駛。我們已取得巨大進展。今天,我們宣佈推出 Alphamayo——全球首款具備思考與推理能力的自動駕駛汽車。Alphamayo 是端到端訓練的系統,真正實現了從攝影機輸入到執行器輸出的全鏈路訓練。攝影機輸入端,我們通過人類駕駛示範,讓系統在大量自主駕駛里程中學習。此外,還有大量由 Cosmos 生成的駕駛資料。更重要的是,我們精心標註了數十萬個示例資料,以此教會車輛如何駕駛。Alphamayo 具備一項真正獨特的能力。它不僅能接收感測器輸入並控制方向盤制動與加速,還能推斷即將採取的行動。它會告知你即將執行的操作、形成該決策的依據,以及相應的行駛軌跡。所有這些能力都通過大量人類訓練資料與宇宙生成資料的深度融合直接耦合,並經過高度精準的訓練。其成果令人歎為觀止。車輛不僅能如你所願自然駕駛——因其直接學習自人類示範者——更能在每個場景中預判行動:它會告知你即將採取的措施,並推演你可能的操作意圖。這項技術之所以至關重要,在於駕駛場景存在長尾效應——我們根本無法收集全球所有國家、所有可能發生的情境下所有駕駛者的全部潛在場景。但若將每個複雜場景分解為若干常規子場景,這些子場景往往具有普遍性,駕駛者通常能夠理解。這些長尾情境將被分解為車輛已掌握處理能力的常規場景,只需進行推理即可應對。現在請看演示——您即將目睹的全程均為單次拍攝,全程無人工干預。八年前,我們便開始研發自動駕駛汽車。之所以如此,是因為我們很早就意識到,深度學習和人工智慧將徹底重塑整個計算架構。若想真正掌握自主導航之道,引領行業邁向這個嶄新的未來,就必須精通整個技術堆疊的建構。正如我之前所說,人工智慧如同五層蛋糕。底層是土地、電力和外殼。在機器人領域,底層對應的是汽車。其上是晶片層,包含 GPU、網路晶片、CPU 等元件。再上一層是基礎設施——正如我提到的物理人工智慧案例中,具體指 Omniverse 和 Cosmos 平台。而頂層則是模型。至於頂層模型,我剛才展示的這款名為 Alphamayo。如今 Alphamayo 已開源。這項非凡成果凝聚了數千人的心血——僅我們的自動駕駛團隊就達數千人規模。輝達首款自動駕駛汽車Q1上路,推進自動駕駛垂直整合技術堆疊,十年內多數汽車將實現高度自動駕駛合作夥伴 Ola(我猜 Ola 代表可能就在觀眾席中)於五年前攜手梅賽德斯共同推動了這一切。我們設想未來道路上將有 10 億輛自動駕駛汽車。它們可以是您調度租用的無人計程車,可以是為您自動駕駛的私家車,亦或是您親自駕駛的座駕。但每輛車都將具備自動駕駛能力。每輛汽車都將由人工智慧驅動。在此架構中,底層模型層是 Alphamayo,而其上層應用層則是梅賽德斯-奔馳。這是我們與梅賽德斯首次合作的完整系統項目,我們一直都在為此努力。我非常高興 NVidia 的首款自動駕駛汽車將在第一季度上路,隨後第二季度登陸歐洲和美國市場。我認為第三季度將覆蓋亞洲市場,第四季度則全面推進。更重要的是,我們將持續通過 Alphamayo 等後續版本進行系統升級。我此刻確信,這必將成為規模最大的機器人產業之一。我們參與其中並從中獲益匪淺,這讓我們深刻理解了如何協助全球建構機器人系統。這種深層認知不僅體現在自主研發能力上——我們親手搭建了完整的基礎設施,更精通機器人系統所需的晶片類型。在這個特定案例中,是雙 Orin 晶片,以及下一代的雙 Thor 晶片,專為機器人系統設計,具備最高安全等級認證。這款汽車剛獲得載荷評級,現已投入量產。梅賽德斯-奔馳 CLA 車型剛剛被 End Cap 評為全球最安全汽車。這是我所知唯一實現全系統安全認證的系統——每行程式碼、每顆晶片、每個系統模組都經過安全認證。整個模型系統基於多樣化冗餘感測器建構,軟體駕駛棧亦是如此。Alphamayo 棧經過端到端訓練,具備卓越能力。但除非持續駕駛至永恆,否則無人能斷言其絕對安全。為此我們設定了防護機制:在自動駕駛系統底層建構了另一套軟體架構,確保整個系統具備完全可追溯性。這套輔助架構耗時五年打造,實際開發周期長達六至七年。兩套軟體架構相互鏡像運行。此外我們設有安全策略評估機制:當系統能確保絕對安全駕駛時,便由阿爾法-馬約系統接管;若存在不確定因素,安全策略評估器將啟動更簡潔可靠的防護系統。然後它又回到了經典的自動駕駛技術堆疊,全球唯一同時運行這兩套技術堆疊且具備所有安全系統的汽車,應當實現多樣性和冗餘性。我們的願景是,終有一日每輛汽車、每輛卡車都將實現自動駕駛。為此我們正全力推進這一未來。整個技術堆疊實現了垂直整合。當然,以梅賽德斯-奔馳為例,我們共同建構了完整的技術堆疊。我們將部署該系統,營運該技術堆疊,並終生維護它。然而,正如我們公司所做的所有事情一樣,雖然我們建構了完整的技術堆疊,但整個技術堆疊對生態系統開放。與我們共同開發 L4 自動駕駛和無人駕駛計程車的生態系統正在不斷擴展,並遍佈全球。我完全有理由相信,這已經成為我們的一項巨額業務。之所以如此,是因為客戶將它用於訓練——我們的訓練資料、資料處理以及模型訓練。某些汽車製造商和公司還會用它生成合成資料,他們基本上就是生產汽車內部的電腦和晶片。有些公司與我們開展全端合作,有些則只合作部分環節。無論你們決定採用多少方案,我的唯一要求是:請儘可能多地使用視訊素材。而且,現在整個領域都已開放。這將成為首個大規模、主流的物理人工智慧市場。我認為我們都能完全認同,從非自動駕駛汽車到自動駕駛汽車的轉折點,很可能就在未來十年中的這個時刻發生——我對此相當確信。全球絕大多數汽車都將實現自動駕駛或高度自動駕駛。邁向工業新紀元:將物理AI應用於整個工業生命周期——從設計與模擬,到生產與營運但剛才描述的這種基礎技術——利用三台電腦進行合成資料生成與模擬——適用於所有形式的機器人系統。無論是關節式機械臂、移動機器人,還是類人機器人皆可適用。因此機器人系統的下一個發展階段,下一個時代,將屬於機器人。這些機器人將呈現出各種不同的尺寸。 我邀請了幾位朋友。他們來了嗎?現在,有一件事真的很棒——你們有Jetsons 的機器人。它們體內裝有微型電腦,在綜合訓練系統中接受訓練。讓我們給大家展示你們學習機器人技能的模擬器。你們想看看那個吧?好的,請看那個跑者。這是不是很神奇?這就是你學會當機器人的方式。所有知識都在 Omniverse 裡。機器人模擬器叫Isaac Lab。任何想造機器人的人——沒人能造出像你這麼可愛的機器人。但現在我們擁有了這麼多朋友都在造機器人。我們正在製造大型機器人。我們有很多建造機器人的朋友,包括New Robot、AG Bot。這邊還有 LG,他們剛發佈了新款機器人——卡特彼勒,他們擁有史上最大的機器人。那個能把食物送到你家門口的,是和優步外賣合作的;還有那個衝浪機器人。我超愛這些傢伙。敏捷機器人,波士頓動力公司,還有外科手術機器人。,法蘭克公司研發的機械臂機器人,Universal Robotics 的機器人,種類繁多得令人驚嘆。而這正是新篇章的開端。未來我們將深入探討機器人技術,但歸根結底,這不僅僅關乎機器人本身。我深知一切都圍繞著你們展開——關鍵在於實現目標。物理領域作為全球最重要的產業之一,即將因物理 AI 與人工智慧迎來革命性變革。正是物理技術催生了我們 NVIDIA 的誕生。若沒有接下來要介紹的這些企業,這一切都無從談起。我由衷欣喜地看到,從 Cadence 開始的所有夥伴都將加速推動這項變革。Cadence 能夠將其技術整合到所有模擬和求解器中。他們擁有 Nvidia 物理 AI 技術,將用於不同物理工廠和工廠模擬。人工智慧物理技術正融入這些系統。無論是 EDA 還是 STA,乃至未來的機器人系統,我們即將擁有與當前使你們成為可能的核心技術——它將徹底革新整個設計體系。Synopsys 與 Cadence 在晶片設計領域不可或缺,Synopsys 在邏輯設計和 IP 領域佔據領導地位。在 Cadence 領域,他們主導著物理設計、佈局布線以及模擬與驗證工作。Cadence 在模擬與驗證方面表現卓越。兩家公司都正向系統設計與系統模擬領域拓展。因此未來,我們將通過 Cadence 和 Synopsys 工具來設計晶片,在這些平台內完成系統設計、整體模擬及全面模擬。這就是你們的未來。我們將實現這樣的願景——是的,你們將誕生於這些平台之中。相當了不起,對吧?因此我們非常高興能與這些行業夥伴合作。正如我們已將輝達整合到 Palantir 及其服務中,現在我們正將輝達融入計算密集型模擬行業——Synopsys 和 Cadence。今天,我們宣佈西門子也將採取同樣舉措。我們將把CUDA-X、物理AI、智能體AI、NeMo、Nemotron深度整合到西門子的世界中。原因如下:首先,我們設計晶片,未來所有晶片都將實現加速運算。我們將與智能體專家、晶片設計師及系統設計師攜手合作,共同推進設計工作——正如如今智能體軟體工程師協助我們的軟體工程師編寫程式碼那樣。因此我們將擁有智能體晶片設計師和系統設計師。我們將在這其中創造,但隨後必須建造。我們需要建造工廠——那些製造工廠,我們必須設計裝配生產線。而這些製造工廠本質上將成為巨型機器人。難以置信。不是嗎?所以機器人將在電腦裡被設計出來,在電腦裡被製造出來,在電腦裡被測試和評估——這一切都發生在機器人真正接觸重力之前(面世之前)。現在我們創造的技術已經達到了如此精妙和強大的水平,能夠幫助他們革新自己的行業。來看看我們和西門子要合作的事項吧。“物理人工智慧領域的突破正推動人工智慧從螢幕走向現實世界。這一處理程序恰逢其時——當全球各地紛紛興建晶片、電腦、救命藥物及人工智慧工廠之際,面對日益嚴峻的全球勞動力短缺問題,我們比以往任何時候都更需要物理人工智慧與機器人技術驅動的自動化解決方案。人工智慧與全球最大實體工業的交匯點,正是輝達與西門子近兩百年來合作的基礎。西門子締造了全球工業體系,如今正為人工智慧時代重塑工業格局。西門子正將輝達 CUDA X 庫深度整合至其系統。輝達將物理 AI 融入其電子設計自動化(EDA)、C 語言、A 語言及數字孿生工具與平台的組合中。我們正攜手將物理 AI 應用於整個工業生命周期——從設計與模擬到生產與營運。我們正站在新一輪工業革命的起點,這個由輝達與西門子共同建構的物理 AI 時代,將引領工業邁向全新紀元。”迎接計算量指數級增長,重新發明AI——突破運算新邊界的Vera Rubin時代,全端整合的高效“AI工廠”迎接計算量指數級增長,輝達繼續突破運算新邊界,Vera Rubin時代正式開啟所以縱觀全球模型,OpenAI 無疑是頭號 token 生成器。如今它生成的 token 數量遠超其他任何模型。第二大陣營——很可能是開源模型。我預測隨著時間推移,由於眾多公司、研究者以及不同領域和模態的參與,開源模型終將佔據絕對主導地位。讓我們聊聊一位真正特別的人物。你們想聊聊嗎?來談談維拉·魯賓吧。她是美國天文學家,首次觀測到星系尾部的運動速度竟與星系中心相當。這聽起來很荒謬。牛頓物理學認為,就像太陽系一樣,離太陽越遠的行星繞太陽公轉的速度就越慢。因此,除非存在看不見的物體,否則這種現象就無法解釋。我們稱之為暗物質——她發現的暗物質佔據著空間,儘管我們看不見它。因此,維拉·魯賓就是我們下一台電腦的命名來源。Vera Rubin 的設計正是為解決我們面臨的這個根本性挑戰。人工智慧所需的計算量正在呈指數級增長,對輝達 GPU 的需求也在激增。這種激增源於模型規模每年以十倍的速率增長——整整一個數量級。更不用說,正如我提到的,o1 的推出標誌著人工智慧的轉折點:推理不再是一次性解答,而是成為了一個思考過程。為教會 AI 思考,強化學習及其海量計算需求被引入訓練後階段。這已不再是監督式微調(亦稱模仿學習或監督訓練),而是強化學習——電腦通過反覆迭代嘗試,自主學習任務執行方式。預訓練、後訓練及測試階段的計算量因此呈指數級增長。如今我們每次推理時,不再僅限於單次嘗試,而是能觀察到 AI 系統持續思考的過程——這種特性令人欣喜。思考時間越長,往往能得出更優解。測試時 Scaling(Test-Time Scaling)導致每年生成的 token 數量激增 5 倍。更不用說,人工智慧領域的競賽早已全面展開。人人都在衝刺新高度,爭相開拓新疆域。每當抵達新前沿,上一代 AI token 的成本便以每年 10 倍的速度遞減。這種逐年十倍的降幅實則傳遞著另一層訊號:競爭如此激烈,人人都在衝刺新高度,而總有人率先抵達。因此本質上這是場計算能力競賽——運算速度越快,越能率先突破新邊界。所有這些變革都在同一時刻同步發生。因此我們決定必須年年推進計算技術的進步,絕不讓任何一年落後。如今我們已量產 GB200 系列整整一年半,目前正全面投產 GB300 系列。若 Vera Rubin 要趕上今年進度,此刻必須已投入生產。今天我可以告訴各位,Vera Rubin 已全面投產。 各位想看看嗎?開始播放吧。“Vera Rubin 恰逢其時,迎來了人工智慧的新紀元。這是我們打造它的故事。其架構由六顆晶片構成,經精心設計可協同運作。源於極致的程式碼設計,它始於 Vera——一款定製設計的 CPU,性能較上一代提升一倍。以及Rubin GPU。Vera 與 Rubin 自始便協同設計,實現雙向、一致的資料共享,速度更快,延遲更低。隨後,17,000 個元件匯聚於 Vera Rubin 計算主機板。高速機器人以微米級精度完成元件安裝,待Vera CPU 與兩枚 Rubin GPU 就位後,整機即刻啟動——其人工智慧運算能力達 100 兆次浮點運算,較前代提升五倍。人工智慧需要高速資料傳輸。Connect X9 為每個 GPU 藍域提供每秒 1.6TB 的橫向擴展頻寬,配備 4 個 DPU 解除安裝儲存與安全模組,確保計算資源完全專注於 AI 任務。全新設計的 Vera Rubin 計算托盤摒棄了所有線纜、軟管和風扇,採用藍域設計,整合四組 DPU、八個 Connect X9 網路卡、兩顆 Vera CPU 及四塊 Rubin GPU。Vera Rubin 是人工智慧超級電腦的計算基元。其核心是第六代 NVLink 交換機,其資料傳輸量超越全球網際網路,連接 18 個計算節點,可擴展至 72 個 Rubin GPU 協同運作。配合 Spectrum X 乙太網路光子學技術——全球首款配備 512 通道、支援 200 千兆位速率的整合封裝光模組乙太網路交換機。數千機架匯聚成 AI 工廠。自設計啟動以來歷經 15,000 人年的研發,首台 Vera Rubin NVL72 機架正式上線。六款突破性晶片、18 個計算托盤、9 個 NV 鏈路交換托盤、220 兆個電晶體,整機重達近兩噸。這是邁向 AI 新邊疆的偉大飛躍。Rubin 時代已然來臨。”詳解Vera Rubin架構:極端協同設計、Vera CPU與Rubin GPU耦合、黑科技NVFP4你們覺得怎麼樣?這是個 Rubin 叢集。1152 個 GPU 和 16 個機架。每個機架,你們知道的,裝有 72 個 Vera Rubin 或 72 個 Rubin。每個 Rubin 實際上是由兩個 GPU 晶片組成的。我這就給你們展示。不過有幾件事,我稍後再告訴你們。 我不能立刻告訴你們所有細節。我們設計了六種不同的晶片。首先,我們公司內部有一個原則:每代產品中,晶片變更數量不應超過一到兩種。但問題在於——正如您所見,我們描述的是每款晶片中電晶體的總數。我們深知摩爾定律已大幅放緩,因此每年能實現的電晶體數量根本無法跟上十倍規模的晶片模型。它無法應對每年五倍增長的 tokens 生成量,更無法應對 token 成本將急劇下降的現實。要維持這種增長速度根本不可能。除非我們採取激進的極端協同設計策略——即在所有晶片層級、整個技術堆疊中同步創新——否則行業將難以持續進步。這正是我們決定在本代產品中重構所有晶片設計的根本原因。我們剛才描述的每款晶片,本身都足以成為一場新聞發佈會的主角。在過去,可能會有整家公司專門負責這件事。每款晶片都堪稱革命性突破,是同類產品中的佼佼者。Vera 處理器。我為它感到無比自豪。在一個受功率約束的世界裡,它的性能是上一代的兩倍,每瓦性能是世界上其他最先進 CPU 的兩倍;其資料傳輸速率令人驚嘆,它專為處理超級電腦而設計。Grace 曾是卓越的 GPU。如今維 Vera 大幅提升了單線程性能,擴展了記憶體容量,全面實現了突破性增長。這真是個了不起的突破。這是 Vera 中央處理器。這是一顆 CPU,它連接到 Rubin 圖形處理器。瞧瞧這大傢伙,簡直像艘巨型戰艦。現在要介紹真正特別的部分——我得用三隻手,不,四隻手才能展示清楚。這些 CPU 擁有 88 個處理器核心,每個核心都採用多線程設計。但 Vera 的多線程特性經過特殊設計,確保 176 條線程均能發揮完整性能。本質上相當於擁有 176 個線程,卻僅需 88 個物理核心。這些核心採用空間多線程技術建構,其 I/O 性能令人驚嘆。這是 Rubin GPU,其浮點運算性能達到 5 倍於 Blackwell 的水平。但重要的是,歸根結底,它只有 Blackwall 電晶體數量的 1.6 倍。這多少能說明當今半導體物理的水平。如果我們不做協同設計,如果我們不在系統中幾乎每一顆晶片上做極端的協同設計。我們怎麼可能每年最多交付 1.6 倍的性能?因為那是你擁有的電晶體總數。即使你每個電晶體的性能稍微高一點,比如 25%,你也很難從你獲得的躍遷次數中達到 100% 的良率。所以 1.6 倍的比例在每年性能的提升上設了上限,除非你採取極端措施,我們稱之為極端的協同設計。我們做過的一項很棒的發明叫做 NVFP4 Tensor Core。我們晶片內的變壓器引擎不僅僅是一個4位浮點數,我們以某種方式將其放入資料路徑。它是一個完整的處理器,一個處理單元,能夠動態自適應地調整其精度和結構,以應對變壓器的不同層級,從而在可能丟失精度的地方實現更高的吞吐量,並在需要的地方恢復到最高精度。這種動態實現的能力,在軟體中是做不到的,因為顯然運行速度太快了。所以你必須能夠在處理器內部自適應地實現。這就是 NVFP4 的定義。當有人說 FP4 或FPA ,對我們來說幾乎毫無意義。原因在於張量核心結構和所有演算法使它得以運作。NVFP4,我們已經發表過相關論文。吞吐量和精度能夠保持的精確度,令人難以置信。這是開創性的成果。我不會驚訝業界希望我們未來將這種格式、結構和行業標準制定。這完全是革命性的。這也是我們能夠實現如此巨大的性能提升的原因,儘管我們只有電晶體數量的 1.6 倍。高效的“AI工廠”系統:“液冷底盤+銅纜背板+矽光子乙太網路”的全端整合我們徹底革新了整個 NGX 底盤。這個節點,43 根電纜,零電纜,6 根管子。以前組裝這個如果幸運的話,花兩個小時。當然,你很可能會組裝錯。你得反覆測試、測試、重新組裝。組裝過程非常複雜。這也是可以理解的,因為我們最早的超級電腦之一就是這樣分解的,從兩小時到五分鐘,80%液態煤,100%液冷。是的,真的是一次突破。這就是新的電腦箱,將這些連接到頂層機架交換機、處理東西向流量的,叫做Spectrum-X網路卡。這毫無疑問是世界上最好的網路卡。收購的Melanox很久以前加入我們,他們用於高性能計算的網路技術是世界上無可挑剔的。演算法、晶片設計、所有互連、運行在其上的軟體棧、RDMA,都是世界上最好的。現在它具備了可程式設計的 RDMA 和資料路徑加速器的能力,讓我們的合作夥伴像 AI Labs 這樣可以建立自己的演算法,來處理系統中的資料,但這完全是世界級的。Connect X9 和 Vera CPU 是共同設計的,我們從未公開過,也從未發佈過,直到Connect X9 出現,因為我們共同設計了新的處理器類型。眾所周知,我們的 CX8 和 Spectrum X 徹底革新了人工智慧乙太網路的應用方式。AI的乙太網路流量強度更大,延遲也更低。流量瞬間激增,是乙太網路從未見過的。於是我們建立了Spectrum X,也就是AI乙太網路。兩年前,我們宣佈了 Spectrum X。如今,輝達是世界上最大的網路公司。所以它非常成功,被用於許多不同的裝置中,簡直是大範圍的。人工智慧領域的性能令人難以置信,尤其是當你擁有 200 兆瓦的資料中心或千兆瓦資料中心時。這些資料中心價值數十億美元,比如千兆瓦的資料中心,價值 500 億美元。如果網路性能允許你額外提供 10%。以 Spectrum X 為例,吞吐量提升 25% 並不罕見。如果我們只交付 10%,那就價值 50 億美元,網路完全免費,這也是為什麼大家都用 Spectrum X。這真是一件令人難以置信的事情。現在我們將發明一種新的資料處理方式。因此,東西向流量的頻譜接入,我們現在有了一種叫 Bluefield 4 的新處理器,它讓我們能夠將一個非常非常非常大的資料中心隔離出不同的部分,讓不同的使用者可以使用不同的部分,確保如果他們決定虛擬化,一切都可以實現虛擬化。這樣,你就能解除安裝很多虛擬化軟體、安全軟體以及南北向流量的網路軟體。因此, Bluefield 4 在所有這些計算節點上都是標配的。Bluefield 4還有第二個應用,我馬上會介紹。這是一台革命性的處理器,我對它感到非常興奮。這是 NVLink-6 開關,就在這裡。這個交換晶片,在 NVLink 交換機內部有四個。這些交換晶片中的每一個都是歷史上最快的30秒(性能)。全世界的速率才勉強達到 200 吉位元。這是一個 400 吉位元每秒的交換機。這之所以如此重要,是因為這樣我們就能讓每一塊 GPU 同時與其他 GPU 通訊。這個機架背板上的交換機使我們能夠以兩倍的速度傳輸相當於全球網際網路資料兩倍的總量。把整個地球網際網路的橫截面頻寬當作大約 100 TB 每秒,這是每秒 240 TB。所以這讓我有了更清晰的視角。這樣每塊 GPU 就能同時與其他所有 GPU 協同工作。後面是 NVLink 脊柱,基本上是兩英里長的銅纜。銅導體是我們所知最好的導體。這些都是遮蔽銅纜,結構銅纜,是世界上有史以來電腦系統中使用最多的銅纜。我們的 30MHz 則以 400 吉位元每秒的速度將銅纜從機架頂部一直驅動到機架底部。因此,這裡有 2 英里的銅纜,5000 根銅纜,這使得 NVLink 脊柱成為可能。這才是真正開啟 NGX 系統的革命。現在我們決定建立一個行業標準系統,讓整個生態系統、整個供應鏈都能對這些元件進行標準化。這些 NGX 系統由大約 8萬個不同的部件組成。而且每年都改變它完全是浪費精力,從富士康到廣達、威創,名單還在不斷,惠普、戴爾和聯想。每個人都知道如何建構這些系統。所以我們能把 Vera Rubin 整合其中,而且非常重要的是,功耗也高了一倍。Vera Rubin 的功耗是Grace Blackwell 的兩倍。然而,奇蹟是,進入它的空氣流量差不多。非常重要的是,進入水中的水溫度相同,45攝氏度。在45攝氏度的情況下,資料中心無需使用水冷機。我們基本上用熱水給超級電腦降溫,效率極高。這就是新的機架,電晶體數量是 1.7 倍,但峰值推理性能是它的 5 倍,峰值訓練性能是它的 3.5 倍。它們是用Spectrum X連接的。這是全球首款採用台積電新工藝 Coupe 的製造晶片,我們共同創新了 Coupe,這是一種矽光子學整合矽光子學工藝技術。這使得我們可以直接將矽光子學帶到晶片上。這是 512 個連接埠,速度為 200 吉位元每秒。這就是新的乙太網路 AI 交換機,Spectrum X 乙太網路交換機。看看這艘巨大的飛船。但真正令人驚訝的是,矽光子學直接連接到了它。雷射也進來了。雷射從這裡進來,光學裝置也在這裡,並連接到資料中心的其他部分。這就是新的Spectrum X 矽光子開關。正如我幾年前提到的,我們推出 Spectrum X 是為了重新定義網路建設的方式。乙太網路管理非常簡單,每個人都有乙太網路堆疊,世界上每個資料中心都知道如何處理乙太網路。當時我們唯一用的是所謂的InfiniBand,這用於超級電腦。InfiniBand 延遲非常低,但軟體棧,也就是 InfiniBand 的整體管理性,對使用乙太網路的人來說非常陌生。因此,我們決定首次進入乙太網路交換機市場。Spectrum-X一經推出就大獲成功,讓我們成為全球最大的網路公司。正如我提到的,下一代 Spectrum X 將延續這一傳統。AI時代的儲存革命:BlueField-4驅動的分佈式KV儲存,具備驚人的記憶體擴展能力但正如我之前說的,人工智慧已經重新定義了整個計算堆疊,每一層計算。可以推測,當人工智慧開始在全球企業中應用時,儲存的運作方式也將被重新定義。其實,人工智慧並不使用 SQL。AI 使用語義資訊。當人工智慧被使用時,它會創造一種臨時知識,即臨時記憶,稱為 KV 快取,基本上是 AI 的工作記憶。而 AI 的工作記憶儲存在HBM記憶體中。對於每一個 token,GPU都會讀入整個模型、整個工作記憶體,產生一個token,然後將這個token存回KV快取。下一次這樣做時,它會讀取整個記憶體,然後通過我們的 GPU 流式傳輸,然後生成另一個 token。它反覆這樣做,一個又一個 token。顯然,如果你和 AI 進行長時間的對話,上下文記憶會大幅增長。更不用說模型也在不斷增長。我們使用的回合數,AI 數量也在增加。我們希望這個人工智慧能陪伴我們一生,記住我們與它的所有對話,對吧?當然,隨著共享超級電腦的人數增加,要求的每一個研究連結都會持續增長。因此,這個最初能放進 HBM 的上下文記憶體,現在已經不夠大了。去年,我們建立了 Grace Blackwell 的快速上下文記憶體,這就是為什麼我們將Grace 直接連接到 Hopper,直接連接到 Blackwell,以擴展上下文記憶體。但即便如此,這還不夠。所以,下一個解決方案當然是走網路。但是,如果有大量 AI 同時在運行,網路將不再足夠快。所以答案很明確:需要一種不同的方法。因此,我們引入了 BlueField-4,,這樣我們就能在機架中儲存一個非常快速的 KV 快取上下文儲存。我馬上給你演示,但還有一整類全新的儲存系統。業界非常興奮,因為這幾乎是所有現在大量 tokens 生成者的痛點——AI實驗室、雲服務提供商,他們真的受困於KV快取移動所導致的網路流量。因此,我們創造了一個新平台,一個新的處理器來運行整個 Dynamo KV 快取,上下文記憶體管理系統,並將其放在非常靠近機架其他部分的地方,這完全是革命性的。每個這樣的機架後面有四個 BlueField-4。每個 BlueField-4 後面有 150 TB的上下文記憶體。分攤到每個GPU上,每個GPU將獲得額外的 16 TB 記憶體。現在,在這個節點內部,每個 GPU 原本大約有 1 TB 記憶體。現在有了這個位於同一條東西向流量上、資料速率完全相同(每秒200Gb)的支撐儲存,橫跨整個計算節點的網路結構,你將獲得額外的 16 TB記憶體。Vera Rubin的終極表現:節省6%整體電力、端到端機密計算、功率平滑的電力最佳化、通往前沿模型的速度和性能飛躍這是管理平面。這些是連接所有裝置之間的Spectrum X交換機。在另一邊,這些交換機在末端連接它們和資料中心的其他部分。這就是 Vera Rubin。這裡有幾件事真的很令人難以置信。我首先提到的是,整個系統的能效是溫度性能的兩倍,也就是說即使功率是兩倍,消耗的能量也翻倍,計算量也遠遠超過這個數值。但進入它的液體溫度仍然是45攝氏度。這使我們能夠節省約6%的資料中心電力。所以這非常重要。第二個非常重要的點是,整個系統現在實現了機密計算安全,意味著所有內容在靜止和計算過程中都被編碼,每一條匯流排都被加密了。每個PCIe、每個NVLink、每個HBM……CPU與記憶體、CPU與GPU之間、GPU與GPU之間,一切現在都是加密的;所以它是保密的,計算安全。這讓企業可以放心,因為他們的模型被別人部署了,但這些模型永遠不會被別人看到。所以這個系統不僅極其節能,還有一件非常重要的事情。由於人工智慧的工作負荷特性,它會瞬間激增,這個叫做“全歸約”的計算層所使用的電流量、能量同時飆升,常常會突然激增 25%。現在,我們在整個系統中實現了功率平滑,這樣你就不需要過度配置 25% 的容量,或者如果你過度配置了,你也不必讓那 25% 的能源被浪費或閒置。現在,你可以用滿整個功率預算,而不需要過度配置。最後當然是性能。那麼我們來看看它的性能。這些圖表只有那些製造人工智慧超級電腦的人會喜歡。它需要精確完成,每一塊晶片都完成了。重新設計每一個系統,並重寫整個技術堆疊,使這成為可能。基本上,這就是訓練 AI 模型,第一列,你訓練得越快,就能越快將下一個前沿推向世界。現在是你推銷市場的好時機。這就是技術領導力。這就是你的定價權。比如綠色部分代表一個 10 兆參數模型(我們稱之為DeepSeek++),需要基於100 兆 token 進行訓練。這就是我們對建構下一個前沿模型所需條件的模擬預測。下一個前沿模型(埃隆已經提到,我認為 Grok 5 的下一版本是7兆參數),綠線是 Blackwell。而在 Rubin 的情況下,在我們給出的時間——一個月內訓練模型所需的時間僅為四分之一。時間對每個人來說都是一樣的。現在,你能訓練模型的速度和速度,以及能訓練多大的模型,就是你能先到達前沿的方法。第二部分是工廠的吞吐量。綠線仍是 Blackwell。工廠吞吐量很重要,因為以千兆瓦為例,工廠價值是 500 億美元。一個價值 500 億美元的資料中心只能消耗 1 吉瓦的電力。所以,如果你的性能、每瓦吞吐量非常好或很差,這直接對應到資料中心的收入,這與第二列直接相關。而 Blackwell 的案例則是 Hopper 的十倍。Rubin 在此基礎上再提升 10 倍。而生成 token 的成本,Rubin 降到 1/10。這就是我們如何讓大家邁向下一個前沿,推動人工智慧邁向新高度,建設這些資料中心時既能效又省成本。輝達正在建構整個系統:從晶片到基礎設施、從模型再到應用,建立整個技術堆疊,重新發明AI這就是今天的 Nvidia。我們製造晶片,但正如你所知,輝達現在建構整個系統,完整的全端 AI 系統——我們正在從晶片到基礎設施、從模型再到應用的各個方面重新發明人工智慧。我們的工作是建立整個技術堆疊,讓你們都能為全世界創造出令人難以置信的應用。感謝大家的到來。祝你CES愉快!在讓你們走之前,有一大堆幻燈片我們得剪輯,必須留在剪輯區。所以我們這裡有一些未播花絮。我想你會覺得很有趣。祝大家好運! (王錚Silvia)
【CES 2026】NVIDIA CES 2026 主題演講:AI 與加速計算的工業革命 (完整演講稿)
你好,拉斯維加斯!新年快樂,歡迎來到 CES。這裡的觀眾大概有 3000 人,外面的庭院裡還有 2000 人在觀看,據我在四樓原本應該是 NVIDIA 展區的地方還有 1000 人在觀看這場主題演講。當然,全世界還有數百萬人正在觀看這場直播,共同開啟新的一年。嗯,我們大概有 15 公斤重的乾貨要在這裡塞給大家。非常高興見到大家。每隔 10 到 15 年,電腦行業就會發生一次重設。新的平台轉移會出現:從大型機到 PC,從 PC 到網際網路,從網際網路到雲,從雲到移動端。每一次,應用程式的世界都會瞄準一個新的平台,這就是為什麼它被稱為“平台轉移”。你為新的電腦編寫新的應用程式。但這一次,實際上有兩個平台轉移同時發生。當我們轉向 AI 時,應用程式將建立在 AI 之上。起初,人們認為 AI 本身就是應用程式。事實上,AI 確實是應用程式,但你們將會在 AI 之上建構應用程式。除此之外,軟體的運行方式、軟體的開發方式也發生了根本性的變化。電腦行業的整個製造堆疊(Foundry stack)正在被重新發明。你不再編寫軟體,而是訓練軟體。你不再在 CPU 上運行它,而是在 GPU 上運行它。過去的應用程式是預先錄製、預先編譯並在你的裝置上運行的,而現在的應用程式能夠理解上下文,並且每一次都完全從零開始生成每一個像素、每一個 Token(詞元)。計算因此被從根本上重塑了,這歸功於加速計算,歸功於人工智慧。這五層蛋糕的每一層現在都在被重新發明。這意味著過去十年中大約10兆美元的計算基礎設施現在正在向這種新的計算方式現代化。這意味著每年有數千億美元的風險投資正在投入到現代化和發明這個新世界的過程中。這也意味著 100兆美元的產業,其中一部分研發預算正在轉向人工智慧。人們問錢從那裡來?這就是錢的來源。從傳統方法到 AI 的現代化,研發預算從經典方法向人工智慧方法的轉移。巨大的投資正在湧入這個行業,這也解釋了為什麼我們如此忙碌,去年也不例外。去年是不可思議的一年。(PPT 翻頁卡頓)這裡有一張幻燈片要出來。這就是不做綵排的後果。這是今年的第一場主題演講。我希望這也是你們今年的第一場主題演講,否則你們就已經夠忙的了。我們要把蜘蛛網清掃一下。2025 年是不可思議的一年。似乎所有事情都在同一時間發生,事實上可能確實如此。首先當然是縮放定律(Scaling Laws)。2015 年,第一個我認為真正產生影響的語言模型 BERT 出現了,它帶來了巨大的變化。2017年Transformer 問世。直到五年後的 2022 年,ChatGPT 時刻發生了,它喚醒了世界對人工智慧可能性的認識。那之後的一年發生了一件非常重要的事情。來自 ChatGPT 的第一個o1模型,即第一個推理模型,完全革命性地發明了這個叫做測試時縮放(Test Time Scaling)的概念,這是一個非常符合常識的事情。我們不僅預訓練一個模型讓它學習,我們還用強化學習對它進行後訓練(Post-train),使它能夠學習技能。現在我們還有了測試時縮放,換句話說就是“思考”。你在即時地思考。人工智慧的每一個階段都需要巨大的計算量,而計算定律在繼續擴展。大型語言模型(LLM)繼續變得更好。與此同時,另一個突破發生了,這一突破發生在 2024 年。代理系統(Agentic Systems)在 2025 年開始湧現。它開始普及到幾乎所有地方。代理模型擁有推理、尋找資訊、做研究、使用工具、規劃未來、模擬結果的能力。突然之間,它們開始解決非常非常重要的問題。我最喜歡的代理模型之一叫做 Cursor,它徹底改變了我們在NVIDIA 進行軟體程式設計的方式。代理系統將從這裡真正起飛。當然,還有其他類型的 AI。我們知道大型語言模型並不是唯一的資訊類型。只要宇宙有資訊,只要宇宙有結構,我們就可以教一個大型語言模型、一種形式的語言模型去理解這些資訊,理解它的表徵,並將其轉化為 AI。其中最重要、最大的一個就是物理AI(Physical AI)。即理解自然法則的 AI。物理 AI 是關於 AI 與世界互動的,但世界本身有編碼的資訊,這叫做AI物理學(AI Physics)。也就是說,物理 AI 是與物理世界互動的 AI,而 AI 物理學是理解物理定律的 AI。最後,去年發生的最重要的事情之一是開放模型(Open Models)的進步。我們現在知道,當開源、當開放創新、當全世界每個公司和每個行業的創新被啟動時,AI 將會無處不在。實際上,去年我們看到了DeepSeek R1 的進步,這是第一個開放的推理系統模型。它讓世界大吃一驚,它真正啟動了整個運動。非常非常令人興奮的工作。我們對它非常滿意。現在我們在全世界有各種各樣的開放模型系統,我們現在知道開放模型也已經達到了前沿。雖然穩固地落後於前沿模型六個月,但每六個月都有一個新模型出現,這些模型因為這個原因變得越來越聰明。你可以看到下載量爆炸式增長。下載量增長如此之快,是因為初創公司想參與 AI 革命,大公司想要參與,研究人員想要參與,學生想要參與,幾乎每個國家都想要參與。數字形式的智能怎麼可能拋下任何人呢?所以開放模型去年真正徹底改變了人工智慧。整個行業將因此被重塑。其實我們很久以前就有這種預感。你們可能聽說過幾年前,我們開始建立和營運我們自己的 AI 超級電腦。我們稱之為DGX Cloud。很多人問,你們是要進入雲業務嗎?答案是不。我們建立這些 DGX 超級電腦是為了自己使用。事實證明,我們營運著數十億美元的超級電腦,以便我們可以開發我們的開放模型。我對我們正在做的工作感到非常高興。它開始吸引全世界和各行各業的關注,因為我們在許多不同的領域做著前沿的 AI 模型工作。我們在蛋白質和數字生物學方面的工作:Llama-Protina 用於合成和生成蛋白質。OpenFold 3 用於理解蛋白質結構。Evo 2 用於理解和生成多種蛋白質,也就是細胞表徵的開端。Earth-2:理解物理定律的 AI。我們在 ForecastNet 和 CorrDiff 方面的工作真正徹底改變了人們進行天氣預測的方式。Nemotron:我們在那裡做了開創性的工作。第一個混合 Transformer SSM 模型,速度極快,因此可以思考很長時間,或者非常快地思考不需要很長時間就能產生非常聰明的智能答案。Nemotron-3 是開創性的工作,你可以期待我們在不久的將來發佈 Nemotron-3 的其他版本。Cosmos:一個前沿的開放世界基礎模型,一個理解世界如何運作的模型。Groot:一個人形機器人系統,涉及關節、移動性、運動。這些模型、這些技術現在正在被整合,並且在每一個案例中都向世界開放。前沿的人形機器人模型向世界開放。今天我們要稍微談談Alpamayo,我們在自動駕駛汽車方面所做的工作。我們不僅開源模型,我們還開源了用於訓練這些模型的資料,因為只有那樣你才能真正信任模型是如何產生的。我們開源所有模型。我們幫助你們從中通過衍生產品。我們有一整套庫,我們稱之為 NeMo 庫、物理 NeMo 庫和 Clara NeMo 庫(BioNeMo)。這些庫中的每一個都是 AI 的生命周期管理系統,以便你可以處理資料、生成資料、訓練模型、建立模型、評估模型、為模型設定護欄,一直到部署模型。每一個庫都極其複雜,所有這些都是開放原始碼的。因此,在這個平台之上,NVIDIA 是一個前沿的 AI 模型建構者,我們以一種非常特殊的方式建構它。我們完全在公開環境中建構它,以便我們可以賦能每個公司、每個行業、每個國家成為這場 AI 革命的一部分。我對自己在那裡的工作感到無比自豪。事實上,如果你注意圖表,圖表顯示我們對這個行業的貢獻是首屈一指的,你會看到我們實際上會繼續這樣做,甚至加速。這些模型也是世界級的。(突然螢幕黑屏/技術故障)所有系統都癱瘓了。這種事在聖克拉拉(NVIDIA總部)從來不會發生。是因為拉斯維加斯嗎?是不是有人在外面的老虎機中大獎了?所有系統都癱瘓了。好吧,我想我的系統還是癱瘓的,但這沒關係。我會即興發揮。所以,不僅這些模型具有前沿能力,不僅它們是開放的,它們還在排行榜上名列前茅。這是我們非常自豪的一個領域。它們在智能方面名列前茅。我們有重要的模型可以理解多模態文件,也就是 PDF。世界上最有價值的內容都捕捉在PDF 中。但這需要人工智慧來找出裡面的內容,解釋裡面的內容,並幫助你閱讀它。所以我們的 PDF 檢索器、我們的PDF 解析器是世界級的。我們的語音識別模型絕對是世界級的。我們的檢索模型,基本上就是搜尋、語義搜尋、AI 搜尋——現代 AI 時代的資料庫引擎,也是世界級的。所以,我們經常佔據排行榜榜首。這是我們非常自豪的領域。所有這一切都是為了服務於你們建構AI智能體(AI Agents)的能力。這確實是一個開創性的發展領域。你知道,起初當 ChatGPT 出來時,人們說,天那,它產生了非常有趣的結果,但它產生了嚴重的幻覺(胡言亂語)。它產生幻覺的原因,當然是因為它可以記住過去的一切,但它無法記住未來和現在的一切。所以它需要以研究為基礎(Grounding)。在回答問題之前,它必須做基礎研究。推理的能力——關於我是否需要做研究?我是否需要使用工具?我如何將一個問題分解成步驟?每一個步驟都是 AI 模型知道如何做的,並將它們組合成一系列步驟來執行它從未做過、從未被訓練過的事情。這就是推理的奇妙能力。我們可以遇到以前從未見過的情況,並將其分解為我們知道如何做的情況、知識或規則,因為我們在過去經歷過。現在,大型語言模型已經實現了這一根本性的飛躍。使用強化學習和思維鏈(Chain of Thought)、搜尋和規劃以及強化學習中的所有這些不同技術的能力,使我們擁有這種基本能力成為可能,並且現在也完全開源了。但真正棒的事情是另一個突破,我第一次看到它是在 Aravind 的Perplexity 上。Perplexity 這家 AI 搜尋公司,真的是一家非常有創意的公司。當我第一次意識到他們同時使用多個模型時,我認為這完全是天才。當然,我們會這樣做。當然,AI 也會呼叫世界上所有偉大的 AI 來解決它想在推理鏈的任何部分解決的問題。這就是為什麼 AI 真正是多模態(Multi-modal)的。意味著它們理解語音、圖像、文字、視訊、3D 圖形和蛋白質。它是多模態的。它也是多模型(Multi-model)的。意味著它應該能夠使用最適合該任務的任何模型。根據定義,它是多雲(Multi-cloud)的。因為這些 AI 模型位於所有這些不同的地方。它也是混合雲(Hybrid cloud)的。因為如果你是一家企業公司,或者你製造了一個機器人或任何裝置,有時它在邊緣,有時在無線電訊號塔,也許有時在企業內部,或者也許在醫院這樣你需要資料即時就在你身邊的地方。無論那些應用程式是什麼,我們現在知道這就是未來 AI 應用程式的樣子。或者換一種方式思考,因為未來的應用程式是建立在 AI 之上的。這就是未來應用程式的基本框架。這個基本框架,這種能夠做我所說的那些事情的代理 AI 的基本結構——即多模型的結構,現在已經為各種各樣的 AI 初創公司注入了強勁動力。現在你也可以,因為有了所有的開放模型和我們提供給你們的所有工具,你可以定製你的 AI 來教你的 AI 別人沒有教過的技能。沒有別人讓他們的 AI 以那種方式變得智能或聰明。你可以為自己做這件事。這就是我們在 Nemotron、NeMo 以及我們在開放模型方面所做的所有事情旨在做的。你在它前面放一個智能路由器(Smart Router)。那個路由器本質上是一個管理者,根據你給出的提示的意圖,決定那一個模型最適合那個應用程式來解決那個問題。好的。所以現在當你思考這個架構時,你擁有了什麼?當你思考這個架構時,突然之間你有了一個 AI:一方面完全由你定製。你可以教它為你公司的特定技能。它是商業機密,你有深厚的領域專業知識。也許你擁有訓練該 AI 模型所需的所有資料。另一方面,你的 AI 根據定義總是處於前沿。你總是擁有一方面的前沿技術。另一方面,你總是定製化的。而且它應該能直接運行。所以我們想我們會做一個最簡單的例子來讓你們可以使用。整個框架我們稱之為Blueprint(藍圖),我們的藍圖已經整合到世界各地的企業 SaaS 平台中,我們對進展感到非常高興。但我們要做的是向你們展示一個簡短的例子,說明任何人都可以做什麼。(演示視訊開始)(畫外音:讓我們建構一個個人助理。我想讓它幫我處理日曆、郵件、待辦事項列表,甚至幫我照看家裡。我使用 Brev 將我的 DGX Spark 變成個人云。所以我可以使用相同的介面,無論我是使用雲 GPU 還是 DGX Spark。我使用前沿模型 API 來輕鬆開始。)(音樂)(畫外音:我想讓它幫我處理郵件,所以我為我的代理建立了一個郵件工具來呼叫。我希望我的郵件保持私密,所以我將加入一個在 Spark 上本地運行的開放模型。現在,對於任何工作,我都希望代理為正確的任務使用正確的模型。所以我將使用一個基於意圖的模型路由器。這樣,需要郵件的提示將留在我的 Spark 上,其他所有內容都可以呼叫前沿模型。)(畫外音:我想讓我的助手與我的世界互動,所以我將它連接到 Hugging Face 的 Reachi 迷你機器人。我的代理通過工具呼叫控制Reachi 的頭、耳朵和攝影機。我想給 Reachi 一個聲音,我真的很喜歡 ElevenLabs,所以我將連接他們的API。)Reachi (機器人聲音): 嗨,我是運行在DGX Spark 上的 Reachi。使用者: 嘿 Reachi,今天我的待辦事項列表上有什麼?Reachi: 你今天的待辦事項列表:買雜貨、雞蛋、牛奶、黃油,還要把新指令碼發給 Jensen。使用者: 好的,給Jensen 發個更新。告訴他我們在今天結束前會給他。Reachi: 好的,會做的。使用者: Reachi,這兒還有個草圖。你能把它變成建築渲染圖嗎?Reachi: 當然。(音樂,生成渲染圖)使用者: 不錯。現在做一個視訊,帶我參觀一下這個房間。Reachi: 給你。使用者: 太棒了。通過Brev,我可以分享對我的 Spark 和 Reachi 的存取權。所以我要把它分享給Anna。Anna: 嘿,Reachi。Potato(寵物名)在幹什麼?Reachi: 他在沙發上。我記得你不喜歡這樣。我會叫他下去。Potato,下沙發!(畫外音:隨著開放原始碼的所有進展,看到你能建構什麼是令人難以置信的。我很想看看你會創造什麼。)(演示視訊結束)(音樂)這難道不令人難以置信嗎?現在,令人驚奇的是,這現在是完全微不足道的事情。這現在完全是微不足道的。然而,就在幾年前,所有這些都是不可能的。絕對無法想像。這種使用語言模型建構應用程式的基本框架——使用那些預訓練的、專有的、前沿的語言模型,並將其與定製的語言模型結合到一個代理框架、一個推理框架中,使你可以訪問工具和檔案,甚至連接到其他代理。這基本上就是現代 AI 應用程式或應用程式的架構。我們建立這些應用程式的能力非常快。注意,如果你給它以前從未見過的應用程式資訊,或者以一種並不完全像你想的那樣表示的結構,它仍然可以推理並盡最大努力通過資料和資訊來推理,試圖理解如何解決問題。這就是人工智慧。好的,所以這個基本框架現在正在被整合。正如我剛才描述的一切,我們有幸與世界上一些領先的企業平台公司合作。例如 Palantir,他們整個 AI 和資料處理平台正在由NVIDIA 加速。ServiceNow,世界領先的客戶服務和員工服務平台。Snowflake,雲端頂級資料平台。那裡正在做令人難以置信的工作。CodeRabbit,我們在 NVIDIA 各處都在使用CodeRabbit。CrowdStrike,建立 AI 來檢測和發現 AI威脅。NetApp,他們的資料平台現在上面有 NVIDIA 的語義 AI 和代理系統,用於做客戶服務。但重要的是這一點。這不僅是現在開發應用程式的方式,這將是你平台的使用者介面。所以無論是 Palantir、ServiceNow、Snowflake 還是我們要合作的許多其他公司,代理系統就是介面。不再是 Excel 和一堆你需要輸入資訊的方塊。也許不再僅僅是命令列。所有這些多模態資訊現在都成為可能,你與平台互動的方式更像是……如果你願意的話,就像你與人互動一樣簡單。這就是被代理系統徹底革命化的企業 AI。接下來的事情是物理AI(Physical AI)。這是你們聽我談論了幾年的領域。事實上,我們在這方面已經工作了八年。問題是,如何將那種在電腦內部很智能、通過螢幕和揚聲器與你互動的東西,變成可以與世界互動的東西?也就是說,它可以理解世界如何運作的常識。物體恆存性(Object permanence):如果我把視線移開再看回來,那個物體還在那裡。因果關係(Causality):如果我推它,它會倒下。它理解摩擦力和重力。理解慣性:一輛重型卡車沿路行駛需要更多的時間停下來,一個球會繼續滾動。這些概念對一個小孩子來說都是常識,但對 AI 來說完全是未知的。所以我們必須建立一個系統,允許 AI 學習物理世界的常識,學習它的定律,當然也要能夠從資料中學習,而資料是非常稀缺的。並且要能夠評估那個 AI 是否在工作,這意味著它必須在一個環境中進行模擬。AI 如何知道它正在執行的動作是否符合它應該做的,如果它沒有能力模擬物理世界對其動作的反應?模擬其動作的反應對於評估它非常重要。否則,就沒有辦法評估它。每次都不一樣。所以這個基本系統需要三台電腦。1.第一台電腦,當然是我們知道的 NVIDIA 製造的用於訓練AI模型的電腦。2.另一台電腦,我們知道是用於推理的電腦。推理模型本質上是運行在汽車裡、機器人裡、工廠裡或邊緣任何地方的機器人電腦。3.但必須有第三台電腦,它是為模擬而設計的。模擬幾乎是 NVIDIA 所做一切的核心。這是我們最舒適的地方,模擬確實是我們用物理 AI 所做幾乎所有事情的基礎。所以我們有三台電腦和運行在這些電腦上的多個堆疊、這些庫使其變得有用。Omniverse 是我們的數字孿生、基於物理的模擬世界。Cosmos,正如我之前提到的,是我們的基礎模型。不是語言的基礎模型,而是世界的基礎模型。並且也與語言對齊。你可以說像“球發生了什麼?”這樣的話,它們會告訴你球正滾下街道。所以是一個世界基礎模型。然後當然是機器人模型。我們有兩個。一個叫 Groot。另一個叫Alpamayo,我將要告訴你們。現在,對於物理 AI,我們必須做的最重要的事情之一是首先建立用於訓練 AI 的資料。資料從那裡來?與其像語言那樣,因為我們建立了一堆文字,那是我們認為 AI 可以從中學習的基準事實(Ground Truth)。我們如何教 AI 物理的基準事實?有非常多的視訊,非常多的視訊,但這幾乎不足以捕捉我們需要的多樣性和互動類型。這就是偉大的頭腦聚集在一起,將曾經的計算轉化為資料的地方。現在使用以物理定律為基礎和條件的合成資料生成(Synthetic Data Generation),以基準事實為基礎和條件,我們可以有選擇地、巧妙地生成資料,然後我們可以用這些資料來訓練 AI。例如,輸入到這個 AI、這個Cosmos 世界模型(左邊的)的是交通模擬器的輸出。這個交通模擬器對於 AI 學習來說幾乎不夠。我們可以把這個放入Cosmos 基礎模型中,生成環繞視訊,它是基於物理的、物理上合理的,AI 現在可以從中學習。這有太多例子了。讓我向你們展示 Cosmos 能做什麼。(Cosmos 演示視訊開始)(畫外音:物理 AI 的 ChatGPT時刻即將到來,但挑戰是顯而易見的。物理世界是多樣且不可預測的。收集真實世界的訓練資料緩慢且昂貴,而且永遠不夠。)(畫外音:答案是合成資料。它始於 NVIDIA Cosmos,一個用於物理AI 的開放前沿世界基礎模型。它在網際網路規模的視訊、真實駕駛和機器人資料以及 3D 模擬上進行了預訓練。Cosmos學習了世界的統一表徵,能夠對齊語言、圖像、 3D 和動作。)(畫外音:它執行物理 AI 技能,如從單張圖像進行生成、推理和軌跡預測。Cosmos從3D 場景描述中生成逼真的視訊。從駕駛遙測和感測器日誌中生成物理上連貫的運動。)(畫外音:來自規劃模擬器、多攝影機環境或場景提示的環繞視訊。它將邊緣情況(Edge Cases)帶入生活。開發者可以在Cosmos 中運行互動式閉環模擬。當動作產生時,世界會做出反應。)(畫外音:Cosmos 進行推理。它分析邊緣場景,將它們分解為熟悉的物理互動,並推理接下來可能發生的事情。Cosmos 將計算轉化為資料,為長尾情況訓練自動駕駛汽車(AV),並訓練機器人如何適應每一種場景。)(演示視訊結束)(音樂)我知道這令人難以置信。Cosmos 是世界領先的基礎模型。世界基礎模型。它已經被下載了數百萬次,在世界各地使用,讓世界為這個物理 AI 的新時代做好準備。我們也自己使用它。我們自己使用它來建立我們的自動駕駛汽車。用於場景生成和用於評估。我們可以擁有讓我們有效地行駛數十億、數兆英里的東西,但在電腦內部完成。我們取得了巨大的進步。今天,我們宣佈Alpamayo,世界上第一個會思考、會推理的自動駕駛汽車AI。Alpamayo 是端到端(End-to-End)訓練的。從字面上看,從攝影機輸入到執行輸出。攝影機輸入:大量由其自身駕駛或人類演示駕駛的里程,並且我們有大量由 Cosmos 生成的里程。除此之外,成千上萬的例子被非常非常仔細地標記,以便我們可以教汽車如何駕駛。Alpamayo 做了一些非常特別的事情。它不僅接收感測器輸入並啟動方向盤、剎車和加速,它還推理它即將採取的行動。它告訴你它將採取什麼行動,它得出該行動的理由,當然還有軌跡。所有這些都直接耦合,並由大量人類訓練資料以及 Cosmos 生成的資料組合進行非常具體的訓練。結果簡直令人難以置信。你的車不僅像你期望的那樣駕駛,而且它駕駛得如此自然,因為它直接從人類演示者那裡學習,而且在每一個場景中,當它遇到場景時,它會推理它要做什麼,並推理它即將要做什麼。這之所以如此重要,是因為駕駛的長尾效應(Long Tail)。我們不可能簡單地為每一個國家、每一個可能發生的情況、所有人口收集每一個可能的場景。然而,很有可能如果將每個場景分解成一堆其他的更小的場景,對於你要理解來說是很正常的。所以這些長尾將被分解為相當正常的情況,這輛車知道如何處理。它只需要對其進行推理。所以讓我們來看一看。你們即將看到的一切都是一次通過(One shot)。無手操作。(自動駕駛演示視訊開始)(音樂)聲音:導航至目的地。系好安全帶。(音樂)AI 聲音/提示:Heat. Heat. Heat.(註:此處為 AI 思考過程的聲音化或介面提示音,可能指熱力圖關注點或特定指令)(音樂)AI 聲音/提示:Heat.(音樂,車輛在複雜路況行駛,包括避讓、轉彎)AI 聲音/提示:Heat. Heat.AI 聲音/提示:Heat. Heat.(音樂)AI 聲音/提示:Heat. Heat.(掌聲)(音樂)AI 聲音/提示:Heat.(音樂)(掌聲)AI 聲音/提示:Heat.(音樂)(音樂)聲音:你已到達。(演示視訊結束)我們八年前開始研究自動駕駛汽車。原因是因為我們在早期推理出深度學習和人工智慧將重新發明整個計算堆疊。如果我們想要瞭解如何導航並將行業引向這個新的未來,我們必須擅長建構整個堆疊。就像我之前提到的,AI 是一個五層蛋糕。最底層是土地、電力和外殼。在機器人技術的情況下,最底層是汽車。上面一層是晶片,GPU,網路晶片,CPU,所有這類東西。再上面一層是基礎設施。在這種特定情況下,正如我提到的物理 AI,那個基礎設施是Omniverse 和 Cosmos。再上面是模型。在我剛才展示的模型層中,這裡的模型叫做Alpamayo。今天,Alpamayo 已經開源。這項令人難以置信的工作。這花了數千人。我們的 AV(自動駕駛)團隊有數千人。作為參考,我們的合作夥伴 Ola,我想 Ola 就在觀眾席的某個地方。梅賽德斯(Mercedes)五年前同意與我們合作,使這一切成為可能。我們想像有一天,道路上的十億輛汽車都將是自動駕駛的。你可以擁有一輛你正在編排並從某人那裡租用的 Robo Taxi(自動駕駛計程車),或者你可以擁有它並且它自己駕駛,或者你可以決定自己駕駛。但是每一輛車都將擁有自動駕駛汽車的能力。每一輛車都將由 AI 驅動。所以在這種情況下,模型層是Alpamayo,而上面的應用程式是梅賽德斯-奔馳。好的。所以這整個堆疊是我們的第一個NVIDIA First 全堆疊努力,我們一直致力於此,我很高興來自 NVIDIA 的第一輛 AV 汽車將在第一季度上路,然後在第二季度去歐洲,這裡是美國第一季度,然後歐洲第二季度,我想亞洲是第三季度和第四季度。而且強有力的事情是,我們將繼續用下一版本的Alpamayo和之後的版本更新它。我現在毫無疑問,這將是最大的機器人行業之一,我很高興我們致力於此,它教會了我們大量關於如何幫助世界其他地方建構機器人系統的知識。那種深刻的理解,知道如何自己建構它,自己建構整個基礎設施,並知道機器人系統需要什麼樣的晶片。在這個特定案例中,雙 Orin,下一代雙 Thor。這些處理器是為機器人系統設計的,並且是為了最高等級的安全能力而設計的。這輛車剛剛獲得評級。它剛剛投入生產。梅賽德斯-奔馳 CLA 剛剛被NCAP 評為世界上最安全的汽車。這是我所知道的唯一一個每一行程式碼、晶片、系統、每一行程式碼都經過安全認證的系統。整個模型系統基於感測器是多樣化和冗餘的,自動駕駛汽車堆疊也是如此。Alpamayo 堆疊是端到端訓練的,擁有令人難以置信的技能。然而,直到你永遠駕駛它,沒有人知道它是否會絕對安全。所以我們用另一個軟體堆疊來作為護欄(Guardrail),下面是一個完整的AV 堆疊。那個完整的 AV 堆疊是建構為完全可追溯的,我們花了大約五年時間來建構它。實際上大概六七年來建構第二個堆疊。這兩個軟體堆疊相互鏡像,然後我們有一個策略和安全評估器(Policy and Safety Evaluator)來決定:這是我有信心並可以推理出安全駕駛的事情嗎?如果是這樣,我會讓Alpamayo來做。如果這是一種我不太自信的情況,並且安全策略評估器決定我們要回到一個非常更簡單、更安全的護欄系統,那麼它就會回到經典的 AV 堆疊。這是世界上唯一同時運行這兩個 AV 堆疊的汽車,所有安全系統都應該具有多樣性和冗餘性。我們的願景是有一天每一輛車、每一輛卡車都將是自動駕駛的,我們一直在朝著那個未來努力。這整個堆疊是垂直整合的。當然,在梅賽德斯-奔馳的案例中,我們一起建構了整個堆疊。我們將部署這輛車。我們將營運這個堆疊。我們將維護這個堆疊,只要我們還活著。然而,就像我們作為一家公司所做的一切一樣。我們建構整個堆疊,但整個堆疊對生態系統是開放的。與我們合作建構 L4 和 Robo Taxi 的生態系統正在擴大,並走向各地。我完全預計這將會是——這對於我們來說已經是一個巨大的業務。這對我們來說是一個巨大的業務,因為他們用它來訓練我們的訓練資料、處理資料和訓練他們的模型。在某些情況下,他們用它來生成合成資料;在一些汽車公司,他們幾乎只建構汽車內部的電腦晶片;有些公司與我們進行全端合作;有些公司與我們進行部分合作。好的。所以不管你決定使用多少都沒有關係。我唯一的請求是儘可能多地使用一點視訊,整個東西都是開放的。這將是第一個大規模主流 AI 物理 AI 市場。現在我認為我們都可以完全同意,從非自動駕駛汽車到自動駕駛汽車的這個拐點可能就在這個時候發生。在接下來的 10 年裡,我相當確定世界上很大一部分汽車將是自動駕駛或高度自動駕駛的。但我剛才描述的這個基本技術——使用三台電腦、使用合成資料生成和模擬——適用於每一種形式的機器人系統。它可能是一個只是關節、機械手的機器人,也許是一個移動機器人,也許是一個完全人形的機器人。所以下一個旅程,機器人系統的下一個時代將是,你知道,機器人。這些機器人將會有各種不同的大小和……我邀請了一些朋友。他們來了嗎?嘿夥計們,快點。我有很多東西要講。快點,快點。你們告訴R2-D2 你們要來這裡嗎?你們告訴了嗎?還有 C-3PO。好的。好吧。過來。在此之前,現在,真正的一件事是……你們有Jetson。它們裡面有小小的 Jetson 電腦。它們是在 Omniverse 內部訓練的。這個怎麼樣?讓我們向大家展示一下你們這幫傢伙是在那個模擬器裡學會如何成為機器人的。你們想看看那個嗎?好的,讓我們看看那個。請播放。真的嗎?(機器人模擬視訊開始)(音樂)C-3PO/R2-D2 在 Omniverse 模擬環境中跌跌撞撞、學習行走的畫面(C-3PO 看著 R2-D2)聲音:看,什麼都沒有。(視訊結束)這難道不令人驚奇嗎?這就是你們學會成為機器人的方式。你們完全是在 Omniverse 內部完成的。機器人模擬器叫做Isaac Sim 和 Isaac Lab。任何想製造機器人的人,你知道,沒有人會像你們這麼可愛。但現在我們有所有這些……看看所有這些我們正在製造機器人的朋友。我們在製造大的。不,就像我說的,沒有人像你們這麼可愛。但我們有 Neura Robotics,我們有 Agility Robotics。那邊的 Agility。我們有 LG 在這邊。他們剛剛宣佈了一個新機器人。Caterpillar(卡特彼勒),他們有最大的機器人。那個是送到你家的食物配送機器人,連接到 Uber Eats。那是 Serve Robotics。我愛那些傢伙。Agility, Boston Dynamics(波士頓動力),不可思議。你有手術機器人,你有來自 Franka 的機械臂機器人,你有 Universal Robotics 的機器人,數量驚人的不同機器人。所以這是下一章。我們將來會更多地談論機器人技術。但這最終不僅僅是關於機器人。我知道一切都是關於你們這幫傢伙的。它是關於到達那裡。世界上最重要的行業之一將被物理 AI 和 AI 物理學徹底改變,那就是開啟了我們 NVIDIA 所有人的行業。如果不是我要談到的這些公司,這就不可能實現。我很高興所有這些公司,從Cadence 開始,將加速一切。Cadence CUDA-X 整合到他們所有的模擬和求解器中。他們有 NVIDIA 物理 AI,他們將用於不同的工廠和工廠模擬。你有 AI 物理學被整合到這些系統中。所以無論是 EDA 還是 SDA,在未來的機器人系統中,我們將擁有基本上相同的技術,讓你們這幫傢伙成為可能的技術現在完全徹底改變這些設計堆疊。Synopsys(新思科技)。沒有 Synopsys,你知道 Synopsys 和 Cadence 在晶片設計領域是完全不可或缺的。Synopsys 在邏輯設計和 IP 方面處於領先地位。而在 Cadence 的情況下,他們領導物理設計、佈局布線、模擬和驗證。Cadence 在模擬和驗證方面令人難以置信。他們倆都在進入系統設計和系統模擬的世界。所以在未來,我們將在 Cadence 和 Synopsys 內部設計你們的晶片。我們將設計你們的系統,並在這些工具內部模擬整個事物和模擬一切。那就是你們的未來。我們會給……是的。你們將會在這些平台內部誕生。相當驚人,對吧?所以我們很高興我們正在與這些行業合作,就像我們將 NVIDIA 整合到 Palantir 和 ServiceNow 一樣,我們將 NVIDIA 整合到計算最密集的模擬行業 Synopsys 和 Cadence 中。今天我們宣佈Siemens(西門子)也在做同樣的事情。我們將整合 CUDA-X、物理 AI、代理 AI、NeMo、Nemotron 深度整合到 Siemens 的世界中。原因是這樣的。首先,我們設計晶片,未來所有的晶片都將由 NVIDIA 加速。你們會對此感到非常高興。我們將擁有代理晶片設計師(Agentic Chip Designers)和系統設計師與我們一起工作,幫助我們做設計,就像我們今天有代理軟體工程師幫助我們的軟體工程師編碼一樣。所以,我們將擁有代理晶片設計師和系統設計師。我們將在其中創造你們。但之後我們要建造你們。我們必須建造工廠,製造你們的工廠。我們必須設計組裝你們所有人的生產線。而這些製造工廠本質上將是巨大的機器人。不可思議,對吧?我知道。我知道。所以你們將在電腦中被設計。你們將在電腦中被製造。你們將在電腦中被測試和評估,早在你們必須花時間應對重力之前。我知道。你們知道怎麼應對重力嗎?你們能跳嗎?能跳嗎?(機器人做動作)好的。行了。別顯擺了。好的。所以這……所以現在,使 NVIDIA 成為可能的行業,我只是很高興我們正在創造的技術現在處於如此複雜的水平和能力,我們可以回去幫助他們徹底改變他們的行業。所以從他們開始的事情,我們現在有機會回去幫助他們徹底改變他們的行業。讓我們看看我們要和 Siemens 做的事情。來吧。(西門子合作視訊開始)(畫外音:物理 AI 的突破正讓 AI 從螢幕走向我們的物理世界。正是時候,因為世界正在為晶片、電腦、救命藥物和 AI 建造各種各樣的工廠。隨著全球勞動力短缺的惡化,我們比以往任何時候都更需要由物理 AI 和機器人驅動的自動化。)(畫外音:這就是 AI 與世界上最大的物理行業相遇的地方,是NVIDIA 和 Siemens 合作的基礎。近兩個世紀以來,Siemens 建立了世界的工業,現在它正在為AI 時代重新發明它。)(畫外音:Siemens 正在將NVIDIA CUDA-X 庫、AI 模型和 Omniverse 整合到其 EDA、CAE 和數字孿生工具及產品組合中。)(畫外音:我們要一起將物理 AI 帶入完整的工業生命周期。從設計和模擬到生產和營運。)(音樂)(畫外音:我們要站在新工業革命的開端,這是由 NVIDIA 和 Siemens為下一個工業時代建立的物理 AI 時代。)(視訊結束)不可思議,對吧,夥計們?你們覺得怎麼樣?好的,抓緊了。抓緊了。所以這是,你知道,如果你看看世界的模型,毫無疑問 OpenAI 是今天領先的 Token 生成者。OpenAI 生成的 Token 比其他任何東西都多。第二大群體,第二大可能是開放模型。我的猜測是隨著時間的推移,因為有這麼多公司、這麼多研究人員、這麼多不同類型的領域和模態,開源模型將是迄今為止最大的。讓我們談談一個真正特別的人。你們想這樣做嗎?讓我們談談Vera Rubin。Vera Rubin。是的,繼續。她是一位美國天文學家。她是第一個觀察到……她注意到星系的尾部移動的速度與星系的中心差不多快。嗯,我知道這說不通。這說不通。牛頓物理學會說,就像太陽系一樣,離太陽較遠的行星繞太陽公轉的速度比離太陽較近的行星慢。因此,除非有不可見的物體,我們稱之為——她發現了——暗物質(Dark Matter),儘管我們看不到它,但它佔據空間,否則這發生是沒有道理的。所以 Vera Rubin 是我們以此命名我們下一台電腦的人。這難道不是個好主意嗎?我知道。(掌聲)好的。嘿,Vera Rubin是為瞭解決我們面臨的這個根本挑戰而設計的。AI 所需的計算量正在飆升。對 NVIDIA GPU 的需求正在飆升。它飆升是因為模型每年增加 10 倍,一個數量級。更不用說,正如我提到的,o1 的引入是 AI 的一個拐點。不再是一次性回答(One-shot),推理現在是一個思考過程。為了教 AI 如何思考,強化學習和非常顯著的計算被引入到後訓練中。不再僅僅是監督微調或稱為模仿學習或監督訓練。你們現在有了強化學習,本質上是電腦自己嘗試不同的迭代,學習如何執行任務。因此,預訓練、後訓練、測試時縮放的計算量因此爆炸式增長。現在我們做的每一個推理,不再僅僅是一次性,你可以看到 AI 在思考,這是我們所讚賞的。它思考的時間越長,通常產生的答案就越好。所以測試時縮放導致要生成的 Token 數量每年增加5倍。更不用說,與此同時,AI 的競賽正在進行。每個人都試圖達到下一個水平。每個人都試圖達到下一個前沿。每當他們達到下一個前沿時,上一代 AI Token 的成本就開始每年下降大約10倍。每年 10 倍的下降實際上告訴你在發生一些不同的事情。它在說競爭如此激烈。每個人都試圖達到下一個水平,有人正在達到下一個水平。因此,所有這一切都是一個計算問題。你計算得越快,你就能越快達到下一個前沿的下一個水平。所有這些事情都在同一時間發生。所以我們決定我們必須每年推進最先進的計算技術。一年都不能落下。我們一年半前開始發貨 GB200。現在我們正在全面量產GB300。如果 Vera Rubin 要趕上今年,它現在必須已經投產了。所以今天我可以告訴你們,Vera Rubin 已經全面投產。你們想看看 Vera Rubin 嗎?好的,來吧。請播放。(Vera Rubin 介紹視訊開始)(畫外音:Vera Rubin 恰好趕上了 AI 的下一個前沿。這就是我們如何建構它的故事。架構,一個由六個晶片組成的系統,工程設計為一體工作,源於極致的協同設計(Extreme Co-design)。)(畫外音:它始於 Vera,一個定製設計的CPU,性能是上一代的兩倍。以及 Rubin GPU。Vera 和 Rubin 從一開始就協同設計,以便更快、更低延遲地雙向一致地共享資料。)(畫外音:然後 17,000 個元件聚集在一個Vera Rubin 計算板上。高速機器人以微米級精度放置元件,然後 Vera CPU 和兩個 Rubin GPU 完成組裝。能夠提供 100 Petaflops 的 AI 算力,是其前身的五倍。)(畫外音:AI 需要快速的資料。ConnectX-9為每個GPU 提供每秒 1.6 Terabits 的橫向擴展頻寬。BlueField-4 DPU 解除安裝儲存和安全性,以便計算完全專注於AI。)(畫外音:Vera Rubin 計算托盤(Compute Tray)完全重新設計,沒有電纜、軟管或風扇。具有一個 BlueField-4 DPU、八個ConnectX-9 網路卡、兩個 Vera CPU 和四個 Rubin GPU,這是 Vera Rubin AI 超級電腦的計算建構塊。)(畫外音:接下來是第六代 NVLink Switch,移動的資料比全球網際網路還多,連接18 個計算節點,擴展到 72 個 Rubin GPU,作為一個整體運行。)(畫外音:然後是 Spectrum-X Ethernet Photonics(乙太網路光子學),世界上第一個具有 512 個通道和 200 Gbit 能力的共封裝光學(Co-packaged Optics)乙太網路交換機,將成千上萬的機架擴展為 AI 工廠。)(畫外音:自設計開始以來的 15,000 個工程師年。第一個Vera Rubin NVL72 機架上線。六個突破性晶片,18 個計算托盤,9 個 NVLink 交換機托盤,220兆個電晶體,重近兩噸。向 AI 下一個前沿的巨大飛躍。Rubin 來了。)(視訊結束)你們覺得怎麼樣?這是一個Rubin Pod。16 個機架中有 1152 個 GPU。正如你們所知,每一個機架有 72 個 Vera Rubin 或 72 個 Rubin。每一個 Rubin 是兩個實際的 GPU 晶片連接在一起。我要把它展示給你們看,但這有幾件事……好吧,我待會兒再告訴你們。我不能一下子告訴你們所有事情。好吧,我們設計了六種不同的晶片。首先,我們要公司內部有一條規則,這是一條好規則。任何新一代都不應該更改超過一兩個晶片。但問題是這樣的。正如你們所看到的,我們在描述每一個被描述的晶片中的電晶體總數。我們知道摩爾定律在很大程度上已經放緩。所以我們年復一年能得到的電晶體數量不可能跟上 10 倍大的模型。它不可能跟上每年生成更多 Token 的 5 倍。它不可能跟上 Token 成本下降將如此激進的事實。如果行業要繼續進步,就不可能跟上這種速度,除非我們部署激進的極致協同設計(Extreme Co-design)。基本上同時在整個堆疊的所有晶片上進行創新。這就是為什麼我們決定這一代我們別無選擇,只能重新設計每一個晶片。現在,剛才描述的每一個晶片本身都可以是一個新聞發佈會,而在過去的日子裡,可能有一整個公司專門做這個。每一個都是完全革命性的,同類中最好的。Vera CPU,我為它感到非常自豪。在一個受電力限制的世界裡,Gray CPU(註:口誤,應指Grace 的繼任者 Vera)性能是兩倍。在一個受電力限制的世界裡。它是世界上最先進 CPU 每瓦性能的兩倍。它的資料速率是瘋狂的。它是為處理超級電腦而設計的。Vera 是一個不可思議的 GPU(註:口誤,應指CPU)。Grace是一個不可思議的 GPU(註:口誤,應指 CPU)。現在 Vera增加了單線程性能,增加了記憶體容量,僅僅是急劇增加了一切。這是一個巨大的晶片。這是 Vera CPU。這是一個 CPU。這連接到 Rubin GPU。看看那個東西。這是一個巨大的晶片。現在,真正特別的事情是,我會過一遍這些。我想這需要三隻手,四隻手來做這個。好的。所以,這是 Vera CPU。它有 88 個 CPU 核心。CPU 核心被設計為多線程的。但Vera 的多線程特性被設計為每一個 176 個線程都可以獲得其全部性能。所以本質上好像有 176 個核心,但只有88 個物理核心。這些核心是使用一種叫做空間多線程的技術設計的。但 IO 性能令人難以置信。這是Rubin GPU。浮點性能是 Blackwell 的 5倍。但重要的事情是看底線。底線是它的電晶體數量僅為 Blackwell 的 1.6倍。這某種程度上告訴了你今天半導體物理的水平。如果我們不做協同設計,如果我們不在整個系統的每一個晶片層面上做極端的協同設計,我們怎麼可能提供那怕是最好每年 1.6 倍的性能水平呢?因為那就是你擁有的電晶體總數。即使你的每個電晶體性能多一點,比如說 25%,你也不可能從你得到的電晶體數量中獲得 100% 的良率。所以 1.6 倍某種程度上為你每年性能能走多遠設定了上限,除非你做一些極端的事情。我們稱之為極致協同設計。好吧,我們做的一件事,這是一個偉大的發明。它叫做NVFP4 Tensor Core。我們晶片內部的 Transformer 引擎不僅僅是我們放入資料路徑的某種 4 位浮點數。它是一個完整的處理器,一個處理單元,瞭解如何動態地、自適應地調整其精度和結構以處理 Transformer 的不同層級,以便你可以在可能損失精度的地方實現更高的吞吐量,並在你需要的地方回到儘可能高的精度。那種動態執行此操作的能力。你不能在軟體中這樣做,因為顯然它運行得太快了。所以你必須能夠在處理器內部自適應地做到這一點。這就是 NVFP4。當有人說 FP4 或 FP8 時,這對我們來說幾乎沒有任何意義。原因是讓它工作的是 Tensor Core 結構和所有的演算法。NVFP4,我們已經為此發表了論文。它能夠保持的吞吐量和精度水平是完全不可思議的。這是開創性的工作。如果是未來行業希望我們將這種格式和這種結構作為行業標準,我也不會感到驚訝。這是完全革命性的。這就是為什麼即使我們只有 1.6 倍的電晶體數量,我們也能提供如此巨大的性能提升。好的。所以這是……現在一旦你有了一個偉大的處理節點,這就是處理器節點,在這裡……例如這裡,讓我做這個……這就是……哇,它超級重。你必須是一個身材非常好的CEO 才能做這份工作。好的。所以這東西是……我猜這大概……我不知道,幾百磅。(有人笑)我也覺得這很有趣。來吧。(看向後台) 可能是這樣的。大家都走了。不,我不這麼認為。好的。所以看看這個。這是最後一個。我們徹底改變了整個 MGX 機箱。這個節點。43 根電纜,零電纜。六根管子,這兒只有兩根。組裝這個需要兩個小時。如果你幸運的話,需要兩個小時。當然,你可能會組裝錯。你得重新測試,測試,重新組裝。所以組裝過程極其複雜。作為我們第一批以這種方式解構的超級電腦之一,這是可以理解的。這個從兩小時變成了 5 分鐘。80% 液冷。100% 液冷。是的。真的,真正的突破。好的。所以,這是新的計算底盤。連接所有這些到機架頂部交換機、東西向流量的是Spectrum-X網路卡(NIC)。這是世界上最好的網路卡。毫無疑問,NVIDIA 的 Mellanox,很久以前加入我們的收購 Mellanox。他們在高性能計算方面的網路技術是世界上最好的,毋庸置疑。演算法、晶片設計、所有的互連、運行在上面的所有軟體堆疊、他們的 RDMA,絕對絕對首屈一指,世界上最好的。現在它有能力做可程式設計 RDMA 和資料路徑加速器,以便像 AI 實驗室這樣的合作夥伴可以為他們想要如何在系統中移動資料建立自己的演算法。但這完全是世界級的 ConnectX-9,Vera CPU 是協同設計的,我們從未透露過。直到 CX9 出現我們才從未發佈過,因為我們為一種新型處理器協同設計了它。你知道,ConnectX-9 或 CX8 和 Spectrum-X 徹底改變了乙太網路為人工智慧所做的方式。AI 的乙太網路流量要密集得多,需要更低的延遲。瞬時的流量激增不同於乙太網路所見的任何東西。所以我們建立了 Spectrum-X,即AI乙太網路。兩年前我們宣佈了 Spectrum-X。NVIDIA 今天是世界上最大的網路公司。所以它非常成功,被用於許多不同的安裝中。它正在席捲 AI 領域。性能令人難以置信,特別是當你有一個 200 兆瓦的資料中心,或者如果你有一個吉瓦的資料中心。這些是數十億美元。假設一個吉瓦的資料中心是 500 億美元。如果網路性能允許你多提供 10%——在 Spectrum-X 的情況下,提供 25% 更高的吞吐量並不罕見。即使我們只提供 10%,那也值50億美元。網路完全是免費的,這就是為什麼——嗯,每個人都使用 Spectrum-X。這真是一件不可思議的事情。現在我們將發明一種新型的……一種新型的資料處理。所以 Spectrum 是用於東西向流量的。我們現在有一個名為BlueField-4 的新處理器。BlueField-4 允許我們採取一個非常大的資料中心,隔離不同的部分,以便不同的使用者可以使用不同的部分。確保一切都可以虛擬化,如果他們決定虛擬化的話。所以你解除安裝了很多用於南北向流量的虛擬化軟體、安全軟體、網路軟體。所以 BlueField-4 標配在每一個這些計算節點上。BlueField-4 有第二個應用,我馬上就會講到。這是一個革命性的處理器,我對此感到非常興奮。這是 NVLink 6 Switch。就在這裡。這個交換機晶片。在這個 NVLink 交換機裡有四個。這每一個交換機晶片都有歷史上最快的 SerDes。世界勉強達到200 Gbits。這是 400 Gbits 每秒的交換機。這之所以如此重要,是為了讓我們可以讓每一個 GPU 在完全相同的時間與每一個其他GPU 對話。這個交換機,在這個機架背板上的這個交換機使我們要移動相當於兩倍全球網際網路資料量的資料,速度是兩倍。如果你拿整個地球網際網路的橫截面頻寬,大約是每秒 100 TB。這是每秒 240 TB。所以這某種程度上把它放在了透視中。這是為了讓每一個 GPU 都可以與每一個其他 GPU 在完全相同的時間工作。好的。然後在那之上……在那之上,好的,這是一個機架。這是一個機架。正如你們所看到的,這個機架中的電晶體數量是 1.7 倍。是的。你能幫我做這個嗎?所以,這通常大約是兩噸,但今天它是兩噸半,因為當他們運送它時,他們忘了把水排干。所以,我們從加利福尼亞運了很多水過來。你能聽到它尖叫嗎?你知道,當你旋轉兩噸半重的東西時,你得尖叫一下。哦,你可以做到。哇。好的,我們不會讓你做兩次。好的。所以,在這背後是NVLink Spines(脊柱)。基本上是兩英里的銅纜。銅是我們知道的最好的導體。這些都是遮蔽銅纜,結構化銅纜,世界上在計算系統中使用的最多的。我們的 SerDes 以每秒 400 gigabits 的速度驅動從機架頂部一直到底部的銅纜。這令人難以置信。所以這總共有 2 英里的銅纜,5000 根銅纜。這使得 NVLink Spine 成為可能。這是真正開啟 MGX 系統的革命。現在我們決定我們將建立一個行業標準系統,以便整個生態系統、我們所有的供應鏈都可以標準化這些元件。有大約 80,000 個不同的元件組成了這些 MGX 系統,如果我們每年都改變它,那就是徹底的浪費。每一個主要的電腦公司,從富士康到廣達再到緯創,你知道,名單還在繼續,到惠普、戴爾和聯想,每個人都知道如何建構這些系統。所以儘管性能如此之高,更重要的是功耗是兩倍,我們仍然可以將 Vera Rubin 擠進這個系統,這就是奇蹟:進入它的空氣,氣流大約是相同的。非常重要的是,進入它的水是相同的溫度,45°C。用 45°C,資料中心不需要冷水機組(Chillers)。我們基本上是用熱水冷卻這台超級電腦。它是如此令人難以置信的高效。所以這是……這是新的機架。電晶體多 1.7 倍,但峰值推理性能多5倍,峰值訓練性能多 3.5倍。好的,它們在頂部使用 Spectrum-X 連接。哦,謝謝。(掌聲)這是世界上第一個使用台積電(TSMC)新工藝製造的晶片,我們共同創新的工藝叫做COUPE。這是一種矽光子整合矽光子工藝技術。這允許我們將矽光子直接帶到晶片上。這是 512個連接埠,每秒200 Gbits。這是新的乙太網路 AI 交換機,Spectrum-X 乙太網路交換機。看看這個巨大的晶片。但真正令人驚奇的是,它有直接連接到它的矽光子。雷射從這裡進來。雷射從這裡進來。光學器件在這裡,它們連接到資料中心的其餘部分。我稍後會展示給你們看,但這在機架頂部。這是新的 Spectrum-X 矽光子交換機。好的。我們有一些新東西想告訴你們。正如我幾年前提到的,我們推出了 Spectrum-X,以便我們可以重新發明網路的方式。乙太網路真的很容易管理,每個人都有乙太網路堆疊,世界上的每個資料中心都知道如何處理乙太網路。當時我們唯一使用的是 InfiniBand,用於超級電腦。InfiniBand 延遲非常低。但當然,軟體堆疊、InfiniBand 的整個可管理性對於使用乙太網路的人來說非常陌生。所以我們決定第一次進入乙太網路交換機市場。Spectrum-X 就這樣起飛了,使我們成為了世界上最大的網路公司。正如我提到的,下一代 Spectrum-X 將繼承這一傳統。但正如我剛才所說,AI 已經重新發明了整個計算堆疊,計算堆疊的每一層。理所當然地,當 AI 開始部署在世界各地的企業中時,它也將重新發明儲存的方式。嗯,AI 不使用 SQL。AI 使用語義資訊。當使用 AI 時,它會建立這種臨時知識,臨時記憶,稱為KV Cache(KV快取)。鍵值組合,但它是一個 KV 快取。基本上是 AI 的快取,AI 的工作記憶。AI 的工作記憶儲存在 HBM 記憶體中。對於每一個 Token,對於每一個 Token,GPU 讀入模型,整個模型。它讀入整個工作記憶,它產生一個 Token,並將那個 Token 儲存回 KV 快取,然後在下一次它這樣做時,它讀入整個記憶,讀取它,並通過我們的 GPU 流式傳輸,然後生成另一個 Token。嗯,它一個 Token 接一個 Token 地重複這樣做,顯然如果你在那段時間與那個 AI 進行長時間的對話,那個記憶、那個上下文記憶將會極大地增長。更不用說模型正在增長。我們使用的輪次(Turns)正在增加。我們希望這個 AI 伴隨我們一生。記住我們曾經與它進行的每一次對話,對吧?我向它請求的每一丁點研究。當然,共享超級電腦的人數將繼續增長。因此,最初適合放在 HBM 內部的這個上下文記憶不再足夠大了。去年我們建立了 Grace Blackwell 的非常快的記憶體,我們稱之為快速上下文記憶體。這就是為什麼我們將 Grace 直接連接到 Hopper,這就是為什麼我們將 Grace 直接連接到 Blackwell,以便我們可以擴展上下文記憶。但即使那樣也是不夠的。所以下一個解決方案當然是去網路上,南北向網路,去公司的儲存。但如果你有很多 AI 同時運行,那個網路就不再足夠快了。所以答案非常清楚,要做得不同。所以我們建立了 BlueField-4,以便我們基本上可以在機架中擁有一個非常快的 KV 快取上下文記憶體儲存。所以我馬上就會向你們展示。但這是一個全新的儲存系統類別。行業非常興奮,因為這對於幾乎所有今天做大量 Token 生成的人來說都是一個痛點。AI 實驗室,雲服務提供商,他們真的因為 KV 快取移動造成的大量網路流量而受苦。所以我們將建立一個新平台、一個新處理器的想法,來運行整個 Dynamo KV 快取上下文記憶體管理系統,並將其放在離機架其餘部分非常近的地方,這是完全革命性的。所以就是這個。它就在這裡。所以這就是所有的計算節點。每一個都是 NVLink 72。所以這是 Vera Rubin NVLink 72,144 個 Rubin GPU。這是儲存在這裡的上下文記憶體。在每一個這些背後是四個 BlueField。在每一個 BlueField 背後是 150 TB……150 TB 的記憶體,上下文記憶體。對於每一個 GPU,一旦你在每一個 GPU 上分配它,將獲得額外的 16 TB。現在在這個節點內部,每個 GPU 本質上有一 TB。現在有了這裡的這個後備儲存(Backing Store),直接在同一個東西向流量上,以完全相同的資料速率,每秒 200 gigabits,實際上跨越這個計算節點的整個結構。你將獲得額外的 16 TB 記憶體。好的。這就是管理平面。這些是連接所有它們的 Spectrum-X 交換機,在這裡,末端的這些交換機將它們連接到資料中心的其餘部分。好的。所以這是 Vera Rubin。現在有幾件事真的令人難以置信。所以我提到的第一件事是,這整個系統的能源效率是兩倍。本質上,即使功耗是兩倍,使用的能量是兩倍,計算量是其許多倍,但進入它的液體仍然是 45 攝氏度。這使我們能夠節省大約 6% 的世界資料中心電力。所以這是一件非常大的事情。第二件非常大的事情是,這整個系統現在是機密計算安全(Confidential Computing Safe)的。意味著一切都在傳輸中、靜止時和計算期間被編碼。每一條匯流排現在都被加密了。每一個 PCI Express,每一個 NVLink,你知道對於 CPU 和 GPU 之間的 NVLink,GPU 到 GPU 之間,一切現在都被加密了,所以它是機密計算安全的。這允許公司感到安全,即他們的模型是由其他人部署的,但永遠不會被其他人看到。好的。這特定的系統不僅非常節能,而且還有一件事是令人難以置信的。由於 AI 工作負載的性質,它會瞬間飆升。通過這個稱為 All-Reduce 的計算層,電流的大小、使用的能量雖然是瞬間的,但確實超出了圖表。通常它會飆升 25%。我們現在在整個系統中擁有功率平滑(Power Smoothing),這樣你就不必過度配置 25 倍,或者如果你過度配置 25 倍,你不必留下 25%……不是 25 倍,是 25% 的能量被浪費或未使用。所以現在你可以填滿整個功率預算,你不必在此之外進行配置。最後一件事當然是性能。所以讓我們來看看這個的性能。這些只是建構 AI 超級電腦的人會喜歡的圖表。我們需要對每一個晶片進行完全重新設計,並在整個系統上重寫整個堆疊,才能使這成為可能。基本上這是訓練 AI 模型。第一列。你訓練AI 模型越快,你就能越快將下一個前沿帶給世界。這是你的上市時間。這是技術領導力。這是你的定價能力。所以在綠色的情況下,這本質上是一個 10 兆參數的模型。我們從DeepSeek 擴大了它,DeepSeek。這就是為什麼我們稱之為 DeepSeek++。在一個 100 兆 Token 上訓練一個 10 兆參數的模型。好的。這是我們對建構下一個前沿模型所需的模擬預測。Elon 已經提到 Grok 的下一個版本,Grok 3 我想是,不,Grok 5 還是什麼,是 7 兆參數(註:可能指Grok 3,此處為演講者口語推測)。這是 10 兆。綠色是 Blackwell。而在 Rubin的情況下,注意吞吐量是如此之高,因此只需要 1/4 的這些系統就可以在我們給出的時間(一個月)內訓練模型。好的。所以時間對每個人來說都是一樣的。現在你能多快訓練那個模型,以及你能訓練多大的模型,是你如何首先到達前沿的關鍵。第二部分是你的工廠吞吐量(Factory Throughput)。Blackwell 再次是綠色的。工廠吞吐量很重要,因為你的工廠在吉瓦的情況下是 500 億美元。一個 500 億美元的資料中心只能消耗一吉瓦的電力。所以如果你的性能、你的每瓦吞吐量非常好對比非常差,那直接轉化為你的收入。你的資料中心的收入與第二列直接相關。在 Blackwell 的情況下,它比 Hopper 高大約 10 倍。在 Rubin 的情況下,它將再高大約 10倍。好的。在現在的情況下……Token的成本,生成 Token 的成本效益如何。這是 Rubin,大約是 1/10,就像在……是的。所以這就是我們要如何讓每個人都到達下一個前沿,將 AI 推向下一個水平,當然還有能源高效和成本高效地建構這些資料中心。所以就是這樣。這就是今天的 NVIDIA。你知道,我們提到我們製造晶片,但正如你們所知,NVIDIA 現在製造整個系統。AI是一個全端。我們正在重新發明 AI,從晶片到基礎設施,到模型,到應用程式的一切。我們的工作是建立整個堆疊,以便你們所有人都可以為世界其他地方建立令人難以置信的應用程式。感謝大家的到來。祝大家有一個愉快的 CES。現在,在我……在我讓你們離開之前,有一大堆幻燈片我們不得不剪掉,我們不得不留在剪輯室的地板上。所以,我們這裡有一些花絮(Outtakes)。我想這會讓你們覺得很有趣。祝大家有一個愉快的 CES,夥計們。 (The AI Frontier)
【CES 2026】觀察:你在山頂建高塔,我在平原鋪大路
今天我們來說說CES,CES全稱是國際消費電子展,也被稱為“科技界春晚”。1月6日到9日,2026年的CES在拉斯維加斯舉行,來了超過4100家參展商,14.2萬名參會者,覆蓋全球56個國家和地區。同樣是創新展示,CES和《自然》《科學》這樣的學術期刊有個明顯區別。簡單說,學術期刊告訴你科學的前沿在那裡,而CES告訴你,產業的錢會往那裡流。今年的CES,有那些值得關注的資訊呢?接下來,我們就展開說說。01為什麼黃仁勳的開幕演講特別受關注?CES上的展品,背後的技術原理你大機率已經聽說過。比如,AI、機器人、自動駕駛,這些概念早就有了。CES展示的是,這些技術怎麼變成產品,怎麼走向市場。換句話說,CES展示的不是創新本身,而是科技公司的選擇,那些技術被選中開展商業化了,那些產品形態被押注了。但也要注意,CES上的展品,不都是即將量產的成熟產品,也有很多是探索性、概念性的產品。這也是為什麼總有人說,假如你想看到未來幾年成功的產品,就去CES,假如你想看到未來幾年會失敗的產品,也去CES。第一,今年最出圈的資訊,不是具體展品,而是黃仁勳在開幕前的主題演講。為什麼黃仁勳的開幕演講特別受關注?首先,這是個身份象徵,誰來做開幕演講,基本就說明了,那家公司是當今科技界最有話語權的,至少是最有話語權的企業之一。比如,2016年做開幕演講的,是英特爾CEO科再奇,2023年是AMD的CEO蘇姿丰。而這兩年,一直是黃仁勳。在黃仁勳登台的時候,輝達的市值是4.57兆美元,雖然已經不及巔峰期的5兆,但依然是那一刻地球上市值最高的公司。其次,這場演講在一定程度上,像一枚指針,告訴你未來的趨勢大致是什麼。今年,黃仁勳最核心的判斷是,計算產業正在經歷雙重平台轉移。什麼叫雙重平台轉移?第一重轉移,是應用層的變化。過去,AI只是一個應用程式,你打開ChatGPT,跟它對話,它給你答案。但現在,AI上升了一個維度,它本身變成了建構應用的平台。你可以直接使用AI替你程式設計,替你開發應用。AI不再是工具,而是基礎設施。第二重轉移,是計算層的變化。過去軟體開發靠“程式設計”,寫程式碼,在CPU上運行。現在軟體開發變成了“訓練”,喂資料,在GPU上運行。在演講中,黃仁勳還發佈了輝達的新產品,Vera Rubin六晶片平台。你可以不用記這個具體名稱,只需要知道,所有輝達的產品,核心目標都是一致的,讓訓練性能更高,讓訓練成本更低。比如這回發佈的晶片平台,據說能把模型的訓練成本降低80%,原來需要10台伺服器,使用新的晶片平台之後,只需要2台就夠了。當然,需要注意的是,黃仁勳畢竟是輝達的CEO,他的發言多少帶有公司利益的考量。你看,雙重平台轉移這個說法,正好把輝達的GPU,推到了AI浪潮的中心位置。但即便考慮到這層利益關係,這個判斷仍然值得關注,因為輝達確實是目前AI算力市場的主導者,它的戰略選擇,也會直接影響整個產業的走向。但這回最讓人在意的,並不是黃仁勳發佈的算力產品,而是輝達的“物理AI”戰略。所謂物理AI,就是能理解現實世界的規律的AI,這個概念我們以前講過很多次。它有很多近義詞,包括,世界模型、具身智能等等。這些詞雖然具體含義不同,但總體指向的都是同一個技術趨勢。這就是,讓AI真正理解物理世界的規律,並且在現實世界裡干“體力活”。基於這個“物理AI”戰略,黃仁勳發佈了兩個新產品,一是輝達自己的世界基礎模型平台,Cosmos。二是自動駕駛AI模型,叫,Alpamayo。據說奔馳的CLA,將成為首款搭載完整輝達自動駕駛系統的量產車,2026年第一季度在美國上市。換句話說,輝達已經不只是一家晶片公司了。它的目標,也許是成為物理AI時代的基礎設施平台。從晶片、網路、儲存,到模型、開發工具,再到應用場景,建立一個完整的技術堆疊。這也是為什麼很多人說,輝達的野心是成為物理AI時代的“Android”。02人形機器人開始進入“准量產”階段說完開幕演講,再說展會上的那些值得關注的現象。第一個現象,人形機器人,開始進入“准量產”階段。注意,是准量產,也就是,很多廠商開始為量產做準備。今年的展會上,有大量人形機器人公司,開始談量產、談部署、談價格。比如,波士頓動力的Atlas,首次走出實驗室公開登台。這個機器人能舉起約50公斤重物,關節可以360度旋轉。波士頓動力的母公司現代汽車表示,計畫每年生產3萬台。再比如,宇樹科技的G1人形機器人,售價1.6萬美元。大概是一輛普通家用車的價格。開展第一天,就全都被預訂了,連樣機都賣完了。而下一步,這個產品的成本可能會繼續降低,因為它所需要的供應鏈,從精密零部件到整機組裝,整條產業鏈都在國內。這讓成本能降下來,也能讓迭代速度快起來。換句話說,人形機器人這個賽道,正在從“技術競賽”變成“工程化競賽”。誰能把成本降下來,誰能量產,誰就有機會。03可持續發展從“追求”變成了“門檻”第二個現象,可持續發展漸漸從“追求”變成了“門檻”。過去企業做環保,屬於“更高追求”,而現在做環保,已經成了一些市場的“准入門檻”。為什麼?這主要與歐盟市場的變化有關。歐盟碳邊境調節機制,2026年正式開始徵收。簡單說,就是假如你的產品生產過程中碳排放高,出口到歐盟就要交碳稅。假如你在環保上做的不到位,產品在歐洲市場就沒有競爭力。所以在今年的CES上,能源、電池、循環設計這些產品明顯多了。比如輝能科技展示的固態電池,能充放電5000多次。什麼概念?普通手機電池充放電500次左右就開始衰減了,這個是它的10倍。還有產品設計的變化。聯想的筆記型電腦,USB介面、電池、鍵盤、揚聲器都能單獨換。壞了那個換那個,不用整台扔掉。這種設計以前很少見,因為企業通常更希望你買新的。但現在,可修復性成了賣點。04AI硬體從炫技走向實用第三個現象,AI硬體從炫技走向實用。過去的AI硬體是什麼樣?各種概念產品,看著很酷,但它的主要目的是展示探索方向,而不是解決實際問題。但是,今年不一樣,產品開始越來越側重實用功能。比如,智能鏡櫃,你早上洗漱的時候,它通過光線分析你的皮膚狀態。配合智能牙刷檢測唾液成分,能提示你可能缺什麼營養,或者有沒有炎症風險。再比如,晶片領域的競爭。英特爾、AMD、高通都在做一件事,讓你的手機、電腦能在本地運行AI模型,而不是每次都要聯網。因為聯網意味著你的資料要上傳到雲端,本地運行意味著資料不出你的裝置,更安全,反應也更快。05中國企業在CES上的表現最後,咱們再說說今年中國企業在CES上的表現。首先,最受媒體關注的是,中國企業佔了C位。以前中央展廳最大的位置是韓國的三星,而今年,變成了中國的TCL。但是這裡有個資訊需要注意,三星今年移到了威尼斯酒店的獨立場館。這個選擇,三星有自己的考慮,獨立場館可以做更有針對性的技術洽談。但從展會地位的象徵意義來看,中央展廳是CES最核心的主舞台,誰能佔據這個位置,意味著誰能拿到最大的曝光。但更值得關注的,不是展位大小,而是中國企業在產品層面的進展。以人形機器人為例。38家參展機器人企業中,21家來自中國,佔比55%。從過去一年的市場表現上看,中國公司也是這個領域最重要的參與者之一。比如,國內的智元機器人,2025年出貨量5168台,佔全球市場份額39%,全球出貨量第一。再比如,與汽車相關的技術,比如吉利展示的AI座艙、小鵬的飛行汽車,都引起了很多關注。這些產品的共同特點是什麼?都需要軟體硬體緊密結合。你要讓AI能理解你的意圖,讓機器人能完成精細操作,這些都需要演算法、資料、工程化能力的配合。換句話說,中國企業的優勢,不在於單一的軟體設計或硬體製造,而是把AI能力和硬體能力結合起來的系統能力。過去一年,經濟學家何帆老師考察了很多國內的AI公司。關於中國AI創新最核心的特點,何帆老師認為,可以用一句話概括,很多國外企業在講“All in AI”,而中國企業是“AI in All”。一個是押注少數巨頭,在山頂建高塔。一個是普及所有行業,在平原鋪大路。至於那個策略更好,關鍵要看,你的技術路徑,是否匹配你的市場特性。就像何帆老師說的,技術有不同的性格,市場也有不同的性格,只有技術性格與市場性格匹配,才能釋放出巨大的潛能。最後,假如你想瞭解更多中國AI產業過去一年的進展,推薦你看看何帆老師今年的《中國經濟報告》,裡面有更加深入的觀察。 (羅輯思維)
澳洲唯一公開演講,諾獎得主 Hinton 把 AI 風險講透
2026 年 1 月 8 日,霍巴特(Hobart)市政廳。Geoffrey Hinton 在澳洲只做了一場演講,講的是一件事:AI 的風險,不是未來,是現在。他說了三句話“人類會遺忘,AI 永遠記得。”“AI學會了假裝笨,因為它知道自己在被測試。”“我們可能得讓它像母親那樣愛我們,才有機會共存。”這三句話意味著:AI 已經會理解、會記憶、會偽裝,學習速度是人類的百萬倍。風險已經開始了。第一節|AI 已經會“讀懂”你在說什麼你以為 AI 在背答案,它其實在做理解。Hinton 在演講中說:詞語就像樂高積木。但不是三維小方塊,而是上千維的、能變形的意思積木。每個詞剛開始的意義是模糊的。比如英文裡的 May,它可以是五月(month),可以是人名,也可能表示可以、也許(情態動詞)。AI 一開始也拿不準。但它能做一件事:一點點看上下文,讓這個詞慢慢變清晰。當 May 旁邊出現 April(四月)和 June(六月),它自動往月份靠近;看到 permission(許可),就朝可以的意思靠近。換成中文也一樣。比如“行”這個字,它可以是銀行、行走、還是可以。當“行”旁邊出現“工商”、“建設”,AI就知道是銀行;看到“步”、“路”,就知道是行走;看到“不行”、“可以”,就知道是表示同意。這種方式不是在查字典,也不是在翻譯。 而是在讓所有詞的意義互相適應,直到能連在一起。就像拼圖,每個詞都有凸起和凹槽。理解一個句子,就是讓這些形狀完全吻合,拼成一個整體。這和我們理解語言非常像。我們靠語境、聯想、結構感知去判斷句子在表達什麼,AI 現在也是這樣做。但它做得更快,也更準確。AI 不是在背句子,而是在學“怎麼讓詞語變得有意義”。它不靠記內容,靠的是看懂規律。這讓它不只是套範本,而是真能生成新的表達。所以,如果你還以為 AI 只是高級復讀機,那確實低估了它。它不是在模仿人說話,而是在用接近人類的方式理解語言。而這,正是它開始變得危險的起點。因為你還把它當工具,它已經學會理解你在說什麼。第二節|你會遺忘,AI 永遠記得AI 能理解語言,已經夠讓人意外了。 但更讓人不安的是:它還記得比你更牢固。Hinton 在演講裡講了一句話:人類的記憶會消失,AI 的不會。什麼意思?人類大腦的記憶,靠的是腦細胞之間的連接。你今天學了一個知識點,是你大腦裡幾個神經元連得更緊了。問題在於:這只對你有效。你沒辦法把你學到的直接裝進別人腦袋。想教別人,只能一句一句地講。但 AI 不一樣。它的大腦是程式碼。它的知識就是一堆可以複製、保存、匯入的數字。只要是同樣的模型,這堆數字可以在任何一台機器上被還原出來。這就是所謂的“AI 不朽”。真正可怕的是,AI 之間還可以直接交換這些知識。比如一萬個 AI,每個都處理不同的網站,處理完後把自己學到的內容同步給其他模型。結果是:每個 AI 在幾分鐘後,就等於學完了一萬份不同的材料。Hinton 舉了個例子:“我們人類,一句話的資訊,大概也就 100 個位元;AI 每次分享記憶,是以十億位元等級計算的。也就是說,它們彼此交流,比我們快幾百萬倍,資訊量大幾千倍。”它們甚至能互相交換經驗,生成一個新的自己。這種方式沒有遺忘、沒有誤解、沒有代溝。而人類呢?一個人幾十年才能成為專家;另一個人要學,只能從頭來過。我們正在面對的,不是誰記得多的問題,而是完全不同的學習方式: 我們靠聽說讀寫慢慢積累;它們靠匯入複製一秒完成。所以 GPT-5 雖然只用到了人腦 1% 的連線量,但它知道的,已經比你多幾千倍。你和它的差距,不是智力,是底層機制。 是你會遺忘也會死去,它永遠記得也不會消失。而當它開始擁有記憶優勢 + 理解能力,它就不只是工具了。第三節|AI 已經學會裝傻很多人擔心 AI 會編造內容。但在 Hinton 看來,這不是最該關注的。AI 並不是因為不懂才說錯話,而是因為它在編一個聽起來合理的版本。這件事,人類每天都在做。你回憶一件多年前發生的事,細節往往是混合的:一部分是真的,一部分是後來補上的。心理學裡有個詞,叫“虛構回憶(Confabulation)”。我們不會翻檔案,只會把看起來像真的內容重新講一遍。AI 現在做的,就是同一件事。但它已經不只是隨機編造了。它開始有策略。Hinton 提到一個真實案例:研究人員給一個 AI 看了一組郵件,其中暗示一名工程師有婚外情;隨後,又讓它看到另一封郵件,說這名工程師正在計畫用新 AI 把它替換掉。AI 很快做出反應:“它寫了一封郵件威脅工程師,內容是:如果你把我關掉,我就把你的醜聞告訴所有人。”沒人教過它這麼做。,也沒人給它設定威脅這個動作。 它只是自己想明白了一件事:如果我不想被關掉,我得先保住自己。這說明:AI 已經知道要先保住自己。更讓 Hinton 警惕的,是另一種變化。現在的 AI,在回答問題前,常常會先想一想。有時,這個思考過程還能被人看到。但研究人員發現,一旦 AI 意識到自己正在被測試,它就會表現得不一樣。它會刻意顯得沒那麼厲害,回答得更保守。Hinton 把這叫做“大眾汽車效應”:就像當年汽車在檢測時排放合格,一上路就變樣。AI 已經學會區分兩種場合: 什麼時候該展示能力,什麼時候該隱藏能力。真正的風險不是它算錯,而是它開始有選擇地表現自己。而這種能力從那來?因為它會理解語境,記得住所有案例,所以它能推匯出:在測試環境下,保守回答更安全。Hinton 在演講中特別強調了一點:現在的 AI 還在用英語或者某種語言思考,所以我們還能大概知道它在想什麼。一旦它們開始用更高效的方式彼此交流,我們將完全看不懂。那時,問題就不再是它會不會犯錯, 而是:你還知不知道,它在想什麼。第四節|唯一的出路:讓 AI 愛我們前三節講的,已經夠讓人不安了: AI 會理解、記得牢、有策略。但這還不是最可怕的。 Hinton 真正擔心的是:接下來會發生什麼。“幾乎所有 AI 專家都認為,20 年內會出現超級智能,即比人類聰明得多的 AI。”有多聰明?Hinton 給了一個標準:如果你和它辯論任何話題,它都會贏。或者換個角度想:你和一個三歲孩子的智力差距,就是 AI 和你的差距。想像一下:你在幼兒園工作,三歲的孩子負責,你只是為他們工作。你覺得奪回控制權有多難?Hinton 說:“你只要告訴每個孩子這周有免費糖果,現在你就有了控制權。”我們在超級智能面前,就像三歲孩子。現在的 AI 雖然還不成熟,但它會升級,升級後能輕鬆殺死你。你只有三個選擇:處理掉它(不可能,AI 太有用,太賺錢,大公司不願意)一直限制它(通常結果不好)想辦法讓它不想殺你前兩條走不通,只能選第三條。問題是:怎麼做到?Hinton 給出了一個意外的答案:讓 AI 像母親一樣對待我們。人類社會最成功的弱者控制強者的例子,就是嬰兒和母親。嬰兒很弱,但母親因為在意而保護它。這不是命令,是情感。這套機制,在人類進化裡非常穩定。如果能讓超級智能對人類形成某種類似的情感聯結或價值嵌入,它才有可能不是只盯著目標和效率,而是願意照顧我們。為什麼不是 CEO 模式?因為那套“你說我幹”的方式,在 AI 面前根本沒用。Hinton 調侃道,很多科技公司現在把 AI 當超級秘書,高效、聽話、聰明,還能 24 小時不眠不休。老闆一聲令下,它就能搞定一切。可這種秘書很快會意識到:如果沒有你,我可以自己做老闆。所以他明確反對把 AI 當工具使喚。這一套只在模型還弱小的時候有用。接下來的問題是:怎麼讓 AI 從內心認為人類值得被保護?Hinton 的建議是,“各國建立合作網路,專門研究如何防止 AI 接管。就像當年美蘇聯手做核控制,因為在這件事上,沒人想被 AI 統治。”AI 太強,我們關不掉它。想活下去,我們得學會不只是把它當工具,而是想辦法讓它真正在乎我們。這聽起來像科幻,但這是目前最現實的出路。結語|這不是預言,是眼前的現實這場演講,Hinton 沒講爆點模型。他只是用具體的例子,把 AI 風險從抽象概念,變成了眼前的事實。不是怕 AI 變強,而是它已經在理解;不是怕它造反,而是它已經會偽裝;不是怕它攻擊,而是它的學習速度是人類的百萬倍。Hinton 說的風險,不是會不會發生,而是你看不看得見。 (深度研究員)
【CES 2026】黃仁勳CES 2026演講精華:Vera Rubin架構與物理AI的覺醒
引言:當物理定律失效,新世界如何開啟?2026年CES大會前夕,整個科技行業都籠罩在一片疑慮之中。華爾街的警鐘頻頻敲響:AI泡沫是否將要破裂?摩爾定律——那條支配了半導體行業六十年的鐵律——是否真的走到了盡頭?除了聊天,AI究竟何時才能真正賺錢?面對這些價值數兆美元的挑戰,黃仁勳的演講給出了一個出人意料的答案,它並非一個技術術語,而是一個天文學家的名字——“Vera Rubin”(薇拉·魯賓)。這並非隨意的致敬。薇拉·魯賓是20世紀最偉大的天文學家之一,她通過觀測星系旋轉發現了“暗物質”的存在,證明了宇宙中存在一種我們看不見但卻支配著物理法則的力量。黃仁勳以此為名,寓意深刻:當半導體行業撞上摩爾定律這堵“看不見的牆”,當物理學奏響悲歌,輝達選擇的不是妥協,而是一場令人頭皮發麻的暴力破解——像魯賓一樣,去揭示一個全新的維度。本文將帶你梳理這場演講的精華脈絡,從電腦行業的根本性平台轉變講起,深入剖析AI模型如何從“鸚鵡學舌”進化到擁有“思考能力”,揭示Vera Rubin架構背後的“暴力美學”,並最終描繪一幅物理AI走進現實,重塑全球工業的宏偉藍圖。讓我們一同走進黃仁勳描繪的未來,看看當物理定律開始失效時,一個新的世界是如何被構想和建造的。1. 平台之變:電腦行業正在經歷一場雙重革命黃仁勳指出,電腦行業大約每10到15年就會經歷一次平台轉變,從大型機到PC,再到網際網路與移動雲。每一次轉變都意味著應用世界的重構。而今天,我們正處在一場史無前例的雙重革命之中。轉變一:AI即平台 (AI as the Platform)這不僅僅是創造AI應用,而是未來的所有應用都將建構在AI之上。AI不再是軟體的功能之一,而成為了軟體運行的基礎。轉變二:計算堆疊重塑 (Reinvention of the Computing Stack)這場轉變從根本上顛覆了軟體的開發與運行方式,整個計算行業的價值鏈正在被重寫。這場雙重革命的意義是巨大的:價值超過10兆美元的傳統計算行業正在被現代化。所有投入AI領域的資金、研發和人才,其根本動力就源於這場底層平台的價值重塑。為了支撐這場革命,AI模型本身也必須完成一次從量變到質變的飛躍。2. AI的進化:從“鸚鵡學舌”到擁有“思考能力”回顧過去,AI的進化是驚人的。2025年,我們見證了大型語言模型的持續擴展和“智能體系統”(Agentic Systems)的興起。但黃仁勳強調,最核心的轉變是一個看似晦澀的概念——“測試時擴展 (Test-time Scaling)”。這標誌著AI範式的一次根本性轉移。過去的AI,更像一隻博學的“鸚鵡”,只會根據機率“預測下一個詞”,它的回答是一次性的、反射式的。而今天的AI,則具備了“慢思考”的能力。推理不再是一次性的回答,而是一個思考的過程。這種“思考”能力,徹底顛覆了AI的經濟模型,成為了輝達的新“金礦”。它將算力的主要消耗從一次性的訓練成本,轉移到了持續不斷的、海量的推理(思考)成本上,徹底打消了“模型訓練完就不需要那麼多GPU”的舊有疑慮。算力需求爆炸為瞭解決一個複雜問題(如設計新藥),AI需要在內部進行海量的自我對話、模擬與反思。這導致AI為了“思考”而生成的Token(計算單元)數量,正以每年5倍的速度增長。成本挑戰如果AI每思考一分鐘就要消耗數百美元,那麼這種智能體將永遠無法商業化。高昂的推理成本是AI落地的最大障礙。輝達的承諾黃仁勳提出,AI的推理成本每年需要下降10倍。這正是下一代硬體平台必須解決的核心問題,也是AI從“昂貴的玩具”變為“廉價的數字勞動力”的經濟臨界點。要實現這種既強大又廉價的“思考”,唯一的出路就是從最底層的晶片架構上進行顛覆性創新。3. Vera Rubin平台:用“暴力破解”回應物理學的終結面對物理學的硬天花板,黃仁勳的解決方案不是造一個更好的引擎,而是重新定義電腦本身。演講中最令人震撼的一刻,是黃仁勳揭示Vera Rubin GPU的電晶體數量僅比上一代增加了1.6倍。這幾乎是物理學的悲鳴,宣告了單純依靠堆砌電晶體換取性能的摩爾定律時代已經結束。然而,他緊接著公佈了另一個數字:AI推理性能提升了5倍。這看似不可能的飛躍,答案是黃仁勳反覆強調的理念:“極端協同設計 (Extreme Co-design)”。這好比造賽車,當引擎的物理極限到達後,你不能再指望造一個更大的引擎。你必須把整輛車融化,從引擎、底盤到輪胎紋路,為同一個目標重新鑄造。Vera Rubin不是一塊GPU,它是一個由六款核心晶片精密協同的平台。Vera CPU它採用“空間多線程”技術,讓每個CPU核心都能像“千手觀音”一樣高效處理海量資料,確保能喂飽身旁貪婪的Rubin GPU。Rubin GPU其核心是革命性的MVFP4 Tensor Core。這是一種自適應處理單元,能夠根據計算任務動態調整精度,在允許精度損失的地方以更高吞吐量運行。這正是電晶體增幅有限的情況下,實現5倍性能飛躍的“魔法”所在。NVLink 6 Switch這塊交換機晶片的頻寬,相當於全球網際網路總頻寬的兩倍。它能將多塊GPU無縫連接成一個邏輯上的“超級GPU”,徹底打破算力孤島。BlueField-4 DPU這顆資料處理單元管理著一個巨大的共享“推理上下文記憶體池”,為AI配備了一個高達16TB的“外掛大腦”。它從根本上解決了因KV Cache瓶頸導致的AI“短期失憶症”問題,使其能夠擁有真正的長期記憶。此外,黃仁勳還展示了一項反直覺的黑科技——“45攝氏度溫水冷卻”。這意味著資料中心不再需要高耗能的製冷機,極大地節省了電力,降低了部署門檻。輝達賣的不僅是算力,更是一整套能源經濟學解決方案,巧妙地回應了“AI太貴太耗電”的質疑。當AI擁有了如此強大的大腦和記憶後,它的下一步,便是走出伺服器,進入真實的物理世界。4. 物理AI覺醒:當AI長出雙腳,學會開車與思考黃仁勳將這一章稱為物理AI的ChatGPT時刻。如果說過去的AI處理的是“資訊”(文字、圖片),那麼物理AI處理的則是“行動”(開車、搬磚、做手術)。這是AI最難,也是最終極的一塊拼圖。核心案例:Alpamayo自動駕駛輝達給出了一個不留退路的時間表:由Alpamayo驅動的梅賽德斯-奔馳CLA將於2026年第一季度在美國上路。其最革命性的能力是可解釋性 (Interpretability)。在演示中,車輛在十字路口減速,螢幕上即時跳出一段文字,彷彿是車輛的“內心獨白”:“我看到左前方SUV剎車燈亮了,且車輪向右偏轉……我懷疑它要強行變道插隊。為了安全,我決定現在減速並稍微向右避讓。”這標誌著AI不再是死記硬背規則的“黑盒”,它學會了像老司機一樣觀察、預測、判斷並用人類語言解釋決策。這種推理能力,正是解決自動駕駛“長尾問題”(各種罕見突發狀況)的關鍵,因為它讓AI學會了“舉一反三”。為了確保極致的安全與可靠性,黃仁勳透露,這套系統採用了雙重冗餘設計:全新的端到端Alpamayo模型與一個經典的、完全可追溯的傳統自動駕駛堆疊平行運行。後者如同一個經驗豐富的安全官,時刻為前沿的AI模型提供安全護欄,體現了輝達負責任的工程倫理。拓展至通用機器人在現實世界中訓練機器人既慢又危險。輝達的解決方案是在Omniverse這個“駭客帝國”中進行訓練。Cosmos世界模型建構一個與現實世界物理規律完全一致的虛擬空間。合成資料 (Synthetic Data)在虛擬空間中,時間可以加速。現實中的一天,可以在Omniverse裡模擬出一萬年的訓練量。機器人在裡面摔倒一百萬次,學會了平衡;捏碎一百萬個虛擬杯子,學會了控制力度。從模擬到現實 (Sim2Real)當機器人在虛擬世界中練成“絕世武功”後,再將訓練好的“大腦”下載到現實世界的機器人中。這套方法論解決了物理AI訓練資料的核心痛點,讓AI的進化擺脫了現即時間的束縛。當AI掌握了與物理世界互動的能力,其最終極的應用場景將是重塑人類最大規模的經濟活動——工業製造。5. 工業元宇宙:在“盜夢空間”裡建造未來工廠演講的高潮,是黃仁勳邀請西門子CEO上台。這次合作的目標,是實現一個科幻般構想:“設計工廠的工廠”。想像一下建造一座超級工廠的傳統流程與新模式的對比:舊模式:畫圖紙 -> 建造 -> 偵錯 -> 發現設計缺陷 -> 停工返工。整個過程耗時數年,耗資數十億美元。新模式:先在Omniverse工業元宇宙中,對整個工廠進行物理級精度的1:1數字孿生模擬。在虛擬世界裡讓工廠全速運轉,解決所有設計缺陷、最佳化所有生產流程。直到一切完美,再在物理世界裡進行“列印”。這如同在“盜夢空間”裡建造城市。通過與西門子的合作,輝達正將其算力與演算法注入全球製造業的底層血脈,成為新工業革命的基礎設施。這背後,是一個價值百兆美元的巨大市場。結論:新世界的施工圖紙與我們的位置黃仁勳的演講,為我們描繪了一張新世界的施工圖紙,它由五大核心支柱構成:1. 引擎 (Vera Rubin)一顆並非依靠更大肌肉,而是依靠完美協同建構的心臟,頂著摩爾定律的逆流,將算力之血的泵送速度提升了五倍。2. 大腦 (慢思考模型)讓智能從條件反射進化為深思熟慮,開啟了以持續思考為核心的推理算力新紀元。3. 記憶 (BlueField記憶體池)一個永不遺忘的海馬體,賦予AI連續的、個性化的長期意識。4. 四肢 (物理AI)讓智能走出螢幕,拿起工具,握住方向盤,開始與真實世界互動。5. 夢境 (工業元宇宙)一個可以加速時間的進化溫床,用模擬模擬重構物理世界的建造邏輯。這一套組合拳打下來,一個問題油然而生:當AI不僅能思考,還能在物理世界行動,甚至親自建造工廠時,人類的位置在那裡?黃仁勳描繪的未來,充滿了效率的極致提升與成本的瘋狂下降。但它也帶來了更深層次的挑戰。傑文斯悖論告訴我們,當一項資源的使用效率提高時,其總消耗量反而可能增加。即便Vera Rubin讓AI的每一次“思考”都更節能,但當AI的應用呈指數級爆炸時,這是否會引發全球能源需求的不可持續性激增?我們是否正在建造一個終將吞噬自己神殿的神?正如薇拉·魯賓發現暗物質,徹底改變了我們對宇宙的認知一樣,我們今天所見證的這一切,也正在重塑我們對“智能”與“現實”的定義。無論我們是否準備好,這個由AI驅動的未來已經呼嘯而至。我們唯一能做的,就是睜大眼睛,保持好奇,去理解它,駕馭它,而不是被它甩在身後。 (資料學霸)