黃仁勳+蘇姿丰:兩場演講,3萬字要點,讀懂2026年AI算力往那走

兩場超級演講。

黃仁勳說:我們今晚要把15場演講的內容塞進1場。

蘇姿丰說:(AI的未來)你們還什麼都沒見識到。

他們的演講原文都發出來了,歡迎去看原文。

我覺著實在是太長了,自己都看麻了,簡單整理幾個要點,看看業界共識有那些吧。

共識展示了某種程度上的趨勢,從中發現那些非共識,才是找到未來分岔的要點。

算力缺口,比所有人想像的都大

黃仁勳給出的數字:10兆美元的舊計算體系正在被AI現代化升級,100兆美元規模產業的研發預算正在從傳統方法遷移到AI方法。

蘇姿丰給出的數字:全球算力從2022年的1 zettaflop增長到2025年的100 zettaflops

這還遠遠不夠,未來五年,還需要再增長100倍,達到10 yottaflops

yottaflop是什麼?1後面跟24個零。10 yottaflops,相當於2022年算力的10000倍

兩位大佬傳遞了同一個資訊:錢從那兒來?錢往那兒去?答案都是AI算力。

兩場發佈會,三個關鍵詞

關鍵詞一:物理AI

黃仁勳把它定義為"讓AI理解自然規律、與物理世界互動"。

NVIDIA發佈了AlphaMio,一個"會思考、會推理、會解釋"的端到端自動駕駛AI。它能輸出控制動作,還會告訴你為什麼要這樣開。

黃仁勳說:未來每一輛車、每一輛卡車,都會自動駕駛或高度自動駕駛。這個拐點,可能正在發生。

蘇姿丰則請來了義大利人形機器人公司Generative Bionics的創始人,發佈了商業化人形機器人Gene 1

它全身覆蓋觸覺"皮膚",能感知壓力與意圖,預計2026年下半年進入製造。

關鍵詞二:Yottascale

蘇姿丰發佈了AMD史上最大幅度的代際性能提升:Helios平台與MI455X加速器。

Helios機櫃的參數可以看下,為了加速追趕確實挺拼的。

  • 3200億電晶體,比上一代多70%
  • 432GB HBM4超高速記憶體
  • 單機櫃性能最高可達2.9 exaflops
  • 重量接近7000磅

黃仁勳則發佈了Vera Rubin平台,由六顆關鍵晶片協同設計,覆蓋CPU、GPU、網路、資料處理與安全。

兩家公司都在說同一件事:AI需求沒有放緩。 晶片增長不夠,就做系統協同;系統不夠,就做機櫃級設計;機櫃不夠,就做資料中心級最佳化。

關鍵詞三:智能體(Agentic AI)

黃仁勳說,2025年智能體系統擴散到幾乎所有地方。他特別點名了一款產品:Cursor,"它在NVIDIA內部徹底改變了我們的軟體開發方式"。

蘇姿丰請來了OpenAI聯合創始人Greg Brockman。Brockman說:我希望未來你早上醒來時,ChatGPT已經幫你把家裡和工作裡的待辦清單消掉一部分。我希望世界上每個人背後都能有一張GPU在後台持續運行。

Lisa Su 與 Greg Brockman 在 CES 2026 同台

端側AI年年有聊,年年不一樣

蘇姿丰發佈了Ryzen AI Halo——一個巴掌大的小盒子,能在不連接外部裝置的情況下本地運行2000億參數模型。

Liquid AI的CEO展示了LFM-3——原生多模態,支援音視訊輸入,能在100ms以內完成即時推理。它不是跑在雲端,而是跑在你的筆記本上。

黃仁勳說得更直白:未來應用不再是預先編譯,而是即時生成——每一個像素、每一個token,都是現場生成出來的。

一個分化:開放 vs 封閉

黃仁勳宣佈,NVIDIA現在也是一家"前沿AI模型建構者"。他們用DGX Cloud運行著價值數十億美元的超級電腦,開發開源模型。

他說:我們選擇儘可能在開放生態中完成,從而讓每家公司、每個行業、每個國家都能參與這場AI革命。

蘇姿丰的表態更加明確:AMD是唯一一家在全端貫徹開放性的公司——硬體、軟體、以及更廣泛的解決方案生態。

兩家晶片巨頭同時高舉"開放"大旗,背後是一個更深層的博弈:AI時代的生態戰爭更久、更激烈

寫在最後

黃仁勳用了一個詞來形容這個時代:雙重平台變革

第一場變革,是我們全面走向AI——未來的應用將建立在AI之上。

第二場變革更深:軟體的開發與運行方式發生根本變化。你不再是"程式設計軟體",而是在"訓練軟體";你不再主要跑在CPU上,而是跑在GPU上。

蘇姿丰的總結更簡潔:AI是過去50年最重要的技術,也是AMD的第一優先順序。

站在2026年的起點,蠻有意思的,算力還有巨大成長空間,那背後的資訊效率提升指向什麼方向呢? (帝亞梵的智庫報告)