【CES 2026】OpenAI、李飛飛同台,Lisa Su:AMD AI 晶片走到關鍵一步

2026 年 1 月 5 日,CES 開場。AMD 董事長兼首席執行長 Lisa Su 站上主舞台,沒有任何鋪墊,直指本質:

AI 是過去 50 年最重要的技術。

但她這次不是來講遠景的,而是帶著完整方案來的。

不只是晶片,而是一整套工業級平台:

  • 面向資料中心的 MI455X,3200 億電晶體;
  • 面向企業部署的 MI440X,主打推理與節能;
  • 還有她這次主推的 Helios,為 Yotta 級 AI 時代打造的機架級平台。

這不是在升級顯示卡,而是在重新劃出一個產業分界線。

為了證明這不僅是 AMD 自說自話,Lisa Su 請來了一批頂級 AI 使用者同台背書:OpenAI、World Labs、Luma、Liquid、Absci 等行業領軍者,現場展示他們如何將核心業務部署在 AMD 平台上。

更關鍵的是,Lisa Su 還預告了下一代 MI500 系列將在 2027 年登場,四年內性能增長 1000 倍。

第一節:Yotta 級算力缺口,逼出新的產業邏輯

過去一年,AI 模型變得更聰明了,但對算力的需求也更大了。

2022 年全球 AI 運算需求是 1 Zettaflop,2025 年預計要超過 100 Zettaflops,Lisa Su 給出的預測更為大膽:未來五年,全球算力要再提 100 倍,邁向 10 Yottaflops。

Yottaflop 是什麼概念?

一個 Yottaflop 是 1 後面帶 24 個零,是現在全球算力的上萬倍。 這就像過去幾十年所有計算升級的總和,需要在五年內完成。

這預示著未來 AI 應用將全面爆發:

  • 生成視訊:一個 10 秒視訊動輒十萬個 token,遠超文字模型;
  • 多模態智能體:不僅看圖、寫文、識音,還要自動調度工作流;
  • 企業部署:每個公司不再只要模型,還得有配套的開發工具和本地 AI 支援。

這一趨勢在 OpenAI 總裁 Greg Brockman 那裡得到了資料印證:推理量兩年激增 100 倍的現實,讓“人手一個後台 GPU”的願景受困於基建短板。

模當大模型從“嘗鮮”變成“常駐”,算力系統面臨的考驗也隨之升級:它不再需要為了跑分而生的短跑冠軍,而是需要能長期線上、安全維穩的馬拉松選手。

這迫使晶片廠商重新思考產品形態:不是做出最強一顆晶片,而是建構起能支撐 AI 工業化的全套基礎設施:

  • 每個托盤能承載多顆 GPU、CPU、NPU 協同工作;
  • 每個機架能無縫擴展為成千上萬個單元的 AI 工廠;
  • 網路、記憶體、冷卻、供電都得為高密度、低延遲重構。

這就是 AMD 推出 Helios 架構的核心思路:不靠一顆 GPU 單打獨鬥,而是打造一套可規模部署、長期線上、靈活適配的 AI 基礎設施。

每個 Helios 機架擁有:

  • 超過 18,000 個 CDNA 5 GPU 計算核心;
  • 4,600 多個 CPU 核心;
  • 31TB HBM4 高速視訊記憶體;
  • 每秒 2.9 Exaflops 的運算能力。

它不再是晶片堆疊,而是 AI 工業化的生產線。

這一節,AMD 沒在講性能天花板,而是定了一個新基礎:如何讓 AI 成為真正能用、高性價比、工業級穩定的算力系統。

第二節:Helios 不是最強機器,是能量產的標準件

這次 CES 上,Lisa Su 發佈的不是一塊晶片,而是一整個計算工廠。

舞台上,AMD 首次展示了 Helios,一個重達 3 噸的機架級計算平台,專為 AI 工業化設計。

Helios 的三個關鍵詞:

1、整合

每個計算托盤,包含:

  • 4 塊 MI455X GPU,搭載 3200 億電晶體、432GB HBM4 高頻寬記憶體;
  • 1 顆 Venice CPU,擁有多達 256 個 Zen6 核心;
  • 1 顆 Pensando 網路晶片,負責資料流通。

托盤之間通過 Ultra Accelerator Link 相連,72 塊 GPU 在一個機架內協同工作,形成統一的計算單元。

而托盤 + 冷卻 + 電力 + 網路 + 算力調度,全都打包到一個整機裡。 不是一堆零件,而是一個能直接投產的 AI 工段。

2、模組化

Helios 沒選封閉架構,而是用的 OCP(開放計算項目)標準。

每個元件都能替換、升級、擴展。更像一個搭積木的系統,而非一次性封裝的黑盒。這對大型 AI 公司很關鍵,模型還在快速進化,不能每次都從頭再建一套資料中心。

Lisa Su 給出了 Helios 的定義:不是做一台最強機器,而是做一個能量產的算力範本。

3、效率

Helios 全液冷,能在高密度負載下保持穩定。

每個機架配有 31TB 視訊記憶體,機架內部頻寬達 260TB/s,對外連接頻寬 43TB/s。

AMD 還專門強化了 ROCm 軟體棧,能相容主流開源 AI 框架,如 PyTorch、vLLM、SGLang。開發者無需改程式碼就能上手。

相比之下,NVIDIA 的 DGX 系列更強調整體性能,而 Helios 更注重模組化和開放性,是為整個行業打造的通用標準件。

Lisa Su 不想讓客戶適配 AMD,而是要讓 AMD 適配客戶。

這不是單機性能的發佈,而是一次架構觀的轉變。

  • OpenAI 用 MI455 加速推理;
  • Meta 和 AMD 聯合設計 Helios 架構;
  • 主要雲服務商正在將 Helios 納入新一代 AI 基礎設施。

Helios 不再是一個產品,是下一輪 AI 工業化的最小構件。

AMD 在發佈一個能複製的生產線,一個可以為 AGI 世界裝配的底層模組。

第三節:OpenAI、Luma、李飛飛,為什麼選 AMD

這次 CES 舞台上,AMD 不是在跟隨競爭,而是在定義新標準。

過去兩年,大模型發佈節奏越來越快,但 AI 真正運行的地方,已經不是發佈會,而是後台:

  • Greg Brockman:我們正從單純的被動問答,進化為自主執行複雜工作流。
  • 未來每個人都將擁有背景執行的 10 個智能體。那不再是臨時呼叫 AI,而是 AI 全天線上,背後對推理晶片提出了全新壓力。

1、智能體不是概念,已經在現場運行了

AI視訊公司 Luma CEO 的回答更有說服力:

一段視訊模型推理 10 秒,Token 數量能達到 10 萬個。

他們已經把模型部署到生產線上:

  • 一年時間內,Luma 有 60% 的推理負載遷移到了 AMD 平台;
  • 大模型只是起點,接下來的任務都是智能體結構;
  • 這些智能體不僅是回答問題,而是能修改世界、編輯視訊、自動創作一整部電影。

而當這些任務真正落地時,GPU 的經濟性變得比絕對性能更重要。

2、 Liquid AI:AI 的下一個入口,是主動助手

MIT 孵化公司 Liquid AI 聯合創始人 Ramin Hasani 在正式推出兩款核心產品:

  • 一個是 LFM 2.5:12 億參數的小模型,在本地裝置上完成指令跟隨,在指令遵循能力上超過 DeepSeek 和 Gemini 2.5 Pro;
  • 另一個是 LFM 3:能聽、能看、能說、能即時翻譯的多模態助手,延遲低於 100 毫秒。

這不是在雲上訓練模型,而是直接在筆記本本地運轉,持續監聽、協助使用者。

Ramin 說:

“現在,不是人類在召喚 AI,而是 AI 在默默為你做事。”

這對晶片的要求,已經從模型規模大小,轉向部署速度、離線能力和功耗控制。

3、 李飛飛帶來第三種維度:空間智能 + 世界建模

World Labs CEO 李飛飛展示了另一種“AI 互動的新範式”的可能性。

只需一張普通照片,模型就能還原完整 3D 空間,不只是識別房間,而是“建立世界”:

  • 將圖片輸入模型後,可以生成多個 3D 結構版本;
  • 即時拖動、編輯、重建世界細節
  • 甚至能把拉斯維加斯威尼斯人酒店的一張圖,生成可遊覽的完整空間世界。

李飛飛強調:

“人類的理解從不是文字開始,而是空間與動作。真正通用的 AI,必須能理解物理世界。”

而空間智能的落地,需要高頻寬、低延遲、大記憶體、高並行,這些需求不是傳統圖形處理可以滿足的。

三個案例,指向同一個趨勢: Luma 看重成本,Liquid 看重即時性,World Labs 看重大記憶體。

這意味著算力競爭的邏輯變了:從比拚參數,變成了比拚體系。

AMD 正在將硬體重塑為 AI 的“作業系統”,成為支撐萬物智能的算力底座。

第四節:從雲到端,AI 落地的最後一公里

如果說 Helios 是主電站,那麼接下來的問題就是:電怎麼輸送下去,怎麼在每個終端點亮。

AI 要無處不在,需要把算力帶到雲端之下的每一層。個性化、現場化、連續性,是這個過程的三個關鍵詞。

從醫院、工廠、學校,到你桌上的那台電腦,AI 要進入真正複雜的人類環境。

1、從 AI PC 到 Halo:把 AI 帶到桌面

過去兩年,大語言模型幾乎都在雲上運轉,但這帶來兩大問題:

  • 成本高,每次呼叫都要顯示卡費用;
  • 延遲長,每次問答都要聯網。

AMD 推出 Ryzen AI Max 和 Halo,就是要把 AI 搬到本地。

Ryzen AI Max 配備 128GB 統一記憶體,能在本地運行 200B 參數模型,讓創作者和開發者可以在工作站上直接部署 AI 工具。

性能上,它在高端筆記本場景超過 MacBook Pro,在小型工作站場景以更低價格達到 NVIDIA DGX Spark 的性能,運行 GPT 開源模型時每美元每秒生成的 Token 數是後者的 1.7 倍。

Halo 則是世界最小的 AI 開發機,手掌大小卻能運行 200B 參數模型,預裝 ROCm 軟體棧,專為開發者和研究團隊設計。

關鍵技術是 AMD 把 CPU、GPU 和 NPU 做成統一記憶體架構,三者直接共享資料。這意味著你在筆記本上呼叫 Copilot、摘要會議、編輯視訊,都可以完全離線完成。

2、醫療:AI 已經在救人

OpenAI 總裁 Greg Brockman 講了個假期真實案例:有人腿疼,醫生初診說沒事,回家用 ChatGPT 輸入症狀,建議立即回醫院。結果是嚴重血栓,如果沒有 AI 提醒可能致命。

醫療行業已成為 AI 落地最快的領域之一。

現場三家公司展示了實際應用:

  • Absci 用 AI 從零設計新藥,使用 AMD MI355 單日篩選超過 100 萬種候選藥物,攻克脫髮和女性健康疾病。
  • Illumina 每天產生超過 YouTube 的測序資料量,用於癌症早篩和精準醫療,系統使用 AMD EPYC CPU 和 FPGA 即時處理。
  • AstraZeneca 大規模使用生成式 AI 設計分子、篩選藥物,候選藥物交付速度提升 50%,臨床成功率也在提高。

這些公司把 AI 當作主力工具,而不是在試水。

3、工業機器人:邊緣 AI 的觸覺協作

Generative Bionics 創始人 Daniele Pucci 帶來了人形機器人 Gene One。它能感受人手的力度、方向和協作意圖,這背後是觸覺反饋和即時決策能力。

AMD 提供了完整算力路徑:機器人本體用 Ryzen AI Embedded 和 Versal Edge 晶片,模型訓練用 MI 系列顯示卡,多機協作靠 Pensando 網路晶片。

邊緣裝置的 AI 不能等待聯網,必須本地決策、立刻響應。這就是 AMD 從雲到端的連續計算結構。

4、新興場景:不能等、不能斷、不能慢

除了雲端和邊緣,AI 正向更多新興場景滲透。空間智能、機器人導航、虛擬世界建構,都需要高頻寬、低延遲、大記憶體和即時響應。

這些場景的共同特點是:不能等,不能斷,不能慢。

5、AI 落地的未來:從標準晶片變成場景原生平台

這一整輪發佈,其實是 Lisa Su 帶領 AMD 轉型的路線圖。

在雲端,Helios 機架、MI455 顯示卡和 Venice CPU 構成了大規模訓練與推理的基礎設施,服務 OpenAI、Meta 等頭部 AI 公司。

在企業級,MI440X 和 MI430X 提供更高精度的計算能力,專門面向主權 AI 和超級計算場景,滿足科研機構和政府部門的需求。

在開發層,Ryzen AI Max 和 Halo 讓開發者能在本地進行模型開發和智能體原型驗證,不必每次都依賴雲端資源。

在消費端,Ryzen AI 400 系列處理器讓普通 PC 也能運行 Copilot、主動助手和內容創作工具,把 AI 真正帶進日常生活。

從雲到端,AMD 不是在賣晶片,而是在鋪設 AI 時代的基礎設施。

結語:把晶片做成地基

MI455 是晶片,Helios 是平台,但真正讓 AMD 搶佔位置的,是 Lisa Su 給出的產業邏輯:

不是建一台最強機器,而是搭一套能量產的工業系統;

不是問能跑多大模型,而是問能不能支撐百萬級智能體同時工作。

OpenAI 訓練模型,Luma 生成視訊,Absci 設計新藥,Generative Bionics 驅動機器人。

而 AMD,正在成為這一切背後的算力基礎設施。

2026 年這場 CES,Lisa Su 押注的是最底層的命題:讓 AI 真正落地,既要性能夠強,也要成本可控,還要長期穩定。 (AI 深度研究員)