黃仁勳在CES2026上的演講過去不到3個小時,人稱“蘇媽”的AMD CEO蘇姿丰就帶著AMD的AI全家桶登台亮相。為了給自己產品鋪墊,蘇姿丰開場大談推理需求的暴漲,強調算力接下來將進入Yotta Flops時代(1Yotta Flops=1,000,000 ExaFLOPS,即每秒可執行10的24次方次浮點運算)。針對這一變化趨勢,AMD的解決方案是最新的MI455X GPU,並且基於72顆MI455X GPU和18顆Venice CPU,打造了一台開放式72卡伺服器“Helios”。蘇姿丰展示MI455X GPU蘇姿丰強調稱,MI455X系列相較於MI355X擁有10倍的性能提升,其公佈的路線圖顯示,2027年將推出基於2nm工藝,搭載HBM4e記憶體的MI500系列。“未來四年,要實現AI性能1000倍的提升,”蘇姿丰說。01蘇媽的“算力核彈”AMD GPU路線圖這張路線圖清晰地展示了AMD INSTINCT系列GPU路線圖。最強大的是2027年要上市的MI500,屆時將會匯入2nm工藝,採用HBM4e記憶體,AI性能又是一次巨大飛躍。如果MI455X的性能是MI355的10倍,對照官方折線圖,粗略量化一下,MI500的提升可能是MI455X的30倍。不過,拋開PPT上的故事,明年下半年的重點產品還是MI455X和“Helios”機架。不過這裡比較有意思,在說MI455X的時候,官方曬的是一張MI450的參數對比圖。按照蘇媽的說法,2026年上市的MI450,相當於MI300X+MI350,堪稱階梯式的創新和性能跨越。升級的核心思路和輝達的邏輯一樣,借助HBM記憶體,實現視訊記憶體、頻寬和算力三個維度擴展,打破AI推理的“記憶體牆”限制。這種升級的好處體現在三個方面:首先是更強的擴展能力(Scale-up),更大的視訊記憶體意味著能裝下更巨型的模型;其次是更高的生成效率,通過極高的頻寬解決了“出字速度”慢的問題,提升了每秒Token的輸出量;最後是極高的QPS(每秒查詢率),讓伺服器在單位時間內能同時響應更多使用者的提問。MI450在主流的FP8精度下提供了20PF的算力,性能表現接近初代的4倍。不僅如此,FP4精度下能達到40PF的極高性能。機架方面,根據官方資料,Helios總共18個計算托盤,一個計算托盤採用1顆Venice CPU+4顆MI455X GPU。部分細節雖未詳細說,但從現場的配置來看,其中Venice CPU採用2nm工藝,總計4600個核心,MI455X GPU則採用了3nm工藝,總計18000個計算核心,搭配總計31TB HBM4視訊記憶體和43TB/s的總頻寬,提供2.9Exaflops的FP8算力。AMD也強調,Helios是一個通往Yotta級計算擴展的開放式機架平台。02AI PC的故事端側AI不是附加值,而是必需品展示完機架級“算力核彈”之後,蘇姿丰將敘事重心拉回到個人裝置,並給AI PC下了一個明確判斷:AI PC並不是雲端AI的替代品,而是下一代個人計算的基礎設施。AMD在本次發佈中正式推出Ryzen AI 400系列處理器。該系列採用Zen 5 CPU架構與RDNA 3.5 GPU,整合最高60 TOPS的NPU算力,並已全面支援Windows Copilot+生態。蘇姿丰在現場多次提到,AI已不再是PC的附加功能,而是正在成為其“默認能力”。緊接著,AMD還正式發佈了面向高性能開發者和創作者的Ryzen AI Max平台。從現場大屏展示的參數來看,Ryzen AI Max並非一次常規的移動端升級,而是AMD對“本地AI計算單元”形態的一次重新定義。CPU最高配備16核/32線程Zen 5架構,GPU整合40個RDNA 3.5計算單元,NPU算力達到50TOPS,並配備128GB統一記憶體。這一配置不僅支撐多模態AI推理和生成,也能夠處理編譯、渲染、資料預處理等高負載任務。在此基礎上,AMD進一步向上延展,推出面向高性能本地AI場景的Ryzen AI Max平台。Ryzen AI Max被定義為面向遊戲玩家、內容創作者與開發者的“終極處理器”,其核心並不在於單一模組性能,而在於 CPU、GPU與NPU之間高度整合的記憶體架構,以提升本地 AI 推理時的頻寬效率和響應速度。真正引發現場討論的,則是擺在舞台一側的一個“小盒子”——Ryzen AI Halo。形態上,Ryzen AI Halo更像是一台迷你主機,體積遠小於傳統工作站,卻被蘇姿丰稱為“世界上最小的AI開發系統”。該裝置基於旗艦級Ryzen AI Max處理器打造,採用統一記憶體設計,最高可配置 128GB記憶體,以滿足本地運行大模型時對容量與頻寬的雙重需求。與傳統意義上的AI PC不同,Ryzen AI Halo的目標使用者並非普通消費者,而是開發者、研究人員以及小型創作團隊。AMD在現場明確強調,這並不是一台展示型硬體,而是一個開箱即可使用的本地AI平台。Ryzen AI Halo出廠即預裝多款主流開源模型,包括GPT-OSS、FLUX.2、Stable Diffusion XL(SDXL) 等,開發者無需複雜配置,即可在本地完成模型推理、偵錯和應用驗證。這一設計思路,顯然意在降低“使用AI的工程門檻”,而不是單純追求跑分或峰值算力。這一開箱即用的設計,不僅展示了Halo在實際應用場景中的便利性,也凸顯了AMD對本地AI平台的整體架構思路:它不僅是軟體友好,更是在硬體層面為開發者提供充足算力和統一記憶體支撐。Ryzen AI Max/Halo與MI系列GPU的核心共性在於:都通過大容量、高頻寬的統一記憶體設計,將算力單元與資料緊密耦合,以打破本地或節點間的記憶體瓶頸,實現高效推理與生成。與輝達DGX Spark的對比中,AMD並未強調絕對性能,而是提出了一個更貼近實際使用場景的衡量方式:tokens/dollar/second。這一指標背後,是AMD對AI PC的核心判斷,即未來的個人AI裝置,並不是“縮小版資料中心”,而是效率優先、隨時可用、成本可控的本地智能節點。從Ryzen AI 400系列筆記本,到Ryzen AI Max,再到“小盒子”形態的Ryzen AI Halo,AMD在CES 2026上給出的AI PC路線已經十分清晰:AI正在從雲端服務,下沉為每一台個人裝置中的常駐能力。03抱完OpenAI總裁,再抱李飛飛蘇姿丰與OpenAI總裁、聯創格雷格·布洛克曼CES 2026的舞台上,蘇姿丰不再單純堆疊參數、製程或峰值算力資料,也把時間留給了幾類“正在真實消耗算力的公司”。這些公司共同構成了AMD此次發佈中最重要的一條暗線:算力究竟流向了那裡,又在改變什麼。首先登台的,是OpenAI總裁、聯合創始人格雷格·布洛克曼(Greg Brockman)。他並未談論模型細節,而是反覆強調一個事實:OpenAI內部長期處於“算力緊張”狀態,模型能力的每一次躍遷,都會迅速吞噬掉新增的計算資源。蘇姿丰在台上半開玩笑地回應道:“每次我遇到你,你都在說需要更多算力。”這句玩笑背後,其實是一次非常直接的確認——通用大模型仍然是當前算力需求的上限場景。對AMD來說,OpenAI的存在並不只是一個客戶案例,而是為Helios、MI455X這類機架級產品提供了最直觀的合理性:只要模型規模和使用頻率持續上升,算力就永遠不夠。蘇姿丰與Luma AI首席執行長阿米特·賈恩緊接著,AMD將舞台交給了AI初創公司Luma AI。Luma AI首席執行長阿米特·賈恩(Amit Jain)展示了其最新一代多模態視訊模型Ray3以及即時編輯功能Ray3 Modify。這些模型已經能夠在4K、HDR 條件下生成和修改長視訊內容,並支援將真人拍攝素材與 AI 生成世界進行動態融合。賈恩特別強調,2025年是Luma從“模型展示”走向“商業部署”的一年,一些客戶甚至已經開始使用其系統生成90分鐘長度的完整影片。更關鍵的一點在於,目前約60%的Luma推理負載運行在AMD GPU上。這一比例本身釋放出一個明確訊號:推理正在成為比訓練更長期、更穩定的算力消耗來源。相比一次性的超大規模訓練,視訊生成、即時編輯、內容修改和多模態互動,對算力的需求更高頻、更持續,也更依賴單位成本與能效比。這正是AMD在本次發佈中反覆強調tokens/dollar/second的原因。蘇姿丰與Liquid AI首席執行長拉明·哈薩尼隨後登台的,是來自MIT孵化公司的Liquid AI。與前兩者不同,Liquid AI並不試圖擴大模型規模,而是試圖從根本上降低“智能的計算成本”。其首席執行長拉明·哈薩尼(Ramin Hasani)在現場發佈了Liquid Foundation Model 2.5,並預告了將於年內推出的LFM 3.0。這些模型主打高度量化、低延遲與原生智能體能力,能夠在本地裝置或企業系統中常駐運行,持續處理多語言音視訊輸入、函數呼叫和後台任務。在演示中,LFM 3.0可以代表使用者參加會議、處理日程,甚至在使用者不直接互動的情況下主動執行任務。蘇姿丰在一旁打趣道:“你確認我們會相信這個智能體?”但這句玩笑點出的,恰恰是AMD想要押注的下一階段趨勢:AI正從“生成工具”轉向“系統級參與者”。除了內容與企業軟體,蘇姿丰還明確表示,醫療是她個人最關注的AI應用領域之一,因為這裡既存在極高的算力需求,也存在對穩定性、可解釋性和長期運行能力的現實約束。當這些企業被串聯在一起時,一條清晰的邏輯逐漸浮現:從OpenAI這樣持續吞噬算力的通用模型平台,到Luma的內容生成工廠,再到Liquid AI的本地智能體,以及醫療等高可靠性場景,算力正在從集中式訓練中心,擴散為一個高頻、分佈式、長期運行的推理網路。蘇姿丰與李飛飛在這樣的背景下,“AI教母”、史丹佛大學教授李飛飛也受邀登台,分享其創辦的World Labs。World Labs的核心目標,並不是生成更精緻的圖像或視訊,而是讓AI理解現實世界的空間結構。李飛飛將其稱為“空間智能(Spatial Intelligence)”,即模型並非學習螢幕上的像素,而是學習世界本身的尺度、深度、結構與物理關係。在現場演示中,World Labs僅使用普通手機拍攝的少量照片,就生成了具有真實空間關係的3D世界模型。李飛飛指出:“過去需要幾個月的工作,現在只需要幾分鐘。模型跑得越快,世界就變得越即時。”值得注意的是,這些模型的訓練與推理同樣運行在AMD Instinct GPU與ROCm軟體棧之上。性能的提升,並不是簡單地縮短等待時間,而是在改變研究和創作的基本方式。從OpenAI的算力飢渴,到內容生成、智能體、醫療應用,再到空間智能的出現,AMD在CES 2026所呈現的,並不是一場單純的硬體發佈,而是一種判斷:當算力成本持續下降,AI 將不再只是模型能力的競爭,而是開始重塑我們理解和建構世界的方式。 (騰訊科技)