#MI455X
【CES 2026】AMD放大招,4年AI晶片性能漲1000倍,MI455X來了
剛剛,AMD首席執行長蘇姿丰博士亮相CES展會,重磅發佈了:Helios全液冷設計面向人工智慧時代的機架級平台;MI455GPU,3200億個電晶體,包含432GB HBM4 記憶體;新的AMD路線圖,2027年推出2nm製程MI500;鎖定2026 AI PC賽道,首批採用Ryzen AI 400 系列處理器的AI PC Q1推出;全新的AMD品牌迷你 PC,AMD Ryzen AI Halo預計Q2上市;自ChatGPT推出以來,使用AI的活躍使用者已經從100萬人增加至10億人,這是網際網路花了幾十年才達到的里程碑,預計2030年使用AI的活躍使用者將達到50億人。蘇姿丰表示,現在的計算能力“遠遠不足以應對創新速度”。蘇姿丰希望在未來五年內將計算能力提升至10YottaFlops以上。YottaFlops是一個1後面跟24個0的整數。對於每個工作負載,需要配備合適的計算資源,比如CPU、GPU、NPU和定製加速器。AMD是唯一一家擁有全系列計算引擎的公司,能夠將這一願景變為現實。蘇姿丰從雲端運算開始談起。她表示,如今大多數人都是在雲端體驗人工智慧。真正的挑戰在於如何將人工智慧擴展到 Yotta 等級。這就是 AMD 打造其下一代平台 Helios 的原因。蘇姿丰當場展示了最新的AI電腦架Helios。Helios重達近 7000 磅。Helios機架採用全液冷設計,每一層計算托架都由四款AMD核心硬體驅動:AMD全新Instinct MI455X GPU、全新EPYC“Veince”CPU、AMD Pensando“Vulcano”800 AI網路卡以及AMD Pensando“Salina”400 DPU。從性能參數來看,Helios擁有2.9 exaflops的AI計算能力,配備31TB HBM4視訊記憶體,提供43TB/s的橫向擴展頻寬,並採用2nm和3nm工藝製造。該機架擁有4600個“Zen 6”CPU核心和18000個GPU計算單元。同時,蘇姿丰展示了MI445X GPU。MI455X GPU配備了兩個巨大的 GCD(圖形計算晶片)、兩個 MCD(記憶體控製器晶片)以及總共 16 個 HBM4 視訊記憶體位點。擁有3200 億個電晶體,AMD 聲稱 MI455X 的性能比 MI355X 提高了 10 倍。另一款晶片是EPYC VeniceZen 6CPU,它配備了8個大型Zen 6C CCD和兩個IOD,以及包含管理控製器的微型晶片。AMD表示,EPYC Venice CPU的性能和效率將提升70%以上,線程密度也將提高30%以上。該晶片還將推出標準的192核Zen 6版本,配備16個CCD,每個CCD包含12個Zen 6核心,以及768MB的L3快取。AMD 還準備推出基於其 EPYC Venice、MI400 和 Vulcano 互連技術的全套資料中心解決方案。這些解決方案包括用於超大規模 AI 的 72 GPU 機架、配備 Instinct MI440X GPU 的 8 GPU 企業級 AI 解決方案,以及用於混合計算的 EPYC Venice-X CPU(配備升級的 3D 垂直快取)和 MI430X(FP64 最佳化 GPU)。01AMD更新路線圖AMD計畫在2027年推出MI500,該系列處理器基於CDNA 6架構,採用HBM4E視訊記憶體,並採用2奈米製程工藝。過去四年中,其人工智慧性能將提升1000倍,AMD正在按計畫實現1000倍的目標。02首批搭載 Ryzen AI 400 系列處理器的AI PC,Q1推出今日,蘇姿丰宣佈推出全新的Ryzen AI 400系列,業界最廣泛、最先進的AIPC處理器系列。採用12 個 Zen 5 架構 CPU 核心和 24 個線程、16 個 RDNA 3.5 架構 GPU 核心、一個 60 TOPS 的 XDNA 2 NPU,以及 8,533 MT/s 的記憶體速度。AMD 表示,與 Intel Core Ultra 9 288V 相比,Ryzen AI 400 系列在內容創作方面速度提升 1.7 倍,在多工處理方面速度提升 1.3 倍。首批搭載 Ryzen AI 400 系列處理器的AI PC 將於2026年第一季度開始出貨。應用於眾多主流PC品牌,包括宏碁、華碩、戴爾、惠普、聯想、Beelink、七彩虹、技嘉、LG、Mechrevo、微星和NEC。全年將推出超過 120 款超薄遊戲本和商用PC,涵蓋各種AIPC形態。搭載 Ryzen AI 400 系列處理器的桌上型電腦將於 2026 年第二季度晚些時候推出。AMD 發佈了 RyzenAI Max+ 392 和 Ryzen AI Max+ 388,這兩款 Ryzen AI Max+ 系列新成員將高性能 AI 計算、整合桌面級顯示卡和統一記憶體架構擴展到高端超薄筆記型電腦、工作站和迷你 PC。搭載全新 AMD Ryzen AI Max+ 系列處理器的系統將於2026 年第一季度開始通過包括宏碁和華碩在內的主要 OEM 合作夥伴供貨,預計年內將有更多產品上市。03AMD新迷你PC發佈,預計Q2上市同時,蘇姿丰發佈了AMD Ryzen AI Halo,全新的 AMD 品牌迷你 PC。能夠在本地運行參數高達2000億的模型,搭載旗艦級Ryzen AI Max處理器和128GB高速統一記憶體,最高可達 60 TFLOPS 的 AMD RDNA 3.5 圖形性能,並支援 Windows 和 Linux 系統。預裝了領先的開源開發工具,並且開箱即可運行數百種模型。AMD Ryzen AI Halo將於今年第二季度上市。 (半導體產業縱橫)
【CES 2026】MI455X晶片+72卡機架,2027年沖2nm,蘇姿丰:4年算力漲1000倍
黃仁勳在CES2026上的演講過去不到3個小時,人稱“蘇媽”的AMD CEO蘇姿丰就帶著AMD的AI全家桶登台亮相。為了給自己產品鋪墊,蘇姿丰開場大談推理需求的暴漲,強調算力接下來將進入Yotta Flops時代(1Yotta Flops=1,000,000 ExaFLOPS,即每秒可執行10的24次方次浮點運算)。針對這一變化趨勢,AMD的解決方案是最新的MI455X GPU,並且基於72顆MI455X GPU和18顆Venice CPU,打造了一台開放式72卡伺服器“Helios”。蘇姿丰展示MI455X GPU蘇姿丰強調稱,MI455X系列相較於MI355X擁有10倍的性能提升,其公佈的路線圖顯示,2027年將推出基於2nm工藝,搭載HBM4e記憶體的MI500系列。“未來四年,要實現AI性能1000倍的提升,”蘇姿丰說。01蘇媽的“算力核彈”AMD GPU路線圖這張路線圖清晰地展示了AMD INSTINCT系列GPU路線圖。最強大的是2027年要上市的MI500,屆時將會匯入2nm工藝,採用HBM4e記憶體,AI性能又是一次巨大飛躍。如果MI455X的性能是MI355的10倍,對照官方折線圖,粗略量化一下,MI500的提升可能是MI455X的30倍。不過,拋開PPT上的故事,明年下半年的重點產品還是MI455X和“Helios”機架。不過這裡比較有意思,在說MI455X的時候,官方曬的是一張MI450的參數對比圖。按照蘇媽的說法,2026年上市的MI450,相當於MI300X+MI350,堪稱階梯式的創新和性能跨越。升級的核心思路和輝達的邏輯一樣,借助HBM記憶體,實現視訊記憶體、頻寬和算力三個維度擴展,打破AI推理的“記憶體牆”限制。這種升級的好處體現在三個方面:首先是更強的擴展能力(Scale-up),更大的視訊記憶體意味著能裝下更巨型的模型;其次是更高的生成效率,通過極高的頻寬解決了“出字速度”慢的問題,提升了每秒Token的輸出量;最後是極高的QPS(每秒查詢率),讓伺服器在單位時間內能同時響應更多使用者的提問。MI450在主流的FP8精度下提供了20PF的算力,性能表現接近初代的4倍。不僅如此,FP4精度下能達到40PF的極高性能。機架方面,根據官方資料,Helios總共18個計算托盤,一個計算托盤採用1顆Venice CPU+4顆MI455X GPU。部分細節雖未詳細說,但從現場的配置來看,其中Venice CPU採用2nm工藝,總計4600個核心,MI455X GPU則採用了3nm工藝,總計18000個計算核心,搭配總計31TB HBM4視訊記憶體和43TB/s的總頻寬,提供2.9Exaflops的FP8算力。AMD也強調,Helios是一個通往Yotta級計算擴展的開放式機架平台。02AI PC的故事端側AI不是附加值,而是必需品展示完機架級“算力核彈”之後,蘇姿丰將敘事重心拉回到個人裝置,並給AI PC下了一個明確判斷:AI PC並不是雲端AI的替代品,而是下一代個人計算的基礎設施。AMD在本次發佈中正式推出Ryzen AI 400系列處理器。該系列採用Zen 5 CPU架構與RDNA 3.5 GPU,整合最高60 TOPS的NPU算力,並已全面支援Windows Copilot+生態。蘇姿丰在現場多次提到,AI已不再是PC的附加功能,而是正在成為其“默認能力”。緊接著,AMD還正式發佈了面向高性能開發者和創作者的Ryzen AI Max平台。從現場大屏展示的參數來看,Ryzen AI Max並非一次常規的移動端升級,而是AMD對“本地AI計算單元”形態的一次重新定義。CPU最高配備16核/32線程Zen 5架構,GPU整合40個RDNA 3.5計算單元,NPU算力達到50TOPS,並配備128GB統一記憶體。這一配置不僅支撐多模態AI推理和生成,也能夠處理編譯、渲染、資料預處理等高負載任務。在此基礎上,AMD進一步向上延展,推出面向高性能本地AI場景的Ryzen AI Max平台。Ryzen AI Max被定義為面向遊戲玩家、內容創作者與開發者的“終極處理器”,其核心並不在於單一模組性能,而在於 CPU、GPU與NPU之間高度整合的記憶體架構,以提升本地 AI 推理時的頻寬效率和響應速度。真正引發現場討論的,則是擺在舞台一側的一個“小盒子”——Ryzen AI Halo。形態上,Ryzen AI Halo更像是一台迷你主機,體積遠小於傳統工作站,卻被蘇姿丰稱為“世界上最小的AI開發系統”。該裝置基於旗艦級Ryzen AI Max處理器打造,採用統一記憶體設計,最高可配置 128GB記憶體,以滿足本地運行大模型時對容量與頻寬的雙重需求。與傳統意義上的AI PC不同,Ryzen AI Halo的目標使用者並非普通消費者,而是開發者、研究人員以及小型創作團隊。AMD在現場明確強調,這並不是一台展示型硬體,而是一個開箱即可使用的本地AI平台。Ryzen AI Halo出廠即預裝多款主流開源模型,包括GPT-OSS、FLUX.2、Stable Diffusion XL(SDXL) 等,開發者無需複雜配置,即可在本地完成模型推理、偵錯和應用驗證。這一設計思路,顯然意在降低“使用AI的工程門檻”,而不是單純追求跑分或峰值算力。這一開箱即用的設計,不僅展示了Halo在實際應用場景中的便利性,也凸顯了AMD對本地AI平台的整體架構思路:它不僅是軟體友好,更是在硬體層面為開發者提供充足算力和統一記憶體支撐。Ryzen AI Max/Halo與MI系列GPU的核心共性在於:都通過大容量、高頻寬的統一記憶體設計,將算力單元與資料緊密耦合,以打破本地或節點間的記憶體瓶頸,實現高效推理與生成。與輝達DGX Spark的對比中,AMD並未強調絕對性能,而是提出了一個更貼近實際使用場景的衡量方式:tokens/dollar/second。這一指標背後,是AMD對AI PC的核心判斷,即未來的個人AI裝置,並不是“縮小版資料中心”,而是效率優先、隨時可用、成本可控的本地智能節點。從Ryzen AI 400系列筆記本,到Ryzen AI Max,再到“小盒子”形態的Ryzen AI Halo,AMD在CES 2026上給出的AI PC路線已經十分清晰:AI正在從雲端服務,下沉為每一台個人裝置中的常駐能力。03抱完OpenAI總裁,再抱李飛飛蘇姿丰與OpenAI總裁、聯創格雷格·布洛克曼CES 2026的舞台上,蘇姿丰不再單純堆疊參數、製程或峰值算力資料,也把時間留給了幾類“正在真實消耗算力的公司”。這些公司共同構成了AMD此次發佈中最重要的一條暗線:算力究竟流向了那裡,又在改變什麼。首先登台的,是OpenAI總裁、聯合創始人格雷格·布洛克曼(Greg Brockman)。他並未談論模型細節,而是反覆強調一個事實:OpenAI內部長期處於“算力緊張”狀態,模型能力的每一次躍遷,都會迅速吞噬掉新增的計算資源。蘇姿丰在台上半開玩笑地回應道:“每次我遇到你,你都在說需要更多算力。”這句玩笑背後,其實是一次非常直接的確認——通用大模型仍然是當前算力需求的上限場景。對AMD來說,OpenAI的存在並不只是一個客戶案例,而是為Helios、MI455X這類機架級產品提供了最直觀的合理性:只要模型規模和使用頻率持續上升,算力就永遠不夠。蘇姿丰與Luma AI首席執行長阿米特·賈恩緊接著,AMD將舞台交給了AI初創公司Luma AI。Luma AI首席執行長阿米特·賈恩(Amit Jain)展示了其最新一代多模態視訊模型Ray3以及即時編輯功能Ray3 Modify。這些模型已經能夠在4K、HDR 條件下生成和修改長視訊內容,並支援將真人拍攝素材與 AI 生成世界進行動態融合。賈恩特別強調,2025年是Luma從“模型展示”走向“商業部署”的一年,一些客戶甚至已經開始使用其系統生成90分鐘長度的完整影片。更關鍵的一點在於,目前約60%的Luma推理負載運行在AMD GPU上。這一比例本身釋放出一個明確訊號:推理正在成為比訓練更長期、更穩定的算力消耗來源。相比一次性的超大規模訓練,視訊生成、即時編輯、內容修改和多模態互動,對算力的需求更高頻、更持續,也更依賴單位成本與能效比。這正是AMD在本次發佈中反覆強調tokens/dollar/second的原因。蘇姿丰與Liquid AI首席執行長拉明·哈薩尼隨後登台的,是來自MIT孵化公司的Liquid AI。與前兩者不同,Liquid AI並不試圖擴大模型規模,而是試圖從根本上降低“智能的計算成本”。其首席執行長拉明·哈薩尼(Ramin Hasani)在現場發佈了Liquid Foundation Model 2.5,並預告了將於年內推出的LFM 3.0。這些模型主打高度量化、低延遲與原生智能體能力,能夠在本地裝置或企業系統中常駐運行,持續處理多語言音視訊輸入、函數呼叫和後台任務。在演示中,LFM 3.0可以代表使用者參加會議、處理日程,甚至在使用者不直接互動的情況下主動執行任務。蘇姿丰在一旁打趣道:“你確認我們會相信這個智能體?”但這句玩笑點出的,恰恰是AMD想要押注的下一階段趨勢:AI正從“生成工具”轉向“系統級參與者”。除了內容與企業軟體,蘇姿丰還明確表示,醫療是她個人最關注的AI應用領域之一,因為這裡既存在極高的算力需求,也存在對穩定性、可解釋性和長期運行能力的現實約束。當這些企業被串聯在一起時,一條清晰的邏輯逐漸浮現:從OpenAI這樣持續吞噬算力的通用模型平台,到Luma的內容生成工廠,再到Liquid AI的本地智能體,以及醫療等高可靠性場景,算力正在從集中式訓練中心,擴散為一個高頻、分佈式、長期運行的推理網路。蘇姿丰與李飛飛在這樣的背景下,“AI教母”、史丹佛大學教授李飛飛也受邀登台,分享其創辦的World Labs。World Labs的核心目標,並不是生成更精緻的圖像或視訊,而是讓AI理解現實世界的空間結構。李飛飛將其稱為“空間智能(Spatial Intelligence)”,即模型並非學習螢幕上的像素,而是學習世界本身的尺度、深度、結構與物理關係。在現場演示中,World Labs僅使用普通手機拍攝的少量照片,就生成了具有真實空間關係的3D世界模型。李飛飛指出:“過去需要幾個月的工作,現在只需要幾分鐘。模型跑得越快,世界就變得越即時。”值得注意的是,這些模型的訓練與推理同樣運行在AMD Instinct GPU與ROCm軟體棧之上。性能的提升,並不是簡單地縮短等待時間,而是在改變研究和創作的基本方式。從OpenAI的算力飢渴,到內容生成、智能體、醫療應用,再到空間智能的出現,AMD在CES 2026所呈現的,並不是一場單純的硬體發佈,而是一種判斷:當算力成本持續下降,AI 將不再只是模型能力的競爭,而是開始重塑我們理解和建構世界的方式。 (騰訊科技)