既當裁判又當選手,Arm推出136核CPU給輝達氣瘋了
既當裁判,又當選手的現實上演了。
就在前兩天,一直穩坐幕後的架構大佬 ARM 終於拋出了一枚震撼全球的重磅炸彈:他們不再只賣設計圖紙了,而是歷史上首次親自下場造晶片,推出了首款專為資料中心設計的 Arm AGI CPU。
Arm 大夥兒應該不陌生了,作為掌控著全球 90% 以上移動處理器 CPU 的架構基座,一直靠著賣架構和指令集授權賺得不亦樂乎。
那為何要從「包租公」轉化為「實業家」呢?
答案很簡單,眼紅。
根據 Arm 2026 財年(Q4 為官方指導值)的收入來看,全年營收 49 億美元(約合人民幣 338 億元)。
看起來不少了是吧?
來看看隔壁 NVIDIA,其 2026 財年的營收已經衝到了恐怖的 2159.38 億美元(約合 1.56 兆元人民幣),毛利率更是飆到75.5%,這已經跟印錢沒啥區別了。
這意味著辛辛苦苦設計了一年,還不到人的 2%。更扎心的是,NVIDIA 賣得火熱的 Grace CPU 裡面用的還是 ARM 的技術。
這讓 Arm 實在是有點想不通,不過在 AI 大模型競賽時期,主要依靠 GPU 平行算力為主導的。在這個行業,NVIDIA 可以說是隻手遮天,並且隔壁 AMD 和 intel 也不是吃素的,Arm 壓根擠不進去。
但火遍全網的龍蝦(OpenClaw)AI 智能體讓 AI 行業的風向開始發生改變了。
大夥兒逐漸意識到,縱使大模型再強,也只能動動嘴皮子,它沒有綜合性的執行能力,所以 AI 智能體就這麼火了。
這個大家也熟悉,如果把大模型當做大腦,那 AI 智能體(Agentic AI)就是腦幹和肢體。讓 AI 能開始擁有自主生產力了。
所以這種變化也就對硬體要求發生了改變,以前 AI 只需要 GPU 的「暴力計算」,但現在的「龍蝦們」需要頻繁地做邏輯判斷、任務編排、多系統呼叫——這些都是 CPU 的強項。
看到這,Arm 表示,機會來了。
正式推出了咱們開頭的提到的 AGI CPU。
簡單過一下參數。
AGI CPU 採用台積電 3nm 工藝製造,採用 Neoverse V3 核心,單顆晶片可以整合最多 136 核。
單顆核心之間記憶體頻寬達 6 GB/s,延遲低於 100ns,最高 6 TB 的單芯記憶體容量,支援 DDR5-8800 規格。
具備 96 條 PCIe Gen 6 通道,支援 CXL 3.0 和 AMBA CHI 互連。
TDP 為 300W。
看不懂沒關係,咱們做個簡易表把隔壁 intel、AMD 都拉過來簡單對比一下核心數和功耗。
雖然性價比和核心性能都不是最突出的,但它有兩個優點,一是專門針對SVE2單元,在處理 Agentic AI(代理式 AI) 常見的決策樹、輕量化推理和多工編排時,其每瓦特性能表現極佳。
第二點就是 TDP,雖然 300W 對於 Arm 來說是非常高了,但對比隔壁的 intel 和 AMD 動輒 500-600W,還是要涼快不少。
稍微瞭解的同學就知道,散熱和電力對於資料中心來說,是佔營運支出的大頭,一般要佔到 60% 以上(含電力運轉)。
所以 Arm 官方也囂張地喊出其方案每機架的性能比傳統 x86 高出 2 倍以上,因為能塞下更多的處理器。這意味著對於像 Meta 這樣規模的巨頭,建設一個吉瓦級的 AI 資料中心,改用 ARM 方案能省下整整 100 億美元(約合人民幣 723 億元)。
當然了,除了 x86,最受傷的莫過於是基於 Arm 的 Neoverse V3 開發的「友商們」了,這其中就有 NVIDIA。
拿 NVIDIA 剛發佈深度定製的 Vera CPU(88核心)來說,核心規模上就要壓上一頭,雖然不敵 NVLink 以 1.8 TB/s 的速度和 GPU 交換資料,但 NVIDIA這個屬於「閉源」,意味著你買了它的 CPU,就得買它的 GPU,消費選擇給限制了。
而Arm支援CXL 3.0 和通用 PCIe Gen 6,這意味著它能和 Meta 的 MTIA 加速器、OpenAI 的自研晶片相配合。
如果單看規模的話,亞馬遜的 Graviton5 擁有 192 個 Neoverse V3 核心,似乎更大,但人壓根不賣,你只能在它的雲伺服器裡租著用。
同樣用著同款核心微軟的 Azure Cobalt 200,不過是定製款,是專門為 Azure 雲服務最佳化。
所以,大夥兒能看出來,之前的 Neoverse V3 被雲巨頭拿過去後都是放在自己的「後花園」用,現在 Arm 直接把圍牆拆了,大家都可以買。
算是給自家盟友來了一刀。
看到這可能有同學要說了,那跟咱們普通人有什麼關係?
當然也有。
首先是對傳統 x86 CPU 的衝擊,在市場一定的前提下,AGI CPU 勢必也會吃掉一部分傳統通用計算 CPU 市場,從而倒逼 intel、AMD 進行快速的技術迭代和工藝升級,而這些技術也會輻射到消費級 CPU 領域,例如 AMD 的 3D V-Cache 技術。
其次就是「養龍蝦」會變得更便宜、更聰明。當雲巨頭們或者更多的入局者大規模部署這種 AGI CPU 後,我們使用的模型、國內的各類智能體工具,響應速度會成倍提升。那些複雜的「個人私人秘書」功能將從雲端下放到更廉價的伺服器甚至你的個人裝置上。
不過這一切都建立在AI持續爆火並有大廠不斷投入和內卷的基礎上。
至於什麼時候能實現「養蝦自由」,還很難說。
咱們就拭目以待吧。 (電手)