CPU在AI伺服器的比例不斷提高 瀾起為何受益?

國內相關標的是不是還是瀾起跟聚辰這種好一些?

我先把結論給一個定調的說法 “推理提升 CPU 用量”這個方向是成立的,但賣方把它簡單對應成 x86 或 CPU股票,邏輯是不完整的。

而A股炒瀾起、聚辰,更多是從CPU 配比提高 → 主機側記憶體/互連/DDR5 模組配套增加這條二階鏈條去對應,不是它們直接賣CPU。

推理會不會大幅提升 CPU 用量?方向成立。我的看法是CPU 配比提升這個趨勢是有確定性的,但提升幅度、節奏、以及到底利多誰,要分清楚,區分這些不同才是做好投資的關鍵。

現在賣方喜歡講AI 推理時代 CPU 用量大幅提升,這個說法本身是對的。因為推理,尤其是未來的 agentic AI、MoE、多輪對話、RAG、工具呼叫、多模態推理,已經不是過去那種簡單把 token 喂給 GPU 的線性計算。

它越來越像一個複雜的線上服務系統,前面有請求調度、檢索、排序、資料預處理、tokenization、KV cache 管理、batching、路由、網路通訊、儲存訪問、失敗重試、服務編排,後面還有結果校驗、函數呼叫、資料庫訪問。

這些事情很多並不適合全部放在 GPU/TPU 上做,而是由 CPU 和主機側系統來完成。

Google 最近發佈 TPU 8t/8i 時,官方也特別強調第八代 TPU 系統整合 Arm-based Axion CPU host,是為了移除 data preparation latency 造成的 host bottleneck,讓 TPU 不要因為主機側供料、預處理、編排跟不上而停下來。

Google明確說,Axion 提供了處理複雜資料預處理和 orchestration 的 compute headroom,讓 TPU 保持fed,不要 stall。

所以從技術原理上講,CPU 配比提高不是因為 CPU 替代 GPU 做矩陣乘,而是因為加速器越來越強,主機側不能成為瓶頸。

GPU/TPU 的 FLOPS、HBM 頻寬、互聯頻寬都在快速上升,如果 CPU、記憶體、PCIe/CXL、網路、儲存調度跟不上,整個系統的有效利用率就會下降。AI 資料中心真正追求的是系統吞吐,而不是單顆 GPU 理論峰值。

為什麼推理階段更容易拉高 CPU/主機側需求?

訓練任務相對更批處理化,資料流和計算圖更穩定,GPU/TPU 可以長時間跑大 batch、大矩陣。

推理不一樣,特別是線上推理,天然有幾個特點:

第一,請求更碎片化。

不同使用者的問題長度、上下文長度、模型呼叫路徑都不一樣,導致 batching、調度、排隊、延遲控制都更複雜。CPU 要負責把這些不規則請求整理成 GPU/TPU 能高效處理的形態。

第二,agentic AI 會讓推理從一次模型呼叫變成多次系統呼叫。

未來的 AI 助手不是只生成一段文字,而是要搜尋、呼叫工具、讀資料庫、執行程式碼、呼叫外部 API、再回到模型。這些流程裡,大量工作發生在 CPU、記憶體、網路、儲存和軟體棧上。

第三,MoE 和長上下文會提高系統調度複雜度。

MoE 需要專家路由,不同 token 走不同專家,通訊和調度壓力會增加。長上下文、KV cache 管理、prefix cache、paged attention 等,也需要更複雜的記憶體管理和調度策略。

Google 第八代 TPU 的介紹裡,也把更高互聯頻寬、on-chip Collectives Acceleration Engine、降低 on-chip latency 等作為解決 MoE 和推理瓶頸的重要改進。

第四,GPU/TPU 越強,CPU 側越不能拖後腿。

過去 8 卡伺服器裡面 CPU 只要不明顯拖後腿就行,未來 rack-scale AI system 裡面,幾十顆甚至上千顆加速器被當作一個系統來調度,CPU、記憶體、PCIe/CXL、乙太網路/IB、儲存 I/O 都變成整體效率的一部分。

所以,CPU 用量提升的核心不是AI 要靠CPU算,而是AI 推理系統變複雜後,主機側控製麵、資料面、記憶體面、調度面的負擔都提高了。

但這個邏輯不能直接推導成利多 Intel跟AMD x86 CPU  這裡是我認為賣方最容易偷換概念的地方。

CPU 配比提高,確實是趨勢,但是誰受益,不一定是傳統 x86 CPU 廠商。

因為 AI 加速器的主機 CPU,正在從傳統 x86 走向 CSP 自研或者加速器廠商自帶 CPU,這全部是Arm的天下。

輝達 GB200 NVL72 是非常典型的例子,一個 rack 裡面是 36 顆 Grace CPU + 72 顆 Blackwell GPU,也就是 2 顆 GPU 配 1 顆 Grace CPU。Grace 本身是 Arm 架構,不是 x86。

Google TPU 8 也開始明確使用自研 Axion Arm CPU host。第八代 TPU 首次兩款晶片都運行在 Google 自己的 Axion ARM-based CPU host 上,以最佳化整個系統,而不只是最佳化 TPU 晶片。

TPU 8i 平台的 TPU-to-CPU 比例約為 2:1,而此前 Ironwood 系統大約是 4:1,說明主機 CPU 配比確實在提高,但方向是 Google 自研 Arm CPU,而不是回到TPU 5以前的 Intel 至強Xeon。

AWS 也是類似邏輯。Trainium2 UltraServer 是 AWS 自研 Trainium2,通過 NeuronLink 連接到 64 顆 Trainium2 晶片,AWS 的 AI 硬體體系自然會優先和自家 Graviton、Nitro、EFA、Neuron 軟體棧結合,基本沒有外采傳統 x86 方案。

所以AI 推理拉高 CPU 配比是對的,但它更像是利多 Arm 架構、自研 CPU、台積電先進製程、先進封裝、記憶體介面、PCIe/CXL/Retimer、伺服器主機板和系統級互連,而不是直接利多 Intel/AMD 這種傳統 x86 CPU。

AMD 的特殊性在於,它的 GPU 平台可以和 EPYC 繫結,所以 AMD 有一定受益邏輯,但如果討論全球最大幾個 AI ASIC/GPU 體系,輝達、Google、AWS,主機 CPU 越來越多是 Arm/自研路線。

Meta 即使自身量小一些,他也幾乎不外采x86 CPU,之前用過AWS的自研,目前則在部署輝達 Grace CPU,並測試下一代 Vera CPU,這都是 Arm 伺服器 CPU 進入 AI 資料中心的方向。

那為什麼 A 股會炒瀾起、聚辰?我不太關注A股市場的各種小道消息,炒作標的也不太關注,我只能從你提出的這兩家從產業邏輯上幫你分析。

A 股一般不會只炒最直接受益,因為全球AI主流標的,A股除了光模組跟PCB以外A股很少有直接標的。比如全世界炒儲存晶片,我們炒的卻是儲存模組廠跟代理商。

所以大A通常會炒能講成產業鏈對應的公司,請注意是『能講成』也就是邏輯能掛勾上,先不管真假,然後是『能對應』即可,不一定要相關度很高能扯得上說得通的也行。

瀾起和聚辰被拉進這個邏輯,自然不是賣 CPU,而是因為 CPU 配比提高以後,主機側 DDR5 記憶體模組、記憶體介面晶片、SPD、TS、PMIC、PCIe Retimer、CXL 等配套器件用量也會提高。

我認為瀾起科技的邏輯比聚辰硬很多。它不是 CPU 公司,而是伺服器記憶體介面和高速互連晶片公司。  瀾起產品線覆蓋 DDR5 RCD、DB、MRCD、MDB、SPD Hub、TS、PMIC 等,其中 MRCD/MDB 是 DDR5 MRDIMM/MCRDIMM 高頻寬記憶體模組的核心邏輯器件。

MRCD/MDB 通過雙倍資料傳輸速率和時分資料復用,可以在標準速率下同時訪問兩個記憶體陣列,實現雙倍頻寬,第一代產品速率可到 8800MT/s。

這和 AI 推理的關係是,CPU host 數量增加,主機側記憶體容量和記憶體頻寬需求提高,高速 DDR5、MRDIMM/MCRDIMM、PCIe/CXL 互連的重要性自然提高。瀾起還在 PCIe Retimer、CXL MXC 上佈局。

公司 2025 年業績說明裡也提到,AI 伺服器增長拉動 PCIe Retimer、PCIe Switch 需求,典型 8 卡 AI 伺服器通常需要 2–4 個 PCIe Switch、8–16 個 Retimer,部分國內 8 卡 GPU 方案需要 24 個 Retimer。

瀾起 2025 年確實已經體現出 AI 伺服器和 DDR5 周期的業績彈性。公司投資者關係材料顯示,2025 年營收 54.56 億元,同比增長 49.9%;互連類晶片收入 51.39 億元,同比增長 53.4%;歸母淨利潤 22.36 億元,同比增長 58.4%。

所以瀾起的題材不是空穴來風。它真正掛鉤的是,CPU host 增加 → DDR5 記憶體模組增加/升級 → RCD、MRCD/MDB、SPD Hub、PMIC、TS 需求增加;AI 伺服器複雜度提高 → PCIe Retimer/CXL 需求增加。

但也要注意,瀾起不是CPU 配比提高這個題材的第一順位受益者。第一順位是自研 CPU 設計方、Arm IP、台積電、伺服器 ODM/OEM、CSP 自身。

瀾起屬於二階受益,但好處是對公司影響夠大。相比台積電跟Arm,CPU配比增加的增量對他們龐大的業務來說業績影響不是那麼大。

但主機側記憶體和互連配套,CPU配比提高給Rambus,Astera跟瀾起帶來收入增量是直接的,因為他們體量小。

其實CPU配比增加也能算在之前市場認為AI能給相關企業帶來的增量裡,不會因為CPU配比提高而業績增長變大很多,這些公司本來就是在AI受益鏈條中,這次的題材讓市場焦點又重回他們身上。所以美股從4月初就開始上漲。

聚辰股份邏輯有但比瀾起弱,它主要是 SPD EEPROM、SPD Hub、TS、EEPROM/NOR 等。DDR5 記憶體模組確實需要 SPD、TS、PMIC 等配套晶片。

DDR5 記憶體模組除了搭載記憶體顆粒和介面晶片,還需要 SPD、TS、PMIC。

其中 SPD 是 DDR5 記憶體模組的通訊中樞,內建 SPD EEPROM,用於儲存記憶體模組資訊和配置參數,並整合 I2C/I3C 匯流排集線器和高精度溫度感測器。

所以聚辰和這個題材的連接是,AI 伺服器 CPU host 和 DDR5 模組用量增加 → DDR5 SPD/TS 需求增加。

但聚辰的彈性和產業地位要弱於瀾起。因為 SPD/TS 更偏模組配套晶片,價值量和技術壁壘通常不如 RCD、MRCD/MDB、PCIe Retimer、CXL 這類高速互連晶片。

聚辰 2025 年營收 12.21 億元,同比增長 18.77%;歸母淨利潤 3.64 億元,同比增長 25.25%,DDR5 SPD 確實是增長驅動之一,但增長幅度和 AI 伺服器核心鏈條的爆發性不能簡單等同。

所以我認為,聚辰能掛上 DDR5 模組升級和伺服器記憶體配套,但它不是 CPU 配比提升的核心受益標的,更偏題材延伸。

CPU配比提高這件事,我認為如果按全球產業鏈看,CPU 配比提高的受益順序大概是:  第一層:自研 CPU - Arm 生態 / 台積電Foundry。

Google Axion、AWS Graviton、輝達 Grace/Vera 這類 Arm 伺服器 CPU 會直接受益。Arm IP、台積電先進製程/先進封裝是更底層的受益者。

第二層:伺服器主機側記憶體和高速互連。

DDR5、MRDIMM/MCRDIMM、RCD、MRCD/MDB、SPD、PMIC、TS、PCIe Retimer、CXL、PCIe Switch 會受益。全球受惠的有Rambus跟Astera ,這兩個票4月以來紛紛都翻倍了,A 股裡瀾起是這一層最清晰的標的,目前漲幅50%左右,聚辰是 DDR5 模組配套的延伸標的弱了不少。

第三層:伺服器平台、主機板、PCB、連接器、電源、散熱、ODM/OEM。  CPU host 增加,不只是多一顆 CPU,而是更多記憶體通道、更多供電、更多 PCIe/CXL 鏈路、更複雜的板級設計和系統整合。

這會拉動伺服器平台價值量,但 A 股多數公司要看是否真的進入海外 AI 伺服器供應鏈,不能只靠概念。

第四層:中國本土 AI 伺服器生態。

如果單單看國內 AI 伺服器,由於輝達受限、國產 GPU/ASIC 體系發展,海光、鯤鵬、飛騰、龍芯、寒武紀等會被市場拿來對應。

但這裡要分清楚,很多公司不是因為全球 TPU/GB200 這條鏈受益,而是因為國內替代和國產 AI 伺服器建設受益。邏輯不一樣。

更重要的是國內AI的CPU還有個致命的問題,那就是可以買到英特爾至強CPU,為何要用國產的?

比如寒武紀配套字節伺服器的CPU正是至強,崑崙芯也是,國內有能力的自研AI GPU跟CPU的只有海思跟平頭哥。

如此一來海光,飛騰,龍芯是否是利多?首先海光必然是搭配他的深算GPGPU一起出貨,我想很少人會單獨買他的CPU來配AI 伺服器,龍芯跟飛騰也類似,但這些國產CPU都要先跟英特爾跟AMD競爭,大部分市場還是由美系壟斷。

國產CPU廠家在配比提高這件事上當然也是利多,但落到真正業績上的可能不會有想像中得多。

結論:

推理提升 CPU/host 側用量是確定方向,但不是簡單利多傳統 x86 CPU。

它真正反映的是 AI 資料中心從單顆加速器競爭,進入 rack/system 級系統效率競爭。

A 股裡瀾起的掛鉤度相對更高,至少美股的相關標的短期都翻倍了,它對應 DDR5 記憶體介面、MRDIMM/MCRDIMM、PCIe Retimer、CXL。

整體來說這個題材可以炒,但要分清一階受益和二階對應,不能把 CPU 配比提高直接等同於所有 CPU 或儲存股都受益。

另外這題材美股比A股反應的更快更多,如果美股相關標的漲幅已經充分price in,股價出現反轉是否對帶崩A股的標的值得投資者加強注意。

以上為知識星球會員同學的提問與解答,類似解答星球有數百道,涉及A股半導體大部分票。不添油加醋,不拔高也不否定,用最精準的產業邏輯讓會員獲得客觀的投資判斷依據。 (梓豪談芯)