Meta 公佈四代自研 AI 晶片計畫,擬於 2027 年底前完成部署
事件概覽
Meta Platforms 於 2026-03-11 公佈其最新晶片路線圖,計畫在 2027 年底前部署四款自研 AI 晶片——MTIA 300、MTIA 400(Iris)、MTIA 450(Arke)與 MTIA 500(Astrid)。這一動作標誌著 Meta 正以更激進節奏建構 自有 AI 算力體系,以應對持續增長的 AI 推理與內容推薦需求,並降低對 Nvidia GPU 的依賴。公司確認 MTIA 300 已投入使用,MTIA 400 即將進入資料中心;450 與 500 則被納入 2027 年量產計畫。
Meta 工程副總裁 Yee Jiun Song 表示,四款晶片均在 平行開發,以應對過去數月 “工作負載快速演進”。與此同時,Meta 仍維持與 Nvidia、AMD 的長期採購協議,以確保訓練算力供應。公司近期取消的 Olympus 訓練晶片項目 顯示高端訓練 ASIC 仍具難度,而 2025 年宣佈的 Rivos 收購 則為 MTIA 團隊擴充了超過 400 名工程師,支撐多代產品同時推進。
這一路線圖若如期落地,Meta 有望提升 推薦系統與生成式 AI 推理負載中的自研 ASIC 佔比;若受制於技術、產能或供應鏈限制,則可能繼續延長外購 GPU 周期,壓縮自研投資的回報空間。
相關事件時間線
事件分析
Meta 強化自研路線的核心驅動力
Meta 押注自研 ASIC 的關鍵動因在於 控制 AI 基礎設施成本 與 降低對 Nvidia 的結構性依賴。隨著生成式 AI 擴張推高訓練與推理需求,GPU 供應緊張與高成本成為限制因素。MTIA 系列以 內部工作負載最佳化 為導向,重點覆蓋內容推薦與推理任務,來獲得更高 能效比 與 穩定供給能力。
兩條技術路徑:自研 ASIC 與外購 GPU 平行
Meta 明確採取 “自研推理 + 外購訓練” 的雙軌模型。
- 自研晶片負責高頻推理任務,提升 單位算力成本效率;
- Nvidia/AMD GPU 繼續承擔大模型訓練與通用計算。
這一架構使 Meta 在保持靈活性的同時,以 ASIC 節約 OPEX 並降低高端 GPU 的長期佔比。
供應鏈與執行風險高度集中
MTIA 系列依賴 台積電先進製程與封裝產能,而 2nm/3nm 產能將被蘋果、Nvidia 等客戶大量佔用,Meta 存在排隊風險。同時,依託 RISC-V 的架構選擇雖帶來定製空間,但其軟體生態仍弱於 CUDA,意味著 Meta 需投入更多編譯器與工具鏈最佳化,增加執行複雜度。
組織整合與產品節奏的挑戰
Rivos 團隊加入後,Meta 具備了 “四代平行開發” 能力,但也面對跨團隊文化整合與技術路線統一的壓力。MTIA 450/500 能否按期量產,將決定 Meta 能否在 2027 年後實現 ASIC 佔比提升 與 GPU 採購規模回落。
資本支出壓力與 AI 業務不確定性
Meta 預計未來兩年維持高強度 AI CAPEX。然而 ASIC 高度專用,一旦 工作負載變化(例如模型架構演變),MTIA 系列可能出現適配不足的風險。缺乏面向外部銷售的商業化路徑,也意味著其 ROI 只能來自內部成本最佳化。 (InfraNative)