回顧過去一年的財報,輝達的表現可以用“脫離地心引力”來形容。它不再是一家傳統的半導體硬體公司,而是成為了全球科技行業的“印鈔機”。
1. 收入結構:幾乎變成單核驅動的“資料中心公司”
按輝達財報口徑,過去四個財季是:2025財年Q4、2026財年Q1–Q3(截至2025年10月)
公司過去四個財季的總收入情況是,從 393.3 億美元(Q4 FY25)漲到 570.1 億美元(Q3 FY26),一年內單季規模提升約 45%。
(1)資料中心業務
資料中心收入:從 355.8 億美元升至 512.2 億美元,同比對比上一年同季(307.7 億美元)增速約 66%,是絕對的核心驅動力。
資料中心收入佔比:在四個季度裡都在 約 88%–90% 之間;也就是說,輝達現在幾乎是一家“資料中心 + AI GPU”單核驅動的公司,而不是傳統意義上的“顯示卡公司”。按季度計算,資料中心佔比分別約 90.5%、88.8%、87.9%、89.8%。
資料中心這個AI工廠業務,決定著公司的生死。需求端,大模型訓練與推理、Agentic AI、企業私有模型、國家級“主權 AI”項目等直接推動了輝達資料中心業務的增長;且客戶不再單單買“卡”,而是在買整套 AI factory——機架、網路、儲存、管理軟體一起買;輝達的單系統平均售價和附加值同步抬升。供給端,產品結構從 Hopper(H100/H200)全面向 Blackwell(B100/B200/GB200)過渡,逐步再演進到 Rubin 系列。每一代都在算力、能效、互聯和系統級形態上拉開差距。
(2)遊戲業務
遊戲業務:四個季度收入從 25.4 億—>37.6 億—>42.9 億—>42.7 億美元,佔比大致 6%–9%,在 PC 與主機市場復甦、AI PC 熱點帶動下有所恢復,但在公司整體裡仍是“小頭”。
遊戲和AI PC過去的復甦主要靠 RTX 40/50 系列和 AI 相關功能穩住高端玩家,從公司層面看,這塊業務的作用更多是 “現金奶牛 + 品牌入口”,一方面繼續鞏固消費者心智和開發者生態,一方面幫輝達在 PC/邊緣裝置上佈局AI 基座,為未來端側推理打好地基。
(3)專業可視化和汽車業務
這部分業務現在是“種子”,未來是“槓桿”。汽車類股對應的是自動駕駛、座艙和車載 AI,收入還小但客戶粘性極高,通常是一簽就是好多年的平台合作。專業可視化和 Omniverse/Digital Twin 結合在一起,瞄準的是 工業模擬、機器人和製造業 AI,這塊一旦成型,單個項目的算力需求可能接近今天的大模型訓練。
輝達現在的商業本質,是把“資料中心 + AI 算力”打包賣給雲廠商、大模型公司和政府,其他類股更多是戰略協同而非利潤核心。短期內輝達的業績高度依賴資料中心,但它在悄悄用汽車、工業模擬等“非網際網路客戶”把算力需求的周期拉長,讓自己不只押注在大模型一家身上。
2. 市場地位:在 AI 加速卡里,仍是“絕對壟斷”
多家研究機構估算來看:
在 資料中心 GPU 市場,輝達 2024 年市佔率約 92%,基本把對手按在地上摩擦。如果按照更寬泛的 AI 加速器GPU+ASIC+自研晶片的口徑,輝達份額大致在 80%–90% 區間浮動,其餘由 AMD、Google TPU、亞馬遜 Trainium 等瓜分。
同時,管理層在最新溝通中披露:
2025–2026 年,輝達已經拿到 超過 5000 億美元 的 Blackwell 和 Rubin 系列 GPU 訂單,對應的是未來兩年 AI 資料中心建設的確定性需求。更重要的是,這裡面 還不包括 與 OpenAI 擬議中的最高 1000 億美元合作訂單,也就是說,當前訂單能見度已經非常“誇張”。
結合這兩點,可以得出一個相當極端、但目前還成立的判斷:短期內,輝達真正的約束不是“有沒有客戶”,而是“供應端是否能生產出產品”。
1. 中國市場與國產 AI 晶片替代
(1)政策層面的“雙重夾擊”
美國一輪又一輪的出口管制,使得 H100/A100 及後續的高端 GPU 對華銷售長期受限,輝達只能為中國市場單獨設計性能閹割版 H20 等產品。
2025 年起,中國監管部門多次要求頭部網際網路公司暫停採購、測試新的輝達 AI 晶片,鼓勵改用國產方案;甚至點名要求字節跳動、阿里等取消 RTX6000D 等晶片的訂單。
(2)國產替代:不再是口號,而是“真搶單”
華為 Ascend 910B/910C 在 2024–2025 年開始量產並大規模部署,據報導 2024 年中國企業購買了約 100 萬顆 Nvidia H20,對比約 45 萬顆華為 Ascend 910B,差距仍然存在但在縮小。
其它玩家如寒武紀、沐曦 MetaX、摩爾線程、燧原等也在搶佔細分場景,中國本土 AI 加速卡形成了一個獨立的生態圈。
(3)但短期替代仍有限
多家分析機構和一線開發者反饋:國產晶片在算力密度、軟體生態(CUDA 替代)、大規模叢集實踐上仍落後一截,尤其是在訓練最前沿模型時,仍更願意在能合法合規的地方用輝達。
中國公司正在通過 “離岸訓練 + 本地推理” 繞過限制:在東南亞等地租用配備輝達 GPU 的資料中心訓練模型,然後回國用國產晶片做推理和部署。
(4)對輝達的影響
中期看,中國本土 AI 晶片會逐漸蠶食其在中國的推理市場份額;但在最頂級的訓練市場和海外業務上,暫時輝達仍然難以被完全替代;更大的風險在於,如果中美在 AI 基礎設施上形成 兩套不互通的生態系統,輝達將永遠失去其中一套裡的“原生地位”。輝達的首席執行官黃仁勳也不止一次的表達過,對失去中國市場的遺憾,由於出口管制,輝達在中國的市場份額不得不從95%降低到0%。
2. 友商競爭:真正的壓力來自“性價比 + 專用化”
(1)AMD:性能和成本有優勢,但軟體與生態仍在追趕
AMD 的 MI300/MI325 系列在大模型推理、部分記憶體頻寬敏感任務上,已經在性能及TCO上對輝達 H100/H200 形成實質性優勢,尤其是在自建叢集場景。AMD CEO Lisa Su 多次強調,看到在資料中心 AI GPU 市場拿到兩位數市佔率的“非常清晰的路徑”,並預計該業務未來三到五年年均收入增速可達 80%。可以解讀為:AMD 現在還是“跟隨者”,但已經在規模與軟體兩端補課,不會再是 3–5 年前那個“陪跑的選手”。
(2)高通:AI 加速卡 + Arm 伺服器,主打“性價比 + 電費”優勢
高通在 2025 年正式發佈面向資料中心的 AI200/AI250 加速卡,明確要進入 AI 加速器市場,第一批客戶包括中東的新興雲廠商。更關鍵的是,高通選擇了“合作+競爭”的策略,其 Arm 伺服器 CPU 通過 NVLink Fusion 與輝達 GPU 深度互聯,共同建構異構 AI 伺服器。這意味著,高通一邊幫輝達擴展“非 x86”生態,一邊也在學習怎樣把 “性價比 + 功耗” 做到極致,為未來更多自研加速卡打基礎。
(3)博通:替代 GPU 的“定製 XPU 工廠”
博通多年深耕定製 ASIC/XPU 業務,為 Google、Meta、字節跳動等頭部客戶設計專用 AI 加速晶片,2024 財年相關收入已超過 120 億美元,增速 200%。2025 年更傳出與一位神秘客戶簽下 100 億美元訂單的消息,用定製 XPU 替代通用 GPU 做大規模推理,訂單規模或達數百萬顆晶片。
行業觀點普遍認為,訓練市場短期仍是 GPU 天下,但在大規模推理、推薦系統和特定場景裡,“便宜好用的定製 XPU” 會逐步吃掉 20%–30% 的 AI 加速器市場。
3. 自研晶片:大客戶開始“自己造 GPU 的替代品”
(1)Google TPU:從內部自用走向外部出售
Google TPU 已經支撐了自家大部分 Gemini 模型訓練和推理,新一代 TPU v6 在能效與成本上相對現有 GPU 具有明顯優勢,分析師估計訓練側每單位算力成本可降低 30%–40%。
最新報導顯示,Google正在與 Meta 洽談出售數十億美元規模的 TPU,用於後者的資料中心,有內部預測認為若交易落地,Google有機會搶走相當於輝達約 10% 年收入的市場空間。
(2)亞馬遜 Trainium/Inferentia:從“內部降本”到“對外產品”
AWS 的 Trainium/Inferentia 已經在 Bedrock 等服務中廣泛用於推理,有分析認為,在 AWS 內部,基於自研晶片的訓練、推理算力支出佔比已經接近 20%–30%,並且增長迅速。
AWS 最近又宣佈未來一代 Trainium4 將採用輝達的 NVLink Fusion 互聯,把“自研晶片 + 輝達 GPU” 綁成一個更大的系統——既減少對單一供應商依賴,又繼續吃輝達生態紅利。
(3)OpenAI × Broadcom:推理側最直接的正面衝突
多家媒體報導 OpenAI 正與博通合作開發代號 “Titan” 的定製推理晶片,訂單規模約 100 億美元,預計2026 年下半年開始部署,長期可能需要數百萬顆晶片。
對輝達來說,這很可能意味著未來OpenAI 新增推理算力中相當一部分不再使用 GPU,而是直接走自研 XPU。
輝達的應對方案包括,通過 NVLink Fusion 打開自己的 GPU 互聯協議,讓 Intel、Qualcomm、AWS 等自研 CPU/加速卡製造商都可以與其 GPU 組成統一系統,相當於把對手“吸到自己平台裡”,從而降低被完全替代的風險。
4. 供應鏈與產能:真正的天花板在 TSMC 和 HBM
AI GPU 不缺客戶,缺的是,TSMC 的 CoWoS 先進封裝產能,以及Samsung,SK hynix,Micron的HBM高頻寬記憶體。
2025 年輝達拿下了 TSMC CoWoS 產能的大約 50%–60%,估算 2025 年將使用約 63% 的 CoWoS 產能,而即便如此,整體產能仍預計短缺約 20%。
全球 HBM/DRAM 因 AI 伺服器而嚴重短缺,主流廠商已經宣佈將 DRAM 價格上調 30% 左右,有報導稱部分高端記憶體漲幅甚至達到 60%。
這帶來兩層影響,首先短期利多,產能緊張抬高了單機價格和議價權,輝達可以“挑項目做”,優先供貨給利潤率更高、戰略地位更重要的客戶。其次中期存在風險,如果瓶頸長期得不到緩解,客戶會被迫加快自研晶片或轉向更省 HBM 的專用方案,反而削弱輝達在下一輪周期中的話語權。
5. “AI 泡沫”與大資本的撤退:訊號遠大於短期財務影響
(1)孫正義與軟銀:賣掉 58.3 億美元輝達,去 All in OpenAI
軟銀在 2025 年 11 月賣掉了全部輝達持股,套現約 58.3 億美元,孫正義本人坦言“賣的時候在哭”,但需要現金去支援對 OpenAI 的巨額投資計畫,目標達到400億美元以上。(2)彼得·蒂爾:Thiel Macro 基金清倉 1 億美元輝達
2025 年三季度,Thiel Macro 顯示已賣光 53.8 萬股輝達,市值約 1 億美元,直接把“AI 泡沫”擔憂推上頭條。(3)宏觀層面的“泡沫討論”
英國央行、IMF、世界經濟論壇等機構,都在最新報告裡單獨點名 AI 相關資產估值偏高,AI、加密貨幣和高債務一起被稱為“可能的三重泡沫”。
對輝達而言,最現實的風險不是“收入突然消失”,而是:
輝達管理層最近在業績會上反覆強調:公司現金流真實、訂單可見,認為這不是泡沫而是長期技術轉型。
1. OpenAI:從 1 億美元股權,到最高 1000 億美元 AI 工廠合作
2024 年,輝達參與了 OpenAI 一輪 66 億美元融資,自己投了約 1 億美元,算是早期少數股東。2025 年 9 月,兩家公司簽署 意向性協議(LOI):
輝達擬最多 投入 1000 億美元 支援 OpenAI 部署至少 10GW 的 AI 資料中心,
OpenAI 則承諾用輝達系統填滿這些算力工廠。
這實際上是一種 “供應商 + 產業基金 + 長期供貨合同” 的混合模式:從會計上看,更像是一種帶條件的“供應鏈金融或者供應商融資”,而不是純粹燒錢。分析師估算,10GW 的資料中心大約對應 數百萬塊 GPU,市值遠超輝達自身“股權投資”的帳面金額。輝達不是單純往 OpenAI 砸錢,而是用資本鎖定未來多年的硬體訂單,把最優質的算力需求“預售”給自己。
2. Anthropic:打造 OpenAI 之外的“第二根支柱”
2025 年 11 月,Anthropic 宣佈與微軟和輝達達成合作:
這裡的邏輯和 OpenAI 類似,輝達用股權和協同開發換取 長期鎖定的大額算力需求,同時避免把雞蛋全放在 OpenAI 一個籃子裡,形成“兩根主柱 + 一圈小模型公司”的客戶結構。
3. Intel、Nokia、Samsung:拉長產業鏈,減輕監管與產能風險
(1)向 Intel 投資 50 億美元:把對手變成“代工+CPU 夥伴”
2025 年 9 月,輝達宣佈以約 50 億美元購入 Intel 普通股,持股約 4%–5%,並與其共同開發多代資料中心與 PC 產品,Intel 將提供代工和 CPU,輝達負責 GPU 和 NVLink。
這筆投資的意義在於:
(2)向 Nokia 投資 10 億美元:押注 6G 和 AI-RAN
2025 年 10 月,Nokia 宣佈輝達出資約 10 億美元 獲取其約 3% 股權,雙方共同打造基於 GPU 的 AI-RAN / 雲化 RAN 平台,計畫從 2026 年試點,到 2027 年開始規模商用,為 6G 做準備。
這讓輝達的 GPU 不只跑 LLM,也跑 電信網路和 6G 基站的智能調度,打開一個長期、穩定的 B 端算力需求源。
(3)與三星深度合作:從 HBM 供應到“AI 工廠”共建
三星和輝達在 2025 年宣佈建立更緊密的 AI 聯盟:
本質上,輝達是在用訂單和合作 “繫結”上游關鍵供應商,確保自己在 HBM 和先進工藝上的優先權,緩解前文提到的供應鏈約束。
4. Synopsys 與 EDA:把“設計工具”也拉進自己的算力圈
2025 年 12 月,輝達宣佈以每股 414.79 美元的價格向 Synopsys 投入 20 億美元,雙方將聯合開發基於輝達加速計算的 EDA 與模擬工具,用於晶片、汽車、航空航天、工業和能源等領域。這意味著:
換句話說,即便未來競爭對手設計出更強的新晶片,設計過程本身也有可能貢獻一大筆輝達算力收入。
5. NVentures:從 AI 基礎設施到能源、量子的一整套“外圍押注”
輝達並不只有幾筆大額“明星交易”,還有一個非常活躍的企業風投平台 NVentures。2020–2025 年間,外部統計顯示輝達(含NVentures)已對 200+ 家初創公司 進行了約 170–250 筆投資,金額累計超過 500 億美元,2025 年單年就參與了 50+ 筆AI相關融資,覆蓋模型、雲基礎設施、機器人、核聚變、電池回收等。典型項目包括:
可以把這一串投資理解為,輝達“把 AI 時代可能卡脖子的地方——算力、能源、材料、量子——全都提前買一點籌碼。一旦某個方向真的成為瓶頸,輝達既是大客戶,也至少是小股東。
輝達未來 3–5 年的戰略,似乎簡化成一句話:以 GPU系統為核心商業引擎,用軟體把生態鎖死,再用資本撬動需求與供應鏈。
1. 硬體:從單卡到整廠的完整產品譜系
2. 軟體與平台:真正難複製的是 CUDA + 開發者生態
輝達在 AI 軟體層面已經形成一個相當厚的“技術黏層”:
即便硬體在某些場景被替代,只要開發者還在“用 CUDA 思維寫程式碼”,輝達就仍然掌握著標準制定權。
3. 資本:用股權鎖訂單,用投資避險泡沫風險
輝達的資本策略可以拆成三層:
(1)核心客戶繫結
對 OpenAI、Anthropic 等大模型公司進行巨額“算力 + 股權”繫結,確保即使競爭對手晶片更便宜,這些公司也很難完全轉移訂單。
(2)上下游穩鏈
向 Intel、Nokia、Synopsys、三星等關鍵環節出手投資,既減輕政策與產能風險,又讓生態更願意圍繞輝達最佳化產品。
(3)外圍避險:
借 NVentures 在能源、量子、機器人、工業軟體等方向廣撒網,使自己在“算力經濟”的每個潛在高價值環節都佔有一席之地。
從“AI 泡沫”的視角看,這既是風險,也是安全墊,如果行業真的進入“過度建設”,輝達短期收入仍然可觀,但部分股權投資可能回撤。如果行業最終跑出足夠多盈利模型,這一串股權投資將變成 “放大器”,使其在算力之外多一層收益來源。
財報層面,輝達已經是一家高度集中於資料中心 AI 的公司,過去一年單季收入衝到 570 億美元,資料中心貢獻接近9成,短期增長主要取決於產能,而非需求。
競爭層面,它在訓練市場仍近乎壟斷,但國產晶片、自研 TPU/Trainium、AMD/高通/博通的多線進攻,正在一點點蠶食其在推理和部分場景的必然性。
生態投資層面,通過向 OpenAI、Anthropic、Intel、Nokia、三星、Synopsys 以及大量初創公司投資,輝達正在打造一個“硬體 + 軟體 + 平台 + 能源”的全端 AI 生態,把算力需求和供應鏈都鎖在自己半徑之內。
戰略層面,它的“盔甲”是完整的產品組合和開發者生態,“軟肋”則是地緣政治、供應鏈瓶頸和可能出現的估值泡沫。
如果把輝達視作AI 時代的“台積電 + 微軟 + 波克夏” 的混合體——
輝達目前正處於權力的巔峰,它不僅是一家硬體公司,更成了AI時代的“基礎設施”。這場戰爭,不僅關乎算力,更關乎對未來科技定義權的爭奪。那接下來幾年最關鍵的問題就變成:這個“算力帝國”的外延,是繼續向外擴張,還是在某個時點,被現實的成本與應用落地速度“反向箝制”?
這,正是未來 3–5 年所有人都在觀察的主線。 (AI Xploring)