輝達還能漲多久?輝達的“護城河”真有那麼深嗎?

在這個“萬物皆AI”的時代,你是否也曾心動於輝達那令人咋舌的市值增長?作為一名長期關注人工智慧技術(AI)的軟體工程師,我曾無數次被輝達的“神話”所震撼。

但越是深入技術一線,越是清楚一件事:技術的狂熱之下,往往潛藏著理性該提出的問題。輝達,真的還能一路狂飆嗎?

當然,這兩天,在Trump的關稅鐵拳下,全球股市一片“綠”,NVIDA也未能倖免,4月7號,最低點為$87.47,跌幅超7%,今天8號,又強勢上漲到$105.33,漲幅超7%。

最近讀到一篇由 Jeffrey Emanuel 撰寫的文章《The Short Case for Nvidia Stock》,讓我對輝達的未來估值有了更多冷靜的思考。

Emanuel 結合自己在避險基金的投資分析經驗和對深度學習的深入研究,探討了輝達(Nvidia)的當前估值和未來前景。

他回顧了市場對輝達的樂觀預期,認為深度學習和人工智慧是自網際網路以來最具變革性的技術,輝達在訓練和推理基礎設施方面幾乎處於壟斷地位。

然而,他也指出了一些可能影響輝達未來增長的因素,包括:

  • 硬體層面的競爭:新興公司如 Cerebras 和 Groq 開發了創新的晶片架構,可能挑戰輝達在資料中心的主導地位。
  • 客戶自研晶片:大型科技公司如Google、亞馬遜、微軟等正在開發自己的定製晶片,可能減少對輝達產品的依賴。
  • 軟體生態的變化:新的軟體框架和驅動程式的出現,可能削弱輝達 CUDA 的主導地位,降低客戶的轉換成本。
  • 訓練和推理效率的提升:如 DeepSeek 等公司在模型訓練和推理效率方面取得了重大突破,可能減少對高性能 GPU 的需求。

Emanuel 總結認為,儘管輝達在人工智慧領域佔據主導地位,但上述因素可能對其未來的增長和利潤率構成挑戰,投資者應謹慎評估當前的高估值。

這篇文章並非否定 NVIDIA 的技術實力或市場地位,而是從市場和投資的角度,提出了一些值得我們這些身處行業內的技術人員思考的觀點,結合我的工程師視角,想與你聊聊我從這篇文章中提煉出的幾個核心觀點。

一、為什麼市場看好輝達?

我們都知道,AI大模型離不開算力,而輝達在GPU領域幾乎形成了壟斷。它既掌握了硬體製造的王座(H100, A100等資料中心等級GPU),又牢牢繫結了軟體生態的護城河(CUDA 程式設計框架幾乎是AI研究和部署的“作業系統”)。

市場認為,在AI成為網際網路以來最重要的技術革新的當下,輝達是“賣鏟人”中的最強者。只要AI持續發展,輝達就穩如磐石。但真的是這樣嗎?

二、輝達:不只是硬體巨頭,更是AI“基礎設施”

1. GPU霸權的形成:不僅僅是算力強

輝達的成功,不只是因為它的GPU計算能力出色,還因為它從早期就意識到軟體生態的重要性

  • CUDA:自2006年發佈以來,一直是AI工程師與研究人員使用GPU的主要介面,涵蓋了底層程式設計庫(cuBLAS, cuDNN)到上層框架(TensorRT, Triton)。
  • 深度學習框架的適配優先順序:PyTorch 和 TensorFlow 的許多新特性和最佳化,首先落地的就是 Nvidia 平台。

這種軟硬一體化戰略,形成了令人敬畏的“技術鎖定效應”:模型訓練、部署、最佳化——每一步幾乎都繞不開Nvidia。

2. 市場地位:AI晶片中的“台積電 + NVIDIA”

  • 輝達在AI訓練市場的份額接近90%
  • 資料中心產品(如A100、H100)營收已成為公司核心,佔比超60%
  • 它已經是美國市值排名前三的公司,躋身“科技巨頭”俱樂部。

在這種情況下,市場自然給予了極高的溢價。但問題也隨之而來。

三、“不可撼動”的輝達,真的沒有威脅?

Emanuel 的文章提出了幾個值得警惕的趨勢,從技術角度看,這些擔憂非常有邏輯:

1. 晶片創新者正在挑戰輝達的地位

新創公司如 Cerebras、Groq 正在用完全不同的架構來建構AI晶片。

他們不是傳統意義上的“GPU加強版”,而是從底層硬體出發,針對AI任務做極致最佳化,推理效率甚至能領先幾倍。

這意味著,“買GPU等於買Nvidia”這個等式,可能不再成立。

2. 科技巨頭開始造自己的“鏟子”

Google有TPU,亞馬遜有Trainium和Inferentia,微軟最近也推出了自研晶片Maia。這些客戶從“買GPU”變成“自己造GPU”,不僅壓縮了輝達的市場,也意味著依賴正在被打破。

這就像 AWS 不再用 Oracle 資料庫,而是自己搞 Aurora。結果你知道的。

3. CUDA 生態的統治力在被削弱

CUDA 雖強,但 AI 研究界和開源社區早已不再死死繫結它。新一代框架如 PyTorch XLA、OpenXLA、HuggingFace Optimum 正在推動相容更多硬體後端。

而一旦生態變得“去Nvidia化”,GPU 換芯將不再痛苦,客戶切換的門檻就下降了。

4. 效率革命將減少對“重型GPU”的需求

像 DeepSeek、Mistral、OpenHermes 等新模型團隊正在不斷提高推理效率,用更少的參數做到更強的能力。

未來的模型或許不再需要那麼多H100,也可能跑在更加輕量、便宜的晶片上。

四、冷靜視角:為什麼現在要重新審視輝達的護城河?

結合我的技術理解,我們可以從硬體、軟體、需求結構、行業趨勢四個方面展開:

1. 硬體替代威脅加劇:新興晶片架構來了

過去幾年,AI晶片領域出現了大量垂直整合型創業公司,例如:

這些晶片的一個共同點是:不再遵循通用GPU的架構,而是直接面向AI workload 定製化最佳化。

雖然短期內它們還無法威脅 Nvidia 的大客戶份額,但隨著模型從“訓練一次、推理萬次”向“即時微調、A/B測試”遷移,低延遲、高吞吐的AI專用晶片將越來越重要

2. 大客戶“去依賴化”:科技巨頭的自研潮

Google TPU 是先行者,但這幾年真正爆發的是 AWS 和微軟的進展:

  • AWS Trainium / Inferentia:完全相容 PyTorch + TensorFlow,未來將與HuggingFace深度整合。
  • 微軟 Maia / Cobalt:部署在Azure內部用於運行Bing Chat 和 Copilot,將逐步減少對H100採購的依賴。
  • Meta Training Accelerator:已組建上百人硬體團隊,目標就是對抗Nvidia。

這類“去輝達化”的趨勢,將逐漸改變其營收結構。以AWS為例,它過去每年可能向Nvidia採購幾十億美元的GPU,但未來可能轉為自研+合作。

3. CUDA 優勢正被中和:軟體框架正在變得“平台中立”

CUDA 是Nvidia的一把利刃,但也是雙刃劍。
為了突破這種“生態繫結”,開源社區和跨平台廠商正在全力推動 硬體抽象層(HAL) 和 中間表示(IR)標準

  • MLIR / OpenXLA:Google 提出的多後端編譯基礎,支援多種晶片(TPU、AMD ROCm、Intel Xe等)。
  • PyTorch 2.0 的 TorchDynamo / TorchInductor:可以將程式碼編譯為 Triton IR,不再依賴 CUDA 核心。
  • HuggingFace Optimum:可將Transformer模型最佳化成 ONNX / TensorRT / XLA 可執行程式碼,平台可切換。

也就是說,未來的開發者可能寫一次程式碼,就能部署到非輝達平台。

4. AI成本結構的變化:模型參數不再無限膨脹

2023年之前,模型的成功幾乎繫結在“大=好”這個公式上。但現在:

  • Efficient Models 正在興起:如Mistral-7B、DeepSeek-V2、Phi-2 等模型參數量小但性能極強。
  • 推理需求下沉:越來越多企業希望在邊緣端、終端裝置部署AI模型,不再需要堆疊H100的算力怪獸。
  • 訓練次數 vs 推理頻率失衡:很多模型訓練一次、推理億次,這將提高對高性價比推理晶片的需求。

這將壓縮對輝達“高毛利、高溢價GPU”依賴的廣度與深度。

五、從投資熱潮到理性思考:技術人也要問一個問題

輝達現在的估值已經高度反映了市場對AI前景的樂觀——但一家公司是否值得如此溢價,還要看它能否持續維持自己的技術與商業護城河。

作為一個軟體工程師,我更關心這些基礎設施是否還能持續提供獨佔價值。如果不是,晶片只是另一個容易被替代的計算資源。

AI浪潮當然還會繼續,但“賣鏟人”是否永遠是輝達,也許我們應該保留一點技術冷靜和商業理性。 (星星AI派對)


最近長文
關於鉅亨號
「鉅亨號」是《Anue鉅亨網》以AI 大數據和推薦引擎所推出具影響力的自媒體社群平台,從投資理財為主題擴展到金融財經、房地產、汽車、數位虛擬貨幣、影音視頻及Podcast的數位生活圈。讀者可透過一面牆及個人化功能關注一天的大小事;對創作者而言更是一個直接能與1,000萬用戶互動的舞台。
最好用的投資平台,幫你找到最適合自己的標的
看真實的投資分享文章,跟隨達人腳步取得最佳利益
多元投資社群平台,掌握最新市場動態熱門議題