#輝達晶片
輝達,築起新高牆
日前,輝達一下子解密了六顆晶片,引起了全球轟動。但其實早在去年年底,就有一則重磅消息在AI晶片圈炸響:推理晶片初創公司 Groq 宣佈,已與輝達達成一項“非獨家許可協議”。公告只有寥寥數語,但隨之而來的資訊卻迅速改變了這筆交易的份量——Groq 創始人兼 CEO Jonathan Ross、總裁 Sunny Madra 以及多名核心成員,將一併加入輝達,參與授權技術的推進與規模化。如果只看形式,這並不是一次收購;如果只看結果,它卻幾乎具備了收購的全部要素。技術被許可,團隊被吸納,關鍵人物離場,Groq 雖然名義上繼續營運,但其最具決定性的資產——技術路線與靈魂人物——已然轉移。這是一種典型的“收購式招聘”,也是輝達近年來愈發嫻熟的一種操作方式:在不觸碰監管紅線的前提下,把潛在威脅納入自己的體系之中。更重要的是,這一步發生在一個極其敏感的時間點。AI 晶片的競爭,正在從“訓練為王”轉向“推理決勝”。輝達的 GPU 依舊牢牢統治著訓練市場,但在推理端,AMD、定製 ASIC、雲廠商自研晶片正在快速逼近,成本與供應鏈多元化成為大客戶最現實的訴求。Groq 的 LPU 正是為推理而生,主打極致低延遲和性能確定性,其創始人 Jonathan Ross 更被視為Google TPU 背後的關鍵推手——這不是一家可以被忽視的公司。因此,與其說輝達“買”下了 Groq,不如說它在競爭真正白熱化之前,提前拆掉了一段可能威脅自身根基的城梯。回看歷史,從 Mellanox 到未遂的 Arm,再到今天的 Groq,輝達並非只是在擴張版圖,而是在一磚一瓦地加高自己的防禦體系。輝達在乎的,似乎已不再是某一筆交易的得失,而是如何在訓練、推理、網路、軟體與生態的多條戰線上,同時構築起一道幾乎無法繞開的“城牆”。算力,並不是焦慮根源輝達與 Groq 達成交易,這件事本身的重要性,並不在於它是否會推出一款“非 GPU 的 AI 晶片”,而在於它暴露了輝達真正的焦慮來源。今天的輝達,幾乎已經在訓練算力層面取得了事實上的統治地位,但 AI 產業的重心正在悄然移動——從“誰能堆更多 FLOPS”,轉向“誰能更高效、更確定性地交付推理結果”。Groq 的價值並不在算力規模,而在系統哲學。它強調確定性延遲、強調編譯器對執行路徑的絕對控制、強調“推理不是硬體問題,而是系統問題”。這套思路,與 GPU 世界中長期存在的動態調度、非確定性執行形成鮮明對比。Groq 的創始人 Jonathan Ross 是 Google 第一代 TPU 的首席架構師。他在 2016 年離開 Google 後,試圖打造一個比 TPU 更快、更可控的“通用 AI 處理器”。Groq 的核心技術是自研的 LPU(Language Processing Unit)架構,這種架構拋棄了傳統的亂序執行和動態調度機制,採用靜態調度、資料路徑固定、執行流程可預測的“確定性設計”(deterministic design)。晶片內部採用 SRAM 技術,而非輝達 GPU 依賴的片外 HBM 視訊記憶體,這讓 Groq 在某些場景下實現了極致的低延遲。Groq 最初也曾試圖進入訓練市場,但很快發現這是一條死路:訓練市場的競爭邏輯是“大生態+大資本+大客戶”。Groq 的架構對主流 AI 框架(如 PyTorch、TensorFlow)的相容性有限,也缺乏成熟的編譯工具鏈,使得訓練任務的遷移成本極高。從 2023 年下半年開始,Groq 明確轉向推理即服務(Inference-as-a-Service)方向。2024 年,Groq 展示了其系統運行 Llama 2-70B 模型時,實現每秒超過 300 個 Token 的生成速度,遠超主流 GPU 系統。這一優勢讓 Groq 迅速吸引到一批對延遲敏感的垂直行業使用者,如金融交易系統、軍事資訊處理、語音/視訊同步字幕生成。Groq 將產品定位從“AI 晶片”擴展為“AI 處理平台”,通過 GroqCloud 平台向開發者提供 API 存取權,與 LangChain、LlamaIndex 等生態整合。正是這種“異類”,恰恰點中了輝達的軟肋。隨著大模型進入規模化落地階段,越來越多客戶開始關心延遲、能效、TCO 和系統複雜度,而不再只是顯示卡型號。推理正在走向碎片化:雲廠商自研 ASIC(AWS 的 Trainium 和 Inferentia、Google TPU、Microsoft Maia)、CPU+加速器混合部署、邊緣側異構系統層出不窮。如果輝達只停留在“賣最強 GPU”,它在推理端的話語權,遲早會被系統層慢慢侵蝕。對於輝達和黃仁勳而言,Groq 的意義並不是“補一塊晶片”,而是補一塊輝達尚未完全掌控的系統能力:對執行路徑的強約束、對延遲的可預測性、以及編譯器主導的算力使用方式。換句話說,如果說 GPU 是輝達的地基,那麼 Groq 代表的,是它試圖插入系統頂層的一根“控制梁”。對“叢集控制權”的長期執念而在與Groq達成交易之前,輝達其實早已悄然埋下了一條新的主線。很多人習慣從作業系統的角度理解算力生態,認為誰控制了 Linux 發行版、誰控制了核心,誰就掌握了計算世界的話語權。但在 AI 時代,這種邏輯已經開始失效。輝達對此看得非常清楚:真正重要的,不是節點上的作業系統,而是節點之上的叢集控制方式。這正是輝達在 2022 年 1 月收購 Bright Computing 的根本原因。當時這筆交易的金額未公開,但 Bright Computing 已完成兩輪融資,共籌集 1650 萬美元,其叢集管理工具 BCM 在全球擁有超過 700 家使用者。Bright Cluster Manager 並不是一個時髦的新工具,它誕生於傳統 HPC 世界,最初用於管理高度複雜、對穩定性和可預測性要求極高的超級計算系統。正因為如此,它並不追逐某一種特定技術潮流,而是長期圍繞“如何在大規模叢集中統一部署、監控、修復和調度”這個核心問題演進。BCM 最初是為管理傳統高性能計算(HPC)系統而設計的,但多年來,為了將其打造成為一款通用叢集控製器,BCM 也進行了適配,以支援 Hadoop、Spark、OpenStack、Kubernetes 和 VMware ESX 等對控制要求極高的分佈式系統。在被輝達收購併更名為 Base Command Manager 之後,這套工具被完整納入 AI Enterprise 軟體堆疊,成為輝達 AI 系統的“底層控制平面”。通過許可證模式,輝達不再只是交付硬體,而是開始按 GPU、按年份出售“系統能力”——AI Enterprise 許可證包含輝達捆綁並支援在其 GPU 加速系統上的庫、框架和其他工具,每個 GPU 每年的費用為 4500 美元。這一步的意義極其關鍵:它意味著輝達正式把“叢集管理”變成了自己的商業資產,而不是留給客戶或第三方去解決。輝達還設定了一個精妙的商業策略:對於每個節點包含 8 個 GPU 以內的叢集,提供免費的 BCM 許可證,但不提供任何技術支援,且“隨時可能被撤銷”。這意味著企業如果想要穩定的生產環境,就必須購買 AI Enterprise 許可證。免費版本不是慷慨,而是一種“試用即繫結”的策略。更重要的是,Base Command Manager 並不是孤立存在的。在其之上,輝達疊加了 Mission Control,用於自動部署所謂的“AI 工廠”:框架、工具、模型、容器運行環境、健康檢查和功耗最佳化一體化。Mission Control 包含 Run:ai 實現的 Kubernetes,用於編排容器;還包含 Docker,用於在容器內運行計算;此外,它還可以虛擬化 GPU,以提供更精細的計算粒度。Mission Control 會對系統進行健康檢查,並根據系統上運行的工作負載最佳化功耗。這套體系的目標並不是讓客戶擁有更多選擇,而是讓客戶在默認情況下就運行在輝達定義的最優路徑上。當然,這裡繞不開輝達在2024年對Run.ai的收購,Run.ai的核心價值不是又一個Kubernetes外掛,而是實現了GPU資源的抽象化管理:多租戶、彈性調度、優先順序控制、GPU虛擬化。在Run.ai的系統中,一個物理GPU可以被切分成多個虛擬實例,讓不同使用者、不同任務按需使用,同時保證隔離性和性能。為什麼輝達提前拿下了 Run:ai?因為調度權如果不在自己手裡,CUDA 生態的優勢就會被“平台化”稀釋。雲廠商可以通過調度層,讓客戶感知不到底層是誰的 GPU,甚至可以在調度中插入自研晶片作為替代選項。但就高性能計算(HPC)和人工智慧(AI)工作負載的裸機工作負載管理而言,輝達仍然需要一款工具。事實證明,BCM 正是執行這些健康檢查的工具,而解決問題的操作則通過 Slurm 工作負載管理器完成。輝達並沒有強行要求所有客戶拋棄既有體系,而是非常務實地接受了一個現實:在大量從 HPC 演進而來的 AI 叢集中,Slurm 依然是事實標準。許多高性能計算和人工智慧機構不想學習新東西——比如 Run:ai——而是想繼續使用 Slurm。對於那些最初以高性能計算中心起家的混合型人工智慧/高性能計算中心來說,這種情況可能尤為突出。這就為下一步的關鍵收購埋下了伏筆。開源不是放棄控制2025 年 12 月,輝達補上了這道牆的最後一塊磚:收購了 SchedMD,獲得了 Slurm 工作負載管理器背後的核心團隊和技術支援權。Slurm 項目始於 2001 年,由勞倫斯·利弗莫爾國家實驗室、Linux Network(已被 SGI 收購)、惠普以及 Groupe Bull(已被 Atos 收購併成立 Eviden)合作開發。據稱,Slurm 的設計靈感來源於超級電腦互連裝置製造商 Quadrics 開發的 RMS 叢集檔案總管。2010 年,該項目的兩位創始人 Morris Jette 和 Danny Auble 創立了 SchedMD,旨在為 Slurm 提供技術支援,從而為工作負載管理器的進一步開發提供資金。Slurm 最重要的優勢在於,過去十年中,在 Top500 超級電腦排行榜上出現的電腦中,約有 60% 使用 Slurm 作為其工作負載管理器,而不是 IBM/Platform Computing 的負載共享工具(LSF)、Altair 的可攜式批處理系統(PBS)、Adaptive Computing 的 Maui 和 Moab 以及 Sun/Univa Grid Engine。所有這些工作負載管理器/作業調度器都會將一組具有特定計算能力需求的工作負載進行“俄羅斯方塊”式的調度,最終使它們按照既定的優先順序順序高效運行。Slurm 過去十多年裡成為超級計算領域的事實標準,並不是因為它最激進,而是因為它足夠穩定、足夠中立,也足夠適配不斷變化的硬體環境。SchedMD 已向全球數百家 HPC 中心、雲建構商、超大規模資料中心和企業銷售了 Slurm 工作負載管理器的支援服務。過去十年,輝達和 SchedMD 一直在合作開發 Slurm。在輝達收購 Bright Computing 之前,BCM 支援不同的工作負載管理器,但隨著 Slurm 逐漸成為高性能計算中心乃至人工智慧領域工作負載管理的實際標準,它被選為 Bright Cluster Manager 的默認工作負載管理器,並在過去幾年中一直是輝達 Base Command Manager 的默認工作負載管理器。對輝達而言,真正危險的並不是 Slurm 開源,而是如果 Slurm 的演進方向、支援能力和企業級整合權掌握在自己控制之外,那麼整個 Base Command Manager 和 Mission Control 體系,都會留下一個無法掌控的“底座”。通過收購 SchedMD,輝達並沒有否定 Slurm 的開源屬性,反而在公開表態中反覆強調其“廠商中立性”。輝達表示,它將“繼續開發和分發 Slurm,使其成為開源、廠商中立的軟體,使其在各種硬體和軟體環境下都能被更廣泛的 HPC 和 AI 社區廣泛使用和支援”。但需要看清的是:開源並不等於沒有權力結構。誰來維護主幹程式碼、誰來提供企業級支援、誰來決定新特性的優先順序,這些問題,比許可證本身重要得多。輝達已同意為 SchedMD 的現有客戶提供支援,據推測,他們將通過聘用 SchedMD 的員工來實現這一點。但即便 Slurm 開源,也不意味著輝達會為開源版本的程式碼提供支援,或者將 Slurm 的所有未來功能都開源。輝達擁有大量專有驅動程式、框架和演算法,這個模式很可能會延續到 Slurm 身上。輝達顯然希望做到兩點:一方面,保持 Slurm 在 CPU、非輝達加速器等環境中的廣泛適用性,避免引發社區反彈;另一方面,把 Slurm 的商業支援、系統整合和 AI 方向演進,與自己的 AI Enterprise 體系深度繫結。這是一種極其典型的“高階控制”:不通過封閉程式碼來壟斷,而通過系統複雜度和服務整合來設立門檻。目前尚不清楚的是,Run:ai 和 Slurm 的功能將如何與 Base Command Manager 整合,從而為高性能計算(HPC)和人工智慧(AI)叢集提供一個自上而下的叢集和工作負載管理工具——而且不僅限於 AI 叢集,還要考慮到許多叢集中可能存在一些僅使用 CPU 的機器以及非輝達加速器。如果輝達試圖以任何方式限制它,其他人可以獲取 Slurm 程式碼(該程式碼以 GNU GPL v2.0 許可證提供),進行 fork 並繼續開發。但現實是,fork 程式碼容易,建立支援能力難。當所有人都在用同一套開源工具,但只有輝達能提供最優的整合方案時,開源本身就成了輝達生態的擴展。2024 年 10 月,輝達停止單獨銷售 Bright Cluster Manager,而僅將其作為 AI Enterprise Stack 的一部分提供。目前尚不清楚 AI Enterprise 的價格是高於還是低於之前單獨購買 Bright Cluster Manager 的許可,也不清楚有多少客戶曾在純 CPU 系統或其他類型的加速器上使用過這款早期工具。但這個動作的訊號意義很明確:輝達正在把所有系統元件打包成一個不可分割的整體。也正是在這裡,Run:ai、Slurm 和 Base Command Manager 的關係變得微妙而關鍵。前者代表雲原生和容器化世界,後者代表 HPC 傳統,而輝達的目標,是讓這兩套體系在自己的框架內完成融合,而不是彼此競爭。新的城牆,已經成型把Groq、Bright Computing、Run:ai 和 SchedMD 放在同一條時間線上看,輝達近幾年的收購邏輯就變得異常清晰:它正在系統性地收回 AI 計算體系中的“非硬體控制權”。GPU 仍然是輝達最鋒利的武器,但已經不再是唯一的壁壘。真正的新城牆,建立在三個層面之上:第一層:對叢集資源的調度權。從 Mellanox 的網路互聯技術,到 Bright Computing 的叢集管理,再到 SchedMD 的工作負載調度,輝達控制了算力如何連接、如何分配、如何排隊執行的完整鏈條。這不是簡單的硬體整合,而是把網路從“外設”變成了“AI 系統的一部分”。第二層:對工作負載執行路徑的定義權。Run:ai 提供的 GPU 虛擬化和資源抽象,Mission Control 提供的自動化部署和健康檢查,Slurm 提供的作業調度——這些工具共同定義了“任務應該怎麼跑、跑在那裡、用多少資源”。當執行路徑被輝達定義時,即使客戶理論上可以使用其他硬體,在實踐中也會發現遷移成本高得難以承受。第三層:對企業級支援與系統複雜度的掌控權。輝達通過 AI Enterprise 許可證模式,把所有這些工具打包成一個商業服務。客戶購買的不是單個元件,而是一整套“系統整合能力”。開放原始碼可以 fork,但企業級支援、最佳化經驗、最佳實踐,都掌握在輝達手中。一旦這三層疊加完成,客戶即便理論上“可以選擇別的硬體”,在實踐中也會發現遷移成本高得難以承受。從賣晶片到賣生態,輝達的商業模式已經發生質變。過去的輝達,GPU 是產品,賣出去就完成了交易。現在的輝達,GPU 是生態入口,是使用者進入輝達系統的第一步。收購的真實邏輯不是規模併購,而是精準補洞:在 AI 計算的完整鏈條中,那一環還沒有被控制?這也是為什麼說,輝達正在建構的已經不是傳統意義上的護城河,而是一座生態城牆。它不靠封鎖入口,而是通過系統整合,讓離開變得不再理性。在 AI 進入基礎設施階段之後,這種能力,或許比任何一代 GPU,都更加持久。從 Groq 到 SchedMD,從推理架構到工作負載管理,從硬體到系統,輝達用幾年時間完成了一次商業史上罕見的“生態圍城”。這座城牆的高度,已經不是用技術指標可以衡量的,而是用遷移成本、學習曲線、生態粘性來定義的。當所有人還在討論“誰能挑戰輝達的 GPU”時,輝達已經在思考:如何讓“挑戰”這件事本身變得不再可能。 (半導體行業觀察)
繼DeepSeek之後,中國AI新突破或再次震動華爾街
中國的AI技術基礎正在不斷進步,這一點不容忽視。中國正為輝達等美國晶片巨頭帶來新的AI威脅,這可能削弱市場對華爾街最大增長引擎的信心,就像一年前DeepSeek聊天機器人發佈時那樣。據《南華早報》報導,上海和北京高校的科學家們開發出了一款用於人工智慧訓練與推理的光子計算晶片,其性能優於包括輝達生產的傳統矽基晶片。報導稱,這款全新晶片被命名為LightGen,其運算速度和效率都超過了輝達的Blackwell 系列GPU,不過其應用場景更側重於視訊生成和圖像合成,而非更廣泛的AI工作負載。與此同時,Meta正以25億美元收購總部位於新加坡、由中國團隊創辦的人工智慧初創公司Manus,該公司聲稱已研發出全球首個通用AI代理,性能超越OpenAI的深度研究模型(Deep Research)。這兩項進展應引起投資者警惕,他們正在(或許已經有些不耐煩地)等待大型AI相關個股找到下一個增長突破口。過去幾個月,由於市場擔憂資料中心支出增速過快,且資金轉化為利潤的周期超出預期,這些科技巨頭的股價紛紛受挫。目前輝達較10月底觸及的最高點下降了11%,微軟和Meta則下降了約14%。規模較小的超大規模雲服務商股價回撤更為劇烈,甲骨文下跌了43%,而AI雲平台提供商CoreWeave則下跌超過48%。據標普道瓊斯指數資深分析師霍華德·西爾弗布拉特稱,大型科技股的漲幅將在2026年繼續成為標普500整體表現的關鍵支柱,“七巨頭”預計將為該指數預期的15%漲幅貢獻大約45%。其中,兩大AI龍頭股輝達和微軟,將佔據標普500指數預期漲幅的30%左右。如果投資者認為中國近期的技術進步對美國在AI領域的領先地位構成威脅,美股在年初可能會面臨大幅回呼的風險。不過到目前為止,儘管競爭壓力逐步顯現,投資者依然願意支援本土的人工智慧初創企業。據《華爾街日報》報導,OpenAI計畫在春季前再融資1000億美元,這將使其估值達到8300億美元。Deepwater資產管理公司的基恩·芒斯特(Gene Munster)表示,這意味著OpenAI的估值將是其2026年約350億美元預估銷售額中值的24倍左右。但問題依然存在。無論是AI公司還是美國聯邦政府,都還沒有準備好切斷對中國的關鍵元件供應。去年12月,美國總統川普批准輝達向中國客戶出售其高性能H200處理器——前提是輝達需向美國政府支付25%的營收分成。川普在Truth Social平台上發文稱:“我們將保障國家安全,創造美國就業崗位,並保持美國在AI領域的領先地位。輝達的美國客戶已經在積極採用其極為先進的Blackwell晶片,不久後還將採用Rubin晶片,這兩款產品都不在此次協議範圍內。”不過,中國尚未發放允許輝達銷售H200的許可,同時有報導稱,中國監管部門正推動本土製造的處理器,而非來自美國的產品。這讓外界感覺中國對自身在AI技術領域取得的進展充滿信心。中國最大的人工智慧企業之一DeepSeek去年1月發佈R1產品時,曾引發投資者恐慌,導致輝達股價暴跌17%,納斯達克綜合指數也下跌3%。LightGen晶片的出現目前尚未構成同等重大的擔憂。但值得注意的是,DeepSeek-R1的官方發佈時間是2025年1月20日,而市場的反應整整推遲了七天才到來。而且在年末最後幾個交易日,AI相關股票依舊表現不佳,原因包括資料中心的資本支出和實體經濟企業對新技術的接受度不高。因此,中國在AI領域的最新進展不容忽視。 (Barrons巴倫)
輝達對“晶片指數”罕見折價13%:伯恩斯坦稱處於10年“第一百分位”
一、“折價13%”到底在比什麼:相對估值的含義先把可以被核實的數字攤開。伯恩斯坦分析師 Stacy Rasgon 在最新研報中指出,按遠期市盈率(forward P/E)計算,輝達當前相對費城半導體指數(PHLX Semiconductor Index,簡稱 SOX)大約有 13% 的折價,而且這一相對估值水平落在過去 10 年的第 1 百分位——也就是說,在過去十年裡,只有 13 個交易日 輝達相對 SOX 比現在更“便宜”。這裡有兩個關鍵點:比的不是“絕對估值”,而是 輝達的估值 / SOX 整體的估值;用的是“遠期市盈率”,即基於未來 12 個月盈利預期的 P/E,而不是歷史 P/E。SOX 是一個覆蓋美國主要半導體公司的指數,成分股包括輝達、AMD、美光、博通等。對很多機構資金而言,“我買 SOX 還是買 NVDA”是一個真實存在的選擇題:如果單買輝達的估值長期比指數貴很多,資金更可能通過買指數來享受整個類股;當龍頭反而相對折價,主動加倉單股的動力就會增加。因此,“13% 折價 + 第一百分位”,傳遞的資訊不是“輝達跌慘了”,而是:在 AI 龍頭這條賽道里,它相對同業的溢價被明顯壓縮了。二、表面不便宜、歷史卻偏低:伯恩斯坦怎麼看“25倍”這件事如果只看絕對數,輝達目前大約 不到 25 倍的 12 個月遠期市盈率,乍一看並不“便宜”——標普 500 指數當前的遠期 P/E 大概在 20 倍上下。伯恩斯坦的說法更精細一些:把輝達過去 10 年的遠期 P/E 做一個分佈,25 倍附近落在第 11 百分位;換句話說,在過去十年,有接近 90% 的時間,這家公司是以 更貴 的估值在交易。這就解釋了一個容易混淆的點:從全市場角度看,25 倍不算白菜價;但從輝達自己的歷史來看,25 倍屬於 “這家公司過去很少這麼便宜” 的區間。伯恩斯坦還補了一句頗具爭議的統計:過去十年裡,只要輝達的遠期 P/E 跌到 25 倍以下,之後一年持有的平均回報超過 150%,而且沒有出現過負收益的樣本。這當然是典型的“回測敘事”:它告訴你歷史上在類似估值買入的結果,但不能保證未來照抄。更謹慎的解讀方式是:當前的估值區間,在這家公司的歷史語境裡,屬於風險回報比相對友好的檔位。三、為什麼會出現“漲了但跑輸”的局面:情緒與預期在變如果只看年初到現在的股價,輝達 2025 年迄今仍然 上漲了約 30% 出頭,但 SOX 指數漲幅超過 40%,輝達實際是 “漲了但跑輸”。同時,自 7 月以來股價基本橫盤,和 2023 年那種單邊上行相比,節奏明顯不同。公開報導和券商評論裡,比較常見的幾類擔憂是:AI 資本開支會不會“見頂”?雲廠商、網際網路大廠在 2023–2024 年大舉投入 GPU 資料中心,外界開始擔心:當第一波基礎設施鋪設接近尾聲,後續預算是否會放緩。競爭與自研晶片的威脅AMD 在資料中心 GPU 上的追趕,以及大型雲廠商自研 AI 加速晶片(如 TPU 等),常被拿來討論“輝達的壁壘到底有多厚”。對華出口與監管的不確定性美國對向中國出口高端 AI 晶片的限制反覆調整,最近又傳出對先進 H200/HX 系列對華銷售啟動審查的新消息;國會裡也有進一步收緊高端 GPU 出口的提案。“AI 投入能不能算得過帳”不少機構開始算帳:花在算力上的每一美元,能不能換回足夠清晰的商業回報?如果下遊客戶的回報率被證明沒有想像中高,上游晶片廠的估值溢價也會被重新評估。這些擔憂不一定都成立,但會直接作用在估值上:當大家對 未來盈利增速 的預期更謹慎,而股價在前兩年已經透支了很多樂觀,最自然的結果就是——股價橫著走,估值慢慢往下修。輝達這次“相對折價+估值分位下探”,本質上就是 “預期降溫” 與 “盈利仍在” 之間的拉扯。四、伯恩斯坦的邏輯鏈:低相對估值為何“往往預示更好回報”回到這份研報本身,伯恩斯坦的邏輯大致可以拆成三層:第一層:當前估值罕見偏低。相對 SOX 折價約 13%,處在 10 年第一百分位;遠期 P/E 不到 25 倍,在自身 10 年歷史裡處在 第 11 百分位。第二層:歷史經驗支援在這個區間買入。在過去十年、類似估值水平下買入輝達,一年後平均回報超過 150%,沒有出現負收益;相對 SOX 折價明顯時,之後的相對回報也往往優於類股。第三層:基本面仍在,折價更多來自情緒與風險溢價。公司剛剛交出創紀錄的季度營收(年化數百億美元),AI 資料中心晶片仍是行業絕對龍頭;2026 年的 Rubin 平台、GTC 大會等被視作潛在催化劑;在他看來,市場現在更像是在給“AI 周期可能放緩”的風險打折,而不是在否定輝達的長期增長軌跡。這是 分析師視角下的邏輯鏈,也有它的邊界:回測樣本只有 10 年,期間輝達從“成長股”一路進化成“平台級龍頭”,未來是否還會複製同樣的斜率,沒人能保證;當前環境裡,多了地緣政治、出口管制、能源與電力供給等新變數,這些在歷史樣本中並不充分;多數機構回測只統計“區間內買入、持有一年”的平均結果,並不能告訴你中途會經歷多大波動。更穩妥的理解方式是:伯恩斯坦在強調“性價比改善”,而不是承諾“必然大漲”。五、真正該盯的三類變數:產品周期、需求強度、政策約束對於關心這家公司但又不想被短期情緒牽著走的讀者,更實用的做法是找一套“觀察框架”,而不是糾結於某一個目標價。結合公開資訊和主流討論,接下來幾件事情值得持續關注(以下屬於基於事實的推理與整理,不構成投資建議):1. 產品與技術周期Rubin 等下一代平台的性能、功耗與軟體生態,會決定輝達在 2026–2027 年的技術領先幅度;GTC 等技術大會上,輝達如何講新的產品路線圖、如何把 GPU、網路、軟體與服務打包,會影響市場對“它到底是一家晶片公司還是基礎設施公司”的認知。2. 需求與客戶預算的持續性大型雲廠商、網際網路公司、AI 創業公司在資料中心算力上的預算強度,會決定 GPU 出貨和價格的天花板;更細一點,可以關注:傳統企業、政府與科研機構是否開始成為新的需求來源,而不是只有“AI 大廠”在買。3. 政策與出口管制的約束美國對向中國等市場出口高端 AI 晶片的審批與限制,仍在不斷調整;一方面有放鬆 H200 等晶片銷售的決定,另一方面也有國會推動更嚴格封堵的聲音;類似騰訊通過日本雲服務使用高端 GPU 的“監管縫隙”案例,也在倒逼政策進一步收緊。這些都會影響輝達在中國乃至全球的需求分佈。這三類變數合在一起,才構成輝達未來兩三年盈利與估值的真正底層——估值只是表盤,產品、需求和政策才是齒輪。 (視界的剖析)
輝達能攔住李廠長嗎?
“最佳銷售”黃仁勳終於看到了冰山消融的可能:就在昨天,美國總統川普通過其社交媒體宣佈,經過與中方的溝通,美國將允許晶片巨頭輝達向中國的“經過批准的客戶”出口其先進的AI晶片H200。川普在文章中提到,此舉將為美國帶來就業和製造業的增強,並提及中方將為此支付25%的額外費用。A輝達CEO黃仁勳曾在10月公開表示,在美國實施嚴格的出口管制之前,輝達的高端AI晶片在中國市場佔據主導地位,市場份額超過95%。從A100到H100,這些晶片是中國各大網際網路公司、科研機構訓練大模型的核心引擎。然而出口管制政策實施後,輝達在華市場份額從95%驟降至接近0%。2025年三季度,其在華AI晶片銷售額佔總營收不足0.1%。崑崙芯等國產廠商開始迅速填補這個空缺。IDC資料顯示,2024年中國自主研發的AI晶片在國內市場的份額已攀升至30%,2025年預計將突破50%。H200獲准進入中國市場的消息,給市場帶來了震動。雖然輝達最新的旗艦產品是基於Blackwell架構的B200系列,但H200依然是一款高性能晶片。它基於成熟的Hopper架構,擁有與旗艦H100相同的989 TFLOPS的FP16/BF16半精度浮點算力,整合了約16896個CUDA核心和528個第四代Tensor Core。其最大的亮點是配備了高達141GB的HBM3e高頻寬記憶體,記憶體頻寬達到驚人的每秒4.8TB,這甚至超過了H100的80GB HBM3記憶體和3.35TB/s的頻寬。對於需要處理兆參數、消耗海量視訊記憶體的大模型訓練任務而言,更大的記憶體容量和頻寬意味著可以容納更大的模型、使用更大的批次進行訓練,從而顯著提升效率。事實上,H200的回歸並非意味著輝達能完全重奪中國市場。第一個難題就是高昂的價格。按照單顆H200售價約4萬美元計算,25%的抽成意味著每顆晶片需要額外支付1萬美元。這使得H200的實際採購成本遠高於此前的H100,也高於國產同類產品。其次是配額限制。銷售僅限於“經批准的客戶”,並由美國商務部進行審查。這意味著大量中小企業和被列入實體清單的機構無法獲得採購資格,而這恰恰是國產晶片的主要市場空間。更重要的是市場分化的趨勢。輝達的優勢在於極致性能和成熟的CUDA生態,這對追求尖端算力的頭部網際網路公司具有吸引力。但在強調安全可控的政務、金融、能源等關鍵領域,國產替代已成為剛性需求,H200難以進入。然而需要強調的是,H200的性能與此前輝達專為中國市場推出的“閹割版”H20形成了鮮明對比。儘管H20擁有看似不錯的96GB視訊記憶體,但其算力被大幅削減至僅148 TFLOPS。據美國智庫進步研究所的報告評估,H200的性能是H20的6倍左右,這使其成為一個完全不同量級的競爭者。這種性能上的巨大落差導致H20在市場上反應平平。騰訊控股總裁劉熾平在財報電話會議上明確表態,公司已儲備足夠的GPU庫存以支撐未來的模型訓練工作,無需採購H20。阿里雲在2026財年第一季度財報中也表示,H20的實際算力表現“無法滿足大模型迭代需求”。當前國產AI晶片主流算力多處於輝達A100階段。比如寒武紀的旗艦產品思元590,明確對標輝達A100;剛剛登陸科創板的摩爾線程,其AI晶片MTT S3000同樣對標A100。少數廠商產品僅接近H100水平,像沐曦計畫2026年下半年才對流片對標H100的產品進行研發,與H200存在明顯代差。H200的回歸還給國內帶來了輝達引以為傲的CUDA生態。CUDA是一個包含了編譯器、庫、開發工具和開發者社區的完整生態系統。深度學習框架本身不具備直接呼叫GPU的能力,必須通過“中間適配層”才能讓GPU幹活,而CUDA就是輝達GPU的“專屬中間適配層”。過去十幾年,全球絕大多數AI研究和商業應用都在CUDA上建構。百度飛槳可以適配崑崙芯,此時它不依賴CUDA,而是依賴崑崙芯的“專屬中間層”(XPU SDK)。但如果開發者的模型是建構在CUDA上的,那麼想要使用崑崙芯去運行它,就必須得“翻譯”成飛槳能聽懂的程式碼。百度飛槳雖推出了外掛式CUDA相容類硬體接入方案,能讓硬體廠商復用部分CUDA算子,kernel復用率最高可達92.6%,但這只是針對硬體廠商的適配最佳化,在一些關鍵任務上,仍然需要開發者重新使用飛槳平台編寫。出於對開發效率、穩定性和生態成熟度的考量,部分追求極致性能且預算充足的商業客戶,可能會選擇繼續採用輝達方案。但這並不意味著國產晶片會失去市場——兩者的目標客戶群體正在分化,輝達吃高端市場,國產晶片則在中低端市場和安全可控領域站穩腳跟。它基於成熟的Hopper架構,擁有與旗艦H100相同的989 TFLOPS的FP16/BF16半精度浮點算力,整合了約16896個CUDA核心和528個第四代Tensor Core。其最大的亮點是配備了高達141GB的HBM3e高頻寬記憶體,記憶體頻寬達到驚人的每秒4.8TB,這甚至超過了H100的80GB HBM3記憶體和3.35TB/s的頻寬。對於需要處理兆參數、消耗海量視訊記憶體的大模型訓練任務而言,更大的記憶體容量和頻寬意味著可以容納更大的模型、使用更大的批次進行訓練,從而顯著提升效率。B與其他國產AI晶片廠商不同,崑崙芯並非孤立的硬體產品,而是百度AI生態中的關鍵一環。2021年,百度的智能晶片及架構部門完成了獨立融資,正式成立了崑崙芯(北京)科技有限公司。儘管已經成為一家獨立公司,百度依然是其控股股東,持有約59.45%的股份。崑崙芯第一代產品在2020年量產,採用14nm工藝和自研的XPU架構,INT8算力為260TOPS,功耗控制在100瓦等級。到目前量產的第三代P800晶片,工藝已升級至7nm,FP16算力達345TFLOPS——這個數字是輝達中國特供版H20晶片的2.3倍。更值得關注的是崑崙芯背後的全端技術整合能力。在百度建構的AI技術體系中,崑崙芯提供底層算力,飛槳(Paddle)深度學習框架負責中間調度,文心繫列大模型則是最終應用。這種"晶片-框架-模型"的垂直整合模式,與Google的TPU晶片、TensorFlow框架和Gemini模型的組合如出一轍。這種閉環帶來的好處是顯而易見的。飛槳可以針對崑崙芯的硬體特性進行深度最佳化,文心大模型的訓練和推理效率因此得到提升;反過來,大模型的實際需求又為崑崙芯的迭代指明方向。相比之下,其他國產晶片廠商往往需要適配多個主流框架,這在開發效率和性能最佳化上都面臨更大挑戰。獨立營運後的崑崙芯,商業化進展超出了不少人的預期。2024年營收突破10億元,市場預期2025年將增長至35億元以上,並有望實現盈虧平衡。更重要的是客戶結構的變化——最初更多依賴百度內部需求的崑崙芯,外部客戶佔比正在快速擴大,覆蓋網際網路、電信營運商、大型央國企等關鍵領域。2025年8月的一次中標頗具標誌性意義:崑崙芯在中國移動10億等級的AI算力採購項目中,在三個標包中均排名第一。但崑崙芯還不能高枕無憂,單從業務上看,崑崙芯採用Fabless模式,生產環節依賴外部代工。2024年上半年其還能較容易地從台積電獲取7nm晶圓代工產能,但隨著境外新規落地,先進製程晶圓代工和HBM供應等方面均受到不利限制。同時,崑崙芯團隊的軟體最佳化和框架支援長期優先圍繞百度生態展開,對外部開源模型和小眾框架的支援度還不夠。相較於其他AI晶片,崑崙芯的泛化能力還有提高的空間。12月5日,崑崙芯完成新一輪融資,投後估值約210億元人民幣。兩天后百度發佈公告稱,正就擬議分拆及上市進行評估。據外媒報導,崑崙芯最初考慮科創板上市,但後來轉向香港證券交易所,計畫最早在2026年第一季度提交上市申請,目標是2027年初完成IPO。受此消息影響,百度港股股價在12月5日收盤時上漲5.01%。對崑崙芯而言,獨立上市的意義不僅在於融資。更重要的是,它能讓崑崙芯的估值獨立於百度的傳統業務,避免廣告、搜尋業務波動對其的影響,資本市場會按照AI晶片行業的邏輯對其進行估值。在產品佈局上,崑崙芯也在加速推進下一代產品。沈抖透露,針對大規模推理場景的M100晶片已完成回片,主打極致性價比,將於2026年上市。字節、阿里、騰訊等頭部網際網路客戶已拿到小規模樣片測試並小範圍部署,百度也規劃了M100晶片的大型叢集部署場景。這種“內部驗證+外部拓展”的商業化路徑,既降低了市場風險,又為產品迭代提供了真實的應用反饋。在輝達H200可能回歸的背景下,崑崙芯或多或少也有底氣。C在H200回歸的新聞引發熱議的同時,更值得關注的是這次“解禁”背後的政策邏輯,以及它對國產AI晶片帶來的實際影響。從政策細節看,這次調整併非一次徹底的“放開”,而是一種“有管理的開放”。美國政府明確表示,基於Blackwell架構的晶片以及下一代Rubin架構晶片,仍然被嚴格禁止出口到中國。允許出口的H200,本質上是輝達的上一代產品。換句話說,美國的核心策略並未改變——在最頂尖的AI技術上對中國保持代差優勢,同時通過出售"次旗艦"產品獲取經濟利益。外媒分析認為,這種模式很可能成為未來美國對華科技出口管制的新常態:在不放棄技術霸權的前提下,有選擇性地通過出售非尖端但足夠強大的技術來平衡經濟利益與戰略考量,同時以此作為影響中國科技產業發展的籌碼。然而,H200的回歸之路遠比表面看起來更加曲折。在美國內部,圍繞是否向中國放行高端晶片的爭議極大,這使得該政策的長期穩定性存在巨大疑問。這其中最具代表性的是《SAFE CHIPS Act》(《安全晶片法案》)。該法案要求美國商務部在30個月以上時間內拒絕向中國出口尖端半導體的申請。一旦這項法案獲得通過,川普將失去晶片出口的決策權。外媒認為,川普政府火速審批H200放行,可能是在法案進入審議前搶佔先手,通過行政批准製造既定事實。同時,這種政策層面的不確定性,也讓中國企業開始擔憂GPU供應鏈。即便現在可以採購H200以緩解短期算力需求,中國的頭部大廠和關鍵行業客戶也大機率不會完全放棄國產晶片的適配和應用。目前國內AI企業普遍採用“雙備份”(Dual Sourcing)策略——百度自己就是如此,之前百度百舸採用的就是混合算力架構,既用自研崑崙芯,也用輝達等晶片。誠然,這種策略會增加短期的研發成本和系統複雜度,但從長遠來看,這是應對地緣政治不確定性的明智選擇。當供應鏈隨時可能因為政策變動而中斷時,技術自主權的價值遠超短期的成本增加。在中國一側,國家層面對國產替代的政策支援力度也在持續加大。國家積體電路產業投資基金二期募集金額已達2000億元以上,為晶片企業提供了強有力的資金保障。稅收優惠、研發補貼、政府採購傾斜等一攬子政策正在形成合力。國資委79號文更是明確要求,2027年底前實現所有中央企業資訊化系統的國產替代。這些政策訊號清晰地表明,在關鍵技術領域,中國不會因為外部環境的短期變化而動搖自主研發的決心。對崑崙芯等國產AI晶片廠商而言,這意味著一個長期穩定且不斷擴大的市場空間。一位接近百度的人士向字母榜透露,晶片本就是長周期規劃的產業,長期競爭因素始終存在,崑崙芯在產品迭代時就已考慮過相關變化,因此不需要做大的調整。崑崙芯在今年11月公佈的未來5年發展方向中,已經規劃了M300以及超節點裝置等產品線。另一方面,H200允許進口後,可能也會改變百度的採購政策。不過百度方面並未向字母榜透露相關內容。從更宏觀的視角看,H200的放行與崑崙芯的上市計畫,本質上是同一場技術博弈在不同維度的對應。前者代表著美國試圖在保持技術優勢的同時獲取經濟利益,後者則體現了中國在關鍵技術領域尋求自主可控的戰略定力。在這場長期博弈中,短期的政策變動或許會帶來市場波動,但真正決定格局的,仍然是技術積累、生態建設和戰略耐心。對崑崙芯等國產AI晶片而言,挑戰依然嚴峻,但機遇同樣清晰——在一個註定分化的市場中,找到自己的立足點,並不斷向上突破。而且,輝達H200究竟能不能進入中國,目前來看,仍然是個未知數。 (字母榜)
Google AI突破,為何反成行業利空? | 巴倫科技
這不僅僅是一個DeepSeek時刻,它可能遠遠超過那個層面。一款由AI驅動的全新聊天機器人橫空出世,不僅引發了科技股對動盪市場領軍地位的激烈角逐,同時也引發了人們對輝達晶片需求的新擔憂——而正是輝達晶片撐起了華爾街最熱門的股票。這番描述既可以用來描述中國聊天機器人DeepSeek問世時的市場反應(當時它讓整個科技圈震驚,還曾一度導致美股下跌),也同樣適用於最近發生的情形,即Google母公司Alphabet推出新版Gemini 3後的市場表現。Alphabet的股票是今年迄今為止“七巨頭”中表現最好的,該公司上周發佈了最新版聊天機器人,而投資者現在才開始意識到,這款產品在未來幾個月內可能會對人工智慧類股產生怎樣的影響。據報導,Gemini 3在運行速度、反應靈敏度和深度推理能力上均優於OpenAI的ChatGPT、埃隆・馬斯克旗下的Grok以及傑夫・貝索斯支援的Perplexity。該產品可以很好地融入Google旗下廣泛的應用生態及其市場領先的搜尋業務中,定價也與競爭對手的AI模型持平或更低。但更重要的是,Gemini 3主要是利用Google自家的張量處理單元(TPU)進行訓練的,而不是像競爭對手那樣依賴輝達的晶片。TPU的靈活性不如輝達的圖形處理單元(GPU),這也意味著在超大規模企業斥資數十億美元採購可靈活重新程式設計系統的市場中,TPU的價值可能會相對降低,但TPU的研發成本更低,滿負荷執行階段的功耗也更小。這一點正在令華爾街感到不安。“有些投資者極為擔心,憑藉Gemini模型的巨大進步以及定製TPU晶片所帶來的持續優勢,Alphabet可能會在AI大戰中獲勝。”華爾街諮詢機構Melius Research的科技策略師Ben Reitzes表示。他補充道:“現在就斷言Alphabet最近的突破讓它成為AI領域的長期贏家,還為時尚早。話雖如此,半導體企業和超大規模雲端運算公司(尤其是甲骨文)必須警覺到,‘Alphabet問題’已經成為一個值得關注的風險點。”甲骨文此前已經斥資數十億美元採購輝達晶片用於雲端租賃。如果更低成本的TPU出現,一旦其他公司建立AI雲服務競爭平台,甲骨文在價格上可能會被削弱競爭力。知名投資機構D.A. Davidson的分析師Gil Luria估算,如果Google將DeepMind AI研究實驗室與TPU晶片銷售業務拆分出去,組建獨立公司,其估值可能接近1兆美元,這也可能成為“堪稱Google最具價值的業務之一”。另一方面,即便輝達在AI領域的領先優勢出現小幅縮小,都可能在未來幾個月內引發連鎖反應,對市場造成衝擊。那些此前在輝達半導體上大舉投資的企業,如果發現更便宜的晶片同樣表現出色,可能會因此陷入“買家懊悔”。目前,從上市的超大規模科技公司到OpenAI 等初創企業,整個行業的估值都已處於極高水平,而這項新技術對實體經濟的實際利多仍存在不確定性。實際上,OpenAI 首席執行官薩姆·奧特曼在上周《The Information》發佈的一份內部備忘錄中坦言,Google在人工智慧方面的進步,很可能會給公司帶來“一些暫時的經濟阻力”。他表示:“我預計外界的氛圍會艱難一陣子。”Google的股價已反映出部分市場預期,周一上漲了6.3%,盤中一度創下每股318.58美元的歷史新高。今年以來,該股累計上漲了68%,而“七巨頭”指數同期漲幅為22%,納斯達克綜合指數則上漲了18%。其TPU製造合作夥伴博通(Broadcom)在周一下午早些時候上漲了11%,今年以來的漲幅略超63%。與此同時,輝達股價小幅上漲,但自本月初以來仍下跌了近9%。根據道瓊斯市場資料,目前輝達4.35兆美元的市值與Google市值之間的差距已縮小到約5260億美元,為自四月以來的最小水平。伯恩斯坦資深分析師斯Stacy Rasgon並不那麼關注在當前的AI軍備競賽中短期贏家的歸屬,他更關心的是這場競爭的持續性。Rasgon周一在接受CNBC採訪時表示:“我們還沒到需要擔心誰贏誰輸的時候。現在更需要關注的問題是,AI領域的機遇是否可持續。”他補充道:“如果可持續,大家都沒問題;如果不可持續,大家都完了。” (Barrons巴倫)
馬斯克:建月產100萬晶圓的Tera-fab
與英特爾合作:目標實現月產 100 萬片晶圓AI5晶片:功耗僅輝達Blackwell晶片1/3,成本不足10%!特斯拉 CEO 馬斯克在年度股中國會上重磅宣佈,為破解晶片供應這一未來發展核心瓶頸,公司計畫建造巨型晶片工廠 Terafab,目標實現月產 100 萬片晶圓,稱這是達成所需晶片產量的唯一途徑。“Tera-Fab” 中 “Tera” 的核心含義是 “兆級(10¹²)”,即巨型晶圓廠的意思。馬斯克透露:特斯拉自研的AI5晶片(將同時為汽車和人形機器人提供算力支援)功耗雖僅為輝達Blackwell晶片的三分之一,成本卻不足後者的10%。馬斯克強調:“AI5晶片是針對特斯拉AI軟體棧進行深度最佳化的,因此並非通用型晶片。”馬斯克說道:“我們正考慮與英特爾展開合作,儘管目前尚未達成任何協議,但相關磋商大機率具備實際價值。”重點:晶圓廠、1 兆美元薪酬、FSD中國進展、人形機器人特斯拉年度股中國會上,CEO 馬斯克披露多項重磅計畫,核心聚焦晶片供應與 AI、機器人業務佈局,為破解半導體這一發展核心瓶頸,特斯拉計畫建造月產 100 萬片晶圓的巨型晶片廠 Terafab,以滿足自動駕駛、人形機器人等業務的激增需求,同時考慮與英特爾合作,目前尚未簽署相關協議但磋商具備實際價值。特斯拉自研的 AI5 晶片,將為汽車和人形機器人提供算力支援,其功耗僅為輝達 Blackwell 晶片的三分之一,成本不足後者 10%,但專為特斯拉 AI 軟體棧深度最佳化,並非通用型晶片。此次股中國會還批准了馬斯克創紀錄的 1 兆美元薪酬方案,該方案分 12 個階段兌現,需達成交付 2000 萬輛汽車、FSD 有效訂閱量 1000 萬、交付 100 萬台 Optimus 機器人、投入 100 萬輛自動駕駛計程車商業營運等目標。業務進展方面,FSD 已獲中國部分批准,預計 2026 年二三月份全面獲批,V14.1 版本運行流暢,V14.3 將實現 “睡一覺抵達目的地” 的水平,未來數月駕駛員或可邊開車邊發簡訊,其 Supervised 版本已落地 6 個國家 / 地區。首款無人駕駛 Robotaxi Cybercab 將於 2026 年 4 月在德州量產,無方向盤、踏板及後視鏡,每公里成本僅幾毛錢,年產能目標 200 萬 - 500 萬台。人形機器人 Optimus 明年啟動量產,2026 年推第三代,後續按年度迭代,目標建成千萬台年產能生產線,量產成本約 2 萬美元,馬斯克稱其將擴大全球經濟規模 10-100 倍,未來或實現人類意識上傳。全新 Roadster 將於 2026 年 4 月 1 日演示新技術,12-18 個月後量產。馬斯克強調,AI 與機器人技術將開啟特斯拉新篇章,電力與半導體是實現這些目標的關鍵限制因素。 (芯榜)
噩耗!認證崩盤!美光 HBM4 被輝達 "否決"
出貨將推遲至2027年第一快閃記憶體消息:美光 HBM4 栽大跟頭了!因良率拉胯、傳輸速度不達標,直接被輝達驗證流程 “一票否決”,被迫啟動全面重造。而 SK 海力士已搶先量產 HBM4,三星也在加速送樣認證,美光供貨推遲至 2027 年,在 AI 記憶體生死戰中徹底落後,千億市場蛋糕恐被韓系雙雄瓜分!GF證券表示:“預計輝達的HBM4晶片出貨將推遲到2027年”,並補充道:“即使HBM4晶片的交付計畫推遲,也不會對美光的盈利造成重大影響。”一、認證崩盤!美光 HBM4 被輝達 "一票否決"AI 算力軍備賽的關鍵一役,美光直接摔出賽道!廣發證券香港分行報告驚雷炸響:美光 HBM4 因性能不達標、良率慘不忍睹,慘遭輝達驗證流程 "死刑判決"。核心癥結直指資料傳輸速度 —— 連客戶最基本的性能紅線都未能跨越,逼得這家美國儲存巨頭啟動全面架構重造。更致命的是時間窗口的丟失:原本瞄準 2026 年的量產計畫被迫延後,最悲觀預測指向 2027 年才能供貨。要知道,HBM4 作為 AI 伺服器的 "算力心臟",直接決定 GPU 的運算效率,而輝達、AMD 的下一代 GPU 已箭在弦上,2026 年量產計畫容不得半分等待。業內狠批:"這不是延遲,是主動退出下一代 AI 供應鏈的爭奪戰"。二、韓系雙雄狂奔!三星 SK 海力士搶食千億美元蛋糕就在美光陷入重造泥潭時,韓國雙雄已踩下量產油門,上演教科書等級的競速突襲。SK 海力士 9 月率先宣告完成全球首條 HBM4 量產線搭建,第四季度已啟動出貨,其產品不僅實現 10Gbps 速率超越 JEDEC 標準,更憑 2048 個 I/O 終端將頻寬翻倍,還硬生生把能效提升 40%。更關鍵的是,它已穩穩通過輝達驗證,攥緊 Rubin GPU 供應鏈入場券。三星則祭出 "良率殺器":1c DRAM 工藝良率突破 50%,HBM4 邏輯晶片良率飆至 90%,10 月底更在科技展上公開展出實品,敲定 2025 年底量產時間表。Counterpoint 資料顯示,SK 海力士已以 62% 份額壟斷市場,三星正蓄力衝擊 30% 份額,韓系雙雄合計掌控近 80% 市場,把美光 21% 的份額襯得岌岌可危。三、千億市場洗牌!遲到者恐遭 "驅逐"這場延遲絕非小事,而是關乎千億美元市場的生死判決。摩根大通預警:2026 年 HBM 市場規模將暴漲 70%,佔 DRAM 總市場 45%,2030 年更將衝至千億美金量級,而輝達一家就壟斷 60% 需求。偏偏 HBM4 比 HBM3E 有 30%-40% 價格溢價,誰能卡位量產誰就躺賺暴利。更殘酷的是行業鐵律:AI 供應鏈一旦定型,1-2 年內絕無替換可能。黃仁勳訪韓時那句 "三星 SK 海力士對 AI 至關重要",早已把美光排除在核心圈外。分析師戳破真相:"2026 年 HBM4 供應佔比將達 30%,2027 年更是飆升至 70%,美光若錯失這次,未來連喝湯的資格都沒有"。更要命的是,三星已打響價格戰,進一步壓縮遲到者的生存空間。三星降價搶佔HBM市場。點選看:無貨可賣!炸裂:三大原廠暫停DDR5報價!四、絕地反擊還是徹底出局?美光押注 "技術重生"絕境中的美光仍在頑抗,財報電話會議上拋出 "2026 年 Q2 量產" 的救命稻草,宣稱已送出 11Gbps 速率的樣品,還計畫在 HBM4E 時代轉由台積電代工,押注定製化方案拉高毛利。眼下其 AI DRAM 和 NAND 業務同比暴漲三倍,暫時能撐住營收體面。但現實骨感:HBM4 已轉向 16 層堆疊,無助焊劑鍵合等新技術門檻陡升,美光既要補性能短板,又要追良率差距,難度堪比登天。市場已給出預判:2026 年 HBM4 市場仍由 SK 海力士主導,三星緊追其後。這場 AI 記憶體的生死競速中,美光已被判罰 "遲到離場",能否改寫結局,全看其重造進度能否跑出奇蹟。 (第一快閃記憶體)
10倍頻寬突破、市值暴漲200億美元,高通能否「分食」千億級AI推理市場?
雷峰網消息顯示,當地時間10月27日,高通宣布推出針對資料中心場景的AI推理最佳化解決方案。此方案由Qualcomm AI200、AI250雲端AI晶片,及對應的加速卡、機架等組成。「輝達的『迭代速度』將讓高通倍感壓力。」雷峰網消息顯示,當地時間10月27日,高通宣布推出針對資料中心場景的AI推理最佳化解決方案。此方案由Qualcomm AI200、AI250雲端AI晶片,及對應的加速卡、機架等組成。千億級雲端推理市場的入局動態,讓高通在資本市場收穫正向回饋。其股價在交易時段最高上漲22%,收盤時漲幅縮小至11%。截至美股10月27日收盤,高通股價報187.68美元/股,公司市值約2,025億美元,市值單日增加近200億美元。「站在美國的角度看,輝達的市值已經很高了,再向上漲一個數量級有比較高的難度,而美股近期能夠上漲的股票都跟AI概念相掛鉤,高通推出AI推理晶片屬於補漲。」晶片產業分析師陳沖表示。不少業界人士認為,高通在端側晶片有很多經驗和技術上的積累,進軍AI推理晶片可以為高通帶來新的業務增量,並且市場也不想看到輝達一家獨大,因此此舉在行業預期之內。關於國內外AI晶片市場的競爭格局,歡迎加入微信 YONGGANLL6662 交流更多資訊。但這份產業預期背後,高通的低TCO主張能否真正形成競爭力,仍需接受檢驗。「高通主打產業最低總擁有成本(TCO)的概念,而其高能效和記憶體處理能力是否有足夠的競爭優勢還需要在實際場景中驗證後才能判斷。」二級市場分析師張翔表示,「AI推理晶片主要看的是固定成本下的Token吞吐率,即在一段時間內產生的Token數量與總成本的比例,具備這個方面,英達超強的優勢,具備了好其能力。從Blackwell到新一代Rubin,輝達的迭代速度不斷加快。Rubin CPX以解耦推理設計支援百萬級Token處理,GDDR7記憶體讓成本大降,投資回報率達30-50倍,Vera Rubin NVL144平台算力較前代提升3.3倍,單位Token成本進一步攤薄。面對競爭,高通也正在透過實際合作推進產品落地驗證,宣布了與沙烏地阿拉伯AI公司HUMAIN的合作。根據規劃,HUMAIN將從2026年起部署高通AI200、AI250機架解決方案,總規模達200兆瓦,同時雙方還將共同開發尖端AI資料中心,落地雲到邊緣混合AI推理服務。「大規模訂單合作往往伴隨客製化開發邏輯。現階段模型網路架構已趨於成熟,不會出現顛覆性變化,因此無需過度追求通用性很高的產品,透過客製化模式可以精準匹配客戶特定需求,實現深度性能優化。」國產晶片廠商從業人員李沐表示,「而高通在成本管理及端側NPU領域的經驗,也能為這種模式提供支撐,也能為這種模式提供支持。聚焦AI推理賽道,則是目前高通面對輝達的最優選。根據QYResearch研究顯示,2024年全球推理AI晶片市場規模約142.1億美元,預計2031年將達690.1億美元,2025-2031期間,年複合成長率為25.7%。AI推理包含Prefill(預填充)和Decode(解碼)兩個階段,和模型訓練相比,它對硬體的要求存在明顯差異,推理更看重顯存頻寬的穩定性、適配性以及充足的顯存容量,同時無需訓練所需的極致浮點算力,轉而追求高效能效比與低延遲。在集群建設方面,存力的重要性也日益凸顯。「算力集群的計算過程是將數據從存儲搬運到計算單元,計算完成之後,計算的中間結果以及最終結果會返存回存力集群,在這個過程中,存力是不是能以更大的頻寬、更低的時延將數據搬運到算力集群中進行計算,將影響整個計算單元的算力利用率。」存儲專家片專家陳峰表示。此外,由於計算集群會不定時發生故障,此時需要將中間的參數以及計算結果定期保存回存力集群,這個檢查點的保存時間耗時越短,那整個計算過程被中斷的時間便越少,同樣可以進一步提升計算的效率,且保證計算的可靠性。高通此次推出AI推理晶片的重要亮點便是更高的內存容量,Qualcomm AI200支援每卡768 GB LPDDR,而Qualcomm AI250則將首次採用基於近內存運算的創新內存架構,透過提供超過10倍的有效內存頻寬和更低的功耗,實現推廣AI推理工作負載性能的創新。「現在推理Token用量每個月都在大幅上漲,高通的推理卡顯存非常大,單卡可以支援768GB,相當於單卡可以跑完整的DeepSeek,是目前所有卡中顯存最大的,方便私有化部署。」陳沖表示。除了硬體上的顯存容量與記憶體架構創新,高通在軟體生態建置上也同步發力,為產品落地鋪路。其AI軟體堆疊涵蓋從應用層到系統層的端對端鏈路,並針對AI推理場景做了最佳化,支援領先的機器學習框架、推理引擎、生成式AI框架及LLM/LMM推理優化技術。開發者可以透過相關套件,實現模型導入與Hugging Face模型一鍵部署。「輝達在雲端晶片市場一家獨大,但憑藉差異化的硬體設計以及豐富的軟體棧,高通的入局具有合理性,後續將其網路晶片整合進去,能打造出具有效能優勢的產品。」大廠資料中心專家江傑表示。(雷峰網)