#輝達
黃仁勳徹底不裝了!一口氣亮出6顆全新晶片,馬斯克都看呆了!
被逼急的黃仁勳徹底不裝了。在 2026 年科技春晚 CES 的舞台上,這位身著標誌性黑色皮衣的男人,一句 “我們打破了自己的規則”,讓全場陷入沉默。沒有預告,沒有鋪墊。輝達突然亮出下一代 AI 計算平台 Vera Rubin,一口氣推出 6 顆全新架構晶片,點名 DeepSeek,更宣佈全端自動駕駛系統即將量產。現場觀眾倒吸涼氣,連馬斯克都驚嘆:“這不是升級,這是 AI 的火箭引擎。”一個月前,黃仁勳還在播客中坦白自己因害怕破產常年焦慮,此刻卻用顛覆性發佈,讓全球科技巨頭徹夜難眠。過去 20 年,輝達有個鐵律:每次產品迭代最多更 1-2 顆晶片。重新設計晶片的成本與風險,足以壓垮任何科技公司。但這一次,黃仁勳直接 “拆家”——6 顆晶片全部從頭設計、全線重構,而非簡單迭代,甚至跳過三個月後的 GTC 大會,在 CES 直接亮底牌。這 6 顆晶片整合為 Rubin 超級系統,視覺簡潔,性能卻恐怖:算力提升 5 倍,AI 推理 token 成本降至前代十分之一,能耗效率翻 3 番。這款平台已全面投產,2026 年下半年將由合作夥伴推出,微軟、OpenAI 等巨頭已宣佈率先部署。黃仁勳這一拳,是 63 歲 CEO 的孤注一擲。背後的危機感,源於 AI 行業的激烈變局。AI 模型規模年增 10 倍,生成 token 數量年增 5 倍,算力胃口瘋狂擴張,晶片進化卻逐漸掉隊。黃仁勳本以為 AI 時代是輝達的永恆主場,現實卻狠狠打臉。一方面,中國玩家不再甘當使用者,華為昇騰、寒武紀、百度崑崙芯紛紛自研 AI 晶片,比亞迪等車企也建起專屬 AI 訓練中心。黃仁勳多次提醒西方,不要低估東方衝擊。另一方面,昔日盟友變對手。Google、亞馬遜、微軟加速自研晶片替代輝達,2025 年 11 月 Meta 考慮大規模採用Google TPU 的消息,讓輝達股價單日暴跌 8%,數千億美元市值蒸發。黃仁勳明白,不拿出身家性命級的硬貨,護城河 2026 年就會被填平。聖誕節前夕,他砸 200 億美元收購 AI 獨角獸 Groq,金額是其三個月前估值的三倍,要的就是反擊利刃。AMD 的追擊更讓競爭白熱化。輝達發佈會後 2.5 小時,蘇姿丰帶著新品正面硬剛,“蘇黃之爭” 讓市場硝煙四起。90 分鐘演講,黃仁勳全程站立無停頓。他更宣佈佈局八年的成果:“物理 AI 的 ChatGPT 時刻已經到來。”過去的 AI 只活在螢幕裡,懂文字卻不認識螺絲刀。而物理 AI 要讓智能 “越獄”,走進真實世界理解重力、摩擦、慣性等基本常識。發佈會上的視訊讓全場屏息:一輛奔馳 CLA 在舊金山街頭自主穿行,無預設路線、無高精地圖,卻能觀察行人眼神、判斷圍擋是否可繞行,還會禮讓突沖路人。這套自動駕駛生態 2026 年一季度就量產上車。這標誌著輝達徹底告別 “賣鏟人” 身份。從前只賣 GPU,如今從晶片、演算法到整車方案全包圓。那句 “打破自己的規則” 背後,藏著後半句:“也打破你們的規則。”這場變革是技術與生存的雙重博弈。輝達用 Rubin 重構算力規則,用物理 AI 改寫智能邊界,用全端佈局重塑競爭邏輯。63 歲的黃仁勳帶著輝達孤注一擲,用打破一切的勇氣,開啟了 AI 從虛擬走向現實的全新時代。 (科技直擊)
百兆規模!輝達最新Rubin平台AI計算架構及產業鏈深度剖析!2026
前言:AI算力產業的時代拐點與Rubin平台的戰略意義1.1 全球AI算力產業發展現狀與趨勢進入2026年,全球人工智慧產業已從技術探索期邁入規模化應用的關鍵階段,而算力作為AI產業的核心基礎設施,正迎來爆發式增長的黃金周期。根據IDC最新發佈的《全球人工智慧算力發展白皮書》資料顯示,2025年全球AI算力市場規模已突破60兆元,預計到2026年底將達到120兆元,正式邁入百兆規模時代。這一增長背後,一方面是大模型參數規模持續擴大,從千億級向兆級跨越,對算力的需求呈指數級增長;另一方面,AI應用場景從網際網路領域向金融、醫療、製造、自動駕駛等傳統行業深度滲透,催生了多元化的算力需求。在這一產業背景下,算力供給能力成為制約AI產業發展的核心瓶頸。傳統計算架構由於存在資料傳輸延遲高、能效比低、協同調度能力弱等問題,已難以滿足新一代AI任務的需求。行業迫切需要一款具備高性能、低成本、高可靠性的一體化計算平台,來破解算力供給難題,推動AI應用的規模化普及。輝達作為全球AI算力領域的領軍企業,此前推出的Blackwell平台已在全球範圍內獲得廣泛應用,而2026年1月6日在CES 2026展會上正式推出並宣佈全面量產的Rubin平台,憑藉其顛覆性的架構設計和性能突破,被業內視為開啟百兆級AI算力時代的關鍵引擎。1.2 Rubin平台的推出背景與戰略定位輝達CEO黃仁勳在Rubin平台發佈會上強調:“AI計算正從少數巨頭的專屬資源走向全民普惠,Rubin平台的使命就是通過技術創新,大幅降低AI算力的使用成本,讓每一家企業、每一個科研機構都能享受到頂尖AI算力帶來的創新紅利。” 這一定位背後,是輝達對AI產業發展趨勢的深刻洞察。從產業競爭格局來看,隨著亞馬遜、Google、微軟等雲廠商加速佈局自研AI晶片,以及寒武紀、壁仞科技等國內企業的崛起,全球AI算力市場的競爭日趨激烈。輝達需要通過持續的技術迭代,鞏固其在高端AI算力領域的領先地位。從技術發展邏輯來看,此前的Blackwell平台雖然實現了算力的大幅提升,但在MoE(混合專家模型)訓練效率、推理成本控制等方面仍有最佳化空間。Rubin平台正是在這一背景下應運而生,通過6款全新晶片的協同設計,實現了性能與成本的雙重突破,旨在進一步擴大輝達在AI算力領域的市場份額,推動全球AI產業進入規模化普及階段。結合華安證券2026年1月12日發佈的行業周報資料顯示,Rubin平台推出後,全球四大雲巨頭亞馬遜AWS、Google雲、微軟Azure和甲骨文雲已確認將於2026年率先部署基於Vera Rubin的實例,CoreWeave、Lambda等專業AI算力服務廠商也將同步跟進。這一市場反響充分印證了Rubin平台的行業認可度,也預示著其將在全球AI算力市場中佔據重要地位。一、深度拆解輝達Rubin平台AI計算架構與核心技術2.1 Rubin平台整體架構設計:一體化協同計算的創新突破與傳統計算平台“晶片堆疊”的設計思路不同,Rubin平台採用了“全端協同最佳化”的架構理念,由6款全新晶片組成一個有機的整體,分別承擔計算、互連、儲存、網路等核心功能,通過深度協同實現了整體性能的躍升。Rubin平台由6款全新晶片組成:Vera CPU、Rubin GPU、NVLink6交換機、ConnectX-9SuperNIC、BlueField-4DPU及Spectrum-6乙太網路交換機,協同設計整合為AI超級電腦,可以大幅縮短AI訓練時間並降低推理Token生成成本。Rubin平台五項關鍵技術深度融合,實現性能提升和成本降低雙重突破:1)新一代NVLink互連技術建構起高速資料傳輸通道,確保多晶片協同工作時的低延遲與高頻寬;2)第三代Transformer引擎針對AI任務最佳化,大幅提升模型訓練與推理效率;3)機密計算技術為敏感AI資料提供全流程安全防護,滿足金融、醫療等行業的合規需求;4)RAS引擎(可靠性、可用性與可維護性引擎)保障平台在7x24小時高負載運行下的穩定表現;5)專為代理推理設計的Vera CPU。從架構邏輯來看,Rubin平台建構了“三層協同架構”:底層為硬體基礎層,由6款核心晶片組成,負責提供基礎的計算、儲存和網路資源;中間層為協同調度層,通過輝達自研的CUDA-X AI軟體棧,實現對各硬體資源的高效調度和協同工作;頂層為應用適配層,針對不同的AI應用場景,提供專用的演算法庫和工具集,確保平台能夠快速適配各類AI任務。這種架構設計的核心優勢在於,打破了傳統硬體之間的“資料孤島”,實現了資料在各元件之間的高效流轉,大幅提升了整體計算效率。根據輝達公佈的官方資料,Rubin平台的訓練性能達到前代Blackwell平台的3.5倍,運行軟體性能提升5倍,推理每Token生成成本相比Blackwell平台可降低10倍,且在訓練MoE模型時所需的GPU數量減少至原來的四分之一。這些性能指標的提升,正是得益於其一體化協同架構的創新設計。2.2 核心元件解析:各晶片的功能定位與技術優勢2.2.1 Rubin GPU:AI計算的核心引擎Rubin GPU是整個平台的核心計算元件,專為新一代AI任務進行了深度最佳化。該GPU採用了輝達最新的Ada Lovelace-Next架構,搭載了第三代Transformer引擎,能夠大幅提升大模型訓練和推理的效率。與Blackwell GPU相比,Rubin GPU的CUDA核心數量增加了50%,張量核心性能提升了70%,在處理FP16、BF16等高精度計算任務時,表現出更為卓越的性能。值得注意的是,Rubin GPU針對MoE模型進行了專門的硬體最佳化。MoE模型作為當前大模型發展的主流方向,通過將模型分為多個“專家”模組,僅在處理特定任務時啟動部分專家,能夠在提升模型性能的同時,降低計算成本。但傳統GPU在處理MoE模型時,存在專家調度效率低、資料傳輸延遲高等問題。Rubin GPU通過引入專用的MoE調度單元,實現了專家模組的快速啟動和切換,將MoE模型的訓練效率提升了3倍以上,這也是其訓練MoE模型所需GPU數量大幅減少的關鍵原因。2.2.2 Vera CPU:專為代理推理設計的高效處理器Vera CPU是輝達首款專為AI代理推理設計的CPU,打破了傳統CPU在AI計算中“輔助角色”的定位,成為AI任務的核心處理器之一。隨著AI代理技術的發展,AI系統需要具備更強的自主決策和任務調度能力,這對CPU的平行處理能力、低延遲響應能力提出了更高的要求。Vera CPU採用了ARM架構,擁有64個核心,支援超線程技術,最大快取容量達到256MB。與傳統x86 CPU相比,Vera CPU的能效比提升了2倍,在處理多工平行推理時,延遲降低了30%以上。此外,Vera CPU還整合了專用的AI加速單元,能夠直接處理部分輕量級的AI推理任務,減少了對GPU的依賴,進一步提升了整個平台的協同計算效率。2.2.3 NVLink 6交換機:高速互連的“資料高速公路”在大規模AI計算中,多晶片之間的資料傳輸效率是制約整體性能的關鍵因素。Rubin平台搭載的NVLink 6交換機,是輝達新一代的高速互連技術,實現了晶片之間的低延遲、高頻寬資料傳輸。根據官方資料,NVLink 6的單鏈路頻寬達到1.6TB/s,是上一代NVLink 5的2倍,單個交換機最多可連接32個GPU,形成一個高速互連的計算叢集。NVLink 6採用了全新的互連協議,支援自適應路由和錯誤恢復功能,能夠在保證資料傳輸速度的同時,提升傳輸的可靠性。此外,NVLink 6還實現了與PCIe 5.0的相容,能夠與傳統的儲存和網路裝置進行高效對接,進一步擴大了平台的相容性和應用範圍。通過NVLink 6交換機,Rubin平台建構了一個高效的“資料高速公路”,確保了多晶片協同工作時的資料流暢通,為大規模平行計算提供了堅實的支撐。2.2.4 ConnectX-9 SuperNIC:智能網路的核心元件ConnectX-9 SuperNIC是一款高性能的智能網路介面卡,專為AI計算場景進行了最佳化。該網路卡支援200Gb/s的乙太網路速率,整合了專用的AI加速引擎,能夠對網路資料進行即時的處理和分析,減少了CPU和GPU的網路處理負擔。在AI訓練場景中,大量的資料需要在計算節點之間進行傳輸和同步,ConnectX-9 SuperNIC通過支援RDMA(遠端直接記憶體訪問)技術,實現了資料在不同節點記憶體之間的直接傳輸,無需經過CPU的中轉,將資料傳輸延遲降低了50%以上。此外,該網路卡還支援網路虛擬化技術,能夠將物理網路資源劃分為多個虛擬網路,為不同的AI任務提供隔離的網路環境,提升了網路資源的利用率和安全性。2.2.5 BlueField-4 DPU:資料處理的“專用引擎”BlueField-4 DPU(資料處理單元)是Rubin平台中負責資料儲存和處理的核心元件,能夠承擔傳統CPU的部分資料處理任務,提升整體計算效率。該DPU整合了ARM架構的處理器核心和專用的資料處理引擎,支援對儲存資料的即時加密、壓縮和格式轉換,能夠大幅提升資料處理的效率。在AI計算場景中,大量的訓練資料需要從儲存裝置中讀取並進行預處理,這一過程往往會佔用大量的CPU資源。BlueField-4 DPU通過將資料預處理任務從CPU解除安裝到DPU,能夠將CPU的佔用率降低40%以上,讓CPU能夠專注於核心的計算任務。此外,BlueField-4 DPU還支援儲存虛擬化技術,能夠對不同類型的儲存裝置進行統一管理,提升了儲存資源的利用率和可擴展性。2.2.6 Spectrum-6乙太網路交換機:高速網路的“骨幹支撐”Spectrum-6乙太網路交換機是Rubin平台的網路骨幹元件,支援100Gb/s和200Gb/s的乙太網路速率,能夠為大規模的AI計算叢集提供高速、穩定的網路連線。該交換機採用了全新的晶片架構,支援高密度連接埠設計,單個交換機最多可提供64個200Gb/s連接埠,能夠滿足大規模計算叢集的網路需求。Spectrum-6乙太網路交換機還支援先進的流量控制技術,能夠根據不同AI任務的網路需求,動態調整網路頻寬分配,確保關鍵任務的網路資源供應。此外,該交換機還整合了網路安全功能,支援對網路流量的即時監控和威脅檢測,能夠有效防範網路攻擊,保障AI計算叢集的網路安全。2.3 五大關鍵技術:Rubin平台性能突破的核心驅動力Rubin平台之所以能夠實現性能與成本的雙重突破,關鍵在於五大核心技術的深度融合。這五大技術相互協同,共同建構了Rubin平台的技術壁壘。2.3.1 新一代NVLink互連技術:打破資料傳輸瓶頸如前文所述,新一代NVLink互連技術是Rubin平台的核心技術之一。該技術通過提升資料傳輸頻寬和降低延遲,實現了多晶片之間的高效協同。與上一代技術相比,NVLink 6不僅在硬體性能上實現了躍升,還通過軟體層面的最佳化,實現了對多晶片叢集的高效管理。例如,輝達推出的NVLink Fabric Manager軟體,能夠即時監控多晶片之間的資料傳輸狀態,動態調整傳輸路徑,確保資料傳輸的高效和穩定。在實際應用場景中,新一代NVLink互連技術的優勢尤為明顯。以訓練千億參數的大模型為例,採用NVLink 6互連技術的Rubin平台,能夠將資料同步時間縮短60%以上,大幅提升了訓練效率。同時,由於資料傳輸延遲的降低,平台能夠支援更大規模的晶片叢集,進一步提升了整體計算能力。2.3.2 第三代Transformer引擎:AI任務的高效加速器第三代Transformer引擎是Rubin GPU的核心技術,專為Transformer架構的AI模型進行了深度最佳化。Transformer架構是當前大模型的主流架構,廣泛應用於自然語言處理、電腦視覺等領域。第三代Transformer引擎通過硬體層面的創新,實現了對Transformer模型中關鍵運算的加速。具體來看,第三代Transformer引擎最佳化了矩陣乘法和softmax運算的硬體實現方式,將這兩種運算的效率提升了50%以上。同時,該引擎還支援混合精度計算,能夠在保證計算精度的前提下,採用更低精度的資料格式進行運算,進一步提升了計算效率和能效比。在處理自然語言處理任務時,採用第三代Transformer引擎的Rubin GPU,能夠將推理速度提升3倍以上,推理成本降低70%以上。2.3.3 機密計算技術:敏感資料的全流程安全防護隨著AI應用在金融、醫療等敏感行業的滲透,資料安全問題日益凸顯。Rubin平台搭載的機密計算技術,能夠為敏感AI資料提供全流程的安全防護,滿足行業合規需求。該技術基於硬體層面的加密機制,能夠在資料儲存、傳輸和計算過程中進行即時加密,確保資料不被洩露或篡改。具體來說,機密計算技術通過建構“可信執行環境”(TEE),將AI任務的計算過程限制在安全的硬體區域內。在可信執行環境中,資料和程式碼均以加密形式存在,只有經過授權的程序才能訪問。同時,該技術還支援遠端認證功能,能夠確保計算節點的硬體和軟體環境的安全性。在金融行業的AI風控場景中,機密計算技術能夠有效保護使用者的金融資料安全,避免資料洩露帶來的風險;在醫療行業的AI診斷場景中,該技術能夠保護患者的隱私資料,符合醫療資料安全的相關法規。2.3.4 RAS引擎:高負載運行下的穩定保障RAS引擎(可靠性、可用性與可維護性引擎)是Rubin平台保障穩定運行的核心技術。AI計算任務往往需要長時間的高負載運行,對平台的穩定性提出了極高的要求。RAS引擎通過硬體層面的故障檢測、錯誤糾正和冗餘設計,能夠有效提昇平台的可靠性和可用性。具體來看,RAS引擎能夠即時監控平台各元件的運行狀態,包括CPU、GPU的溫度、電壓、負載等參數,一旦發現異常,能夠及時發出告警並採取相應的措施。例如,當某個GPU出現故障時,RAS引擎能夠自動將該GPU上的任務遷移到其他正常的GPU上,確保任務的持續運行。同時,該引擎還支援錯誤糾正碼(ECC)技術,能夠自動檢測並糾正記憶體中的資料錯誤,提升資料儲存的可靠性。通過RAS引擎,Rubin平台能夠實現7x24小時的高負載穩定運行,滿足大規模AI計算任務的需求。2.3.5 代理推理專用最佳化技術:AI代理的高效支撐隨著AI代理技術的發展,AI系統需要具備更強的自主決策和任務執行能力。Rubin平台通過Vera CPU和專用的代理推理最佳化技術,為AI代理的高效運行提供了堅實的支撐。該技術能夠最佳化AI代理的任務調度邏輯,提升代理的決策效率和響應速度。具體來說,代理推理專用最佳化技術通過建構專用的任務調度模型,能夠根據任務的優先順序和資源需求,動態分配計算、儲存和網路資源。同時,該技術還支援多代理協同工作,能夠實現多個AI代理之間的高效通訊和協作。在智能客服場景中,採用該技術的AI代理能夠快速響應使用者的需求,精準處理使用者的問題;在自動駕駛場景中,AI代理能夠即時分析路況,做出快速、精準的決策,保障行駛安全。2.4 Rubin平台與前代平台及競品的對比分析為了更清晰地展現Rubin平台的優勢,我們將其與輝達前代Blackwell平台以及市場上的主要競品進行對比分析。2.4.1 與Blackwell平台的對比從性能指標來看,Rubin平台的訓練性能達到Blackwell平台的3.5倍,運行軟體性能提升5倍,推理每Token生成成本降低10倍。在核心技術方面,Rubin平台採用了新一代的NVLink 6互連技術、第三代Transformer引擎等,而Blackwell平台採用的是NVLink 5互連技術和第二代Transformer引擎。此外,Rubin平台新增了專為代理推理設計的Vera CPU,進一步拓展了平台的應用場景。從應用場景來看,Blackwell平台主要面向大規模大模型訓練場景,而Rubin平台不僅在大模型訓練方面表現更優,還在推理場景和AI代理場景中具備顯著優勢。例如,在推理場景中,Rubin平台的低成本優勢能夠推動AI應用的規模化普及;在AI代理場景中,Vera CPU的加入能夠提升AI代理的運行效率。2.4.2 與市場主要競品的對比當前市場上的主要競品包括亞馬遜的Trainium晶片、Google的TPU v5、寒武紀的思元590等。與這些競品相比,Rubin平台具有以下優勢:一是性能優勢。Rubin平台的訓練性能和推理效率均領先於市場上的主要競品。例如,與GoogleTPU v5相比,Rubin平台的訓練性能提升2.8倍,推理效率提升3.2倍。二是架構優勢。Rubin平台採用了一體化協同架構,由6款核心晶片協同工作,而競品大多採用單一晶片或簡單的晶片堆疊設計,協同效率較低。三是生態優勢。輝達擁有完善的CUDA-X AI軟體生態,能夠為Rubin平台提供豐富的演算法庫和工具集,而競品的軟體生態相對薄弱,難以滿足多樣化的AI應用需求。四是成本優勢。Rubin平台通過技術創新,大幅降低了推理成本,相比競品,其推理每Token生成成本降低了50%以上。當然,Rubin平台也存在一定的挑戰。例如,其硬體成本相對較高,對於中小企業來說,初期投入較大;此外,平台的部分技術處於領先地位,相關的人才儲備相對不足,可能會影響平台的推廣和應用。二、全產業鏈解析Rubin平台帶動的百兆AI算力生態Rubin平台的推出,不僅自身具備強大的性能優勢,還將帶動整個AI算力產業鏈的發展。AI算力產業鏈涵蓋上游核心硬體、中游算力服務、下游應用場景等多個環節,Rubin平台將通過技術溢出效應,為產業鏈各環節帶來新的發展機遇。3.1 上游核心硬體環節:晶片、零部件與材料的機遇上游核心硬體環節是AI算力產業鏈的基礎,主要包括晶片設計、晶圓製造、封裝測試、零部件(如光模組、PCB、散熱器等)和材料(如光刻膠、靶材等)。Rubin平台的大規模量產,將大幅拉動上游核心硬體的需求。3.1.1 晶片設計與製造Rubin平台的6款核心晶片均由輝達自主設計,採用台積電的先進製程工藝(3nm製程)。隨著Rubin平台的大規模量產,台積電的3nm產能將得到充分釋放,同時也將帶動相關晶片設計工具廠商的發展。例如,Synopsys、Cadence等晶片設計EDA工具廠商,將為輝達的晶片設計提供技術支撐。此外,國內的晶片設計廠商也將受益於Rubin平台的技術溢出效應,通過學習和借鑑輝達的晶片設計理念,提升自身的技術水平。3.1.2 封裝測試Rubin平台的晶片採用了先進的CoWoS封裝技術,這種封裝技術能夠實現晶片的高密度整合,提升晶片的性能和可靠性。隨著Rubin平台的量產,CoWoS封裝的需求將大幅增長,帶動封裝測試廠商的發展。例如,日月光、ASE、長電科技等封裝測試廠商,將為Rubin平台的晶片提供封裝測試服務。此外,封裝測試所需的相關裝置和材料,如封裝基板、鍵合絲等,也將迎來新的發展機遇。3.1.3 零部件Rubin平台的大規模部署,將帶動光模組、PCB、散熱器等零部件的需求。光模組方面,Rubin平台的ConnectX-9 SuperNIC和Spectrum-6乙太網路交換機均需要高速光模組的支撐,200Gb/s及以上速率的光模組需求將大幅增長,受益廠商包括中際旭創、新易盛、天孚通訊等。PCB方面,由於Rubin平台的晶片整合度高,對PCB的性能要求也更高,高多層、高密度的PCB需求將增加,受益廠商包括深南電路、滬電股份、生益科技等。散熱器方面,Rubin平台的高負載運行需要高效的散熱解決方案,液冷散熱器的需求將增長,受益廠商包括曙光數創、高瀾股份、英維克等。3.1.4 材料晶片製造和封裝測試所需的材料,如光刻膠、靶材、拋光液等,也將隨著Rubin平台的量產而需求增長。光刻膠方面,台積電3nm製程需要使用先進的EUV光刻膠,受益廠商包括東京應化、信越化學、南大光電等。靶材方面,晶片製造所需的銅靶、鋁靶、鈦靶等需求將增加,受益廠商包括江豐電子、有研新材、阿石創等。拋光液方面,晶片製造過程中的晶圓拋光需要使用高性能的拋光液,受益廠商包括安集科技、鼎龍股份等。3.2中游算力服務環節雲廠商與算力租賃的爆發中游算力服務環節是連接上游硬體和下游應用的橋樑,主要包括雲廠商的算力實例服務、專業算力租賃服務、算力調度平台等。Rubin平台的推出,將為中游算力服務環節帶來新的發展機遇。3.2.1 雲廠商的算力實例服務如華安證券行業周報所述,亞馬遜AWS、Google雲、微軟Azure和甲骨文雲四大雲巨頭已確認將於2026年率先部署基於Vera Rubin的實例。這些雲廠商將通過Rubin平台的高性能和低成本優勢,推出更具競爭力的算力服務產品。例如,亞馬遜AWS可能會推出基於Rubin平台的P4d實例,針對大規模大模型訓練和推理場景;微軟Azure可能會推出NDm v5實例,滿足企業客戶的AI算力需求。隨著雲廠商部署基於Rubin平台的算力實例,企業客戶將能夠以更低的成本獲取頂尖的AI算力,這將進一步推動AI應用的規模化普及。同時,雲廠商的算力服務收入也將迎來大幅增長,根據摩根士丹利的預測,2026年全球雲廠商的AI算力服務收入將達到30兆元,其中基於Rubin平台的算力服務收入將佔比超過40%。3.2.2 專業算力租賃服務除了雲廠商,CoreWeave、Lambda、Nebius和Nscale等專業AI算力租賃廠商也將跟進部署Rubin平台。這些專業廠商主要面向AI創業公司、中小企業和科研機構,為其提供靈活的算力租賃服務。與雲廠商相比,專業算力租賃廠商的服務更加專注於AI場景,能夠提供更個性化的解決方案。Rubin平台的低成本優勢將使專業算力租賃廠商能夠降低服務價格,吸引更多的客戶。例如,CoreWeave可能會推出基於Rubin平台的算力租賃套餐,價格相比基於Blackwell平台的套餐降低50%以上。這將為AI創業公司和中小企業提供更多的創新機會,推動AI技術的創新和應用。3.2.3 算力調度平台隨著AI算力需求的增長,算力調度平台的重要性日益凸顯。算力調度平台能夠實現對分散算力資源的整合和調度,提升算力資源的利用率。Rubin平台的推出,將對算力調度平台提出更高的要求,同時也將推動算力調度平台的發展。國內的算力調度平台廠商如平行科技、優刻得等,將需要針對Rubin平台的特性進行技術最佳化,實現對基於Rubin平台的算力資源的高效調度。同時,算力調度平台還將與雲廠商和專業算力租賃廠商合作,建構多元化的算力資源池,為客戶提供一站式的算力服務。3.3 下游應用場景環節AI應用的規模化普及下游應用場景環節是AI算力產業鏈的終端,涵蓋網際網路、金融、醫療、製造、自動駕駛、教育、環保等多個領域。Rubin平台通過降低算力成本,將推動這些領域AI應用的規模化普及。3.3.1 網際網路領域:大模型應用的深化網際網路領域是AI應用的先行領域,也是算力需求的主要來源之一。Rubin平台的推出,將推動網際網路領域大模型應用的深化。例如,在自然語言處理領域,基於Rubin平台的大模型能夠實現更精準的語音識別、機器翻譯、文字生成等功能;在電腦視覺領域,大模型能夠實現更高效的圖像識別、視訊分析、目標檢測等功能。國內的網際網路企業如百度、阿里、騰訊等,將利用Rubin平台的算力優勢,進一步提升其大模型的性能和應用體驗。例如,百度的文心一言大模型可能會基於Rubin平台進行訓練和推理,提升模型的響應速度和生成質量;阿里的通義千問大模型可能會拓展更多的應用場景,如智能辦公、智能創作等。3.3.2 金融領域:智能風控與個性化服務的升級金融領域是AI應用的重要場景,Rubin平台的機密計算技術能夠滿足金融領域的資料安全需求,推動智能風控、個性化服務等應用的升級。在智能風控場景中,基於Rubin平台的AI模型能夠即時分析使用者的交易資料,精準識別風險交易,降低金融機構的風險損失;在個性化服務場景中,AI模型能夠根據使用者的需求和偏好,提供個性化的金融產品推薦和服務。國內的金融IT企業如同花順、恆生電子、東方財富等,將受益於Rubin平台的推出。例如,同花順可能會基於Rubin平台最佳化其智能投顧產品,提升產品的精準度和使用者體驗;恆生電子可能會推出基於Rubin平台的智能風控解決方案,為金融機構提供更高效的風險防控服務。3.3.3 醫療領域:AI診斷與藥物研發的突破醫療領域的AI應用能夠提升醫療服務的效率和質量,Rubin平台的高性能和低成本優勢將推動醫療領域AI應用的突破。在AI診斷場景中,基於Rubin平台的AI模型能夠快速分析醫學影像,精準識別疾病,輔助醫生做出診斷;在藥物研發場景中,AI模型能夠模擬藥物分子的相互作用,縮短藥物研發周期,降低研發成本。國內的醫療AI企業如推想科技、鷹瞳科技、藥明康德等,將利用Rubin平台的算力優勢,提升其產品的性能和競爭力。例如,推想科技的肺部AI診斷產品可能會基於Rubin平台進行最佳化,提升診斷的精準率和速度;藥明康德可能會利用Rubin平台加速藥物研發處理程序,推出更多的創新藥物。3.3.4 製造領域:工業質檢與智能生產的普及製造領域的AI應用能夠提升生產效率和產品質量,Rubin平台的推出將推動工業質檢、智能生產等應用的普及。在工業質檢場景中,基於Rubin平台的AI模型能夠即時檢測產品的缺陷,提高質檢的效率和精準率;在智能生產場景中,AI模型能夠最佳化生產流程,實現生產資源的合理配置。國內的工業軟體企業如用友網路、鼎捷數智、賽意資訊等,將受益於Rubin平台的推出。例如,用友網路可能會基於Rubin平台最佳化其工業網際網路平台,為製造企業提供更高效的智能生產解決方案;鼎捷數智可能會推出基於Rubin平台的工業質檢產品,幫助製造企業提升產品質量。3.3.5 自動駕駛領域:高階自動駕駛的落地自動駕駛領域對算力的需求極高,Rubin平台的高性能和低延遲優勢將推動高階自動駕駛的落地。根據華安證券行業周報資訊,聯想車計算與韓國SWM合作的L4級自動駕駛計程車平台基於NVIDIA DRIVE AGX Thor晶片,而Rubin平台的推出將進一步提升自動駕駛系統的算力和效率。國內的自動駕駛企業如小鵬汽車、理想汽車、蔚來汽車等,以及自動駕駛解決方案提供商如Mobileye、小馬智行等,將利用Rubin平台的算力優勢,提升自動駕駛系統的性能。例如,小鵬汽車的XNGP自動駕駛系統可能會基於Rubin平台進行升級,實現更複雜路況下的自動駕駛;小馬智行可能會推出基於Rubin平台的L4級自動駕駛解決方案,加速自動駕駛的商業化落地。3.3.6 教育與環保領域:公益應用的拓展除了商業領域,Rubin平台還將推動AI在教育、環保等公益領域的應用拓展。在教育領域,基於Rubin平台的AI模型能夠實現個性化教學,為學生提供定製化的學習方案;在環保領域,AI模型能夠即時監測環境資料,預測環境變化,為環境保護提供決策支援。國內的教育科技企業如好未來、新東方等,可能會基於Rubin平台最佳化其線上教育產品,提升教學效果;環保科技企業如聚光科技、先河環保等,可能會利用Rubin平台的算力優勢,提升環境監測和分析的效率。三、AI應用普及分析Rubin平台驅動的產業變革4.1 AI應用普及的核心驅動力:成本降低與性能提升Rubin平台對AI應用普及的核心驅動作用,源於其在成本降低和性能提升方面的雙重突破。一方面,推理每Token生成成本相比Blackwell平台降低10倍,這將大幅降低AI應用的營運成本,使更多的企業和機構能夠負擔得起AI技術的應用;另一方面,訓練性能提升3.5倍,運行軟體性能提升5倍,這將提升AI應用的體驗和效率,拓展AI應用的場景範圍。以智能客服場景為例,此前基於Blackwell平台的AI客服系統,由於推理成本較高,僅大型企業能夠應用。Rubin平台推出後,推理成本降低10倍,中小企業也能夠部署AI客服系統,實現客戶服務的自動化。同時,性能的提升使AI客服能夠更準確地理解使用者的需求,提供更優質的服務,進一步推動智能客服的普及。再以藥物研發場景為例,傳統藥物研發周期長達10年以上,成本高達數十億美元。基於Rubin平台的AI模型能夠大幅縮短藥物研發周期,降低研發成本。例如,利用Rubin平台訓練的藥物研發模型,能夠在幾個月內完成傳統方法需要數年的藥物篩選工作,研發成本降低50%以上。這將推動更多的製藥企業採用AI技術,加速藥物研發處理程序,為人類健康帶來更多的福祉。4.2 不同行業AI應用普及的路徑與節奏由於不同行業的數位化水平、算力需求和合規要求存在差異,Rubin平台驅動的AI應用普及將呈現不同的路徑和節奏。4.2.1 網際網路行業:快速普及,深度滲透網際網路行業的數位化水平高,算力需求旺盛,且對新技術的接受度高。Rubin平台推出後,網際網路行業將成為AI應用普及的先行領域,實現快速普及和深度滲透。預計在2026年,網際網路行業的AI應用滲透率將達到80%以上,涵蓋內容推薦、智能客服、語音識別、圖像分析等多個場景。4.2.2 金融與醫療行業:穩步推進,合規優先金融和醫療行業對資料安全和合規要求較高,雖然Rubin平台的機密計算技術能夠滿足其合規需求,但由於行業特性,AI應用普及將穩步推進。預計在2026-2027年,金融行業的AI應用滲透率將達到60%以上,主要集中在智能風控、個性化服務等場景;醫療行業的AI應用滲透率將達到50%以上,主要集中在AI診斷、藥物研發等場景。4.2.3 製造與自動駕駛行業:逐步落地,場景拓展製造和自動駕駛行業的AI應用需要與實體經濟深度融合,涉及到硬體裝置的升級和流程的改造,普及節奏相對較慢。預計在2027-2028年,製造行業的AI應用滲透率將達到50%以上,主要集中在工業質檢、智能生產等場景;自動駕駛行業的L4級自動駕駛將實現規模化落地,滲透率達到30%以上。4.2.4 教育與環保行業:公益引領,逐步推廣教育和環保行業的AI應用更多地體現公益屬性,需要政府和社會的推動。預計在2028年以後,隨著算力成本的進一步降低和技術的成熟,教育和環保行業的AI應用將逐步推廣,滲透率將達到40%以上。4.3 AI應用普及帶來的社會與經濟影響Rubin平台驅動的AI應用普及,將對社會和經濟產生深遠的影響。4.3.1 經濟影響:推動產業升級,促進經濟增長AI應用的規模化普及將推動各行業的產業升級,提升生產效率和產品質量。根據麥肯錫的預測,到2030年,AI技術將為全球經濟貢獻13兆美元的價值。Rubin平台作為推動AI應用普及的關鍵引擎,將在其中發揮重要作用。例如,在製造行業,AI應用能夠提升生產效率20-30%;在金融行業,智能風控能夠降低風險損失15-20%。同時,AI應用的普及還將催生新的產業和商業模式,創造新的就業機會。例如,AI算力服務、AI諮詢服務等新興產業將迎來快速發展;AI訓練師、AI維運工程師等新職業將不斷湧現。4.3.2 社會影響:提升生活質量,促進社會進步AI應用的普及將提升人們的生活質量,為社會進步帶來新的動力。在醫療領域,AI診斷能夠提高疾病的早期診斷率,降低死亡率;在教育領域,個性化教學能夠滿足不同學生的學習需求,提升教育質量;在環保領域,AI監測能夠及時發現環境問題,推動環境保護。此外,AI應用還將推動社會治理的智能化升級。例如,在城市管理領域,AI技術能夠實現交通流量的智能調度、公共安全的即時監測,提升城市管理效率;在政務服務領域,AI技術能夠實現政務流程的簡化和最佳化,提升政務服務水平。四、國內外AI算力基礎設施及應用相關標的梳理基於前文的產業鏈分析,我們梳理了國內外AI算力基礎設施及應用相關的核心標的,涵蓋上游核心硬體、中游算力服務、下游應用場景等多個環節,為投資者提供參考。5.1 國內相關標的5.1.1 上游核心硬體環節1. 晶片設計:寒武紀(688256)、壁仞科技(未上市)、沐曦積體電路(未上市)。寒武紀是國內AI晶片設計的領軍企業,其思元系列晶片在國內市場具有較高的知名度和市場份額,能夠為國內企業提供AI算力支撐。2. 晶圓製造:中芯國際(688981)。中芯國際是國內規模最大、技術最先進的晶圓製造企業,雖然目前的製程工藝與台積電存在差距,但隨著技術的不斷進步,將逐步滿足國內部分AI晶片的製造需求。3. 封裝測試:長電科技(600584)、通富微電(002156)、華天科技(002185)。長電科技是國內封裝測試行業的龍頭企業,具備先進的CoWoS封裝技術能力,能夠為AI晶片提供封裝測試服務。4. 光模組:中際旭創(300308)、新易盛(300502)、天孚通訊(300394)。中際旭創是全球光模組行業的領軍企業,其200Gb/s及以上速率的光模組產品能夠滿足Rubin平台的網路需求。5. PCB:深南電路(002916)、滬電股份(002463)、生益科技(600183)。深南電路是國內高多層、高密度PCB的龍頭企業,能夠為AI晶片和伺服器提供高品質的PCB產品。6. 散熱器:曙光數創(872808)、高瀾股份(300499)、英維克(002837)。曙光數創是國內液冷散熱器的領軍企業,其液冷解決方案能夠滿足AI伺服器的高散熱需求。7. 材料:江豐電子(300666)、有研新材(600206)、安集科技(688019)。江豐電子是國內高純濺射靶材的龍頭企業,其產品能夠滿足晶片製造的需求。5.1.2 中游算力服務環節1. 雲廠商:阿里雲(阿里巴巴,9988.HK)、騰訊雲(騰訊控股,0700.HK)、百度智能雲(百度集團,9888.HK)。國內三大雲廠商均在積極佈局AI算力服務,將逐步部署基於Rubin平台的算力實例,為國內企業提供AI算力服務。2. 專業算力租賃:平行科技(839493)、優刻得(688158)。平行科技是國內專業的算力調度和租賃服務提供商,能夠為AI創業公司和中小企業提供靈活的算力租賃服務。3. 算力基礎設施:中科曙光(603019)、浪潮資訊(000977)、紫光股份(000938)。中科曙光是國內高性能計算領域的領軍企業,其超級電腦產品能夠為AI計算提供強大的算力支撐。5.1.3 下游應用場景環節1. 網際網路領域:百度集團(9888.HK)、阿里巴巴(9988.HK)、騰訊控股(0700.HK)。國內三大網際網路巨頭均在積極推進大模型的研發和應用,將利用Rubin平台的算力優勢,提升大模型的性能和應用體驗。2. 金融領域:同花順(300033)、恆生電子(600570)、東方財富(300059)。同花順是國內金融資訊服務領域的龍頭企業,其智能投顧產品將受益於Rubin平台的推出,提升產品的精準度和使用者體驗。3. 醫療領域:推想科技(688212)、鷹瞳科技(688297)、藥明康德(603259)。推想科技是國內醫療AI領域的領軍企業,其肺部AI診斷產品將基於Rubin平台進行最佳化,提升診斷的精準率和速度。4. 製造領域:用友網路(600588)、鼎捷數智(300378)、賽意資訊(300687)。用友網路是國內工業軟體領域的龍頭企業,其工業網際網路平台將基於Rubin平台最佳化,為製造企業提供更高效的智能生產解決方案。5. 自動駕駛領域:小鵬汽車(XPEV.US)、理想汽車(LI.US)、蔚來汽車(NIO.US)、小馬智行(未上市)。國內的自動駕駛企業將利用Rubin平台的算力優勢,提升自動駕駛系統的性能,加速高階自動駕駛的落地。6. 其他領域:金山辦公(688111)、焦點科技(002315)、阜博集團(3738.HK)。金山辦公的辦公軟體產品將融入AI功能,提升使用者的辦公效率;焦點科技的跨境電商平台將利用AI技術提昇平台的營運效率和使用者體驗。5.2 國外相關標的5.2.1 上游核心硬體環節1. 晶片設計:輝達(NVDA.US)、AMD(AMD.US)、英特爾(INTC.US)。輝達是全球AI晶片設計的領軍企業,Rubin平台的推出將進一步鞏固其市場地位;AMD和英特爾也在積極佈局AI晶片領域,與輝達形成競爭。2. 晶圓製造:台積電(TSM.US)、三星電子(SSNLF.OTCMKTS)。台積電是全球最先進的晶圓製造企業,Rubin平台的晶片採用台積電的3nm製程工藝;三星電子也在積極推進先進製程工藝的研發,與台積電形成競爭。3. 封裝測試:日月光(ASE.US)、安靠(AMKR.US)。日月光是全球封裝測試行業的龍頭企業,具備先進的CoWoS封裝技術能力,為Rubin平台的晶片提供封裝測試服務。4. 光模組:Finisar(FNSR.US)、Lumentum(LITE.US)。Finisar是全球光模組行業的領軍企業,其高速光模組產品能夠滿足Rubin平台的網路需求。5.2.2 中游算力服務環節1. 雲廠商:亞馬遜(AMZN.US)、Google(GOOGL.US)、微軟(MSFT.US)、甲骨文(ORCL.US)。全球四大雲巨頭已確認部署基於Rubin平台的算力實例,將為全球使用者提供頂尖的AI算力服務。2. 專業算力租賃:CoreWeave(未上市)、Lambda(未上市)。CoreWeave是全球專業AI算力租賃領域的領軍企業,將部署基於Rubin平台的算力資源,為客戶提供低成本的算力租賃服務。5.2.3 下游應用場景環節1. 網際網路領域:Meta(META.US)、Google(GOOGL.US)、微軟(MSFT.US)。這些網際網路巨頭均在積極推進大模型的研發和應用,將利用Rubin平台的算力優勢,提升大模型的性能和應用體驗。2. 金融領域:摩根大通(JPM.US)、高盛(GS.US)、花旗集團(C.US)。這些國際金融巨頭將利用Rubin平台的算力優勢,最佳化其智能風控和個性化服務系統。3. 醫療領域:強生(JNJ.US)、輝瑞(PFE.US)、默克(MRK.US)。這些國際製藥巨頭將利用Rubin平台加速藥物研發處理程序,推出更多的創新藥物。4. 自動駕駛領域:特斯拉(TSLA.US)、通用汽車(GM.US)、福特汽車(F.US)。這些國際汽車企業將利用Rubin平台的算力優勢,提升自動駕駛系統的性能,加速高階自動駕駛的落地。五、未來展望展望未來,Rubin平台將成為推動全球AI算力產業發展的核心引擎,帶動百兆規模AI算力生態的建構。在技術層面,輝達將持續最佳化Rubin平台的性能,推出更先進的技術和產品,進一步提昇平台的競爭力;在產業鏈層面,Rubin平台將帶動上游核心硬體、中游算力服務、下游應用場景等多個環節的協同發展,形成完善的AI算力產業生態;在應用層面,AI應用將實現規模化普及,滲透到社會經濟的各個領域,推動產業升級和社會進步。對於國內企業來說,應抓住Rubin平台帶來的發展機遇,加強技術研發,提升自身的核心競爭力。在硬體領域,加快先進製程工藝的研發,突破關鍵零部件和材料的技術瓶頸;在軟體領域,建構完善的AI軟體生態,提升對Rubin平台的適配能力;在應用領域,積極探索AI技術在各行業的應用場景,推動AI應用的規模化普及。同時,政府應加強政策支援,完善相關法律法規,為AI算力產業的發展創造良好的環境。總之,Rubin平台的推出標誌著AI算力產業進入了新的發展階段,百兆規模的AI算力生態正在加速形成。在這一過程中,企業、政府和社會各界應加強合作,共同推動AI算力產業的健康發展,為全球經濟和社會的進步做出更大的貢獻。 (AI雲原生智能算力架構)
輝達這招太狠了!次世代Rubin系統將消耗數百萬TB固態硬碟,加劇儲存短缺
光刻機都刻冒煙WCCFTech報導,花旗銀行(Citi)分析師在最新研究報告中指出,輝達在下一代代號為“Vera Rubin”的 AI 伺服器系統將對 NAND 快閃記憶體產生極其龐大的需求,這可能會進一步加劇全球固態硬碟的供應短缺。報告顯示,為了支援輝達全新的推理上下文記憶體儲存(ICMS)技術,輝達為每個機架的GPU配置約16TB NAND,每台 Vera Rubin 伺服器(以 NVL72 規格為例)預計需要額外配備約 1152TB 的 SSD 儲存空間。這一規格需求遠超目前常規伺服器的儲存配置。ICMS(Inference Context Memory Storage,推理上下文記憶體儲存)被視為解決 AI 推理“記憶體牆”問題的核心技術。ICMS被認為是G3.5級儲存層級,它通過萬兆級的乙太網路(Spectrum-X)將大量快閃記憶體顆粒連接在一起,形成一個“准記憶體級”的儲存層。輝達官方資料顯示,相比傳統儲存方案,ICMS 能將 AI 生成速度提升 5 倍,同時能效比也提升了 5 倍。媒體援引花旗銀行的預測資料稱,2026 年 Vera Rubin 伺服器的出貨量預計將達到 3 萬台,而到 2027 年這一數字將增長至 10 萬台。受此推動,僅輝達 AI 系統產生的 NAND 需求在 2026 年就將達到 3460 萬 TB,並在 2027 年激增至 1.152 億 TB。從市場份額的角度來看,這一單一來源的需求量足以撼動整個儲存行業。據估算,輝達的這些 AI 需求將分別佔據 2026 年和 2027 年全球 NAND 預期總需求的 2.8% 和 9.3%。分析師指出,這種龐大需求將進一步加劇目前NAND快閃記憶體的供需關係惡劣性。顯然這對於消費級市場又是一個壞消息,分析指出,AI巨頭和雲服務商(CSP)開始大規模搶購大容量SSD訂單,NAND快閃記憶體市場或將上演目前DRAM價格劇烈上漲的局面,個人PC使用者的零售固態硬碟也將被嚴重推高,雖然目前來說已經是了。目前,包括三星、美光和 SK 海力士在內的主要儲存廠商正在積極調整產能,試圖在利潤豐厚的 AI 專用儲存與傳統消費電子需求之間尋找平衡。然而,面對數以億計 TB 等級的增量需求,儲存行業的產能爬坡依然面臨嚴峻挑戰。 (AMP實驗室)
儲存還要繼續瘋!輝達ICMSP讓快閃記憶體漲停,黃仁勳要一統儲存處理器
輝達推出全新推理上下文(Inference Context)記憶體儲存平台(ICMSP),通過將推理上下文解除安裝(Offload)至NVMe SSD的流程標準化,解決KV快取容量日益緊張的問題。該平台於 2026 年國際消費電子展(CES 2026)正式發佈,致力於將GPU的KV快取(Key-Value Cache)擴展至基於 NVMe 的儲存裝置,並獲得輝達 NVMe 儲存合作夥伴的支援。此消息一出,引爆的是本就漲到高不可攀的儲存廠商股價,多家儲存廠商和快閃記憶體控製器廠商股價直接漲停,快閃記憶體極有可能步DRAM後塵成為AI基建帶動下第二波緊俏儲存器,儲存價格特別是快閃記憶體價格在2026年可能成為儲存產品整體價格繼續飆漲的第二輪推動力。從某個角度考慮,ICMSP的推出,讓GPU晶片可以降低對大容量HBM產品的嚴重依賴,同時也讓AMD同步發佈的Helios機架平台變得有些“過時”,因為輝達已經邁向了存算結合的新階段。不過相比這些,黃仁勳在解答分析師問題時更是直言“我們現在是全球最大的網路公司。我預計我們還將成為全球最大的儲存處理器公司”,通過不斷收購儲存技術,輝達致力於在AI算力體系架構中,擁有更多的話語權。從這點來看,ICMSP將成為輝達在AI走向千行百業的工程化過程中主導的技術之一。認識一下ICMSP在大型語言模型推理過程中,KV快取用於儲存上下文資料 —— 即模型處理輸入時,表徵令牌間關係的鍵(keys)和值(values)。隨著推理推進,新令牌參數不斷生成,上下文資料量持續增長,往往會超出 GPU 的可用記憶體。當早期快取條目被淘汰後又需重新呼叫時,必須重新計算,這會增加延遲。智能體 AI(Agentic AI)和長上下文工作負載進一步加劇了這一問題,因為它們需要保留更多上下文資料。而 ICMSP 通過將 NVMe 儲存上的 KV 快取納入上下文記憶體地址空間,並支援跨推理任務持久化儲存,有效緩解了這一困境。輝達創始人兼CEO黃仁勳表示:“人工智慧正在徹底變革整個計算架構 —— 如今,這場變革已延伸至儲存領域。人工智慧不再侷限於一次性互動的聊天機器人,而是能理解物理世界、進行長周期推理、立足事實、借助工具完成實際工作,並具備短期和長期記憶的智能協作夥伴。借助BlueField-4,輝達與軟硬體合作夥伴正為人工智慧的下一個前沿領域重塑儲存架構。” 他在CES演講中提到,通過BlueField-4,機櫃中可直接部署KV快取上下文記憶體儲存。隨著 AI 模型規模擴展至兆參數等級,且支援多步驟推理,其生成的上下文資料量極為龐大,同時運行的此類模型數量也在不斷增加。KV 快取軟體(即 ICMSP)需適配GPU、GPU 伺服器及 GPU 機櫃叢集,這些裝置可能同時處理多種不同的推理工作負載。每個模型 / 智能體工作負載的參數集都需妥善管理,並能精準對接運行在特定 GPU 上的目標AI模型或智能體 —— 且這種對應關係可能隨任務調度動態變化。這意味著需要專門的 KV 快取上下文中繼資料管理機制。基於NVMe的KV快取儲存需實現跨層級相容,涵蓋 GPU、GPU 伺服器、GPU 機櫃乃至多機櫃叢集。輝達表示,ICMSP 不僅提升了 KV 快取容量,還加速了機櫃級 AI 系統叢集間的上下文共享。多輪互動 AI 智能體的持久化上下文特性,提高了響應速度,提升了 AI 工廠的吞吐量,並支援長上下文、多智能體推理的高效擴展。圖1 基於 NVMe 的 KV 快取儲存需實現跨層級相容,覆蓋GPU、GPU 伺服器、GPU機櫃乃至GPU機櫃叢集ICMSP 依賴Rubin GPU叢集級快取容量,以及輝達即將推出的BlueField-4資料處理器(DPU)—— 該處理器整合Grace CPU,吞吐量高達 800 Gbps。BlueField-4 將提供硬體加速的快取部署管理功能,消除中繼資料開銷,減少資料遷移,並確保GPU節點的安全隔離訪問。輝達的軟體產品(包括DOCA框架、Dynamo KV快取解除安裝引擎及其內建的 NIXL(輝達推理傳輸庫)軟體實現了 AI 節點間 KV 快取的智能加速共享。儲存架構必須重構,在這個過程中,上下文成為新瓶頸,主要體現在模型規模持續擴大、上下文(Context)長度不斷增加、多輪對話導致上下文(Context)累積以及並行使用者與會話數量增多等方面。圖2 黃仁勳在 CES 2026 展示的上下文瓶頸幻燈片Dynamo支援跨記憶體和儲存層級的協同工作,覆蓋GPU的高頻寬記憶體(HBM)、GPU 伺服器 CPU 的動態隨機存取儲存器(DRAM)、直連 NVMe SSD 及網路附加儲存。此外,還需搭配輝達Spectrum-X乙太網路,為基於RDMA的AI原生KV快取訪問提供高性能網路架構。輝達稱,ICMSP的能效將比傳統儲存提升5倍,令牌每秒處理量最高可提升5倍。圖3 黃仁勳在 CES 2026 展示的推理上下文記憶體儲存平台幻燈片行業反饋鑑於輝達在AI算力架構方面擁有絕對的話語權,ICMSP的推出必定會得到一眾合作夥伴的鼎力支援,以免錯失商機。輝達列出了眾多將通過BlueField-4支援ICMSP的儲存合作夥伴,BlueField-4 將於 2026 年下半年正式上市。首批合作夥伴包括 AIC、Cloudian、DDN、戴爾科技、HPE、日立資料系統、IBM、Nutanix、Pure Storage、超微(Supermicro)、VAST Data 和 WEKA。預計 NetApp、聯想(Lenovo)和 Hammerspace 也將後續加入。將KV快取解除安裝或擴展至NVMe SSD的架構理念,其實已有廠商率先實踐 —— 例如 Hammerspace的零級儲存技術(Tier zero tech)、VAST Data的開放原始碼軟體VAST Undivided Attention(VUA),以及WEKA的增強記憶體網格(Augmented Memory Grid)。戴爾也通過在PowerScale、ObjectScale和閃電計畫(Project Lightning,私人預覽版)儲存產品中整合LMCache和NIXL等技術,實現了KV快取解除安裝功能。這些均為基於BlueField-3的解決方案。如今,輝達旨在為所有儲存合作夥伴提供標準化的KV快取記憶體擴展框架。戴爾、IBM、VAST Data和WEKA已明確表示將支援 ICMSP。WEKA在題為《上下文時代已然來臨》的部落格中,詳細闡述了支援該平台的實施方案及核心原因,指出ICMSP是 “一類新型 AI 原生基礎設施,將推理上下文視為一級平台資源。這一架構方向與WEKA的增強記憶體網格高度契合,後者通過擴展 GPU 記憶體,實現了大規模、無限量、高速、高效且可復用的上下文儲存。”WEKA產品行銷副總裁Jim Sherhart表示:“為上下文資料套用為長期儲存資料設計的重量級持久性、複製和中繼資料服務,會產生不必要的開銷 —— 導致延遲增加、功耗上升,同時降低推理經濟性。”“推理上下文固然需要適當的管控,但它的特性與企業級資料不同,不應強行套用企業級儲存語義。傳統協議和資料服務帶來的開銷(如中繼資料路徑、小 I/O 放大、默認的持久性 / 複製機制、在錯誤層級施加的多租戶控制),可能將‘高速上下文’降級為‘低速儲存’。當上下文對性能至關重要且需頻繁複用的情況下,這種開銷會直接體現為尾部延遲增加、吞吐量下降和效率降低。”VAST Data 表示,其儲存/AI作業系統將運行在BlueField-4處理器上,“打破傳統儲存層級界限,提供機櫃級共享KV快取,為長上下文、多輪對話和多智能體推理提供確定性訪問性能。”VAST 全球技術合作副總裁John Mao稱:“推理正逐漸成為一個記憶體系統,而非單純的計算任務。未來的贏家不會是擁有最多原始計算資源的叢集,而是那些能以線速遷移、共享和管控上下文的叢集。連續性已成為新的性能前沿。如果上下文無法按需獲取,GPU 將陷入閒置,整個系統的經濟性將徹底崩塌。通過在輝達 BlueField-4 上運行 VAST AI 作業系統,我們正將上下文轉化為共享基礎設施 —— 默認高速、按需提供策略驅動管控,並能隨著智能體 AI 的規模擴展保持性能穩定性。”關於ICSMP,黃仁勳在CES 2026後答分析師會議上做了更多詳細的說明,其中最驚人的是黃仁勳表態希望未來輝達成為最大的儲存處理器公司,從而掌握更巨量資料話語權。Aaron Rakers- 富國銀行證券有限責任公司研究部:目前供應鏈面臨著諸多動態變化,比如 DRAM 價格、供應可用性等問題。我想瞭解你們對供應鏈的看法。黃仁勳(Jen-Hsun Huang:我們的供應鏈涵蓋了上游和下游。我們的優勢在於,由於我們的規模已經非常龐大,而且在如此大的規模下仍然保持快速增長,我們很早就開始為合作夥伴準備應對這種大規模的產能擴張。過去兩年,大家一直在和我討論供應鏈問題 —— 這是因為我們的供應鏈規模巨大,而且增長速度驚人。每個季度,我們的增長規模都相當於一家完整的公司,這還只是增量部分。我們每季度都在新增一家大型上市公司的規模。因此,我們在 MGX(機架級產品)方面所做的所有供應鏈最佳化工作。我們之所以如此注重元件標準化、避免生態系統和供應鏈資源浪費、並為合作夥伴提供大量投資(包括預付款支援),就是為了幫助他們擴大產能。我們談論的不是數百億美元,而是數千億美元的投入,以幫助供應鏈做好準備。因此,我認為我們目前的供應鏈狀況非常良好,這得益於我們與合作夥伴長期穩定的合作關係。而且,大家應該知道,我們是全球唯一一家直接採購 DRAM 的晶片公司。仔細想想,我們是全球唯一一家直接採購DRAM的晶片公司。有人問我們為什麼要這麼做?因為事實證明,將DRAM整合為CoWoS(晶圓級系統整合)並打造超級電腦的難度極大。而建立這樣的供應鏈體系,給了我們巨大的競爭優勢。現在市場環境雖然嚴峻,但我們很幸運擁有這樣的技術能力。說到功耗,看看我們的上游合作夥伴 —— 系統製造商、記憶體供應商、多層陶瓷電容器(MLCC)供應商、印刷電路板(PCB)供應商等,我們與他們都保持著緊密的合作。James Schneider- 高盛集團研究部:我想瞭解一下你們今天宣佈的上下文(Context)記憶體儲存控制技術。它在各類應用場景中的重要性如何?您是否認為它會成為某些特定客戶問題的性能瓶頸?我們是否可以期待你們在這個方向上繼續創新,就像你們過去在網路領域所做的那樣?黃仁勳(Jen-Hsun Huang):我們現在是全球最大的網路公司。我預計我們還將成為全球最大的儲存處理器公司,而且很可能我們的高端 CPU 出貨量也將超過其他任何公司。原因在於,Vera 和 Grace(以及 Vera 相關產品)已經應用於每個節點的智能網路介面卡(SmartNIC)中。我們現在是 AI 工廠的智能網路介面卡提供商。當然,很多雲服務提供商都有自己的智能網路介面卡(如亞馬遜的 Nitro),他們會繼續使用。但在外部市場,BlueField 系列產品取得了巨大的成功,而且 BlueField-4 將會表現更加出色。BlueField-4 的採用率(不僅僅是早期採用)正在快速增長。其上層的軟體層名為 DOCA(發音與 CUDA 相近),現在已經被廣泛採用。因此,在高性能網路的東西向流量(east-west traffic)方面,我們是市場領導者。在網路隔離的南北向流量(north-south networking)方面,我非常有信心我們也將成為市場領導者之一。而儲存領域目前是一個完全未被充分服務的市場。傳統的儲存基於 SQL 結構化資料,結構化資料庫相對輕量化。而 AI 資料庫的鍵值快取(KV caches)則極其龐大,你不可能將其掛在南北向網路上 —— 這會造成網路流量的巨大浪費。你需要將其直接整合到計算架構中,這就是我們推出這一新層級儲存技術的原因。這是一個全新的市場,很可能會成為全球最大的儲存市場 —— 它將承載全球 AI 的工作記憶體。這種儲存的規模將是巨大的,而且需要極高的性能。我非常高興的是,目前人們進行的推理工作負載已經超出了全球現有基礎設施的計算能力。因此,我們現在處理的上下文(Context)記憶體、令牌記憶體和鍵值快取的規模已經非常龐大,傳統的儲存系統已經無法滿足需求。當市場出現這種拐點,而你又有遠見能夠預見它的到來時,這就是進入一個新市場的最佳時機。而 BlueField-4 在這一領域具有絕對的競爭優勢,沒有任何產品能與之匹敵。Ken Chui- Robocap:我的問題同時涉及利潤率和技術。你們目前已經擁有 CPX 技術,通過收購 Grok,你們還獲得了可用於推理的 SRAM 技術。此外,你們的團隊一個月前發表了一篇論文,討論如何在 GPU 中使用 CPX 技術,從而減少對 HBM 的依賴 —— 因為可以用 GDDR7 替代 HBM。我們都知道 HBM 的成本非常高。因此,未來通過結合 Grok 的技術和你們內部的 CPX 技術,你們對 HBM 的使用會有何變化?這是否能更好地控制 HBM 的使用成本,從而對利潤率產生積極影響?黃仁勳(Jen-Hsun Huang):當然。我可以先描述一下這些技術各自的優勢,然後再談談面臨的挑戰。例如,CPX 在每美元預填充性能(prefill per dollar)方面比普通的 Rubin 更有優勢 ——Rubin CPX 的每美元預填充性能高於普通版 Rubin。如果將所有資料都儲存在 SRAM 中,那麼當然不需要 HBM 記憶體。但問題是,SRAM 能夠支援的模型規模比 HBM 小 100 倍左右。不過,對於某些工作負載來說,SRAM 的速度要比 HBM 快得多,因此性能會極其出色。因此,我認為它在預填充(prefill)和解碼(decode)等場景中會有明顯優勢。但問題在於,工作負載的形態一直在變化 —— 有時是混合專家模型(MOE),有時是多模態模型,有時是擴散模型(diffusion models),有時是自回歸模型(auto regressive models),有時是狀態空間模型(SSMs)。這些模型的形態和規模各不相同,對 NVLink、HBM 記憶體或其他元件的壓力也會不斷變化。因此,我的觀點是,由於工作負載變化如此之快,而且全球的創新速度也在加快,輝達之所以能夠成為通用解決方案,正是因為我們的靈活性。大家明白我的意思嗎?如果你的工作負載從早到晚都在變化,而且客戶需求各不相同,那麼我們的產品具有很強的通用性,幾乎適用於所有場景。你可能能夠針對某一種特定工作負載進行極致最佳化,但如果這種工作負載只佔總負載的 10%、5% 甚至 12%,那麼當它不被使用時,這部分資料中心資源就被浪費了 —— 而你只有 1 吉瓦的電力資源。關鍵在於,你不能把資料中心看作是擁有無限資金和空間的資源,而是要在有限的電力下實現整體利用率的最大化。架構越靈活,整體效益就越好。如果採用統一的架構 —— 例如,當我們更新 DeepSeek 模型時,資料中心內所有 GPU 的性能都會立即提升;當我們更新通義千問(Qwen)模型的庫時,整個資料中心的性能都會提升 —— 這樣的協同效應是非常顯著的。但如果你有 17 種不同的架構,每種架構只適用於特定場景,那麼整體的總擁有成本(TCO)反而會更高。這就是面臨的挑戰。即使在我們研發這些技術時,也非常清楚這一點 —— 這非常困難。 (EEPW)
1/14盤後:川普一句話重電全瘋了!士電、華城、亞力鎖死,大同爆天量,缺電概念股無敵?📊盤勢分析今日美股呈現兩樣情的走勢,市場情緒在通膨降溫的喜悅與財報壓力間拉鋸。早盤受去年 12 月消費者物價指數(CPI)數據激勵,主要指數一度上揚,數據顯示核心 CPI 年增率降至 2.6%,創下四年來新低,令投資人對物價壓力逐步放緩感到安心。然而,聯準會(Fed)在 1 月政策會議預期將按兵不動,加上司法部對鮑爾的調查引發政治壓力疑慮,以及川普提出的關稅威脅等國際消息,讓市場觀望氛圍轉濃,道瓊與標普隨後回吐漲幅轉而震盪。在產業表現方面,隨著第四季財報季揭開序幕,金融類股成為今日最大的拖累。領頭羊摩根大通雖然營運優於預期,但受投資銀行業務疲軟與一次性信用損失影響,股價重挫逾 4%,拖累整體銀行板塊表現。相較之下,能源股表現亮眼,科技與 AI 相關產業則在逆境中展現韌性。Meta 宣布裁減 Reality Labs 部門逾千名員工,將重心由元宇宙轉向 AI 穿戴裝置,股價隨後收低。半導體類股則是今日盤面上的一大亮點,費半指數逆勢突圍。輝達(Nvidia)英特爾則因雲端需求強勁,獲分析師調升評等,雙雙勁揚超過 6%。蘋果今日小幅上漲,而亞馬遜與微軟則受到大盤壓抑而收黑。市場目前正處於「AI 生產力週期的轉折期」,雖然硬體端拉貨需求旺盛,但軟體端的具體獲利仍需進一步由財報數據驗證。道瓊工業指數下跌 0.8%,收在 49,191.99 點;標普 500 下跌 0.19%,收在 6,963.74 點;那斯達克指數下跌 0.1%,收在 23,709.873 點;費城半導體指數逆勢上揚 0.95%,收在 7,747.993 點。今日台股牛氣沖天,在美股費城半導體指數續強,以及超微(AMD)與英特爾(Intel)等晶片巨頭大幅拉升的激勵下,加權指數開高走高,盤中一度直逼三萬一千點大關,連續三天改寫盤中歷史新高。除了國際股市的推波助瀾,市場傳出美國對台關稅有望調降至 15% 且不疊加計算,加上台積電傳出將在美國加碼投資設廠以換取貿易協議,極大提振了市場信心。即便國安基金宣布在發揮穩定效成後逐步退場,多方行情依舊銳不可擋,帶動成交量能顯著放大。資金在各大族群間流轉自如,最為亮眼的莫過於重電能源族群,受惠於 AI 資料中心龐大的用電需求,以及川普點名科技公司須自付發電成本,士電、華城、亞力全數強攻漲停,大同也爆出驚人天量勁揚。被動元件族群則在報價漲價循環與 AI 題材助攻下,由龍頭國巨領軍衝锋,多檔中小型股同步鎖住漲停,展現強勁的補漲力道。此外,半導體特化及矽晶圓族群隨台積電擴產效應起舞,永光、三晃、環球晶及合晶紛紛亮燈;低軌衛星題材的金寶也再度高掛紅燈,盤面甚至一度閃現「32 千金」的盛況,股王信驊更續創歷史天價。相較於科技與重電的熱絡,部分傳產與金融族群表現稍顯疲軟。金融股受美方擬對信用卡利率設限等利空干擾,摩根大通股價走弱帶動整體族群沉悶;水泥與食品類股也因資金轉向電子題材而出現小幅收黑。半導體成熟製程雖有世界先進受惠外溢訂單與漲價預期而飆漲,但聯電受外資降評影響,股價開高後翻黑,盤勢呈現強弱分明的格局。加權指數上漲 0.76%,收在 30,941.78 點;櫃買指數上漲 1.84%,收在 290.6 點。權值股方面,台積電平盤收在 1,710 元、鴻海上漲 3.53%、聯發科上漲 1.01%。🔮盤勢預估今日超過70檔股票漲停,都集中在100元之下股票,盤面氣氛越來越投機,過年前重心在美股財報季,成交量持續創高有利證券股表現,今日重電及機器人族群開始表現,關稅底定後工具機利空出盡,後續觀察漲勢能否延續,6月spaceX將IPO,上半年華爾街焦點仍少不了太空衛星題材,Q1新主流開始冒出,科技股主線仍在AI但次族群開始轉換。👨‍⚕️我是股科大夫 容逸燊每天三分鐘,幫你的持股把把脈!【YT直播】週二 20:00 盤中直播【訂閱股科大夫YT】https://bit.ly/dr_stockYT【官方LINE @】https://line.me/R/ti/p/@dr.stock【專人服務諮詢】0800-668-568IG: https://www.instagram.com/dr.stock0/Threads: https://www.threads.com/@dr.stock0每天不到一杯咖啡 訂閱專家的腦袋https://www.chifar.com.tw/subscription/drstock/
全球晶片TOP 10:第一眾望所歸,英特爾再跌一位
根據商業和技術洞察公司 Gartner, Inc. 的初步結果,2025 年全球半導體收入總計將達到 7930 億美元,同比增長 21%。Gartner高級首席分析師Rajeev Rajput表示: “人工智慧半導體——包括處理器、高頻寬記憶體(HBM)和網路元件——繼續推動半導體市場前所未有的增長,預計到2025年將佔總銷售額的近三分之一。隨著人工智慧基礎設施支出預計在2026年超過1.3兆美元,這一主導地位還將繼續擴大。”輝達鞏固了領先優勢,而英特爾的市場份額持續下滑。在排名前 10 的半導體供應商中,有 5 家供應商的排名從 2024 年起發生了變化(見表 1)。到 2025 年, NVIDIA 的領先優勢將比三星擴大 530 億美元。NVIDIA 成為首家半導體銷售額突破 1000 億美元的供應商,並在 2025 年為行業增長貢獻了超過 35% 的份額。三星電子保持第二的位置。三星半導體收入達730億美元,主要得益於儲存器業務(增長13%),而非儲存器業務收入同比下降8%。SK海力士躍升至第三位,預計2025年營收將達到610億美元。這比上年增長37%,主要得益於人工智慧伺服器對HBM的強勁需求。英特爾的市場份額下降,年底市場份額為 6%,是 2021 年的一半。人工智慧基礎設施的建設正在催生對人工智慧處理器、HBM和網路晶片的強勁需求。到2025年,HBM將佔DRAM市場的23%,銷售額超過300億美元,而人工智慧處理器的銷售額將超過2000億美元。預計到2029年,人工智慧半導體將佔半導體總銷售額的50%以上。全球半導體市場規模將在2026年接近1兆美元世界半導體貿易統計組織(WSTS)此前發佈了 2025 年秋季預測報告,提高了 2025 年的增長預期,並確認全球半導體市場在 2026 年之前將繼續保持強勁的增長勢頭。繼第三季度表現強於預期之後,全球半導體市場目前預計到2025年將增長22%,達到7720億美元。與2025年夏季的預測相比,這一數字上調了近450億美元(約7個百分點)。此次上調主要受邏輯電路和儲存器業務的推動,這得益於人工智慧相關應用以及計算和資料中心基礎設施的持續需求。邏輯電路預計將增長37%(上調8個百分點),儲存器預計將增長28%(上調11個百分點)。其他產品類別在經歷了2024年的下行周期後有所改善,但復甦勢頭依然溫和:感測器增長10%,微處理器增長8%,模擬電路增長7%,光電子器件增長4%。分立器件業務預計將略有下滑,主要原因是汽車應用領域持續疲軟。從區域來看,美洲和亞太地區預計將增長25%至30%,這反映了邏輯電路和儲存器業務的強勁增長。歐洲預計增長6%,而日本預計將下降4%。世界半導體行業協會(WSTS)預測,到2026年,全球半導體市場規模將增長超過25%,達到9750億美元。預計所有地區和產品類別都將實現增長。儲存器和邏輯器件預計仍將引領增長,兩者的年增長率均超過30%。 其他大多數產品類別預計將繼續逐步復甦,增速較為溫和。從區域來看,所有主要市場預計都將擴張。美洲和亞太地區仍將是增長最強勁的地區,而歐洲和日本預計將實現兩位數的低增長。(來源:綜合自gartner)(半導體行業觀察)
輝達,築起新高牆
日前,輝達一下子解密了六顆晶片,引起了全球轟動。但其實早在去年年底,就有一則重磅消息在AI晶片圈炸響:推理晶片初創公司 Groq 宣佈,已與輝達達成一項“非獨家許可協議”。公告只有寥寥數語,但隨之而來的資訊卻迅速改變了這筆交易的份量——Groq 創始人兼 CEO Jonathan Ross、總裁 Sunny Madra 以及多名核心成員,將一併加入輝達,參與授權技術的推進與規模化。如果只看形式,這並不是一次收購;如果只看結果,它卻幾乎具備了收購的全部要素。技術被許可,團隊被吸納,關鍵人物離場,Groq 雖然名義上繼續營運,但其最具決定性的資產——技術路線與靈魂人物——已然轉移。這是一種典型的“收購式招聘”,也是輝達近年來愈發嫻熟的一種操作方式:在不觸碰監管紅線的前提下,把潛在威脅納入自己的體系之中。更重要的是,這一步發生在一個極其敏感的時間點。AI 晶片的競爭,正在從“訓練為王”轉向“推理決勝”。輝達的 GPU 依舊牢牢統治著訓練市場,但在推理端,AMD、定製 ASIC、雲廠商自研晶片正在快速逼近,成本與供應鏈多元化成為大客戶最現實的訴求。Groq 的 LPU 正是為推理而生,主打極致低延遲和性能確定性,其創始人 Jonathan Ross 更被視為Google TPU 背後的關鍵推手——這不是一家可以被忽視的公司。因此,與其說輝達“買”下了 Groq,不如說它在競爭真正白熱化之前,提前拆掉了一段可能威脅自身根基的城梯。回看歷史,從 Mellanox 到未遂的 Arm,再到今天的 Groq,輝達並非只是在擴張版圖,而是在一磚一瓦地加高自己的防禦體系。輝達在乎的,似乎已不再是某一筆交易的得失,而是如何在訓練、推理、網路、軟體與生態的多條戰線上,同時構築起一道幾乎無法繞開的“城牆”。算力,並不是焦慮根源輝達與 Groq 達成交易,這件事本身的重要性,並不在於它是否會推出一款“非 GPU 的 AI 晶片”,而在於它暴露了輝達真正的焦慮來源。今天的輝達,幾乎已經在訓練算力層面取得了事實上的統治地位,但 AI 產業的重心正在悄然移動——從“誰能堆更多 FLOPS”,轉向“誰能更高效、更確定性地交付推理結果”。Groq 的價值並不在算力規模,而在系統哲學。它強調確定性延遲、強調編譯器對執行路徑的絕對控制、強調“推理不是硬體問題,而是系統問題”。這套思路,與 GPU 世界中長期存在的動態調度、非確定性執行形成鮮明對比。Groq 的創始人 Jonathan Ross 是 Google 第一代 TPU 的首席架構師。他在 2016 年離開 Google 後,試圖打造一個比 TPU 更快、更可控的“通用 AI 處理器”。Groq 的核心技術是自研的 LPU(Language Processing Unit)架構,這種架構拋棄了傳統的亂序執行和動態調度機制,採用靜態調度、資料路徑固定、執行流程可預測的“確定性設計”(deterministic design)。晶片內部採用 SRAM 技術,而非輝達 GPU 依賴的片外 HBM 視訊記憶體,這讓 Groq 在某些場景下實現了極致的低延遲。Groq 最初也曾試圖進入訓練市場,但很快發現這是一條死路:訓練市場的競爭邏輯是“大生態+大資本+大客戶”。Groq 的架構對主流 AI 框架(如 PyTorch、TensorFlow)的相容性有限,也缺乏成熟的編譯工具鏈,使得訓練任務的遷移成本極高。從 2023 年下半年開始,Groq 明確轉向推理即服務(Inference-as-a-Service)方向。2024 年,Groq 展示了其系統運行 Llama 2-70B 模型時,實現每秒超過 300 個 Token 的生成速度,遠超主流 GPU 系統。這一優勢讓 Groq 迅速吸引到一批對延遲敏感的垂直行業使用者,如金融交易系統、軍事資訊處理、語音/視訊同步字幕生成。Groq 將產品定位從“AI 晶片”擴展為“AI 處理平台”,通過 GroqCloud 平台向開發者提供 API 存取權,與 LangChain、LlamaIndex 等生態整合。正是這種“異類”,恰恰點中了輝達的軟肋。隨著大模型進入規模化落地階段,越來越多客戶開始關心延遲、能效、TCO 和系統複雜度,而不再只是顯示卡型號。推理正在走向碎片化:雲廠商自研 ASIC(AWS 的 Trainium 和 Inferentia、Google TPU、Microsoft Maia)、CPU+加速器混合部署、邊緣側異構系統層出不窮。如果輝達只停留在“賣最強 GPU”,它在推理端的話語權,遲早會被系統層慢慢侵蝕。對於輝達和黃仁勳而言,Groq 的意義並不是“補一塊晶片”,而是補一塊輝達尚未完全掌控的系統能力:對執行路徑的強約束、對延遲的可預測性、以及編譯器主導的算力使用方式。換句話說,如果說 GPU 是輝達的地基,那麼 Groq 代表的,是它試圖插入系統頂層的一根“控制梁”。對“叢集控制權”的長期執念而在與Groq達成交易之前,輝達其實早已悄然埋下了一條新的主線。很多人習慣從作業系統的角度理解算力生態,認為誰控制了 Linux 發行版、誰控制了核心,誰就掌握了計算世界的話語權。但在 AI 時代,這種邏輯已經開始失效。輝達對此看得非常清楚:真正重要的,不是節點上的作業系統,而是節點之上的叢集控制方式。這正是輝達在 2022 年 1 月收購 Bright Computing 的根本原因。當時這筆交易的金額未公開,但 Bright Computing 已完成兩輪融資,共籌集 1650 萬美元,其叢集管理工具 BCM 在全球擁有超過 700 家使用者。Bright Cluster Manager 並不是一個時髦的新工具,它誕生於傳統 HPC 世界,最初用於管理高度複雜、對穩定性和可預測性要求極高的超級計算系統。正因為如此,它並不追逐某一種特定技術潮流,而是長期圍繞“如何在大規模叢集中統一部署、監控、修復和調度”這個核心問題演進。BCM 最初是為管理傳統高性能計算(HPC)系統而設計的,但多年來,為了將其打造成為一款通用叢集控製器,BCM 也進行了適配,以支援 Hadoop、Spark、OpenStack、Kubernetes 和 VMware ESX 等對控制要求極高的分佈式系統。在被輝達收購併更名為 Base Command Manager 之後,這套工具被完整納入 AI Enterprise 軟體堆疊,成為輝達 AI 系統的“底層控制平面”。通過許可證模式,輝達不再只是交付硬體,而是開始按 GPU、按年份出售“系統能力”——AI Enterprise 許可證包含輝達捆綁並支援在其 GPU 加速系統上的庫、框架和其他工具,每個 GPU 每年的費用為 4500 美元。這一步的意義極其關鍵:它意味著輝達正式把“叢集管理”變成了自己的商業資產,而不是留給客戶或第三方去解決。輝達還設定了一個精妙的商業策略:對於每個節點包含 8 個 GPU 以內的叢集,提供免費的 BCM 許可證,但不提供任何技術支援,且“隨時可能被撤銷”。這意味著企業如果想要穩定的生產環境,就必須購買 AI Enterprise 許可證。免費版本不是慷慨,而是一種“試用即繫結”的策略。更重要的是,Base Command Manager 並不是孤立存在的。在其之上,輝達疊加了 Mission Control,用於自動部署所謂的“AI 工廠”:框架、工具、模型、容器運行環境、健康檢查和功耗最佳化一體化。Mission Control 包含 Run:ai 實現的 Kubernetes,用於編排容器;還包含 Docker,用於在容器內運行計算;此外,它還可以虛擬化 GPU,以提供更精細的計算粒度。Mission Control 會對系統進行健康檢查,並根據系統上運行的工作負載最佳化功耗。這套體系的目標並不是讓客戶擁有更多選擇,而是讓客戶在默認情況下就運行在輝達定義的最優路徑上。當然,這裡繞不開輝達在2024年對Run.ai的收購,Run.ai的核心價值不是又一個Kubernetes外掛,而是實現了GPU資源的抽象化管理:多租戶、彈性調度、優先順序控制、GPU虛擬化。在Run.ai的系統中,一個物理GPU可以被切分成多個虛擬實例,讓不同使用者、不同任務按需使用,同時保證隔離性和性能。為什麼輝達提前拿下了 Run:ai?因為調度權如果不在自己手裡,CUDA 生態的優勢就會被“平台化”稀釋。雲廠商可以通過調度層,讓客戶感知不到底層是誰的 GPU,甚至可以在調度中插入自研晶片作為替代選項。但就高性能計算(HPC)和人工智慧(AI)工作負載的裸機工作負載管理而言,輝達仍然需要一款工具。事實證明,BCM 正是執行這些健康檢查的工具,而解決問題的操作則通過 Slurm 工作負載管理器完成。輝達並沒有強行要求所有客戶拋棄既有體系,而是非常務實地接受了一個現實:在大量從 HPC 演進而來的 AI 叢集中,Slurm 依然是事實標準。許多高性能計算和人工智慧機構不想學習新東西——比如 Run:ai——而是想繼續使用 Slurm。對於那些最初以高性能計算中心起家的混合型人工智慧/高性能計算中心來說,這種情況可能尤為突出。這就為下一步的關鍵收購埋下了伏筆。開源不是放棄控制2025 年 12 月,輝達補上了這道牆的最後一塊磚:收購了 SchedMD,獲得了 Slurm 工作負載管理器背後的核心團隊和技術支援權。Slurm 項目始於 2001 年,由勞倫斯·利弗莫爾國家實驗室、Linux Network(已被 SGI 收購)、惠普以及 Groupe Bull(已被 Atos 收購併成立 Eviden)合作開發。據稱,Slurm 的設計靈感來源於超級電腦互連裝置製造商 Quadrics 開發的 RMS 叢集檔案總管。2010 年,該項目的兩位創始人 Morris Jette 和 Danny Auble 創立了 SchedMD,旨在為 Slurm 提供技術支援,從而為工作負載管理器的進一步開發提供資金。Slurm 最重要的優勢在於,過去十年中,在 Top500 超級電腦排行榜上出現的電腦中,約有 60% 使用 Slurm 作為其工作負載管理器,而不是 IBM/Platform Computing 的負載共享工具(LSF)、Altair 的可攜式批處理系統(PBS)、Adaptive Computing 的 Maui 和 Moab 以及 Sun/Univa Grid Engine。所有這些工作負載管理器/作業調度器都會將一組具有特定計算能力需求的工作負載進行“俄羅斯方塊”式的調度,最終使它們按照既定的優先順序順序高效運行。Slurm 過去十多年裡成為超級計算領域的事實標準,並不是因為它最激進,而是因為它足夠穩定、足夠中立,也足夠適配不斷變化的硬體環境。SchedMD 已向全球數百家 HPC 中心、雲建構商、超大規模資料中心和企業銷售了 Slurm 工作負載管理器的支援服務。過去十年,輝達和 SchedMD 一直在合作開發 Slurm。在輝達收購 Bright Computing 之前,BCM 支援不同的工作負載管理器,但隨著 Slurm 逐漸成為高性能計算中心乃至人工智慧領域工作負載管理的實際標準,它被選為 Bright Cluster Manager 的默認工作負載管理器,並在過去幾年中一直是輝達 Base Command Manager 的默認工作負載管理器。對輝達而言,真正危險的並不是 Slurm 開源,而是如果 Slurm 的演進方向、支援能力和企業級整合權掌握在自己控制之外,那麼整個 Base Command Manager 和 Mission Control 體系,都會留下一個無法掌控的“底座”。通過收購 SchedMD,輝達並沒有否定 Slurm 的開源屬性,反而在公開表態中反覆強調其“廠商中立性”。輝達表示,它將“繼續開發和分發 Slurm,使其成為開源、廠商中立的軟體,使其在各種硬體和軟體環境下都能被更廣泛的 HPC 和 AI 社區廣泛使用和支援”。但需要看清的是:開源並不等於沒有權力結構。誰來維護主幹程式碼、誰來提供企業級支援、誰來決定新特性的優先順序,這些問題,比許可證本身重要得多。輝達已同意為 SchedMD 的現有客戶提供支援,據推測,他們將通過聘用 SchedMD 的員工來實現這一點。但即便 Slurm 開源,也不意味著輝達會為開源版本的程式碼提供支援,或者將 Slurm 的所有未來功能都開源。輝達擁有大量專有驅動程式、框架和演算法,這個模式很可能會延續到 Slurm 身上。輝達顯然希望做到兩點:一方面,保持 Slurm 在 CPU、非輝達加速器等環境中的廣泛適用性,避免引發社區反彈;另一方面,把 Slurm 的商業支援、系統整合和 AI 方向演進,與自己的 AI Enterprise 體系深度繫結。這是一種極其典型的“高階控制”:不通過封閉程式碼來壟斷,而通過系統複雜度和服務整合來設立門檻。目前尚不清楚的是,Run:ai 和 Slurm 的功能將如何與 Base Command Manager 整合,從而為高性能計算(HPC)和人工智慧(AI)叢集提供一個自上而下的叢集和工作負載管理工具——而且不僅限於 AI 叢集,還要考慮到許多叢集中可能存在一些僅使用 CPU 的機器以及非輝達加速器。如果輝達試圖以任何方式限制它,其他人可以獲取 Slurm 程式碼(該程式碼以 GNU GPL v2.0 許可證提供),進行 fork 並繼續開發。但現實是,fork 程式碼容易,建立支援能力難。當所有人都在用同一套開源工具,但只有輝達能提供最優的整合方案時,開源本身就成了輝達生態的擴展。2024 年 10 月,輝達停止單獨銷售 Bright Cluster Manager,而僅將其作為 AI Enterprise Stack 的一部分提供。目前尚不清楚 AI Enterprise 的價格是高於還是低於之前單獨購買 Bright Cluster Manager 的許可,也不清楚有多少客戶曾在純 CPU 系統或其他類型的加速器上使用過這款早期工具。但這個動作的訊號意義很明確:輝達正在把所有系統元件打包成一個不可分割的整體。也正是在這裡,Run:ai、Slurm 和 Base Command Manager 的關係變得微妙而關鍵。前者代表雲原生和容器化世界,後者代表 HPC 傳統,而輝達的目標,是讓這兩套體系在自己的框架內完成融合,而不是彼此競爭。新的城牆,已經成型把Groq、Bright Computing、Run:ai 和 SchedMD 放在同一條時間線上看,輝達近幾年的收購邏輯就變得異常清晰:它正在系統性地收回 AI 計算體系中的“非硬體控制權”。GPU 仍然是輝達最鋒利的武器,但已經不再是唯一的壁壘。真正的新城牆,建立在三個層面之上:第一層:對叢集資源的調度權。從 Mellanox 的網路互聯技術,到 Bright Computing 的叢集管理,再到 SchedMD 的工作負載調度,輝達控制了算力如何連接、如何分配、如何排隊執行的完整鏈條。這不是簡單的硬體整合,而是把網路從“外設”變成了“AI 系統的一部分”。第二層:對工作負載執行路徑的定義權。Run:ai 提供的 GPU 虛擬化和資源抽象,Mission Control 提供的自動化部署和健康檢查,Slurm 提供的作業調度——這些工具共同定義了“任務應該怎麼跑、跑在那裡、用多少資源”。當執行路徑被輝達定義時,即使客戶理論上可以使用其他硬體,在實踐中也會發現遷移成本高得難以承受。第三層:對企業級支援與系統複雜度的掌控權。輝達通過 AI Enterprise 許可證模式,把所有這些工具打包成一個商業服務。客戶購買的不是單個元件,而是一整套“系統整合能力”。開放原始碼可以 fork,但企業級支援、最佳化經驗、最佳實踐,都掌握在輝達手中。一旦這三層疊加完成,客戶即便理論上“可以選擇別的硬體”,在實踐中也會發現遷移成本高得難以承受。從賣晶片到賣生態,輝達的商業模式已經發生質變。過去的輝達,GPU 是產品,賣出去就完成了交易。現在的輝達,GPU 是生態入口,是使用者進入輝達系統的第一步。收購的真實邏輯不是規模併購,而是精準補洞:在 AI 計算的完整鏈條中,那一環還沒有被控制?這也是為什麼說,輝達正在建構的已經不是傳統意義上的護城河,而是一座生態城牆。它不靠封鎖入口,而是通過系統整合,讓離開變得不再理性。在 AI 進入基礎設施階段之後,這種能力,或許比任何一代 GPU,都更加持久。從 Groq 到 SchedMD,從推理架構到工作負載管理,從硬體到系統,輝達用幾年時間完成了一次商業史上罕見的“生態圍城”。這座城牆的高度,已經不是用技術指標可以衡量的,而是用遷移成本、學習曲線、生態粘性來定義的。當所有人還在討論“誰能挑戰輝達的 GPU”時,輝達已經在思考:如何讓“挑戰”這件事本身變得不再可能。 (半導體行業觀察)
三國演義,儲存市場硝煙已起
輝達的算力決定AI思考的速度,儲存則決定AI思考的深度、廣度和連續性。目前,全球HBM市場呈現高度集中的格局,技術門檻將其穩定的量產能力,牢牢鎖定在三星(Samsung)、SK海力士(SK hynix)和美光(Micron)這三家巨頭手中。未來三年(2026-2028年),它們的戰略佈局不僅將決定自身的興衰,更將深刻影響全球AI產業的演進速度與形態。2026年的HBM戰場,硝煙已起,好戲即將開場。01 HBM3E到HBM4,誰是領跑者2025年第一季度,全球DRAM市場出現歷史性轉折:SK海力士以約36%的營收份額首次超越三星電子(34%),美光以25%位居第三。這是自1992年以來三星首次失去市場第一的位置。這一變化並非簡單的週期波動,而是以HBM為核心的產業變革的直接體現。對SK海力士而言,這次登頂證明其有能力向持續火爆的HBM市場成功供應DRAM產品。HBM並非全新的儲存介質,而是DRAM的顛覆性封裝形式。它通過硅通孔(TSV)技術將多個DRAM晶片垂直堆疊,並與AI算力晶片通過中介層緊密封裝,帶來兩大革命性優勢:1)極高的頻寬:可達傳統DDR記憶體的數十倍以上,瞬間吞吐海量資料。2)極高的能效:短距離、高密度互連大幅降低資料搬運功耗,對AI算力叢集至關重要。SK海力士的登頂看似是抓住AI風口的偶然,實則是十年技術深耕與精準預判的必然。早在2010年代初HBM標準尚未成熟時,SK海力士就與AMD等夥伴投入研發,積累了TSV、堆疊封裝與測試方面的工藝訣竅。因此在2023年AI需求爆發時,它已具備顯著的技術領先與產能儲備。相比之下,三星長期依賴通用型DRAM和伺服器DRAM的規模優勢,在HBM發展初期很可能低估了其爆發速度,研發重心更偏向尖端DRAM製程(如1c納米工藝),導致HBM進度一度落後。目前,SK海力士是HBM市場的絕對霸主,其敏銳的未來洞察和果斷的資本投入,進而不僅在2023年8月就率先推出了HBM3E產品,更在2022年憑藉HBM3產品為輝達H100獨家供貨,建立了深厚的客戶關係。2025年第三季度,SK海力士全球HBM出貨量佔比高達60%,遠超美光(22%)和三星(17%),營收佔比也達到57%,穩居全球第一位。整體來看,三星在HBM領域一直被SK海力士壓制,但其正憑藉龐大的技術體系和製造能力發起全面反擊。三星的佈局特點是多路平行:一方面緊追代際更迭,在2024年2月推出首款12層36GB的HBM3E之後,現階段的三星和SK海力士都在加快第六代高頻寬記憶體HBM4的生產進度,雙方皆計畫於2026年第一季度開始量產。可以說,三星的商業模式,接下來將依賴於其全產業鏈的協同效應,進而其龐大的DRAM產能、先進的邏輯製程(可用於TSV矽通孔)和強大的封裝能力,使其在產能擴張和成本控制上具備獨特優勢。未來三年,三星的目標很明確:憑藉系統級解決方案和規模效應,從SK海力士手中奪回市場份額。三星計畫在2026年將其HBM月產能大幅提升近50%——從目前的約17萬片晶圓增至約25萬片,並將投資重心全力押注HBM4。這不僅是三星對自身HBM業務的一次激進擴張,更是向SK海力士發起的一次全面衝鋒(2025年三星DRAM月總產能約70萬片,全球最高,遠超SK海力士的50萬片、美光的40萬片)。此次三星擴產決心之堅定,很大程度上還是來源於輝達於2025年10月確認將採用三星的HBM4,這無疑為三星的擴產計畫注入了強大的信心。2025年三星HBM產能與SK海力士相近,皆在17萬片月產能附近,且雙方2025年產能都已售罄。這次的HBM4,三星已成功在測試中獲得好評,進而相關擴產投資將從2026年初全面啟動。其擴產路徑清晰且務實,主要依賴兩條路徑:一是改造現有的部分DRAM生產線,將其轉換為HBM專用產線;二是在其位於韓國平澤的P4晶圓廠叢集,加速建設新的專用生產線,現階段用於HBM生產的關鍵製造裝置已接近完成最終測試。02 三星的破釜沉舟如此激進的擴產計畫,其核心戰略極為清晰,就是直接鎖定輝達的訂單,目標是為其HBM4產品拿下輝達下一代Rubin的供應資格。目前,三星與輝達的HBM4價格談判已進入尾聲,三星的目標是與頭號對手SK海力士同價——後者的HBM4合約報價在500美元中段,這比當前主流的HBM3E 12層產品(約300美元中段)高出超過50%。此前,三星的HBM3E曾以低於海力士30%的價格出售,但面對HBM4激增的需求和顯著縮小的技術代差,兩家巨頭的價格戰將偃旗息鼓。市場預計,三星2026年的HBM市場份額將突破30%,銷售額有望實現三倍增長。技術全面追上、測試獲好評、加上充足的DRAM產能底蘊,讓三星有信心在2026年迎來EPS的爆發式增長。這一戰略大轉向,就是三星在HBM領域“知恥而後勇”的結果。在過去兩代產品(HBM3和HBM3E)的競爭中,三星因技術和良率問題節節敗退,市場份額一度跌至第三,不僅落後於SK海力士,甚至被美光超越。這直接導致其HBM產線一度無法滿載運行。為此,三星在2025年11月痛下決心,進行內部組織大調整,將原先獨立的HBM開發團隊整體併入DRAM開發室,旨在打破壁壘、強化協同、背水一戰。如今,HBM4技術獲得關鍵客戶認可,三星正全力反擊,意圖打一場徹底的翻身仗。HBM4的價格暴漲,背後是高端AI晶片殘酷的供需現實。SK海力士與輝達達成的HBM4協議,單價較HBM3E漲幅超50%。這漲價一方面源於HBM4採用了更複雜的工藝,其製造成本本身增加了約30%;另一方面,則赤裸裸地反映了高端儲存晶片嚴重的供需失衡。在AI伺服器中,HBM的成本已舉足輕重——HBM4很可能佔據輝達下一代GPU總成本的25%,並推動AI晶片整體漲價15%。量價齊升,正在徹底改寫HBM市場的預期。美國銀行預計,2026年全球HBM市場規模將飆升至600億美元,較上年暴增近60%。美光的預測更為長遠,認為HBM的總潛在市場規模將在2030年增長至約1000億美元。高盛則特別指出,用於定製ASIC晶片的HBM需求增長將最為迅猛,預計在2026年飆升80%,佔據整個HBM市場份額的三分之一。這預示著一個清晰的趨勢:AI晶片正從通用GPU向專用化加速演進。2026年,將是HBM3E與HBM4共同定義市場的元年,但SK海力士仍將佔據AI記憶體超級周期的核心位置。值得注意的是,儘管HBM4備受矚目,但在2026年,HBM3E仍將佔據總出貨量的三分之二,是絕對的市場主力。HBM4的份額將逐步爬升,其全面普及可能要等到2027年及以後。無論如何,三星此次的產能擴張,深刻體現了其作為全球少數IDM(整合器件製造)巨頭的戰略靈活性。與只專注儲存或代工的廠商不同,三星擁有從設計、製造到封測的完整垂直整合能力。這種能力賦予了它關鍵的產能調配靈活性——將龐大的通用DRAM產能快速轉換為利潤更高的HBM產線,需要極強的技術底蘊和產線管理能力。三星正是憑藉這一優勢,能根據市場利潤動態,快速將資源向HBM這類高附加值產品傾斜。此次擴產,就是為了精準抓住HBM量價齊升的超級周期。一旦憑藉HBM4成功切入輝達核心供應鏈,三星儲存業務的營收和利潤將獲得極大提振。摩根士丹利甚至預測,三星電子2026年的EPS可能較2025年暴增超過150%。這不再是一場簡單的技術追趕,而是一場關乎未來AI時代產業鏈話語權的戰略大決戰。03 三國演義,暗流湧動2026年是HBM4世代決戰之年。這一年,HBM4將開始逐步量產,這也是新一輪技術週期的起點。SK海力士能否守住先發優勢?三星能否憑藉全產業鏈能力實現反超?美光能否憑藉其高效策略站穩第一梯隊?答案將初步顯現。戰火首先在量產時間上點燃。SK海力士與三星均計畫在2026年第一季度啟動HBM4量產——前者在M16工廠,後者在平澤園區。這意味著SK海力士憑藉HBM3E建立的獨家供應窗口將徹底關閉,輝達等客戶的訂單將必然分流。定價權正從製造商手中滑向客戶方,SK海力士壟斷高溢價的時代結束了。外部最大的變數,是AI晶片的規格。輝達下一代Rubin平台將採用HBM4(12層堆疊),而Blackwell架構的B200/B300則使用HBM3E(12層堆疊)。雖然HBM市場增量空間是巨大的,單從單晶片的HBM容量增長來看,GPU驅動的需求增長是適度的。但這反而加劇了供應商之間的競爭:蛋糕的增速放緩,分蛋糕的玩家卻在增加。面對混戰,三國演義祭出了三種核心戰術:1)SK海力士:“技術代差”的守衛者。其路線圖激進清晰:鞏固HBM3E優勢的同時,全力衝刺HBM4量產,試圖始終領先對手半步。然而,當所有頭部玩家在2026年站上同一起跑線(HBM4)時,其市場份額面臨被稀釋的切實風險。技術領先是它的護城河,但這條河正在變窄。2)三星:“全產業鏈”的反擊者。三星最大的底氣在於從設計、製造到封測的垂直整合能力。在HBM這場需要極強協同的競賽中,這種內部協同效率是它的王牌。對它而言,這是一場不能失敗的背水一戰。3)美光:“效率聚焦”的顛覆者。作為後來者,美光沒有全線押注,而是集中資源在關鍵節點實現突破(如HBM3E量產供貨H200)。其商業模式更為犀利:將HBM產能視為對傳統DRAM(如DDR5)產能的置換,且置換比例高達3:1甚至更高。這意味著每增加一份HBM產出,就需犧牲約三份高利潤的通用DRAM產能。這種策略迫使美光必須追求極高的HBM生產效率和產品溢價,從而在提升HBM份額的同時,整體儲存業務的利潤也能快速上升。HBM4絕非終點。產業界已在規劃HBM4E、HBM5,技術演進圍繞更高堆疊(16層以上)、更大容量、更快頻寬和更低功耗展開。同時,HBM與CXL、存算一體等新架構的結合,可能重塑記憶體層級。因此,這場競賽的本質是一場關於技術遠見、製造彈性、商業智慧的綜合長跑。單一世代的產能擴張固然重要,但持續的研發投入和生態建構能力才是決定產業終局的根本。硝煙已起,好戲開場。無論最終是三國演義還是一超多強,激烈的競爭都將驅動HBM技術更快迭代、成本加速下降,最終惠及整個蓬勃發展的AI產業。2026年,只會是這場史詩級戰役的第一個高潮。(新財富)