#HBM4
【CES 2026】三強爭霸16層HBM4,海力士暫時領先,三星力圖超車
在最近的國際消費電子展(CES 2026)上,輝達率先推出了人工智慧下一代魯賓平台,為目前最早的獨家HBM4客戶端。它已經將傳輸速度提高到了11 Gbps以上,迫使SK海力士、三星和美光修改HBM4的設計。隨著這三家公司重新提交樣品和Blackwell的強勁需求,HBM4的量產預計不會早於2026年第一季度末。雖然12層HBM4尚未完全投產,但輝達要求在2026年下半年供應16層,HBM之爭趨於白熱化。海力士:技術領先 + 工藝最佳化作為目前HBM領域的領頭羊,海力士在CES上首次展示了16層HBM4,據Etnews報導,新的16層48 GB HBM4建立在12層36 GB的HBM4基礎上,後者已經創造了11.7 Gbps的速度記錄。DRAM堆疊到16層,容量和速度都大大提高,頻寬超過每秒2 TB。然而,《韓國先驅報》強調,從12層擴展到16層比從8層跳到12層要困難得多,16層HBM要求晶圓減薄至30 微米左右,而目前的12層設計約為50 微米。此外,由於JEDEC將HBM4封裝高度限制在775 µm,傳統方法幾乎沒有進一步擴展的空間,這可能是未來的技術障礙。雖然業界越來越多地將混合鍵合視為應對挑戰的長期解決方案,但海力士暫時憑藉其MR-MUF(大規模回流模壓下填充)工藝穩定產量,處於領先地位。雖然該公司也在開發混合鍵合技術作為備用方案,但其核心戰略是儘可能延長MR-MUF技術的使用壽命。海力士表示,MR-MUF將HBM產品中垂直堆疊的所有晶片一次性加熱並互連,比在每個晶片堆疊後使用薄膜材料的TC-NCF(熱壓非導電膜,三星和美光使用)效率更高。不過,為了控制整體封裝高度,12層HBM3的DRAM晶片必須比8層HBM3的DRAM晶片薄40%左右,因此晶片翹曲成為主要問題。為瞭解決這個問題,海力士在其Advanced MR-MUF工藝下引入了一種新的EMC材料,與原始版本相比,散熱能力提高了約1.6倍。三星:工藝迭代 + 產能擴張Etnews此前曾報導,由於競爭對手在較老的1b DRAM節點上製造HBM4,三星打算通過轉向更先進的1c工藝來改變遊戲規則。TrendForce指出,其在HBM4上採用了1c奈米工藝(10奈米級,第6代),並在基礎晶片上採用了4nm邏輯工藝,並對設計進行了微調,使其速度超過了11Gbps,超出了客戶的要求。這種方法有望實現更高的傳輸速度,使三星成為最有可能率先獲得資格的供應商,並有可能在供應高端魯賓產品方面獲得優勢。《朝鮮商業》報導,三星目前已開始生產1c型DRAM,良率已接近80%的量產目標。此外,三星也在推進混合鍵合技術,目標是到2028年推出16層HBM4E產品,不過,雖然三星已經向包括輝達在內的主要客戶提供混合鍵合HBM4原型,但良率仍然很低,約為10%。Etnews報導稱,由於需求強勁,三星計畫在2026年將HBM的產量提高50%,到年底達到每月25萬片左右,主要集中在HBM4上。美光:產能突圍 + 技術跟進美光的HBM4基於1 - beta節點,上個月,美光表示該產品達到了11 Gbps以上的行業領先速度,並有望在2026年第二季度實現高產量提升。其優勢在於低功耗HBM技術,正在努力從12層HBM4產品發展到16層產品、鎖定更多的產能,來挑戰韓國競爭對手。美光即將在新加坡建立的先進封裝廠和日本廣島的工廠預計將大大緩解產能限制。 (銳芯聞)
【CES 2026】首款HBM4 GPU,全面投產
輝達周一表示,其下一代 Rubin AI 晶片已“全面投產”,並將於 2026 年下半年上市。同時,該公司還公佈了備受期待的 Blackwell 系列繼任者的更多細節。“我們必須每年都推進計算技術的進步,一年也不能落後,” 輝達首席執行長黃仁勳在 CES 2026 電子貿易展期間的主題演講中表示。魯賓發表此番言論之際,人們越來越擔心會出現“人工智慧泡沫”,因為人們越來越質疑大規模人工智慧基礎設施建設還能持續多久。這家晶片巨頭通常會在加州聖何塞舉行的 GTC 開發者大會上公佈其人工智慧晶片的最新進展,今年的 GTC 大會將於 3 月 16 日至 19 日舉行。輝達在2025年3月的GTC大會上預覽了Vera CPU和Rubin GPU,並表示Vera-Rubin晶片組將比其前代產品Grace-Blackwell提供更出色的AI訓練和推理性能。推理是指使用訓練好的AI模型來生成內容或執行任務。在周一的發佈會上,黃仁勳公佈了Rubin系列產品的更多細節。Rubin GPU的推理計算性能是Blackwell的五倍,訓練計算性能是Blackwell的3.5倍。與Blackwell相比,新一代晶片還能降低訓練和推理成本,推理令牌成本最多可降低10倍。Rubin 架構包含 3360 億個電晶體,在處理 NVFP4 資料時可提供 50 petaflops 的性能。相比之下,Nvidia 上一代 GPU 架構 Blackwell 的性能最高為 10 petaflops。同時,Rubin 的訓練速度提升了 250%,達到 35 petaflops。晶片的部分計算能力由一個名為 Transformer Engine 的模組提供,該模組也隨 Blackwell 一起發佈。據輝達稱,魯賓的 Transformer Engine 基於一種更新的設計,並具有一項名為硬體加速自適應壓縮的性能提升功能。壓縮檔案可以減少其包含的位元數,從而減少 AI 模型需要處理的資料量,進而加快處理速度。輝達首席執行長黃仁勳表示:“Rubin 的問世恰逢其時,因為人工智慧的訓練和推理計算需求正呈爆炸式增長。憑藉我們每年推出新一代人工智慧超級電腦的節奏,以及六款全新晶片的深度協同設計,Rubin 的推出標誌著我們向人工智慧的下一個前沿領域邁出了巨大的一步。”據輝達稱,Rubin 還將成為首款整合 HBM4 記憶體晶片的 GPU,其資料傳輸速度高達每秒 22 TB,比 Blackwell 有了顯著提升。該公司表示,Rubin 系列晶片已經“全面投產”,並將於今年下半年提高產量。微軟 Azure 和輝達支援的雲服務提供商 CoreWeave 將成為首批在 2026 年下半年提供由 Rubin 提供支援的雲端運算服務的公司之一。在周日的一次媒體簡報會上,輝達高級總監迪翁·哈里斯表示,提前推出 Rubin 產品是因為這些晶片“在展示實際準備情況方面達到了一些非常關鍵的里程碑”,並補充說,該公司正在努力使生態系統做好準備,以採用 Vera-Rubin 架構。“鑑於我們目前的準備情況,以及市場對 Vera-Rubin 的熱情,我們認為這是一個絕佳的機會,可以在 CES 上推出這款產品,”哈里斯說。然而,比預期更早發佈的 Rubin 一代晶片並未給市場留下深刻印象,輝達股價在周一盤後交易中下跌 0.13%,此前收於 188.12 美元。黃仁勳身著一件閃亮的黑色皮夾克,這是他標誌性皮夾克的改良版,在拉斯維加斯BleauLive劇院向3000名座無虛席的聽眾發表了主題演講 。現場氣氛熱烈——這位CEO一出場就受到了歡呼、掌聲和觀眾用手機拍照的熱烈歡迎——這充分證明了這家公司如彗星般迅速崛起,如今它已被視為人工智慧時代最重要的風向標。首席執行長此前表示,即使沒有中國或其他亞洲市場,該公司預計到 2026 年,其最先進的 Blackwell AI 晶片和 Rubin 的“早期產能提升”也將帶來5000 億美元的收入。與此同時,黃仁勳認為人工智慧的未來將主要體現在物理世界中。在CES 2026正式開幕前一天,也就是周一的場外活動中,輝達宣佈與多家製造商、機器人製造商和領先的汽車製造商達成合作,其中包括比亞迪、LG電子和波士頓動力公司。黃仁勳表示:“機器人領域的 ChatGPT 時刻已經到來。物理人工智慧的突破——能夠理解現實世界、推理和規劃行動的模型——正在解鎖全新的應用。”他指的是開啟生成式人工智慧熱潮的聊天機器人 ChatGPT。輝達發佈Vera Rubin NVL72人工智慧超級電腦在2026年國際消費電子展(CES)上,人工智慧無處不在,而輝達GPU則是不斷擴展的人工智慧領域的核心。今天,在CES主題演講中,輝達首席執行長黃仁勳分享了公司將如何繼續引領人工智慧革命的計畫,因為這項技術的應用範圍將遠遠超出聊天機器人,擴展到機器人、自動駕駛汽車以及更廣泛的物理世界。首先,黃仁勳正式發佈了輝達下一代AI資料中心機架級架構Vera Rubin。Rubin是輝達所謂的“極致協同設計”的成果,它由六種晶片組成:Vera CPU、Rubin GPU、NVLink 6交換機、ConnectX-9 SuperNIC、BlueField-4資料處理單元和Spectrum-6乙太網路交換機。這些元件共同構成了Vera Rubin NVL72機架。對人工智慧計算的需求永無止境,而每款 Rubin GPU 都承諾為這一代產品提供更強大的計算能力:NVFP4 資料類型的推理性能高達 50 PFLOPS,是 Blackwell GB200 的 5 倍;NVFP4 訓練性能高達 35 PFLOPS,是 Blackwell 的 3.5 倍。為了滿足如此龐大的計算資源需求,每款 Rubin GPU 都配備了 8 個 HBM4 視訊記憶體堆疊,提供 288GB 的容量和 22 TB/s 的頻寬。每個GPU的計算能力只是人工智慧資料中心的一個組成部分。隨著領先的大型語言模型從啟動所有參數以生成給定輸出詞元的密集架構,轉向每個詞元僅啟動部分可用參數的專家混合(MoE)架構,這些模型的擴展效率得以相對提高。然而,模型內部專家之間的通訊需要大量的節點間頻寬。Vera Rubin推出用於縱向擴展網路的NVLink 6,將每個GPU的交換矩陣頻寬提升至3.6 TB/s(雙向)。每個NVLink 6交換機擁有28 TB/s的頻寬,每個Vera Rubin NVL72機架配備9個這樣的交換機,總縱向擴展頻寬可達260 TB/s。Nvidia Vera CPU 採用 88 個定製的 Olympus Arm 核心,並配備 Nvidia 所謂的“空間多線程”技術,可同時運行多達 176 個線程。用於將 Vera CPU 與 Rubin GPU 連接起來的 NVLink C2C 互連頻寬翻倍,達到 1.8 TB/s。每個 Vera CPU 可定址高達 1.5 TB 的 SOCAMM LPDDR5X 記憶體,記憶體頻寬高達 1.2 TB/s。為了將 Vera Rubin NVL72 機架擴展為每個包含八個機架的 DGX SuperPod,Nvidia 推出了兩款採用 Spectrum-6 晶片的 Spectrum-X 乙太網路交換機,這兩款交換機均整合了光模組。每顆 Spectrum-6 晶片可提供 102.4 Tb/s 的頻寬,Nvidia 將其應用於兩款交換機中。更多產品同步發佈NVIDIA正式發佈了面向AI資料中心的新型CPU“Vera”和GPU“Rubin”。雖然此前已有相關計畫公佈,但首席執行長黃仁勳於1月5日在拉斯維加斯的主題演講中正式揭曉了這些產品。此外,該公司還發佈了高速網路產品,例如 NVLink 6 交換機(允許使用 Vera 和 Rubin 在機架內進行擴展)、ConnectX-9 SuperNIC、BlueField-4 DPU 和 Spectrum-6 乙太網路交換機(允許在資料中心內擴展此類機架)。Rubin是當前一代GPU“Blackwell”(NVIDIA B300/B200/B100)的繼任者,採用了全新的GPU架構和HBM4視訊記憶體。根據NVFP4的計算,Blackwell的AI推理和訓練性能為10 PFLOPS,而Rubin的推理性能達到50 PFLOPS,速度提升了5倍;訓練性能達到35 PFLOPS,速度提升了3.5倍。NVIDIA 正式宣佈 Vera 是一款採用 Arm 架構的 CPU,配備 88 個 NVIDIA 定製設計的 Olympus 核心;Rubin 是一款面向 AI 資料中心的 GPU,將成為當前 Blackwell (B300/B200/B100) 產品的繼任者。這款以美國著名科學家庫珀·魯賓 (Cooper Rubin) 命名的 Rubin GPU,採用 Rubin 架構,相比 Blackwell 架構,能夠實現更高效的 AI 計算。它還配備了全新的 HBM4 記憶體技術、第六代 NVLink、機密計算功能和 RAS 引擎,從而提升了平台級的性能和安全性。通過這些改進,在使用 NVIDIA 的高級推理模型和實現智能體 AI 的 MoE(專家混合)模型時,推理的每個令牌成本最多可以降低十分之一,訓練的每個令牌成本最多可以降低四分之一。與上一代 Blackwell(可能是 GB200 中搭載的 B200)相比,Rubin 的 NVFP4 推理性能提升至 50 PFLOPS,性能提升 5 倍;訓練性能提升至 35 PFLOPS,性能提升 3.5 倍(Blackwell 的這兩項均為 10 PFLOPS)。HBM4 的記憶體頻寬為 22 TB/s,是 Blackwell 的 2.8 倍;每個 GPU 的 NVLink 頻寬為 3.6 TB/s,性能提升兩倍。另一方面,Vera 是一款搭載 88 個 NVIDIA 定製設計的 Olympus 核心的 Arm CPU。它支援 NVIDIA 的專有虛擬多線程 (SMT) 技術“NVIDIA Spatial Multi-threading”,啟用後可作為 176 線程 CPU 使用。它可配備 1.5TB 的 LPDDR5X 記憶體(容量是上一代 Grace 的三倍),基於資料中心記憶體模組標準“SOCAMM”,記憶體頻寬為 1.2TB/s。與 Blackwell 系列一樣,Vera Rubin 每個模組將包含一個 Vera 處理器和兩個 Rubin 處理器。此外,還將推出 Vera Rubin NVL72,這是一款可擴展解決方案,可將 36 個 Vera Rubin 處理器整合到單個機架中。Vera Rubin NVL72 配備了支援第六代 NVLink 協議的 NVLink 6 交換機,單個機架可容納 36 個 Vera CPU 和 72 個 Rubin GPU。此外,NVIDIA 還計畫推出“HGX Rubin NVL8”,這是一款面向 OEM 廠商的設計,將八個 Rubin 模組整合在一台伺服器中;以及“DGX Rubin NVL8”,這是一款專為 x86 處理器設計的伺服器。客戶可以選擇將 Rubin 與 NVIDIA 的 Arm CPU 或 x86 CPU 搭配使用。同時,NVIDIA 還發佈了用於橫向擴展的高速網路新產品,包括 ConnectX-9 SuperNIC、BlueField-4 DPU 和 Spectrum-6 乙太網路交換機。這些產品可以與前文提到的 Vera Rubin NVL72 和 HGX Rubin NVL8 配合使用,實現橫向擴展。該公司還發佈了“DGX SuperPOD with DGX Vera Rubin NVL72”,這是一款由八塊 Vera Rubin NVL72 GPU 組成的擴展型超級電腦,可作為人工智慧超級電腦的參考設計。通過利用 CUDA 等軟體解決方案,一台超級電腦即可使用 256 個 Vera CPU 和 512 個 Rubin GPU。據該公司稱,Vera 和 Rubin 計畫於 2026 年下半年發佈,並將通過四大雲服務提供商(AWS、Google雲、微軟 Azure 和 Oracle 雲基礎設施)以及戴爾科技、HPE、聯想和超微等原始裝置製造商 (OEM) 提供。該公司解釋說,OpenAI、Anthropic 和 Meta 等人工智慧模型開發公司已經宣佈了他們的採用計畫。輝達五年來首次“缺席”CES展會整個行業正陷入零部件短缺的困境,輝達剛剛在X平台上宣佈,其2026年CES主題演講將“不會發佈任何新的GPU”,這無疑給新PC組裝商們僅存的一點希望潑了一盆冷水。這打破了輝達連續五年在CES上發佈新款GPU(無論是桌面級還是移動級)的慣例;這一次,將不會有任何新的硬體產品問世。此次發佈會的大部分內容可能都會聚焦於人工智慧領域的最新進展。自2021年以來,微軟每年都會在CES上展示其最新的晶片產品。最近,RTX 50系列顯示卡在拉斯維加斯標誌性的CES展廳首次亮相,並且一直有傳言稱RTX 50 Super系列顯示卡也將在CES 2026上發佈。雖然官方從未正式確認,但DRAM短缺可能導致了此次發佈計畫的擱淺。否則,輝達本可以在CES 2024上發佈RTX 40 Super系列顯示卡,而這距離首款Ada Lovelace顯示卡發佈僅一年之隔。此外,該公司最新的Blackwell GPU採用的是GDDR7視訊記憶體,而GDDR7視訊記憶體的生產難度更高。情況已經惡化到如此地步,甚至有傳言稱輝達將重啟RTX 3060的生產,因為該顯示卡採用的是GDDR6視訊記憶體,並且採用的是三星較老的8nm工藝製造。記憶體供應是問題的關鍵所在。如果背後的工廠完全癱瘓,輝達就無法發佈新的GPU。全球只有三家公司——美光、SK海力士和三星——能夠生產尖端DRAM,而且它們都樂於將產品賣給AI客戶以獲取更高的利潤。對通用人工智慧(AGI)的渴求促使像OpenAI這樣的公司制定了突破性的計算目標,這些目標遠遠超出了我們現有供應鏈的承載能力。有些人可能會疑惑,為什麼政府不介入幫助消費者?監管市場難道不是他們的職責嗎?不幸的是,地緣政治因素使情況更加複雜,因為前沿人工智慧代表著另一場軍備競賽,而華盛頓希望保持對中國的領先優勢。歸根結底,不會有救星出現。就像2014年的記憶體危機和過去十年間各種GPU短缺一樣,我們只能等到人工智慧熱潮停滯不前才能迎來轉機。目前,輝達顯示卡的價格尚未上漲,所以這或許是我們重返黃牛倒賣時代的最後時刻。不過,社區裡有些人,比如藍寶石的公關經理,仍然抱有希望,相信這場風暴最終能夠過去。 (半導體行業觀察)
重拾競爭力?客戶高度評價三星HBM4
三星近期與全球主要客戶的供應協議讓代工業務“為大飛躍做好了準備”。三星電子聯席CEO兼晶片負責人全永鉉在新年致詞中表示,客戶稱讚了其下一代高頻寬記憶體晶片,即HBM4的差異化競爭力,稱“三星回來了”。10月,三星表示正在就向美國人工智慧領軍企業輝達供應其HBM4進行“密切討論”,這家韓國晶片製造商正努力在AI晶片領域追趕包括本國競爭對手SK海力士在內的對手。“特別是在HBM4方面,客戶甚至表示‘三星回來了’,”全永鉉在講話中表示,並補充說公司仍需努力進一步提高競爭力。SK海力士CEO郭魯正在新年致詞中表示,由於人工智慧晶片需求的出現速度快於預期,公司受益於有利的外部環境。他表示競爭正在迅速加劇,並指出AI需求現在已是既定事實而非意外驚喜,2026年的商業環境將比去年更嚴峻,同時強調需要繼續進行更大膽的投資和努力以備戰未來。Counterpoint Research的資料顯示,2025年第三季度,SK海力士是HBM市場的領軍者,佔據53%的份額,其次是三星佔35%,美光佔11%。談及製造客戶設計晶片的代工業務時,三星的全永鉉表示,近期與全球主要客戶的供應協議讓代工業務“為大飛躍做好了準備”。7月,三星電子與特斯拉簽署了一項165億美元的協議。在另一份致詞中,同時也負責監管手機、電視和家電業務的裝置體驗部門的三星電子聯席CEO盧泰文表示,由於零部件價格上漲和全球關稅壁壘,2026年可能會帶來更大的不確定性和風險。“為了定位自己在任何情況下都能保持競爭優勢,我們將通過主動的供應鏈多元化和全球營運最佳化來增強核心競爭力,以解決零部件採購和定價以及全球關稅風險等問題,”盧泰文說。美國決定對三星、SK海力士中國工廠的裝置出口限制部分放寬美國政府決定部分放寬對包括三星電子和SK海力士在內的韓國半導體公司向其中國工廠出口裝置的限制。此舉將避免每次裝置出貨都需要單獨審批的最壞情況。據業內人士12月30日透露,美國商務部工業與安全域(BIS)已更改政策,取消韓國半導體公司中國工廠的“終端使用者認證(VEU)”資格,允許其每年出口裝置。回溯其歷史,美國商務部自2022年起對美製半導體裝置出口中國實施嚴格管制,但當時給予三星、SK海力士及英特爾豁免,允許它們維持在華現有工廠的運作。根據最新規定,這些公司今後如要在中國採購相關裝置,必須逐案申請出口許可證。隨後在去年8月,美國商務部發佈通知,宣佈將撤銷韓國晶片製造商三星和SK海力士在其中國工廠使用美國裝置的豁免,這將使兩家公司更難在中國生產晶片。限制措施將在120天後生效。美國商務部在一份聲明中稱,美國計畫向相關企業發放許可證,允許其繼續在華營運現有的設施,但不打算發放擴大產能或升級技術的許可,從而取消“只對外國生產商有利、卻沒有給美國製造商帶來類似好處的寬鬆做法”。三星和SK海力士很大一部分的儲存晶片產能依賴於中國。三星西安廠佔三星NAND Flash四成產能,兩座廠月產能25萬片,佔全球NAND Flash產能1/10,也是三星在海外唯一的儲存晶片工廠。三星蘇州廠主營儲存器、儲存器模組及積體電路的組裝和測試。三星天津廠則主營LED產品,天津三星LED公司成立於2009年,經營範圍包括電子元器件製造、電子元器件批發、電子元器件零售、半導體照明器件製造等。SK海力士則在中國有兩個生產基地,分別位於重慶與無錫。其中無錫廠是SK海力士的儲存晶片生產主力之一。有分析師之前指出,SK海力士無錫廠的產量約佔該公司DRAM晶片的大約一半、全球產量的15%。重慶廠主要側重於晶片封裝。值得一提的是,SK海力士已於2021年收購英特爾NAND快閃記憶體及儲存業務,其中包括英特爾大連工廠。根據市場追蹤機構Gartner的資料,全球前五大半導體裝置公司佔整個市場的70%以上的裝置,大多為美國製造。此舉將使韓國兩大儲存晶片製造商在中國的營運難度大增,限制措施也衝擊到美國半導體裝置供應商,包括科磊(KLA Corp)、泛林集團(Lam Research)和應用材料(Applied Materials)。 (半導體產業縱橫)
HBM4,三星逆襲?
三星電子(Samsung Electronics)共同執行長兼晶片業務負責人全永鉉(Jun Young-hyun)在新年致詞中表示,客戶對其下一代高頻寬記憶體(HBM)晶片(即 HBM4)的差異化競爭力表示讚賞,並稱“三星回來了”。去年 10 月,三星表示正就向美國人工智慧領軍企業輝達(Nvidia)供應 HBM4 進行“密切磋商”。這家韓國晶片製造商正竭力趕超包括同胞對手 SK 海力士(SK Hynix)在內的競爭對手,以奪回在 AI 晶片領域的地位。根據 Counterpoint Research 的資料顯示,在 2025 年第三季度,SK 海力士佔據了 HBM 市場 53% 的份額,緊隨其後的是三星(35%)和美光(Micron,11%)。投資者正密切關注三星是否能通過其第四代晶片(譯註:此處指 HBM 演進路線中的關鍵節點)縮小市場差距。三星在第三季度財報電話會議上表示,目前正向主要客戶交付 HBM4 樣品。基於不斷增長的需求,公司將重點放在 2026 年實現 HBM4 產品的量產上。今日早盤交易中,三星電子股價上漲 1.9%,表現優於韓國綜合股價指數(KOSPI)0.5% 的漲幅。三星HBM4,傳獲晶片巨頭認證三星電子(Samsung Electronics)第六代高頻寬記憶體「HBM4」,在博通(Broadcom)主持的技術性測試中,運作速度寫下歷史新高紀錄。據傳,針對Google第八代AI加速器「TPU v8」進行性能驗證時,三星HBM4的表現優於競爭對手。BusinessKorea 31日引述半導體業界消息報導,三星HBM4在博通進行的「系統級封裝(SiP)」測試中,運作速度達到了低至中段的11Gbps水平,表現居三大記憶體廠商之冠。據傳,三星在散熱管理方面的評分,也優於其他競爭對手。散熱管理是整合HBM時長期面臨的挑戰。由於博通是Google客制化AI專用ASIC的主要設計夥伴,上述結果證明,三星HBM4具備Google第八代張量處理單元(TPU)需要的優越性能。市場普遍預測,TPU v8 2026年有望進入商業化生產。三星、博通自2023年便開始在HBM與AI晶片領域合作,最新HBM4測試結果有望進一步強化雙方聯盟。由於Google計畫將TPU提供給外部客戶、而非僅限於內部資料中心使用,三星的HBM供應量有望於2026年快速拉高。一名業界高層表示,三星在博通測試中寫下的創紀錄速度,顯示其整合晶圓代工服務與先進封裝的解決方案,如今已具備充分競爭力。這次評估讓三星接下來一年在爭取Google供應鏈訂單時,處於極為有利的位置。Google母公司Alphabet Inc.最新「Gemini 3」聊天機器人大獲好評,自家研發的TPU成為支援其AI模型的重要資產。Melius Research分析師Ben Reitzes 10月27日透過報告表示,Google及夥伴博通自2016年就開始攜手研發客制化ASIC,如今已來到第七代。對AI工作負載而言,除了輝達(Nvidia Corp.)繪圖處理器(GPU)外,TPU可說是獲得最多實證的ASIC,如今動能更是最強。Reitzes認為,Alphabet雖然前景看俏,但博通受惠程度可能更佳,因為除了Alphabet將貢獻大量AI營收外,其他許多夥伴也都看上博通的設計專長、想要分杯羹。他補充說,TPU對Alphabet成長策略的重要性迅速變高。 (半導體行業觀察)
儲存三巨頭,打響HBM4爭霸戰
在HBM3E價格依舊節節攀升之際,儲存龍頭們已圍繞HBM4展開了新一輪的市場份額之爭。據TheElec報導,SK海力士將其位於清州的M15X工廠的量產計畫提前了四個月,將於明年2月開始量產用於HBM4的1b DRAM晶圓。產能方面,該工廠初期規劃約為1萬片,預計到明年底將提升至數萬片。相關人士透露:“裝置投入和安裝工作正在進行,計畫已進行調整,以實現更快、更大規模的量產。”值得一提的是,M15X又被稱作“HBM4專用工廠”,業內人士認為,此次加速生產表明了SK海力士對HBM4供應的信心。截至目前,SK海力士已完成M15X早期投產的技術準備工作,其中就包括完成1b HBM4工藝的認證,其採用改進型電路的HBM4晶圓將於本月底完成晶圓製造,並於明年1月初向輝達交付其下一代12層HBM4記憶體的最終樣品。與此同時,輝達搭載HBM4的Vera Rubin 200平台出貨預期愈發明確。市場預測顯示,偉達GB300 AI伺服器機櫃明年出貨量有望達到5.5萬台,同比增長129%。Vera Rubin 200平台預計將於明年第四季度開始出貨,部分廠商訂單能見度已遠至2027年。▌三巨頭競逐HBM4份額時至今日,SK海力士在全球HBM市場仍佔據龍頭地位。市場調研機構Counterpoint Research資料顯示,今年第三季度,SK海力士全球HBM營收市佔率達57%,雖有下滑但仍好於去年同期。與之相比,三星與美光的市佔率則分別為22%和21%。然而,未來上述格局或將被撼動。據韓國《每日經濟新聞》日前消息,輝達相關團隊訪問了三星,通報了 HBM4 系統級封裝(SiP)的測試進展。會議透露,在運行速度與功耗效率兩項核心指標上,三星的產品在所有記憶體廠商中取得了最佳表現。基於其優異表現,輝達也為三星HBM4的供應亮起了綠燈。據悉,輝達要求的明年三星HBM4供應量大大超過了其內部預測值。 預計這將對三星業績的改善起到顯著作用。三星內部人士表示:“與上次的HBM3E不同,我們在HBM4開發上處於領先地位。”據報導,三星考慮到其平澤P4生產線的增設速度和生產能力等,將於明年第一季度正式簽訂供應合同。 預計將從第二季度開始正式供應。除此之外,美光也參與到HBM4的競爭之中。最新財報顯示,其HBM4將在2026年第二財季按計畫量產並實現高良率產能爬坡。HBM4在基礎邏輯晶片和DRAM核心晶片上採用先進的CMOS和先進金屬化工藝技術,這些晶片均由美光自主設計與製造。華泰證券指出,2026年全球三大儲存企業的資本開支或將集中在HBM/DRAM上。根據TrendForce預測,2026年DRAM位增長率或將達到26%。儲存超級周期有望成為2026年半導體行業重要主線,但呈現結構性分化特徵,Batch ALD裝置、測試裝置及封裝加工裝置的市場需求有望明顯增長。 (科創板日報)
DRAM嚴重短缺:蘋果告急,戴爾大幅漲價
據全球最大的儲存器製造商之一稱,DRAM 供應緊張的局面預計將持續到 2028 年。主流PC市場正面臨記憶體供需長期失衡的局面,據報導這種情況將持續到2028年。SK海力士的內部分析顯示,“商品級”DRAM的增長將十分有限,無法滿足市場需求。我們已經知道DRAM價格高得離譜,但這種情況似乎已經失控,使得大眾難以買到價格合理的PC。使用者@BullsLab分享了據稱是SK海力士內部分析的截圖。該分析預測,除高頻寬記憶體(HBM)和SOCAMM模組外,普通DRAM的增長至少在2028年之前仍將受到限制。這是因為主要的記憶體製造商已經將重心轉移到滿足AI伺服器的需求上,而面向消費市場的產能出現顯著增長的可能性仍然很低。據報導,現有供應商的庫存已降至歷史低位,這進一步加劇了分配壓力。報告顯示,SK海力士等記憶體製造商採取了保守的產能擴張策略,更注重維持盈利能力,而非向市場大量投放新的DRAM產品。伺服器DRAM的需求幾乎呈指數級增長,預計明年增長速度將更快。據估計,伺服器份額將從2025年的38%飆升至2030年的53%。由於人工智慧的蓬勃發展,雲服務提供商正大力建設人工智慧訓練資料中心,預計這將引發DRAM的超級周期。一些報告還指出,製造商2026年的關鍵DRAM生產配額已經售罄,而傳統PC DRAM的產量預計在未來幾年內將無法滿足需求。我們已經看到人工智慧PC市場份額的激增,預計到2026年,人工智慧PC系統將佔整個PC市場的55%左右。儘管預計2025年PC整體出貨量將與此持平。關於NAND快閃記憶體,SK海力士的分析也表明,由於伺服器端需求更高(利潤也更高),NAND快閃記憶體的供應增長可能會滯後於消費市場的需求增長。總而言之,這項分析揭示了消費市場一個令人擔憂的趨勢。我們此前預計這種情況會持續到2027年,但現在看來,它似乎在2028年底之前不會停止。蘋果DRAM長約到期,漲價在即一家公司兆美元的市值並不足以使其免受全球零部件短缺的影響,這幾乎意味著蘋果也將不得不支付巨額資金,從三星和SK海力士等公司購買DRAM晶片,用於其眾多產品。最新傳聞稱,蘋果公司與韓國廠商簽訂的長期協議(LTA)即將到期,而上述韓國廠商可能正摩拳擦掌,準備從2026年1月起向其利潤豐厚的客戶收取高額的DRAM晶片溢價。真正的問題是,蘋果是否會將這些成本上漲轉嫁給其忠實的粉絲群體。這次的情況極其嚴峻,據報導,三星不僅 為了最大化利潤而拒絕了旗下移動體驗部門的DRAM供應請求,而且還將重心從HBM轉向DDR5生產,因為這種策略能帶來更高的利潤。@jukan05 懇請他在X論壇上的讀者儘可能多地購買電子產品,否則將不得不付出慘痛的代價。據稱,蘋果公司將向三星和SK海力士支付更高的DRAM溢價,這將導致其眾多產品價格大幅上漲,例如即將推出的低價版MacBook、M5 MacBook Air、iPhone 18 系列、iPhone Fold、重新設計的OLED M6 MacBook Pro等等。幸運的是,這家總部位於加利福尼亞的科技巨頭擁有兩項優勢,這兩項優勢將在DRAM短缺期間發揮至關重要的作用。首先,蘋果公司坐擁數十億美元的現金儲備;其次,其專注於自主研發晶片的策略使其能夠消化這些成本上漲。例如,iPhone 16e中使用的 C1 5G 數據機 預計可為蘋果節省每台裝置 10 美元的成本。雖然這聽起來不多,但考慮到每年數百萬台的出貨量,最終節省的金額將相當可觀。據稱,蘋果將於今年晚些時候推出其研發數月的C2晶片,該晶片將應用於明年的旗艦機型。此外,與其他競爭品牌不同,蘋果堅持使用其定製的A系列SoC晶片,並將其獨家應用於自家產品。由於成本上漲,據傳高通和聯發科等其他晶片組製造商明年將把LPPDR6晶片獨家用於驍龍8 Elite Gen 6和天璣9600  ,因此蘋果的處境略好一些。然而,計畫明年升級到iPhone的使用者可能會感到意外,因為@jukan05提到,蘋果很可能會在2026年上半年提高包括iPhone在內的產品價格。戴爾大幅度漲價戴爾是最大的個人電腦製造商之一,該公司已內部通知員工,由於DRAM記憶體短缺,公司準備大幅提高多種產品的價格。記憶體短缺似乎已經蔓延到PC供應鏈中的“主流”製造商。據Business Insider報導,戴爾公司披露的內部郵件顯示,該公司預計將在其“商用產品線”(包括筆記型電腦和預裝PC)上調價格。此次漲價幅度預計將是該公司有史以來最大的漲幅之一,據稱筆記型電腦和PC的價格未來都可能上漲“數百美元”。而且,價格上漲不僅限於記憶體短缺,更大容量的儲存裝置也將大幅增加成本告稱,戴爾最新款Pro和Pro Max系列筆記型電腦和桌上型電腦,下周起價格將上漲,最高漲幅達230美元,具體漲幅取決於記憶體配置。此外,如果選擇128GB記憶體的機型,每台裝置的價格可能上漲高達765美元,如此大幅度的漲幅令消費者感到意外。不僅如此,如果遊戲玩家想要額外購買儲存空間,價格也將大幅上漲。一位戴爾員工預計,最終漲幅可能高達30%,具體取決於戴爾的合同條款,而戴爾的合同金額並不小。預計多款產品將受到記憶體短缺的影響,據 Business Insider 報導,戴爾的新定價表顯示價格上漲情況如下:戴爾Pro和Pro Max筆記型電腦及桌上型電腦(配備32GB記憶體)價格上漲130至230美元配置128GB記憶體的系統價格將上漲520至765美元。配備1TB 固態硬碟的配置價格將上漲 55 至 135 美元。戴爾 Pro 55 Plus 4K 顯示器價格上漲 150 美元配備NVIDIA RTX PRO 500 Blackwell GPU(6 GB)的 AI 筆記型電腦價格上漲 66 美元配備NVIDIA RTX PRO 500 Blackwell GPU(24 GB)的 AI 筆記型電腦價格上漲 530 美元值得注意的是,戴爾是全球最大的PC製造商之一,這意味著如果該公司實施大範圍提價,聯想、宏碁、華碩等其他競爭對手很可能也會效仿,這將導致消費者在未來一年面臨艱難的局面。更重要的是,記憶體短缺問題短期內不太可能結束,一些預測甚至認為這種情況可能會持續到2027年,這意味著未來幾個季度記憶體供應仍將受到限制。人工智慧雖然承諾讓人類的遊戲體驗更輕鬆,但卻給遊戲玩家帶來了挑戰,而且未來購買一台計算裝置似乎會變得更加困難。半導體進入超級周期KB證券15日預測,從明年開始,儲存器半導體周期將擴展到伺服器和高頻寬儲存器(HBM),導致前所未有的供應短缺。KB證券研究部主管金東元表示:“受人工智慧和儲存器業務的推動,今年第三季度全球半導體銷售額環比增長15%,達到318兆韓元,創歷史新高。預計今年全球半導體銷售額將比上年增長24%,達到1180兆韓元,首次突破1000兆韓元大關。”金補充道,從明年開始,半導體周期將從專注於HBM擴展到包括伺服器記憶體和HBM,這將導致前所未有的供應短缺。這一預測源於對HBM、伺服器DRAM和企業級固態硬碟(eSSD)的需求不斷增長,因為隨著人工智慧推理工作負載的擴展以及雲服務提供商增加對人工智慧應用的資料處理,這些需求都在不斷增長。雖然HBM在人工智慧訓練階段至關重要,但人工智慧服務的商業化將推動伺服器DRAM需求的快速增長,以處理推理階段的大規模資料。Kim指出:“根據產品速度和規格的不同,HBM4的價格預計將比HBM3E溢價28%至58%。半導體市場預計將進入一個超級周期,甚至超越以往的超級周期。”他繼續說道:“三星電子擁有多元化的專用積體電路(ASIC)客戶群,主要面向大型科技公司。預計其明年的HBM出貨量將比上年增長兩倍。這將使其HBM市場份額從今年的16%擴大到明年的35%以上,增長超過一倍。儘管三星電子擁有全球最大的DRAM產能,但其目前的估值水平卻是最低的,這表明其被嚴重低估的局面即將得到解決。” (半導體行業觀察)
漲幅超150%!三星HBM4對輝達供應價格看齊SK海力士!
11月27日消息,據韓國媒體dealsite報導,繼SK海力士完成了與輝達的HBM4供應價格談判之後,三星電子與輝達的HBM4供應價格談判也進入了最後階段。雖然三星電子此前供應的12層堆疊的HBM3E的單價相對較低,但是對於12層堆疊的HBM4的供應價格,三星電子的目標是與SK海力士持平,即維持在500美元中段左右,相比之前的HBM3E供應價格提升了超過150%。據業內人士透露,輝達在與SK海力士敲定明年的HBM4供貨合同僅一周後,便邀請三星電子參與明年HBM4供應的價格談判。目前談判已進入最後階段,預計年內將做出最終決定。一位熟悉該公司情況的官員表示:“我們目前內部判斷,三星電子的HBM4 的主要性能,包括速度,優於 SK 海力士的產品。”他還表示:“我們之前向輝達提供的12層堆疊的HBM3E價格相對較低,但我們正在與輝達談判,目標是以輝達與 SK海力士簽訂HBM4供應合同的價格相當。”此前的報導顯示,SK海力士和輝達最近達成的明年HBM4供貨價格約為500美元中段。考慮到SK海力士12層堆疊的HBM3E的定價在300美元中段,這意味著價格上漲超過50%。雖然SK海力士在台積電生產的HBM4晶片總成本比上一代產品增加了30%,但該公司獲得了相應的溢價,從而顯著抵消了成本負擔。目前,三星電子的HBM3E晶片價格比SK海力士的同類產品低約30%。一位消息人士解釋說:“三星電子此前已為輝達預留了HBM3E晶片,但由於認證延遲,導致產品無法及時出貨,迫使該公司緊急將產品供應給其他大型科技公司。這部分產品不得不以更低的價格出售,從而拉低了平均單價。” 據報導,三星電子的HBM3E晶片供應價格在200美元左右。顯示,三星電子要求對輝達供應HBM4的價格與SK海力士一致,這也意味著三星希望供應價格也能夠提高到超過500美元,相比之前的HBM3E的200美元供應價格提升了超過150%。需要指出的是,三星電子正在避免導致其在 DRAM 領域失去主導地位的錯誤,正在利用更先進的1c DRAM 的 HBM4的大規模生產,來確保對SK海力士的基於1b DRAM的HBM4的競爭優勢。而這或許也是三星電子要求對輝達供應HBM4的價格與SK海力士相當的底氣。另一方面,目前明年市場對於HBM4的需求已經超過了市場供應,畢竟目前只有SK海力士和三星電子具有HBM4量產供應能力,所以三星電子自然是不願意降低單價。一位半導體行業內部人士表示:“輝達對HBM4的需求如此之高,以至於三星電子希望以高價確保供應。目前,三星電子沒有理由降低單價。” 他補充道:“即使他們降價,價格差異也不會很大。” 這表明三星電子在談判桌上佔據相對優勢。另外,為了滿足市場對於HBM4的需求,提升對於SK海力士的競爭力,三星電子計畫在明年年底前將其HBM4的1C DRAM產能從目前的每月2萬片晶圓提高到每月15萬片晶圓。一位三星電子公司官員解釋說:“我們計畫明年將 1c DRAM 產能每月增加約 8 萬片晶圓”,並且“如果算上現有成熟工藝線改造為 1c DRAM的產能,我們明年每月將能夠分配約 15 萬個1c DRAM晶圓用於 HBM4。”HBM 樣品分為 WD(工作晶片)→ ES(工程樣品)→ CS(客戶樣品)三類。三星電子已於去年 9 月向輝達交付了 ES 樣品,認證結果將於本月公佈。一旦獲得批准,必須立即提交量產樣品。整個流程完成後,最終認證結果將於明年初公佈。業內人士最初預計,即便三星電子明年初通過最終認證並立即開始量產,產品出貨也要等到明年下半年。然而,隨著近期市場對輝達HBM4的需求激增,一些人預測三星電子最早可能在明年第二季度就開始供應晶片。這將打破SK海力士在上半年壟斷輝達HBM4供應的格局,並將兩家公司之間的供應差距從半年一次縮小到季度一次。然而,要實現這一願景,提早實現大規模量產必不可少。目前,三星電子1c DRAM的HBM4標準良率僅為50%。另一位半導體行業內部人士解釋說:“最大的挑戰是良率,而非質量。”他還表示:“雖然有人擔心發熱問題,但目前已得到顯著改善。包括輝達在內的主要客戶也更注重速度而非發熱,因此不存在重大問題。”三星電子的HBM4核心晶片採用1c DRAM,邏輯晶片則採用4nm工藝製造。雖然這種先進工藝相比競爭對手在速度和能效方面具有優勢,但也可能導致發熱。 (芯智訊)
儲存晶片+AI電力+CPO,這4家公司未來增長或超100%
今日,市場全天震盪走強,滬指成功重返4000點,受AI產業的持續推動,儲存晶片、AI電力裝置、CPO等領域表現尤為活躍。繼儲存晶片連續漲價後,昨日SK海力士再次釋放漲價消息,其與輝達就明年HBM4供應完成談判,HBM4單價較當前上漲超50%,高端儲存晶片價值持續上升。同時,受益於AI資料中心基建熱潮,全球主要AI客戶正大幅上調對1.6T光模組的採購預期,而CPO技術能解決其功耗高、散熱難等瓶頸,成為資料中心互聯關鍵技術。此外,微軟CEO近日指出,當前AI行業的核心瓶頸並非“算力過剩”而是“電力短缺”,電網裝置集體爆發,也使AI電力產業鏈的價值凸顯。今天我們為大家精選4家處於低位的潛力公司,它們在儲存晶片、CPO、AI算力用電等領域佈局,未來或持續受益於AI產業發展,成長空間可觀:第一家: 儲存晶片+HBM+CPO+PCB+資料中心+軍工公司概述:全球PCB製造百強企業、也是國內少數具備軍工四級資質的民企,公司PCB產品已用於資料中心、機器人、無人機等領域,14-16層HDI板量產能力匹配AI手機需求;能批次生產儲存晶片封裝基板、CPO光模組等,同時投資儲能項目。核心亮點:公司HBM封裝基板通過三星驗證,2025中國IC載板排名前十,股價目前不到20元,且今年以來呈上升趨勢。第二家:儲存晶片+CPO+先進封裝+華為海思+機器人+大基金持股公司概述:全球積體電路封裝測試行業前十企業,在國內外擁有9座生產基地,掌握包括CPO在內的多種先進封裝技術,其儲存晶片封裝產品已量產,與華為海思等知名企業形成穩定合作關係,深度繫結半導體國產替代與行業復甦。核心亮點:與智元機器人戰略合作,打開具身智能市場,2025三季報歸母淨利潤大增超50%,股價目前在10元左右,上升通道打開。第三家:資料中心+核電+儲能+特高壓+深海科技+新材料公司概述:公司是國內特高壓標準主導者,特高壓變壓器、電抗器市佔率領先,擁有核電、海上風電、充電樁、儲能等產品,中標沙烏地阿拉伯164億元訂單;且已為國內多個重點資料中心提供產品,近年來資料中心訂單增長迅速。核心亮點:近三年累計現金分紅超70億元,年均歸母淨利潤超100億元,股價與市盈率TTM目前都小於30,存在低估性,未來潛力巨大。第四家:資料中心+可控核聚變+核電+特高壓+晶片+量子科技公司概述:中國電氣裝備集團旗下,國內最具規模、成套能力最強的輸變電裝置生產基地,業務覆蓋80多個國家和地區;參與核電站及ITER項目,研發全球首套±800千伏高壓直流量子電流感測器,並中標馬來西亞資料中心業務。核心亮點:其研發的800VDC架構SST已在 “東數西算” 資料中心投運,公司連續5年歸母淨利潤實現增長,股價目前不到10元,增長勢頭強勁。 (智牛韜略)
請問這是陸股上市的哪幾家公司呢?
2