#HBM
HBM,新戰場
SK海力士發佈了“StreamDQ”,將其作為應對即將到來的定製化HBM(高頻寬記憶體)時代的利器。其理念是利用HBM執行以往由GPU處理、導致推理過程出現瓶頸的任務,從而提升資料處理性能。從GPU廠商的角度來看,將部分功能遷移到HBM視訊記憶體能夠為晶片設計提供更大的靈活性。SK海力士預計將與包括NVIDIA在內的主要客戶探討這項技術。6日(當地時間),SK海力士在美國拉斯維加斯威尼斯人酒店舉辦的“CES 2026”展會上開設了一個私人展廳,並行布了其定製的HBM技術。預計從下一代版本HBM4E(第七代HBM)開始,定製HBM將得到全面應用。雖然現有的HBM是按照標準製造的,但定製HBM的關鍵區別在於在基礎晶片上加入了客戶特定的功能。基礎晶片是一顆負責核心晶片記憶體控製器功能的晶片,它與HBM堆疊在一起,並通過PHY(物理層)將HBM連接到GPU等系統半導體。以前,記憶體廠商會自行生產這顆晶片,但隨著各種邏輯功能的加入(從HBM4開始),大規模生產主要依靠代工廠代工。SK海力士正向客戶推介名為StreamDQ的技術,以實現定製化HBM的商業化。鑑於近期落幕的CES 2026展會以客戶為中心,預計該公司將積極向NVIDIA等全球科技巨頭推廣其產品。SK 海力士的一位官員解釋說:“StreamDQ 是定製 HBM 的一個例子,SK 海力士甚至還發表了一篇關於這項技術的論文。”他補充道:“客戶有時會向我們提出與定製 HBM 相關的技術,但 SK 海力士也會提出這些技術。”StreamDQ技術主要將現有GPU中的部分控製器功能轉移到HBM基片上。這使得GPU製造商能夠利用更多的晶片內部空間,從而有可能提高系統半導體的性能和效率。SK 海力士在基礎晶片上加入 GPU 控製器和其他元件時不會面臨重大挑戰,因為它利用了台灣主要晶圓代工廠台積電的先進工藝。SK海力士還通過在晶片基體上應用UCIe介面提高了晶片整合度。UCIe 是一種尖端技術,它將晶片分割成功能單元,然後再將這些單元連接起來進行製造。人工智慧加速器的資料處理性能也得到了顯著提升。大規模語言模型(LLM)會經歷一個稱為“量化”的過程,該過程將資料壓縮成低位整數,從而有效降低記憶體佔用。然後在實際計算過程中,資料會通過“反量化”再次解壓縮。傳統上,反量化任務由GPU處理。然而,執行反量化的GPU一直受到記憶體瓶頸的困擾,這會消耗高達LLM整體推理時間的80%。相比之下,StreamDQ 會在資料流經 HBM 時即時進行反量化,而不是將量化後的資訊直接傳送到 GPU。 這使得 GPU 可以立即開始計算,無需額外的工作。StreamDQ  的名稱就來源於這種在資料流中即時進行反量化 (DQ) 的方法。SK海力士解釋說,這將使之前一直處於瓶頸的LLM推理處理速度提升約7倍。整個AI加速器的推理速度預計也將顯著提升。SK海力士的一位官員表示:“如果我們把處理大量資料的系統半導體放在記憶體附近,只接收資料結果,那麼從系統角度來看,效率會非常高。”他補充說:“這可以看作是記憶體附近處理(PNM)的概念。” (半導體芯聞)
SK海力士豪擲130億美元擴產,美光“芯”慌了?
周二收盤,美光科技的股價下跌了2.2%。韓國SK海力士正借助儲存晶片的熱潮,計畫投資130億美元在本土建設一家處理器封裝工廠。這一消息的公佈,讓其美國競爭對手美光科技的投資者心生憂慮。周二,SK海力士宣佈,公司將在首爾以南的清州市建設一座先進的人工智慧晶片封裝及測試工廠。儲存晶片已成為AI加速器中越來越重要的組成部分。尤其是一種名為高頻寬記憶體(HBM)的晶片,對於輝達等公司的處理器來說必不可少。在HBM晶片製造領域,美光是三星電子和SK海力士的主要競爭對手。美光同時也是動態隨機存取儲存器(DRAM)和快閃記憶體市場的領先者——前者廣泛應用於台式電腦與伺服器,後者則常見於智慧型手機與固態硬碟。近幾個季度,儲存晶片業務利潤豐厚:美光股價在過去12個月中上漲了兩倍多。然而,正如Barron's所警告的,儲存晶片供應商在半導體周期上行階段往往會過度擴產,最終導致市場崩盤。SK海力士的擴產計畫可能會讓人想起以往產能過剩的慘痛教訓。美光科技的股價周二下跌了2.2%。“這些都是典型的周期性行業。無論他們怎麼說,每到周期高點,他們總會聲稱‘這次不一樣’。但等到周期低谷時,他們不是虧一點錢,而是虧得很多,”Freedom Capital Markets的董事總經理兼科技研究主管保羅·米克斯(Paul Meeks)表示。對SK海力士和美光科技持樂觀態度的人則不認同這種看法。他們認為,人工智慧的崛起已為儲存晶片市場帶來結構性變革。SK海力士在一份聲明中表示,公司此舉是“為積極響應高頻寬記憶體(HBM)持續攀升的市場需求”。該公司指出,2025年至2030年期間,全球HBM市場預計將實現年均33%的增長。這座新建工廠預計將於2027年底竣工。目前來看,市場上似乎並沒有對產能過剩問題表現出強烈擔憂。美光自身要到2027年年中才會大幅增加產能。三星則計畫在2026年將一座用於生產其他晶片的工廠改造為HBM生產線,但其產量的大幅提升要等到2028年。“當前,供應短缺引發的供需失衡正推動儲存晶片價格走高,我認為這種局面很可能會持續到2027年,”Freedom Capital Markets的米克斯說。 (Barrons巴倫)
三國演義,儲存市場硝煙已起
輝達的算力決定AI思考的速度,儲存則決定AI思考的深度、廣度和連續性。目前,全球HBM市場呈現高度集中的格局,技術門檻將其穩定的量產能力,牢牢鎖定在三星(Samsung)、SK海力士(SK hynix)和美光(Micron)這三家巨頭手中。未來三年(2026-2028年),它們的戰略佈局不僅將決定自身的興衰,更將深刻影響全球AI產業的演進速度與形態。2026年的HBM戰場,硝煙已起,好戲即將開場。01 HBM3E到HBM4,誰是領跑者2025年第一季度,全球DRAM市場出現歷史性轉折:SK海力士以約36%的營收份額首次超越三星電子(34%),美光以25%位居第三。這是自1992年以來三星首次失去市場第一的位置。這一變化並非簡單的週期波動,而是以HBM為核心的產業變革的直接體現。對SK海力士而言,這次登頂證明其有能力向持續火爆的HBM市場成功供應DRAM產品。HBM並非全新的儲存介質,而是DRAM的顛覆性封裝形式。它通過硅通孔(TSV)技術將多個DRAM晶片垂直堆疊,並與AI算力晶片通過中介層緊密封裝,帶來兩大革命性優勢:1)極高的頻寬:可達傳統DDR記憶體的數十倍以上,瞬間吞吐海量資料。2)極高的能效:短距離、高密度互連大幅降低資料搬運功耗,對AI算力叢集至關重要。SK海力士的登頂看似是抓住AI風口的偶然,實則是十年技術深耕與精準預判的必然。早在2010年代初HBM標準尚未成熟時,SK海力士就與AMD等夥伴投入研發,積累了TSV、堆疊封裝與測試方面的工藝訣竅。因此在2023年AI需求爆發時,它已具備顯著的技術領先與產能儲備。相比之下,三星長期依賴通用型DRAM和伺服器DRAM的規模優勢,在HBM發展初期很可能低估了其爆發速度,研發重心更偏向尖端DRAM製程(如1c納米工藝),導致HBM進度一度落後。目前,SK海力士是HBM市場的絕對霸主,其敏銳的未來洞察和果斷的資本投入,進而不僅在2023年8月就率先推出了HBM3E產品,更在2022年憑藉HBM3產品為輝達H100獨家供貨,建立了深厚的客戶關係。2025年第三季度,SK海力士全球HBM出貨量佔比高達60%,遠超美光(22%)和三星(17%),營收佔比也達到57%,穩居全球第一位。整體來看,三星在HBM領域一直被SK海力士壓制,但其正憑藉龐大的技術體系和製造能力發起全面反擊。三星的佈局特點是多路平行:一方面緊追代際更迭,在2024年2月推出首款12層36GB的HBM3E之後,現階段的三星和SK海力士都在加快第六代高頻寬記憶體HBM4的生產進度,雙方皆計畫於2026年第一季度開始量產。可以說,三星的商業模式,接下來將依賴於其全產業鏈的協同效應,進而其龐大的DRAM產能、先進的邏輯製程(可用於TSV矽通孔)和強大的封裝能力,使其在產能擴張和成本控制上具備獨特優勢。未來三年,三星的目標很明確:憑藉系統級解決方案和規模效應,從SK海力士手中奪回市場份額。三星計畫在2026年將其HBM月產能大幅提升近50%——從目前的約17萬片晶圓增至約25萬片,並將投資重心全力押注HBM4。這不僅是三星對自身HBM業務的一次激進擴張,更是向SK海力士發起的一次全面衝鋒(2025年三星DRAM月總產能約70萬片,全球最高,遠超SK海力士的50萬片、美光的40萬片)。此次三星擴產決心之堅定,很大程度上還是來源於輝達於2025年10月確認將採用三星的HBM4,這無疑為三星的擴產計畫注入了強大的信心。2025年三星HBM產能與SK海力士相近,皆在17萬片月產能附近,且雙方2025年產能都已售罄。這次的HBM4,三星已成功在測試中獲得好評,進而相關擴產投資將從2026年初全面啟動。其擴產路徑清晰且務實,主要依賴兩條路徑:一是改造現有的部分DRAM生產線,將其轉換為HBM專用產線;二是在其位於韓國平澤的P4晶圓廠叢集,加速建設新的專用生產線,現階段用於HBM生產的關鍵製造裝置已接近完成最終測試。02 三星的破釜沉舟如此激進的擴產計畫,其核心戰略極為清晰,就是直接鎖定輝達的訂單,目標是為其HBM4產品拿下輝達下一代Rubin的供應資格。目前,三星與輝達的HBM4價格談判已進入尾聲,三星的目標是與頭號對手SK海力士同價——後者的HBM4合約報價在500美元中段,這比當前主流的HBM3E 12層產品(約300美元中段)高出超過50%。此前,三星的HBM3E曾以低於海力士30%的價格出售,但面對HBM4激增的需求和顯著縮小的技術代差,兩家巨頭的價格戰將偃旗息鼓。市場預計,三星2026年的HBM市場份額將突破30%,銷售額有望實現三倍增長。技術全面追上、測試獲好評、加上充足的DRAM產能底蘊,讓三星有信心在2026年迎來EPS的爆發式增長。這一戰略大轉向,就是三星在HBM領域“知恥而後勇”的結果。在過去兩代產品(HBM3和HBM3E)的競爭中,三星因技術和良率問題節節敗退,市場份額一度跌至第三,不僅落後於SK海力士,甚至被美光超越。這直接導致其HBM產線一度無法滿載運行。為此,三星在2025年11月痛下決心,進行內部組織大調整,將原先獨立的HBM開發團隊整體併入DRAM開發室,旨在打破壁壘、強化協同、背水一戰。如今,HBM4技術獲得關鍵客戶認可,三星正全力反擊,意圖打一場徹底的翻身仗。HBM4的價格暴漲,背後是高端AI晶片殘酷的供需現實。SK海力士與輝達達成的HBM4協議,單價較HBM3E漲幅超50%。這漲價一方面源於HBM4採用了更複雜的工藝,其製造成本本身增加了約30%;另一方面,則赤裸裸地反映了高端儲存晶片嚴重的供需失衡。在AI伺服器中,HBM的成本已舉足輕重——HBM4很可能佔據輝達下一代GPU總成本的25%,並推動AI晶片整體漲價15%。量價齊升,正在徹底改寫HBM市場的預期。美國銀行預計,2026年全球HBM市場規模將飆升至600億美元,較上年暴增近60%。美光的預測更為長遠,認為HBM的總潛在市場規模將在2030年增長至約1000億美元。高盛則特別指出,用於定製ASIC晶片的HBM需求增長將最為迅猛,預計在2026年飆升80%,佔據整個HBM市場份額的三分之一。這預示著一個清晰的趨勢:AI晶片正從通用GPU向專用化加速演進。2026年,將是HBM3E與HBM4共同定義市場的元年,但SK海力士仍將佔據AI記憶體超級周期的核心位置。值得注意的是,儘管HBM4備受矚目,但在2026年,HBM3E仍將佔據總出貨量的三分之二,是絕對的市場主力。HBM4的份額將逐步爬升,其全面普及可能要等到2027年及以後。無論如何,三星此次的產能擴張,深刻體現了其作為全球少數IDM(整合器件製造)巨頭的戰略靈活性。與只專注儲存或代工的廠商不同,三星擁有從設計、製造到封測的完整垂直整合能力。這種能力賦予了它關鍵的產能調配靈活性——將龐大的通用DRAM產能快速轉換為利潤更高的HBM產線,需要極強的技術底蘊和產線管理能力。三星正是憑藉這一優勢,能根據市場利潤動態,快速將資源向HBM這類高附加值產品傾斜。此次擴產,就是為了精準抓住HBM量價齊升的超級周期。一旦憑藉HBM4成功切入輝達核心供應鏈,三星儲存業務的營收和利潤將獲得極大提振。摩根士丹利甚至預測,三星電子2026年的EPS可能較2025年暴增超過150%。這不再是一場簡單的技術追趕,而是一場關乎未來AI時代產業鏈話語權的戰略大決戰。03 三國演義,暗流湧動2026年是HBM4世代決戰之年。這一年,HBM4將開始逐步量產,這也是新一輪技術週期的起點。SK海力士能否守住先發優勢?三星能否憑藉全產業鏈能力實現反超?美光能否憑藉其高效策略站穩第一梯隊?答案將初步顯現。戰火首先在量產時間上點燃。SK海力士與三星均計畫在2026年第一季度啟動HBM4量產——前者在M16工廠,後者在平澤園區。這意味著SK海力士憑藉HBM3E建立的獨家供應窗口將徹底關閉,輝達等客戶的訂單將必然分流。定價權正從製造商手中滑向客戶方,SK海力士壟斷高溢價的時代結束了。外部最大的變數,是AI晶片的規格。輝達下一代Rubin平台將採用HBM4(12層堆疊),而Blackwell架構的B200/B300則使用HBM3E(12層堆疊)。雖然HBM市場增量空間是巨大的,單從單晶片的HBM容量增長來看,GPU驅動的需求增長是適度的。但這反而加劇了供應商之間的競爭:蛋糕的增速放緩,分蛋糕的玩家卻在增加。面對混戰,三國演義祭出了三種核心戰術:1)SK海力士:“技術代差”的守衛者。其路線圖激進清晰:鞏固HBM3E優勢的同時,全力衝刺HBM4量產,試圖始終領先對手半步。然而,當所有頭部玩家在2026年站上同一起跑線(HBM4)時,其市場份額面臨被稀釋的切實風險。技術領先是它的護城河,但這條河正在變窄。2)三星:“全產業鏈”的反擊者。三星最大的底氣在於從設計、製造到封測的垂直整合能力。在HBM這場需要極強協同的競賽中,這種內部協同效率是它的王牌。對它而言,這是一場不能失敗的背水一戰。3)美光:“效率聚焦”的顛覆者。作為後來者,美光沒有全線押注,而是集中資源在關鍵節點實現突破(如HBM3E量產供貨H200)。其商業模式更為犀利:將HBM產能視為對傳統DRAM(如DDR5)產能的置換,且置換比例高達3:1甚至更高。這意味著每增加一份HBM產出,就需犧牲約三份高利潤的通用DRAM產能。這種策略迫使美光必須追求極高的HBM生產效率和產品溢價,從而在提升HBM份額的同時,整體儲存業務的利潤也能快速上升。HBM4絕非終點。產業界已在規劃HBM4E、HBM5,技術演進圍繞更高堆疊(16層以上)、更大容量、更快頻寬和更低功耗展開。同時,HBM與CXL、存算一體等新架構的結合,可能重塑記憶體層級。因此,這場競賽的本質是一場關於技術遠見、製造彈性、商業智慧的綜合長跑。單一世代的產能擴張固然重要,但持續的研發投入和生態建構能力才是決定產業終局的根本。硝煙已起,好戲開場。無論最終是三國演義還是一超多強,激烈的競爭都將驅動HBM技術更快迭代、成本加速下降,最終惠及整個蓬勃發展的AI產業。2026年,只會是這場史詩級戰役的第一個高潮。(新財富)
儲存市場需求,嚇人
總潛在市場規模是對未來銷售量的預測——更準確地說,是預測能夠生產和銷售的產品數量。它並非對總需求的預測,而總需求可能更大,正如HBM記憶體及其主要驅動力——用於人工智慧推理和訓練的GPU和XPU計算——的積壓訂單所表明的那樣。因此,當市場規模(TAM)擴大時,意味著競爭對手之間的收入分配也會隨之擴大。這就是為什麼本周美光科技HBM堆疊式記憶體市場規模的爆炸式增長讓所有人如此興奮的原因。我們這些身處主要元件消費者及其供應商之外的人,可能並不清楚人工智慧計算和記憶體的總體需求情況,但我們對未來的供應格局有了更清晰的瞭解。“隨著全球領先的科技公司向通用人工智慧(AI)邁進並重塑全球經濟,我們的客戶正在投入巨資建設規模龐大的資料中心,這一建設周期將持續多年,”美光科技首席執行長桑傑·梅赫羅特拉在與華爾街分析師的電話會議上表示。此次電話會議旨在回顧公司截至11月結束的2026財年第一季度財務業績。“AI資料中心容量的增長正在顯著推動對高性能、高容量記憶體和儲存的需求增長。伺服器需求顯著增強,我們現在預計2025年伺服器銷量增長率將達到接近10%的水平,高於上次財報電話會議中10%的預期。我們預計伺服器需求的強勁勢頭將在2026年持續。伺服器記憶體和儲存容量以及性能要求也在逐代提升。”當然,這波熱潮不僅僅侷限於HBM,還包括其他DRAM、LPDRAM以及同樣應用於人工智慧系統的快閃記憶體。梅赫羅特拉自豪地表示,美光的資料中心NAND儲存業務在2026財年第一季度首次突破10億美元大關,該公司G9系列快閃記憶體是首款採用PCI-Express 6.0標準的快閃記憶體盤,而容量分別為122TB和245TB的QLC版本正在多家超大規模資料中心和雲服務提供商處進行認證。Mehrotra表示,總體而言,預計2025年DRAM的行業位元出貨量將增長20%左右,NAND的出貨量將增長10%以上——遠高於美光一個季度前的預期。而到2026年,DRAM和NAND的出貨量預計都將比2025年增長約20%。因此,任何超出這一增長範圍的收入增長都源於需求和其他通膨因素導致的價格上漲。例如,據美光首席財務官Mark Murphy稱,在2026財年第一季度,DRAM的每位元成本上漲了20%,而出貨量僅略有增長;NAND的出貨量增長了“個位數百分比中高段”,但每位元成本上漲了“15%左右”。為了更好地滿足1γ DRAM和HBM記憶體的供應需求,美光科技將2026財年的資本支出增加20億美元,達到200億美元,並加快裝置訂購和安裝速度,以更快地蝕刻更多晶片。位於愛達荷州的首座晶圓廠也將於2027年中期投產,而非原計畫的明年下半年;第二座晶圓廠將於明年開工建設,並於2028年底投入營運。位於紐約的首座晶圓廠將於2026年破土動工,並於2030年開始供應晶片。位於新加坡的HBM封裝廠也將於2027年投產,為HBM的供應做出貢獻。如果美光想要在剛剛飆升的HBM市場中分得一杯羹,他們最好加快產能提升速度。以下是去年12月的預測,以及本周剛剛公佈的預測:這些針對HBM的潛在市場規模(TAM)資料是基於自然年計算的——如果所有公司也都以自然年為單位編制財務報表,那就好多了。除了習慣和故弄玄虛之外,使用財務資料沒有任何實際意義。在2024年12月的預測中,美光科技預計HBM市場在2025年的收入將達到350億美元,並在2030年增長到約1000億美元,復合年增長率(CAGR)為23.2%。然而,美光科技現在將市場規模達到1000億美元的預期時間從2030年下調至2028年,這意味著與今年預計的350億美元HBM銷售額相比,復合年增長率將超過40%。圖中以粗體紅色斜體顯示的數字是我們為填補資料空白而做出的估算,這些估算值與實際復合年增長率 (CAGR) 基本一致,因此在所示期限內實現了預期的復合年增長率。我們對 2029 年和 2030 年的 HBM 銷量進行了估算(美光科技的預測中並未包含此項),預計其增速將趨於穩定,與最初的預期持平。當然,銷量也可能繼續以更高的速度增長——誰也無法預料。有趣的是,如果將2025年至2030年這六年間(含2025年和2030年)的記憶體總銷量加起來,那麼根據2024年12月的預測,全球HBM的銷售額將達到3780億美元。假設美光科技能獲得約25%的HBM收入份額(與目前DRAM的市場份額大致相同),那麼這六年間美光科技將從HBM中獲得950億美元的收入。假設HBM記憶體成本約佔GPU或XPU計算引擎成本的40%,那麼這六年間GPU和XPU的收入將達到約9500億美元。如果假設加速器成本約佔節點級或機架級伺服器成本的65%,那麼系統收入將達到約1.5兆美元。根據新的預測,假設HBM收入增長率在2029年和2030年放緩,但仍保持在35%和25%的較高水平,那麼未來六年HBM的收入將達到5550億美元,比之前的預測高出46.8%。預測結果在最後階段的差距非常大。HBM的銷量大幅增長,這意味著需要生產更多的HBM產品。如果美光科技保持25%左右的市場份額,那麼未來六年其HBM記憶體收入約為1390億美元。這5550億美元的HBM收入將帶動GPU和XPU計算引擎的生產,進而帶動AI系統銷售額達到2.1兆美元左右。這些數字遠小於輝達幾周前悄悄發佈的資料中心總支出預測。誠然,這些只是對人工智慧系統銷售額的一些相當粗略的估計,但它與人們談論的其他一些重大數字大致相當。接下來,讓我們深入分析一下美光科技 2026 年第一季度的業績資料。本季度,美光科技的銷售額為136.4億美元,同比增長56.7%。營業收入為61.4億美元,同比增長2.8倍;淨收入為52.4億美元,同樣同比增長2.8倍。這看起來確實是一個記憶體和快閃記憶體產品極具價格優勢的市場環境。美光科技在2026財年第一季度資本支出為54億美元,略高於其預計2026財年200億美元總支出的比例。這比去年同期增長了1.7倍。美光科技在該季度末擁有103.2億美元的現金儲備,這為其擴建晶圓廠和工廠提供了一定的迴旋餘地。在 11 月季度,美光科技售出了價值 108.1 億美元的各種 DRAM 記憶體,同比增長 68.9%。2026 財年第一季度,NAND 快閃記憶體晶片、驅動器和卡的收入為 27.4 億美元,增長了 22.4%;而 NOR 快閃記憶體和其他產品僅帶來了 8800 萬美元的銷售額。以下是美光科技幾個季度前宣佈的新財務報告分組的收入構成:從圖中可以看出,與 2025 年第四季度相比,2026 年第一季度雲記憶體集團和核心資料中心集團的利潤率均環比大幅增長,這表明 DRAM、HBM 和快閃記憶體市場的供應緊張,從而推高了價格。綜合來看,美光的資料中心業務創造了 76.6 億美元的收入,增長了 55.1%,營業收入為 37.9 億美元,幾乎是去年同期的兩倍。資料中心記憶體行業的繁榮與蕭條周期令人擔憂,但就目前來看,未來一兩年內無疑將迎來繁榮時期,美光科技也將因此創下新的輝煌。美光科技重返HBM市場的時機恰到好處,憑藉其獨特的技術優勢以及總部設在美國的戰略地位,成功佔據了市場主導地位。我們的模型顯示,HBM堆疊式記憶體、高容量伺服器DRAM以及LPDDR5低功耗伺服器記憶體的總銷售額達到56.6億美元,略高於DRAM記憶體總銷售額的一半。與去年同期相比,這一數字增長了5倍多,主要歸功於輝達在其AI計算引擎中使用了HBM和LPDDR5記憶體。但許多其他公司也在向美光提供資金,輝達在本季度僅貢獻了 17% 的收入,總額達 23.2 億美元,是輝達去年同期在美光記憶體商店支出的兩倍。我們根據美光過去幾個季度發佈的少量聲明做出的最佳推測——而且這確實是基於資訊來源的推測——是高容量伺服器 DIMM 和 LPDDR5 記憶體貢獻了約 14 億美元的營收,同比增長 3.7 倍;而 HBM 記憶體貢獻了約 42.7 億美元的營收,同比增長 5.7 倍。這增長速度令人驚嘆。但話說回來,我們生活在一個瘋狂的時代——而且看起來未來還會更加瘋狂。 (EDA365電子論壇)
🎯完了 DRAM崩了?!華邦電、南亞科、力積電被處置只是開端,還有更大的「崩跌」在後?!Line@連結:https://lin.ee/mua8YUP🎯記憶體今天被處置、股價重挫。你第一反應是什麼?「完了,要崩了。」「先跑再說。」如果你也是這樣想,江江要直接講一句重話這正是散戶永遠賺不到大波段的原因。👉處置不是利空,是漲太快、太多人追,交易所出來踩煞車。真正的重點只有一個:基本面有沒有變?結構有沒有壞?答案很清楚:沒有,反而更硬。👉AI時代,記憶體早就不是配角。三大原廠產能全押HBM、DDR5,DDR4、NOR Flash被直接放生。產線一改,回不去。結果?不是景氣循環,是結構性缺貨。需求端更誇張。AI PC、邊緣 AI、車用、家電,每一個都在「吃記憶體」。就像全世界都去吃米其林,普通白米反而大缺貨、直接漲價。所以你看到什麼?👉恐慌賣壓👉成交量縮👉股價橫盤在主力眼裡,這三件事只有一個翻譯:洗完,準備下一段。這一波,真正站在浪頭上的,不是亂炒題材,而是角色變了的公司:▪8299群聯:庫存鎖在低點,現在是印鈔機;SSD直接變AI延伸記憶體▪2344華邦電:不打紅海,專攻Edge AI客製化,慢慢變長線怪物▪2408南亞科:大家不要的DDR4,變成它的議價權▪2337旺宏:Switch 2+eMMC+庫存回沖,三支箭同時射重申:記憶體這一波,不是短線煙火,是結構翻轉。處置期,從來不是恐慌點,而是給沒上車的人最後的冷靜時間。🔴你想知道,下一個洗完、準備噴的會是哪一檔?接下來我們會在粉絲團持續幫大家鎖定+追蹤,若還不知道該如何操作?那建議你務必要鎖定江江在Line @,將有更進一步的訊息給大家了解。https://lin.ee/mua8YUP🔴想了解還未起漲的市場主流,同步了解大盤多空轉折點及學習預測技術分析,江江YT節目都會持續追蹤+預告。https://reurl.cc/02drMk********************************************************有持股問題或想要飆股→請加入Line:https://lin.ee/mua8YUP江江的Youtube【點股成金】解盤:https://reurl.cc/02drMk*********************************************************(本公司所推薦分析之個別有價證券 無不當之財務利益關係以往之績效不保證未來獲利 投資人應獨立判斷 審慎評估並自負投資風險)
半導體,最新預測
人工智慧革命才剛剛開始三年,但考慮到其發展速度之快,感覺好像還要等二十年。半導體是人工智慧領域創新最為迅猛的領域之一。以下是您在2026年可以期待的晶片和人工智慧加速器領域的發展趨勢。我們的第一個預測來自早期風險投資公司TDK Ventures的投資總監 Ankur Saxena。Saxena表示: “2026年將成為ASIC加速的關鍵節點,屆時自主研發的晶片出貨量將超過GPU。超大規模資料中心營運商陷入了囚徒困境,必須超額投入才能避免落後。隨著通用GPU成本過高,定製晶片成為維持利潤的唯一可行途徑。GoogleTPU v7、亞馬遜Inferentia/Trainium、微軟Maia/Cobalt、Meta MTIA以及OpenAI與博通聯合設計的加速器都將達到量產規模,從而降低對輝達的依賴。”Saxena表示,新的一年將迎來一場系統之戰,而非晶片之戰。“浮點運算性能不再是衡量性能的唯一標準,互連、記憶體和編譯器將決定最終的性能表現,”他說道。“NVLink Fusion和定製交換機ASIC正在重塑叢集規模的拓撲結構,而軟體鎖定將成為新的護城河,因為編排和編譯器將決定資源利用率。HBM和GPU供應緊張將推高雲AI的價格,歐洲方面已暗示將在2026年初迎來價格上漲。”半導體製造商使用的技術也將在 2026 年發生變革。達索系統全球高科技產業戰略家約翰·麥卡利表示,這將對晶片產生深遠的影響。“半導體行業正經歷著指數級的變革,其驅動力包括日益增長的複雜性、新興技術以及不斷變化的全球需求,”麥卡利表示。“預計到2025年,先進工藝節點將達到2奈米,研究目標是實現埃級精度。展望2026年,3D封裝、量子計算和人工智慧加速器等創新技術正在塑造下一代晶片,而企業高管則專注於降低成本和加快產品上市速度。”隨著半導體技術發展步伐加快,製造商們被迫另闢蹊徑。“我們預計,到2026年,人工智慧驅動的虛擬孿生模擬和基於模型的系統工程(MBSE)方法將使企業能夠以數位化方式最佳化設計、面向可製造性進行設計、減少對物理原型的依賴並提高系統性能,”麥卡利說道。你是否夢想擁有自己的GPU?印度軟體開發公司Talentica Software新興技術主管Pankaj Mendki表示,到2026年,你可能會意識到租賃才是更划算的選擇。Mendeki表示: “隨著對推理級GPU計算的需求激增,企業將不再自行管理叢集,而是採用按需GPU服務。無伺服器GPU模型將實現動態擴展,降低維運成本,並使高性能計算的獲取更加普及。這種轉變將成為各種規模企業開展GenAI工作負載的標準基礎設施方案。”輝達在人工智慧晶片市場佔據主導地位,市場份額估計約為 90%。矽谷 GenAI 基礎設施公司 FriendliAI 的創始人 Byung-Gon Chun 表示,這種情況到 2026 年不太可能改變。Chun表示:“鑑於輝達的生態系統和軟體棧,它在2026年仍將佔據主導地位。AMD在MI400系列發佈和ROCm成熟後可能會變得更具競爭力,但現在判斷他們能否成功執行其戰略還為時過早。”Chun表示, GPU價格呈下降趨勢,但AI工作負載量不斷增長,AI模型規模也越來越大。這意味著AI基礎設施總成本將繼續攀升。“2026 年 AI 定價最終將取決於供需平衡。隨著 Blackwell 的推出,Hopper GPU 的價格顯然正在下降。然而,需求仍在快速增長,這意味著儘管硬體成本下降,但獲取 GPU 供應(這直接影響 AI 定價)仍然不容易。”半導體大戰固然精彩,但晶片並非一切。資料中心電氣裝置供應商Molex預計,到 2026 年,互連技術將重新受到關注。該公司表示:“高速互連對於在現代超大規模資料中心中實現人工智慧/機器學習工作負載所需的速度和密度仍然至關重要。資料中心伺服器或機箱內主要計算單元(例如 GPU 和 AI 加速器)之間的通訊需要結合高速背板和板對板解決方案,這些解決方案專為 224Gbps PAM-4 速度而設計,同時還需要高速可插拔 I/O 連接器,以支援高達 400/800Gbps 的聚合速度,並提供通往 1.6T 的路徑。”能夠以 1.6 Tbps 的速度傳輸資料的技術之一是共封裝光晶片 (CPO),該晶片由輝達和博通公司開發。Molex表示:“共封裝光器件(CPO)對於在AI驅動架構中處理GPU間的互連至關重要。CPO旨在直接在晶片邊緣提供超高頻寬密度,從而在降低功耗和電訊號損耗的同時,實現更高的互連密度。由於CPO是專門為滿足超大規模資料中心和AI/ML叢集的巨大功率和頻寬需求而開發的,預計未來一年對CPO的關注度將進一步提升。”由於市場對其晶片的需求旺盛,輝達在2025年成為首家市值達到5兆美元的上市公司。它會在2026年達到6兆美元嗎?沒人知道——但這正是預測的樂趣所在。根據世界半導體貿易統計( WSTS)的資料,去年全球半導體銷售額增長22.5%,達到7720億美元。WSTS預測,到2026年,全球半導體銷售額將增長26%,達到9750億美元。一些分析師,例如美國銀行的維韋克·阿亞(Vivek Arya),預測全球晶片銷售額將增長更為強勁,年均增長率將達到30%,超過1兆美元。在最近發佈的題為《展望2026年:雖有波折,但前景依然樂觀》的報告中,Arya 估計,到2030年,人工智慧資料中心市場規模可能增長至1.2兆美元,年增長率達38%。其中大部分增長(9000億美元)將來自人工智慧加速晶片,例如圖形處理器(GPU)和定製處理器。 (半導體行業觀察)
SRAM是什麼?和HBM有何不同?
輝達斥資200億美元取得Groq的LPU(Language Processing Unit)技術授權,意外讓SRAM躍上舞台。在AI、伺服器與高效能運算(HPC)時代,「記憶體」早已不只是容量的比拚,而是速度、延遲與能耗的全面競賽,其中SRAM(靜態隨機存取記憶體)與HBM(高頻寬記憶體),正是兩種扮演關鍵但角色完全不同的核心技術。 SRAM是什麼?和HBM有何不同?在SRAM成為市場新焦點之際,那些台廠將迎結構性機會。SRAM是什麼?和HBM有何不同?SRAM(Static Random Access Memory靜態隨機存取記憶體)是一種「高速、低延遲」的記憶體,最常被用在CPU、GPU、AI晶片內部。 SRAM是隨機存取記憶體的一種,「靜態」的意思是指,只要保持通電,SRAM中的資料就能持續保存,然而,一旦電力供應停止,資料將會消失,因此屬於揮發性記憶體(Volatile Memory),這點不同於斷電後仍能保存資料的唯讀記憶體(ROM)或快閃記憶體(Flash Memory)。SRAM的特點包括速度極快、延遲極低(奈秒等級);不需刷新(refresh),資料可穩定保存;功耗低(相對DRAM);面積大、成本高(每bit成本遠高於DRAM)不適合做大容量記憶體。因此SRAM的角色是「讓晶片能即時運算、不必等待資料」的高速暫存區。HBM(High Bandwidth Memory,高頻寬記憶體)則是一種進階型DRAM,透過「3D堆疊+矽穿孔(TSV)」技術,把多層記憶體堆疊在一起,再與邏輯晶片以超寬匯流排連接。HBM的特點則是頻寬極高(可達上TB/s);功耗比傳統DRAM更低;容量比SRAM大得多;延遲高於SRAM、低於一般DRAM;成本高、製程難度高。 HBM主要用於AI GPU(如輝達H100、B100)、高效能運算(HPC)、AI訓練、推論加速器。 HBM的角色是「讓大量資料能高速喂給運算核心」的記憶體倉庫。用一句白話來說,意即SRAM負責「快」,HBM負責「多」,兩者共同決定AI晶片能跑多快、跑多遠。SRAM為何突然躍上舞台?過去幾年,AI發展的核心在於「算力規模」,誰能堆更多GPU、跑更大的模型,誰就領先,這使得HBM成為焦點。但現在風向正在改變,隨著生成式AI進入商業化階段,市場需求從「訓練能力」轉向「即時推論能力」,包括即時語音助理;即時翻譯、客服;自駕與機器人反應系統;金融交易、風控決策,這類應用最怕的不是算力不夠,而是「延遲太高」,而這正是HBM的罩門。此外,輝達斥資200億美元取得Groq的LPU(Language Processing Unit)技術授權,表面看是AI加速器戰爭的一環,但其實與SRAM的關聯非常深,主要在於LPU的性能關鍵不在算力,而在「極端高速、低延遲的記憶體存取」,而這正是SRAM最擅長、也是不可替代的領域。那麼為何輝達要買Groq的「技術」而非晶片?因為輝達已經掌握GPU架構、CUDA生態系、HBM封裝與供應鏈,但它「缺」的是極致低延遲推論架構的設計,Groq的價值在於如何用大量SRAM +簡化控制邏輯,換取比GPU更可預測、更即時的AI回應,特別適用於AI Agent、即時語音、交易、機器人控制,這使得SRAM從「配角」升級為「主角」。 (半導體芯聞)