#記憶體
🎯記憶體、PCB、低軌衛星後,下一個接棒主流浮現!Line@連結:https://lin.ee/mua8YUP🎯記憶體飆、PCB漲三個月、低軌衛星飛天……你不敢買的話,還有一個選擇:AI眼鏡。🚀2026年:AI眼鏡的「放量元年」以前的眼鏡叫「科技垃圾」,又重、又熱、還沒軟體用。 現在的AI眼鏡叫「外掛大腦」。它不需要炫砲的3D畫面,它只要能聽懂你的指令、看懂眼前的法文菜單、翻譯會議上的各種語言。HSBC預測:2040年市場規模衝上2,000億美元,用戶從1,500萬爆增到2.89億人。 這不是科幻片,這是2026年就會在你我生活中上演的「錢潮」。台股供應鏈誰是「真金」?看這四條線:1.獲利大翻身的「光學老兵」:6209今國光爆點:2025年營收衝上9年新高,靠的不是傳統相機,而是Google!關鍵技術:今國光轉型深耕「光波導」與「光引擎」,這是AI眼鏡的「視網膜」。反差:過去被市場冷落,現在是Google XR產品,2026年量產的首席光學盟友。法人估計2026年EPS有望倍增,毛利率直接衝破21%!2.全球前四強的「關鍵材料」:3645達邁爆點: 它是Meta AR眼鏡的隱形大將!當Meta喊出2026年產能要衝2,000萬副時,誰能供貨?只有達邁。關鍵技術:AI眼鏡要輕、要散熱、電路要細,全靠它的透明PI(聚醯亞胺薄膜)。地位:達邁剛砸5億擴建產線,2026年正式投產。這不是在蹭題材,這是「產能被包走」的前奏!3.耳朵(聲學之王):2439美律、6679鈺太美律:Meta聲學核心,想像空間直接拉滿。鈺太:D-Mic市佔稱霸,讓AI聽清楚你的指令,它是唯一救贖。4.投影技術:3294英濟、3504揚明光守住LCoS與微投影光學引擎,這是讓影像投射在鏡片上的關鍵技術。🔴想知道幾檔裡面,哪一檔才是真正的「黑馬」?接下來我們會在粉絲團持續幫大家鎖定+追蹤,若還不知道該如何操作?那建議你務必要鎖定江江在Line @,將有更進一步的訊息給大家了解。https://lin.ee/mua8YUP🔴想了解還未起漲的市場主流,同步了解大盤多空轉折點及學習預測技術分析,江江YT節目都會持續追蹤+預告。https://reurl.cc/02drMk********************************************************有持股問題或想要飆股→請加入Line:https://lin.ee/mua8YUP江江的Youtube【點股成金】解盤:https://reurl.cc/02drMk*********************************************************(本公司所推薦分析之個別有價證券 無不當之財務利益關係以往之績效不保證未來獲利 投資人應獨立判斷 審慎評估並自負投資風險)
🎯華邦電 南亞科 力積電不妙?記憶體崩跌?該買?還是該逃命?Line@連結:https://lin.ee/mua8YUP🎯這禮拜的台股,像不像坐雲霄飛車?前兩天才剛鬆一口氣,今天直接被歐美關稅戰+美股重挫拖下來。尤其那句「美國可能對非美製記憶體課100%關稅」,一丟出來,南亞科、華邦電、旺宏…,記憶體股通通被當成世界末日在賣。你會覺得台股沒行情,不是因為市場結束了,是因為你還卡在「老AI」的世界裡。鴻海、廣達、緯創、散熱三雄,基本面好不好?很好。但在「3萬點以上的台股」,它們的角色叫做穩盤,不是噴出。現在資金要的是什麼?不是穩定,是爆發力。不是防守,是下一段主升段。再回來看今天最慘的記憶體。很多人一看到100%關稅,股價又大跌,腦中只剩一句話:完了。江江今天教你判斷一個產業有沒有救,別看新聞,看老闆怎麼砸錢!🔴南亞科:2026年資本支出直接噴到500億!🔴產線規劃:已經排到2027年。🔴市場實況:DDR5供不應求,需求熱到燙手。我只問你一件事如果產業要死,老闆會不會先跑?答案是沒有。南亞科直接端出500億資本支出,產線看到2027,DDR5還供不應求。這叫什麼?這叫「用真金白銀投票」。市場現在在幹嘛?用政治噪音嚇散戶,用恐懼洗籌碼,幫聰明錢鋪好「黃金坑」。所以,今日下跌不是末日,是換車、換股、換腦袋的時候。🔴接下來我們會在粉絲團持續幫大家鎖定+追蹤,若還不知道該如何操作?那建議你務必要鎖定江江在Line @,將有更進一步的訊息給大家了解。https://lin.ee/mua8YUP🔴想了解還未起漲的市場主流,同步了解大盤多空轉折點及學習預測技術分析,江江YT節目都會持續追蹤+預告。https://reurl.cc/02drMk********************************************************有持股問題或想要飆股→請加入Line:https://lin.ee/mua8YUP江江的Youtube【點股成金】解盤:https://reurl.cc/02drMk*********************************************************(本公司所推薦分析之個別有價證券 無不當之財務利益關係以往之績效不保證未來獲利 投資人應獨立判斷 審慎評估並自負投資風險)
半導體市場,最新預測
半導體行業正處於增長周期,其增長將受到強大的結構性趨勢的推動,包括人工智慧驅動的計算和記憶體需求的加速增長,以及先進封裝、功率半導體、矽光子學的轉變,以及供應鏈本地化的迫切需求。本文由Yole撰寫,將對半導體行業現狀進行全面剖析,並展望 2026 年的核心發展趨勢。人工智慧如何驅動半導體創新人工智慧已成為整個半導體價值鏈的主要驅動力。圍繞人工智慧發展,市場呈現出兩大主題:一是為滿足需求而進行的基礎設施擴展所面臨的挑戰,二是各行業能否交付由人工智慧驅動的切實可行且盈利的新應用。資料通訊容量正日益受到物理極限的制約,這正推動著資料中心及更廣泛通訊基礎設施從銅纜向光互連的結構性轉變。隨著頻寬需求的增長以及能效成為關鍵設計約束,光連接正被部署得更靠近計算節點。這加速了矽光子學的整合,尤其是在人工智慧資料中心中,更短的電氣路徑和更高速度的光鏈路對於維持性能擴展至關重要。高性能計算技術的興起正在設定新的標準。先進封裝是這些技術的核心,旨在確保高效散熱以及成本控制。與此同時,對高頻寬儲存器(HBM)的需求正飆升,給供應帶來了壓力。製造商有能力生產足夠的元件嗎?儘管有數十億美元投資帶來的強勁勢頭,但人工智慧商業模式仍存在不確定性,特別是大型語言模型(LLM)能否帶來可持續回報。雖然人工智慧的採用正在加速,但許多企業用例的投資回報率(ROI)仍不明確,這引發了人們對當前支出水平構成持久增長周期還是投機泡沫的質疑。行業將不得不面對一個根本問題:誰來買單?建構具有韌性的本土供應鏈由於地緣政治緊張局勢迫使企業重新評估關鍵元件的採購地點和方式,供應鏈安全仍將是未來一年的決定性主題。在加強供應鏈的競賽中,中國繼續加速其本土半導體生態系統的發展,旨在滿足國內需求,同時在先進技術生產方面迎頭趕上。國內製造商正大力推動從裝置(光刻、蝕刻和材料沉積)到整個價值鏈末端系統(如人形機器人)的前沿能力發展。而台積電(TSMC)、美光(Micron)和英特爾(Intel)等公司在美國的重大半導體投資,反映了政府政策以及美中貿易戰如何影響全球製造戰略。不穩定世界中戰略技術的崛起隨著各國政府應對日益不穩定的地緣政治環境,國防半導體技術也正獲得戰略重要性。更多的國家主導國防投資正在推動更多的技術研發和採購。無人機的快速發展正在推動感測、驅動、通訊和電子戰領域的創新,這些都是 Yole Group 分析中密切關注的領域。這一轉變正支撐著對慣性感測器、射頻(RF)元件、干擾系統和成像解決方案等技術的需求,其中無人機和反無人機能力正成為一個特別重要的增長領域。汽車市場對半導體相關元件需求的放緩,也促使製造商重新聚焦於供應國防相關應用。除了國防項目,通訊基礎設施領域的機會也在擴大,包括用於天基網路的射頻和光學衛星技術。 (半導體行業觀察)
🎯3萬點的台股:你在怕,大戶在撿!AI+記憶體「暴力重估」才剛開始!Line@連結:https://lin.ee/mua8YUP🎯台股連連上漲,量能一天7、8千億融資創新高,你是不是已經想獲利了結了?我直接講一句重話:現在覺得怕,很正常;現在就賣,才是最致命的錯誤。很多人問,台股到底憑什麼漲到這裡?答案只有一個名字:2330台積電。淡季不淡、資本支出再上修,法說會講白了就是一句話:「訂單接不完。」外資目標價一個比一個高,這就是AI帶來的「戴維斯雙擊」,獲利跟估值一起往上抬。再來,大家最愛拿來嚇自己的四個字:融資創新高。聽清楚,重點不是「高不高」,而是「跑得快不快」。現在大盤漲幅約82%,融資只增加74.6%。還差快7%!這叫什麼?這叫散戶雖上車,離瘋狂追價還沒到呢。只要融資沒跑贏指數,這班財富列車就不會翻車。💰真正的大戲,在記憶體。劉德音用美光董事身分,股價大漲後還敢砸2.5億買自家股票,這是在賭5%、10%嗎?不是,他看到的是供需失衡的大行情。力積電更猛,直接把銅鑼廠569億賣給美光。你以為是賣廠求生?錯,這是神操作:現金入袋、甩掉低毛利、直接抱上美光AI、DRAM大腿。然後是要價值重估、股價飛天。現在的記憶體市場只有一句話:拿現金來排隊。NAND已經翻倍,第一季還可能再噴4~5成。上游在漲,台灣這些廠的EPS會怎麼走?答案你自己想。這波AI引發的價值重估,才剛進入「主升段」。 現在不是該不該賣的問題,是你「敢不敢贏」、「買對個股了嗎」的問題!🔴接下來我們會在粉絲團持續幫大家鎖定+追蹤,若還不知道該如何操作?那建議你務必要鎖定江江在Line @,將有更進一步的訊息給大家了解。https://lin.ee/mua8YUP🔴想了解還未起漲的市場主流,同步了解大盤多空轉折點及學習預測技術分析,江江YT節目都會持續追蹤+預告。https://reurl.cc/02drMk********************************************************有持股問題或想要飆股→請加入Line:https://lin.ee/mua8YUP江江的Youtube【點股成金】解盤:https://reurl.cc/02drMk*********************************************************(本公司所推薦分析之個別有價證券 無不當之財務利益關係以往之績效不保證未來獲利 投資人應獨立判斷 審慎評估並自負投資風險)
16G記憶體條價格飆漲超3倍
一、儲存價格狂飆不止,消費電子行業承壓近段時間,記憶體條價格開啟“狂飆”模式,引發市場廣泛關注。濟南商戶透露,去年6月至今16G記憶體條從百余元漲至七百多,漲幅超3倍。華強北商戶表示,記憶體條價格每天約上漲40至50元,一日一價成常態。消費者升級電腦時普遍發現,記憶體價格遠超預期,直呼難以接受。集邦諮詢資料顯示,2025年9月以來DDR5價格漲幅超300%,DDR4超150%。深圳市民 李昀臻:記憶體條跟硬碟都是一天一個價,越來越高,跟去年相比漲了三四倍、四五倍。下游電腦組裝企業採購成本激增,不得不上調服務價格。不少企業客戶因成本上升縮減採購計畫,業務拓展受制約。手機、平板等消費電子產業均面臨成本壓力,紛紛上調產品售價。部分廠商無奈推遲或取消新品發佈,行業節奏被打亂。集邦諮詢下調出貨預測,2026年手機、筆電出貨量轉為下滑。二、AI需求爆發,產能結構重構引供需失衡此輪漲價的核心推手是全球AI算力需求的爆發式增長。主流晶片製造商優先生產AI資料中心所需的高頻寬記憶體。矽晶圓產能向高端儲存傾斜,擠壓了消費級記憶體產能。某智算中心項目記憶體需求從1萬條飆升至8萬條,增幅驚人。AI大模型每六七個月迭代一次,帶動儲存需求成倍增加。儲存晶片是最佳押注!知名基金經理高呼:市場低估了AI需求AI伺服器記憶體需求量是普通伺服器的8-10倍,消耗超五成月產能。頭部雲服務商巨額訂單,讓廠商更傾向佈局伺服器儲存領域。Counterpoint報告稱儲存市場進入“超級牛市”,超2018年高點。多家企業公佈擴產計畫,但產能釋放需時,緊缺狀態將持續。供需格局重構下,儲存市場高價震盪態勢短期難改。 (深科技)
16G記憶體條價格飆漲超3倍
一、儲存價格狂飆不止,消費電子行業承壓近段時間,記憶體條價格開啟“狂飆”模式,引發市場廣泛關注。濟南商戶透露,去年6月至今16G記憶體條從百餘元漲至七百多,漲幅超3倍。華強北商戶表示,記憶體條價格每天約上漲40至50元,一日一價成常態。消費者升級電腦時普遍發現,記憶體價格遠超預期,直呼難以接受。集邦諮詢資料顯示,2025年9月以來DDR5價格漲幅超300%,DDR4超150%。深圳市民 李昀臻:記憶體條跟硬碟都是一天一個價,越來越高,跟去年相比漲了三四倍、四五倍。下游電腦組裝企業採購成本激增,不得不上調服務價格。不少企業客戶因成本上升縮減採購計畫,業務拓展受制約。手機、平板等消費電子產業均面臨成本壓力,紛紛上調產品售價。部分廠商無奈推遲或取消新品發佈,行業節奏被打亂。集邦諮詢下調出貨預測,2026年手機、筆電出貨量轉為下滑。二、AI需求爆發,產能結構重構引供需失衡此輪漲價的核心推手是全球AI算力需求的爆發式增長。主流晶片製造商優先生產AI資料中心所需的高頻寬記憶體。矽晶圓產能向高端儲存傾斜,擠壓了消費級記憶體產能。某智算中心項目記憶體需求從1萬條飆升至8萬條,增幅驚人。AI大模型每六七個月迭代一次,帶動儲存需求成倍增加。儲存晶片是最佳押注!知名基金經理高呼:市場低估了AI需求AI伺服器記憶體需求量是普通伺服器的8-10倍,消耗超五成月產能。頭部雲服務商巨額訂單,讓廠商更傾向佈局伺服器儲存領域。Counterpoint報告稱儲存市場進入“超級牛市”,超2018年高點。多家企業公佈擴產計畫,但產能釋放需時,緊缺狀態將持續。供需格局重構下,儲存市場高價震盪態勢短期難改。 (深科技)
儲存還要繼續瘋!輝達ICMSP讓快閃記憶體漲停,黃仁勳要一統儲存處理器
輝達推出全新推理上下文(Inference Context)記憶體儲存平台(ICMSP),通過將推理上下文解除安裝(Offload)至NVMe SSD的流程標準化,解決KV快取容量日益緊張的問題。該平台於 2026 年國際消費電子展(CES 2026)正式發佈,致力於將GPU的KV快取(Key-Value Cache)擴展至基於 NVMe 的儲存裝置,並獲得輝達 NVMe 儲存合作夥伴的支援。此消息一出,引爆的是本就漲到高不可攀的儲存廠商股價,多家儲存廠商和快閃記憶體控製器廠商股價直接漲停,快閃記憶體極有可能步DRAM後塵成為AI基建帶動下第二波緊俏儲存器,儲存價格特別是快閃記憶體價格在2026年可能成為儲存產品整體價格繼續飆漲的第二輪推動力。從某個角度考慮,ICMSP的推出,讓GPU晶片可以降低對大容量HBM產品的嚴重依賴,同時也讓AMD同步發佈的Helios機架平台變得有些“過時”,因為輝達已經邁向了存算結合的新階段。不過相比這些,黃仁勳在解答分析師問題時更是直言“我們現在是全球最大的網路公司。我預計我們還將成為全球最大的儲存處理器公司”,通過不斷收購儲存技術,輝達致力於在AI算力體系架構中,擁有更多的話語權。從這點來看,ICMSP將成為輝達在AI走向千行百業的工程化過程中主導的技術之一。認識一下ICMSP在大型語言模型推理過程中,KV快取用於儲存上下文資料 —— 即模型處理輸入時,表徵令牌間關係的鍵(keys)和值(values)。隨著推理推進,新令牌參數不斷生成,上下文資料量持續增長,往往會超出 GPU 的可用記憶體。當早期快取條目被淘汰後又需重新呼叫時,必須重新計算,這會增加延遲。智能體 AI(Agentic AI)和長上下文工作負載進一步加劇了這一問題,因為它們需要保留更多上下文資料。而 ICMSP 通過將 NVMe 儲存上的 KV 快取納入上下文記憶體地址空間,並支援跨推理任務持久化儲存,有效緩解了這一困境。輝達創始人兼CEO黃仁勳表示:“人工智慧正在徹底變革整個計算架構 —— 如今,這場變革已延伸至儲存領域。人工智慧不再侷限於一次性互動的聊天機器人,而是能理解物理世界、進行長周期推理、立足事實、借助工具完成實際工作,並具備短期和長期記憶的智能協作夥伴。借助BlueField-4,輝達與軟硬體合作夥伴正為人工智慧的下一個前沿領域重塑儲存架構。” 他在CES演講中提到,通過BlueField-4,機櫃中可直接部署KV快取上下文記憶體儲存。隨著 AI 模型規模擴展至兆參數等級,且支援多步驟推理,其生成的上下文資料量極為龐大,同時運行的此類模型數量也在不斷增加。KV 快取軟體(即 ICMSP)需適配GPU、GPU 伺服器及 GPU 機櫃叢集,這些裝置可能同時處理多種不同的推理工作負載。每個模型 / 智能體工作負載的參數集都需妥善管理,並能精準對接運行在特定 GPU 上的目標AI模型或智能體 —— 且這種對應關係可能隨任務調度動態變化。這意味著需要專門的 KV 快取上下文中繼資料管理機制。基於NVMe的KV快取儲存需實現跨層級相容,涵蓋 GPU、GPU 伺服器、GPU 機櫃乃至多機櫃叢集。輝達表示,ICMSP 不僅提升了 KV 快取容量,還加速了機櫃級 AI 系統叢集間的上下文共享。多輪互動 AI 智能體的持久化上下文特性,提高了響應速度,提升了 AI 工廠的吞吐量,並支援長上下文、多智能體推理的高效擴展。圖1 基於 NVMe 的 KV 快取儲存需實現跨層級相容,覆蓋GPU、GPU 伺服器、GPU機櫃乃至GPU機櫃叢集ICMSP 依賴Rubin GPU叢集級快取容量,以及輝達即將推出的BlueField-4資料處理器(DPU)—— 該處理器整合Grace CPU,吞吐量高達 800 Gbps。BlueField-4 將提供硬體加速的快取部署管理功能,消除中繼資料開銷,減少資料遷移,並確保GPU節點的安全隔離訪問。輝達的軟體產品(包括DOCA框架、Dynamo KV快取解除安裝引擎及其內建的 NIXL(輝達推理傳輸庫)軟體實現了 AI 節點間 KV 快取的智能加速共享。儲存架構必須重構,在這個過程中,上下文成為新瓶頸,主要體現在模型規模持續擴大、上下文(Context)長度不斷增加、多輪對話導致上下文(Context)累積以及並行使用者與會話數量增多等方面。圖2 黃仁勳在 CES 2026 展示的上下文瓶頸幻燈片Dynamo支援跨記憶體和儲存層級的協同工作,覆蓋GPU的高頻寬記憶體(HBM)、GPU 伺服器 CPU 的動態隨機存取儲存器(DRAM)、直連 NVMe SSD 及網路附加儲存。此外,還需搭配輝達Spectrum-X乙太網路,為基於RDMA的AI原生KV快取訪問提供高性能網路架構。輝達稱,ICMSP的能效將比傳統儲存提升5倍,令牌每秒處理量最高可提升5倍。圖3 黃仁勳在 CES 2026 展示的推理上下文記憶體儲存平台幻燈片行業反饋鑑於輝達在AI算力架構方面擁有絕對的話語權,ICMSP的推出必定會得到一眾合作夥伴的鼎力支援,以免錯失商機。輝達列出了眾多將通過BlueField-4支援ICMSP的儲存合作夥伴,BlueField-4 將於 2026 年下半年正式上市。首批合作夥伴包括 AIC、Cloudian、DDN、戴爾科技、HPE、日立資料系統、IBM、Nutanix、Pure Storage、超微(Supermicro)、VAST Data 和 WEKA。預計 NetApp、聯想(Lenovo)和 Hammerspace 也將後續加入。將KV快取解除安裝或擴展至NVMe SSD的架構理念,其實已有廠商率先實踐 —— 例如 Hammerspace的零級儲存技術(Tier zero tech)、VAST Data的開放原始碼軟體VAST Undivided Attention(VUA),以及WEKA的增強記憶體網格(Augmented Memory Grid)。戴爾也通過在PowerScale、ObjectScale和閃電計畫(Project Lightning,私人預覽版)儲存產品中整合LMCache和NIXL等技術,實現了KV快取解除安裝功能。這些均為基於BlueField-3的解決方案。如今,輝達旨在為所有儲存合作夥伴提供標準化的KV快取記憶體擴展框架。戴爾、IBM、VAST Data和WEKA已明確表示將支援 ICMSP。WEKA在題為《上下文時代已然來臨》的部落格中,詳細闡述了支援該平台的實施方案及核心原因,指出ICMSP是 “一類新型 AI 原生基礎設施,將推理上下文視為一級平台資源。這一架構方向與WEKA的增強記憶體網格高度契合,後者通過擴展 GPU 記憶體,實現了大規模、無限量、高速、高效且可復用的上下文儲存。”WEKA產品行銷副總裁Jim Sherhart表示:“為上下文資料套用為長期儲存資料設計的重量級持久性、複製和中繼資料服務,會產生不必要的開銷 —— 導致延遲增加、功耗上升,同時降低推理經濟性。”“推理上下文固然需要適當的管控,但它的特性與企業級資料不同,不應強行套用企業級儲存語義。傳統協議和資料服務帶來的開銷(如中繼資料路徑、小 I/O 放大、默認的持久性 / 複製機制、在錯誤層級施加的多租戶控制),可能將‘高速上下文’降級為‘低速儲存’。當上下文對性能至關重要且需頻繁複用的情況下,這種開銷會直接體現為尾部延遲增加、吞吐量下降和效率降低。”VAST Data 表示,其儲存/AI作業系統將運行在BlueField-4處理器上,“打破傳統儲存層級界限,提供機櫃級共享KV快取,為長上下文、多輪對話和多智能體推理提供確定性訪問性能。”VAST 全球技術合作副總裁John Mao稱:“推理正逐漸成為一個記憶體系統,而非單純的計算任務。未來的贏家不會是擁有最多原始計算資源的叢集,而是那些能以線速遷移、共享和管控上下文的叢集。連續性已成為新的性能前沿。如果上下文無法按需獲取,GPU 將陷入閒置,整個系統的經濟性將徹底崩塌。通過在輝達 BlueField-4 上運行 VAST AI 作業系統,我們正將上下文轉化為共享基礎設施 —— 默認高速、按需提供策略驅動管控,並能隨著智能體 AI 的規模擴展保持性能穩定性。”關於ICSMP,黃仁勳在CES 2026後答分析師會議上做了更多詳細的說明,其中最驚人的是黃仁勳表態希望未來輝達成為最大的儲存處理器公司,從而掌握更巨量資料話語權。Aaron Rakers- 富國銀行證券有限責任公司研究部:目前供應鏈面臨著諸多動態變化,比如 DRAM 價格、供應可用性等問題。我想瞭解你們對供應鏈的看法。黃仁勳(Jen-Hsun Huang:我們的供應鏈涵蓋了上游和下游。我們的優勢在於,由於我們的規模已經非常龐大,而且在如此大的規模下仍然保持快速增長,我們很早就開始為合作夥伴準備應對這種大規模的產能擴張。過去兩年,大家一直在和我討論供應鏈問題 —— 這是因為我們的供應鏈規模巨大,而且增長速度驚人。每個季度,我們的增長規模都相當於一家完整的公司,這還只是增量部分。我們每季度都在新增一家大型上市公司的規模。因此,我們在 MGX(機架級產品)方面所做的所有供應鏈最佳化工作。我們之所以如此注重元件標準化、避免生態系統和供應鏈資源浪費、並為合作夥伴提供大量投資(包括預付款支援),就是為了幫助他們擴大產能。我們談論的不是數百億美元,而是數千億美元的投入,以幫助供應鏈做好準備。因此,我認為我們目前的供應鏈狀況非常良好,這得益於我們與合作夥伴長期穩定的合作關係。而且,大家應該知道,我們是全球唯一一家直接採購 DRAM 的晶片公司。仔細想想,我們是全球唯一一家直接採購DRAM的晶片公司。有人問我們為什麼要這麼做?因為事實證明,將DRAM整合為CoWoS(晶圓級系統整合)並打造超級電腦的難度極大。而建立這樣的供應鏈體系,給了我們巨大的競爭優勢。現在市場環境雖然嚴峻,但我們很幸運擁有這樣的技術能力。說到功耗,看看我們的上游合作夥伴 —— 系統製造商、記憶體供應商、多層陶瓷電容器(MLCC)供應商、印刷電路板(PCB)供應商等,我們與他們都保持著緊密的合作。James Schneider- 高盛集團研究部:我想瞭解一下你們今天宣佈的上下文(Context)記憶體儲存控制技術。它在各類應用場景中的重要性如何?您是否認為它會成為某些特定客戶問題的性能瓶頸?我們是否可以期待你們在這個方向上繼續創新,就像你們過去在網路領域所做的那樣?黃仁勳(Jen-Hsun Huang):我們現在是全球最大的網路公司。我預計我們還將成為全球最大的儲存處理器公司,而且很可能我們的高端 CPU 出貨量也將超過其他任何公司。原因在於,Vera 和 Grace(以及 Vera 相關產品)已經應用於每個節點的智能網路介面卡(SmartNIC)中。我們現在是 AI 工廠的智能網路介面卡提供商。當然,很多雲服務提供商都有自己的智能網路介面卡(如亞馬遜的 Nitro),他們會繼續使用。但在外部市場,BlueField 系列產品取得了巨大的成功,而且 BlueField-4 將會表現更加出色。BlueField-4 的採用率(不僅僅是早期採用)正在快速增長。其上層的軟體層名為 DOCA(發音與 CUDA 相近),現在已經被廣泛採用。因此,在高性能網路的東西向流量(east-west traffic)方面,我們是市場領導者。在網路隔離的南北向流量(north-south networking)方面,我非常有信心我們也將成為市場領導者之一。而儲存領域目前是一個完全未被充分服務的市場。傳統的儲存基於 SQL 結構化資料,結構化資料庫相對輕量化。而 AI 資料庫的鍵值快取(KV caches)則極其龐大,你不可能將其掛在南北向網路上 —— 這會造成網路流量的巨大浪費。你需要將其直接整合到計算架構中,這就是我們推出這一新層級儲存技術的原因。這是一個全新的市場,很可能會成為全球最大的儲存市場 —— 它將承載全球 AI 的工作記憶體。這種儲存的規模將是巨大的,而且需要極高的性能。我非常高興的是,目前人們進行的推理工作負載已經超出了全球現有基礎設施的計算能力。因此,我們現在處理的上下文(Context)記憶體、令牌記憶體和鍵值快取的規模已經非常龐大,傳統的儲存系統已經無法滿足需求。當市場出現這種拐點,而你又有遠見能夠預見它的到來時,這就是進入一個新市場的最佳時機。而 BlueField-4 在這一領域具有絕對的競爭優勢,沒有任何產品能與之匹敵。Ken Chui- Robocap:我的問題同時涉及利潤率和技術。你們目前已經擁有 CPX 技術,通過收購 Grok,你們還獲得了可用於推理的 SRAM 技術。此外,你們的團隊一個月前發表了一篇論文,討論如何在 GPU 中使用 CPX 技術,從而減少對 HBM 的依賴 —— 因為可以用 GDDR7 替代 HBM。我們都知道 HBM 的成本非常高。因此,未來通過結合 Grok 的技術和你們內部的 CPX 技術,你們對 HBM 的使用會有何變化?這是否能更好地控制 HBM 的使用成本,從而對利潤率產生積極影響?黃仁勳(Jen-Hsun Huang):當然。我可以先描述一下這些技術各自的優勢,然後再談談面臨的挑戰。例如,CPX 在每美元預填充性能(prefill per dollar)方面比普通的 Rubin 更有優勢 ——Rubin CPX 的每美元預填充性能高於普通版 Rubin。如果將所有資料都儲存在 SRAM 中,那麼當然不需要 HBM 記憶體。但問題是,SRAM 能夠支援的模型規模比 HBM 小 100 倍左右。不過,對於某些工作負載來說,SRAM 的速度要比 HBM 快得多,因此性能會極其出色。因此,我認為它在預填充(prefill)和解碼(decode)等場景中會有明顯優勢。但問題在於,工作負載的形態一直在變化 —— 有時是混合專家模型(MOE),有時是多模態模型,有時是擴散模型(diffusion models),有時是自回歸模型(auto regressive models),有時是狀態空間模型(SSMs)。這些模型的形態和規模各不相同,對 NVLink、HBM 記憶體或其他元件的壓力也會不斷變化。因此,我的觀點是,由於工作負載變化如此之快,而且全球的創新速度也在加快,輝達之所以能夠成為通用解決方案,正是因為我們的靈活性。大家明白我的意思嗎?如果你的工作負載從早到晚都在變化,而且客戶需求各不相同,那麼我們的產品具有很強的通用性,幾乎適用於所有場景。你可能能夠針對某一種特定工作負載進行極致最佳化,但如果這種工作負載只佔總負載的 10%、5% 甚至 12%,那麼當它不被使用時,這部分資料中心資源就被浪費了 —— 而你只有 1 吉瓦的電力資源。關鍵在於,你不能把資料中心看作是擁有無限資金和空間的資源,而是要在有限的電力下實現整體利用率的最大化。架構越靈活,整體效益就越好。如果採用統一的架構 —— 例如,當我們更新 DeepSeek 模型時,資料中心內所有 GPU 的性能都會立即提升;當我們更新通義千問(Qwen)模型的庫時,整個資料中心的性能都會提升 —— 這樣的協同效應是非常顯著的。但如果你有 17 種不同的架構,每種架構只適用於特定場景,那麼整體的總擁有成本(TCO)反而會更高。這就是面臨的挑戰。即使在我們研發這些技術時,也非常清楚這一點 —— 這非常困難。 (EEPW)