#處理器
英特爾能否接住潑天富貴?
英特爾股價正經歷過山車式的暴漲暴跌。1月23日,英特爾公佈2025年第四季度財報,營收為137億美元,淨虧損為6億美元,按非通用會計準則,淨利潤為8億美元,業績好於市場此前的悲觀預期。不過,由於英特爾對2026年第一季度的業績展望低於市場共識,股價在盤後交易中一度下跌逾12%。在此之前,受AI對CPU需求的驅動、混改的進一步加深等市場消息的影響,英特爾股價一度快速從40美元,衝破至50美元以上。01 營收超預期,但扭虧後再度轉虧財報顯示,英特爾第四季度營收為137億美元,同比下滑4%,但超分析師平均預期的134億美元,淨虧損為6億美元,較去年同期1億美元的淨虧損進一步擴大。按非通用會計準則計算,淨利潤達到8億美元,同比增長35%。攤薄後每股虧損0.12美元,而去年同期每股虧損0.03美元,而分析師平均預期為每股收益0.09美元。按非通用會計準則,每股收益為0.15美元,同比增長15%。值得注意的是,英特爾2025年第三季度首次實現了連續多個季度虧損後的扭虧為盈,不過,第四季度在通用會計準則下再次陷入虧損,意味著外部資金注入逐步落地、PC市場回暖等影響因素減弱後,英特爾還沒有形成穩定、持續的盈利能力。具體的盈利能力方面,營業利潤率為4.2%,同比增長1.3%。按非通用會計準則,營業利潤率為8.8%,同比下滑0.8%。毛利率為36.1%,同比下滑3.1%。按非通用會計準則,毛利率為37.9%,同比下滑4.2%。費用控製成為少數亮點之一。第四季度研發及行銷、管理和行政支出為44億美元,同比下降14%。按非通用會計準則,這部分支出為40億美元,同比下降14%。第四季度,英特爾18A製程已經量產,並且正式發佈了基於18A製程的酷睿Ultra 3處理器家族,是首個採用18A技術,並在美國設計和製造的AI PC平台。英特爾預計,酷睿Ultra 3將支援來自全球OEM廠商的200多款裝置設計。從業務結構來看,第四季度英特爾產品部門收入為129億美元,同比小幅下滑1%。其中,客戶端計算事業部營收為82億美元,同比下降7%,反映出PC市場復甦仍然有限;資料中心與人工智慧集團營收為47億美元,同比增長9%,成為本季度最主要的增長來源;代工業務方面,第四季度營收為45億美元,同比增長4%,但其中仍包含相當比例的內部訂單;其他業務營收為6億美元,同比大幅下降48%;由於內部交易在合併報表中抵消,相關調整沖減了43億美元營收。英特爾CFO津斯納在分析師會議上表示,在第四季度,英特爾外部代工收入為2.22億美元,主要來自美國政府項目及Altera。第四季度英特爾代工事業部錄得25億美元營業虧損,環比擴大1.88億美元,主要由於Intel 18A進入早期量產階段帶來的成本壓力。另外,津斯納在分析師會議上還透露,2026年的營運支出將控制在160億美元左右。此前,英特爾還預計資本支出將下降,調整後大致與2025年持平或略微減少(即160億美元左右),且支出將更多集中在上半年。需要強調的是,2026年的資本支出主要用於支撐2027年及以後的需求。02 供應限制,市場對業績指引失望過去一年,英特爾股價上漲了147%,背後主要邏輯有兩個:一是押注英特爾18A製程進展順利,代工業務有望拿下首個重量級客戶;二是認為AI基礎設施投資回暖,將重新拉動伺服器CPU需求。英特爾也明確表示,2026年聚焦三個方向:鞏固 x86業務、加速推進加速器與ASIC、建構可信賴的代工業務。然而英特爾對2026年第一季度的業績指引,與市場預期存在偏差,甚至可以說是市場最為失望的部分,財報發佈後的盤後交易中,英特爾股價一度跌超12%。根據英特爾提供的指引,第一季度營收將在117億至127億美元之間,中值為122億美元,低於倫交所調查分析師平均預期的125億美元;預計毛利率為32.3%,按非通用會計準則計算為34.5%。盈利方面,英特爾預計第一季度每股虧損為0.21美元,按非通用會計準則計算每股收益為零,而倫交所調查分析師平均預期為每股收益0.05美元。這意味著,在目前業界普遍的供應短缺中,英特爾接下來一個季度,無法在收入上大幅度的兌現AI驅動的CPU需求紅利,與此前資料中心對傳統計算晶片的需求回暖的跡象存在衝突。所以英特爾CEO陳立武在分析師會議上表示,“短期內供應無法完全滿足市場需求令我感到失望。”而這也是2026年第一季度業績指引偏弱的原因之一。關於產能,雖然陳立武表態積極擴建,但160億美元的資本支出,如何協調規劃未來的18A甚至是14A的產能,這其實決定了英特爾能夠承接代工訂單的上限,要知道,1座20K月產能2nm晶圓廠,投資就將在100億美元以上。另外,18A及後續製程的研發和量產投入巨大,正在持續壓縮毛利率。另一方面,AI驅動伺服器其他硬體的需求擠佔了儲存產能,導致PC價格上漲,也可能抑制整機需求,間接影響英特爾處理器的出貨。在業務結構上,英特爾的短板依然存在,這也是分析師分歧集中的地方。目前,該公司仍有超過六成收入來自PC相關CPU,而AI資料中心業務增長有限,代工業務雖有45億美元收入,但其中相當一部分來自內部訂單,外部客戶突破仍未真正驗證。科技行業諮詢公司Creative Strategies CEO兼首席分析師本·巴賈林(Ben Bajarin)指出,和台積電類似,英特爾的增長空間正被產能上限所限制,很多市場預測並未充分考慮這一現實約束。他認為CPU需求已經“爆表”,但英特爾的產能可能在2026年之前都難以完全釋放。投資公司Gabelli Funds分析師牧野隆太(Ryuta Makino)認為英特爾當前股價“有些跑在前面”。他判斷英特爾2026年可能實現中低個位數增長,主要依賴AI伺服器CPU的雙位數增長,以及潛在的價格提升。但這一判斷在一定程度上取決於18A製程能否實現高於預期的良率,目前仍然言之過早。牧野隆太表示,如果英特爾的製程真的明顯優於台積電,外部客戶早就會出現,現在的市場似乎已經提前把“拿下大客戶並順利交付”的情景計入了股價。以下是英特爾2025年第四季度財報分析師電話會議精簡版:英特爾首席執行長陳立武點評:2025年是英特爾“重建基礎”的一年。過去10個月,通過精簡組織、減少官僚流程、引入外部高管並強化內部授權,我們試圖把英特爾拉回一個以執行力為核心的狀態。客戶普遍認可英特爾正在發生的變化,並希望在自身轉型中繼續與英特爾合作。未來AI部署將依賴CPU、GPU、NPU、ASIC等異構計算,這為英特爾在CPU、系統整合、製造和先進封裝上的長期積累提供了機會,但這一過程不會一蹴而就,執行力仍是關鍵變數。第四季度,在供應受限的情況下,英特爾營收、毛利率和每股收益均超出指引,但產能不足限制了對需求的滿足,英特爾正加快改善這一問題。在核心業務上,AI只會進一步放大x86的重要性。客戶端方面,基於18A製程的Core Ultra Series 3已提前交付,並在CES上支援超過200款筆記型電腦設計,當前重點是提升18A產能以滿足需求。結合2026年底推出的Nova Lake,英特爾的PC產品路線圖在性能與成本之間更具競爭力,有助於穩住份額和盈利。在資料中心業務上,英特爾整合了CPU和AI團隊,以提升協同效率。傳統伺服器需求依然強勁,AI負載的擴散進一步強化了CPU的基礎性作用,有利於Granite Rapids及現有主流產品的持續放量。同時,英特爾正與輝達合作開發整合NVLink的定製Xeon產品。在AI加速與ASIC方面,英特爾將重點押注推理、智能體AI和大規模推理等新負載,通過CPU與加速器IP的結合實現差異化。代工業務方面,英特爾已開始出貨首批基於18A的產品,良率持續改善但仍低於管理層期望。18AP和14A按計畫推進,外部客戶接洽活躍,預計從今年下半年到2027年上半年陸續做出供應商選擇。先進封裝被視為重要差異化優勢。最後,短期內無法完全滿足市場需求令我感到失望。良率雖符合內部規劃,但仍不夠好。提升良率和產出效率將是2026年的關鍵抓手。重建英特爾是一段多年旅程,但管理層的目標明確:恢復工程能力和執行力,重塑這家公司的長期競爭力。以下為分析師問答環節:德意志銀行分析師羅斯·西摩(Ross Seymour):我有兩個關於供應的問題。短期來看,良率提升和效率改善是否足以應對第一季度通常出現的季節性收入低點?更長期來看,隨著18A、14A 以及客戶接洽和內部路線圖進展更明確,你們何時會決定放鬆資本開支約束,以內部產能來滿足結構性增長需求?津斯納:短期內,良率和吞吐量的提升是增加供應最有效的手段,而且不需要新增資本投入,我們對改善節奏有信心。資本支出的情況比“持平或略降”要複雜一些,我們在廠房方面的支出已明顯下降,潔淨室空間佈局也較為充足,而2026年將明顯增加裝置投入,以緩解當前的供應緊張。事實上,在Intel 7、Intel 3和18A上,我們每個季度都能看到晶圓開工量的提升。我們預計二季度供應會有所改善,但全年仍將偏緊,情況會隨著時間推移逐步好轉。陳立武:在14A方面,我們在獲得明確客戶承諾之前不會進行產能投資,只會保留與14A相關的技術開發和研發支出。14A客戶敲定的時間窗口預計在今年下半年至明年上半年,一旦業務前景更加明確,我們才會解鎖相關資本開支。目前良率每月大約提升7%到8%,穩定性和缺陷密度也在改善,但整體仍未達到行業領先水平,這對Panther Lake以及18A、14A的推進都非常關鍵。德意志銀行分析師羅斯·西摩:關於毛利率方面,能否給出更清晰的方向性判斷?津斯納:第一季度毛利率下滑主要由兩方面因素造成。首先是收入的季節性下降,這對固定成本佔比較高的業務結構不利;其次是Panther Lake雖然成本結構環比有所改善,但仍在稀釋公司整體毛利率,而且其在產品組合中的佔比上升。隨著供應改善和良率、吞吐量持續提升,Panther Lake的成本結構將進一步最佳化,其對毛利率的影響也會逐步由稀釋轉為增益。瑞銀分析師蒂姆·阿庫裡(Tim Arcuri):關於代工業務,市場對你們的期待很高。你如何定義這一業務的成功?“到2030年成為全球第二大代工廠”是否仍是合理目標?陳立武:我們的目標是打造世界一流的代工業務。14A的開發進展符合計畫,工藝流程已得到簡化,更重要的是建構關鍵IP體系以服務客戶,同時持續提升良率和交付一致性。今年下半年,部分核心客戶將明確他們所需的產能和長期承諾,這將推動我們啟動相應的產能建設。津斯納:此外,先進封裝將成為代工業務的早期成功指標。在晶圓收入顯著改善之前,我們就有望看到先進封裝帶來的數億美元級收入,一些客戶項目的潛在規模甚至超過10億美元,這也反映了英特爾在先進封裝和AI相關應用上的差異化優勢。摩根士丹利分析師喬·摩爾(Joe Moore):能談談伺服器前景嗎?Diamond Rapids(至強7系列高性能處理器)存在多線程限制,而Granite Rapids(至強6000P系列高性能處理器)很關鍵。能給出Granite Rapids時間表以及市場份額預期嗎?陳立武:為了推動資料中心和AI業務,我已將相關團隊集中在凱沃克·克奇奇安(Kevork Kechichian)領導之下。他已組建了團隊並吸納了人才。我們目前重點是16通道的Diamond Rapids,同時加速Granite Rapids推出,它將重新在資料中心引入多線程技術。總體上,團隊已就位,路線圖清晰,我們執行非常果斷。摩根士丹利分析師喬·摩爾(Joe Moore):今年剩餘時間,你們能否將晶圓從PC轉向資料中心?第一季度受限最嚴重,之後雖會改善,但仍有限制。你們會優先考慮資料中心嗎?津斯納:是的,我們受產能限制。客戶端方面,我們專注於中高端產品,低端產品暫緩。如果有剩餘產能,我們會優先投向資料中心,以滿足關鍵客戶需求。基於此,你會看到部分市場份額調整,因為我們要優先支援主要客戶,確保資料中心和客戶端重要OEM客戶都得到保障。Melius Research分析師本·雷茨(Ben Reitzes):第一季度表現低於季節性水平,但你們提到,如果供應充足,表現會遠超季節性。第二至第四季度應如何建模?PC端的限制會不會對全年表現造成明顯約束?津斯納:如果第二季度及之後供應改善,我們預計全年整體表現將優於季節性水平。這意味著我們預計在改善產能和供給的情況下,全年收入和出貨量將超過典型的季節性波動。Melius Research分析師本·雷茨(Ben Reitzes):我還想瞭解超大規模資料中心的伺服器需求。你們的勢頭主要由超大規模資料中心驅動嗎?還是短缺導致表現低於季節性水平?企業需求方面有什麼情況嗎?陳立武:我認為超大規模資料中心對我們擴大業務規模非常關鍵。我與他們進行了深入溝通。他們明確表示,CPU驅動了大量關鍵工作負載,並願意簽訂長期協議優先部署我們的CPU,這是非常積極的訊號。同時,他們對與我們合作也很興奮,包括矽片、軟體和系統層面的合作。此外,ASIC設計也是機會,他們希望基於Xeon建構定製晶片,並探索先進封裝的應用。總體來看,與他們合作是一個巨大機會。Bernstein Research分析師史黛西·拉斯貢(Stacy Rasgon):關於各部門情況,如果Mobileye增長、Altera代工收入約2億美元,那麼DCAI和客戶端可能出現較大幅度下降。客戶端下降可能是中雙位數,而DCAI高個位數。這是否精準?為什麼資料中心出貨量在第一季度下降幅度這麼大?津斯納:供應問題會讓兩者都下降。我們盡力將產能優先轉向資料中心,但無法完全放棄客戶端。第一季度是低谷,第二季度會改善供應。2025 年下半年我們依賴成品庫存消化需求,但現在庫存僅剩峰值約40%,我們只能按手頭產能交付。Bernstein Research分析師史黛西·拉斯貢(Stacy Rasgon):你們自有工廠,為什麼會出現這種庫存狀況?116億美元庫存為何無法及時發貨?津斯納:主要原因是過去六個月的方向性預測不足。當時預期核心數量增加,但出貨量未同步增長。超大規模資料中心需求在第三、四季度迅速增長,超出了預期。我們有自己的晶圓廠,可以盡力增加供應,但過去未預料到如此顯著的增長。美銀證券分析師維韋克・阿里亞(Vivek Arya):外部代工業務何時開始帶來可觀收入?我們何時會看到增量產能?業務成功需要多少收入?陳立武:14A外部代工客戶接洽活躍,今年下半年客戶會開始確認量,然後我們根據需求建設產能。IP準備與良率同步推進。現實情況下,14A風險試產預計在2027年後期,大規模量產在2028年。美銀證券分析師維韋克・阿里亞(Vivek Arya):2026年伺服器CPU市場總規模如何?x86 vs Arm架構比例如何?供應受限是否影響整個行業?津斯納:這種需求主要來自x86,因為舊網路升級需要與AI系統相容。我們還有競爭對手,但市場份額最終受產品路線影響,比如16通道的Diamond Rapids和Granite Rapids。陳立武:超大規模資料中心和高端ODM對伺服器業務至關重要。他們首選英特爾CPU,並儘量獲取我們能提供的產能。Cantor Fitzgerald分析師CJ Muse:考慮到AI驅動的需求和你們供應受限,你們是否擔心等到2026年底再下訂單,交貨期會更長?為什麼今天不更積極下單?津斯納:我們正在積極獲取Intel 7、Intel 18A的裝置訂單,儘可能地增加晶圓開工。我們正在推遲的是14A,因為需確認客戶承諾。我們的重點是更好利用現有裝置、改進良率和生產周期,這無需額外資本支出。摩根大通分析師哈蘭·蘇爾(Harlan Sur):客戶是否已經開始測試14A晶片?Clearwater Forest平台是否繼續推進?Diamond Rapids設計定案和上量時間如何?陳立武:部分客戶已基於PDK 0.5開始測試晶片,評估量產可行性。Clearwater Forest持續支援,但我們重點是Diamond Rapids高端產品,並通過Coral Rapids引入多線程。我們努力加速產品推出,以儘早交付客戶。富國銀行分析師亞倫-瑞克斯(Aaron Rakers):客戶對記憶體情況有何反應?記憶體定價對毛利率影響大嗎?定製ASIC進展如何?陳立武:記憶體供應緊張,我們關注正確分配,確保CPU和記憶體匹配。對於Lunar Lake,早期記憶體獲取相對積極,但毛利率受影響有限。定製ASIC需求強勁,已達10億美元規模,客戶基礎廣泛,AI、網路和雲是主要方向,先進封裝進一步增強吸引力。 (芯師爺)
英英聯合,藍廠CEO宣佈正開發 AI 定製 Xeon 至強處理器,深度整合 NVLink 技術
IN-DIA處理器要來了英特爾 CEO 陳立武昨日在 Q4 財報電話會議中證實,英特爾正與輝達合作開發一款面向企業級和資料中心應用、深度整合 NVLink 技術的至強(Xeon)處理器,目標直指新一代 AI 主機節點。我們正在持續與輝達緊密合作,打造一款完全整合其 NVLink 技術的定製 Xeon 處理器,以為 AI 主機節點帶來業界領先的 x86 性能。除此之外,陳立武還提到了至強產品線的其他進展,稱該部門正高度聚焦於推動 16 通道的“Diamond Rapids” Xeon 處理器加快上市處理程序。不過,目前我們尚無法判斷這款與輝達聯合開發的定製 Xeon 處理器將基於第六代還是第七代 Xeon 技術。定位更靠後的“Coral Rapids” Xeon 系列,預計將為資料中心工作負載重新引入超線程(Hyper-Threading)技術。陳立武同時還提到,加快“Coral Rapids”系列至強處理器的上市進度,也是公司目前的另一項重要目標。時間回溯至去年 9 月中旬,英特爾與輝達宣佈達成合作。雙方暗示未來將在英特爾 x86 處理器中引入採用輝達 GeForce GPU 的核顯。不過,自去年秋季以來,該面向主流市場的項目鮮有進一步披露。與此同時,英特爾則集中資源推進下一代“Panther Lake-H”移動處理器,而該系列將採用英特爾自研的 Arc Xe3圖形架構。此前報導,輝達和英特爾的合作主要在產品層面展開,在資料中心領域由英特爾向輝達供應內建 NVLink IP 的定製 CPU,而在消費級領域則是輝達向英特爾供應 GPU 芯粒。(AMP實驗室)
儲存還要繼續瘋!輝達ICMSP讓快閃記憶體漲停,黃仁勳要一統儲存處理器
輝達推出全新推理上下文(Inference Context)記憶體儲存平台(ICMSP),通過將推理上下文解除安裝(Offload)至NVMe SSD的流程標準化,解決KV快取容量日益緊張的問題。該平台於 2026 年國際消費電子展(CES 2026)正式發佈,致力於將GPU的KV快取(Key-Value Cache)擴展至基於 NVMe 的儲存裝置,並獲得輝達 NVMe 儲存合作夥伴的支援。此消息一出,引爆的是本就漲到高不可攀的儲存廠商股價,多家儲存廠商和快閃記憶體控製器廠商股價直接漲停,快閃記憶體極有可能步DRAM後塵成為AI基建帶動下第二波緊俏儲存器,儲存價格特別是快閃記憶體價格在2026年可能成為儲存產品整體價格繼續飆漲的第二輪推動力。從某個角度考慮,ICMSP的推出,讓GPU晶片可以降低對大容量HBM產品的嚴重依賴,同時也讓AMD同步發佈的Helios機架平台變得有些“過時”,因為輝達已經邁向了存算結合的新階段。不過相比這些,黃仁勳在解答分析師問題時更是直言“我們現在是全球最大的網路公司。我預計我們還將成為全球最大的儲存處理器公司”,通過不斷收購儲存技術,輝達致力於在AI算力體系架構中,擁有更多的話語權。從這點來看,ICMSP將成為輝達在AI走向千行百業的工程化過程中主導的技術之一。認識一下ICMSP在大型語言模型推理過程中,KV快取用於儲存上下文資料 —— 即模型處理輸入時,表徵令牌間關係的鍵(keys)和值(values)。隨著推理推進,新令牌參數不斷生成,上下文資料量持續增長,往往會超出 GPU 的可用記憶體。當早期快取條目被淘汰後又需重新呼叫時,必須重新計算,這會增加延遲。智能體 AI(Agentic AI)和長上下文工作負載進一步加劇了這一問題,因為它們需要保留更多上下文資料。而 ICMSP 通過將 NVMe 儲存上的 KV 快取納入上下文記憶體地址空間,並支援跨推理任務持久化儲存,有效緩解了這一困境。輝達創始人兼CEO黃仁勳表示:“人工智慧正在徹底變革整個計算架構 —— 如今,這場變革已延伸至儲存領域。人工智慧不再侷限於一次性互動的聊天機器人,而是能理解物理世界、進行長周期推理、立足事實、借助工具完成實際工作,並具備短期和長期記憶的智能協作夥伴。借助BlueField-4,輝達與軟硬體合作夥伴正為人工智慧的下一個前沿領域重塑儲存架構。” 他在CES演講中提到,通過BlueField-4,機櫃中可直接部署KV快取上下文記憶體儲存。隨著 AI 模型規模擴展至兆參數等級,且支援多步驟推理,其生成的上下文資料量極為龐大,同時運行的此類模型數量也在不斷增加。KV 快取軟體(即 ICMSP)需適配GPU、GPU 伺服器及 GPU 機櫃叢集,這些裝置可能同時處理多種不同的推理工作負載。每個模型 / 智能體工作負載的參數集都需妥善管理,並能精準對接運行在特定 GPU 上的目標AI模型或智能體 —— 且這種對應關係可能隨任務調度動態變化。這意味著需要專門的 KV 快取上下文中繼資料管理機制。基於NVMe的KV快取儲存需實現跨層級相容,涵蓋 GPU、GPU 伺服器、GPU 機櫃乃至多機櫃叢集。輝達表示,ICMSP 不僅提升了 KV 快取容量,還加速了機櫃級 AI 系統叢集間的上下文共享。多輪互動 AI 智能體的持久化上下文特性,提高了響應速度,提升了 AI 工廠的吞吐量,並支援長上下文、多智能體推理的高效擴展。圖1 基於 NVMe 的 KV 快取儲存需實現跨層級相容,覆蓋GPU、GPU 伺服器、GPU機櫃乃至GPU機櫃叢集ICMSP 依賴Rubin GPU叢集級快取容量,以及輝達即將推出的BlueField-4資料處理器(DPU)—— 該處理器整合Grace CPU,吞吐量高達 800 Gbps。BlueField-4 將提供硬體加速的快取部署管理功能,消除中繼資料開銷,減少資料遷移,並確保GPU節點的安全隔離訪問。輝達的軟體產品(包括DOCA框架、Dynamo KV快取解除安裝引擎及其內建的 NIXL(輝達推理傳輸庫)軟體實現了 AI 節點間 KV 快取的智能加速共享。儲存架構必須重構,在這個過程中,上下文成為新瓶頸,主要體現在模型規模持續擴大、上下文(Context)長度不斷增加、多輪對話導致上下文(Context)累積以及並行使用者與會話數量增多等方面。圖2 黃仁勳在 CES 2026 展示的上下文瓶頸幻燈片Dynamo支援跨記憶體和儲存層級的協同工作,覆蓋GPU的高頻寬記憶體(HBM)、GPU 伺服器 CPU 的動態隨機存取儲存器(DRAM)、直連 NVMe SSD 及網路附加儲存。此外,還需搭配輝達Spectrum-X乙太網路,為基於RDMA的AI原生KV快取訪問提供高性能網路架構。輝達稱,ICMSP的能效將比傳統儲存提升5倍,令牌每秒處理量最高可提升5倍。圖3 黃仁勳在 CES 2026 展示的推理上下文記憶體儲存平台幻燈片行業反饋鑑於輝達在AI算力架構方面擁有絕對的話語權,ICMSP的推出必定會得到一眾合作夥伴的鼎力支援,以免錯失商機。輝達列出了眾多將通過BlueField-4支援ICMSP的儲存合作夥伴,BlueField-4 將於 2026 年下半年正式上市。首批合作夥伴包括 AIC、Cloudian、DDN、戴爾科技、HPE、日立資料系統、IBM、Nutanix、Pure Storage、超微(Supermicro)、VAST Data 和 WEKA。預計 NetApp、聯想(Lenovo)和 Hammerspace 也將後續加入。將KV快取解除安裝或擴展至NVMe SSD的架構理念,其實已有廠商率先實踐 —— 例如 Hammerspace的零級儲存技術(Tier zero tech)、VAST Data的開放原始碼軟體VAST Undivided Attention(VUA),以及WEKA的增強記憶體網格(Augmented Memory Grid)。戴爾也通過在PowerScale、ObjectScale和閃電計畫(Project Lightning,私人預覽版)儲存產品中整合LMCache和NIXL等技術,實現了KV快取解除安裝功能。這些均為基於BlueField-3的解決方案。如今,輝達旨在為所有儲存合作夥伴提供標準化的KV快取記憶體擴展框架。戴爾、IBM、VAST Data和WEKA已明確表示將支援 ICMSP。WEKA在題為《上下文時代已然來臨》的部落格中,詳細闡述了支援該平台的實施方案及核心原因,指出ICMSP是 “一類新型 AI 原生基礎設施,將推理上下文視為一級平台資源。這一架構方向與WEKA的增強記憶體網格高度契合,後者通過擴展 GPU 記憶體,實現了大規模、無限量、高速、高效且可復用的上下文儲存。”WEKA產品行銷副總裁Jim Sherhart表示:“為上下文資料套用為長期儲存資料設計的重量級持久性、複製和中繼資料服務,會產生不必要的開銷 —— 導致延遲增加、功耗上升,同時降低推理經濟性。”“推理上下文固然需要適當的管控,但它的特性與企業級資料不同,不應強行套用企業級儲存語義。傳統協議和資料服務帶來的開銷(如中繼資料路徑、小 I/O 放大、默認的持久性 / 複製機制、在錯誤層級施加的多租戶控制),可能將‘高速上下文’降級為‘低速儲存’。當上下文對性能至關重要且需頻繁複用的情況下,這種開銷會直接體現為尾部延遲增加、吞吐量下降和效率降低。”VAST Data 表示,其儲存/AI作業系統將運行在BlueField-4處理器上,“打破傳統儲存層級界限,提供機櫃級共享KV快取,為長上下文、多輪對話和多智能體推理提供確定性訪問性能。”VAST 全球技術合作副總裁John Mao稱:“推理正逐漸成為一個記憶體系統,而非單純的計算任務。未來的贏家不會是擁有最多原始計算資源的叢集,而是那些能以線速遷移、共享和管控上下文的叢集。連續性已成為新的性能前沿。如果上下文無法按需獲取,GPU 將陷入閒置,整個系統的經濟性將徹底崩塌。通過在輝達 BlueField-4 上運行 VAST AI 作業系統,我們正將上下文轉化為共享基礎設施 —— 默認高速、按需提供策略驅動管控,並能隨著智能體 AI 的規模擴展保持性能穩定性。”關於ICSMP,黃仁勳在CES 2026後答分析師會議上做了更多詳細的說明,其中最驚人的是黃仁勳表態希望未來輝達成為最大的儲存處理器公司,從而掌握更巨量資料話語權。Aaron Rakers- 富國銀行證券有限責任公司研究部:目前供應鏈面臨著諸多動態變化,比如 DRAM 價格、供應可用性等問題。我想瞭解你們對供應鏈的看法。黃仁勳(Jen-Hsun Huang:我們的供應鏈涵蓋了上游和下游。我們的優勢在於,由於我們的規模已經非常龐大,而且在如此大的規模下仍然保持快速增長,我們很早就開始為合作夥伴準備應對這種大規模的產能擴張。過去兩年,大家一直在和我討論供應鏈問題 —— 這是因為我們的供應鏈規模巨大,而且增長速度驚人。每個季度,我們的增長規模都相當於一家完整的公司,這還只是增量部分。我們每季度都在新增一家大型上市公司的規模。因此,我們在 MGX(機架級產品)方面所做的所有供應鏈最佳化工作。我們之所以如此注重元件標準化、避免生態系統和供應鏈資源浪費、並為合作夥伴提供大量投資(包括預付款支援),就是為了幫助他們擴大產能。我們談論的不是數百億美元,而是數千億美元的投入,以幫助供應鏈做好準備。因此,我認為我們目前的供應鏈狀況非常良好,這得益於我們與合作夥伴長期穩定的合作關係。而且,大家應該知道,我們是全球唯一一家直接採購 DRAM 的晶片公司。仔細想想,我們是全球唯一一家直接採購DRAM的晶片公司。有人問我們為什麼要這麼做?因為事實證明,將DRAM整合為CoWoS(晶圓級系統整合)並打造超級電腦的難度極大。而建立這樣的供應鏈體系,給了我們巨大的競爭優勢。現在市場環境雖然嚴峻,但我們很幸運擁有這樣的技術能力。說到功耗,看看我們的上游合作夥伴 —— 系統製造商、記憶體供應商、多層陶瓷電容器(MLCC)供應商、印刷電路板(PCB)供應商等,我們與他們都保持著緊密的合作。James Schneider- 高盛集團研究部:我想瞭解一下你們今天宣佈的上下文(Context)記憶體儲存控制技術。它在各類應用場景中的重要性如何?您是否認為它會成為某些特定客戶問題的性能瓶頸?我們是否可以期待你們在這個方向上繼續創新,就像你們過去在網路領域所做的那樣?黃仁勳(Jen-Hsun Huang):我們現在是全球最大的網路公司。我預計我們還將成為全球最大的儲存處理器公司,而且很可能我們的高端 CPU 出貨量也將超過其他任何公司。原因在於,Vera 和 Grace(以及 Vera 相關產品)已經應用於每個節點的智能網路介面卡(SmartNIC)中。我們現在是 AI 工廠的智能網路介面卡提供商。當然,很多雲服務提供商都有自己的智能網路介面卡(如亞馬遜的 Nitro),他們會繼續使用。但在外部市場,BlueField 系列產品取得了巨大的成功,而且 BlueField-4 將會表現更加出色。BlueField-4 的採用率(不僅僅是早期採用)正在快速增長。其上層的軟體層名為 DOCA(發音與 CUDA 相近),現在已經被廣泛採用。因此,在高性能網路的東西向流量(east-west traffic)方面,我們是市場領導者。在網路隔離的南北向流量(north-south networking)方面,我非常有信心我們也將成為市場領導者之一。而儲存領域目前是一個完全未被充分服務的市場。傳統的儲存基於 SQL 結構化資料,結構化資料庫相對輕量化。而 AI 資料庫的鍵值快取(KV caches)則極其龐大,你不可能將其掛在南北向網路上 —— 這會造成網路流量的巨大浪費。你需要將其直接整合到計算架構中,這就是我們推出這一新層級儲存技術的原因。這是一個全新的市場,很可能會成為全球最大的儲存市場 —— 它將承載全球 AI 的工作記憶體。這種儲存的規模將是巨大的,而且需要極高的性能。我非常高興的是,目前人們進行的推理工作負載已經超出了全球現有基礎設施的計算能力。因此,我們現在處理的上下文(Context)記憶體、令牌記憶體和鍵值快取的規模已經非常龐大,傳統的儲存系統已經無法滿足需求。當市場出現這種拐點,而你又有遠見能夠預見它的到來時,這就是進入一個新市場的最佳時機。而 BlueField-4 在這一領域具有絕對的競爭優勢,沒有任何產品能與之匹敵。Ken Chui- Robocap:我的問題同時涉及利潤率和技術。你們目前已經擁有 CPX 技術,通過收購 Grok,你們還獲得了可用於推理的 SRAM 技術。此外,你們的團隊一個月前發表了一篇論文,討論如何在 GPU 中使用 CPX 技術,從而減少對 HBM 的依賴 —— 因為可以用 GDDR7 替代 HBM。我們都知道 HBM 的成本非常高。因此,未來通過結合 Grok 的技術和你們內部的 CPX 技術,你們對 HBM 的使用會有何變化?這是否能更好地控制 HBM 的使用成本,從而對利潤率產生積極影響?黃仁勳(Jen-Hsun Huang):當然。我可以先描述一下這些技術各自的優勢,然後再談談面臨的挑戰。例如,CPX 在每美元預填充性能(prefill per dollar)方面比普通的 Rubin 更有優勢 ——Rubin CPX 的每美元預填充性能高於普通版 Rubin。如果將所有資料都儲存在 SRAM 中,那麼當然不需要 HBM 記憶體。但問題是,SRAM 能夠支援的模型規模比 HBM 小 100 倍左右。不過,對於某些工作負載來說,SRAM 的速度要比 HBM 快得多,因此性能會極其出色。因此,我認為它在預填充(prefill)和解碼(decode)等場景中會有明顯優勢。但問題在於,工作負載的形態一直在變化 —— 有時是混合專家模型(MOE),有時是多模態模型,有時是擴散模型(diffusion models),有時是自回歸模型(auto regressive models),有時是狀態空間模型(SSMs)。這些模型的形態和規模各不相同,對 NVLink、HBM 記憶體或其他元件的壓力也會不斷變化。因此,我的觀點是,由於工作負載變化如此之快,而且全球的創新速度也在加快,輝達之所以能夠成為通用解決方案,正是因為我們的靈活性。大家明白我的意思嗎?如果你的工作負載從早到晚都在變化,而且客戶需求各不相同,那麼我們的產品具有很強的通用性,幾乎適用於所有場景。你可能能夠針對某一種特定工作負載進行極致最佳化,但如果這種工作負載只佔總負載的 10%、5% 甚至 12%,那麼當它不被使用時,這部分資料中心資源就被浪費了 —— 而你只有 1 吉瓦的電力資源。關鍵在於,你不能把資料中心看作是擁有無限資金和空間的資源,而是要在有限的電力下實現整體利用率的最大化。架構越靈活,整體效益就越好。如果採用統一的架構 —— 例如,當我們更新 DeepSeek 模型時,資料中心內所有 GPU 的性能都會立即提升;當我們更新通義千問(Qwen)模型的庫時,整個資料中心的性能都會提升 —— 這樣的協同效應是非常顯著的。但如果你有 17 種不同的架構,每種架構只適用於特定場景,那麼整體的總擁有成本(TCO)反而會更高。這就是面臨的挑戰。即使在我們研發這些技術時,也非常清楚這一點 —— 這非常困難。 (EEPW)
祝賀中國科大,取得重要突破!
近日記者從中國科學技術大學獲悉,該校潘建偉、朱曉波、彭承志、龔明等學者牽頭合作,基於可程式設計超導量子處理器“祖沖之2號”,首次在量子體系中實現並探測了高階非平衡拓撲相(HOTPs),取得了量子模擬在探索複雜拓撲物態方向上的重要突破。相關論文於11月28日發表於國際學術期刊《科學》上。拓撲相是近年來凝聚態物理與量子模擬領域的重要研究方向。與傳統拓撲相不同,高階拓撲相在更低維度的邊界上出現了區域態,挑戰了傳統對應關係。在量子體系中實現高階拓撲相一直是國際前沿的科學挑戰。當下,拓撲物態研究從平衡體系向非平衡體系拓展,已成為凝聚態物理的重要前沿方向。非平衡拓撲相表現出平衡體系所不具備的特性,揭示出拓撲與動力學之間複雜而深刻的內在聯絡,為在時間維度對量子態進行高精度、高穩定的超快操縱提供可能。然而,非平衡高階拓撲相的實驗實現長期面臨巨大挑戰。中國科大研究團隊基於“祖沖之2號”超導量子處理器的可程式設計能力,首次在實驗中實現了平衡與非平衡二階拓撲相的量子模擬與探測。該成果標誌著二維可程式設計量子模擬能力的顯著提升,為利用超導量子處理器在量子模擬問題上實現量子優勢奠定基礎。《科學》審稿人高度評價這一工作,認為該研究“在以往一維實驗的基礎上取得了重要突破,擴展到二維體系是一次顯著的提升,展示了豐富的實驗能力;所發展的測量與分析非平衡拓撲物態的理論方法具有新穎性和趣味性。” (芯榜)
突破難題,中國成功研製!
首次!突破世紀難題!中國成功研製出新型晶片近日,北京大學人工智慧研究院孫仲研究員團隊聯合積體電路學院研究團隊,成功研製出基於阻變儲存器的高精度、可擴展模擬矩陣計算晶片,首次實現了在精度上可與數字計算媲美的模擬計算系統。該晶片在求解大規模MIMO訊號檢測等關鍵科學問題時,計算吞吐量與能效較當前頂級數字處理器(GPU)提升百倍至千倍。相關論文於10月13日刊發於《自然·電子學》期刊。如何讓模擬計算兼具高精度與可擴展性,從而在現代計算任務中發揮其先天優勢,一直是困擾全球科學界的世紀難題。孫仲團隊選擇了一條融合創新的道路,通過新型資訊器件、原創電路和經典演算法的協同設計,建構了一個基於阻變儲存器陣列的高精度、可拓展的全模擬矩陣方程求解器,首次將模擬計算的精度提升至24位定點精度。在計算精度方面,團隊在實驗上成功實現16×16矩陣的24位元定點數精度求逆,矩陣方程求解經過10次迭代後,相對誤差可低至10⁻⁷量級。在計算性能方面,在求解32×32矩陣求逆問題時,其算力已超越高端GPU的單核性能;當問題規模擴大至128×128時,計算吞吐量更達到頂級數字處理器的1000倍以上,傳統GPU幹一天的活,這款晶片一分鐘就能搞定。同時,該方案在相同精度下能效比傳統數字處理器提升超100倍,為高能效計算中心提供了關鍵技術支撐。 (參考消息)
CPU被超!GPU成市場新主角
2024年GPU銷售額超越APU和CPU,成為各類處理器中銷售額冠軍。Yole Group 近日發佈《2025 年處理器產業狀況》報告,指出全球處理器市場正經歷由生成式 AI 與雲端基礎設施推動的深刻變革。Yole Group 提到,2024 年 GPU 銷售額超越 APU 和 CPU,成為各類處理器中銷售額冠軍。其銷售額達 1130 億美元,佔總處理器銷售額的 39%,一年內實現 126% 的增長。這一增長主要受 NVIDIA 主導地位及生成式 AI 模型對 GPU 需求增加的推動。Yole Group 認為,到 2030 年,GPU 市場規模將達 2390 億美元,是 2024 年的 2 倍以上,增長背後是伺服器 GPU 平均售價的上升。同時,美國出口限制已重塑競爭格局,尤其在中國市場。儘管當前 GPU 佔據市場主導地位,但專為人工智慧應用設計的積體電路(AI ASIC)正成為戰略替代方案。ASIC(Application Specific Integrated Circuit特定用途積體電路)根據產品的需求進行特定設計和製造的積體電路,其定製程度相比於 GPU 和 FPGA 更高。ASIC 算力水平一般高於GPU、FPGA,但初始投入大,專業性強縮減了其通用性,演算法一旦改變,計算能力會大幅下降,需要重新定製。Google、亞馬遜(Amazon)、華為等超大規模雲端服務商,正大量投資專有解決方案,以減少對 NVIDIA GPU 的依賴。Google 早在 2013 年就秘密研發專注 AI機器學習演算法晶片,並用於雲端運算資料中心,取代輝達 GPU。這款TPU自研晶片2016年公開,為深度學習模型執行大規模矩陣運算,如自然語言處理、電腦視覺和推薦系統模型。Google 其實在 2020 年的資料中心便建構 AI 晶片 TPU v4,直到 2023 年 4 月才首次公開細節。值得注意的是TPU是一種定製化的 ASIC 晶片,它由Google從頭設計,並專門用於機器學習工作負載。亞馬遜也推出了其自研 AI 晶片Trainium,以減少對輝達的依賴並提高自身在 AI 領域的競爭力。該公司投資大量資金用於技術基礎設施建設,並已定製晶片以提升資料中心效率,降低成本。亞馬遜與被收購的晶片初創公司 Annapurna Labs 合作,旨在打造自有的 AI 晶片,同時也在投資 AI 基礎設施。據預測,2024 年至 2030 年,AI ASIC 市場年複合增長率(CAGR)將達 45%,規模將從 2024 年的 90 億美元增長至 2030 年的 850 億美元,成為行業增長最快的部分。其他類型處理器銷售情況好壞不一:DPU 增長與人工智慧及伺服器需求相關,預計 2030 年將增長至 170 億美元;FPGA 2024 年銷售額出現下滑,但預計將逐步穩定,2030 年前規模達 80 億美元,增長主要受汽車應用支撐。市場層面,2024 年電信與基礎設施領域收入佔比首次超越移動與消費領域,達 53%。預計到 2030 年,這一比例將升至 66%,凸顯雲端人工智慧部署的核心作用。汽車行業,尤其是與 ADAS 及娛樂系統相關的應用,同樣是增長引擎,預計 2030 年前年增長率將達 15%。近日來自大摩的一份報告也給GPU市場熱度再添一把火。摩根士丹利(大摩)最新報告顯示,在與輝達管理層會談後,對其在人工智慧(AI)領域的短期及長期需求信心增強,維持“增持”評級,目標價設定為 210美元,對應總市值約 5.1兆美元。這一積極的評估,反映了市場對 GPU驅動的 AI 基礎設施建設的樂觀預期,以及輝達在這一領域的領先地位。報告指出,全球雲資本支出持續擴張,計算核心正從CPU 向 GPU 加速遷移。這一趨勢是輝達收入增長的主要動力。隨著 AI技術在各行各業的深入應用,對算力的需求呈現爆發式增長。輝達憑藉其在 GPU 領域的深厚積累,以及 CUDA 等生態系統的優勢,成為了 AI 基礎設施建設的核心供應商。大摩預計,到 2030年,AI 基礎設施市場規模有望達到 3至5兆美元,遠高於此前的預測,這無疑為輝達帶來了巨大的增長潛力。針對輝達與OpenAI 合作引發的供應商融資議題,摩根士丹利的分析師團隊認為,這種模式是“需求加速器”。輝達正通過投資 CoreWeave及英國主權基金等方式擴巨量資料中心產能,以滿足市場日益增長的需求。這種戰略不僅能夠加速 AI 基礎設施的建設,也為輝達帶來了更多的市場機遇。未來,這種合作模式有望複製到更多企業,進一步鞏固輝達的市場地位。 (半導體產業縱橫)
中興跨界RISC-V
近年來 RISC-V 晶片在全球尤其是中國市場發展迅猛,國內廠商活躍於各領域。中興通訊作為少被提及的巨頭,早在 2018 年就加入 RISC-V 國際基金會,深度參與標準制定。此前其較少披露 RISC-V 晶片細節,上月初透露在相關領域持續創新推動生態發展,旗下中興微電子將亮相 RISC-V 中國峰會。中興微電子發展近 30 年,晶片研發能力強、產品覆蓋廣,其 RISC-V 晶片備受期待。一、早早入局,參與標準制定早在 2018 年,中興通訊便前瞻性地加入了 RISC-V 國際基金會,並且是最早一批的高級成員。這一身份使其獲得了深度參與 RISC-V 技術標準制定的寶貴權利,能夠與輝達、三星、英特爾等科技巨頭站在同一平台,共同為 RISC-V 技術的發展方向出謀劃策。在指令集完善、架構最佳化等關鍵環節,中興通訊憑藉深厚的技術積累,將自身的研發成果與見解融入其中,為後續 RISC-V 技術在通訊、算力等核心領域的應用築牢根基,確保技術發展緊密貼合行業實際需求。二、投身研發,推動技術創新(一)參與香山開源處理器項目中興通訊積極投身於第三代香山 RISC-V 處理器(昆明湖架構)的研發工作,與中科院計算所、阿里、騰訊等產學研多方展開深度合作。通過整合各方優勢資源,香山處理器在性能與能效比方面實現了重大突破,能夠有力支援 AI 計算、邊緣推理等前沿場景。這不僅為 RISC-V 在新興領域的廣泛應用提供了堅實的技術支撐,也讓中興通訊積累了大量寶貴的處理器研發經驗,進一步強化了其在 RISC-V 技術堆疊的技術儲備。(二)存算一體技術研發在算力智能躍遷和算網融合的大趨勢下,中興通訊充分利用 RISC-V 的簡潔開放特性,積極開發存算一體多領域解決方案。其中涵蓋了板卡級 KVS 快取方案、晶片級近存方案、電路級存內處理以及材料級記憶體計算等先進技術。這些技術有效降低了資料傳輸能耗,大幅提升了資料處理效率,為未來高性能計算開闢了新的技術路徑,助力中興通訊在 RISC-V 與算力融合的前沿領域佔據重要的技術高地。三、產品落地,拓展應用場景中興通訊在通訊核心裝置中引入 RISC-V 架構,其 DPU 網路晶片通過該架構提升網路與儲存加速能力,適配 5G/6G 高資料處理需求。在 5G-A 及 6G 基礎設施中,RISC-V 核心降低裝置功耗、增強穩定性。同時,基於 RISC-V 開發的高性能計算晶片及存算一體技術應用於資料中心與智算場景,為雲服務、AI 訓練提供低功耗算力支援,提升伺服器晶片市場競爭力。四、生態建設,促進產業繁榮(一)開源生態合作中興通訊積極參與 RISC-V 開放原始碼專案。通過開源合作,整合行業資源,有效降低了研發成本,加速了 RISC-V 技術創新與應用推廣,為建構健康、繁榮的開源生態貢獻了重要力量。(二)行業生態拓展通過與輝達、Google等國際企業合作,中興通訊大力推動 RISC-V 在高性能計算和 AI 領域的應用。同時,與百度合作開發的資料中心 RISC-V 晶片,目標是實現與 x86/ARM 的 “無感切換”,進一步拓寬了 RISC-V 晶片的應用範圍,提升了 RISC-V 在行業內的影響力和認可度,吸引了更多企業參與到 RISC-V 生態建設中來。五、未來可期,迎接挑戰機遇目前,儘管中興通訊在 RISC-V 晶片領域已經取得了諸多令人矚目的成果,但高性能伺服器晶片的大規模商用仍面臨著生態適配(如商業軟體遷移)和成本控制等挑戰。隨著 RISC-V 在 AI、邊緣計算等領域的需求持續增長,憑藉深厚的技術積累、豐富的產品佈局以及積極的生態建設,中興通訊有望通過持續的技術迭代與生態整合進一步擴大市場份額。在全球半導體產業競爭日益激烈的背景下,中興通訊在 RISC-V 晶片領域的佈局將為其在通訊、計算等核心領域的長期發展注入強大動力,助力其在新興市場中搶佔先機,實現更大的突破與發展。 (芯榜)