#GPU很
巨頭繼續投入6600億美刀!黃仁勳回應:沒有“暗GPU”,6年前賣的A100價格還在漲!給OpenAI兩倍算力,收入能翻4倍!贊Meta:最會用AI
上週週末,輝達創始人黃仁勳非常開心。因為上週末,輝達的股票漲幅創了近一年以來的新高,7.9%,是去年4月以來單日最高漲幅。總市值恢復到 4.5 萬億美元。這一大波漲幅,也得益於,輝達的核心客戶近兩週以來財報會上的表態:會繼續加大AI基建的投入。包括 Meta、亞馬遜、Google和微軟等公司都紛紛向投資者表示,計畫在2026 年大幅提高用於資料中心和專用晶片的投入,合計金額達 6600 億美元,可謂規模空前。因為,這一數字在 2025 年是 4100 億美元,而 2024 年的數字則是 2450 億美元。而這裡的 6600 億美元,毫無疑問,相當一部分將用於採購輝達的晶片。金融時報第一時間報導了這一消息,並提到再一次引起了業界對於AI泡沫的擔憂。很快,黃仁勳上週五接受了 CNBC《Halftime Report》節目的邀請,針對2026年AI基建方面做了進一步的思考和分享。黃仁勳表示,科技行業這筆6600億美元的資本支出是合理的、恰當的,也是可持續的。“原因在於,這些公司的現金流即將開始上升。而且,不少人對於現金流的理解是片面錯誤的!”黃仁勳進一步解釋道,這場被他稱為“人類歷史上最大的一次基礎設施建設”,是由“高得離譜的”算力需求所推動的,而 AI 公司和超大規模雲廠商可以通過這些算力創造更多收入。黃表示,他們早在去年就看到AI已經成功跨過了“token賺錢”的拐點。黃仁勳給出了三個清晰的例子。首先,老黃大讚了Meta,說:沒有其他公司比Meta更擅長用AI。(ps:讓小編有點意外。)“Meta 正在利用 AI,把原本運行在 CPU 上的推薦系統,轉變為基於生成式 AI 和 agent 的系統。”在亞馬遜身上,變化同樣發生在核心業務層。“亞馬遜雲服務對輝達晶片和 AI 的使用,將影響這家零售巨頭的商品推薦方式。”而微軟,則把 AI 引入到最賺錢、也最穩固的業務中。“微軟將利用基於輝達晶片的 AI,來改進其企業級軟體。”當然,毫不意外,黃仁勳對於風頭正盛的兩大AI超級獨角獸也大為讚賞,稱:“Anthropic 在賺錢,OpenAI 也在賺錢。如果他們擁有兩倍的算力,收入可能會增長到四倍。”誇完了這些核心客戶之後,黃仁勳開始正式來分享自己的洞察了。首先,黃仁勳無意間透露了GPU的使用週期的問題。他表示輝達過去出售的所有 GPU——甚至包括六年前推出的 A100 晶片——目前都在被出租。“甚至,A100的價格還在漲,堪比陳年美酒。”進而,他指出這一次的 AI 跟網際網路泡沫存在根本區別。網際網路時代的基建存在大量的“暗光纖”,但這次AI時代沒有被“暗GPU”。其次,他表示計算範式已經發生了根本的變化。過去的軟體是預編譯的。Excel、PowerPoint,都是提前編好,再交付給使用者。而現在的軟體是每一次運行都具備上下文感知能力。它會考慮你是誰、你問了什麼、世界正在發生什麼,以及你給了它哪些資訊。每一次上下文都不同,每一次響應也都不同。此外,矽谷知名投資人 Brad Gerstner 表示,現在的情形更像是 2008 年 AWS 押注雲一樣,雖然當時不被業界理解,但事實證明貝索斯押對了。持續投入建設基建,這樣的週期還要多久?黃仁勳表示:你需要先建設,然後在五到七年後開始替換。“我們可能需要七到八年,才能建設到一個需要長期維持的水平。之後就是持續更新和小幅增長。”原文整理如下。黃仁勳:去年,我們就發現AI跨過了拐點給OpenAI算力翻一倍,收入或能翻四倍主持人:這個時間點請你來,其實挺有意思的——當然任何時候都很有意思,但尤其是考慮到今天市場的變化,看起來和前幾天已經很不一樣了。市場顯然在擔心超大規模雲廠商的支出情況,以及這輪大規模的 AI 基礎設施建設。你怎麼看市場現在的反應?黃仁勳:需求高得離譜,而且這是有根本原因的。我們正處在一次“代際等級”的基礎設施建設週期,這是人類歷史上規模最大的一次基礎設施建設。原因很簡單:人工智慧將從根本上改變我們計算一切事物的方式。從資料庫處理、搜尋方式、推薦系統,到你購物、你看電影,再到現在正在被開發、持續進化的全新系統。就在去年,我們看到了 AI 的一個拐點。AI 變得真正有用了,不再只是幻覺生成,而是在生成有根據的內容。它能推理、能思考、能做研究、能使用工具。過去幾年裡,AI 從“有點新奇”變成了“極其有用”。而這個拐點還伴隨著一件事:token 開始賺錢了。Anthropic 在賺錢,OpenAI 也在賺錢。如果他們的算力翻一倍,收入可能會翻四倍。這些公司嚴重受限於算力,而需求卻極其龐大。企業使用者數量、消費者使用者數量、以及圍繞這些平台誕生的創業公司數量,全都在爆炸式增長。今年雲廠商預估投入超6600億美元,黃仁勳:合理;Meta最擅長用AI主持人:當你看到一些坦率說非常驚人的數字,比如今年超大規模雲廠商要投入 6600 億美元——就像我們昨晚從亞馬遜聽到的那樣——你會覺得:這完全合理嗎?黃仁勳:這是合理的,而且是可持續的。原因在於:這些公司的現金流即將開始顯著上升。很多人拿支出來對比現金流,其中有一個數字是錯的——錯的是對現金流的理解。我們第一次在直面人類歷史上最大的一個軟體機會。軟體不再只是工具。Excel 是工具,但現在的軟體,是會使用工具的軟體。AI 會用 Excel。這是一個全新時代的軟體機會,規模巨大。我們已經看到它在推動 Meta 的盈利增長。沒有哪家公司比 Meta 更擅長用 AI。他們已經把傳統跑在 CPU 上的推薦系統,升級成生成式、具備 agent 能力的系統。從社交內容、廣告推薦,到幫助廣告主生成內容,整個體系都被徹底改變了,而財報已經證明了這一點。這也是他們為何如此大規模投入。而且不只是一家公司:AWS 的電商推薦會被改變,微軟的企業軟體會被改變,幾乎每一家大公司都看到了同一個拐點,這就是為什麼大家都在全力投入。就像AWS 08年押注雲一樣:需要先花很多錢,把礦挖出來主持人:你剛才說的這一點,其實很關鍵。如果只盯著支出,看他們消耗了多少自由現金流,其實會錯過整個故事。市場和投資者都需要轉變思維方式。Brad Gerstner:是的。如果把時間撥回到 2008、2009 年,亞馬遜本可以把利潤以分紅的方式還給投資者。但貝索斯選擇投資 AWS。這就像挖一座金礦。你得先花很多錢把礦挖出來,才能拿到黃金。而現在,這些公司正在挖軟體歷史上最大的一座金礦。前期一定要投入成本。真正的問題在於:你是否相信 Andy Jassy、Mark Zuckerberg、Sundar,還有我,判斷這個機會真的這麼大?還是你自認為看得更清楚,覺得這座金礦下面其實沒有金子?作為投資人,我很明確:我希望我的個人資產、我的基金資產,都深度繫結在 AI 上。因為未來所有人類進步,都將來自機器幫助人類思考、增強人類思考能力。不管是 NVIDIA、Anthropic,還是 OpenAI,這些公司都會成為巨大的受益者,而且是在規模化地發生。規模帶來的優勢正在不斷放大。這件事現在確實不容易被人理解,就像 2008、2009 年一樣。黃仁勳:但事後看,幸好貝索斯當年那麼做了。今天 AWS 是一個 1400 億美元的業務,每年產生 300 億美元利潤,而當年他為此承受了大量質疑。OpenAI 和 Anthropic 現在都是年化 200 億美元規模、具備盈利能力、同時還在加速增長的公司,這確實非常驚人。備註:相關預測顯示,Anthropic 在 2026 年可能達到 200億–260億美元的收入規模。但官方透露的2025的資料是在90億美元左右。黃仁勳:AI基建,前面還需要幾年建設期主持人:那我們怎麼能如此確定,我們認為需要的算力,真的會兌現?會不會不可避免地在某個時候過度建設,只是到那時才發現?黃仁勳:這不像修路。道路鋪好之後,可以長期使用。電腦基礎設施不是這樣運作的。你會先建設,然後在五到七年後開始替換。我們可能需要七到八年,才能建設到一個需要長期維持的水平。之後就是持續更新和小幅增長。我們前面還有好幾年的建設週期。計算範式已經發生根本變化:每一次運行都具備上下文感知能力黃仁勳:關鍵在於回到第一性原理:計算方式已經發生了根本變化。過去的軟體是預編譯的。Excel、PowerPoint,都是提前編好,再交付給使用者。而現在的軟體是每一次運行都具備上下文感知能力。它會考慮你是誰、你問了什麼、世界正在發生什麼,以及你給了它哪些資訊。每一次上下文都不同,每一次響應也都不同。從現在開始,每一個像素、每一段聲音、每一個視訊,都是即時生成的。這就是為什麼我們需要如此大規模的計算能力的原因。這些 token,本質上就是我們所說的“智能”。而這是人類第一次,把如此高價值的“智能”轉化成數字進行生產。AI跟網際網路泡沫存根本差異:現在沒有“暗GPU”,6年前的GPU價格還在漲主持人:去年,我們再次越過了一個拐點:token 變得可以盈利了。所以我們需要做的,只是——生產更多智能。從某種程度上說,你能理解投資者的擔憂嗎?畢竟上一次科技革命疊加演進時,留下了很深的心理陰影。黃仁勳:回顧歷史永遠是有價值的,但歷史不會簡單重複。你必須回到第一性原理,看清當下到底發生了什麼。這一次和網際網路時代有一個根本差異:當年有大量“暗光纖”,現在沒有“暗 GPU”。100% 的 GPU 都被租用了。甚至我們六年前賣出的 GPU,價格還在上漲。這不是古董,簡直像陳年好酒。需求之所以如此之高,原因很清楚:第一,我們已經越過了拐點,AI 真正有用了;第二,AI 的能力極強,採用速度極快;第三,因為 AI 在“思考”,它對算力的需求本身就極其巨大。 (51CTO技術堆疊)
中國國產GPU突圍:從“輸血”到“造血”,殊途能否同歸?
“沐曦模式”更考驗核心晶片的硬實力與標準化能力,“摩爾線程模式”則對系統整合、軟體棧和生態營運提出了更高要求。近日,國產 GPU“雙雄”摩爾線程和沐曦股份先後發佈上市後首份年度業績預告,2025 年二者營收增長明顯,淨利潤虧損情況仍在持續,但都已開始縮小。不過,兩者營收結構顯著不同,引發市場與產業界的廣泛討論。具體來看,摩爾線程預計2025年度實現營收在14.5億元至15.2億元之間,同比增長約兩倍多;同時,歸母淨利潤預計將出現虧損,虧損額為9.5億元到10.6億元,但虧損相比前一年有所減少。沐曦股份則預計其實現營收約為16億至17億元,同樣保持了較高的增長率,並且該公司預計虧損也將有所減輕,預計虧損區間為6.5億至7.98億元。兩家公司共性優勢體現在三個方面:一是技術突破顯著,摩爾線程已推出四代GPU架構並實現訓推一體晶片MTTS5000量產,沐曦則建構起相容主流生態的軟體體系;二是商業化處理程序加速,雙雙跨越初創期“死亡之谷”,規模效應開始顯現,開始從“輸血”轉向“自我造血”;三是抓住國際限售窗口期,在國產替代浪潮中搶佔市場份額。差異在於戰略路徑選擇:沐曦似乎更側重於沿襲傳統晶片設計公司的模式,聚焦於GPU晶片本身的設計、流片與銷售,力求在產品性能參數上實現對標與追趕,其業績增長與晶片產品的市場接受度關聯更為直接;而摩爾線程則展現出更強的系統思維和生態建構意識,其業務模式更接近“晶片+解決方案”的整合提供商,試圖通過提供端到端的算力服務來確立市場地位,其收入結構也反映了這一戰略選擇。沐曦的業績增長,主要得益於其自主研發的高性能GPU產品在人工智慧、資料中心等領域的商業化落地取得進展。其產品線覆蓋通用計算與圖形渲染,在部分客戶場景中開始了批次應用,顯示出從技術研發向市場銷售轉化的初步成效。而摩爾線程的業績預告則揭示了一個更為獨特的結構:其2025年1至6月份的收入中,接近百分之八十來源於“叢集建設”相關業務。這種收入構成的不合理性在於,AI智算叢集建設雖然帶來了可觀的收入,但這部分收入是否能夠長期支撐公司的主營業務發展,仍然存在疑問。叢集建設通常指向基於其GPU硬體,為客戶建構算力叢集或提供整體解決方案所獲得的收入。這與其對外宣傳的GPU晶片設計、銷售的主營業務存在一定差異,引發了外界對其收入構成合理性的探討。這也可能意味著摩爾線程正在嘗試從傳統的圖形加速產品向更廣泛的AI應用場景拓展,但這需要更多的市場驗證和時間來證明其可持續性。對於摩爾線程收入構成中叢集建設佔比過高的問題,市場看法呈現分化。有觀點認為,這存在不合理性,可能意味著其自主GPU晶片作為獨立產品的市場競爭力與直接銷售能力尚未完全打開,需要依靠利潤率可能較低、且更偏向系統整合與服務的叢集項目來支撐整體營收規模。這折射出國產GPU在直面國際巨頭競爭時,在生態適配、軟體成熟度、客戶接受度等方面仍面臨挑戰,因此採取了“以解決方案帶動硬體銷售”的迂迴策略。還有觀點則指出,在當前人工智慧算力需求爆發的背景下,為客戶提供從硬體到軟體的整體算力解決方案,是切入市場、建立標竿案例的有效途徑。通過叢集建設項目,公司可以更深入地理解客戶需求,持續最佳化產品,並繫結初期客戶,為未來晶片產品的獨立大規模銷售鋪路。因此,這種收入構成在特定發展階段具有一定的戰略合理性,關鍵在於其核心GPU產品的技術迭代與市場認可度能否隨之快速提升。分析認為,兩種路徑各有優劣,“沐曦模式”更考驗核心晶片的硬實力與標準化能力,“摩爾線程模式”則對系統整合、軟體棧和生態營運提出了更高要求。由此可見,國產GPU企業盈利模式尚未成熟,儘管虧損縮小但仍未實現正向現金流;生態建設需深化,相容CUDA僅為基礎,建立自主程式設計介面標準才是破局關鍵;技術迭代壓力增大,需縮短與國際巨頭的代差。摩爾線程與沐曦股份的業績預告,也折射出國產GPU從“技術驗證”向“商業擴張”轉型的關鍵階段。兩者雖路徑不同,但均遵循“硬體定義場景—生態鎖定客戶—規模分攤成本”的邏輯:摩爾線程以全功能GPU建構通用計算平台,沐曦股份以垂直場景深化差異化競爭。未來,隨著C600/C700等高算力晶片量產,以及MUSA、MXMACA等生態的完善,國產GPU有望在AI訓練、科學計算等領域突破國際巨頭壟斷,在激烈的全球GPU市場競爭中佔據更有利的位置。 (經濟觀察網)
從GPU到CPU全面告急:美系晶片封鎖在即?
當業界目光聚焦於輝達H200命運之際,伺服器CPU市場突傳警報。Techi.com今日援引多名管道商與OEM廠商稱,英特爾Xeon Scalable與AMD EPYC系列處理器對華供應"顯著收緊",部分型號交貨周期從4周延長至16周,價格漲幅達20%-35%。這是繼GPU之後,美國對華半導體封鎖向資料中心核心算力蔓延的最新訊號。管道證實,英特爾自2025年12月起對中國區伺服器CPU實行"配額制",季度出貨量較2024年同期下降約30%;AMD雖未明文限制,但米蘭、熱那亞等高端EPYC型號優先供應北美雲廠商,中國區實際可分配量縮減25%。某頭部伺服器ODM採購總監告訴記者:"原來季度能拿5萬顆Xeon,現在只給3萬顆,剩下2萬顆要麼等下個季度,要麼加錢去現貨市場搶。"漲價與缺貨雙重壓力下,中國網際網路大廠與營運商被迫調整採購策略。阿里雲已把2026年Q1伺服器招標中x86架構佔比從70%下調至45%,空出份額轉向華為鯤鵬920與飛騰S5000C;中國移動則要求集采伺服器"國產CPU佔比不低於50%",海光資訊C86-3G與兆芯KH-40000系列中標份額同比提升三倍。中國國產CPU廠商迎來訂單井噴。華為鯤鵬產品線內部人士透露,2026年1月伺服器CPU出貨量突破8萬顆,為2024年同期四倍,深圳、東莞封裝基地已實行"三班倒"擴產;海光資訊則宣佈DCU與CPU產線滿產,2026年資本開支上調40%用於7nm以下先進封裝。管道反饋,鯤鵬920現貨價從年初1800元漲至2400元,仍供不應求。美國商務部尚未就伺服器CPU供應收緊發表官方評論,但業內普遍認為這與2025年10月更新的"先進計算與半導體製造裝置"規則有關——雖未直接點名CPU,但BIS已將"高性能資料中心處理器"納入出口審查範圍,Intel、AMD為規避合規風險主動縮減對華出貨。對於中國國產CPU生態而言,窗口期與挑戰並存。華為鯤鵬、飛騰基於ARM架構,軟體適配仍需時間;海光、兆芯雖相容x86,但7nm以下先進製程仍依賴境外代工。某雲廠商技術總監表示:"現在不是選不選國產,而是沒得選。ARM生態遷移成本比x86高30%,但總比斷供強。"分析人士指出,若Intel、AMD供應持續收緊,2026年中國伺服器CPU市場國產佔比有望從2024年的18%躍升至35%,ARM與x86雙路線平行格局正式確立。對於仍在攻堅7nm以下的國產晶圓廠而言,伺服器CPU的"被動替代"意味著每年新增約50萬片12英吋晶圓需求,國產裝置與材料產業鏈將同步受益。從GPU到CPU,美國對華資料中心算力的封鎖正在層層加碼。當"洋芯"供應不再確定,國產替代從"可選項"變成"必選項",中國半導體產業的自主化處理程序,正被外部壓力倒逼進入加速期。 (晶片行業)
恐怕是來不及了 https://youtu.be/24k7COezIJU?si=zCogQs-GBGV5zj8c
英特爾官宣進軍GPU
英特爾表示,英特爾正進軍圖形處理器(GPU)英特爾首席執行長陳立武於周二宣佈,公司已任命新任首席架構師,專門主導圖形處理器(GPU)的研發工作。目前,輝達、超威半導體(AMD)等企業生產的GPU是大型語言模型的算力核心,市場需求旺盛。隨著全球各大企業爭相佈局人工智慧基礎設施與資料中心,GPU的市場需求更是一路飆升。陳立武在思科人工智慧峰會上透露,公司費了一番遊說才說服這位新任高管加盟,但未公佈其具體姓名。為進軍GPU領域,陳立武上任後推出“三步棋”策略,首先是自身臨危受命出任CEO,推進大刀闊斧的改革。第二步是招兵買馬,先後引入Kevork Kechichian和Eric Demers兩位技術大牛,助力GPU項目落地。其中,Kevork Kechichian全權負責GPU項目,Eric Demers則熟悉GPU架構設計,二人加盟標誌著GPU項目進入實戰階段。(註:Kevork Kechichian:歷任 ARM、高通、恩智浦,現任英特爾,全權負責 GPU 項目,統籌資料中心與 AI 業務,深耕 Chiplets 技術。Eric Demers:歷任 ATI/AMD、高通、任天堂,20 餘年 GPU 架構設計經驗,主導多款經典 GPU 架構研發,具備頂尖研發與團隊搭建能力。)第三步便是此次思科峰會上官宣任命新任首席架構師,正式亮劍進軍GPU領域,陳立武表示將圍繞客戶需求制定相關戰略。當前英特爾雖獲得多方大額投資、股價有所回升,但仍面臨產能集中自用、生產故障等問題,亟待突破。陳立武同時提及,AI驅動下儲存晶片短缺將持續至2028年,這也為英特爾GPU研發及市場佈局帶來新的挑戰與考量。 (芯榜)
美國安全審查突襲,中國H200訂單全線凍結!
英國《金融時報》今日援引三位白宮及國會消息人士稱,美國國家安全委員會(NSC)於2月3日啟動新一輪對華AI晶片安全審查,已要求輝達暫停所有H200對華銷售申請,待審查結束後方可重啟批文流程。這意味著原本已獲“口頭放行”的50萬顆H200再次停擺,中國雲廠商春節前搶貨計畫被迫中斷。審查焦點在於“中國潛在用途”與CUDA生態技術外溢風險。NSC擔心,H200雖低於70 TFLOPS紅線,但可通過堆疊組成超算叢集,用於高超音速模擬與情報分析。國會助手透露,此次審查可能持續45-60天,且不排除將H200納入《國際武器貿易條例》(ITAR)管制清單。輝達凌晨回應,將“全面配合政府審查”,並暫停向中國客戶傳送任何新銷售要約。公司已通知阿里、字節等大客戶:已預付但未清關的訂單將暫緩發貨,可選擇退款(扣除物流與關稅成本)或轉口至第三國。現貨市場應聲跳漲:香港倉庫提貨價從4.2萬美元回彈至5萬美元,中間商開始囤貨待漲。中國國產GPU廠商連夜促銷:寒武紀MLU 300現貨價下調至0.95萬美元,並提供120天帳期;摩爾線程把S5000租金再降20%,諮詢量兩日增長3倍。業內普遍認為,若審查持續至4月,中國雲廠商將被迫擴大中國國產卡採購,2026年中國國產AI晶片市佔率有望從18%躍升至35%。對於仍在擴建的中國國產GPU、HBM與封裝產業鏈而言,美國再次“關門”意味著9個月替代窗口正式開啟。 (晶片行業)
小摩最新預判:NAND周期更長更穩,eSSD成AI時代新主角
在全球資本市場緊盯 GPU 和高頻寬儲存器(HBM)的同時,NAND 快快閃記憶體儲器正悄然崛起,成為 AI 時代不可或缺的基礎設施資產。摩根大通(JPM-US,簡稱小摩)亞太區科技團隊在近期發佈的研究報告《半導體:NAND——更長、更強的上升周期》中指出,NAND 已進入由 AI 推理全面驅動的全新超級周期,其影響力可能超過以往任何一輪由消費電子推動的周期。過去 20多年,NAND 市場一直受供需波動影響。技術進步降低了成本,但廠商擴產又容易導致價格崩盤。小摩分析顯示,NAND 市場年均潛在成長率過去多在 7%~12% 之間,但預計 2025~2027年,這一數字將躍升至 34%,呈現前所未有的“斷層式”增長。更重要的是,這次增長不是單純靠出貨量堆積,而是“量價齊升”。小摩預計,今年 NAND 混合均價將上漲 40%,到2027 年價格仍能維持高位,僅小幅回落 2%。為什麼AI 推理能成為 NAND 的轉折點?關鍵在於推理階段的特殊需求:訓練階段強調算力和頻寬,HBM 無可替代;推理階段需要即時處理使用者指令,高速調取模型參數,延遲和上下文處理能力至關重要。隨著模型上下文擴展,GPU 內建 HBM 容量已捉襟見肘,行業開始引入 KV Cache Offloading 技術,把部分中間資料解除安裝到外部儲存。這讓企業級SSD(eSSD)從傳統“資料倉儲”升級為 AI 架構中的“二級儲存”,需求迅速增長。2024 年 eSSD 出貨量同比下降86%,刷新自 2012 年以來的紀錄。未來,AI伺服器單機儲存容量預計將超過 70TB,是普通伺服器的兩倍以上。到明年,eSSD 有望佔全球 NAND 需求總量的 48%,超過智慧型手機的 30% 和PC 的 22%,成為第一大應用場景。同時,HDD供應緊張也助推 NAND 上位。Seagate 和 Western Digital 因前幾年市場低迷大幅削減資本支出,導致大容量 HDD 交貨周期延長至兩年以上。面對“有貨優先於低價”的 AI 資料中心規則,客戶紛紛轉向 NAND,尤其青睞性價比提升的 QLC(四層單元 NAND)。雖然SSD 單位成本仍是 HDD 的 6~8 倍,但在能效和空間利用上優勢明顯,適合高密度 AI 資料中心。目前,SSD在“業務關鍵型”儲存領域滲透率僅 19%,還有很大提升空間。小摩估算,SSD 滲透率每提升 1%,即可為NAND 市場帶來約 20 億美元新增收入。值得注意的是,面對強勁需求和價格上漲,NAND 廠商並未盲目擴產。未來三年,產業資本支出佔銷售額比例將降至 15%~16%,遠低於過去十年的30%~50%,2018 年甚至高達 68%。原因在於技術瓶頸:NAND 堆疊層數已突破 300~400 層,刻蝕製程和晶圓應力控制難度極大,混合鍵合技術雖能緩解,但裝置昂貴且良率受限。市場預計,今年全球 NAND 晶圓產量僅增長 3%,而位元需求增速高達 21%,供需缺口將貫穿全年,支撐價格持續上行。原廠動作方面:鎧俠(Kioxia):CBA 架構優勢明顯,BiCS 8 技術量產推動伺服器業務營收從 2023 年的 20% 提升至2027 年的 61%。SK 海力士(SK Hynix):憑藉 Solidigm 在 QLC 和 eSSD 超大容量市場的統治力,以及 HBM 與 QLC 雙線優勢,長期看穩健。三星電子:雖然 QLC 佈局稍慢,但大產能和 V9 QLC 加速量產,有望收復失地,股價短期具備補漲潛力。美光(Micron):推出 232 層 TLC 的 6500 ION 系列,以“性能接近 TLC、價格接近 QLC”的策略受益美國本土資料中心建設。雖然NAND 價格上漲過快,可能推高筆記本等終端 BOM 成本,壓縮品牌商利潤,消費者換機節奏或延緩。但小摩認為,這次由 AI 推理驅動的需求革命與供給剛性深度交織,構成真正的“超級周期”。NAND 已不再是 DRAM 的陪襯,而是 AI 體系中高速“熱資料”管理的基石。 (半導體脈)
突發!黃仁勳“兆元宴”放話:ASIC取代GPU不合理也不現實!2026 產業鏈‘極度吃緊’!
黃仁勳放話:ASIC取代GPU不合理也不現實,輝達掌控整個AI基礎架構!2026年AI產業極度吃緊:This year is going to be very big!!黃仁勳台北宴請供應鏈高管核1月31日晚間,輝達CEO黃仁勳在台灣台北磚窯古早味懷舊餐廳,宴請輝達合作供應鏈高管,原定35人,實際到場近40位台企高管,僅1位大陸企業(勝宏科技)高管出席。宴會合影中,第一排就坐的有華碩施崇棠、聯發科蔡力行、台積電魏哲家等供應鏈資深高管;第二排及以後包括鴻海劉揚偉、和碩童子賢等多位台企高管。現場唯二女性為緯穎洪麗寧、同德股份劉盈君。黃仁勳開場致詞(站上椅子):“歡迎大家來到這裡!這稱不上是年度聚會,但我們一起工作這麼辛苦、這麼努力,所以我們每6個月應該聚在一起喝一杯。”黃仁勳提及2025年的挑戰:“2025年是非常充滿挑戰的一年,因為我們開始生產Grace Blackwell,現在回頭看,與Grace Blackwell相比,Hopper 簡直太簡單了。Hopper 的半導體系統在當時是最先進的,但Grace Blackwell又將先進技術推向極限,系統也相當困難,過去一年來,我們一起挑戰極限,在座的各位一起完成了不可思議的任務。”針對Grace Blackwell量產困難及設計修改,黃仁勳坦言:“今年運作模式跟以往也將有所不同,他對過去一年的成果非常滿意,也確實一路很挑戰,感謝大家一起工作,他也誠摯的要說謝謝,還有對不起。”關於產品進展,他表示:“目前GB300機櫃已經進入量產初期階段,GB200是輝達的第二代產品,量產非常順利,而Vera Rubin(第三代產品),希望量產會變得很簡單,現在供應鏈會跑得比以往任何時候都快,也感謝彼此的夥伴關係,相信今晚也是全台灣關注的一晚。”談及AI產業變化:“AI 變得有用,大語言模型變得非常有用,對產業也有用。也因此,現在 Token是可以賺錢的,2024年生成的 Token 沒那麼聰明,當 AI 不夠聰明時,就不太能獲利,現在 AI 變聰明了,就能有獲利模式。”黃仁勳回應關鍵問題:AI產業供需:“2026 年將是AI 產業‘極度吃緊的一年’,不論是高性能計算或低功耗應用,‘AI 要有智慧,就一定要有儲存’,今年對高頻寬記憶體(HBM)與LPDDR 的需求將大幅爆發,整體供應鏈面臨前所未有的壓力,但同時也將迎來‘非常好的一年’。”產品研發:“輝達目前已全面量產Grace Blackwell 架構,同步啟動下一代Vera Rubin 平台,Vera Rubin 是由六顆全球最先進晶片組成,製程與整合複雜度極高。”OpenAI融資:“輝達將參與OpenAI 下一輪融資,且金額可能是輝達史上最大的一筆戰略投資。OpenAI 是這個時代最具影響力的公司之一,輝達將持續加碼資金與算力支援。”ASIC晶片競爭:“外界擔憂AI專用晶片ASIC將取代GPU的疑慮不合理也不現實,因為輝達不是只做單一晶片,而是打造整個AI 基礎架構,這種規模與研發強度,不是單一ASIC 團隊可以追上的。”台灣供應鏈:“沒有台灣,輝達就不可能存在。預期未來十年台積電產能將遠超過倍數成長,是整個人類史上最大規模的科技基礎建設擴張之一。”△黃仁勳與台積電董事長魏哲家合影此外,黃仁勳透露:“輝達目前每年研發預算已達200 億美元,未來仍將以每年約50% 的速度成長,從Hopper 到Blackwell、再到Rubin,技術難度已從困難變成不可能,但也正因如此,必須持續高速投資,確保領先地位。”晚宴尾聲,他再度致謝:“今年是非常關鍵/盛大的一年(This year is going to be very big),換句話說,供應鏈會工作得很辛苦,但台灣供應鏈的優秀條件是獨一無二的。” (深科技)
這份首次公開的架構路線圖,藏著中國國產GPU的技術底氣與成長邏輯
5.2萬片交付背後:國產GPU規模商業化進入“放量期”。在大模型浪潮席捲全球、算力成為核心競爭力的當下,國產高端晶片的進展備受矚目。尤其在生成式AI走向規模化應用之後,訓練效率、推理成本、系統穩定性,正在深度反作用於模型能力。僅是實驗室指標與參數競賽,不足回答市場對國產算力“能否真用、是否好用”的拷問。近日,國產通用GPU“四小龍”之一的天數智芯,在上市後的首次生態合作夥伴大會上,給出了一份系統性的回應——罕見地一次性亮出了三張關鍵“底牌”:1、首次完整公佈天樞、天璇、天璣、天權四代GPU架構路線圖,明確提出分階段對標並超越NVIDIA Hopper、Blackwell、Rubin架構的技術目標。該公司在2025年已經邁出第一步,天數天樞整體效率較當前行業最優水平提升約60%,在DeepSeek V3的實測中實現超20%的表現。2、正式推出“彤央”系列四款邊端GPU新品,實測稠密算力覆蓋100T—300T區間,性能指標全面超越NV AGX Orin;3、首次對外披露商業落地成果,截至目前已服務超300家客戶,完成1000餘次部署,累計交付通用GPU超5.2萬片。天數智芯董事長兼CEO蓋魯江在會上強調,AI算力需“以全端自研築牢生態根基”。此次發佈,這家國產GPU代表企業已不侷限於單點突破,而是試圖從技術路徑、完整產品和可複製商業化三個維度,建構一個更具確定性的產業未來。01.首發三年超越路線圖:國產通用GPU不止於“可用”與以往國產GPU企業更強調“當代產品對標”不同,天數智芯此次發佈的一大變化,就是給出了一個明確的時間維度。天數智芯首次系統性披露了2025-2027年的架構演進路線圖。在天數天樞、天數天璇、天數天璣、天數天權四大系列架構框架下,其技術目標被清晰地對應到國際主流GPU架構的代際節奏之中:2025年,天數天樞架構實現對輝達Hopper架構的超越;2026年,天數天璇架構對標Blackwell,同年天璣架構實現對其的全面超越;2027年,天數天權架構將超越下一代的Rubin架構。在此之後,公司的目標將轉向“突破性計算晶片架構”的原創性設計。這釋放了一個強烈訊號——天數智芯不再迴避與全球GPU技術主線的正面對照,而是將自身演進節奏直接嵌入到同一技術坐標系中。天數智芯AI與加速計算技術負責人單天逸認為,專用晶片就像應試教育,在限定的“題庫”裡去完成計算任務。而天數所代表的通用晶片是為了回歸計算本質,支援所有類型的計算。它既能高效支援的當前熱點任務,也能支援那些我們還沒想像到的全新算子、全新架構。“我們始終堅信,不應讓算力的僵化限制演算法進化,硬體絕不應該成為束縛演算法探索的枷鎖,而要成為孵化新演算法的堅實底座。”單天逸將天數晶片比作新世紀的“算力風洞”,意在為研究者探索智慧的本質與邊界提供基礎工具。為了實現這種面向未來的通用性與高效能,天數智芯在架構層面進行了系列創新。這一路線圖並非簡單的算力堆疊,而是圍繞通用計算效率的系統性最佳化展開:1、TPC Broadcast設計,算力的核心瓶頸是頻寬,天數智芯不單純放大頻寬,而是追求單位頻寬最優效果。當檢測到相同地址資料時,晶片內部Load Store單元避免無效訪問,在上游進行廣播,大幅降低快取功耗,等效提升快取頻寬,以更小功耗和面積實現同等功能。2、Instruction Co-Exec設計,實現多類指令平行運行,除Tensor Core、Vector Core外,新增Scalar Core及指數、通訊等操作,通過X-Schedule模組以最低成本提升多指令平行處理能力,從容適配MMA、各類算子及DeepSeek V4等模型。3、Dynamic Warp Scheduling設計,微架構可駐留更多Warp,通過動態調度實現Warp有序協作,避免資源爭搶與閒置,持續輸出算力。值得一提的是,這些技術並不是針對某一個模型或某一類負載的“定製化性能”,而是一種長期可擴展的通用GPU架構邏輯。對產業與投資界而言,這份路線圖的價值在於提供了難得的“可預期性”。它標誌著國產高端GPU的競爭,正從初期的“解決有無問題”和“單點性能比拚”,邁入一個有明確技術爬坡路徑、可被持續驗證的新階段。02.雲邊端全端落地:“彤央”系列補齊邊端算力拚圖如果說路線圖解決的是“向那裡走”的問題,那麼產品矩陣則決定了“如何走”。本次大會的另一重頭戲,是天數智芯正式發佈了其邊端算力產品系列——“彤央”(TY)。“彤央”系列一次性推出了四款新品:TY1000、TY1100、TY1100_NX和TY1200,覆蓋100T-300T的實測稠密算力區間。在多項關鍵指標上,這一系列產品已全面超越同等級的輝達AGX Orin。但相比性能數字本身,更值得關注的是彤央系列的產品定位邏輯。“彤央”系列並非簡單意義上的“算力下沉版GPU”。天數智芯邊端事業部負責人郭為談道,其產品定位是圍繞“物理AI”這一前沿趨勢進行系統級設計。所謂“物理AI”,即讓AI不僅“會說話”,更能“會幹活”,理解並反饋物理世界規律,這正是具身智慧型手機器人、高等級自動駕駛、智能工廠等場景的核心需求。以性能最強的TY1200為例,它不僅在緊湊的機身內容納了300TOPS的算力,更搭載了完整的異構算力調度框架,能夠充分協調CPU與GPU資源。這一特性使其能夠應用於“機器人大小腦融合”這類複雜場景——傳統上,機器人的運動控制(“小腦”)與感知決策(“大腦”)由不同模組處理,容易因通訊延遲導致動作不協調。TY1200的高整合度與強算力,為在一顆晶片上實現協同控制提供了可能。實測資料證明了其產品力。在電腦視覺、自然語言處理乃至DeepSeek-32B大語言模型等多個場景的測試中,彤央TY1000的性能表現均優於市場主流產品輝達AGX Orin。“彤央”系列還考慮到客戶已有硬體方案的替換成本問題。該系列全部採用標準化的699Pin介面設計,在硬體上與輝達Orin系列產品實現了“Pin-to-Pin”相容,從而極大降低替換成本。可以看到,通過統一的通用GPU架構、開放的軟體生態以及一致的開發介面,天數智芯試圖在“物理AI”趨勢尚未全面爆發之前,提前完成算力形態的卡位。至此,天數智芯已經形成了覆蓋雲端訓練(天垓)、推理(智鎧)以及邊端計算(彤央)的完整全端自研算力矩陣。在架構層、軟體層和系統層實現統一,使得模型可以在不同算力形態之間平滑遷移。值得一提的是,這種“全端自研”的能力並非沒有技術門檻。從單卡性能,到多卡互聯,再到千卡級叢集的穩定運行,每一層都涉及架構設計、驅動最佳化與系統工程能力的長期積累。天數智芯披露,其千卡級叢集已穩定運行超過1000天,驗證了其系統的成熟度。03.5.2萬片交付背後:國產GPU商業化放量任何一條技術路線,最終都必須接受商業化的檢驗。天數智芯此次發佈會的第三大焦點,便是首次體系化地公開了其規模化商業落地成果,以實實在在的資料回應了市場關於國產GPU“能否用好”的疑問。其披露的最新資料顯示,天數智芯已向金融、網際網路、醫療、交通、科研等超過20個行業的超300家客戶,完成了超過1000次行業部署,數千卡叢集穩定運行1000天。天數智芯副總裁鄒翾在演講中列舉了一系列案例:在網際網路領域,其產品幫助頭部客戶將AI客服的Token處理成本降低了一半;在金融行業,基於其加速卡的研報生成效率提升了70%,量化交易決策響應可達毫秒級;在醫療場景,結構化電子病歷的生成時間從數分鐘縮短至30秒,腸胃鏡病灶的AI輔助定位精度提升了30%。另一個優勢是敏捷的模型適配能力。面對國內大模型以“季度”為單位的迭代速度,天數智芯通過與主流模型團隊深度合作,實現了“多數大模型發佈當天即可跑通”。目前,其平台已支援超過150種模型及變種穩定運行。例如,從DeepSeek V3升級到V3.2,因其已預先支援95%的算子,客戶僅需調整不到2%的模型結構即可完成適配。這種廣泛的行業覆蓋與深度應用,反過來也錘煉了其產品與解決方案的成熟度。郭為在問答環節坦誠分享道,早期拓展市場時面臨更多的是客戶的“排斥與冷淡”,尤其是那些純粹基於性價比和穩定性做選擇的商業客戶。破局之道在於“技術實力”。只要客戶願意嘗試,工程師便快速進場,通過深度調優呈現超出預期的性能,逐步建立信任。他甚至透露,一些深度合作的客戶在兩年內通過反饋機制提出了數百個問題或建議,這些來自真實場景的“壓力測試”和需求輸入,成為了產品迭代升級最寶貴的動力。在GPU競爭中,生態始終是決定成敗的核心壁壘。天數智芯對此有著清醒認知,其將“易遷移”作為核心競爭力之一,在軟體介面層深度相容CUDA等主流開發生態,支援PyTorch等主流框架,儘量避免客戶為遷移付出額外學習成本。從其商業化放量的財務資料看,2022-2024年,營收從1.894億元增長至5.395億元,復合年增長率高達68.8%;2025年上半年營收達3.243億元,同比增長64.2%。這些財務數字背後,是一個已經跑通並進入放量增長階段的商業閉環。04.結語:算力競爭正在回歸長期主義回顧整場發佈會,天數智芯反覆強調的關鍵詞並非“替代”,而是“賦能者”。其通用GPU架構已相容PyTorch、xllm等主流框架,支援150余種模型穩定運行;在實際項目中,開發與遷移成本僅為部分競品的三分之一;並已完成與主流CPU、伺服器廠商及雲平台的系統級適配。在智能社會逐步成型的過程中,真正稀缺的,並不是某一代晶片的峰值性能指標,而是一個能夠持續支撐演算法演進、應用擴展與產業規模化的底層算力平台。從清晰的路線圖,到完整的產品矩陣,再到正在放量的商業化資料,天數智芯正在給出一種更偏長期主義、也更具產業確定性的答案。國產GPU“行不行”,或許不再需要一句口號式回應,而正在被一項項工程進展與商業結果,逐步寫入現實。 (芯東西)