#黃仁勳
這家日企卡住了AI晶片的脖子,黃仁勳親自登門搶購!
1月14日消息,據日經新聞報導,由於人工智慧(AI)需求爆發,導致AI晶片載板所需的高端電子級玻璃纖維布(glass cloth,簡稱“玻纖布”)供應短缺,就連蘋果公司都被迫與輝達、Google、亞馬遜、微軟等科技巨頭展開爭奪戰。而X平台的爆料顯示,輝達CEO黃仁勳為了穩固其AI晶片所需的高端玻纖布的供應,近日還親自拜訪了高端玻纖布龍頭供應商日東紡(Nittobo)。1月14日消息,據日經新聞報導,由於人工智慧(AI)需求爆發,導致AI晶片載板所需的高端玻璃纖維布(glass cloth,簡稱“玻纖布”)供應短缺,就連蘋果公司都被迫與輝達、Google、亞馬遜、微軟等科技巨頭展開爭奪戰。而X平台使用者@BourseAsieFR 的爆料顯示,輝達CEO黃仁勳為了穩固其AI晶片所需的高端玻纖布的供應,近日還親自拜訪了玻纖布龍頭供應商日東紡(Nittobo)。高端玻纖布為何如此緊缺?日東紡獨佔90%市場資料顯示,電子級玻纖布是IC載板與印刷電路板(PCB)的關鍵零元件,也是打造電子裝置所需的最基礎的材料,這些基板主要承載處理器並負責訊號傳輸。由於玻纖維的製造需在約1,300°C 高溫下進行熔融紡絲,裝置須使用昂貴的鉑金材料,且每一根纖維都必須比頭髮更細、完全圓潤、不得含有氣泡。業界人士指出,玻纖布的穩定性決定了基板品質。當前,AI晶片與高端處理器對於資料傳輸的穩定性與傳輸速度要求極高,就需要用到特殊規格的低膨脹係數(Low CTE)的高端玻纖布(又稱“T-glass”),因為其具有尺寸穩定、剛性高、利於高速訊號傳輸等特性,能支撐AI晶片與高端處理器所需的高頻、高密度設計。比如,目前輝達等廠商的高端AI晶片絕大多數都採用的是台積電的CoWoS封裝,其中用來支撐GPU/TPU/ASIC與高頻寬記憶體(HBM)的載板就需要用到特殊規格的Low CTE的高端玻纖布。目前全球能夠生產Low CTE玻纖布的企業主要有三家:日本的日東紡(Nittobo)、台灣的台灣玻璃、中國大陸的泰山玻璃纖維(Taishan Fiberglass)。此外還有一些小型供應商,比如宏和電子(Grace Fabric Technology,GFT)、建滔積層板(Kingboard Laminates Group)和Unitika。但是,日東紡一家公司佔據了全球超過90%的供應。輝達此前也一直是指定其AI晶片所需Low CTE玻纖布由日本的日東紡獨家供應,因為它是唯一一家符合其最嚴格質量要求的公司。日東紡成立於1923年,由成立於1898的Koriyama Kenshi Boseki Co., Ltd.和成立於1918年Fukushima Seiren Seishi Co., Ltd.合併而來,至今已有100多年的歷史。日東紡自1938年就成為了全球首家以工業規模生產玻璃纖維的企業,隨後也成為了完整掌握玻璃纖維整個生產產業鏈的企業。除了製造、加工和銷售玻璃纖維之外,日東紡也從事化學產品和藥品、紡織品、機械裝置的製造和銷售。在玻璃纖維業務方面,除了生產高端AI晶片所需的Low CTE 玻纖布之外,日東紡也生產AI伺服器當中對於訊號傳輸速率要求較高的晶片所需的低介電常數(Low DK)玻纖布,而在這一市場,日東紡也擁有著高達80%的市場份額,唯一的競爭對手是美國的AGY。但是,對於AI伺服器當中對於傳輸速率要求更高的800G交換機晶片,即使低介電常數玻纖布也難以滿足需求,為此日東紡還開發了更高效的NER玻纖布,目前在這類市場,日東紡的市場份額高達100%。@BourseAsieFR 分享的資料顯示,目前日東紡的 40%產能為面向高速訊號傳輸需求的低介電常數玻纖布;30%產能為面向AI晶片基板的低膨脹係數玻纖布;另外30%產能為標準的玻纖布。隨著全球AI晶片需求持續爆發,日東紡的產能已趕不上AI晶片市場驚人增長速度,導致其高端玻纖布從2025年年初就開始缺貨。因為除了輝達AI晶片的需求之外,AMD、Google、亞馬遜、微軟等眾多企業,都開始在自家AI晶片的載板中使用Low CTE玻纖布。AI伺服器對於Low DK玻纖布和NER玻纖布的需求也在快速增長。這也導致了高端玻纖布供應嚴重短缺,情況與去年下半年以來的DRAM晶片荒極為相似。相關報導顯示,自去年下半年以來,輝達、AMD 和微軟的高管們經常拜訪日東紡,希望取得日東紡的高端玻纖布供應。除了來自AI晶片的需求暴增之外,日東紡的產能擴張速度太慢也是導致缺貨的關鍵原因。日東紡首席執行長Hiroyuki Tada 曾表示,公司將優先考慮質量而非數量,並且由於風險方面的擔憂,不願以與AI市場相同的速度擴張產能。日東紡與南亞科技合作新建的生產線需要等到 2027 年才能投入營運,預計屆時產能可以提升20%。業內人士悲觀預測,供應狀況要到2027 年下半年日東紡新產能上線後,才會有實質性的改善,“即使你向日東紡施壓,沒有新增產能也無濟於事。”這也意味著高端玻纖布的供應短缺需要等到2027年才有可能緩解。台灣玻璃積極打入輝達供應鏈對於輝達來說,日東紡供應瓶頸將會直接導致其AI晶片的生產受限。因此,需要尋找其他供應商來滿足自身的需求。由於中國大陸的泰山玻纖隸屬於國有企業中國建材,為了避免挑動美國政府敏感的神經,輝達並未考慮將泰山玻纖納入其AI晶片所需的載板材料供應鏈。因此,輝達從去年年初就開始找台灣玻璃合作,希望將其納入供應鏈。據《天下》雜誌報導,2025年年初,輝達的高管們每隔幾天就會到訪位台灣玻璃總部,懇求他們加快生產。據台灣玻璃纖維事業部總經理林嘉佑介紹,台灣玻璃的Low CTE玻纖布在2025年初采通過認證,批次生產要到2025年4月份才能開始,但是初期產能也比較有限。除了低熱膨脹係數玻纖布之外,低介電常數(Low DK)玻纖布也同樣重要。林嘉佑解釋稱,“低熱膨脹係數用於基板,而低介電常數材料用於底層印刷電路板(PCB)。兩者對於製造人工智慧伺服器的核心部件都至關重要。”不過,據《日經亞洲》報導,即便台灣玻璃、泰山玻纖等廠商積極進入AI晶片和高端處理器所需Low CTE玻纖布市場,但是沒有那家科技巨頭願意冒險將高端晶片安裝在可能影響最終產品品質的基板上。因為,玻纖布深埋於基板內部,“一旦出問題,根本不可能拆出來重做”。蘋果找上宏和電子過去,玻纖布主要應用於智慧型手機與一般電子產品所需的處理器。不過,蘋果很早就開始將Low CTE玻纖佈導入了iPhone所搭載的A系列處理器的基板,當時Low CTE玻纖布的供應也比較穩定。但隨著輝達引領的AI 熱潮的爆發,不僅輝達的AI晶片對於Low CTE玻纖布的需求暴漲,AMD的AI晶片、Google的TPU、亞馬遜的AISC晶片等都開始大量採用同樣的高端玻纖布來作為晶片基板材料,這也直接造成了對於消費類電子客戶的需求的排擠。為了確保Low CTE玻纖布的供應,蘋果公司採取了罕見的積極行動。據報導,蘋果早在去年秋天便派遣員工進駐日本三菱瓦斯化學(Mitsubishi Gas Chemical,MGC),試圖確保用於BT 基板的材料供應,因為MGC 生產基板同樣需要日東紡的玻璃纖維布。蘋果公司還曾向日本政府官員求助,希望通過官方力量協調日東紡的產能分配,以滿足其2026 年的產品需求,特別是為了應對即將推出的首款折疊iPhone 以及預期的手機市場復甦。為瞭解決供應問題,蘋果公司也在努力尋找替代的供應來源。據兩名熟知內情的消息人士透露,蘋果公司已派員前往中國小型玻纖布製造商宏和電子材料(Grace Fabric Technology,GFT),並要求三菱瓦斯化學協助監督這家中國材料供應商的質量改良情況。除了蘋果之外,另一家手機晶片大廠高通也面臨通用的供應問題。據悉,高通也曾諮詢另一家較小的日本供應商Unitika,希望能緩解玻纖布供應緊張,但該公司的產能規模遠不及日東紡。 (芯智訊)
黃仁勳徹底不裝了!一口氣亮出6顆全新晶片,馬斯克都看呆了!
被逼急的黃仁勳徹底不裝了。在 2026 年科技春晚 CES 的舞台上,這位身著標誌性黑色皮衣的男人,一句 “我們打破了自己的規則”,讓全場陷入沉默。沒有預告,沒有鋪墊。輝達突然亮出下一代 AI 計算平台 Vera Rubin,一口氣推出 6 顆全新架構晶片,點名 DeepSeek,更宣佈全端自動駕駛系統即將量產。現場觀眾倒吸涼氣,連馬斯克都驚嘆:“這不是升級,這是 AI 的火箭引擎。”一個月前,黃仁勳還在播客中坦白自己因害怕破產常年焦慮,此刻卻用顛覆性發佈,讓全球科技巨頭徹夜難眠。過去 20 年,輝達有個鐵律:每次產品迭代最多更 1-2 顆晶片。重新設計晶片的成本與風險,足以壓垮任何科技公司。但這一次,黃仁勳直接 “拆家”——6 顆晶片全部從頭設計、全線重構,而非簡單迭代,甚至跳過三個月後的 GTC 大會,在 CES 直接亮底牌。這 6 顆晶片整合為 Rubin 超級系統,視覺簡潔,性能卻恐怖:算力提升 5 倍,AI 推理 token 成本降至前代十分之一,能耗效率翻 3 番。這款平台已全面投產,2026 年下半年將由合作夥伴推出,微軟、OpenAI 等巨頭已宣佈率先部署。黃仁勳這一拳,是 63 歲 CEO 的孤注一擲。背後的危機感,源於 AI 行業的激烈變局。AI 模型規模年增 10 倍,生成 token 數量年增 5 倍,算力胃口瘋狂擴張,晶片進化卻逐漸掉隊。黃仁勳本以為 AI 時代是輝達的永恆主場,現實卻狠狠打臉。一方面,中國玩家不再甘當使用者,華為昇騰、寒武紀、百度崑崙芯紛紛自研 AI 晶片,比亞迪等車企也建起專屬 AI 訓練中心。黃仁勳多次提醒西方,不要低估東方衝擊。另一方面,昔日盟友變對手。Google、亞馬遜、微軟加速自研晶片替代輝達,2025 年 11 月 Meta 考慮大規模採用Google TPU 的消息,讓輝達股價單日暴跌 8%,數千億美元市值蒸發。黃仁勳明白,不拿出身家性命級的硬貨,護城河 2026 年就會被填平。聖誕節前夕,他砸 200 億美元收購 AI 獨角獸 Groq,金額是其三個月前估值的三倍,要的就是反擊利刃。AMD 的追擊更讓競爭白熱化。輝達發佈會後 2.5 小時,蘇姿丰帶著新品正面硬剛,“蘇黃之爭” 讓市場硝煙四起。90 分鐘演講,黃仁勳全程站立無停頓。他更宣佈佈局八年的成果:“物理 AI 的 ChatGPT 時刻已經到來。”過去的 AI 只活在螢幕裡,懂文字卻不認識螺絲刀。而物理 AI 要讓智能 “越獄”,走進真實世界理解重力、摩擦、慣性等基本常識。發佈會上的視訊讓全場屏息:一輛奔馳 CLA 在舊金山街頭自主穿行,無預設路線、無高精地圖,卻能觀察行人眼神、判斷圍擋是否可繞行,還會禮讓突沖路人。這套自動駕駛生態 2026 年一季度就量產上車。這標誌著輝達徹底告別 “賣鏟人” 身份。從前只賣 GPU,如今從晶片、演算法到整車方案全包圓。那句 “打破自己的規則” 背後,藏著後半句:“也打破你們的規則。”這場變革是技術與生存的雙重博弈。輝達用 Rubin 重構算力規則,用物理 AI 改寫智能邊界,用全端佈局重塑競爭邏輯。63 歲的黃仁勳帶著輝達孤注一擲,用打破一切的勇氣,開啟了 AI 從虛擬走向現實的全新時代。 (科技直擊)
儲存還要繼續瘋!輝達ICMSP讓快閃記憶體漲停,黃仁勳要一統儲存處理器
輝達推出全新推理上下文(Inference Context)記憶體儲存平台(ICMSP),通過將推理上下文解除安裝(Offload)至NVMe SSD的流程標準化,解決KV快取容量日益緊張的問題。該平台於 2026 年國際消費電子展(CES 2026)正式發佈,致力於將GPU的KV快取(Key-Value Cache)擴展至基於 NVMe 的儲存裝置,並獲得輝達 NVMe 儲存合作夥伴的支援。此消息一出,引爆的是本就漲到高不可攀的儲存廠商股價,多家儲存廠商和快閃記憶體控製器廠商股價直接漲停,快閃記憶體極有可能步DRAM後塵成為AI基建帶動下第二波緊俏儲存器,儲存價格特別是快閃記憶體價格在2026年可能成為儲存產品整體價格繼續飆漲的第二輪推動力。從某個角度考慮,ICMSP的推出,讓GPU晶片可以降低對大容量HBM產品的嚴重依賴,同時也讓AMD同步發佈的Helios機架平台變得有些“過時”,因為輝達已經邁向了存算結合的新階段。不過相比這些,黃仁勳在解答分析師問題時更是直言“我們現在是全球最大的網路公司。我預計我們還將成為全球最大的儲存處理器公司”,通過不斷收購儲存技術,輝達致力於在AI算力體系架構中,擁有更多的話語權。從這點來看,ICMSP將成為輝達在AI走向千行百業的工程化過程中主導的技術之一。認識一下ICMSP在大型語言模型推理過程中,KV快取用於儲存上下文資料 —— 即模型處理輸入時,表徵令牌間關係的鍵(keys)和值(values)。隨著推理推進,新令牌參數不斷生成,上下文資料量持續增長,往往會超出 GPU 的可用記憶體。當早期快取條目被淘汰後又需重新呼叫時,必須重新計算,這會增加延遲。智能體 AI(Agentic AI)和長上下文工作負載進一步加劇了這一問題,因為它們需要保留更多上下文資料。而 ICMSP 通過將 NVMe 儲存上的 KV 快取納入上下文記憶體地址空間,並支援跨推理任務持久化儲存,有效緩解了這一困境。輝達創始人兼CEO黃仁勳表示:“人工智慧正在徹底變革整個計算架構 —— 如今,這場變革已延伸至儲存領域。人工智慧不再侷限於一次性互動的聊天機器人,而是能理解物理世界、進行長周期推理、立足事實、借助工具完成實際工作,並具備短期和長期記憶的智能協作夥伴。借助BlueField-4,輝達與軟硬體合作夥伴正為人工智慧的下一個前沿領域重塑儲存架構。” 他在CES演講中提到,通過BlueField-4,機櫃中可直接部署KV快取上下文記憶體儲存。隨著 AI 模型規模擴展至兆參數等級,且支援多步驟推理,其生成的上下文資料量極為龐大,同時運行的此類模型數量也在不斷增加。KV 快取軟體(即 ICMSP)需適配GPU、GPU 伺服器及 GPU 機櫃叢集,這些裝置可能同時處理多種不同的推理工作負載。每個模型 / 智能體工作負載的參數集都需妥善管理,並能精準對接運行在特定 GPU 上的目標AI模型或智能體 —— 且這種對應關係可能隨任務調度動態變化。這意味著需要專門的 KV 快取上下文中繼資料管理機制。基於NVMe的KV快取儲存需實現跨層級相容,涵蓋 GPU、GPU 伺服器、GPU 機櫃乃至多機櫃叢集。輝達表示,ICMSP 不僅提升了 KV 快取容量,還加速了機櫃級 AI 系統叢集間的上下文共享。多輪互動 AI 智能體的持久化上下文特性,提高了響應速度,提升了 AI 工廠的吞吐量,並支援長上下文、多智能體推理的高效擴展。圖1 基於 NVMe 的 KV 快取儲存需實現跨層級相容,覆蓋GPU、GPU 伺服器、GPU機櫃乃至GPU機櫃叢集ICMSP 依賴Rubin GPU叢集級快取容量,以及輝達即將推出的BlueField-4資料處理器(DPU)—— 該處理器整合Grace CPU,吞吐量高達 800 Gbps。BlueField-4 將提供硬體加速的快取部署管理功能,消除中繼資料開銷,減少資料遷移,並確保GPU節點的安全隔離訪問。輝達的軟體產品(包括DOCA框架、Dynamo KV快取解除安裝引擎及其內建的 NIXL(輝達推理傳輸庫)軟體實現了 AI 節點間 KV 快取的智能加速共享。儲存架構必須重構,在這個過程中,上下文成為新瓶頸,主要體現在模型規模持續擴大、上下文(Context)長度不斷增加、多輪對話導致上下文(Context)累積以及並行使用者與會話數量增多等方面。圖2 黃仁勳在 CES 2026 展示的上下文瓶頸幻燈片Dynamo支援跨記憶體和儲存層級的協同工作,覆蓋GPU的高頻寬記憶體(HBM)、GPU 伺服器 CPU 的動態隨機存取儲存器(DRAM)、直連 NVMe SSD 及網路附加儲存。此外,還需搭配輝達Spectrum-X乙太網路,為基於RDMA的AI原生KV快取訪問提供高性能網路架構。輝達稱,ICMSP的能效將比傳統儲存提升5倍,令牌每秒處理量最高可提升5倍。圖3 黃仁勳在 CES 2026 展示的推理上下文記憶體儲存平台幻燈片行業反饋鑑於輝達在AI算力架構方面擁有絕對的話語權,ICMSP的推出必定會得到一眾合作夥伴的鼎力支援,以免錯失商機。輝達列出了眾多將通過BlueField-4支援ICMSP的儲存合作夥伴,BlueField-4 將於 2026 年下半年正式上市。首批合作夥伴包括 AIC、Cloudian、DDN、戴爾科技、HPE、日立資料系統、IBM、Nutanix、Pure Storage、超微(Supermicro)、VAST Data 和 WEKA。預計 NetApp、聯想(Lenovo)和 Hammerspace 也將後續加入。將KV快取解除安裝或擴展至NVMe SSD的架構理念,其實已有廠商率先實踐 —— 例如 Hammerspace的零級儲存技術(Tier zero tech)、VAST Data的開放原始碼軟體VAST Undivided Attention(VUA),以及WEKA的增強記憶體網格(Augmented Memory Grid)。戴爾也通過在PowerScale、ObjectScale和閃電計畫(Project Lightning,私人預覽版)儲存產品中整合LMCache和NIXL等技術,實現了KV快取解除安裝功能。這些均為基於BlueField-3的解決方案。如今,輝達旨在為所有儲存合作夥伴提供標準化的KV快取記憶體擴展框架。戴爾、IBM、VAST Data和WEKA已明確表示將支援 ICMSP。WEKA在題為《上下文時代已然來臨》的部落格中,詳細闡述了支援該平台的實施方案及核心原因,指出ICMSP是 “一類新型 AI 原生基礎設施,將推理上下文視為一級平台資源。這一架構方向與WEKA的增強記憶體網格高度契合,後者通過擴展 GPU 記憶體,實現了大規模、無限量、高速、高效且可復用的上下文儲存。”WEKA產品行銷副總裁Jim Sherhart表示:“為上下文資料套用為長期儲存資料設計的重量級持久性、複製和中繼資料服務,會產生不必要的開銷 —— 導致延遲增加、功耗上升,同時降低推理經濟性。”“推理上下文固然需要適當的管控,但它的特性與企業級資料不同,不應強行套用企業級儲存語義。傳統協議和資料服務帶來的開銷(如中繼資料路徑、小 I/O 放大、默認的持久性 / 複製機制、在錯誤層級施加的多租戶控制),可能將‘高速上下文’降級為‘低速儲存’。當上下文對性能至關重要且需頻繁複用的情況下,這種開銷會直接體現為尾部延遲增加、吞吐量下降和效率降低。”VAST Data 表示,其儲存/AI作業系統將運行在BlueField-4處理器上,“打破傳統儲存層級界限,提供機櫃級共享KV快取,為長上下文、多輪對話和多智能體推理提供確定性訪問性能。”VAST 全球技術合作副總裁John Mao稱:“推理正逐漸成為一個記憶體系統,而非單純的計算任務。未來的贏家不會是擁有最多原始計算資源的叢集,而是那些能以線速遷移、共享和管控上下文的叢集。連續性已成為新的性能前沿。如果上下文無法按需獲取,GPU 將陷入閒置,整個系統的經濟性將徹底崩塌。通過在輝達 BlueField-4 上運行 VAST AI 作業系統,我們正將上下文轉化為共享基礎設施 —— 默認高速、按需提供策略驅動管控,並能隨著智能體 AI 的規模擴展保持性能穩定性。”關於ICSMP,黃仁勳在CES 2026後答分析師會議上做了更多詳細的說明,其中最驚人的是黃仁勳表態希望未來輝達成為最大的儲存處理器公司,從而掌握更巨量資料話語權。Aaron Rakers- 富國銀行證券有限責任公司研究部:目前供應鏈面臨著諸多動態變化,比如 DRAM 價格、供應可用性等問題。我想瞭解你們對供應鏈的看法。黃仁勳(Jen-Hsun Huang:我們的供應鏈涵蓋了上游和下游。我們的優勢在於,由於我們的規模已經非常龐大,而且在如此大的規模下仍然保持快速增長,我們很早就開始為合作夥伴準備應對這種大規模的產能擴張。過去兩年,大家一直在和我討論供應鏈問題 —— 這是因為我們的供應鏈規模巨大,而且增長速度驚人。每個季度,我們的增長規模都相當於一家完整的公司,這還只是增量部分。我們每季度都在新增一家大型上市公司的規模。因此,我們在 MGX(機架級產品)方面所做的所有供應鏈最佳化工作。我們之所以如此注重元件標準化、避免生態系統和供應鏈資源浪費、並為合作夥伴提供大量投資(包括預付款支援),就是為了幫助他們擴大產能。我們談論的不是數百億美元,而是數千億美元的投入,以幫助供應鏈做好準備。因此,我認為我們目前的供應鏈狀況非常良好,這得益於我們與合作夥伴長期穩定的合作關係。而且,大家應該知道,我們是全球唯一一家直接採購 DRAM 的晶片公司。仔細想想,我們是全球唯一一家直接採購DRAM的晶片公司。有人問我們為什麼要這麼做?因為事實證明,將DRAM整合為CoWoS(晶圓級系統整合)並打造超級電腦的難度極大。而建立這樣的供應鏈體系,給了我們巨大的競爭優勢。現在市場環境雖然嚴峻,但我們很幸運擁有這樣的技術能力。說到功耗,看看我們的上游合作夥伴 —— 系統製造商、記憶體供應商、多層陶瓷電容器(MLCC)供應商、印刷電路板(PCB)供應商等,我們與他們都保持著緊密的合作。James Schneider- 高盛集團研究部:我想瞭解一下你們今天宣佈的上下文(Context)記憶體儲存控制技術。它在各類應用場景中的重要性如何?您是否認為它會成為某些特定客戶問題的性能瓶頸?我們是否可以期待你們在這個方向上繼續創新,就像你們過去在網路領域所做的那樣?黃仁勳(Jen-Hsun Huang):我們現在是全球最大的網路公司。我預計我們還將成為全球最大的儲存處理器公司,而且很可能我們的高端 CPU 出貨量也將超過其他任何公司。原因在於,Vera 和 Grace(以及 Vera 相關產品)已經應用於每個節點的智能網路介面卡(SmartNIC)中。我們現在是 AI 工廠的智能網路介面卡提供商。當然,很多雲服務提供商都有自己的智能網路介面卡(如亞馬遜的 Nitro),他們會繼續使用。但在外部市場,BlueField 系列產品取得了巨大的成功,而且 BlueField-4 將會表現更加出色。BlueField-4 的採用率(不僅僅是早期採用)正在快速增長。其上層的軟體層名為 DOCA(發音與 CUDA 相近),現在已經被廣泛採用。因此,在高性能網路的東西向流量(east-west traffic)方面,我們是市場領導者。在網路隔離的南北向流量(north-south networking)方面,我非常有信心我們也將成為市場領導者之一。而儲存領域目前是一個完全未被充分服務的市場。傳統的儲存基於 SQL 結構化資料,結構化資料庫相對輕量化。而 AI 資料庫的鍵值快取(KV caches)則極其龐大,你不可能將其掛在南北向網路上 —— 這會造成網路流量的巨大浪費。你需要將其直接整合到計算架構中,這就是我們推出這一新層級儲存技術的原因。這是一個全新的市場,很可能會成為全球最大的儲存市場 —— 它將承載全球 AI 的工作記憶體。這種儲存的規模將是巨大的,而且需要極高的性能。我非常高興的是,目前人們進行的推理工作負載已經超出了全球現有基礎設施的計算能力。因此,我們現在處理的上下文(Context)記憶體、令牌記憶體和鍵值快取的規模已經非常龐大,傳統的儲存系統已經無法滿足需求。當市場出現這種拐點,而你又有遠見能夠預見它的到來時,這就是進入一個新市場的最佳時機。而 BlueField-4 在這一領域具有絕對的競爭優勢,沒有任何產品能與之匹敵。Ken Chui- Robocap:我的問題同時涉及利潤率和技術。你們目前已經擁有 CPX 技術,通過收購 Grok,你們還獲得了可用於推理的 SRAM 技術。此外,你們的團隊一個月前發表了一篇論文,討論如何在 GPU 中使用 CPX 技術,從而減少對 HBM 的依賴 —— 因為可以用 GDDR7 替代 HBM。我們都知道 HBM 的成本非常高。因此,未來通過結合 Grok 的技術和你們內部的 CPX 技術,你們對 HBM 的使用會有何變化?這是否能更好地控制 HBM 的使用成本,從而對利潤率產生積極影響?黃仁勳(Jen-Hsun Huang):當然。我可以先描述一下這些技術各自的優勢,然後再談談面臨的挑戰。例如,CPX 在每美元預填充性能(prefill per dollar)方面比普通的 Rubin 更有優勢 ——Rubin CPX 的每美元預填充性能高於普通版 Rubin。如果將所有資料都儲存在 SRAM 中,那麼當然不需要 HBM 記憶體。但問題是,SRAM 能夠支援的模型規模比 HBM 小 100 倍左右。不過,對於某些工作負載來說,SRAM 的速度要比 HBM 快得多,因此性能會極其出色。因此,我認為它在預填充(prefill)和解碼(decode)等場景中會有明顯優勢。但問題在於,工作負載的形態一直在變化 —— 有時是混合專家模型(MOE),有時是多模態模型,有時是擴散模型(diffusion models),有時是自回歸模型(auto regressive models),有時是狀態空間模型(SSMs)。這些模型的形態和規模各不相同,對 NVLink、HBM 記憶體或其他元件的壓力也會不斷變化。因此,我的觀點是,由於工作負載變化如此之快,而且全球的創新速度也在加快,輝達之所以能夠成為通用解決方案,正是因為我們的靈活性。大家明白我的意思嗎?如果你的工作負載從早到晚都在變化,而且客戶需求各不相同,那麼我們的產品具有很強的通用性,幾乎適用於所有場景。你可能能夠針對某一種特定工作負載進行極致最佳化,但如果這種工作負載只佔總負載的 10%、5% 甚至 12%,那麼當它不被使用時,這部分資料中心資源就被浪費了 —— 而你只有 1 吉瓦的電力資源。關鍵在於,你不能把資料中心看作是擁有無限資金和空間的資源,而是要在有限的電力下實現整體利用率的最大化。架構越靈活,整體效益就越好。如果採用統一的架構 —— 例如,當我們更新 DeepSeek 模型時,資料中心內所有 GPU 的性能都會立即提升;當我們更新通義千問(Qwen)模型的庫時,整個資料中心的性能都會提升 —— 這樣的協同效應是非常顯著的。但如果你有 17 種不同的架構,每種架構只適用於特定場景,那麼整體的總擁有成本(TCO)反而會更高。這就是面臨的挑戰。即使在我們研發這些技術時,也非常清楚這一點 —— 這非常困難。 (EEPW)
輝達+禮來,押注AI製藥
近日在第44屆摩根大通(JPM)全球醫療健康大會上,輝達與禮來宣佈,雙方將在未來五年內投入10億美元,在舊金山灣區建設一座聯合研究實驗室,旨在加速人工智慧在製藥行業中的應用。此番合作算不上突然,早在去年10月,禮來便宣佈將部署全球規模最大、性能最強的AI製藥工廠,該設施採用基於輝達Blackwell架構的DGX超級叢集。禮來董事長大衛·裡克斯(David. Ricks)表示:“將我們海量的資料和科學知識與輝達的計算能力和模型建構專長相結合,有望徹底革新我們所知的藥物研發模式。”後續,雙方合作將著重建構一個持續學習系統,將禮來公司的智能濕實驗室與計算干實驗室緊密連接,從而實現全天候人工智慧輔助實驗,為生物學家和化學家提供支援。作為AI應用的重要分支,AI製藥在當下愈發普及。綜合多券商研報觀點,AI製藥核心價值在於大幅提升藥物早研效率,以英矽智能Pharma.AI為例,其能夠使候選藥物從靶點發現到臨床前候選藥物確認時間從4.5年大幅縮短到12至18個月,從而使早研階段的投入產出比大幅提升。據《科創板日報》不完全統計,數家跨國藥企在近期均已牽涉AI製藥技術:2026年1月,賽諾菲與華深智藥旗下Earendil Labs宣佈將戰略合作總價值提升至25.6億美元,後者將利用AI發現平台為前者最佳化新型雙特異性抗體;2025年11月20日,默克宣佈與生物技術公司Valo Health達成30億美元戰略合作,將利用人工智慧平台快速生成臨床前化合物。廣發證券認為,AI製藥領域已逐漸得到標竿性客戶商業認可,但處於從零到一處理程序。2025年第三季度全球AI製藥的訂單已經有逐漸升溫的態勢,審慎角度估計,至2026年下半年AI製藥會有行業性里程碑事件的突破,驗證AI製藥的有效性和效率,從而通過對市場規模的認可實現相關個股的市值突破。▌AI醫療迎來黃金發展期在黃仁勳看來,人工智慧正在改變各行各業,而其影響最為深遠的領域將是生命科學。事實上,為AI所惠及的生命科學領域或遠不止製藥本身。如輝達和禮來,除了藥物發現之外,雙方未來還將探索在臨床開發、製造和商業營運中應用人工智慧的機會,包括在工廠中使用物理人工智慧和機器人技術。日前馬斯克則提及,3年內機器人在手術技能上將超越人類。除此之外,近來行業在AI醫療保健領域亦催化不斷。國內螞蟻阿福新版的月活躍使用者數已達3000萬,相較於一個月前實現翻倍;海外OpenAI官宣推出“ChatGPT健康”,旨在幫助使用者獲取健康資訊。就在昨日,該公司宣佈收購醫療保健初創公司Torch,從而進一步增強ChatGPT健康的功能。財信證券認為,AI醫療產業正迎來黃金發展期。醫學影像AI輔助診斷、智能手術機器人、藥物研發AI平台等創新成果加速落地,產業鏈上下游協同發力,形成從演算法研發、資料服務到產品應用的完整生態。未來,隨著人工智慧技術的持續發展和群眾醫療健康需求持續提升,AI醫療領域有望進一步擴容。投資方面,國金證券指出,醫療器械、創新藥等領域則仍需等待集采政策最佳化或重磅技術突破,整體持續性可能弱於科技主線。但結構性機會,尤其是與創新技術結合的領域,依然值得關注。華源證券表示,AI大科技浪潮下,醫藥有望釋放新的成長邏輯,腦機介面、腫瘤早篩、AI醫療等快速發展。展望2026年,繼續看好以創新為主的醫藥科技主線。方正證券指出,AI驅動醫療產業形成新增長極,持續看好AI+醫療在製藥、基礎研究、診療和健康管理等方面的革命性潛力:1)聚焦資料和裝置兩大剛需賽道;2)AI製藥迎來關鍵催化節點,全球首款AI設計藥物INS018_055臨床前周期壓縮60%;3)AI健康管理在端側落地加速,政策端國家巨量資料局推動醫療資料要素開放,進一步釋放商業化潛力。 (科創日報)
巨額「收編」Groq,輝達意欲何為?
黃仁勳200億美元買的是Jonathan Ross這個人。「黃仁勳這200億美元,買的其實就是Jonathan Ross這個人 ,押注在此輝達未來可能會賺回三倍的錢,所以200 億美元實在不算貴。」某投資人近日向雷峰網透露。2025年12月24日,輝達以其史上最大規模交易額200億美金,將推理晶片獨角獸Groq的核心技術與團隊收入麾下。Groq創辦人、GoogleTPU初代核心開發者Jonathan Ross帶隊加盟輝達,其獨創的LPU晶片技術將融入輝達AI Factory架構。當下AI產業正從“規模競賽期”轉向“效率價值兌換期”,推理側需求大於訓練側需求已成為普遍共識。面對推理市場的爆發式成長,Groq的專屬LPU晶片以5-10倍於GPU 的速度優勢,以及1/10的成本優勢,成為異軍突起的核心玩家,而黃仁勳最終還是選擇了將這條攪動市場的鯰魚收入囊中。這究竟是招安潛在對手的緩兵之計,還是壟斷推理市場的霸權佈局?01重金收編的核心是什麼?2026年CES大會期間,輝達管理層在面向投資者的會議上強調,此次收購Groq不會對核心業務產生衝擊,反而將為公司開闢全新的成長空間。而這樁被包裝成「非獨家技術授權」的交易,本質是矽谷近年來流行的「收購式招聘」的升級版:用授權的名義實現「人才+技術」的雙收。瑞銀分析師團隊在研報中直言:“這是一場沒有收購之名的完全收購,輝達用最小的監管風險,獲得了最核心的戰略資產。”根據披露信息,輝達所支付的200億美元中,130億已即時到帳,剩餘款項中包含核心員工的股權激勵,其中Groq CEO Jonathan Ross個人獲得數億美元輝達股權。團隊核心成員幾乎全員轉入輝達,晶片設計、編譯器開發等核心資產也盡數歸入輝達體系。「黃仁勳這200億美元買的其實就是Jonathan Ross這個人,因為Jonathan Ross是個非一般意義的天才。如果拿黃仁勳類比傑夫里辛頓(深度學習教父)的話,那Jonathan Ross就要類比伊利亞(OpenAI聯合創始人兼首席科學家)。」苔蘚花園播客主理人、資深募資投資新籌網。身為Google初代TPU的核心設計者,Jonathan Ross早在2016年Groq成立時就已預判推理將成為規模化難題,並率先提出「推理市場規模終將遠超訓練」。他提前洞悉到推理的核心需求是“低延遲、高能效、低成本”,而不是計算密度。因此他摒棄了GPU架構改良思路,從零打造專為推理設計的LPU架構。LPU架構完全圍繞著「消除資料搬運延遲」展開,採用無外置記憶體、全片上SRAM作為主記憶體的設計,片上頻寬達80TB/s,是Blackwell B300 的HBM頻寬8TB/s的10倍。成本方面,Jonathan Ross曾在福布斯獨家專訪中公開聲明,“Groq LPU在LLM推理速度快10倍同時,成本是Nvidia GPU的1/10,功耗是Nvidia GPU的1/10。”這種集性能與成本優勢於一身的提升,精準擊中了輝達在推理賽道的核心短板,也成為黃仁勳不惜斥資200億果斷出手的關鍵所在。另一方面,回溯輝達過往的併購佈局便不難發現,這場交易也並非偶然。2000年,輝達以7,000萬美元+100萬股普通股收購了3dfx核心圖形資產,奠定GPU領域統治基礎;2013年,收購了HPC編譯器龍頭PGI,強化了CUDA生態在高效能運算領域的核心支撐;2019年,以約69億美元收購了Mellanox,全程資料中心網路數據中心。王韋華認為,「LPU現在已經不是0億美金市場了,但黃仁勳再次早於別人發現了LPU的重要性。輝達現在收購Groq,甚至比2019年收購Mellanox的重要性要更大,這一步直接讓輝達在推理端領先兩三年。雖然在輝達整個數據中心的槓桿作用中佔比大優勢,但只要在經濟上保持巨大推理。儘管Groq目前的市佔率遠未對輝達構成直接威脅,但它掌握的可重構資料流架構,代表了AI推理的未來方向。輝達此次用200億美元「買斷」這條技術路線,正是「技術補位+生態壟斷」併購策略的延續。而這種不計短期成本、鎖定長期技術優勢的大手筆操作,底氣完全來自其充沛到近乎「過剩」 的現金流。根據輝達最新財報,光是2026財年Q3,輝達的自由現金流便達到了220.89億美元。02為什麼是Groq?當下,全球僅有兩個團隊掌握TPU架構技術:Google與Groq。在此之前,Google憑藉TPU訓練出優質模型引發市場關注,導致輝達股價受挫,此次收編補齊了其在TPU架構路線上的短板,在鞏固行業地位的同時為其估值提供了重要支撐。王韋華表示,「輝達這次押注LPU不單是為了對抗谷歌的TPU,TPU專注於矩陣運算,更多還是強調在訓練方面的優勢。LPU 其實跟TPU 相比的話,更專注於推理這一塊。以後在推理這塊誰能省最多的電?目前在速度上面最有優勢?身為GoogleTPU的核心締造者,Jonathan Ross深知GPU處理線性代數運算時的架構冗餘,離開Google後他以第一原理為核心,選擇SRAM作為核心儲存、透過編譯器規劃資料路徑,打造低延遲LPU產品,其TPU開發經驗直接決定了Groq「順序延遲優先」的技術路線。從GoogleTPU的靈魂人物,到出走自立門戶成立Groq,過程中的勢力角逐,歡迎加入作者微信 IHAVEAPLANB- 交流。業內人士告訴雷峰網,TPU架構的運算效率遠超GPU的原因在於,GPU需經歷「運算-傳資料至儲存-讀寫-再運算」的循環,而TPU採用片上儲存直接運算,省去了資料往返儲存的環節,效率極高。當token的吞吐量效率落地到使用者體驗層面,Jonathan Ross表示,回應時間每縮短100 毫秒,桌面端用戶參與度就能提升8%,行動裝置更是高達34%。業界早已形成共識:當使用者體驗的回應時間控制在250到300毫秒以內時,商業收益才能最大化。根據Groq 官方訊息,實測數據顯示Groq LPU在運行Llama 3.3 70B模型時,token生成速度達284tokens/s,首token響應時間僅為0.22s,運行混合專家(MoE)模型時更是突破460 tokens/s。圖片來源:Groq官網這種極致性能讓Groq斬獲沙烏地王國15億美元業務承諾資金,也讓輝達意識到,要統治推理市場需補齊這一短板。輝達先前推出的H200、B300等推理優化晶片,本質仍是基於GPU架構的改良,未能突破馮諾依曼架構的先天局限,而谷歌TPU、AMD MI300等競爭對手,均在專用推理架構上持續發力。更嚴峻的是,Meta、Google等大客戶開始尋求算力供應多元化,Anthropic甚至宣佈接入100萬個谷歌TPU建構計算集群。在此背景下,收購Groq成為輝達快速搶佔推理高地、留住核心客戶的最優解。「輝達真正擅長的是訓練,在這一領域它是最出色的。輝達既不提供高速的token處理服務,也沒有低成本的token解決方案,這便是Groq要解決的問題。”在被輝達納入麾下之前,Jonathan Ross曾在播客中公開聲明,輝達與Groq並非競爭對手,二者的產品完全是不同維度的存在。然而事實果真如此嗎?某機構分析師張簡告訴雷峰網:「輝達要忌憚的,是Groq代表的「去GPU化」技術路線可能引發的產業變革。輝達的霸權建立在「GPU+CUDA生態+HBM/CoWoS稀缺產能「的三重護城河上,而Groq的技術路線恰恰繞開了這三大壁壘:可重構架構無需依賴CUDA生態,採用GlobalFoundries和三星代工,不佔用台積電稀缺的CoWoS產能。”「一旦這條路線跑通,意味著AI晶片的生產門檻將大幅降低,其他設計公司無需依賴稀缺供應鏈就能大規模生產推理晶片。輝達以200億美元收編Groq,意味著將這條潛在的顛覆路線握在自己手中,確保算力革命的主導權不旁落。”03推理市場變天?「為了成為心血管外科醫生,你不可能花費一生95%的時間接受培訓,真正手術的時間只佔5%。實際情況恰恰相反:你經過短暫培訓,隨後便會用餘生持續實踐這項技能。」對於推理市場未來的演進趨勢,Jonathan Ross曾打過這麼一個比方。2025年初Deepseek橫空出世時,Jonathan Ross將其稱為AI行業的「斯普特尼克時刻」;當下,推理市場也許將再次進入「斯普特尼克時刻」。據悉,在收購Groq後輝達會將LPU作為專用的DAC硬體單元嵌入CUDA生態系中,以維持CUDA編程的通用性。短期內,輝達會透過NVFusion快速整合LPU;長期來看,則會在底層架構和編譯器層面實現協同設計,從而滿足效能場景下的高效能需求。由於推理場景和訓練場景有顯著差異,無法透過單一架構解決所有問題,不同推理場景對大模型的工作負載要求各異,所以推理晶片架構將呈現多樣化,需要針對細分場景進行最佳化。業界人士爆料,輝達下一代Feynman GPU或將於2028年整合Groq的LPU單元,採用類似AMD X3D方案的獨立晶片堆疊設計,即利用台積電的SoIC混合鍵技術將3D V-Cache晶片整合到主運算晶片上。可能搭載LPU單元的Feynman晶片,圖片來源:Wccftech考慮到SRAM的擴展性有限,將其作為單元晶片整合到Feynman GPU中可能並非明智之舉,因為在先進製程上構建SRAM將導致高端矽片的浪費,並大幅增加每片晶圓面積的使用成本,因此輝達很可能會將LPU單元堆疊到Feynman晶片上。「這樣一來,像A16(1.6奈米)這樣的晶片將用於主Feynman晶片,而獨立的LPU晶片將包含大型SRAM存儲體。此外,為了將這些晶片連在一起,台積電的混合鍵合技術至關重要,因為它能提供更寬的接口,並且與封裝外存儲器相比,每比特能耗更低。可要做到上述也絕非易事,目前的主要問題仍在於CUDA在LPU風格執行中的行為方式,因為它需要明確的記憶體佈局,而CUDA核心設計初衷是為了實現硬體抽象。對於輝達團隊而言,在AI架構中整合SRAM難度極高,這需要「工程奇蹟」來確保LPU-GPU環境得到充分最佳化。然而,如果輝達想要主導推理市場,這或許是其願意付出的代價。本文作者長期聚焦海外To B半導體科技巨頭,更多公司動態、產業邏輯、價值投資訊息,歡迎加入作者微信IHAVEAPLANB-交流探討。(雷峰網)
【CES 2026】觀察:你在山頂建高塔,我在平原鋪大路
今天我們來說說CES,CES全稱是國際消費電子展,也被稱為“科技界春晚”。1月6日到9日,2026年的CES在拉斯維加斯舉行,來了超過4100家參展商,14.2萬名參會者,覆蓋全球56個國家和地區。同樣是創新展示,CES和《自然》《科學》這樣的學術期刊有個明顯區別。簡單說,學術期刊告訴你科學的前沿在那裡,而CES告訴你,產業的錢會往那裡流。今年的CES,有那些值得關注的資訊呢?接下來,我們就展開說說。01為什麼黃仁勳的開幕演講特別受關注?CES上的展品,背後的技術原理你大機率已經聽說過。比如,AI、機器人、自動駕駛,這些概念早就有了。CES展示的是,這些技術怎麼變成產品,怎麼走向市場。換句話說,CES展示的不是創新本身,而是科技公司的選擇,那些技術被選中開展商業化了,那些產品形態被押注了。但也要注意,CES上的展品,不都是即將量產的成熟產品,也有很多是探索性、概念性的產品。這也是為什麼總有人說,假如你想看到未來幾年成功的產品,就去CES,假如你想看到未來幾年會失敗的產品,也去CES。第一,今年最出圈的資訊,不是具體展品,而是黃仁勳在開幕前的主題演講。為什麼黃仁勳的開幕演講特別受關注?首先,這是個身份象徵,誰來做開幕演講,基本就說明了,那家公司是當今科技界最有話語權的,至少是最有話語權的企業之一。比如,2016年做開幕演講的,是英特爾CEO科再奇,2023年是AMD的CEO蘇姿丰。而這兩年,一直是黃仁勳。在黃仁勳登台的時候,輝達的市值是4.57兆美元,雖然已經不及巔峰期的5兆,但依然是那一刻地球上市值最高的公司。其次,這場演講在一定程度上,像一枚指針,告訴你未來的趨勢大致是什麼。今年,黃仁勳最核心的判斷是,計算產業正在經歷雙重平台轉移。什麼叫雙重平台轉移?第一重轉移,是應用層的變化。過去,AI只是一個應用程式,你打開ChatGPT,跟它對話,它給你答案。但現在,AI上升了一個維度,它本身變成了建構應用的平台。你可以直接使用AI替你程式設計,替你開發應用。AI不再是工具,而是基礎設施。第二重轉移,是計算層的變化。過去軟體開發靠“程式設計”,寫程式碼,在CPU上運行。現在軟體開發變成了“訓練”,喂資料,在GPU上運行。在演講中,黃仁勳還發佈了輝達的新產品,Vera Rubin六晶片平台。你可以不用記這個具體名稱,只需要知道,所有輝達的產品,核心目標都是一致的,讓訓練性能更高,讓訓練成本更低。比如這回發佈的晶片平台,據說能把模型的訓練成本降低80%,原來需要10台伺服器,使用新的晶片平台之後,只需要2台就夠了。當然,需要注意的是,黃仁勳畢竟是輝達的CEO,他的發言多少帶有公司利益的考量。你看,雙重平台轉移這個說法,正好把輝達的GPU,推到了AI浪潮的中心位置。但即便考慮到這層利益關係,這個判斷仍然值得關注,因為輝達確實是目前AI算力市場的主導者,它的戰略選擇,也會直接影響整個產業的走向。但這回最讓人在意的,並不是黃仁勳發佈的算力產品,而是輝達的“物理AI”戰略。所謂物理AI,就是能理解現實世界的規律的AI,這個概念我們以前講過很多次。它有很多近義詞,包括,世界模型、具身智能等等。這些詞雖然具體含義不同,但總體指向的都是同一個技術趨勢。這就是,讓AI真正理解物理世界的規律,並且在現實世界裡干“體力活”。基於這個“物理AI”戰略,黃仁勳發佈了兩個新產品,一是輝達自己的世界基礎模型平台,Cosmos。二是自動駕駛AI模型,叫,Alpamayo。據說奔馳的CLA,將成為首款搭載完整輝達自動駕駛系統的量產車,2026年第一季度在美國上市。換句話說,輝達已經不只是一家晶片公司了。它的目標,也許是成為物理AI時代的基礎設施平台。從晶片、網路、儲存,到模型、開發工具,再到應用場景,建立一個完整的技術堆疊。這也是為什麼很多人說,輝達的野心是成為物理AI時代的“Android”。02人形機器人開始進入“准量產”階段說完開幕演講,再說展會上的那些值得關注的現象。第一個現象,人形機器人,開始進入“准量產”階段。注意,是准量產,也就是,很多廠商開始為量產做準備。今年的展會上,有大量人形機器人公司,開始談量產、談部署、談價格。比如,波士頓動力的Atlas,首次走出實驗室公開登台。這個機器人能舉起約50公斤重物,關節可以360度旋轉。波士頓動力的母公司現代汽車表示,計畫每年生產3萬台。再比如,宇樹科技的G1人形機器人,售價1.6萬美元。大概是一輛普通家用車的價格。開展第一天,就全都被預訂了,連樣機都賣完了。而下一步,這個產品的成本可能會繼續降低,因為它所需要的供應鏈,從精密零部件到整機組裝,整條產業鏈都在國內。這讓成本能降下來,也能讓迭代速度快起來。換句話說,人形機器人這個賽道,正在從“技術競賽”變成“工程化競賽”。誰能把成本降下來,誰能量產,誰就有機會。03可持續發展從“追求”變成了“門檻”第二個現象,可持續發展漸漸從“追求”變成了“門檻”。過去企業做環保,屬於“更高追求”,而現在做環保,已經成了一些市場的“准入門檻”。為什麼?這主要與歐盟市場的變化有關。歐盟碳邊境調節機制,2026年正式開始徵收。簡單說,就是假如你的產品生產過程中碳排放高,出口到歐盟就要交碳稅。假如你在環保上做的不到位,產品在歐洲市場就沒有競爭力。所以在今年的CES上,能源、電池、循環設計這些產品明顯多了。比如輝能科技展示的固態電池,能充放電5000多次。什麼概念?普通手機電池充放電500次左右就開始衰減了,這個是它的10倍。還有產品設計的變化。聯想的筆記型電腦,USB介面、電池、鍵盤、揚聲器都能單獨換。壞了那個換那個,不用整台扔掉。這種設計以前很少見,因為企業通常更希望你買新的。但現在,可修復性成了賣點。04AI硬體從炫技走向實用第三個現象,AI硬體從炫技走向實用。過去的AI硬體是什麼樣?各種概念產品,看著很酷,但它的主要目的是展示探索方向,而不是解決實際問題。但是,今年不一樣,產品開始越來越側重實用功能。比如,智能鏡櫃,你早上洗漱的時候,它通過光線分析你的皮膚狀態。配合智能牙刷檢測唾液成分,能提示你可能缺什麼營養,或者有沒有炎症風險。再比如,晶片領域的競爭。英特爾、AMD、高通都在做一件事,讓你的手機、電腦能在本地運行AI模型,而不是每次都要聯網。因為聯網意味著你的資料要上傳到雲端,本地運行意味著資料不出你的裝置,更安全,反應也更快。05中國企業在CES上的表現最後,咱們再說說今年中國企業在CES上的表現。首先,最受媒體關注的是,中國企業佔了C位。以前中央展廳最大的位置是韓國的三星,而今年,變成了中國的TCL。但是這裡有個資訊需要注意,三星今年移到了威尼斯酒店的獨立場館。這個選擇,三星有自己的考慮,獨立場館可以做更有針對性的技術洽談。但從展會地位的象徵意義來看,中央展廳是CES最核心的主舞台,誰能佔據這個位置,意味著誰能拿到最大的曝光。但更值得關注的,不是展位大小,而是中國企業在產品層面的進展。以人形機器人為例。38家參展機器人企業中,21家來自中國,佔比55%。從過去一年的市場表現上看,中國公司也是這個領域最重要的參與者之一。比如,國內的智元機器人,2025年出貨量5168台,佔全球市場份額39%,全球出貨量第一。再比如,與汽車相關的技術,比如吉利展示的AI座艙、小鵬的飛行汽車,都引起了很多關注。這些產品的共同特點是什麼?都需要軟體硬體緊密結合。你要讓AI能理解你的意圖,讓機器人能完成精細操作,這些都需要演算法、資料、工程化能力的配合。換句話說,中國企業的優勢,不在於單一的軟體設計或硬體製造,而是把AI能力和硬體能力結合起來的系統能力。過去一年,經濟學家何帆老師考察了很多國內的AI公司。關於中國AI創新最核心的特點,何帆老師認為,可以用一句話概括,很多國外企業在講“All in AI”,而中國企業是“AI in All”。一個是押注少數巨頭,在山頂建高塔。一個是普及所有行業,在平原鋪大路。至於那個策略更好,關鍵要看,你的技術路徑,是否匹配你的市場特性。就像何帆老師說的,技術有不同的性格,市場也有不同的性格,只有技術性格與市場性格匹配,才能釋放出巨大的潛能。最後,假如你想瞭解更多中國AI產業過去一年的進展,推薦你看看何帆老師今年的《中國經濟報告》,裡面有更加深入的觀察。 (羅輯思維)
【CES 2026】黃仁勳最新CES演講提醒:AI正走進真實世界,孩子成功的分水嶺也變了
1月5日的CES2026大會上(全球科技圈的“開年大秀 + 趨勢風向標”),黃仁勳在拉斯維加斯又穿著那件熟悉的皮衣上台了,開口先丟出一句很狠的話:“The ChatGPT moment for physical AI is nearly here.”翻譯一下:語言AI(主要在數字世界工作,比如我們熟悉的各種大模型助手)負責把話說漂亮;但他真正興奮的是下一步:物理AI(physical AI)要開始走進真實世界,解決具體問題,把事做成。黃仁勳還提到,輝達下一代AI平台Rubin正在走向量產階段——因為,要讓AI真走進現實,不能只靠“一塊更強的晶片”,而要靠從晶片到系統與基礎設施的一整套平台,把迭代跑起來。AI如此,某種程度上,人其實也一樣。黃仁勳強調的分水嶺是“系統”:能讓AI把反饋變成更新,把試錯變成升級。放到教育裡:決定孩子長期上限的,不是當下的強,而是有沒有一套個人發展的系統——確保他們進了更複雜的世界,還能繼續變強。我們已經很擅長訓練孩子在“紙面世界”裡贏:刷題、拿分、做漂亮的成果展示。大多數學校和家庭培養孩子的方式,是把錯誤當成失敗:錯一道題,扣分;寫一篇文章,改得越少越“厲害”;做一件事,最好一次成型。久而久之,孩子很會避免失敗,也很會在標準評估系統裡拿高分。可一旦走進沒有標準答案的真實世界,面對更複雜的任務和選擇——要在不確定裡做判斷、要在挫折裡調整策略,要協作、要溝通——很多孩子反而會卡住。因為,真實世界不會給你標準答案,你只能在反饋裡調整,在碰壁裡迭代。在今天的美本申請裡,“紙面世界的能力”已經被捲到極致:高分、競賽、科研、活動——這些都越來越像一塊精緻的成就展示板。它當然重要,但它也越來越像:同樣的分數段、同樣的“優秀敘事”,放在同一個池子裡,區分度太低。所以招生官真正頭痛的問題是:我怎麼判斷這個孩子進入更複雜、更開放、沒有標準答案的大學環境後,仍然會繼續變強?這就是幫孩子建立個人發展系統的價值——它決定了兩件事:對於“展示板已經很漂亮”的孩子,它讓你的優秀更可信:不是偶然的結果,而是可持續的能力。對於“展示板看起來沒那麼漂亮”的孩子,它讓你的潛力能被預期:你也許不是起跑最快的人,但你已經有一套會持續加速的系統。所以,回到AIR,我們一直在做的,其實不是把孩子的“成就展示板”再擦亮一點——那條路大家都在卷,而且越卷越同質化。我們真正做的是另一件更底層、也更難的事:幫助孩子通過準備申請,建立起一套個人發展系統,並把它變成頂級大學讀得懂、信得過的申請材料。所以我們才說,申請不是一場“包裝競賽”,而是一段個人發展的加速期。當一個孩子的系統真的跑起來了,頂級大學當然更願意押注他的未來。如果你今晚已經在研究下一波physical AI的賠率——那我想提醒一句:最值得長期押注的資產,其實就在你家餐桌旁。教育也有浪潮,只是它的回報周期更長、波動更大、但一旦跑通,複利更可怕。AIR做的,就是把孩子那套“進了真實世界也會持續升級”的系統跑起來。浪潮已來,各位優秀的投資家,別只盯著市場,也盯盯你家那位“長期資產”。想瞭解怎麼跑通孩子的個人發展系統,歡迎來和我們聊聊。 (AIR氧氣工場)
【CES 2026】黃仁勳的推理戰爭-AI推理成本暴跌90%
上一會還在沉浸在機器人,車機在 CES 的震撼(見當科技停止講故事,開始拼執行力:從 CES 2026,看全球科技進入“現即時代”),下一秒拉斯維加斯的CES展會剛結束,那個永遠穿黑色皮衣的老黃——黃仁勳,又讓整個科技圈坐不住了。這次他沒有再站在台上喊"我們的算力有多強",而是拋出了一個更實在的問題:"用AI太貴了,得降價。"聽起來有點像淘寶商家的思路?但這次不一樣。當大家還在為搶到NVIDIA上一代晶片擠破頭時,他直接甩出了下一代平台——Rubin。更關鍵的是,他喊出了一句話:訓練AI的戰爭結束了,接下來打的是推理戰爭。(圖片來源@dotey)01 什麼是"推理戰爭"?先說個簡單的例子。想像你在學開車。"訓練"就是駕校教練一遍遍教你的過程,需要時間和教練的精力。AI公司這幾年就是這麼幹的——砸錢買幾萬塊GPU,沒日沒夜地訓練模型。"推理"就是你自己開車上路,每次看到紅綠燈做判斷、遇到行人踩剎車。這才是AI真正被使用的時候。過去三年,科技巨頭們瘋狂干的事就是"訓練"——花大錢、用成千上萬塊GPU,把ChatGPT、Claude這些模型訓練得越來越聰明。但問題來了:模型是聰明了,真正用的時候太貴了。就像你花100萬請了個世界冠軍教你開車,結果每次出門還得再付100塊"使用費"。出門一趟兩趟還好,天天誰受得了?這就是黃仁勳要解決的問題:讓AI真正用得起。這次CES上,他沒再吹"我們的晶片有多牛",而是一直在講"怎麼把成本打下來"。Rubin平台這次能做到什麼程度?同樣的AI任務,成本只要原來的十分之一。以前花1美元能做的事,現在10美分就夠了。什麼概念?就像你原來打一次車要100塊,現在降到10塊,原本偶爾打打車,現在可能天天打都無所謂。只有算力便宜到這個份上,AI應用才能真正爆發。02 Rubin是怎麼做到的?NVIDIA這次玩了個新花樣。以前顯示卡時代,大家都想著怎麼把單塊顯示卡做更強。有點像小時候搭積木,總想著搭個最高的塔。但黃仁勳說:單塊積木再高也有限制,不如搭個"團隊"。所以Rubin平台一口氣放出了6塊不同的晶片:Rubin GPU:負責"計算"的大腦Vera CPU:負責調度的管家NVLink 6:連接所有晶片的高速公路還有其他幾塊專門負責網路、資料流動的晶片這6塊晶片不是隨便湊一起,而是像一支配合默契的足球隊——前鋒、中場、後衛、守門員各司其職,比一個人單打獨鬥強多了。最終結果呢?整個平台的推理性能達到上一代的5倍。成本反而降到了1/10。這就是"團隊作戰"的威力。特別要說一下NVLink 6。精準地說:NVLink 6是連接多塊GPU的"高速公路",頻寬達到3.6TB/s。它讓多塊GPU能像一塊一樣協同工作,是實現相較於上一代有"5倍性能提升"的關鍵一環,但不是唯一因素。整個5倍提升是6塊晶片一起發力的結果。有點像裝修房子:NVLink 6是寬敞的走廊,讓各房間連接順暢但房子好不好用,還得看客廳、臥室、廚房怎麼配合03 讓AI學會"思考"光有便宜的算力還不夠,AI還得"聰明"。之前很多自動駕駛AI像什麼?像只會條件反射的蟲子。看到紅燈停,看到綠燈行,遇到沒見過的情況就懵了。NVIDIA這次開放原始碼的Alpamayo模型,想教AI學會"思考"。什麼意思?想像你在開車,突然遇到一個壞掉的紅綠燈——既不紅也不綠,就那麼黃燈閃啊閃的。條件反射式的AI會怎麼做?可能直接卡住,因為"題庫"裡沒這題。但真正會"思考"的AI會琢磨:周圍的車在幹嘛?大家都在慢慢通過,看來可以走。但要小心點,隨時準備剎車。這種"琢磨"的過程,就是Alpamayo想教給AI的能力。它加入了"思維鏈"功能,讓AI不再是死記硬背,而是學會像人一樣推理。有人說得挺形象:以前的AI是背題庫,Alpamayo是教機器解題的方法。更關鍵的是,NVIDIA把這個模型開源了——相當於把解題思路免費公開,讓誰都能拿去用。為何這麼做?用黃仁勳的話說:軟體都免費了,開發者想用好,自然就得買NVIDIA的硬體來跑它。這招挺聰明的。就像印表機廠家把印表機賣得很便宜,靠賣墨盒賺錢。NVIDIA是把"墨盒"免費了,但你要用還得買它的"印表機"。04 這對普通人意味著什麼?說了這麼多,跟普通人有啥關係?如果你是個使用者:以後你用的AI應用可能會更便宜。因為算力成本降了,那些靠AI生成的圖片、視訊、客服聊天,價格都可能跟著降。如果你是個開發者:搭AI應用的成本會大幅降低。以前可能因為太貴不敢做的項目,現在可以試試了。而且NVIDIA開源了Alpamayo,你可以直接拿去用,不用從零開始。如果你是投資者:NVIDIA在賭下一個大方向:AI從"實驗室"走向"真實世界"。你看它這次和奔馳合作,直接把整套自動駕駛系統裝到2026年上市的CLA車型上。還在往人形機器人領域使勁。ChatGPT只是AI的開始,真正的大市場是那些能跑、能跳、能幹活的機器。總之,AI可能真的要從"昂貴的高科技玩具"變成"像水電一樣的基礎設施"了。至於這一天什麼時候真正到來?那就看Rubin平台2026年下半年正式出貨後的表現了。05 摩爾定律慢下來了,黃仁勳沒有摩爾定律說的是晶片性能每18個月翻一番。但現在這個定律已經明顯慢下來了——物理快到極限了。但黃仁勳沒有等。從Hopper到Blackwell,再到現在的Rubin,NVIDIA的節奏從來不是等摩爾定律來推自己,而是自己去推摩爾定律。這次CES傳達的訊號很明確:造更聰明的AI時代過去了,接下來要讓AI用得起。這才是AI真正走進千家萬戶的開始。 (白羊武士弗拉明戈)