#算力
【CES 2026】復盤:算力的“階級固化”與端側AI的“暴力美學”
如果說2024年是AI PC的概念元年,2025年是架構混戰的亂紀元,那麼CES 2026則標誌著晶片行業正式進入了“存量博弈”與“暴力落地”並存的新階段。穿梭在拉斯維加斯的展館,一種微妙的壓抑感取代了往年的狂熱。我們看到的不再是百花齊放的創新,而是巨頭們在物理極限和供應鏈瓶頸下的極限拉扯。一、 趨勢拆解:三大戰場的格局重塑PC戰場的“降維打擊”:高通 Snapdragon X2 與“80 TOPS”的新基準CES 2026上,Qualcomm再次扮演了“攪局者”的角色,發佈了 Snapdragon X2 Elite/Plus。X2系列並未像傳統x86廠商那樣“擠牙膏”,而是直接將NPU算力從上一代的 45 TOPS拉升至 80 TOPS。這不僅是數字的翻倍,更是對微軟Copilot+ PC標準的“暴力重塑”。高通正在用手機SoC的迭代速度捲動PC行業。其推出的 $800 美元主流價位段產品,直接刺穿了Intel和AMD的防線。ARM架構在PC端的“諾曼底登陸”已經成功。接下來不再是“相容性”的掃尾戰,而是“能效比”甚至是“體驗”的全面碾壓。Windows on ARM不再是笑話,而是Wintel聯盟瓦解的催化劑。製造工藝的“背水一戰”:Intel Panther Lake (18A) vs. TSMC N2Intel 在本屆CES上展示了基於 18A工藝(1.8nm級) 的 Panther Lake (Core Ultra Series 3) 處理器。這是Intel Foundry能否重回巔峰的“生死狀”。Panther Lake採用了RibbonFET(全環繞柵極)和PowerVia(背面供電)兩大殺手鐧,試圖在能效上反超台積電。AMD 則在暗處磨刀,確認其下一代 Zen 6 架構將全面擁抱 TSMC N2(2nm) 工藝,雖然產品要等到2026下半年,但“製程紅利”的預期讓市場對Intel保持審慎。這是2026年是晶圓代工的“分水嶺”。Intel 18A如果成功,美國本土製造將迎來復興;如果失敗,及良率或性能不及預期,x86陣營將徹底淪為台積電的附庸。這已不僅是商業競爭,更是地緣政治在矽片上的投射。消費者的“失落”:NVIDIA的“產能降級”NVIDIA 的展台依舊人山人海,但傳遞的資訊卻讓遊戲玩家小小的失望了一下。儘管 RTX 50系列 已上市一年,但在CES 2026上,供應鏈傳出確切消息——為了優先保障高利潤的Blackwell/Rubin AI資料中心晶片,NVIDIA計畫在2026年上半年削減 30-40% 的消費級顯示卡,即RTX 50系列的產能。原本預期的“Super”系列,大機率被擱置或無限期推遲。這是典型的“算力階級固化”。最先進的晶圓,如CoWoS封裝、HBM記憶體等被優先供給給微軟、OpenAI和Meta。普通消費者和端側裝置,只能撿食巨頭指縫中漏下的產能。顯示卡將長期保持溢價,因為在黃仁勳眼裡,每一平方毫米的矽片如果不跑AI大模型,就是在浪費。二、 深度思考:繁榮背後的冷邏輯作為行業觀察者,我有以下兩點思考:“通用算力”的終結,專用晶片(ASIC)的復興CES 2026 隱喻了一個趨勢:CPU正在淪為配角。 無論是高通的Hexagon NPU,還是Intel Panther Lake中佔據更大面積的NPU/GPU單元,都在說明一個問題——通用計算(General Purpose Computing)的邊際效益已接近為零。 未來的晶片設計邏輯是 “場景定義晶片”。正如高通在汽車領域推出的“雙Snapdragon Elite”中央計算平台,它不再是一顆通用的處理器,而是一顆“長了輪子的伺服器”。對於從業者而言,這意味著掌握Verilog/VHDL不再夠用,你必須懂PyTorch,懂Transformer架構,因為晶片是為演算法服務的。“摩爾定律”死於經濟學,而非物理學Intel 18A 和 TSMC N2 的每億顆電晶體成本(Cost Per Transistor)並未顯著下降,甚至在上升。 CES 2026 讓我們看到,只有高附加值的AI業務,如Copilot訂閱、自動駕駛FSD才能覆蓋先進製程的昂貴成本。手機、PC等消費電子因缺乏新的溢價能力,將長期停留在“夠用就好”的製程節點,如N3/N4。晶片行業將分裂為兩個世界:一個是不計成本追求極致的“AI貴族世界”,一個是追求極致性價比的“消費平民世界”。三、 結論與展望CES 2026 是一場極其務實的展覽。它告訴我們,AI不再是PPT上的魔法,而是需要巨額資本(Capex)和能源(Energy)喂養的巨獸。對於晶片產業鏈的從業者,現在的核心競爭力在於“搶佔產能”和“架構定製”。現在是時候重新評估企業的IT資產了——因為在未來三年,高品質的算力也許將比石油更稀缺。 (AI Xploring)
頻寬戰爭前夜,“中國版Groq”浮出水面
在AI算力賽道,輝達憑藉Hopper、Blackwell、Rubin等架構GPU,早已在AI訓練領域建立起了難以撼動的技術壁壘與行業地位。但隨著即時AI場景需求爆發,傳統GPU在面對低批處理、高頻互動推理任務中的延遲短板愈發凸顯。為破解這一痛點,輝達重磅出擊,斥資200億美元收購Groq核心技術,搶跑AI推理市場。這一金額不僅創下輝達歷史最大手筆交易、刷新了推理晶片領域的估值紀錄,更鮮明地昭示著輝達從“算力霸主”向“推理之王”轉型的意志。緊隨這一動作,據技術博主AGF消息進一步披露,輝達計畫在2028年推出新一代Feynman架構GPU——採用台積電A16先進製程與SoIC 3D堆疊技術,核心目的正是為了在GPU內部深度整合Groq那套專為推理加速而生的LPU(語言處理單元),相當於給GPU加裝了一個專門處理語言類推理任務的專屬引擎,直指AI推理性能中長期存在的“頻寬牆”與“延遲瓶頸”。這些動作表明:AI行業的競爭正從單純的算力比拚,轉向對單位面積頻寬的極致追求——這與輝達此前“大模型推理90%的延遲源於資料搬運,導致算力利用率常低於30%”的結論不謀而合。無獨有偶,AMD通過3D V-Cache持續驗證儲存靠近計算的效能邏輯;d-Matrix、SambaNova等明星AI推理晶片公司,更是聚焦流式執行與片上頻寬建構核心競爭力,用實際行動印證這一行業共識。頻寬戰爭打響,誰是“中國版Groq”?回看中國市場,AI浪潮推動下,國產大模型多點突破、強勢崛起,本土AI晶片企業集體爆發並密集衝擊IPO,資本熱度居高不下。然而,當輝達選擇通過Feynman架構來補齊推理短板時,就意味著誰能率先解決“頻寬牆”問題,誰就握住了下一輪周期的入場券。在這一背景下,國內賽道湧現出前瞻性佈局者。近日,半導體行業觀察注意到,一家源於北京大學物理學院的AI晶片公司——寒序科技(ICY Technology),宣佈完成數千萬元人民幣新一輪融資。這家企業以“超高頻寬推理晶片”為核心產品,被業內視為中國大陸少有的在技術路線層面正面對標Groq的前沿技術團隊。“中國版Groq”的名號,初見端倪。實際上,寒序科技的技術披露並非偶然,而是源於在內部保密原則下的長期的低調深耕。早在2024年9月與2025年11月,寒序科技就已聯合北京大學物理學院、電腦學院、積體電路學院,以及澳門大學模擬與混合訊號積體電路全國重點實驗室,先後承擔、主持兩項北京市科技計畫項目。他們前瞻性地鎖定0.1TB/mm²/s超大頻寬流式推理晶片研發,在省部級重大研發任務中,在北京市科學技術委員會的指導下,在任務書中全面對標Groq的技術路線與頻寬指標。這意味著,當Groq因LPU爆紅被視為“推理新範式”時,中國科研與產業團隊已在國內同步推進一條差異化的實現路徑。據瞭解,寒序科技採用“雙線佈局”建構核心競爭力:一方面,已發佈SpinPU-M系列磁機率計算晶片,推出1024位元全連接伊辛退火求解硬體,覆蓋組合最佳化與量子啟髮式計算市場;另一方面,本輪融資的核心看點——SpinPU-E磁邏輯計算晶片系列,直指大模型推理解碼(Decode)階段加速,以片上MRAM(磁性隨機儲存器)為核心介質,建構超高頻寬磁性流式處理架構。能看到,寒序科技並未跟隨主流GPU的片外DRAM/HBM或Groq的存算一體SRAM方案,而是選擇了片上MRAM這條更底層、更物理本征、更具長期想像力的技術路線。眾所周知,當前主流的AI計算範式面臨多重困境:採用HBM的GPU方案,頻寬受限於昂貴的2.5D/3D先進封裝,核心儲存器件HBM產能被海外巨頭壟斷且面臨出口管制;採用SRAM的Groq方案,則因SRAM單元面積大、成本高,單晶片儲存容量有限,難以規模部署千億參數大模型。面對這些行業普遍的困局,寒序科技源自北大物理學院,從凝聚態物理的角度,從第一性原理進行思考,利用本征功耗更低、速度更快的“電子自旋翻轉”,代替“電子電荷運動”來進行儲存與計算。而這種底層邏輯的革新,正是源於MRAM技術帶來的核心優勢。它兼具SRAM的高速、DRAM的高密度與快閃記憶體的非易失性等優勢,其直立結構的磁性隧道結,通過垂直微型化和CMOS工藝相容性,能夠大幅降低對複雜封裝的依賴,在成本、功耗和可靠性上具有顯著優勢。與SRAM方案相比,MRAM技術的差異化優勢十分突出:儲存密度領先:主流AI推理架構深度依賴片上SRAM以換取高速,但SRAM正面臨嚴峻的微縮困境。傳統SRAM每個儲存單元由6個電晶體(6T)組成,儲存密度低,儲存容量小,儲存典型的DeepSeek-R1-671B大語言模型可能需要數千片Groq LPU晶片,且5nm以下節點尺寸幾乎停止縮減;而MRAM天然採用1T1M(1個電晶體+1個磁隧道結)結構,單個MTJ可以執行SRAM 6個電晶體的儲存功能,同等晶片面積和工藝節點下,儲存密度是SRAM的5-6倍。工藝成本更低:MRAM的物理結構優勢,使其在國產工藝製程即便落後一代的情況下,性能指標也能對標甚至超越採用先進製程的SRAM方案。這意味著MRAM無需追逐極先進製程,大幅降低流片與量產成本(單片成本可降至原來的十分之一以下),同時保障了供應鏈自主可控。非易失性與高能效:MRAM斷電後資料不丟失,無需像SRAM/DRAM那樣持續刷新,待機功耗接近零,具備快速啟動、低待機功耗、高耐用性等優勢;同時避免了SRAM的漏電流損耗,為邊緣端和雲端的大規模部署提供極佳能效優勢,大幅降低運行成本。通過自研的磁性存算一體流式架構,寒序科技將MRAM的器件優勢轉化為晶片級系統性能。據悉,SpinPU-E晶片架構的目標是將訪存頻寬密度提升至0.1-0.3TB/mm²·s,不僅能比肩以“快”成名的Groq LPU(0.11 TB/mm²·s),更是輝達H100(0.002-0.003 TB/mm²·s)的數十倍。據瞭解,輝達GPU的架構最初面向大規模訓練與圖形渲染場景設計,強調峰值算力與吞吐能力,並通過多級快取、動態調度和共享儲存來適配高度平行但相對粗粒度的工作負載。在大模型推理的Decode階段,GPU性能瓶頸主要來自對外部儲存(HBM)和複雜記憶體層級的高度依賴。該計算過程呈現出強序列性、小批次和頻寬主導等特徵,與GPU設計初衷明顯錯配。在實際執行中,GPU仍需要通過多級快取和共享儲存來訪問,資料到達計算單元的時間並不固定,不同計算單元之間也需要反覆等待和協調。這使得訪存延遲和執行順序經常波動,矩陣加乘單元很難按照固定節拍持續運行,算力難以穩定發揮。而寒序科技採用確定性的“磁性流式處理(MSA)架構”,將大規模MRAM Banks緊鄰矩陣加乘單元部署,並圍繞推理資料流建構多級流水執行路徑,使權重和中間啟動在局部高頻寬範圍內按固定順序流動。通過在硬體層面同時約束儲存位置、訪存頻寬、通訊路徑與執行節拍,該架構在Decode階段顯著降低了延遲抖動與外部儲存訪問依賴,實現更高的頻寬與更快、更穩定的推理性能。值得關注的是,MSA架構並非簡單的存內計算概念,而是圍繞推理場景,對資料流組織、儲存-計算耦合方式以及執行節拍進行重新設計,在保證超高頻寬的同時,顯著降低對先進製程與複雜封裝的依賴。有業內人士指出,這一路線與NVIDIA在Feynman架構中所釋放的訊號高度一致:未來推理性能的競爭核心,不再是算力規模,而是單位面積頻寬與執行範式。走出北大實驗室的秘密武器——“天時地利人和”SpinPU-E展現出的性能優勢,並非偶然的技術選擇,而是核心團隊跨學科積澱、全鏈條技術把控與前瞻性路線佈局的成果。據報導,寒序科技是國內首個有能力跑通從物理、材料、器件到異質整合、晶片設計、演算法的交叉團隊,核心成員源自北京大學物理學院應用磁學中心——國內磁學研究的頂尖高地,擁有近70年的磁學積澱,核心成員橫跨凝聚態物理、電子科學、電腦技術、人工智慧等多領域:首席執行長朱欣岳兼具凝聚態物理、人工智慧演算法與積體電路的交叉背景,曾主導多模態AI演算法開發、多顆高性能專用晶片研發,帶領團隊完成四輪市場化財務融資與產品化;首席科學家羅昭初作為MIT TR35入選者,曾於清華大學、蘇黎世聯邦理工學院完成自旋電子學、磁性計算的科研工作,深耕微納磁電子學與磁儲存/計算,擁有深厚的學術積累與Nature、Science正刊成果,團隊歷經多次流片驗證,既保有前沿技術探索的銳氣,又具備工程化落地的能力。相比純粹的架構創新,寒序科技這種“材料-器件-晶片-系統-演算法”的全鏈條視野和全端攻關能力,讓MRAM技術得以從底層原理到上層系統實現協同最佳化與突破,而非僅停留在邏輯和架構層面的修補。這也是寒序科技被視為精準踩中2030年行業時間軸的前瞻性下注的核心原因。這種對行業趨勢的精準踩點,不僅體現在技術路線的選擇上,或許也蘊含在對商業化路徑的思考中。回溯Groq的成長軌跡來看,其業務從核心的GroqChip LPU推理晶片起步,逐步延伸至加速卡、伺服器系統、資料中心叢集,最終建構了雲服務平台,形成了“晶片-硬體-系統-雲服務”的全端佈局。沿著Groq被驗證的商業邏輯向前推演,寒序科技大概也會沿著相似的路徑開展自己的業務版圖——以SpinPU-E磁邏輯晶片為起點,向上建構硬體產品矩陣,最終通過雲服務觸達更廣泛市場的全端路徑,以建構更強的技術壁壘和產業競爭力。更關鍵的是,這條路徑並非簡單的模式復刻,而是基於本土產業現狀的創新破局——當行業苦於HBM成本高企、SRAM微縮放緩之時,寒序科技沒有陷入“算力堆砌”的內卷,而是利用MRAM磁性計算新範式,在中國本土成熟供應鏈基礎上,築起了一座對標全球頂尖推理性能的頻寬高地。這種從底層物理原理出發的差異化競爭策略,或許正是其作為“中國版Groq”浮出水面的核心底氣。MRAM開啟新型儲存“黃金時代”破局“頻寬封鎖”寒序科技對MRAM技術的探索並非孤例,背後是一場從“備選”走向“必選”的新型儲存技術浪潮。尤其是在全球半導體產業的演進與地緣政治激盪背景下,為MRAM在內的新型儲存鋪就了一條通往AI算力核心舞台的“黃金賽道”。2024年12月,美國商務部工業與安全域(BIS)發佈新出口管制規則,明確限制向中國出口記憶體頻寬密度超過2GB/s/mm²的尖端儲存器。這一封鎖點,直指AI推理晶片的命門——頻寬。目前,輝達、AMD等巨頭極度依賴HBM,而HBM產能幾乎被SK海力士、三星、美光等海外儲存原廠壟斷,且受限於複雜的2.5D/3D先進封裝。同時,Groq所代表的SRAM路線價格極高(Groq 230MB片上SRAM記憶體的單卡售價2萬美金),在先進製程微縮上也已近極限。在此背景下,MRAM路線的戰略價值陡增。它不僅在物理特性上具備跨代超越SRAM的潛力,更重要的是,它能基於國產28nm/22nm等成熟製程實現超高頻寬,徹底規避對尖端工藝和海外HBM供應鏈的依賴。這不僅是技術路線的“備選”,更是中國半導體產業在算力領域破除卡脖子困境、實現差異化突圍的“必選”。有業內專家表示,這一戰略意義迫切需要國家有關部門給予更高重視與政策傾斜。MRAM不僅是單一儲存技術的革新,更能帶動磁性材料、磁電子器件、存算一體架構等全產業鏈突破,有望徹底改變國內在HBM領域的落後局面和SRAM對先進製程的依賴,為AI算力產業打造自主可控的“第二曲線”。全球共振,商業化拐點已至?當前,產業界正在用實際行動表明,MRAM不再只是實驗室裡的美好構想,而是憑藉獨特優勢正成為全球半導體產業佈局的重點。其中,晶圓代工龍頭與晶片大廠均在積極佈局:台積電、三星、英特爾、SK海力士、IMEC等憑藉其先進的技術研發和大規模生產製造能力,已明確將嵌入式MRAM推進到22nm、16nm甚至更先進節點,持續提升MRAM的性能和整合度。恩智浦與台積電合作推出16nm FinFET車規級eMRAM,應用於其S32系列高端MCU,實現寫入速度比傳統快閃記憶體快10-15倍、耐久性超百萬次;瑞薩電子也推出了基於22nm工藝的STT-MRAM技術,瞄準汽車MCU市場;GlobalFoundries、Everspin在12nm和22nm工藝上緊密合作,將MRAM納入工業級和車規級量產方案;Avalanche與聯電攜手合作推出22nm STT-MRAM,在工業級和航天級市場擁有深厚積澱。據LexisNexis資料統計,2004-2013年間,MRAM市場的專利申請量保持穩定,每年約有300至400項專利申請。需要注意的是,圖表末尾的下降並不代表興趣的下降,而是專利申請和公開之間的時間存在滯後。這些頭部廠商的集體行動,清晰印證著MRAM正從“備選技術”升級為“主流方案”,在汽車電子、邊緣AI、高端計算等領域的商業化落地進入爆發前夜。回看國內市場,本土半導體廠商同樣敏銳捕捉到了新型儲存技術的發展機遇,積極佈局相關領域。RRAM領域湧現出昕原半導體、銘芯啟睿、燕芯微等玩家;MRAM賽道,寒序科技、致真儲存、馳拓科技、凌存科技、亙存科技等紛紛嶄露頭角,為國內MRAM的發展奠定了產業基礎。相對於RRAM基於電子電荷遷移,是一種統計物理範疇下的阻變器件;MRAM的存取機理是基於自旋的確定性兩態翻轉,更加可控、精準,大規模製造下器件一致性、器件壽命極限都更有優勢與潛力。兩者均被台積電等半導體巨頭作為下一代面向AI的儲存技術重點押注。具體來看,本土MRAM廠商各有側重,多數主要集中於儲存、加密、嵌入式控制等傳統領域,例如:致真儲存專注於磁性隧道結(MTJ)的核心器件研發與製造工藝,掌握從材料研發到器件製造的全鏈路技術,擁有國內唯一的8英吋磁儲存晶片專用後道微納加工工藝中試線。近期與北京航空航天大學聯合攻關,研製出全球首顆8Mb容量自旋軌道力矩磁隨機儲存器晶片(SOT-MRAM),實現SOT-MRAM容量規模化突破。馳拓科技專注於MRAM儲存晶片的技術研發與生產製造,建有12英吋MRAM量產中試線,是國內首家實現MRAM量產的企業。近期成功突破垂直磁化體系技術瓶頸,儲存器件TMR關鍵指標比肩國際頭部代工廠量產的STT-MRAM。凌存科技專注於儲存模組開發,致力於將MRAM技術從核心器件層面推向終端應用,成功開發了世界首款高速、高密度、低功耗的儲存器MeRAM原型機及基於MeRAM的真隨機數發生器晶片,產品廣泛應用於車載電子、高性能運算、安全等領域。寒序科技則獨闢蹊徑,與多數國內MRAM企業不同,其以MRAM為核心介質建構計算晶片,將MRAM的物理優勢轉化為算力與頻寬優勢,開闢了“磁性計算”這一全新賽道,致力於從計算層面引領國內MRAM技術從利基低毛利領域向高端市場跨越,成為國內MRAM技術從儲存替代向計算革新跨越的關鍵力量,舉起大旗與國內磁學領域全面擁抱合作,力爭一同搶佔全球“磁計算”的戰略高地。綜合來看,從器件、裝置、製造到系統應用,國內產業鏈的前期佈局已具備支撐本土MRAM技術產業化與生態發展的基礎。尤其是寒序科技的差異化定位,進一步填補了國內MRAM從儲存到計算的關鍵空白,為後續誕生更多行業廠商提供了土壤和必然性。生態共建:國產MRAM的“磁計算”革命根據市場研究機構Precedence Research資料顯示,2024年全球MRAM市場規模估計為42.2億美元,預計從2025年的57.6億美元增長到2034年的約847.7億美元,復合年增長率高達34.99%。雖然前景廣闊,但MRAM的大規模爆發和商業化落地仍需產業合力,需要產業鏈上下游凝聚共識,共同建構生態。結合國際經驗和國內產業的發展現狀來看,更深度的產業合作與資源傾斜或許是推動MRAM技術發展的有力舉措。例如,國家有關部門可以給予MRAM技術更多重視,加大資金與政策支援,積極推動MRAM這一有希望在頻寬領域實現“變道超車”的關鍵技術。同時,借鑑台積電、三星、GlobalFoundries等頭部廠商對MRAM的關注與投入力度,國內代工廠或許也應加強對MRAM的工藝研發與資源投入,積極與國內廠商共同開展技術研發與工藝最佳化,爭取儘早打通“設計-製造-封測”的本土化鏈路,形成協同創新的合力,降低MRAM晶片的流片成本與量產門檻。還有一點不可忽視。輝達收購 Groq核心技術,計畫在Feynman架構中整合LPU單元的案例,充分證明了“通用算力+專用引擎”的協同優勢和行業趨勢。這一案例極具啟示價值。筆者認為,在未來提升AI推理效率的行業共識下,國內AI晶片廠商應抓住這一變革機遇,加強與在新型介質與架構上具備底層創新能力的團隊的合作力度,打造兼具通用算力與專用推理性能的新技術路徑,快速補強技術短板,建構差異化競爭力。產業界正釋放清晰訊號:以MRAM為代表的新型儲存,已成為後摩爾時代的核心焦點。地緣政治的戰略訴求、國際大廠的技術押注、國內產業鏈的長期積澱,再加上寒序科技的差異化突破,多重力量共振之下,MRAM正逐漸邁入產業化的“黃金時代”,有望成為中國AI晶片產業實現換道超車的關鍵抓手。五年後,誰將主導下一代推理晶片?當摩爾線程、沐曦、天數、壁仞等國產AI晶片公司接連叩響資本市場的大門,一個時代的答卷已然清晰。它們的密集上市,標誌著中國在基於傳統GPU架構的算力競賽中,完成了從無到有的突圍,進入了國產替代的收穫期。如果說上一代AI晶片的競爭是“算力競賽”,那麼下一代的分水嶺將是“誰能率先跨過頻寬牆”。在這個關鍵轉折點上,兩條路徑清晰呈現:一條是Groq選擇的極致SRAM片上整合路徑,用極高成本將頻寬推向極限,並因此獲得了行業霸主輝達以數百億美元估值的戰略整合;另一條,則是以MRAM為代表的新型儲存介質路線,為突破頻寬瓶頸提供了一種更具根本性,也更符合長期成本與供應鏈安全需求的方案。數年後,當AI推理進入“頻寬決勝”的新時代,晶片市場或許不再僅有算力的巨獸,主導市場的佼佼者還將屬於那些能夠率先在“頻寬戰爭”中沉澱出護城河的先行者。正如Groq在矽谷用SRAM驚豔了世界,行業演進的邏輯暗示:“中國版Groq”的出現也將不再是懸念。在這個征程中,中國半導體產業各方也都在積極擁抱AI,拓展產品品類,謀劃新的增長曲線。而寒序科技正依託MRAM磁性計算的新範式,給出“中國版”的實現路徑——並且,這條路,他們早在多年前,就已開始默默鋪設。 (半導體行業觀察)
馬斯克放言:中國AI算力將碾壓全球!全民高收入時代將至?
馬斯克坐在德克薩斯州超級工廠的攝影機前,用3小時描繪了一個即將到來的世界,那裡的機器人比外科醫生更精準,電力比貨幣更珍貴,而中國的算力優勢將讓世界其他國家望塵莫及。馬斯克直言:“我們正處於奇點之中。現階段是過山車到達頂點、即將俯衝的時刻,未來技術變革的‘即時性’與‘顛覆性’會大大加快。”▲馬斯克。資料圖。圖源:CFP如果你看完(聽完)這場《Moonshots》對話,資訊密度之高,馬斯克將未來5-10年的技術演進與社會變革濃縮成一幅充滿震撼與挑戰的圖景。01 奇點已至馬斯克將當前技術發展階段稱為“奇點已至”,這是技術飛躍的臨界點。在他眼中,AI驅動的發現速度將呈指數級增長,以至於傳統的智慧財產權體系都會變得無關緊要。這一加速變革的“即時性”與“顛覆性”正以前所未有的速度改變我們的世界。這位企業家斷言,人類正處於從資源匱乏時代邁向“可持續富足”時代的轉折點。奇點的核心特徵是AI驅動發現速度呈現指數級增長,汽車、航天等多個前沿領域的變化最終都將在奇點匯合。02 AGI時間線馬斯克預測到2026年,人工智慧將實現與人類相當的通用智能水平,他將其描述為人工通用智能(AGI)的到來。在人類智能被AI追平後不久,他進一步預測,到2030年,人工智慧的智能總和將超越全人類的智慧總和。這意味著未來AI的集體智力將在短短幾年內超過地球上所有人的智力總和。馬斯克認為,大多數AI行業內部人士都“大幅低估了即將發生的事情”。他解釋說:“智力密度潛力比我們目前體驗的要大得多。”03 未來社會與工作重塑隨著AI能力的增強,白領工作將最先受到影響。馬斯克直言不諱地指出:“凡是涉及數字資訊處理的工作(如鍵盤操作、資料分析),AI都已能完成一半以上。”他警告,這類工作崗位將最先消失。在這種背景下,馬斯克提出“全民高收入”這一大膽構想。他預測,由於AI將帶來極大物質充裕,政府可能通過這一政策直接分配資源。他甚至建議:“不必為10年或20年後的退休儲蓄——要麼人類已進入新形態,要麼儲蓄不再必要。” 這源於他的預測:如果機器人能建房、種糧、製造商品,貨幣及儲蓄將變得不重要。04 人形機器人的爆發式增長馬斯克預測,2040年全球機器人數量可能遠超100億台,遠超過目前全球人口總量。特別是他旗下的Optimus機器人,馬斯克預測“3年內它可能超越任何人類,5年內差距將進一步拉大”。這位特斯拉CEO特別強調了人形機器人對外科醫療領域的衝擊:“機器人Optimus將在3年內達到頂尖外科醫生水平,5年內遠超人類。這意味著‘讀醫學院沒意義’。”這一預測引起醫學界的不同反應,多位醫學專家指出,技術從實驗室走向臨床應用需要解決更多實際問題。05 中國在AI競賽中的優勢在談及大國競爭時,馬斯克對中國的能源基建能力表達了由衷敬佩,他直言“中國正憑藉瘋狂基建,握住了最關鍵的‘印鈔機’”。馬斯克預測:“基於當前的趨勢,中國在AI算力方面‘將遠遠超過世界其他國家的總和’。”馬斯克注意到,為解決旗下xAI巨型超算的供電需求,他在美國孟菲斯尋求1吉瓦電力時,電網公司回覆需要排隊12到18個月。與這種基礎設施掣肘形成鮮明對比的是,中國去年新增500太瓦時發電量,其中太陽能佔70%。“他們正把我們甩得看不見尾燈。”馬斯克直言不諱地表示。▲2025年8月20日,新疆吐魯番,國家電投新疆吐魯番1GW光熱+太陽能一體化項目現場。圖源:CFP他預測,中國今年的電力輸出可能達到美國的三倍左右,這使其能夠支援能源密集型的AI資料中心。06 能源與太空探索願景馬斯克將能源視為AI時代的核心競爭力,提出了“太空太陽能是人類能源自由的唯一答案”的觀點。他的能源方案分為三步走:利用特斯拉Megapack電池儲存夜間閒置電力;向太空發射太陽能AI衛星,借助24小時日照最大化利用太陽能;在月球建立衛星工廠,就地取材製造衛星並送入軌道。中國太陽能行業已經對馬斯克的太空太陽能構想做出回應。晶科能源董事長李仙德公開表示,同樣一塊板子,在太空的平均發電量比地球上安裝的要高出7至10倍。07 教育、醫療與人類未來在教育領域,馬斯克認為AI將實現完全個性化教學。他描述說,像Grok這樣的AI模型可以成為“無限耐心的個性化教師”,根據學生特點因材施教。但他強調,這一切的前提是學生自身具備學習好奇心,因為“Grok不能讓你想學習,它能讓學習更有趣”。在生命科學領域,馬斯克對人類的壽命延長持樂觀態度。他說:“許多人和我對長壽有分歧。我說我們應該推動人們活到120-150歲。”他甚至認為,Anthropic聯合創始人兼首席執行長Dario Amodei預測的“接下來人類的壽命會翻倍可能是正確的”。馬斯克對2040年的世界作出預言:百億台人形機器人成為社會運轉的基石,電力取代貨幣成為通用價值尺度,而中國依託其強大的基建能力和能源產出,在AI競賽中“將世界其他國家甩得看不見尾燈”。但馬斯克也提醒人們:“小心你許的願,因為你可能會實現它。如果你真的得到了你想要的所有東西,那真的是你想要的未來嗎?”當人的工作不再重要、過著沒有挑戰的生活,可能會引發精神層面的危機。 (察理思特)
馬斯克:中國“會搞定晶片問題”
近日,美國特斯拉和太空探索技術公司首席執行長馬斯克表示,中國在人工智慧(AI)計算能力方面將會領先世界,關鍵優勢在於其電力供應能力。儘管美國一直致力於限制中國獲取先進半導體,但馬斯克認為,隨著時間推移,這些限制的影響可能會逐漸減弱。馬斯克說,中國“會搞定晶片問題”。馬斯克認為,在晶片性能前沿領域的邊際效益遞減現象,可能會使中國即便無法獲得最先進的晶片設計,仍然更容易縮小人工智慧技術差距。圖源網路去年6月,黃仁勳在法國歐洲科技創新展覽會(Viva Technology conference)接受美國消費者新聞與商業頻道(CNBC)場邊訪問時說:“我們的技術領先華為一代”,並警告稱“如果美國不要涉足中國市場,華為將佔據該市場”。據介紹,中國正專注培育像華為等國內企業,以自主建立AI晶片生態系統。華為創辦人任正非在《人民日報》的訪問中曾稱,華為晶片仍落後美國一代,華為還沒有這麼厲害,要努力做才能達到他們的評價。回顧2025年,中國國產AI晶片賽道可謂是熱鬧非凡,先是DeepSeek橫空出世,隨其“破圈”而來的是AI應用側的大爆發,AI在口口相傳間真正走入了尋常百姓家,而這也意味著,算力需求逐步從訓練轉向推理。之後,以華為打“頭陣”,一眾國產AI晶片廠商宣佈支援DeepSeek並快速部署,國產算力熱情被“點燃”。2025年12月,摩爾線程率先沖線成為“國產GPU第一股”,沐曦股份緊隨其後也成功登陸科創板,壁仞科技及天數智芯均在2025底發佈消息稱,將於2026年開年敲開港交所“大門”。當前,國產晶片在硬體參數上與海外晶片差距日益縮減,軟體生態、互聯技術有望隨產業發展而不斷壯大。業內分析認為,受國內智算中心加速建設以及網際網路公司AI需求催化,智算晶片市場需求有望再上新台階,預計2026年國內AI晶片規模將突破3000億元,國產晶片有望提升份額。 (PConline信創)
馬斯克:中國AI算力將領先世界,關鍵靠電力!2026發電量或達美國3倍
特斯拉CEO馬斯克再次聚焦中國AI發展!他在最新訪談中指出,中國AI算力將領先世界,關鍵優勢並非晶片或演算法,而是看似傳統的電力供應能力。一起來看他的詳細分析。AI競賽的決勝關鍵是什麼?演算法?晶片?在特斯拉CEO埃隆·馬斯克看來,這些都不是最核心的要素——電力供應能力才是真正的“勝負手”,而中國在這方面正展現出巨大優勢。01 電力:AI發展的隱形天花板馬斯克在近期播客節目中直言不諱地指出:“人們低估了電力供應的難度。”他認為,電力生產是擴大人工智慧系統規模的主要制約因素。這並非危言聳聽。隨著全球科技巨頭紛紛投入“千億級”建廠競賽,AI資料中心的耗電量已經相當於一座中等城市的用電需求。高盛報告更是明確警告:電力短缺可能成為阻礙美國AI進步的最大瓶頸。02 中國優勢:發電量或將達美國3倍馬斯克之所以看好中國,基於一個關鍵資料:他估計到2026年,中國發電量可能會達到美國的3倍左右。這一預測有其現實基礎。2024年,中國發電量已超過10兆千瓦時,佔全球三分之一。更重要的是,中國通過“西電東送”等國家級工程,建成了全球領先的電力基礎設施體系,為AI算力擴張提供了堅實支撐。03 “東數西算”的戰略智慧面對AI算力的能源需求,中國早已佈局“東數西算”工程。這一戰略將東部資料需求導向可再生能源豐富的西部,實現算力與能源的最佳化匹配。目前,該工程已為全國提供約八成智算算力,同時新建資料中心綠電消費比例要求達到80%。這種統籌規劃,讓中國在AI競賽中佔據獨特優勢。04 晶片問題,中國能自己解決儘管美國對華半導體出口實施限制,但馬斯克持樂觀態度。他認為,隨著時間推移,這些限制的重要性將下降,中國會“搞定晶片問題”。他的判斷依據是晶片性能的“邊際收益遞減”規律。即使無法獲得最先進晶片,中國也能通過其他途徑縮小差距。這一觀點與輝達CEO黃仁勳相呼應,後者也強調能源才是AI競賽的基礎。05 全球格局正在重塑馬斯克的判斷得到多方資料支援。摩根士丹利分析顯示,2025-2028年間,美國資料中心電力缺口預計達44吉瓦。而中國到2030年備用電力容量可能超過400吉瓦,足以滿足全球資料中心需求的三倍以上。這種差距不僅體現在數量上,更體現在發展理念上。中國正推動“算電協同”,讓AI與能源系統形成正向循環,探索綠色、高效的AI發展之路。馬斯克的預判揭示了AI競爭的新維度:未來比拚的不僅是技術創新,更是能源基礎與戰略佈局。隨著中國在電力和算力協同發展上持續發力,全球AI格局或將迎來重大變革。 (我夢未央)
花旗:AI算力與儲存需求爆表 晶片產能擴張啟幕! 半導體裝置喜迎新一輪牛市
阿斯麥(ASML)股價創新高、泛林(Lam)強勢領漲!市場押注2026半導體裝置支出再擴張,AI晶圓廠軍備競賽升檔。華爾街金融巨頭花旗集團近日發佈研報稱,在全球範圍AI算力基礎設施建設浪潮如火如荼以及“儲存晶片超級周期”宏觀背景之下,半導體裝置廠商們——尤其是阿斯麥(ASML.US)、泛林集團(LRCX.US)以及應用材料(AMAT.US)這三大半導體裝置巨頭們,將是AI晶片(AI GPU/AI ASIC)與DRAM/NAND儲存晶片產能急劇擴張之勢的最大規模受益者。花旗在這份研報中預測,全球半導體裝置類股將迎來“Phase 2 牛市上行周期”,也就是說繼2024-25年的超級牛市之後有望迎來新一輪牛市軌跡。華爾街知名半導體行業分析師Atif Malik領導的花旗分析師團隊預測,隨著AI晶片與儲存晶片需求持續激增,台積電、三星電子以及英特爾這三家全球最大規模的晶片製造巨頭,以及儲存晶片製造商SK海力士在即將到來的財報披露中將對2026年以及之後半導體資本開支(capex) 指引顯著上調,進而預判2026年全球晶圓廠半導體裝置(WFE)支出更加可能向其“最樂觀預測前景”靠攏。股價走勢方面,美股半導體裝置類股自開年以來無比強勁。阿斯麥美股ADR價格在2026年開年已經創下歷史新高,1月2日單日漲幅超過8%,2026年開年以來漲幅高達16%,市值接近5000億美元;泛林集團美股市場股價則自2025年下半年以來可謂屢創歷史新高,2026年開年以來漲幅高達20%;應用材料股價在2026年開年同樣屢創新高,開年以來漲幅高達15%。花旗分析師團隊重點指出,SK海力士與三星電子的最大儲存晶片競爭對手美光科技已經在2025年12月的業績電話會議上將2026財年(截至2026年8月)資本開支從此前的180億美元上調至200億美元,意味著同比大幅增長45%,其中晶片製造工廠建設資本開支幾乎翻倍。美光還表示2027財年資本開支也將繼續增長。作為三星電子與SK海力士在儲存晶片市場最直接競爭的對手,美光的大幅擴產舉措可能促使這兩家位於韓國的儲存晶片製造巨頭採取相應資本開支擴張行動以維持市場地位。值得注意的是,市場對於台積電的晶片產能擴張強勁預期不僅聚焦於輝達、AMD以及博通這三大AI晶片領軍者們帶來的堪稱天量級資料中心AI晶片訂單,以及蘋果公司每年都能夠帶來的龐大消費電子晶片訂單,在資料中心企業級高性能SSD(隸屬於NAND終端應用)領域,面向高性能NVMe(尤其 PCIe Gen5/Gen6)的SSD主控晶片可謂極度依賴台積電高端製程產能——這意味者台積電當前產能必然遠遠無法滿足AI算力與儲存帶來的“永無止境訂單”,大舉擴張產能可謂迫在眉睫。Google在11月下旬重磅推出Gemini3 AI應用生態之後,這一最前沿AI應用軟體隨即風靡全球,推動GoogleAI算力需求瞬間激增。Gemini3 系列產品一經發佈即帶來無比龐大的AI token處理量,迫使Google大幅調低Gemini 3 Pro與Nano Banana Pro的免費訪問量,對Pro訂閱使用者也實施暫時限制,疊加韓國近期貿易出口資料顯示SK海力士與三星電子HBM儲存系統以及企業級SSD需求持續強勁,進一步驗證了華爾街所高呼的“AI熱潮仍然處於算力基礎設施供不應求的早期建設階段”。隨著微軟、Google以及Meta等科技巨頭們主導的全球超大規模AI資料中心建設處理程序愈發火熱,全方位驅動晶片製造巨頭們3nm及以下先進製程AI晶片擴產與CoWoS/3D先進封裝產能、DRAM/NAND儲存晶片產能擴張大舉加速,半導體裝置類股的長期牛市邏輯可謂越來越堅挺。在華爾街巨頭摩根士丹利、花旗、Loop Capital以及Wedbush看來,以AI算力硬體為核心的全球人工智慧基礎設施投資浪潮遠遠未完結,現在僅僅處於開端,在前所未有的“AI推理端算力需求風暴”推動之下,持續至2030年的這一輪整體AI基礎設施投資浪潮規模有望高達3兆至4兆美元。2026年,晶片製造巨頭們產能擴張大浪潮來襲花旗發佈的這份研報顯示,2026年的晶片股主線投資策略絕對不是“泛泛看多半導體”,而是明確落在股票市場半導體裝置龍頭領域(即WFE相關)。花旗的半導體投資策略鎖定“晶片製造大廠們capex激增到WFE總市場規模擴大,再到半導體裝置領軍者們訂單/營收/利潤擴張”的這一價值傳遞鏈條,押注2026年半導體裝置景氣度繼續上行。花旗最新測算顯示的2026年全球WFE市場規模模型約為1150億美元(意味著將同比+10%,遠遠高於過去十年平均增長水平),並指出三晶片製造大廠(台積電、三星與英特爾)合計約佔其中的59%;同時強調其觀察到的增長趨勢顯示2026年整體WFE將“更加接近”其1260億美元的牛市預測情景。尤其是對於全球晶片代工之王台積電,花旗預計台積電2026年capex指引區間約為460–480億美元,並判斷全年可能大幅上修(花旗與機構投資者們的交流口徑“可到500億美元”)。台積電在去年10月的業績電話會議上已將2025年資本開支區間從此前的380億至420億美元區間下限上調至400億至420億美元。在花旗看來,AI基建狂潮所拉動的“算力—儲存—先進晶片製造”鏈條決定了半導體裝置capex粘性比以往任何周期都強勁:基於AI訓練/推理的海量算力需求不僅推高先進製程邏輯晶片需求,也顯著抬升高端儲存晶片(尤其HBM/企業級SSD相關)的需求強度;在晶片製造工藝複雜度上升背景下,單位晶圓的裝置“前沿先進工序數/步驟數”增加,裝置端更容易體現為需求的持續性與訂單能見度提升。花旗的WFE模型拆分假設裡明確給出NAND +30%、DRAM +12%、Foundry/Logic +10%(其模型口徑),說明該機構認為2026年不是單一的AI算力類股托舉,而是更均衡的先進晶片製程擴張,這往往更利多覆蓋面廣、產品組合完整的半導體裝置龍頭(比如聚焦沉積/刻蝕/清洗/量測/先進封裝等多環節)。世界半導體貿易統計組織(WSTS)近日公佈的最新半導體行業展望資料顯示,全球晶片需求擴張態勢有望在2026年繼續強勢上演,並且自2022年末期以來需求持續疲軟的MCU晶片以及模擬晶片也有望踏入強勁復甦曲線。WSTS預計繼2024年強勁反彈之後,2025年全球半導體市場將增長22.5%,總價值將達到7722億美元,高於WSTS春季給出的展望;2026年半導體市場總價值則有望在2025年的強勁增長基礎之上大舉擴張至9755億美元,接近SEMI預測的2030年1兆美金的市場規模目標,意味著有望同比大增26%。WSTS表示,這種連續兩年的強勁增長趨勢將主要得益於AI GPU主導的邏輯晶片領域以及HBM儲存系統、DDR5 RDIMM與企業級資料中心SSD所主導的儲存領域持續強勁的勢頭,預計這兩個領域都將實現無比強勁的兩位數增長,這得益於人工智慧推理系統與雲端運算基礎設施等領域持續強勁擴張需求。光刻、刻蝕、薄膜沉積與先進封裝裝置邁向需求激增周期花旗分析師團隊表示,“Phase 2 上行周期”意味著估值錨從“估值觸底修復”轉向“盈利持續上修”:當WFE總盤子從基準情景往牛市情景偏移時,半導體裝置領域龍頭公司盈利彈性甚至有可能大於營收彈性(規模效應+產能利用率提升+高端工藝佔比提高),因此花旗選擇用 阿斯麥、泛林集團以及應用材料的半導體裝置組合來表達“上行斜率”前景。阿斯麥、泛林集團以及應用材料,這三大半導體裝置巨頭,可謂覆蓋了光刻、刻蝕、薄膜沉積與先進封裝裝置,而這些半導體裝置細分領域正是受益於AI基建狂潮與儲存超級周期的最佳半導體裝置領域。總部位於荷蘭的光刻機巨頭阿斯麥(ASML Holding NV)所推出的EUV光刻機器,可以說是自2023年以來的史無前例全球AI熱潮之下,台積電、三星電子等最大規模晶片製造商們打造出為ChatGPT、Claude等全球最前沿AI應用提供最核心驅動力的AI晶片的必備半導體裝置,同時也是在當前這輪可能持續到2027年“儲存超級周期”宏觀背景之下,SK海力士與美光科技等儲存巨頭們打造HBM儲存系統、資料中心企業級SSD/DDR等核心儲存裝置所必需具備的機器系統。AI GPU/AI ASIC加速器的性能躍遷高度依賴先進邏輯節點(3nm到2nm,或者更先進的1.8nm、1.6nm),而這些節點的關鍵層必須使用EUV甚至High-NA EUV來實現更小線寬與更高良率;阿斯麥的EUV/High-NA EUV裝置明確面向3nm以及sub-2nm 邏輯與全球性能領先的DRAM的量產需求,是先進製程擴產的“瓶頸型資本品”。與此同時,AI訓練/推理還把“儲存側”同步點燃:與AI GPU/AI ASIC搭配的HBM儲存系統既要求DRAM製造節點繼續微縮,又要求刻蝕、薄膜沉積、CMP工藝,以及最為關鍵的堆疊封裝與互連環節(TSV/混合鍵合先進封裝等)顯著增加製造步驟與裝置密度。應用材料在其最新的技術解讀中指出HBM製造流程相對傳統DRAM額外增加約19個材料工程步驟,並聲稱其最先進的半導體裝置覆蓋其中約75%的步驟,同時也重磅發佈面向先進封裝/儲存晶片堆疊的鍵合系統,因此HBM與先進封裝製造裝置可謂是該公司中長期的強勁增長向量,GAA(環繞柵極)/背面供電(BPD)等新晶片製造節點裝置則將是驅動該公司下一輪強勁增長的核心驅動力。相比於應用材料,泛林集團(Lam Research)的優勢則全面集中在先進HBM儲存所需的高深寬比(HAR)刻蝕/沉積與相關工藝能力,並且3D NAND/先進DRAM結構與互連也都高度依賴泛林獨家的HAR工藝。 (invest wallstreet)
黃仁勳+蘇姿丰:兩場演講,3萬字要點,讀懂2026年AI算力往那走
兩場超級演講。黃仁勳說:我們今晚要把15場演講的內容塞進1場。蘇姿丰說:(AI的未來)你們還什麼都沒見識到。他們的演講原文都發出來了,歡迎去看原文。我覺著實在是太長了,自己都看麻了,簡單整理幾個要點,看看業界共識有那些吧。共識展示了某種程度上的趨勢,從中發現那些非共識,才是找到未來分岔的要點。算力缺口,比所有人想像的都大黃仁勳給出的數字:10兆美元的舊計算體系正在被AI現代化升級,100兆美元規模產業的研發預算正在從傳統方法遷移到AI方法。蘇姿丰給出的數字:全球算力從2022年的1 zettaflop增長到2025年的100 zettaflops。這還遠遠不夠,未來五年,還需要再增長100倍,達到10 yottaflops。yottaflop是什麼?1後面跟24個零。10 yottaflops,相當於2022年算力的10000倍。兩位大佬傳遞了同一個資訊:錢從那兒來?錢往那兒去?答案都是AI算力。兩場發佈會,三個關鍵詞關鍵詞一:物理AI黃仁勳把它定義為"讓AI理解自然規律、與物理世界互動"。NVIDIA發佈了AlphaMio,一個"會思考、會推理、會解釋"的端到端自動駕駛AI。它能輸出控制動作,還會告訴你為什麼要這樣開。黃仁勳說:未來每一輛車、每一輛卡車,都會自動駕駛或高度自動駕駛。這個拐點,可能正在發生。蘇姿丰則請來了義大利人形機器人公司Generative Bionics的創始人,發佈了商業化人形機器人Gene 1。它全身覆蓋觸覺"皮膚",能感知壓力與意圖,預計2026年下半年進入製造。關鍵詞二:Yottascale蘇姿丰發佈了AMD史上最大幅度的代際性能提升:Helios平台與MI455X加速器。Helios機櫃的參數可以看下,為了加速追趕確實挺拼的。3200億電晶體,比上一代多70%432GB HBM4超高速記憶體單機櫃性能最高可達2.9 exaflops重量接近7000磅黃仁勳則發佈了Vera Rubin平台,由六顆關鍵晶片協同設計,覆蓋CPU、GPU、網路、資料處理與安全。兩家公司都在說同一件事:AI需求沒有放緩。 晶片增長不夠,就做系統協同;系統不夠,就做機櫃級設計;機櫃不夠,就做資料中心級最佳化。關鍵詞三:智能體(Agentic AI)黃仁勳說,2025年智能體系統擴散到幾乎所有地方。他特別點名了一款產品:Cursor,"它在NVIDIA內部徹底改變了我們的軟體開發方式"。蘇姿丰請來了OpenAI聯合創始人Greg Brockman。Brockman說:我希望未來你早上醒來時,ChatGPT已經幫你把家裡和工作裡的待辦清單消掉一部分。我希望世界上每個人背後都能有一張GPU在後台持續運行。Lisa Su 與 Greg Brockman 在 CES 2026 同台端側AI年年有聊,年年不一樣蘇姿丰發佈了Ryzen AI Halo——一個巴掌大的小盒子,能在不連接外部裝置的情況下本地運行2000億參數模型。Liquid AI的CEO展示了LFM-3——原生多模態,支援音視訊輸入,能在100ms以內完成即時推理。它不是跑在雲端,而是跑在你的筆記本上。黃仁勳說得更直白:未來應用不再是預先編譯,而是即時生成——每一個像素、每一個token,都是現場生成出來的。一個分化:開放 vs 封閉黃仁勳宣佈,NVIDIA現在也是一家"前沿AI模型建構者"。他們用DGX Cloud運行著價值數十億美元的超級電腦,開發開源模型。他說:我們選擇儘可能在開放生態中完成,從而讓每家公司、每個行業、每個國家都能參與這場AI革命。蘇姿丰的表態更加明確:AMD是唯一一家在全端貫徹開放性的公司——硬體、軟體、以及更廣泛的解決方案生態。兩家晶片巨頭同時高舉"開放"大旗,背後是一個更深層的博弈:AI時代的生態戰爭更久、更激烈。寫在最後黃仁勳用了一個詞來形容這個時代:雙重平台變革。第一場變革,是我們全面走向AI——未來的應用將建立在AI之上。第二場變革更深:軟體的開發與運行方式發生根本變化。你不再是"程式設計軟體",而是在"訓練軟體";你不再主要跑在CPU上,而是跑在GPU上。蘇姿丰的總結更簡潔:AI是過去50年最重要的技術,也是AMD的第一優先順序。站在2026年的起點,蠻有意思的,算力還有巨大成長空間,那背後的資訊效率提升指向什麼方向呢? (帝亞梵的智庫報告)
【CES 2026】輝達 Vera Rubin 晶片問世,算力暴漲5倍,我看傻了...
一年一度的 CES 來了,和往年一樣,我最期待的是輝達老黃的演講。那麼今年他還能帶來什麼重磅嗎?話不多說,直接進正題。那個穿皮衣的男人沒有廢話,直接扔出了一枚足以讓整個 AI 行業重新洗牌的“終極武器”——Vera Rubin 平台。為了不浪費大家時間,90 分鐘的發佈會,我提煉了最核心的 2 個“核彈級”重點,讓大家快速瞭解一下。01|算力暴漲 5 倍:Vera Rubin 架構有多變態?老黃這次徹底不裝了。面對 AI 對算力近乎變態的渴求,他給出的方案簡單粗暴:推倒重來。全新的 Vera Rubin 晶片,架構極其激進:1 個 Vera CPU + 2 個 Rubin GPU。圖:Vera 和 Rubin 晶片圖:NVIDIA Rubin Boxes這一改,資料直接嚇人:推理性能:相比上一代(Grace Blackwell)直接暴漲 5 倍。訓練性能:提升 3.5 倍。能效控制:以前還是風冷液冷混合,現在直接上 100% 全液冷。圖:Rubin GPU光有算力沒用,資料傳不過去也是白搭。這也是這次發佈會被很多人忽視、但極其重要的升級——網路。老黃這次掏出了壓箱底的寶貝:NVLink 6: 採用了 400G SerDes 技術,速度直接比上一代翻倍。圖:NVLink 6這意味著 GPU 之間聊天基本沒有延遲,所有晶片像連體嬰一樣工作。矽光技術(Silicon Photonics): 配合 Spectrum-X 交換機,輝達終於大規模應用了光互連。圖:Spectrum-X圖:Spectrum X switchBlueField 4: 現在的 Vera Rubin 計算節點,出廠就標配這塊 DPU,專門負責處理那些繁雜的資料搬運工作。圖:Bluefield 4最離譜的是那個 NVL72 機架。NVL72 的推理性能將提高 5 倍,訓練性能將提高 3.5 倍。圖:NVL72圖:NVL72 系統老黃在現場透露,這一個櫃子裡塞進了足足 2 英里(約 3.2 公里) 的銅纜!這意味著什麼?意味著以前需要蓋一座機房才能跑的大模型,現在可能塞進這一個櫃子就能搞定。算力成本將斷崖式下跌,AI 的“智商”上限被強行拉高了。02|物理 AI 的覺醒:這一次,AI 真的走出螢幕了如果說第一部分的硬體是“秀肌肉”,那這部分才是老黃真正的野心所在:Physical AI(物理 AI)。什麼叫物理 AI?簡單說,就是 AI 不再只是陪你聊天的 ChatGPT,它長了手腳,有了軀體,開始在現實世界裡幹活了。這一段老黃展示了一套完整的“造物主”系統。1. Alpamayo:會思考的“老司機”以前的自動駕駛,看到紅燈停,看到人讓,那是“規則”。但今天發佈的 Alpamayo 模型,是真正的思考與推理 AI。是全球首款具備思考和推理能力的汽車人工智慧。圖:Alpamayo它不再死板。現場演示中,它能解釋自己的行為: “我剛才減速了,因為我注意到那個人雖然還在路邊,但他的一隻腳已經邁出來了,我推測他要橫穿馬路。”圖:自動駕駛視訊這不僅是開車,這是在理解人類世界。而且,老黃直接宣佈:Alpamayo 開源!(輝達研發自動駕駛已經 8 年了,這是老黃對自動駕駛汽車最熱情的一次。)這一招,基本是要把自動駕駛行業的門檻踏平了。老黃還回顧了 NVIDIA 為此提供的各種模型/框架,包括已經推出幾年的 Cosmos 和 Gr00t。2. Cosmos:給機器人造一個“駭客帝國”機器人怎麼學會走路、拿杯子?去現實裡練太慢了,還容易摔壞。於是,輝達發佈了 Cosmos——一個物理級精度的“世界模擬器”。這是一個瘋狂的閉環:計算即資料: 用算力生成海量的、符合物理定律的虛擬視訊和場景。圖:計算即資料母體特訓: 機器人和汽車在這個虛擬世界裡,一天能跑幾百萬公里,摔倒幾億次。下載大腦: 練成了,直接把“腦子”下載到現實的機器人身上。圖:COSMOS老黃說了一句很玄乎的話:“Cosmos 把算力轉化成了資料。”這解決了機器人行業最大的痛點:資料不足。以後,不需要再去現實裡採集資料了,資料是可以被“算”出來的。3. 機器人的未來:L4 級生態有了腦子(Alpamayo),有了訓練場(Cosmos),再加上輝達的硬體(Thor晶片)。老黃終於湊齊了最後一塊拼圖。圖:L4 生態系統他在現場放出的畫面裡,舊金山不再是那個只有車的城市,而是一個“機器之城”。從奔馳剛剛量產的 CLA,到人形機器人,所有這一切,共享同一個大腦,共享同一套訓練邏輯。圖:全端 AV這真的不是科幻片了。輝達已經把路鋪好了,接下來,就是一大波機器人走進我們生活的時刻。輝達再次展示了他們過去幾年一直在開發的概念驗證機器人,包括他們是怎麼在物理上精確的模擬環境中訓練這些機器人。如何學會成為機器人?一切都在《宇宙全能》中完成。圖:合作夥伴機器人03|寫在最後看完這場發佈會,我的結論只有一個:AI 進化的速度,已經遠遠超過了我們的想像。當算力不再是瓶頸(Vera Rubin),當 AI 能夠理解物理世界的因果關係(Alpamayo),當虛擬世界可以完美反哺現實(Cosmos),我們要面對的,可能真的是一個“新物種”的爆發。正如老黃最後說的:“這是最大的機器人產業。”那個穿著皮衣的男人已經把車門焊死了,車速越來越快。 (AI范兒)