#ai
新加坡的AI國家實驗:數字政府如何跑在未來前面
大家已習慣於私人部門提供的數字型驗,對政府數字產品提出了更高的要求,而舊的系統和孤立的運作模式往往難以滿足這種期望。放眼當下,世界正悄然加速進入一個更數字、更智能的時代。短短幾年裡,生成式AI改寫了許多行業的運行方式,也不知不覺改變了人們處理日常事務的習慣,效率的門檻被整體抬高了。雖然這樣的體驗首先發生在商業領域,但假以時日,公眾自然會把同樣的期待投向政府:公共服務是不是也能跟上時代的節奏?但對於肩負社會信任與公共安全的政府而言,數位化不是一個簡單的課題。政府如何能夠一邊用AI提升效率,一邊又能夠有效抵禦錯誤資訊、隱私洩露和網路詐騙等風險?從新加坡的治理實踐中,我們或許能為破解這一全球難題找到新的切入點。一、從數字先驅到AI戰略應新加坡國際基金會(SIF)記者訪問計畫的邀請,我來到新加坡榜鵝數位園區 (Punggol Digital District, PDD),與新加坡數位發展與新聞部的數位政府副常任秘書沈豐吉(Sim Feng-Ji)進行交流,並為我們詳細介紹了新加坡數位政府的最新成果和運作模式。新加坡的數字治理之路,起點可以追溯到半個多世紀之前中央公積金局(CPFB)引入的首台主機。作為一個國土面積有限的城邦國家,長期以來,新加坡一直將技術視為提升治理效率和國家競爭力的核心驅動力。而且新加坡的努力是系統化的,比如2003年推出的Singpass數字身份系統和2018年部署的PayNow全國即時支付系統,成功推動該國邁入全球數位化程度最高的國家之列。不過,對數字身份的執著並非新加坡獨有。比如歐洲的愛沙尼亞,早在2001年便推出了安全數字身份,並通過創新的e-Residency(電子居留權)計畫打破國家界限。然而當生成式AI的浪潮席捲全球,所有國家都面臨著比單純數位化身份管理複雜得多的挑戰。就當下而言,AI不再被視為一個可選的機遇,而是被視為一種攸關國家競爭力和社會韌性的必然選擇。這種視角上的升維,驅使政府將技術發展從零散的項目升級為全面、協同的生態系統。為此,新加坡政府推出了《全國人工智慧策略2.0》(National AI Strategy 2.0),該戰略不再滿足於零散的技術“項目”,而是致力於建構一個全面的、由政府、工業界和研究機構共同驅動的“生態系統”。所有AI部署都以維護公眾的數字信任為前提,在追求技術紅利的同時牢牢守護通過通過科技改善國人生活的信念。二、當AI走進政府辦公桌這樣國家級的戰略雄心,最終還是得落到實處,滲透到每一位公務員的日常辦公桌上。然而,在公共部門應用最前沿的AI工具面臨一個核心挑戰:如何在提升效率的同時,確保資料的安全性?Pair Chat——在安全內部網路中實現生產力的指數級增長在政府體系裡推動採用生成式 AI 並不容易,因此 Pair Chat 的出現顯得格外引人注目。這款部署在內部網路的產品,讓公務員能在安全環境裡運用“大模型帶來的那種速度”。對日常依賴文書、審閱、總結來說,它帶來的改變比外界想像的要大得多。這個類似ChatGPT的內部產品能夠幫助撰寫公文、總結報告、分析資料,大大緩解了日常繁瑣的文字工作。新加坡的這一嘗試並不是孤例,美國聯邦政府同樣認識到內部生成式 AI 的巨大潛力。例如,美國總務管理局(GSA)開發並部署了內部的生成式AI聊天工具,用於提升員工工作效率。但是與美國的嘗試不同,新加坡政府機構中對Pair Chat的應用儼然已經比較成熟。與商業工具不同,Pair Chat部署在政府的內部網路環境,可以處理機密級資料,並確保模型提供方不留存使用者資料。這讓公務員在使用AI時無需擔心敏感資訊洩露。環境信任度的提高,讓內部工具得以快速、大規模普及。目前,Pair Chat的使用者規模已達新加坡150,000名公務員的80%。效益資料有力證明了技術提升效率的價值,根據政府的估算,公務員每項任務上運用 Pair Chat可節省約一小時。這種效率上的飛躍使其成為提升行政效率方面的不可或缺的工具。從新加坡建設局(Building and Construction Authority)利用它簡化冗長報告的審查工作,到新加坡中央醫院(Singapore General Hospital)的“Proph Abby”助手幫助臨床醫生即時查閱複雜指南,AI正在實現跨部門的專業知識協同。AIBots——用RAG技術保障政策的精確性此外,為了避免AI在專業諮詢中張冠李戴,新加坡還開發了“AIBots”知識管理平台,用於機構內部的知識管理。這個平台採用檢索增強型生成技術(RAG),讓各部門可以在短短15分鐘內將本機構的內部檔案庫接入AIBots,訓練出專屬的聊天機器人。這並不是簡單的“再造一個聊天機器人”。在政策、法規等對準確性要求極高的場景裡,新加坡選擇了更穩妥的路徑:讓 AI 基於機構自己的資料庫回答問題。換句話說,這是在儘可能確保“機器的回答即精準”。在公共部門,這種克制反而是一種成熟。由於AI回答有據可依,它最大程度減少了憑空捏造,也就是幻覺的風險。這使得公務員能夠負責任地利用人工智慧,為特定任務建立定製聊天機器人,例如解答人力資源相關諮詢,以及提供預算和採購流程的指導。三、從櫃檯到社區:AI公共服務的最後一公里AI帶來的變革同樣出現在面向公眾的服務前沿。各政府部門正將AI融入核心職能,以提升公民服務體驗並加強社會安全。比如在ServiceSG一體化聯絡中心,引入語音轉寫和自然語言處理AI後,允許官員在完成任務後,減少72%的文書工作時間。騰出的精力用在解決更複雜、更需要人情味的需求上,公民滿意度也隨之躍升至95%。而針對層出不窮的網路詐騙威脅,政府部署了“遞迴機器學習站點評估器”(RMSE)作為數字社會的安全哨兵。這個AI系統每天審查超過400,000個網站,每個網站在幾秒鐘內就完成審查,精準率也遠遠超過90%,為公眾的數字生活築起一道智能防線。在追求提高效率的同時,新加坡也不忘包容不同群體:樟宜機場試點無護照刷臉將通關時間縮短到10秒;針對年長者推出了支援多語種(含方言)的熱線,老人也能報修身邊事。這些舉措在帶來便利的同時,確保沒有人因技術進步而掉隊。四、技術之外:組織變革才是真正的挑戰儘管AI應用成果斐然,但政府內部的轉型之路並非坦途。到了2027年,約三分之一政府系統的歲數將超過10年。其中一些系統已經成為向公民提供服務的瓶頸。它們運行緩慢、過時,無法支援在當今數字世界中蓬勃發展所需的那種 快節奏、資料驅動的決策制定。另一個深刻的挑戰是公眾期望與現實的差距。大家已習慣於私人部門如Netflix和Grab提供的無縫、高度最佳化的數字型驗,對政府數字產品提出了更高的要求,而舊的系統和孤立的運作模式往往難以滿足這種期望。要跨越這些障礙,更深層的考驗其實來自組織本身的轉變。為此,新加坡將加大力度提高各級公共服務部門的數位能力。這些努力可以大致分為“系統、結構、技能”這三個層面。所謂“系統”,是開發和實施數字產品開發的最佳實踐;“結構”強調重新設計結構和程序,以促進更好的政策與技術整合,以及讓AI的作用能夠最大化;而“技能”則著眼於提升公務員的數字素養,在各個層面上取得卓越的數位表現。可以說,為了迎接AI時代的複雜挑戰,新加坡正試圖從根本上更新政府的運作方式。這場以AI為引擎的數位化轉型,讓我們看到新加坡在速度與審慎之間尋找平衡的一種努力。對政府來說,既不能一味追逐技術的前沿,也不能停留在低效的舊路徑上。新加坡之所以強調治理結構的調整,尤其是政策、營運與技術(Policy-Ops-Tech)的深度整合,是因為它觸及了數字治理的核心:技術的力量無需多言,但再強大的技術,也只有在穩健的治理框架和靈活的組織結構中,才能真正發揮作用。 (FT中文網)
AI快把儲存晶片抽乾了
記憶體從配件變成資源。芯東西1月19日報導,儲存晶片的價格走勢,已經脫離了普通消費電子的理解範疇。根據市場研究機構Counterpoint Research報告,記憶體價格在2025年第四季度飆升了50%,預計到2026年第一季度末還將再漲40%~50%。另據市場研究機構TrendForce預測,本季度包括HBM在內的DRAM平均價格將環比上漲50%~55%。在零售市場,變化更加直觀。過去幾個月,固態硬碟(SSD)及記憶體的價格一路水漲船高。據Ars Technica報導,截至2025年12月,500GB、1TB、2TB固態硬碟的價格約為2025年8月的2倍,而DDR5記憶體的價格漲幅約為3~4倍。另據德國科技媒體ComputerBase最新發佈的記憶體、硬碟和固態硬碟線上零售價格資料,記憶體價格已經漲到2025年9月的4倍多,平均漲幅約為344%。三星、西部資料、閃迪等知名廠商的固態硬碟要麼缺貨,要麼漲價,連機械硬碟的價格都開始攀爬。AI革命總有點石成金的魔力。儲存晶片、銅、能源等大宗商品,都變成了一種被搶購的稀缺資源。在用頂尖技術改變世界之前,AI沒有止境的胃口,先讓普通消費者們付出了代價。01. AI資料中心需求,正在把記憶體市場“抽乾”AI需求正以驚人的速度吞噬記憶體市場。TrendForce預計,到2026年,傳統資料中心和AI資料中心將消耗所有製造商生產的高端記憶體晶片的70%以上,如果可以,他們還會消耗更多。記憶體供給正被重新分配。AI資料中心對記憶體的要求遠高於消費電子產品。例如輝達最新資料中心GPU單卡配備288GB HBM,而一台PC的記憶體容量通常只有幾十GB。在利潤結構面前,記憶體廠商的選擇不難理解。相比價格敏感、利潤微薄的消費級市場,資料中心客戶願意為高端記憶體支付持續溢價,且需求增長潛力巨大。結果是,HBM、DDR5、企業級SSD的記憶體供應被優先保障,留給傳統DRAM和NAND等非HBM市場的產能大幅收縮。隨著AI吸乾其他記憶體買家的市場份額,記憶體價格飆升,庫存快速下滑,進而造成消費電子產品價格上漲、汽車面臨晶片短缺等影響。02. 不止是周期性短缺市場研究機構IDC在2025年12月發表的報告評價道,這並不僅僅是供需不匹配導致的周期性短缺,而是全球矽晶圓產能可能永久性的戰略性重新分配。在IDC看來,這是一場零和博弈:每多一片晶圓分配給輝達GPU的HBM堆疊,就意味著中端智慧型手機的LPDDR5X記憶體模組或消費級筆記型電腦SSD減少一片晶圓。IDC預計2026年DRAM和NAND的供應增長將低於歷史平均水平,同比分別增長16%和17%。短期來看,消費者普遍接受了更高的價格。買家們意識到三星、SK海力士等短期內不太可能大幅擴大DRAM產能。同時,記憶體成本上漲會擠壓消費電子產品的利潤空間,相應製造商可能會選擇漲價,來將部分成本轉嫁給最終消費者。IDC判斷,這些壓力累積起來,可能導致2026年全球智慧型手機及PC市場微縮,同時平均售價上漲。此前PC廠商均已發出價格上漲的預警。聯想、戴爾、惠普、宏碁、華碩等主要製造商均稱未來形勢更加嚴峻。據The Register在2025年12月援引管道消息,主要製造商計畫將伺服器價格提高約15%,將PC價格提高約5%。綜合多家分析機構的預測來看,記憶體價格預計在一兩年內難以穩定下來,SSD缺貨相對沒那麼嚴重,DRAM供應緊張的時間更難預測,持續幾年也不是沒有可能。03. 閃迪美光股價狂飆,SK海力士考慮赴美上市市面上的儲存產品,已經變得奇貨可居。Juice Labs聯合創始人兼CTO Dean Beeler近期在社交平台上分享說,幾個月前,他花了大約300美元給電腦裝了256GB記憶體,誰想到這個記憶體條的價值已經變成了大約3000美元。一家名為Caramon的美國公司專門從報廢伺服器中回收舊記憶體,再應用到PC中。短短幾個月內,它的銷售額就從每月約50萬美元飆升至近90萬美元。資本市場同樣給出了反應。過去一年,閃迪股價漲超1000%,是標普500指數中表現最好的股票之一。美國儲存晶片巨頭美光科技股價過去一年漲超250%,最新季度淨利潤同比大漲180%。2025年12月,全球最大HBM供應商SK海力士在一份監管檔案中披露,它正在考慮在美國股票市場上市。該公司過去一年在韓國市場的股價漲超280%。市場已將記憶體視作AI時代的關鍵資源。04. 儲存廠商開始調整業務結構整個儲存行業都在向利潤更高的AI和資料中心市場轉型。IT媒體NotebookCheck近日援引市場傳聞稱,SK海力士可能會縮減消費級DRAM和NAND快閃記憶體的生產,並將產能轉向B2B客戶和AI伺服器應用。SK海力士回應稱目前沒有考慮或計畫退出消費儲存器業務。此前在2025年12月,美光科技宣佈關閉旗下擁有近30年歷史的消費級固態硬碟和記憶體品牌Crucial,以專注於滿足AI領域的需求。更早之前,SK海力士旗下美國NAND快閃記憶體子公司Solidigm停產消費級SSD,轉而專注於企業級儲存。在CES展會期間,美光科技執行副總裁兼首席商務官Sumit Sadana告訴外媒,記憶體需求增長預計超過整個記憶體行業的供應能力。據悉,全球三大DRAM廠商的2026年總產能已全部售罄。根據市場研究機構Omdia獲得的資料,三星預計今年把DRAM產量提高約5%,預計為793萬片,高於2025年的759萬片;SK海力士的DRAM產量預計將增長約8%,達到約648萬片;美光科技的年產量預計將維持在360萬片左右,與去年基本持平。05. 擴產正在大舉進行新需求,還在路上。在國際消費電子展CES 2026期間,輝達創始人兼CEO黃仁勳被問及,由於記憶體短缺導致遊戲主機和顯示卡價格上漲,他是否擔心公司的遊戲客戶會對AI技術感到不滿。對此,黃仁勳回應說,輝達是記憶體領域的大客戶,與儲存領域的公司有著長期合作關係,但最終,由於AI需求如此之高,還是需要更多的記憶體工廠,每個工廠、每個HBM供應商都在加緊生產,而且都做得很好。儲存廠商們正加緊投入巨資擴產。上周,美光科技接連宣佈重要進展,其投資1000億美元(約合人民幣6964億元)的紐約頂尖儲存器製造綜合體將動工,該公司還以總價18億美元(約合人民幣125億元)現金收購力積電的P5晶圓廠,預計將為DRAM產能帶來顯著貢獻。SK海力士也在上周批准一項19兆韓元(約合人民幣897億元)的投資計畫,將在韓國建設一座專門用於HBM先進封裝測試的工廠,預計於2027年底竣工。Counterpoint Research的資料顯示,2025年第三季度,SK海力士以53%的市場份額領跑全球HBM市場,三星和美光分別以35%和11%的市場份額緊隨其後。此外,SK海力士還將於2027年2月提前三個月在韓國龍仁開設一家新晶片工廠。不過這些新增產能多數要到2027年才能逐步投用,對供應實質性影響,則最快要等到2028年。06. 結語:一場不尋常的儲存狂歡記憶體市場過去也經歷過漲跌周期,但這一輪變化呈現出的特徵更加極端。AI資料中心正在持續抽乾高端記憶體產能,價格訊號已經傳導至消費電子、汽車、工業裝置等多個領域。儲存晶片廠商們大舉擴產,但產能增長滯後於需求。短期內,價格能否回落取決於擴產節奏。更長期的影響,則在於這場重新分配是否會成為常態。 (芯東西)
日本晶片裝置,再創新高
因AI相關需求加持,加上受惠台積電投資2奈米(nm),日本半導體製造裝置協會(SEAJ)上修2025年度日本製半導體(晶片)裝置銷售額預估、將續創歷史新高紀錄,且預估2026年度銷售額將史上首度衝破5兆日元大關、改寫歷史新高。SEAJ公佈預估報告指出,因台灣晶圓代工廠(台積電)的2奈米(GAA)投資全面展開、加上以HBM為中心的DRAM投資穩健,因此2025年度(2025年4月-2026年3月)日本製晶片裝置銷售額(指日系企業於日本國內及海外的裝置銷售額)自前次(2025年7月)預估的4兆8,634億日元上修至4兆9,111億日元、將較2024年度增加3.0%,年銷售額將連續第2年創下歷史新高紀錄。SEAJ表示,2026年度(2026年4月-2027年3月)期間,因DRAM投資持續擴大、加上預期AI伺服器用先進邏輯晶片投資增長,因此將2026年度日本晶片裝置銷售額自前次預估的5兆3,498億日元上修至5兆5,004億日元、將年增12.0%,年銷售額將史上首度衝破5兆日元大關、續創歷史新高。關於2027年度(2027年4月-2028年3月)情況,SEAJ指出,因AI相關需求將持續維持在高水準,因此將2027年度日本晶片裝置銷售額自前次預估的5兆5,103億日元上修至5兆6,104億日元、將年增2.0%,年銷售額有望連續第4年創下歷史新高。2025-2027年度期間日本晶片裝置銷售額的年均復合成長率(CAGR)預估為5.6%(前次預估值為4.6%)。日本晶片裝置全球市佔率(以銷售額換算)達3成、僅次於美國位居全球第2大。根據SEAJ公佈的統計資料顯示,2025年11月份日本製晶片裝置銷售額為4,206億7,000萬日元、較去年同月增加3.7%,連續第23個月呈現增長,月銷售額連13個月高於4,000億日元,創下歷年同月曆史新高紀錄。累計2025年1-11月期間,日本晶片裝置銷售額達4兆6,350億2,100萬日元、較去年同期大增16.1%,就歷年同期來看,遠超2024年的3兆9,922億3,500萬日元、創下歷史新高紀錄。根據世界半導體貿易統計協會(WSTS)最新公佈的預測報告顯示,因AI資料中心投資將成為主要推動力,帶動記憶體、GPU等邏輯晶片需求將維持高成長,因此預估2026年全球半導體銷售額將年增26.3%至9,754.60億美元,將逼近1兆美元大關、連續第3年創下歷史新高紀錄。全球半導體裝置創紀錄AI投資活絡,今年(2025年)全球半導體(晶片)製造裝置銷售額預估將創下歷史新高紀錄,且預估明後兩年(2026-2027年)將持續成長、改寫歷史新高。國際半導體產業協會(SEMI)16日在SEMICON Japan 2025上發表2025年末全球晶片裝置市場預測報告,2025年全球晶片裝置(新品)銷售額預估將年增13.7%至1,330億美元,將創下歷史新高紀錄,且預估明後兩年將持續增長,2026年預估將成長至1,450億美元、2027年成長至1,560億美元,將持續改寫歷史新高紀錄。SEMI指出,推動晶片裝置銷售持續增長的主要驅動力,來自於先進邏輯、記憶體、先進封裝技術匯入等AI相關投資。SEMI CEO Ajit Manocha指出,「全球晶片裝置銷售穩健,前段製程和後段製程領域將連續3年成長、2027年將史上首度突破1,500億美元大關。在7月發表年中預測後,支撐AI需求的投資較預期更加活絡,因此上修了晶片裝置銷售預估」。SEMI指出,2025年全球晶片前段製程製造裝置(晶圓廠裝置;WFE、Wafer Fab Equipment)銷售額預估將年增11.0%至1,157億美元,較今年年中(7月)預估的1,108億美元進行上修,將高於2024年的1,040億美元、續創歷史新高紀錄。 SEMI指出,會上修WFE銷售預估,主要是反映AI運算需求推動DRAM及HBM投資超乎預期的活絡,加上中國持續擴大產能對WFE需求帶來重大貢獻。因先進邏輯及記憶體需求增加,2026年全球WFE銷售額預估將年增9.0%、2027年進一步年增7.3%至1,352億美元。SEMI表示,截至2027年為止,中國大陸、台灣、南韓有望持續維持晶片裝置採購額前3大的位置。在預測期間內(截至2027年為止),因中國將持續對成熟製程、特定先進節點進行投資,預估將維持龍頭位置,不過2026年以後成長將放緩、銷售額預估將逐步下滑。在台灣,藉由大規模擴增最先進產能、2025年裝置投資預估將持續穩健。在南韓,因對包含HBM在內的先進記憶體技術進行巨額投資、將支撐裝置銷售。在其他區域部分,藉由政府獎勵、在地化佈局以及擴大特殊用途產品產能,預估2026年和2027年的投資將會增加。 (半導體芯聞)
外媒:中國人,會笑到最後
中美兩個大國在人工智慧(AI)領域的實力,一直都是國內外媒體關注的重點。英國《金融時報》在一篇文章中認為,如果是一場競爭的話,雙方比拚的並不是誰能在研發最強大的 AI 大模型上 “短跑沖線”,而是看誰能在這場考驗創新與推廣應用的馬拉松長跑中,堅持更久。由此,該報認為,中國人會笑到最後。《金融時報》分析稱,在人們最關心的大模型方面,儘管中國因為美國的限制而面臨晶片算力相對不足的問題,但這反而促使中國企業通過演算法和訓練方法等方面的創新去填補算力上的不足,從而令中國的AI大模型可以在相對差一些的算力下,跑出接近頂尖算力下的美國大模型的得分。而且,該媒體還引用專業機構的分析指出,需要更少算力的模型,如果能在資料訓練上得到強化,是可以在表現上接近甚至超過高算力支援的模型的。這一點,已經在開源模型的競爭上得到了展現。《金融時報》指出,中國的開源模型在表現上已經超過了美國的同類產品。免費的開源模型,本身還能大幅助力中國的大模型在國內乃至國際市場的推廣。更別提中美兩國如今還採取著截然不同的貿易政策:中國在更開放的擁抱世界,並重點投資新興市場;美國則不僅在大幅收縮,而且連自己的盟友都在傷害。《金融時報》稱,中國正在全力發展自己的晶片。政府制定產業政策,並投入了大量資源用於研發、人才培養和基礎設施建設。在國產晶片方面,儘管中國的半導體行業在某些方面仍然落後美國,但中國企業也找到了適合國產晶片的使用場景,即使用這些晶片進行推理,而非用於更消耗算力的模型訓練。畢竟,在這方面,中國國產晶片與美國晶片的差距並不是很大。該報還特別強調了中國國產晶片這一應用場景的重要性,指出AI的發展最終是要與實體經濟產生關聯的,是要把模型在實體經濟中進行部署的,這樣才能實現穩定變現和持久發展。所以中國的晶片發展戰略和企業選擇的這種應用場景,能讓中國擁有長久和重大的優勢。《金融時報》認為,中國對於人才培養、科研以及基建的持續投入,將不僅意味著已經在AI專利上領先於美國的中國,會擁有更多相關專利,還能幫企業分擔不少建設資料中心需要承擔的資本壓力和投資風險。不僅如此,《金融時報》表示,中國的發電能力建設非常強大,而且已經領先於美國。這意味著儘管中國的資料中心建設起步比美國要慢些,但中方可以迅速在這方面實現規模化佈局。《金融時報》還提到了中國在稀土資源和加工上擁有的強大優勢,並由此指出中方如今擁有的是一個覆蓋AI發展的全生態鏈——這比只關注一個大模型的得分要重要得多。最後,該報總結說,就AI領域來說,儘管美國現在因為晶片上的優勢,在起跑上領先中國,但中國的後勁更大。因此,中國人會笑到最後。 (牛彈琴)
Google剛掀了模型記憶的桌子,輝達又革了注意力的命
近期,Google的 Nested Learning 引發了一場模型界的記憶地震。很多人重新意識到,大模型不必永遠是「訓練完就封存」的唯讀權重,它也可以在推理過程中繼續變化。在 Nested Learning 裡,當模型讀到新的上下文時,它不只是把文字塞進注意力的快取裡臨時翻找,而是允許自己在推理過程中更改參數,讓新資訊變成它內部記憶的一部分。但就在人們還在消化這個想法時,輝達在2025年12月28日給出了一個更激進的答案,一篇名為《End-to-End Test-Time Training for Long Context》的論文。Google的記憶增強路線,還在努力解決記憶問題,把過去重要的東西保存得更完整。但輝達的研究人員則認為,記憶其實就是學習,「記住」就是「繼續訓練」。就像人不會記得小學時的課文字句,但像《豐碑》這種文章當時給我們的感受,會深深塑造我們之後的價值觀。輝達和史丹佛的研究者們相信,AI也應該這樣工作。01. 用學習,替代注意力式的記憶如果沿著時間線往回翻,你會發現 TTT(test-time training)並不是憑空出現的發明。早在2013年,Mikolov 等人就在語言模型裡嘗試過 dynamic evaluation。當時放的是讓模型解除凍結,在測試文字上繼續用下一詞預測的交叉熵損失 CE(也就是我們最經常理解的大語言模型的參數學習損失目標)做小步梯度更新,讓參數對當前文體、主題、局部統計規律發生適應。Krause 等人在 2018 年把它完善得更系統,更可行。也就是說,在大語言模型的早期,大家已經發現了模型在推理時動參數,即不違背語言建模的基本邏輯,甚至能帶來收益。在分析Nested Learning時候,大家都在討論記憶力的革新。但很少人會注意到它在上下文這個語境下,對注意力層的替代。但TTT-E2E 的出現,更明確的提出這個可能性。過去十年,Transformer 的輝煌建立在很大程度建立在注意力機制上。它把讀過的每一句話都做成索引(KV Cache),每次回答問題都要回過頭去精準翻閱舊書 。這種機制精確,但非常耗費記憶體。因此也有了各種群組注意力、線性注意力的改良方針,試圖壓縮其記憶體佔用,提升模型的上下文長度。而TTT的方案,則是直接放棄通過「內化」(權重更新)知識,來解決上下文處理的問題。無論上下文多長,它的推理狀態大小和計算量都是永遠不變的。因此在TTT家族中,不論上下文如何增長,其Latency(生成延遲)都不會有任何變化。這是TTT帶來的,足以在推理階段替代的注意力的核心能力:無延遲的記住近乎無限的上下文。但dynamic evaluation 那條線一直沒真正變成主流部署範式。這是因為它當時在工程上還很稚嫩,很難被有效地使用。這裡的主要Gap存在於訓練階段和推理階段無法對齊。訓練階段最佳化的是「凍結參數時開箱即用的表現」,卻沒有把「推理時將進行若干步更新」這件事當作模型行為的一部分寫進目標函數。這就導致工程現實中充滿了不穩定性,模型在沒有約束的情況下持續更新,災難性遺忘(學新的忘了舊的)、參數漂移(模型參數分佈變得很怪)、對異常片段的過擬合(會重複說奇怪話)就會變成默認風險。早期方法能緩解的手段主要是「小學習率、少步數、勤重設」,它們能讓系統勉強可用,但也幾乎把 TTT 鎖死在“短暫適應”的尺度上,很難發展成真正的長期記憶。而Nested Learning / Titans所做的,正是把這套邏輯從架構層面上變得可行。通過分開不同更新頻率的層級,讓各層獨自更新這種方式,穩定了參數更新。這也讓TTT從短微調發展成長期內部記憶的方式。因此,我們可以說它帶來了穩定的長程記憶更新方式。不過這是有代價的。輝達在論文裡把Nested Learning、Titans 這一支,歸到 TTT‑KVB 上。因為它們的更新目標其實和傳統TTT有些不同。它們更像是在教模型「怎麼存」,而不是直接教它「怎麼預測」。我們都知道,大語言模型的最終目標是「預測下一個token」,這是原初的學習目的。而Nested Learning的更新目標通常是讓模型從某種壓縮表示(如 key)重構出對應的 value,或者讓隱狀態在層內自洽地演化,這些都是為了建構可快速索引的內部記憶結構。這樣做確實可以間接幫助語言模型完成任務,因為更好的內部關聯記憶可能帶來更好的預測。但它與最終目標之間始終隔著一層距離。而輝達提出的TTT‑E2E 則更像最原初的dynamic evaluation,它的測試時更新目標就是整個網路末端的下一詞預測交叉熵 CE。為了做到只有一個目標,這個方法端到端的,不分層,從頭到尾只更新這一個CE。當損失函數就是最終任務本身時,模型在上下文裡學到的任何東西,都更直接地最佳化了後續預測。與模型的最終目標完全對齊。為了把這個差別說明白,他們在論文裡設計了一個「玩具模型」,在Transformer中移除了所有的自注意力層,只留下多層感知機(MLP)。這基本上把模型降級成了一個只能記住前一個詞的「二元語法模型」(bigram),在這種設定下,任何長程記憶能力都不可能來自注意力或快取,只能來自「你在測試時更新權重,把上下文壓進參數」這件事本身。然後在測試時,他們讓模型在讀到 x1 ,x2 ,x3 ,… 時不斷做練習:用 xt−1 預測 xt ,計算 CE,並對這個損失做一次小步梯度下降。這像是一個只能看清腳下一米的探險者,只能憑剛邁出的那一步來猜下一步。而你需要穿越一個10公里的洞穴(歷遍所有上下文及更改)。每走一步,你會先預測"根據我的方向感,下一步我應該看到岩石還是水坑?"然後走一步,看預測對不對。如果錯了,你就調整身體的姿態和步伐(梯度更新)。在「預測—糾正—調整」的循環裡改變了你的「肌肉記憶」(權重)走到第1000步時,你雖然看不到第1步那裡的巨石,但那塊巨石的資訊已經編碼在你此刻的步態、重心和方向感裡了。它通過999次的「預測-糾正-調整」傳遞下來,融入了你的身體。結果,這個沒有任何注意力快取的模型,靠著「訓練對一下詞的預測」這個目標Loss 曲線(藍色)隨著閱讀長度的增加迅速下降 。它幾乎緊貼著全注意力 Transformer 的曲線(橙色線)。這意味著,它單純靠修改自己的神經網路參數(MLP權重),就完美編碼了上下文資訊,達到了和把所有字都存下來(Full Attention)幾乎一樣的效果。相比之下,TTT‑KVB 的設計初衷是作為一個自注意力層的直接替代品。它的核心思想仍然是「鍵值繫結」(Key-Value Binding)。也就是說,它雖然不用傳統的注意力機制去 儲存 KV Cache,但它試圖用神經網路去學習 Key 和 Value 之間的對應關係。這就像希望把洞穴每塊石頭都畫在地圖上,去隨時呼叫。甚至巨石的紋理這種和走出洞穴無關的資訊也會畫進去。它的訓練效率相對就比較慢。論文在過渡實驗結果中證明了這一點。研究人員把 TTT‑KVB 的層內鍵值繫結這個目標取代為預測端到端的 next-token 目標後,語言建模的評估 loss 明顯下降。從實驗資料看,這個改變確實帶來了實質性的提升。在760M參數的模型上,TTT-KVB在8K上下文的loss為2.818,而將其簡化版本改用next-token prediction損失後(TTT-E2E all layers MH),loss降至2.806。這提升的0.012,在語言模型評估中其實是顯著的差距。這說明了,經過端到端的改造,模型對於預測下一個token這件事確實更確信,更擅長了。而且長上下文能力真的可以純靠測試時學習獲得,而不必依賴注意力快取。在這個邏輯下,記憶不再被設計成一套儲存結構,而被重新定義為一次持續發生的學習過程。記憶的價值不在於把過去保存得多完整,而在於它能否改變你下一步的判斷。但是,過去的dynamic evaluation的問題就在於沒有穩定的工程模式,既然要用一樣的思路,TTT‑E2E怎麼克服這些問題呢?這正是輝達接下來要做的第二件事:用元學習與一整套工程護欄把這種端到端的測試時學習做成穩定、可擴展的上下文記憶系統。02. 元學習的迴響,和工程的穩定元學習,這個概念和實踐實際上也出現的很早。其中有一支顯性元學習的想法一直到去年發佈的Deepmind DiscoRL 都被繼承著。這就是2017 年Finn 的 MAML體系。它是由內外兩個循環巢狀而成,內循環負責適應學習(梯度下降),外循環負責把適應學習變得更有效(學習梯度的梯度)。這樣,外面那層循環更像是對內循環步驟的反思,通過它,就可以學會如何高效的學習。TTT‑E2E所做的,正是利用這一套元學習的體系,幫助它去穩定端到端的資料。輝達的研究人員認為,過去dynamic evaluation的問題,主要在「訓練-測試不匹配」上。如果只用傳統方式訓練一個凍結的語言模型,然後在測試時突然要求它邊讀邊更新參數,那整體肯定穩定不了,災難性的漂移、遺忘都是常事。因此,訓練階段就要把測試階段的學習流程包含進去,讓模型在出廠時就習慣在推理時繼續學。這就是元學習入場的時候。它要在訓練時幫助模型學會怎樣更新自己,才能更會回答接下來的問題。具體的操作,就是利用元學習,讓模型自己找到最適合推理時更新的初始參數W0。把它寫成更直觀的過程,就是兩段循環套在一起。內循環:就是模型讀到一段上下文時,給出下一個詞的猜測。然後立刻對照實際上出現的下一個詞,去更新自己的參數。這和傳統的下一個token 預測模型的訓練一致。外循環:是在訓練階段給內循環反覆模擬「上崗狀態」。它給內循環的模型很多段文字,讓它按同樣的復盤方式做幾次小校正,然後檢查校正之後,內循環後面的預測是不是確實更準、更穩。只有當內循環的參數更新真的帶來收益時,外循環才獎勵它,如果這種更新方式會造成漂移或遺忘,外循環就懲罰它。久而久之,模型學到了一種更合適的出廠狀態。帶著這些初始參數去上崗,內循環的小校正(梯度更新)就不容易把自己改壞。外循環的教師,在這裡學到的是在測試時更新中,那些方向的梯度更新是穩定的(防止梯度爆炸),那些更新能在不破壞通用能力的前提下快速吸收上下文規律(防止災難性遺忘),那些初始化讓同樣的學習率、同樣的步數能產生更可靠的收益(提升訓練效率)。再把這些都融合到模型初始的參數里。一個元學習,直接讓模型自己解決核心的工程困境,使得端到端的模式變為了可能。但這僅僅是可能,並不是達到了穩定。為了進一步確保工程上的可能性,TTT‑E2E還是在工程中做了多重折中的安全閥。第一個安全閥是 mini‑batch 化和滑動窗口注意力。理論上講,在測試時每讀一個 token 就更新一次參數,是最細粒度、最完美的線上學習,但它可成本太高了。但每次給他的的token batch太大,模型又根本沒有短期記憶,那麼它在更新之前對一個batch裡吼main的 token 就根本記不住,梯度也會越來越錯。所以,TTT‑E2E一方面把batch的大小做到相對較小。而且還保留滑動窗口注意力作為短期記憶的方法。窗口注意力像手電筒,保證你在一個更新塊內至少還看得見最近的上下文,從而讓 block 內的預測不至於崩壞。論文明確提出了一個窗口大小和batch大小的規範,即窗口大小 k 最好不小於測試時更新的塊大小 b,否則你會在塊內變回「局部失憶」的模型。第二個安全閥,目標是防止。他們沒有非常激進的把所有層都改成TTT層。而是凍結了 embedding、歸一化和注意力層,只更新 MLP。並且每次不更新整個神經網路,只更新最後 1/4 的 blocks。這樣底層的通用語言能力、注意力的讀寫通道保持不動,TTT只在上層做一種可控的學習模組。為了進一步防止線上更新把預訓練知識沖掉,他們還在可更新的 blocks 裡加了一套靜態的第二 MLP。有一套MLP 負責寫入當下上下文,另一套負責保住出廠能力。這是在結構上給災難性遺忘劃了一片隔離區。參數可以漂移抹去過去的記憶,但只能在一塊被圈起來的可寫區裡漂移。當這些部件拼好時,TTT-E2E終於實現了最早版本TTT未竟的目標,為它帶來了完整的工程化軀體。那麼它的結果如何呢?03. 用Loss證明自己我們看模型訓練效果,最主要的是看模型的loss變化。loss 指的是語言模型在下一詞預測任務上的平均損失,一般就是上面說的交叉熵CE的大小。它越小,說明模型預測越準。而在記憶中,則是看loss在上下文中的變化。如果 loss 在更長上下文裡持續下降,說明模型確實把更早的資訊用起來了,預測的更好了。反之,如果上下文變長但 loss 不降反升,說明資訊雖然記住了,但沒用,屬於學而不思則惘了。在這一項上,TTT‑E2E的優勢非常明顯。當上下文一路加到 64K、128K時,其他類型的架構,比如Mamba 2、Gated DeltaNet 這些線性時間模型就開始掉隊了,甚至連 TTT‑KVB,在更長上下文裡也沒能把曲線拉回來。只有 TTT‑E2E 的線幾乎像釘住了一樣,從 8K 到 128K 沒有出現優勢稀釋的跡象。這說明別人是上下文越長越難學到,而TTT‑E2E 則是越跑越會用上下文。而且,它也延續了學習參數最大的優勢,就是成本壓縮。如果用全注意力,上下文越長,prefill 的延遲就會一路飆升,因為它每生成一步都要掃描更長的歷史。相反,SWA、RNN/SSM、TTT‑KVB、TTT‑E2E 的延遲幾乎是平的。它是靠學進去,而不是一直看著舊上下文去處理新的上下文的。在 H100 上,128K prefill 時,TTT‑E2E 大約比 full attention 快 2.7×。另一項,則是看Loss的收斂速度,Loss收斂的越快,說明模型越高效的在學習。在 32K 和 128K 兩種長度下,TTT‑E2E 是唯一一種在整個上下文範圍裡都能壓過 full attention 的方法,而且它的總體優勢有很大一部分來自序列更早的位置。這正是「學習而非儲存」發揮特長的地方。模型不是等到最後才靠記憶取回某個細節,而是從一開始就讓每一段上下文都在把模型推向更適合下一段預測的參數區域。它是在背書,更是在邊讀邊形成更適合這本書的閱讀習慣。當然,這種方法並非面面俱到。TTT‑E2E 在海底尋針這種需要精確檢索的測試上仍然被full attention碾壓,包括 TTT‑E2E在內的線性路線一直在長上下文檢索上表現並不好。這並不矛盾,當記憶被定義為「學習帶來的預測收益」時,它就更像壓縮和概括,而不是逐字存檔。對寫作連貫性、長文理解、風格約束這種任務,這種壓縮很划算。用學習壓縮換取長上下文的可擴展性,讓模型在 128K 這樣的尺度上既跑得動,跑得省,又確實變得更會預測。這就是TTT的核心意義之一。另外一個可能制約這種架構落地的因素,是訓練成本。即使有了各種最佳化,TTT-E2E的訓練延遲仍然比標準Transformer高出50-100%。這在學術研究的規模上可以接受,但當擴展到工業級的數兆token訓練時,這個額外成本就有點略高了。04. 回歸原初的學習,可能才更符合持續學習的期待Nested Learning 這場革命的意義,是再一次把「推理時更新」從過去的沉寂中帶入了當下的討論的範疇,讓持續學習找到了新發力點。TTT-E2E 的意義,不只是又一個長上下文方案,而是重新定義了記憶這件事。記憶不是把過去搬進現在,而是讓過去改變未來。在注意力機制因二次方成本而逼近物理極限的今天,這種'把資訊學進參數'的路線,可能是唯一能讓模型真正從百萬 token 上下文裡持續成長的工程答案。在一個上下文窗口越來越長、資訊越來越多、但人們越來越不願意為傳統注意力二次方成本買單的時代,這種把記憶當作學習、把學習當作壓縮的路線,可能會在相當長一段時間裡成為持續學習最現實的工程答案之一。它不一定無所不能,但它比當下的任何記憶方案都更接近我們對智能的本質期待:「不是記住一切,而是能從一切中學會變聰明」。 (騰訊科技)
矽谷用AI寫詩,中國用AI救命:紐約時報整版報導揭開中美AI背後的殘酷真相
在人類科技史的宏大劇場裡,總有一些瞬間,像是命運在平靜的水面上投下了一枚重磅炸彈。曾幾何時,我們對人工智慧(AI)的想像,是雲端的浪漫,是銀幕上的溫柔細語。而今,當矽谷的實驗室裡不斷傳出大模型又寫出了絕妙的十四行詩、又生成了真假難辨的電影級大片時,一種名為“科技眩暈”的快感正席捲全球。人們在螢幕前歡呼,彷彿文明的頂峰就是一場永不謝幕的數字幻象。然而,2026年初《紐約時報》的一份整版報導,如同一道冷冽的極光,刺破了這種虛幻的繁榮。它將目光鎖定在中國廣袤大地上的CT室裡:當美國的精英們正忙於讓AI變得更“健談”時,中國的AI已經穿上了白大褂,正冷靜地在死神的手縫裡搶奪生命。是選擇讓AI成為雲端的舞者,還是讓它成為泥濘中的縴夫? 這一篇報導,引發的不止是技術的討論,更是一場關於“科技終極意義”的文明反思。死神擦肩:一個中國泥瓦匠的“AI奇蹟”故事的底色是蒼涼的,但結局卻帶著科技的溫情。在中國的建築工地上,57歲的邱先生曾用雙手壘起無數高牆。但當病魔悄然而至,他卻像所有普通人一樣脆弱。腹脹、噁心,這些看似尋常的訊號,在傳統醫學的肉眼審視下竟成了完美的偽裝。他在醫院拍了平掃CT,醫生看過,搖了搖頭——影像中沒有明顯異常。“這就像是在浩瀚的沙漠中尋找一粒特定的沙子,又像是在喧鬧的集市裡聽針掉落的聲音。”但邱先生是幸運的,他遇上了名為“PANDA”的醫療AI模型。在短短幾秒鐘內,這台冷冰冰的機器發出了足以改變一個家庭命運的預警。它穿透了肉眼難以察覺的陰影,識破了胰腺癌這個“癌中之王”的隱匿戰術。這種技術,被稱為“化腐朽為神奇”。胰腺癌早篩在醫學界一直是難以攻克的堡壘,常規平掃CT極易漏診。而中國工程師們卻通過互文般的邏輯轉換,用最廉價的平掃手段,實現了最高精度的捕捉。邱先生手術成功了,他不懂什麼是神經元網路,但他知道,是那台“會看病的電腦”給了他第二次生命。圖源:紐約時報:2026年11月,退休泥瓦匠邱思軍與朱克磊醫生在寧波的一家醫院裡。這款新工具成功幫助邱先生在早期階段發現了胰腺癌。圖源:紐約時報:正在檢查邱先生的一張影像掃描件。該工具旨在從平掃CT(非增強CT)中尋找胰腺癌的蹤跡,而這類掃描由於未使用造影劑,顯示出的異常情況通常不如增強CT那樣清晰。隔岸反思:兩條平行的“演化之路”當這則故事跨越太平洋,在《紐約時報》的官網和社交媒體上引發的不是禮貌的掌聲,而是震耳欲聾的反思。知乎博主“資料慢慢跑”精準地捕捉到了這種輿論的轉向:美國使用者開始懷疑,他們引以為傲的AI霸權,是否正走在一條“捨本逐末”的歧途上?虛與實的對壘美國AI之路: 是“星辰大海”的幻影。他們追求的是通用人工智慧(AGI),是讓AI像人類一樣思考、調情、創作。他們的AI在寫詩、在作畫、在模擬不存在的世界。這是一種“上層建築的修飾”。中國AI之路: 是“人間煙火”的防線。我們聚焦於垂域,聚焦於醫療、基建、製造。我們的AI在篩查癌症、在最佳化電網、在監測橋樑。這是一種“經濟基礎的重構”。排比而論:我們的AI在救命,他們的AI在救“悶”; 我們的AI在下地,他們的AI在升天; 我們的AI在CT室裡與死神對局,他們的AI在直播間裡與網紅競智。普惠與昂貴的對偶在西方醫療體系中,早篩意味著昂貴的費用、漫長的預約和精密的增強影像。而中國的AI邏輯則是:用最基層的平掃CT,加最硬核的演算法,給最普通的百姓。 這種對比,像極了“重劍無鋒”與“彫蟲小技”的較量。美國使用者感嘆:為什麼我們的AI公司總在想著如何裁員增效,而中國的AI卻在想著如何不讓一個泥瓦匠因病致貧?圖源:紐約時報:寧波醫院深度博弈:AI的“智”與“志”知乎“資料慢慢跑”的回答中,有一個觀點令人深思:報導的背後,是全球對AI話語權的重新定義。技術的“互文”與“雙關”過去,西方對中國AI的描述往往帶有偏見,常將其歸類為“模仿”或“監控”。但此次《紐約時報》的整版報導,卻呈現出一種奇妙的“互文”效果:它承認了中國在應用層面的“暴力美學”——這種基於海量資料、在實戰中磨礪出的精度,已經讓矽谷感到脊背發涼。這裡的“雙關”在於:AI不僅代表了“智能”(Intelligence),更代表了背後研發者的“志向”(Ambition)。 當科技公司將志向定位於“改變世界的影像”時,它產出了PANDA模型; 當科技公司將志向定位於“改變世界的幻覺”時,它產出了聊天機器人。“比擬”中的真相如果把AI比作一個孩子,美國的孩子在讀文學系,他在背誦荷馬史詩;中國的孩子在讀醫學系,他在手術室裡遞手術刀。 文學固然美好,但在面對名為“死亡”的怪獸時,人類更需要那把鋒利的手術刀。圖源:紐約時報:這款名為 PANDA 的人工智慧工具,是由中國科技公司阿里巴巴旗下的研究人員開發的。科技不分國界,但初心有高下“路漫漫其修遠兮,吾將上下而求索。”《紐約時報》這一整版的版面,不僅給了阿里達摩院,給了中國的程式設計師,更是給了中國這種“務實、普惠、救人”的科技路線。我們並不否認大語言模型的偉大,那是人類文明對智慧上限的探索。但我們同樣,甚至更加珍視那些紮根於泥土、守護於病床、奔跑在現實中的AI。因為再華麗的詩篇,也抵不過一張健康的體檢單;再逼近真實的情感模擬,也抵不過一個泥瓦匠重回工地的歡笑。這場關於AI的全球反思才剛剛開始。我們希望:未來的科技,不再是少數人的數字玩具,而是多數人的護身鎧甲。未來的AI,不再是雲端的空中樓閣,而是人間的定海神針。大風起於青萍之末。中國醫療AI的這次“破圈”,只是一個訊號:在未來的世界舞台上,最有力量的技術,永遠是那些帶著溫情、握著鐮刀、救過命的技術。 (留學生日報)
美股“七巨頭”神話鬆動,美銀Hartnett:下一輪贏家必須靠AI重塑業務
美股“七巨頭”陣營因表現分化而瓦解,去年僅有Alphabet和輝達兩家公司跑贏了標普500指數。Michael Hartnett指出,市場正擴大廣度,未來的新“七巨頭”將是能證明AI真實改變其業務結構的巨型企業。他借電影結局警示:並非所有巨頭都能在殘酷競爭中倖存。曾經共同推動美股市場的“七巨頭”陣營正在瓦解,這一曾被視為鐵板一塊的巨型科技股組合,如今已不再是投資者眼中的單一資產類別。隨著市場對人工智慧熱潮的看法趨於理性與審慎,這些兆市值巨頭的命運在過去一年中發生了顯著分化。在剛剛過去的2025年,僅有Alphabet和輝達兩家公司的表現跑贏了標普500指數。進入新的一年,這種分化趨勢仍在延續,“七巨頭”中已有五家公司的表現不及大盤基準。曾主導市場的AI交易策略正在發生轉變,資金不再盲目湧入整個類股,而是開始進行更具選擇性的押注。這種相關性的破裂正在重塑市場格局。投資經理們指出,“七巨頭”——涵蓋微軟,Meta,蘋果,亞馬遜,特斯拉,Alphabet以及輝達——已不再是股市長紅的代名詞。隨著AI軍備競賽的深入,這些公司在戰略投入與核心業務增長上表現各異,導致其股價走勢不再同步。Bahnsen Group的首席投資官David Bahnsen直言:“它們之間的相關性已經崩潰。如今它們唯一的共同點,僅僅是都擁有兆美元的市值。”AI交易的分化與重構隨著牛市的演進,圍繞人工智慧的交易邏輯已發生演變。部分投資者預計AI紅利將向醫療保健等行業擴散,而另一部分投資者則繼續加碼晶片製造商或能源公司。在這種背景下,曾經緊密的“七巨頭”組合正在被市場重新定義,或許已縮減為“五巨頭”甚至是“四巨頭”。美銀策略師Michael Hartnett在2023年借用經典西部片《豪勇七蛟龍》(The Magnificent Seven)創造了這一術語。他指出,現在市場正在開始擴大廣度,“下一個‘七巨頭’將是那些能夠證明AI應用正在重塑其龐大業務的巨型企業。”Hartnett同時提醒投資者回顧電影的結局:“不要忘記,在那部電影中,只有少數人活了下來。”巨頭內部的贏家與輸家目前,這些科技巨頭正處於不同的發展階段。亞馬遜,Alphabet,微軟和Meta已轉型為“超大規模計算商”(hyperscalers),正斥資數千億美元訓練新AI模型、建設資料中心及擴展雲端運算能力。與此同時,輝達繼續主導著運行最先進AI模型所需的晶片市場。相比之下,其他成員則顯得掉隊。蘋果股價在去年跑輸標普500指數,因其在AI領域的投入相對較少且被指落後於競爭對手而面臨批評。曾經的市場寵兒特斯拉的表現也大幅落後於其他同行,主要受制於電動汽車銷售放緩。State Street Investment Management首席投資策略師Michael Arone表示:“它們都處於不同的階段。以前是水漲船高,現在我們將看到贏家和輸家。”散戶離場與歷史輪迴除了專業機構的看法轉變,散戶投資者的熱情也在降溫。根據Vanda Research的資料,散戶投資者去年在“七巨頭”股票總交易量中的佔比,較2023年和2024年顯著下降。其中,特斯拉作為散戶長期的最愛,其零售交易活動降幅最大。2025年,特斯拉的日均零售周轉率較兩年前的峰值下降了43%。儘管走勢分化,這七家公司對市場的整體影響力依然巨大。據道瓊斯市場資料,它們合計仍佔標普500指數市值的約36%。華爾街歷史上充滿了各種曾經流行但最終過時的投資組合暱稱,從上世紀60年代的Nifty Fifty(漂亮50指數),到由零售商組成的WATCH和之前的科技股組合FANG、FAANG等。Arone認為,雖然“七巨頭”可能已經失去了投資者最初將其聯絡在一起的理由,但目前尚未有其他股票組合能取而代之。“目前還沒有合適的替代者,”他說,“但我認為可能會有。” (invest wallstreet)
All in 台積電?
26年1月15號,台積電發表了逆天的業績,昨天咱們已經解讀並預測未來3-5年台積電的財務資料與走勢。今天我們將從foundry,儲存,AI,CPO等多個技術維度,全面頗析在未來的半導體技術演變中,台積電到底扮演什麼角色?台積電倒底是真王還是假王?1. 晶片製程進入3nm節點,後摩爾定律全新時代正式開啟。2026年半導體進入2nm時代,傳統摩爾定律的定義早以力不從心,其實早在2016年運行了50年之久的國際半導體技術發展路線圖IRTS就不再更新,2017年改用IRDS,2024年正是IRDS預計的COMOS傳統微縮告一段落的一年。IRDS規劃的路線圖是2025-2040年進入半導體第三階段,3D與功耗微細化階段。與1975-2002的幾何微細化的第一階段以及2002-2024年的等效微細化的第二階段不同,不斷的依靠縮小晶矽間距,金屬互聯間距與電路單元高度的傳統方式將終結。取而代之的是more moor以及more than moor  主要依靠管芯3D結構,層間緻密互聯,異質異構整合,器件低功率化”等方案來變相實現微細化,藉以延續晶片性能增長的第三階段技術發展設想。2026年全球半導體將進入2nm時代,台積電在2nm也正式採用GAA的新型態3D結構,開始了IRDS路線圖2025到2040年的第三階段。這一階段的開局王者是台積電,是否能延續第一階段開場的TI以及橫貫第一階段中末期和第二階段的英特爾,成為稱霸整個世代當之無愧的領頭羊。從3nm開始台積電不在公佈其每個工藝節點的電晶體密度,而改以PPAC(性能、功耗、面積、成本)來表述與上一代製程的提升幅度。台積電N2工藝將比上一代的N3在電晶體密度上提升15%,甚至每個節點開始出現細化,比如3nm工藝分為N3B、N3E、N3P以及針對高性能的N3X還有針對汽車的N3A,台積電針對製程的闡述方式跟隨IRDS以PPAC以及功能性來闡述。前幾年我們還可以根據MTr也就是每平方毫米百萬電晶體數量來對比各家不同工藝,利用MTr對比得出三星3nm(150)遠不如台積電5nm(180)的結論,避免被廠家宣傳忽悠。如今最直觀的MTr對比在2nm以後也將失去唯一指標的地位,英特爾18A的電晶體密度,不到台積電3nm的水平,結結實實的落後一個世代,但英特爾非得用自己測試的PPA資料去碰瓷台積電N2,以證明他還有競爭力。當然廠家這些文字遊戲只能忽悠非業內的網民只有宣傳意義,fabless客戶要不要下單自然是實際評估過的。未來即便英特爾、三星繼續玩文字遊戲,最終也同樣無法獲得訂單,畢竟需要電晶體密度來維持競爭力以及市佔率的客戶,不可能會陪三星或英特爾玩文字遊戲,擁有市場最好的製程工藝,才能獲的競爭力,不採用業界最先進工藝,就意味著失去市場佔有率。贏家通吃的邏輯在最先進製程的演繹得淋漓盡致。唯有那些不需要追求性能的次旗艦或者成熟晶片才會被其他foundry瓜分。在未來可預知的15年內,半導體製程將持續並如期的推進到1.4nm、1.0nm、0.7nm、0.5nm、0.3nm等等節點,但這些節點的意義與早期的摩爾定律,每兩到三年電晶體密度提升一倍已不可同日而語。2026年是進入IRDS的半導體技術發展第三階段的初始年,2nm先進製程不再以光刻微縮為唯一推進手段,GAA/CFET技術,背供電技術,2D材料技術將越發重要,再疊加上後段的各種先進封裝技術,混合鍵合的異質異構整合技術將給系統級晶片帶來無限可能。單以COMOS來說,2030年以前將出現兆晶體數量的單晶片,摩爾定律以全新的形式繼續引領科技創新。我們從下面的例子可以清楚看出,後摩爾定律時代利用多種手段的電晶體推進速度。2022年輝達採用N4製程的Hopper的電晶體數量為800億。2024年採用N4P製程+D2D Chiplet的Blackwell電晶體數量為2080億。2026年輝達將推出N3P製程的Rubin晶片,單die預計在1680億電晶體左右,雙die為3360億電晶體。2027年整合度更高的CPO,以及CoWoS的極限4 die合封,Rubin ultra晶片電晶體總量將達到6720億。2028年輝達將推出Feynman,採用A16製程,4 die合封的電晶體總數將達到8000億左右。2030年輝達的更新一代晶片將採用A14製程,再加上利用CoPoS技術做到8die合封,電晶體總量達到2兆。所以利用晶片製程不斷的微縮,加上不斷放大面積的interposer,單顆晶片的電晶體數量增長比摩爾定律時代更高。2022年的800億,提升到2030年的2兆,8年25倍的提升,比摩爾定律每2年翻1倍,8年16倍還來得更驚人。半導體製造的這場技術變革,將會由台積電獨領風騷,原本的兩位競爭對手Intel與三星將很難跟進,並因為缺乏訂單無法再持續投入龐大且極其昂貴的產能軍備競賽,而逐漸在先進製程競爭中被淘汰,先進製程贏家通吃的局面將在競爭者無力投入之後更加嚴重。即便美國政府投入大量資金與政策傾斜,也無法從根本上改變英特爾的技術頹勢。未來台積電的對手我想只剩下反壟斷法,沒有其他。進入後摩爾時代,微縮不再是唯一重點,依靠其他方法也能維持晶片競爭力,所以台積電的競爭對手是否有機會跟上呢?很顯然現在看起來機會越來越小,從最基礎的微縮工藝上,台積電已經領先競爭對手一個世代以上,再到先進封裝技術,不論CoWoS或是SoIC台積電已經早競爭對手投入十年,更令人絕望的是的台積電下一代的CoPoS預計兩年後可量產。與對手的差距不斷在擴大。再到異質異構整合,台積電不斷最佳化的CPO技術將會是各大矽光方案不可或缺的唯一生產平台,他將提供各式各樣的異構整合方案,讓形形色色充滿創意的方案的工程化量產成為可能,甚至繫結其他先進製程與先進封裝方案,讓客戶一個也跑不掉。英特爾早期在3-5族的CPO積累與專利幾乎被台積電給繞開,而台積電的方案是建立在可規模量產與成本的完美平衡基礎之上,而非英特爾那些看起來唬人卻無法有效落實的空中閣樓。最後是產能的建構,綜觀全球頂級Foundry,目前唯有台積電敢在沒有任何訂單之前就投入重資興建龐大的產能,要知道一座fab的興建需要四年以上。原本7nm每萬片投資額在25億美元左右,而到2nm則高達70億美元以上,台積電Fab20A規劃120k產能,單單一座工廠就必須投入近千億美元,往後的節點投資額越來越大。試問,必需在四年以前開始規劃並逐步投入千億美元,每兩年就要再蓋一座下一世代新工廠,永遠不能停止,有那一個foundry敢在沒有任何客戶訂單的情況下,提前四年就投入鉅資?可是如果你沒有在四年以前投入鉅資,即便你工藝很好有客戶願意下單,你最後也會因沒有產能,無法供貨而丟失訂單,所以並非製程領先才有訂單,敢事先投入鉅資,到點有足夠產能供貨,同樣是半導體foundry行業的重中之重,更是關鍵護城河之一。目前我們看到的是,三星以及英特爾在先進製程採取保守策略,也就是僅維持每個世代2萬片的mini line投入,比如最近火熱的英特爾18A,確保工藝有競爭力之後再加大投入。但如此一來將永遠落後節奏。半導體建設周期實在太長,如果有一天英特爾製程回歸榮光追上台積電,趕緊給裝置商下訂單,開建新產能,那也得兩年時間,這兩年只有原本的20k產能,別說與台積電競爭訂單,就是英特爾自己的晶片也得下單給台積電,產能對落後的競爭者將是一個無解的惡性循環,這是半導體foundry行業的一個重要特點。所以未來台積電的地位更難以撼動,因為以前只需要PK製程工藝,而現在除了製程,還要PK先進封裝,還有CPO異質異構整合,最終還有龐大產能這無可撼動的護城河。而這些要素,無一例外,台積電全部遙遙領先,而且每一項的差距還在擴大中,不是其中一兩項而是所有環節都在擴大領先優勢。筆者對台積電的樂觀,並非簡單的認知,而是經過長時間追蹤且多層面對比與詳細分析的結果,甚至做過某個環節被競爭對手追上的反面推演,最終還是得出某一個環節被追上,也無法撼動台積電在矽基半導體的市場地位。必須是一個全新的技術與業態才可能改變目前台積電壟斷的市場格局,目前我們還看不到中短期有任何改變機會,這猶如英特爾在70年代末打敗TI,仙童,摩托羅拉,定義了CPU與摩爾定律,奠定了霸主地位後,對半導體行業長達30多年無可撼動的恐怖統治。所以IRDS規劃的半導體發展第三階段,2025年2040年半導體先進製造,將由台積電領軍,至少在十年的維度,筆者實在找不出有任何新競爭者與新技術路線可以與之匹敵。對於台積電,筆者更關心的是非矽基以及量子計算的發展態勢,雖然這些技術的興起並非完全取代矽基,更多是截長補短,各自有擅長的應用領域,但也確實會影響矽基半導體的長期發展,不過這都是十年以上的故事,目前並不需要擔心。儲存技術發展儲存領域,傳統的DRAM以及NAND跟新型態的高頻寬HBM將各自在不同領域持續發光發熱。DRAM的平麵線寬微縮也將無以為繼,1c已經於2025年推出,之後的1d工藝已經在開發中,與邏輯的GAA類似DARM也必須往4F2的3D結構發展。NAND目前最先進產品為3xx,2025年海力士321層的QLC NAND已經正式向AI客戶供應企業級SSD,在技術路線推進上超過1000層的產品也計畫在2032年推出。HBM基於DRAM微縮的基礎上還加上堆疊封裝,所以推進速度會高於DRAM。2026年海力士基於1c的12hi HBM4為業界最領先工藝,未來層數將會推進到16hi,由於高度限制,16hi再往上的空間有限,未來必須在cell結構上下功夫。HBM4e開始將會與邏輯GPU合封,成為高度客制化產品,不再是以往的標準儲存晶片,這將會改變市場格局,三星什麼都具備的一條龍服務沒有任何競爭優勢,反而形成拖累,因為是否一條龍能力根本不重要。AI晶片的要求必然是每個環節都是最優的結合,GPU要有最好的先進製程,HBM有最好的性能,再加上最優秀的2.5d或3d封裝技術,三者缺一不可。三星雖然具備三者的一條龍服務,但三者每一項都與競爭有差距,對於客戶來說三者在同一家製作或者分開三家沒有太大區別,唯一要素就是三者都必須是最頂尖的結合,三星弱上加弱的一條龍服務,自然無法與台積電與海力士的強強聯合相比。2024年台積電利用其主導地位阻止三星HBM進入NV供應鏈歷歷在目,未來台積與海力士組合還將繼續主導未來AI領域GPU/ASIC的製造。在與GPU die共封的客制化HBM4e時代,GPU與HBM生產廠家將會有一番主導權爭奪,最終擁有無可替代的先進邏輯工藝的台積電將拿下主導權,而非金額更大數倍的HBM供應商,主要還是可替代性,HBM4e的製造商將還是維持三家的格局,而先進邏輯與先進封裝製造商只有台積電一家。未來的半導體製造競爭不再是簡單的摩爾定律微縮這單一戰場,而是多維度的技術競爭,台積電已經取得無庸置疑的多維度領先地位,甚至在與HBM爭奪未來存算共封的新一代GPU/ASIC上也佔據主導地位。與台積電強結盟的海力士在這幾年嘗到甜頭之後,雙方會有更緊密的聯合,這又加強了海力士面對其對手三星與美光的競爭力,尤其是在未來進入客制化的HBM時代,用那一家,什麼規格都是事先確認好的。三星則必須採取守勢,而非浪費精力拉長戰線,在邏輯與台積電,儲存與海力士多點作戰。強力捍衛其傳統DRAM的技術優勢是三星的重中之重,畢竟DRAM龐大基本盤才是安身立命的根本,如果這一塊因為海力士獲得HBM優勢之後,慢慢蠶食DRAM市場,無法維持DRAM技術優勢對三星來說將是滅頂之災。當然在儲存超級周期中,擁有最大產能的三星,必然也是最大獲利者之一,筆者說的是長期趨勢,這一兩年儲存大周期的帶動,三星隨便買也能隨便賺。美光則繼續坐穩千年老三,永遠都是儲存市場景氣轉換周期中表現相對較差的那一個,但架不住這一波的儲存超級周期,美光在2026年自然也能狠狠的大賺一筆,身處美股也是投資市場唯一可選擇的儲存晶片標的,跟隨儲存景氣高周期,AI+HBM熱點,又是市場大部分資金可選標地,股價想不好也難。未來儲存的王者在前兩年已初露鋒芒,2026年會明確奠定地位那就是海力士,未來的儲存之王。總結未來的半導體製造領域,邏輯與儲存領域,近幾年表現強勢的台積電與海力士,已確定了其優勢地位,可以預見的未來,他們將與競爭對手拉大差距,我們沒有看到任何競爭對手在中短期有拉近差距的可能性,他們將是未來五年半導體製造的唯二最優選,沒有其他。二. AI繼續主導整個半導體行業增長與創新。圍繞AI的半導體硬體創新進入下一新篇章,主要分為以下幾個方向,GPU die更高的電晶體密度,GPU更大的封裝尺寸,垂直3D封裝,HBM更高的儲存密度以及頻寬,存算合封,以及CPO/OIO的異構整合。移動終端的SOC因受限體積以及電池,只能死嗑電晶體密度以及3D先進封裝。未來AI對端側的算力需求以及各類將爆發的MR產品的算力需求,都意味著手機必須要有更高的算力才足以支援。這讓我想起國內大行其道的一句話,手機晶片28nm足矣,或者7nm跟3nm晶片使用起來沒有區別,殊不知歷來各式各樣的技術演變,都是基於更高的算力,基於摩爾定律的不斷推進,才讓原本不可能的技術,慢慢變成可能,而國內輿論這些似是而非的論調大行其道,實乃行業之悲。無論如何,半導體行業這幾年由於AI出現了大型化的技術路線,與幾十年來晶片越來越小的技術趨勢出現分歧,這個分歧主要是功能性的分歧,不代表整個半導體發展趨勢,不受體積限制的伺服器晶片大型化,受體積限制的應用如移動端則持續小型化。2026台積電獨攬全球CoWoS以及SoIC業務,這樣的壟斷勢頭未來將繼續維持。2026年台積電CoWoS產能將繼續大幅度攀升,年產能將從2025的720k,增長到2026年的1120k。SoIC的月產能2023年到2026年,分別為2k、5k、8k、16k,預計2027年也能保持50%以上的增長。進入2025年,CoWoS+SoIC的封裝形式將被AI晶片廣泛應用,隨著先進封裝的門檻又提高,這又增加了台積電的無可替代性。我們從2024台積電技術研討會上公佈的進展來看,2026年將會出現5.5倍reticle的interposer,比現行輝達的Blackwell的3.3-ret有1.65倍的增長。我們要知道一個,現有的光刻技術能支援的最大曝光區域面積,一個shot是26mm*33mm,也就是858mm2。Blackwell是3.3倍ret也就是2500mm2左右,有兩個800mm2的GPU die 再加上8個HBM,以及各單元的框線,最終在70659mm2的矽晶圓或有機材料(CoWoS-L)上,扣除圓周邊緣無法利用的區域,最終可以切出16顆GPU,並放在6400mm2的substrate基板上,要知道上一代輝達Hoper的interposer面積在1800mm2左右,一片晶圓可以切出29顆。2026年推出的Rubin 大約可切10~11顆,2027年的Rubin ultra ,四個die以及12顆HBM的合封,interposer size超過8000mm2,一片CoWoS只能切出5顆。這也是CoWoS技術的最終章,2028年就換上310mm * 310mm方形基板的CoPoS,切割效率直接翻兩倍,未來還有510*510的基板,切割效率又在第一代CoPoS上翻了2.5倍。2026年推出的下一代GPU Ruby,從台積電的技術路線圖知道最大可支援5.5倍ret ,目前已知大約是4倍,interposer 在3500mm2,除了兩個GPU die,再加上12個HBM,在巧妙的layout之下,一次最多隻能切割11顆。2027年的Rubin ultra ,四個die以及12顆HBM的合封,interposer size超過8000mm2,一片CoWoS只能切出5顆。這也是CoWoS技術的最終章,2028年就換上310mm * 310mm方形基板的CoPoS,切割效率直接翻兩倍,未來還有510*510的基板,切割效率又在第一代CoPoS上翻了2.5倍。我們以Ruby ultra為例,傳統CoWoS方案只能切割5顆,而CoPoS方案可以一次切割30顆,這是在經過相同的工藝流程之後,一次可切割的數量,這將導致成本的天差地別。未來除了基板變成510*510的方形以外,材料也會從CoWoS-L有機材料變成玻璃基板,這一個技術趨勢也是明確了,玻璃基板有更好的熱穩定性以高平整度兩大優勢,確實是下一代高性能運算的優選,目前主要難題是在加工的易碎性。預計隨著上下游產業鏈不斷的努力,一整套完整的加工方案也將越發成熟,2027年或許在其他更小型的應用上玻璃基板與相應的TGV技術可能推出。下圖我們也可以看到博通的未來方案,2027年博通也將推出3.5D XDSiP平台,最多6000mm2的3D堆疊以及12個HBM,並將於2028年隨TPU v9問世。博通的這個平台,正是基於台積電的CoWoS-L+SoIC技術,博通自研的銅混合鍵合HCB以F2F(有別於傳統F2B方案)的bumpless技術,直接連接上下晶片的金屬層解決方案。未來不論輝達或AMD的第三方GPGPU或者各家自研的ASIC都離不開台積電的製造技術,也就是說台積電研發的各種製造技術,讓全世界所有fabless在其基礎上最佳化自己的解決方案,但無論你如何最佳化,都離不開台積電的製造技術。上述總總就是台積電的3D Fabric先進封裝技術聯盟,屬於台積電OIP開放創新平台聯盟的六個分支之一,OIP聯盟,包含EDA聯盟,IP聯盟,雲聯盟等等,全球所有相關領域的頂尖公司都在台積電OIP聯盟之下,連競爭對手三星與英特爾也必須尋求加入。從上圖可以看出,OIP聯盟的其中一支,3D Fabric聯盟提供的技術支援,分為3D 矽堆疊與先進封裝兩大分項,技術平台分為SoIC、SoWoS、InFO三大類。上述博通的3.5D XDSiP平台的F2F技術就是來自於台積電3D Fabric中凸塊式SoIC-P的技術。而SoIC技術也可以搭配CoWoS或InFO,比如AMD的Mi300晶片採用的CoWoS+SoIC,這也是未來輝達Ruby以及博通等ASIC廠家的未來技術趨勢。又比如,Cerebras與特斯拉採用台積電的InFO-SoW技術,在一片12”晶圓上製作一顆晶片,由於晶片是方形,在70659mm2的原型晶圓上極限只能做出46225mm2的方形晶片,接近35%的面積被浪費了。所以Cerebras的三代WSE面積都是46225mm2,在面積不變的情況下,2019年的WSE-1採用台積電N16工藝,1.2億電晶體以及18GB的片上SRAM記憶體。2021年的WSE-2採用台積電N7+工藝,2.6兆電晶體+40GB SARM 。 2024推出的最新WSE-3,採用N5工藝,4億電晶體+44GB SARM。特斯拉DOJO晶片也是採用台積電InFO-SoW技術,已推進到第二代,不過特斯拉最新方案是放棄DOJO改由AI6這樣更小面積的晶片來拼接與組網。2027年台積電還將在InFO-SoW的基礎上推出結合SoIC的CoW-SoW,這很可能改變未來GPGPU以及ASIC的技術演變。基於台積電所提供千變萬化的製造可能性,未來業界將有更多新型態的GPU面市,這對不論是如輝達或者是如博通等fabless都將是另一個新挑戰,再加上第一點所提及的台積電CoPoS以及CPO等新技術,台積電無遠弗屆的製造平台,將如鴉片一般令不論那一家fabless都無法自拔。上述的3D Fabric先進封裝,只是台積電OIP聯盟六個分支之一,包含早就是行業領頭地位的EDA與IP聯盟,OIP聯盟的成功是台積電軟實力的殺手剪,也是未來台積電第三代掌門人,現職台積電副營運長,台灣半導體公會理事長侯永清嘔心瀝血的傑作,因為OIP的成功,侯永清成為台積電未來掌門人的第一候選人。絕大部分人無法理解OIP聯盟的作用,但他正是台積電成為現今半導體霸主的重要因素,相關細節探討,筆者令文說明,這就不再闡述。CPO/OIO2025的半導體行業重大熱點之一無非就是CPO。將結束的IDEM 2025 ,台積電再一次展示了肌肉其COUPE矽光平台筆者認為CPO是圍繞在海外半導體製造生態發展來的技術,這自然是對國內光模組廠家不利,而且在3.2T可插拔遇到上限之後的技術路線明確是CPO,這對整個國內的光模組行業自然是不利,甚至是滅頂之災。畢竟在光模組領域我們中國有無可替代的製造優勢,CPO的即將到來咱們將如何應對,事實上CPO並非洪水猛獸,也並非瞬間取代光模組,也是用很緩慢的逐年提升CPO滲透率來慢慢取代。而且CPO是在2027年以後的3.2T時代才會慢慢發揮作用,大量AI應用,不論Scale out還是Scale up ,800G跟1.6T還是擁有最大出貨量。而且通訊領域以及傳統資料中心,依賴龐大產業鏈生產足夠便宜的光模組還是主角,況且很多場景根本不需要1.6T如此高的傳輸速率,甚至800G都觸及不到。光模組在2026年業績,毫無疑問將繼續突飛猛進,紮紮實實的業績落地,不過估值可能會慢慢回落。2025至2026年也就是跟隨NV Blackwell這一代,高單價的1.6T可插拔自然是讓光模組廠家業績噌噌往上的動力。2027年,隨著下一代Ruby ultra的推出,正式進入3.2T時代,光模組可能開始被逐,不過CPO一開始的滲透率不會太高,但無可否認2028年以後,CPO將正式進入快速發展時代。CPO是明確的技術方向,其實發展的也挺久了,主要還是因為電訊號傳輸的物理極限,所以採用光互聯自然是突破I/O功耗牆極限的最好辦法,CPO讓這一切成為可能。發展初期,各家自己研發自己的技術,交換晶片廠家中思科,博通,邁威爾,CPU IDM的英特爾,GPU廠家的輝達都是早早佈局。矽光器件主要玩家在經歷多年之後,湧現不少初創公司或者專注某個領域的小型公司被併購與傳統玩家形成聯盟。以博通,英特爾、NV+Mellanox、英特爾+Ayar lab、Juniper+Tower行程各自小集團,其中英特爾還投資了Teramount這類通用光子耦合器廠家,可謂重兵佈局並滿手全產業鏈IP。但這些多年發展出的技術集團似乎將被台積電給打破。台積電與Intel不同之處,就是利用自己在半導體製造的領先優勢,通過開放平台與全行業廠家合作,逐步建構起自己一套以矽光為核心的生態鏈。比如博通、輝達、邁威爾、思科與Intel是競爭關係,Intel挾強大CPU統治力以及垂直整合的全環節製造能力,打造出不少專利,但終究雙拳難敵四手。更何況英特爾在CPO領域不論在IP或者整合製造技術也並非全部都是最優解,更失去當初Wintel時代規則制定的統治力,所以Intel重兵投入並寄與厚望的CPO矽光互聯技術,在台積電推出完全開放的 iOLS整合光學互聯系統平台之後,可以明確失去競爭力。現在幾乎所有CPO廠家全部投入台積電COUPE環抱。英特爾統治半導體行業30多年來的核心就是先進製造能力,永遠領先對手推進摩爾定律,遙遙領先的先進製造晶片技術,讓他可以制定行業規則,比如X86架構以及主導各種介面規格,整個行業形成以他為中心的生態。擁有全球最先進的工藝,英特爾打造業內最完善的技術與專利,每個專利看起來都很牛,但並非無可替代,唯有最領先的製造工藝才是其他人無法取代的,很多人看英特爾的衰敗,找這問題看那原因,大部分人都沒明白這個最根本的核心。所以英特爾在工藝製程被台積電趕上之後,英特爾長期以自己為中心的封閉生態一步一步崩塌。很可惜的是,在上上任CEO科再奇任內14nm擠牙膏失去先機之後,英特爾錯失最後機會,啟用了其傳奇CEO葛洛夫的信奉者曾經的CTO基辛格,他們都信奉技術偏執。基辛格上任前董事會對是否放棄晶圓製造爭論不休,隨著基辛格上任代表董事會最終還是決定在晶圓製造上放手最後一搏,開啟4年5節點的瘋狂計畫,但即便是葛洛夫的愛徒基辛格也無法力挽狂瀾。現任接手的陳立武,正嘗試利用基辛格的遺產intel 18A製程試圖找回公司復興之路。因為趨勢無法扭轉,台積電在開放的平台上越走越好,接觸了全世界各式設計方案,更多訂單反哺台積電不斷打磨其製造能力,不斷的最佳化其工藝上的缺點。英特爾是一個封閉的惡性循環,台積電則是一個開放的良性循環,這樣的模式之下,勝敗已成定局。往回看技術狂人基辛格的上台是悲劇,確實,如果在21年英特爾完全放棄製造,如今將不可同日而語,至少工廠當時可以賣出天價,無數人搶著接手,但這純屬馬後炮。在那時當下,任誰都不可能有如此遠見,拚最後一次是決大部分人會作出的決定,此時自然是以為這麼幹是進可攻退可守的良策,殊不知正因如此導致無法快刀斬亂麻,失去了先機,這個過程我想可以讓企業經營者們好好思考。英特爾這話題岔遠了,拉回到CPO其實Intel在CPO領域的眾多牛比專利,單拿出一個都是王炸,但問題就出在剛才說的,這些並非舉世無雙,無可替代,比如英特爾在3-5族材料的矽光方案沉浸多年,建立了專利障礙,但台積電在剛剛結束的EIDM上發佈了COUPE 2.0,其中PDK模型器件庫的Si/SiN平台與有源/無源器件說明了製造技術的多樣可能。更重要的是所有CPO廠家已經接受台積電提供工藝設計包準備進入正式量產階段。台積電在CPO發力主要依靠其 iOLS(整合光學互聯系統平台)展現在兩部分,一個是COUPE 2.0也就是光引擎的製造與封裝,第二部分是CI (複合式中介層),五花八門的interposer ,完全滿足簡單到複雜的多種封裝。參考電光夜談也是行業大神湯總的說法,台積電COUPE 2.0 解決了PIC與光纖耦合的難題。與博通,英特爾以及Senko的方案不同,台積電直接在PIC晶圓上做文章,從根本上解決耦合的難題,與以色列Teramount與IMEC合作的方案一樣,容差高且支援3D的高密度耦合。台積電的CPO方案一個重要特點是mirco-ring Modulator方案,沒有傳統的MZM以及MZI器件。MRM的特點是製造技術最難,但面積非常小,製造成本以及OE頻寬密度的優勢明顯,幾乎是CPO最終極的製造方案。直接取消了三五族的半導體光放大器SOA,強化APD,可以說是很好的給未來的OIO技術鋪路。MRM微環方案其實就是CPO與OIO的大一統方案,主要還是得益於台積電分子級的製程控制精度才得以實現。台積電在iOLS平台上解決了微環、光纖耦合、PIC/EIC混合鍵合、並提供相關pdk給第三方的話,則CPO switch門檻將大幅度降低,這將大大地促進矽光子技術的發展。上述矽光技術平台再結合台積電獨步天下的IC製造能力,將徹底顛覆上述原本的CPO行業格局,讓CPO成為與IC製造一樣,全行業圍繞台積電製造技術自行設計相關產品。fabless專心致力於自己設計端的IP,製造技術由台積電落實,大家在台積電平台上與台積電共同開發新的製造技術,這又繞回到了台積電DTCO設計與製程協同最佳化技術平台上,未來晶片製造技術真的是一環扣一環,台積電將如同狗皮膏藥一般想甩都甩不掉。2026年CPO switch的落地將由博通以及NV引領,最終在2027年開始應用不斷提升滲透率。而博通與NV正是AI GPU以及ASIC的兩大領軍企業,他們的新一代方案都將在上述台積電先進封裝以及CPO平台中展開,兩大強勢廠家的支援,讓台積電以製造技術為導向建構的生態將更加完善與夯實,不論未來GPU與ASIC誰上誰下,台積電永遠穩坐釣魚台。第三章. GPU與ASIC的AI世紀大戰要理解今天在輝達與博通等廠家在台積電CoWoS產能上的寸土必爭,必須回到一切的起點:AI不只是近年興起的大語言模型(LLM),目前多模態,AI Agent甚至物理世界模擬,讓AI對算力近乎貪婪的渴求。面對每年5倍增長的token衍伸出的算力需求,依靠摩爾定律兩年翻一倍電晶體數量的算力增長已經完全跟不上節奏。因為AI的出現,整個半導體行業迸發了無窮的潛力,在後摩爾定律時代竟然電晶體增加速度遠超以前,記得數年前許多人云亦云的網民,高喊著摩爾定律已死,現在看來甚是可笑,誰知道再過幾年又有啥新科技出現呢?從晶片製造層面,面對AI恐怖的算力增長需求,晶片製造領域唯有不斷縮小單位線寬同時不斷加大晶片面積,一縮一放的加乘效果才能勉強跟上AI的節奏。當然增加出貨量也是一個辦法,但這裡就遇到了前段製程與CoWoS產能的瓶頸。傳統的CPU架構在平行矩陣運算面前效率低下,也催生了專用加速晶片的黃金時代。最終,AI的出現推動半導體技術演進沿著三條相互交織又彼此競爭的路徑展開:1. 架構路徑:從通用到專用,生態與效率的終極對決GPGPU的霸權之路: 輝達的CUDA生態,將圖形處理器鍛造成了通用平行計算GPGPU的絕對王者。其核心武器是極高的記憶體頻寬(通過HBM)和大規模流處理器陣列。從H200、GB200到今年即將推出的“Vera Rubin”,都是這條路徑的產物,性能提升直接與視訊記憶體頻寬、NVLink互連規模掛鉤。輝達構築的,是一個從硬體到軟體(CUDA、AI軟體棧)的封閉而強大的帝國。正如老黃在CES演講所說,物理AI的ChatGPT時刻來了,AI的第二拐點,從理解語言到理解物理世界,將還是由通用型GPGPU主導。ASIC的精準革命: 當AI工作負載,尤其是雲端推理側的負載日益固化,為特定演算法(如Transformer)定製的ASIC便展現出碾壓級的能效比Performance per Watt,和總擁有成本(TCO)優勢。Google的TPU、亞馬遜的Inferentia/Trainium、微軟的Athena,以及中國的華為Ascemd,寒武紀MLU都是這條路徑的先鋒。它們通過犧牲通用性,換取在特定戰場上的極致性價比。而博通、Marvell、Al chip等設計公司,正是通過為這些CSP雲巨頭定製ASIC,撕開了兆市場的一道口子。2.製程路徑:奈米尺度的軍備競賽摩爾定律的延續是性能提升的物理基礎。從7nm、5nm、3nm到2026年量產的2nm,每一次製程躍進都意味著電晶體密度和能效的提升。2024年3月份台積電的劉德音與黃漢森在IEEE發表的文章 , 計算出不用十年 , 人類就可以製造出一兆顆電晶體的GPU單晶片。未來不再只是通過光刻等製程微縮這單一手段來提升電晶體數量 , GAA、CFET等立體結構的最佳化、2D新材料以及先進封裝每一個技術都能有效並持續的提升電晶體數量。然而,單純靠微縮已面臨“功耗牆”和“儲存牆”。2nm晶圓的代工價格傳聞高達3萬美元,這已非所有玩家都能承受的賭桌入場費。3.封裝路徑:超越摩爾,系統級創新的主戰場當製程微縮邊際效益遞減且成本飆升,“超越摩爾”(More than Moore)成為新的增長引擎。其核心就是先進封裝,而CoWoS正是台積電為高性能計算打造的“皇冠上的明珠”。CoWoS的精髓在於異構整合。它不再追求製造一個巨大且良率堪憂的單片晶片,而是將多個小晶片,例如計算芯粒(GPU/ASIC核心)、高頻寬記憶體(HBM)、I/O芯粒等,通過Interposer進行超高密度、超高頻寬互連,整合在一個封裝內。CoWoS帶來了三大降維打擊優勢:*突破光罩板極限: 製造遠超單個光刻機視場尺寸的超大晶片成為可能。*混合搭配,最優解: 可以整合不同工藝節點、不同功能的芯粒,實現性能、成本、功耗的最佳平衡。*極致互連性能: 矽中介層上的微凸塊(μBump)間距極小,使得芯粒間通訊頻寬激增,延遲和功耗大幅降低。正因如此,無論是追求極致性能的輝達GPU,還是追求最佳TCO的雲巨頭ASIC,但凡涉足頂級AI算力,都離不開CoWoS。它從一項“使能技術”,變成了決定最終產品出貨量的戰略瓶頸資源。2026年CoWoS產能沙盤推演基於筆者的訊息,我們對2026年台積電CoWoS產能及預訂Booking情況進行建模分析。根據筆者模型,台積電CoWoS產能近幾年的爬坡如下:2023年底:約 12K/月2024年底:約 36K/月2025年底:約 80K/月2026年底(目標):達到 ~120K/月。對於2026年台積電CoWoS產能逐月提升過程,我們取一個不樂觀也不保守的全年有效平均值:94K/月。即 2026年台積電CoWoS總有效產能約為:94K/月 × 12個月 約 1,120,000片。這是本次測算的總彈藥基數。CoWoS產能分配的邏輯推演:台積電的產能分配是一場基於技術、商業、地緣政治的複雜棋局。核心考量如下:技術繫結與生態深度: 輝達是CoWoS最早期、最大膽的共同定義者和投資者,其架構(如NVLink)與台積電CoWoS工藝深度耦合,享有最高優先順序。訂單規模與戰略押注: 蘋果、輝達、AMD是台積電前三VVIP大客戶,其巨額預付款和長期協議鎖定了基礎產能。不過蘋果要到2028年才有自研AI晶片,這兩年不需要CoWoS產能。博通、Marvell因承接Google、AWS、Meta等雲巨頭天量ASIC訂單,已躋身頂級VIP客戶行列。地緣政治與第二供應鏈: 美國對華技術限制,迫使中國頭部AI公司,透過第三方等各種方式全力爭取任何可能的CoWoS產能。同時,ASIC以及AMD、英特爾乃至中國客戶,都是台積電制衡輝達分散客戶風險的重要力量。產品迭代與良率: 更複雜、整合度更高的封裝(如整合更多HBM、更大中介層)初期良率較低,實際有效產出需打折。下圖清晰展示了各主要玩家的爭奪格局:詳細資料請加入知識星球瞭解2026年台積電CoWoS產能分配:輝達:2026年6*萬片。年增*%,依舊保持高增長。儘管面臨競爭,但其產品需求最旺、單價最高、技術最領先,仍將佔據最大份額。輝達接近台積電CoWoS總產能*%的預訂量,遙遙領先其他AI晶片企業,幾乎不受ASIC崛起而稀釋,繼續保持絕對主導的份額。當然輝達的CoWoS預訂的增量,有很大一部分是來自Interposer面積放大的結果,2026年推出的Rubin達到5.5x reticle,比Blackwell的3.3x reticle大了1.6倍。也就是輝達在晶片出貨數量不變的情況下,就必須增加1.6倍的CoWoS產能,或者說從輝達在Rubin時代增加60%的CoWoS產能,晶片出貨量與Blackwell時代相比是沒有增加的。當然整個2026年Blackwell還是出貨主力,輝達65%的CoWoS增量,必然是出貨數量以及單價的雙雙齊漲的局面。AMD:2026年*萬片,年增*%。多款Mi300系列已證明AMD的競爭力,剛剛開幕的CES,蘇大媽正式官宣Mi400系列的來勢洶洶,預計下半年開始出貨。從CoWoS booking數量來看,與25年相比有*%的增量,與輝達的增幅幾乎一致。這也標示著AMD對Mi455的信心十足。Broadcom博通:2026年*萬片,年增*%。主要客戶GoogleTPU開始對外銷售,對博通是利多,不過博通主要負責TPU v6 以及 v7p,偏向推理的v7e會在2026年下半年推出,由聯發科負責流片。下一代的TPU v8 還是會遵循v7的模式,由博通與聯發科兩家分別下單台積電CoWoS。2026年博通向台積電預定的CoWoS產能有60~65%給到TPU第二大客戶Meta的Mtia晶片,今年今年將推出第三代產品,Mtia v2 & v3大約佔博通CoWoS預訂量的20%左右。未來的大客戶Open AI將於2026年底推出內部代號Titan晶片,採用台積電N3製程,預計佔今年博通預訂量的5-10%,2027年將達到20%。2028年蘋果的AI ASIC - Baltra也將面世,目前由博通負責高速互聯,SerDes IP以及後段布線,預計2026年上半年進入TO階段。很顯然,博通是未來ASIC崛起的最大贏家。Marvell美滿:2026年*萬片,年增*%。2026年CoWoS預定數量與2025年持平,幾乎是AI晶片最失意的廠家。主要是出貨主力AWS下一代的Trainium 3轉由Al chip設計。2026年主要客戶還是AWS的Trainium 2 ,新客戶Microsoft採用N3E製程的Maia 200 加入,避免了下滑。Al chip世芯:2026年*萬片,年增*%。2026年CoWoS 200%的增幅,主要是拿下AWS的Trainium 3 訂單2026年出貨包含少量Trainium 1 ,決大部分為N3製程的Trainium 3 Anita,加上Inferentia 2 以及少量的Intel Gaudi 3,以及微軟上一代的-Maia 100。Al chip的客戶數量比博通還多,但出貨量級都不高。AWS已暫停Inferentia 3的開發,轉向以Trainium統一承擔推理跟訓練的工作負載,目前未見Inferentia 3的TO訊息。Annapurna:2026年2.4萬片,年增64%。作為AWS的子公司,Annapurna一直承擔AWS AI ASIC的開發任務,同時也向台積電直接預定CoWoS產能,Trainium 3的 Mariana版本有別於Al chip的Anita版本,同時在台積電投片。MTK 聯發科:2026年2萬片。作為台積電CoWoS的新進客戶,目前聯發科已調撥大量人力支援ASIC業務,AI ASIC未來將成為聯發科的重點業務。2026年下半年主要承擔TPU v7e的出貨,2027年為出貨主力年,同時2027年將疊加TPU v8e的訂單,2027年MTK有機會出現5~600%的CoWoS同比增幅。聯發科目前已將AI ASIC最為為來核心業務,作為行業巨頭,聯發科的加入也將很大影響ASIC設計的市場格局。聯發科這兩年的ASIC業務雖然這兩年高歌猛進,但由於只是做後段布線,缺乏博通強大的IP,雖然增幅大,但單價較低,對於體量本就不小的全球第三fabless巨頭來說,並不能帶來營收的大幅度增長。當然從CoWoS增量來看,聯發科在AI以及端側的佈局非常積極,又有ASIC業務的高增長加持,將是這兩年除了博通之外,ASIC陣營的最大受益者。剩下的台積電CoWoS客戶的量級就都是小於1萬片,其中微軟自研ASIC-Athena 還是由內部團隊在台積電投片小批次的不斷迭代推進。GUC創意還是小型AI晶片初創企業在CoWoS流片的首選,也是國內AI的重要第三方,畢竟GUC是台積電的親兒子。Xilinx這個最早的CoWoS客戶,因為CoWoS不斷漲價,FPGA又不如AI晶片的利潤那麼高,已經逐漸放棄高成本的CoWoS,改由成本更低的IoFO_LSI方案。剩下的兩家交換機廠家思科與中興微,因為其高端交換機有採用HBM,所以一直以來也都是台積電CoWoS客戶,只是預定量只有幾千片的水平。至此,我們得到了2026年各陣營的“彈藥”配額:再加上FPGA、Switch的 2萬多片,即時2026年台積電CoWoS的出貨總量。從彈藥分配來看,拿下整個CoWoS產能65%的GPGPU陣營還是擁有絕對的火力優勢,甚至輝達一家的火力就超過全球其他企業的總和。4. 超越數量 - 價值、生態與功耗的深層次博弈然而,僅比較CoWoS還是會誤判戰局。雖然CoWoS數量與面積是一切的根本,但不同的封裝方案,比如single-die以及dual-die方案,將導致Interposer面積出現很大的不同,每片CoWoS可切割數量有很大差別。其中最顯而易見的就是Hopper時代的每片切29顆,到了Blackwell時代的每片14顆,這正是Interposer不斷放大的結果。所以台積電CoWoS的產能增幅,對應的不只是AI晶片出貨量數量的增加,還疊加了Interposer面積不斷放大的增量。又比如2026年Google的TPU v7p是dual-die的D2D方案,interopser size 在2400mm2左右,一片CoWoS可切割16顆左右。而同一代針對推理的TPU v7e,採用single die設計,interposer size只有1500mm2左右,每片CoWoS可切數量超過30顆以上。AI晶片的Interposer越來越大的尺寸是明確的技術路線,目前Interposer是3.3x的reticle size,2026年的Rubin是4~5.5x,而2027年4-die合封的Rubin Ultra將達到9~9.5x。所以不斷放大的Interposer面積也是台積電CoWoS不斷大幅度擴產的一大主因。正因如此,以CoWoS的產能(消耗面積)增減幅度來計算企業AI營收增減幅度,會比企業的AI晶片出貨顆數量增減來的更為準確。AI晶片戰爭的勝負,除了CoWoS消耗面積以外,還要在兩個維度上評判:算力維度:一顆輝達B300的FP8算力達10 PFLOPS,而一顆定製推理ASIC的算力可能僅為其幾分之一,即便是最強的TPU v7p也只有輝達B300的一半,這還是不考慮今年與TPU v7同台競技的Rubin的差距,如果用Rubin來對比差距將更大。剛開幕的CES老黃說Rubin的性能將比blackwell在推理提升了5倍,訓練提升了3.5倍,GPU與ASIC的性能差距並沒有縮小,反而是在擴大中。因此,即使顆數接近,輝達陣營輸出的總算力(TFLOPS) 很可能仍大幅領先。這是GPU通用架構的“蠻力”優勢。總算力領先的物理基礎就是來自CoWoS消耗面積(電晶體)的多寡。價值維度:這是最殘酷的差距。輝達單顆GPU售價高達3萬美元以上,未來會提升到4-5萬美元。而云巨頭自研ASIC的“成本”僅體現為台積電的代工費用和博通的設計服務費,即便成本相差無多,但ASIC其“內部結算價”必然遠低於GPU售價。即便ASIC對外銷售,我們可以用Anthropic向博通採購210億美元的TPU為例,百萬顆的TPU v7p 扣除伺服器等諸多配置,單顆對外售價在1.5萬以下。目前最強的ASIC是採用最先進N3P製程的TPU v7p,製程領先輝達Blackwell一個世代,但其對外售價不到Blackwell的一半,這與剛才我們計算的TPU v7p的算力只有B300的一半,算力與售價差距大致上是對等。從這一點來看,完全證明我們文章剛才所說,AI晶片是多維度的比拚,不單單比摩爾定律比晶片製程,還要比誰的面積更大,能放進更多電晶體,最終表現在性能上的差別也決定他的最終價格。因此,輝達用60%的CoWoS產能,創造了整個AI加速晶片市場70%以上的收入和90%以上的利潤。這正是黃仁勳“6個季度,5000億美元狂言”的底氣 — 他賣的是“黃金”,而ASIC陣營在為自己鍛造“精鋼武器”。生態鎖死 vs. 專用解放:輝達的帝國城牆: CUDA軟體棧、龐大的開發者社區、最佳化的AI框架(TensorRT、Triton),以及NVLink、NVSwitch構成的系統級優勢,構成了幾乎無法踰越的生態壁壘。使用者購買的是一整套最強的“交鑰匙”解決方案。ASIC的破局邏輯: ASIC的優勢在於,對於CSP這類超大規模使用者,當其軟體棧完全自控,從TensorFlow/PyTorch框架到推理服務Triton,且工作負載高度特化且穩定(如搜尋推薦、廣告排名、語音識別推理)。所以自研ASIC能帶來極致的TCO(總擁有成本)最佳化和能效比。它們用“專用化”換取“去輝達化”的戰略自由和長期成本節約。最終直指CSP採用自研晶片最佳化財務報表的內在動力。這也說明了一個侷限,ASIC只有超大型CSP或者大模型等超大規模企業會使用,首先ASIC的資金以及人力投入巨大,但這兩點已經確定了客戶範圍,所有用量不大的中小型使用者都不可能使用ASIC。即便是購買現成的ASIC,我們以Anthropic向博通採購210億美元的TPU為例,這背後需要養一隻極為強大底層系統工程師團隊不斷的進行深度遷移以及適配。單這一項開支,就足以說明這並非普通企業所能承受的,當然目前GPU高昂的價格,讓市場更願意採用各種降本方案,可即便是購買現成ASIC的模式,大概也就能拓展到Anthropic這體量的大模型企業,很難再往下拓展。系統級創新與功耗牆:功耗即成本,散熱即極限: AI叢集的功耗已從幾十千瓦邁向兆瓦級,未來晶片功耗將飆升至數千瓦。風冷已到極限,液冷(包括冷板、浸沒式)成為標配。這不僅關乎電費,更決定了資料中心的物理設計和最大叢集規模。ASIC的能效優勢: 專用電路在執行特定任務時,能效通常遠高於通用GPU。這意味著在相同的供電和散熱預算下,可以部署更多ASIC算力單元。互連與封裝創新: 戰爭遠不止於單顆晶片。CPO共封裝光學是突破“功耗牆”和“互連牆”的關鍵,CPO展示了系統級互連的競爭。系統架構創新,如華為的384顆NPU互連的CloudMatrix 384,來挑戰輝達NVLink全互連系統的思路。CoWoS只是起點,其上的互連網路(NVLink, CXL, UCIe)、光引擎(CPO)的競爭同樣激烈,而且每一個技術領先都有決定性的作用,目前輝達在每一個維度上的表現都處於行業領先地位。5. GPU的技術反擊與生態擴張:2026年開年CES,黃仁勳與蘇姿丰的演講,清晰地勾勒出GPU陣營未來的技術路線圖和反擊策略,特別是對「物理AI」這一新戰場的定義,將深刻影響GPU與ASIC的競爭格局。輝達在CES宣告的戰略意圖:1.下一代「Rubin」架構正式亮相:基於台積電N3P製程,並將interpose面積放大1.4~1.6倍,首次實現整合超過3000億個電晶體的單一GPU,電晶體總數達3360億,較上一代電晶體數量提升1.6倍。並搭載下一代 HBM4 記憶體,單GPU容量直奔 288GB 甚至更高,儲存頻寬突破 22TB/s,較上一代Blackwell提升2.8倍,可見HBM4相對於HBM3e,在介面頻寬以及logic base die的提升可謂相當驚人。互連技術 NVLink 6.0 將提供超過 3.6TB/s 的GPU間直連頻寬,較上一代Blackwell提升1.8倍。推理性能比Blackwell高出5倍,訓練的性能高出3.5倍。Rubin不僅是性能的躍升,更是輝達鞏固其在訓練和複雜推理市場絕對領導地位的利器。2. 物理AI的ChatGPT時刻 :這是黃仁勳演講中最具震撼力的宣言。他認為,AI的下一個前沿是理解和模擬物理世界,應用於機器人、自動駕駛、數字孿生、科學發現(如氣候模擬、藥物研發)等領域。這些應用需要處理海量、多模態的感測器資料,進行複雜的物理模擬和即時決策,工作負載極度複雜、演算法迭代快速。為何老黃會這樣說,因為「物理AI」恰恰是通用GPU的絕對主場。定製化ASIC在處理固定、已知的模型推理時效率極高,但面對物理AI所需的持續學習、多工處理、快速演算法適配等場景,其架構僵化的劣勢將被放大。GPU憑藉其無與倫比的可程式設計性和龐大的CUDA生態,能夠靈活適應從計算流體力學到機器人控制等各種新興物理AI任務。因此,「物理AI的ChatGPT時刻」極大地擴展了GPU的應用邊界和市場總量,為其增長提供了全新的可開發疆域,這是ASIC現有技術難以切入的賽道。3.收購Groq:對ASIC的「釜底抽薪」之舉。2025年底,輝達宣佈收購專注於低精度推理和極低延遲語音模型的初創公司Groq。這筆收購遠不止是技術補充,而是對ASIC陣營的戰略性反擊。Groq的技術核心在於其LPU(語言處理單元)架構,在特定推理任務(如大語言模型對話)上能實現遠超GPU和傳統ASIC的能效和速度。輝達通過收購Groq,直接獲得了在ASIC最具優勢的「高能效推理」領域的尖端技術和產品。這使得輝達能夠以「內部ASIC」的方式,正面迎戰博通、Google等的定製化推理晶片。這不僅是產品線的補充,更是商業模式的轉變,從單純銷售通用GPU,轉變為提供「通用GPU + 特定領域最佳化加速器(如LPU)」的全端解決方案。這將有效遏制ASIC在推理市場的侵蝕,並可能奪回推理市場市佔率的重要武器。此舉加劇了AI加速器市場的融合與競爭。未來的界限不再是簡單的GPU對ASIC,而是「全端生態公司」與「專項設計公司」的對決。輝達正在利用其資本和生態優勢,將潛在的顛覆性技術收編入自身體系,戰場的主導權還是掌握在輝達手上。AMD則在CES公佈MI400系列的細節,正式發佈基於3nm增強版製程的 「AMD Instinct MI400」 加速器。核心參數瞄準超越輝達當前旗艦,宣稱在關鍵AI訓練和推理工作負載上,實現相比MI300系列100%的性能提升,並強調其能效比優勢。AMD持續推廣其開放式軟體棧ROCm,並通過與微軟Azure、Oracle Cloud等雲服務商的深度合作,以更開放且更具性價比的方案爭奪輝達之外的市場份額。蘇姿丰強調,未來的AI計算將是多元化的,AMD將為客戶提供「第二選擇」。總而言之,2026年的GPU陣營,並非消極防守。輝達通過定義「物理AI」新戰場、收購Grop補強推理短板,正在從技術和生態兩方面建構更深的護城河。AMD則堅定地走開放與性價比路線,蠶食市場。GPU的增長故事,正從單純的「大模型訓練」擴展到更廣闊的「物理世界智能化」,這為其對抗ASIC的專用化攻勢提供了戰略縱深。6. 超越產能 - 生態、功耗與終局之戰CoWoS產能決定了「彈藥」數量,但戰爭的勝負還取決於「彈藥」的效率、協同和最終產生的價值。1. 生態系統的終極壁壘:輝達的CUDA生態依然是其最堅固的堡壘。數百萬開發者、龐大的軟體庫、從訓練到部署的全端工具鏈,構成了極高的遷移成本。儘管Google的TensorFlow、PyTorch等框架也在努力實現對不同硬體後端的支援,但在易用性、性能和社區支援上,仍與CUDA有差距。ASIC陣營的優勢在於『垂直整合』,Google可以為TPU深度最佳化TensorFlow,Meta可以為MTIA定製模型。但對於廣大的企業和開發者而言,輝達全面且最優的「交鑰匙」方案仍然是最佳選擇。收購Groq後,輝達有望將這一生態優勢進一步延伸到特定推理場景。2. 功耗牆與成本牆:隨著單晶片功耗突破千瓦級,資料中心的供電和散熱成本已成為不可忽視的因素。ASIC憑藉其專用架構,在能效比(Performance per Watt)上通常有顯著優勢。這也是雲巨頭在規模化部署推理服務時傾向採用自研ASIC的核心經濟動因。輝達需要通過製程與封裝技術的進步、架構創新(如稀疏計算、低精度推理)以及系統級最佳化(如液冷、CPO共封裝光學)來對抗ASIC的能效優勢。Rubin架構和收購Groq,正是其在性能和能效兩端同時發力的體現。3. 未來的融合與分野:長遠來看,GPU與ASIC的界限會進一步模糊。輝達可能會推出更多「可配置」或「領域專用」的加速器(類似收購Groq後的產品線)。而ASIC設計公司(如博通)也可能會為不斷強化ASIC的性能,並給客戶提供更具靈活性的平台化方案。未來的競爭,將是「高度最佳化的通用平台」與「深度定製但具有一定可程式設計性的專用平台」之間的競爭。CoWoS產能依然是基礎,但在此之上,軟體生態、能效表現、總擁有成本(TCO)和對新興應用的適應能力,將成為決勝的關鍵。2026,對峙與滲透的拐點綜上所述,基於對CoWoS產能的沙盤推演、對2025年預測的覆盤以及對最新技術動向的分析,我們對2026年GPU與ASIC的對決格局得出以下結論:1. CoWoS分配格局固化,輝達主導地位難撼:2026年,輝達仍將消耗台積電過半的CoWoS先進產能,這確保了其在高端訓練和複雜推理市場的供給優勢,並在ASIC固守的推理市場不斷的嘗試進攻。ASIC陣營份額依舊維持快速增長,主要來自CSP掌握的大量推理算力的增量和生力軍頭部大模型企業的加入,短期內依然無法動搖輝達的根基,但卻能在固守方陣內不斷壯大與繁榮。2. ASIC在推理市場不斷壯大,實現規模化突破,但GPU開闢「物理AI」新戰線:ASIC憑藉成本和能效優勢,將在雲巨頭的大規模、固定模式推理場景中確立主流地位,並開始向Open AI以及Anthropic等頭部大模型公司滲透。然而,輝達通過定義「物理AI」這一全新、複雜且快速演進的賽道,為GPU找到了下一個爆發性增長點,有效避險了ASIC在傳統推理市場的衝擊。3.競爭從「硬體對抗」升級為「生態與系統級對抗」:輝達收購Groq標誌著戰術的轉變,從單純防守轉向「以彼之道,還施彼身」,用定製化能力反擊定製化。未來的競爭將是全端能力的競爭:從晶片、互連、封裝、系統到軟體和開發者生態。擁有更完整生態和更強系統整合能力的玩家將贏得最終優勢。結論以2026年台積電約115萬片CoWoS產能為沙盤推演,我們測算出:ASIC陣營(37.5萬片)達到GPGPU陣營(75萬片)剛好50%的水平,這個資料2024年為52%,2025年為45%,2026年為50%。也就是說2026年ASIC對比GPGPU的CoWoS佔比提高了5%。這再次印證,筆者2025年原文所稱,2024-2027年為ASIC超級增長周期,其中2026-2027年將是周期高峰,大家可以再次翻閱2025年全球半導體展望中原文的模型。面對ASIC基數較低的超高增長,GPGPU在基數龐大的情況下,CoWoS佔比也沒有大幅度的下滑,比筆者一年前預測的更有韌性,這除了輝達GPGPU持續熱銷以外,還有GPGPU更願意採用最新技術有較大關係,比如2026年的Rubin率先採用4~5.5x reticle的interposer,2027年很快推進到9~9.5x,這個變數將直接翻倍。而ASIC的絕對性能沒有GPGPU那般的極致要求,2026年ASIC的Interposer在2.9~3x ,在2027年也還是停留在3.3x的水平。GPGPU是面積快速放大但出貨數量微幅增長,ASIC是出貨數量快速放大而面積微幅增長,最終勝敗就表現就在CoWoS預定資料,ASIC在出貨數量增幅遠高GPGU 15%以上,但在CoWoS產能的佔比則是從45%,提升5個點到50%。根據筆者模型,2027年ASIC將來到GPGPU的58%,ASIC佔比持續增加,意味著2026-2027筆者早早預測的ASIC迎來超級增長周期,增長率超過GPGPU。至於企業營收,那自然與CoWoS出貨量成正比,晶片性能與面積(電晶體總數)成正比,同製程雙顆的dual-die性能必然是高於single-die的晶片,文前有比較過性能與售價成同比例漲跌(TPUv7與B300),也就是性能高兩倍,單價大概也會高兩倍。這裡面多少nm製程與多大的面積都對性能(電晶體數量)有決定性的影響。ASIC的代表GoogleTPU,除了CSP自研自用以外,開始向外提供,這標誌著ASIC從正式邁入“規模化部署”以不斷蠶食GPGPU領地。然而,在商業價值(營收/利潤)和算力總量上,輝達憑藉其極高的單價和通用算力優勢,在2026年及之後一段時間內,仍將保持王者地位。輝達的帝國,將繼續統治需要靈活性、創新性和全端解決方案的廣闊疆域(訓練、新興應用、中小企業、科研)。ASIC的諸侯國,將在超大規模資料中心內部,在推理、推薦、搜尋等成熟且量大的固定戰場上,建立起基於極致TCO和能效比的自治領地。未來,我們更可能看到的是一個 “GPU+ASIC”的混合算力世界:雲巨頭用輝達GPU進行前沿模型研發和訓練,同時用自研ASIC進行成本敏感的大規模推理部署。戰爭的號角早已吹響,2026年的CoWoS產能分配表,就是這場世紀算力大戰最真實、最殘酷的兵力部署圖。ASIC群雄時代結束,Google/博通已成為共主,圍獵與反圍獵已經開始,而輝達帝國依然強大。這場好戲,還在後頭!而更接近未來事實的是,這場戰爭並非一場你死我活的殲滅戰,而是一場持久且複雜的“劃界戰爭”。隨著戰爭的推進,各方勢力意圖提高競爭力去打敗對手的同時,不斷提高的技術能力,導致技術外溢,其產生的結果不一定是打敗對手,而是如哥倫布一般,隨著航海技術的提升,發現更為廣闊的新天地。AI世界還有太多未知的疆域需要更高的技術才能去探索與挖掘。未來GPGPU以及ASIC可能都是贏家。2026-2027年ASIC的增幅將繼續高於GPGPU,2028年融合了LPU的Feynman有沒有可能帶領輝達在ASIC堅守的領地攻城拔寨,目前言之過早,未來誰主沉浮猶未可知?而GPGPU以及ASIC在整體算力需求不斷上漲的雙贏背後,卻始終站著一位終極大BOSS,更大的幕後贏家不動聲色冷眼旁觀。台積電作為這場戰爭共同且唯一“軍火商”,坐擁CoWoS產能的絕對定價權,將是無論那一方獲勝都不可或缺且毫無疑問的終極大贏家。(Techcoffee)