#AI計算
英特爾AI計算王炸來了!Clearwater Forest年內上線:288核心、18A工藝
在 AI 晶片領域,英特爾始終站在行業前列。日前,英特爾在一年一度的 Intel Technology Tour(ITT)上,正式發佈了全新的 18A 製程工藝,在 RibbonFET 環繞柵極電晶體和 PowerVia 背面供電設計的支援下,18A 製程工藝能有效提高晶片的穩定性並降低功耗。圖片來源:英特爾而在技術落地方面,英特爾也在 ITT 上發佈了基於 18A 製程工藝、代號為 Panther Lake 的第三代酷睿 Ultra 處理器。同時也提前給大家預覽了基於同一工藝的 Clearwater Forest 至強 6+ 處理器,其面向資料中心場景驅動新一代AI伺服器。雷科技受邀親臨美國·亞利桑那州現場參加此次活動,關於Panther Lake雷科技已輸出專題內容解析,本文我們將聚焦Clearwater Forest 至強 6+ 這一強大的新一代處理器。18A工藝加持,全 E 核方案太吸睛不同於面向消費者和邊緣計算的 Panther Lake,至強處理器在上一代就已經實現了全 E-Core 或全 P-Core的架構(Sierra Forest、Granite Rapids)。此次預覽的 Clearwater Forest 遵循的是 Sierra Forest 的全 E 核方案,最多支援 288 個 E-Core,預計今年內可以上市;全 P-Core 方案則為 Diamond Rapids,最快可能 2026 年登場。具體來說,Clearwater Forest 是一款由多種不同工藝的 Die 疊加封裝起來的處理器:288 個 E-Core 由 12 個 18A 製程工藝的 Compute tile 提供;3 個 Active base tile 和 2 個 I/O tile 分別採用 Intel 3 和 Intel 7 製程工藝,和上一代 Granite Rapids AP 架構保持一致。另外,Clearwater Forest 也採用了 Foveros Direct 3D 技術。圖片來源:英特爾配置方面,Compute Die 中的 E-Core 採用了架構,L2 快取最高可以給到 288MB,記憶體最高支援 12 通道 DDR5,速率達 8000MT/s。作為伺服器 CPU,至強的 IO 性能也不差:Clearwater Forest 最高支援 96 條 PCIe 5.0 通道、64 條 CXL 2.0 通道、6 條 UPI 2.0 互聯鏈路,其中每路速度最高能達到 25GT/s。圖片來源:英特爾得益於 RibbonFET 環繞柵極電晶體和 PowerVia 背面供電設計,Clearwater Forest 的最高 TDP 僅為 500W。同時,Clearwater Forest 也採用 1-2 Socket,有不錯的相容性。更適應 AI 計算需求的伺服器處理器可能有人覺得奇怪,對於筆記本裡的消費級晶片,我們討論供電、散熱和能耗固然重要。但對於一直插著電,可能還泡在海水裡散熱的大型伺服器來說,我們為什麼還要討論這些「小家子氣」的事情呢?但其實,在雷科技看來,Clearwater Forest 在功耗、散熱、整合度方面的提升,才是英特爾未來改變整個 AI 產業運轉方式的「抓手」。圖片來源:英特爾當前 AI 行業的算力供需關係已經被大模型徹底改變,模型訓練和推理的規模正急劇擴張;相對應的,資料中心的電力與空間成本也水漲船高。在這種背景下,Clearwater Forest 的高能效比,能在相同的功耗和機櫃條件下,部署更高密度的算力叢集,同時推動資料中心的結構性升級。畢竟全 E-Core 的架構天然適合高平行、輕量推理、預處理等任務,只要與 GPU 的分工協作,可以顯著提升整體叢集的利用效率,讓有限的資源發揮出最大效能。其次,對 AI 服務供應商而言,Clearwater Forest 的出現意味著企業可以重新思考算力調度與成本控制的方式。在過去的服務架構中,GPU 往往被用於幾乎所有階段的計算,包括一些並不需要超強浮點能力的環節,比如資料載入、小模型推理、邏輯判斷等,這實際上造成了算力的浪費。但 Clearwater Forest 的加入可以釋放 GPU 的壓力,將寶貴的算力調度到真正的多載運算上。這不僅能降低硬體與能耗成本,也能讓推理叢集在同樣資源下服務更多使用者。圖片來源:英特爾對最終的 AI 消費者來說,Clearwater Forest 的技術升級,也將轉化為更快的響應、更穩定的呼叫和更可負擔的價格,讓更多的企業可以在自己的產品中用上 AI,並最終回饋到你我這樣的消費者身上。AI 時代,英特爾再度站在舞台中央當然了,就目前 AI 行業的發展勢態來說,GPU 仍是支撐 AI 的核心,但這並不意味著 CPU 就被 AI 時代排除在外。在 ITT 後的媒體採訪環節,英特爾就明確表示:CPU 在每一個 AI 系統裡面都有重要的作用。面對未來越來越複雜的異構算力結構,英特爾想要打造一個「中間層」,將 CPU、GPU、加速器等底層資源的差異遮蔽起來,讓上層開發者只需要面對統一的介面和標準。圖片來源:英特爾而 Clearwater Forest 的高密度 E 核和高能效設計,也恰好承擔起了「中間層」的角色:讓 GPU 專注於高強度浮點計算,CPU 則接管資料搬運、任務調度等環節,從而提升整體算力的利用效率。圖片來源:雷科技可以肯定的是,在 18A 製程工藝的推動下,Panther Lake、Clearwater Forest 和 Diamond Rapids 將成為 AI 時代的轉折點,用全新的資源調度理念重塑 AI 計算的模式,從消費者和服務商入手,共同加速 AI 技術的普及。 (雷科技)
HBM的另一場內戰
當前,HBM晶片已成為AI計算的標配,其核心優勢源於DRAM晶片的垂直堆疊結構。現階段,主流的晶片堆疊技術為熱壓鍵合(TCB)。該技術通過熱量與壓力,將帶有微小凸點(如錫球或銅柱)的DRAM晶片逐層精密連接。然而,隨著HBM技術的持續迭代,TCB技術逐漸暴露出瓶頸。特別是當晶片堆疊層數超過16層時,傳統的凸點結構會顯著影響良率。此外,凸點本身還限制了互聯密度,可能導致訊號完整性下降,這與HBM對更高頻寬和更低功耗的需求相違背。這就是混合鍵合登場的時候了。混合鍵合技術是一種革命性的解決方案。它無需凸點,直接在DRAM晶片之間進行銅-銅直接鍵合,從而實現更緊密的晶片互聯。在半導體行業,“一代技術,催生一代裝置”。隨著HBM封裝即將邁入混合鍵合時代,裝置廠商的“賣鏟”之爭也進入白熱化。在混合鍵合裝置的研發競賽中,和HBM一樣,陷入了同樣的韓國內戰。從TC鍵合到混合鍵合HBM封裝的必由之路由於摩爾定律的放緩導致傳統單晶片設計的成本增加和物理限制,行業正在轉向採用小晶片和3D整合晶片(3DIC)技術來繼續提升裝置性能並降低成本。在這一轉型中,封裝已不再僅僅是保護晶片的“外殼”,而是成為驅動AI晶片性能提升的關鍵因素。Besi的下圖顯示了一個AI晶片所需要用到的多種封裝解決方案,包含多種連接技術和元件,如混合鍵合、熱壓鍵合、晶片上晶圓 (CoW) 倒裝晶片與扇出封裝、倒裝晶片CoS、光子學、中介層連接、小晶片塑膜。AI小晶片封裝所需要的一系列先進封裝解決方案 (來源:Besi)作為後端封裝的核心環節,鍵合技術正朝著減小I/O間距、提高I/O密度的方向演進,以滿足未來晶片對更高頻寬和更小封裝的需求。根據Yole Group的《後端裝置行業現狀報告》,晶片鍵合技術的技術路徑大致為:標準倒裝晶片 → 助焊劑型TCB → 無助焊劑TCB → 銅-銅直接鍵合→混合鍵合。混合鍵合則代表了這一技術路線的最終目標。Yole預測,到2030年混合鍵合裝置將增長至3.97億美元,細間距、高密度互連對於先進的3D整合至關重要。晶片鍵合技術的發展趨勢(來源:Yole)混合鍵合技術之所以備受矚目,源於其顯著的優勢。按照Besi的說法,相比TCB,混合鍵合技術的互連密度提高15倍,速度提升11.9倍,頻寬密度可實現191倍之高,能效性能提升超過100倍。雖然混合鍵合需要更高的基礎設施成本,但它帶來的每互連成本卻低了10倍。此外,混合鍵合還能將HBM堆疊溫度降低20%。TCB和混合鍵合的性能與成本對比 (來源:Besi)不過目前,全球尚無任何一家公司成功實現該裝置技術的量產化應用。其背後主要有三大原因:一是當前的TC鍵合機還夠用,尤其是今年4月份,JEDEC(制定HBM4標準的標準化組織)決定將HBM4的封裝厚度由720微米放寬到775微米,現有技術的“窗口期”有所延長;二是其大規模量產仍是巨大的技術挑戰,需要極高的裝置精度和工藝控制;三是混合鍵合裝置的價格太貴,據韓美半導體董事長Kwak Dong shin稱,每台混合鍵合機的成本超過 100 億韓元,是Hanmi TC 鍵合機價格的兩倍多。儘管面臨上述挑戰,混合鍵合作為未來HBM技術發展的必然方向,眾多裝置廠商仍將其視為戰略重點。根據Besi的預測,通過在三種不同情景下的預測:低情景(Low case)、中情景(Mid case)和高情景(High case),到2030年,混合鍵合裝置的累計裝機量預計將在960至2000台之間,這比2024年時的預測高出了7%。混合鍵合系統的累計裝機量預測(#台) (來源:Besi)低情景:主要由邏輯晶片的應用驅動。AMD、英特爾和博通等主要廠商已確認或正在開發相關應用,包括用於AI ASIC、高端PC/筆記型電腦CPU的系統級晶片(SoIC)等。中情景:主要由記憶體和共同封裝光學(Co-packaged optics, CPO)的應用驅動。所有領先廠商都在評估混合鍵合與熱壓鍵合(TCB)用於HBM4。混合鍵合的HBM5堆疊預計將在2026年出現。HBM2/2E和HBM3/3E是當前市場的主力,從2026年開始,HBM4/5將進入市場,其市場份額將快速增長。到2029年,預計HBM4/5將佔據高達68%的市場份額,成為主導技術。同時共同封裝光學技術也從潛在應用走向現實。輝達在2025年3月推出了採用共同封裝光學(CPO)技術的網路交換機產品:Spectrum-X乙太網路交換機整合了36個3D光子學小晶片;Quantum-X800 InfiniBand交換機整合了18個3D光子學小晶片。它們改採用的台積電的COUPE技術就使用了混合鍵合來組裝這些3D光子學小晶片,並且每台交換機裝置中都使用了多個通過混合鍵合連接的小晶片。像輝達這樣的行業領導者正在將光子學小晶片與核心晶片進行共同封裝,而混合鍵合是實現這種高級整合的關鍵技術高情景:由新興應用驅動,包括智能眼鏡、微顯示器、感測器和智慧型手機等。可見,隨著這些新興應用的不斷發展,混合鍵合技術將在未來的AI計算、高性能計算和其他前沿技術中發揮關鍵作用。“技術為王,裝置要先行”,於是我們可以看到,混合鍵合領域的裝置廠商正加速推動裝置的研發與創新,以迎接這一技術變革的到來。韓國的本土激烈內戰談到混合鍵合裝置,荷蘭裝置製造商 Besi 是首相要被提及的。經過多年的發展,他們已經在混合鍵合市場站穩了腳跟。2025年上半年,Besi的混合鍵合業務的營收增長顯著,較2024年上半年翻了一倍多。2025年Q3的訂單,預計將比第二季度顯著增加,這主要得益於對混合鍵合和AI相關2.5D計算應用需求的增長。Besi不僅在技術路線圖上持續演進,更在今年4月迎來了重磅盟友——美國半導體裝置巨頭應用材料(AMAT)。4月15日,應用材料收購了Besi 9%的股份,成為其最大股東。雙方聯合開發的整合式混合鍵合系統,融合了應用材料在前端晶圓處理的專業知識和Besi在高精度鍵合上的領先技術,被普遍認為在技術穩定性上優於其他公司,並已開始向三星和美光等巨頭提供測試裝置。此外,奧地利 EVG、德國 SUSS 也是混合鍵合裝置的主要供應商。發跡於中國香港的裝置大廠ASMPT同樣是混合鍵合賽道的重要玩家。公司在2024年第三季度,向一家邏輯市場客戶交付了首台混合鍵合裝置。在2024年內,又獲得了兩台用於高頻寬記憶體(HBM)應用的新一代混合鍵合裝置的訂單,這些裝置計畫在2025年中期交付。在今年7 月 23 日的 2025 年第二季度財報電話會議上,ASMPT指出,計畫在第三季度向HBM客戶交付這些下一代系統。但要數這個領域的競爭,韓國廠商在這個領域無疑是最為亮眼的一股勢力。憑藉同時擁有SK海力士和三星這兩大HBM巨頭,這個小國成為了全球裝置廠商的“角鬥場”。在這場技術競賽中,本土的裝置廠商憑藉近水樓台的優勢,迅速崛起。韓美半導體(Hanmi Semiconductor)和韓華半導體(Hanwha Semitech)作為兩大TC鍵合裝置的供應商,也是混合鍵合這一賽道上的兩支主要力量。最近,LG電子也想進來分一杯羹。作為HBM鍵合領域的先行者,韓美半導體憑藉其深厚的技術積累和市場主導地位,展現出強勁的實力。該公司成立於1980年,擁有約120項HBM裝置相關專利,尤其在HBM3E的12層生產用TC鍵合機市場,佔據了超過90%的市場份額,是SK海力士和美光的核心供應商。在混合鍵合領域,韓美半導體同樣具備先發優勢。其首席財務官Mave Kim透露,公司早在2020年就製造出第一台混合鍵合機。為加速商業化處理程序,韓美半導體已投資1000億韓元,在仁川建設一座佔地超過14,500平方米的混合鍵合機工廠,計畫於2026年下半年竣工,併力爭在2027年底實現商業化。此外,韓美半導體還與半導體裝置公司TES簽署了技術合作協議,旨在結合韓美在鍵合機上的技術優勢和TES在電漿、薄膜沉積等領域的專長,共同提升混合鍵合裝置的競爭力。韓美半導體提供混合鍵合機工廠的鳥瞰圖 (來源:韓美半導體)而韓華半導體作為韓美半導體的競爭對手,也毫不示弱。其近期宣佈已完成第二代混合鍵合機的開發,直接向韓美半導體發起挑戰。韓華半導體也是SK海力士主要的TC鍵合機供應商,今年贏得了SK海力士價值約805億韓元的TC鍵合機裝置的訂單。兩家公司在TC鍵合機領域的激烈競爭關係,預示著混合鍵合領域的角逐將更加白熱化。除了這些傳統的裝置廠商,韓國電子巨頭LG電子正在通過“曲線”戰略,強勢進軍混合鍵合裝置市場。據韓媒Pulsed的報導,LG正聯合仁荷大學、慶北科技園區和小型裝置製造商組成聯盟,開展“HBM混合鍵合機開發”國家項目。LG的目標是2028年完成概念驗證,2030年實現全面商業化。雖然這一時間表相對保守,但其入局意義重大。這不僅體現了LG對半導體裝置業務的戰略重視,也表明韓國政府層面正在通過國家項目推動關鍵技術的國產化。LG 電子首席執行官趙周完 (Cho Joo-wan) 最近在社交媒體上發帖稱,公司“正在擴大產品組合,通過投資下一代 HBM 生產所必需的專業技術來支援人工智慧基礎設施”。LG 進軍該領域,源於其生產技術中心十年來在半導體裝置研發方面的積累。該公司此前已擁有向外包半導體封裝測試 (OSAT) 公司供應晶片貼裝到基板的標準鍵合機的經驗,並在此基礎上,正在向更複雜、更精密的半導體裝置領域拓展。LG 還在加快其他裝置的開發,包括用於半導體玻璃基板的精密雷射系統和用於 HBM 的六面高速檢測機,以豐富其裝置組合。LG的強大研發實力和產業整合能力,使其成為混合鍵合賽道上一股不可小覷的新興力量。值得注意的是,除了上述三家獨立的裝置廠商,三星也正通過其裝置子公司SEMES,悄然佈局混合鍵合領域。此舉旨在降低對外部供應商的依賴,並增強自身在HBM封裝上的掌控力。據業界消息,SEMES正在與三星電子DS部門緊密合作,共同攻克混合鍵合機的技術難題,併力爭在今年年底或明年向三星電子提供能夠用於量產的混合鍵合機。這支“自研力量”的加入,無疑為韓國的混合鍵合裝置市場增添了更多變數。寫在最後當然,作為最為關注的半導體市場,中國本土的混合裝置發展也尤為關注。例如上市公司拓荊科技就在這個裝置有所佈局。初創企業方面,中國半導體鍵合整合技術領域的領先企業青禾晶元半導體科技(集團)有限責任公司(簡稱“青禾晶元”)在年初宣佈,正式推出全球首台C2W&W2W雙模式混合鍵合裝置SAB8210CWW。據介紹,這款混合鍵合裝置具備多尺寸晶圓相容、超強晶片處理能力、相容不同的對準方式等優勢,可以幫助客戶減少裝置投資支出、佔地面積以及大幅縮短研發轉量產周期等優勢,能夠為Micro-LED、NAND/DRAM/HBM等儲存器、堆疊積體電路 (SIC)和系統級晶片 (SoC)提供廣泛的支援。(參考文章《國產混合鍵合裝置,重磅發佈》)按照Besi預計到2030年,混合鍵合的市場規模將達到12億歐元,該預測基於HBM5等新一代高頻寬記憶體將逐漸從傳統的TCB技術轉向混合鍵合技術的假設。同時,Besi還看好TCB Fluxless(無助焊劑熱壓鍵合)這個新興市場。我們如何看待這個市場的機遇? (半導體行業觀察)
牙膏擠爆,輝達提前掏出了核彈級「RTX 6090」
輝達一張剛發佈的 AI 計算卡,竟提前炸出了下一代遊戲旗艦卡 RTX 6090!輝達最近不是推出了一塊專為 AI 上下文推理打造的全新系列 GPU——Rubin CPX。初看它只是作為 VR NVL144 CPX 專業平台的一部分,但隨後有外媒指出,Rubin CPX 的設計極有可能與下一代 RTX 6090遊戲顯示卡有關。瞭解完後小憶發現,這句話並不是沒有道理。首先,與以往 AI 專用計算卡通常閹割掉光柵單元不同,Rubin CPX 完整保留了光柵單元、顯示引擎,甚至還有全套 ROP 單元。眾所周知,純 AI 工作負載壓根用不上這類元件,相反對於傳統遊戲圖形渲染它們卻是不可或缺。同時,Rubin CPX 也沒有用上高貴的 HBM 高頻寬記憶體,而是常規 GDDR7視訊記憶體。我直接好傢伙,這不就是標準的下一代遊戲顯示卡通用範本?另一方面,輝達對於自家產品向來是刀法精湛,主打一個能充分榨乾每一代新架構、核心的利用價值。那麼將 Rubin CPX 核心進行一番閹割後(特別是視訊記憶體部分)用在下一代消費級顯示卡上,可能性確實相當之大了。這也意味著,咱們說不定能通過 Rubin CPX 的核心規格提前看到 RTX 6090 表現。具體來講,NVIDIA 已公佈的資料顯示,Rubin CPX 可整合 16 個圖形處理叢集,總共 192 個 SM 單元。而如果對應下一代消費級遊戲顯示卡完整的 Rubin GR202 核心,SM 單元數量則將提升至 224 或 256個,CUDA 核心則分別提升至 28672與 32768個。對比目前 RTX 5090 GB202 的 170 個 SM 單元和 21760 個 CUDA,核心規模再次提升了 30%以上。這個提升幅度也比較符合近兩代 RTX 旗艦顯示卡標準。視訊記憶體方面,Rubin CPX 的 128G 容量自然是無法完整繼承。以目前遊戲卡 32G 天花板來看,RTX 6090 與國內特供 RTX 6090D 大機率將繼續保持 32G 和 24G。咱們大膽做一波預測,僅參考其核心規模升級幅度,RTX 6090 整體性能提升恐怕不會低於 30%。別忘了,這還是在沒考慮核心架構升級的情況下。由台積電 5nm 工藝升級為台積電 3nm的 Rubin 架構,這方面估摸著又是一坨不小的牙膏……綜合來看,在全新架構以及大漲的核心規模加持下,RTX 6090 性能再次暴漲基本是沒跑了。當然,同時暴漲的應該還有功耗!若在 RTX 5090 600W 基礎上繼續上漲 30%,那麼將直逼 800W大關。新一代千瓦級國家電網戰略合作夥伴就此誕生!壞消息是,老黃又有理由漲價了……如今輝達在顯示卡領域的打法雖說越來越野,但步子卻愈發穩健。前不久 JPR 公佈的 Q2 季度獨顯 GPU 報告顯示,輝達市場份額已高達94%。能有如此成績,除了深耕 CUDA 生態外,在高端市場的持續發力同樣十分關鍵。反觀 AMD,RX 9000 系列高端獨顯的缺席致其市場影響力嚴重下滑,市場份額更是從去年的 12% 大幅下滑至如今的 6%。好消息是,在前段時間的高盛大會上,AMD 提出了他們在 GPU 市場上的中期目標——將份額提升至 20%。這一目標也被市場解讀為其下一代桌面獨顯將重新回歸高端市場,期待值拉滿。最後,希望 AMD 能在接下來的 RX 10000 系列上給我們帶來些驚喜吧。畢竟你再不努力,我們就真買不到便宜的 N 卡了! (程式設計奇點)
一樣買不起
剛剛,全線跳水!輝達,重大發佈!
全球市場最關注的一份財報出爐。今日凌晨,全球“AI總龍頭”輝達披露的最新財報顯示,2026財年第二財季實現營收467.43億美元,同比增長56%,略高於分析預期的462.3億美元。其中,第二財季資料中心收入為411億美元,略低於分析師預期的412.9億美元,且其給出的業績指引也不夠亮眼,引發市場對AI支出增長勢頭放緩的擔憂。受此影響,輝達股價在美股盤後交易中直線跳水,一度大跌超5%,美股其他晶片股盤後亦全線下挫,AMD、博通美股盤後均跌超1%,AI計算概念股美股盤後普跌,超微電腦跌超2%,CoreWeave跌超1%。輝達CEO黃仁勳在財報中表示,Blackwell Ultra的量產正在全速推進,需求異常強勁。稍後,其在分析師電話會議上表示,AI需求非常、非常高,未來存在重大的、快速成長的機會。輝達財報出爐台北時間8月28日凌晨,輝達公佈了截至自然年2025年7月27日的公司2026財年第二財季(以下簡稱“第二財季”)財務資料,以及2026財年第三財季(以下簡稱“第三財季”)的業績指引。財報顯示,輝達第二財季實現營收467.43億美元,同比增長56%,略高於分析預期的462.3億美元。其中,資料中心貢獻營收為411億美元,同比增長56.4%,略低於分析師預期的412.9億美元,前一財季同比增速為73%。第二財季實現淨利潤264.22億美元,同比增長59%;上年同期為165.99億美元,高於市場預期的234.65億美元;調整後淨利潤為257.83億美元,同⽐增長52%,市場預期249.2億美元;調整後每股收益1.05美元,同⽐增長54%,市場預期1.01美元。第二財季的毛利率出現了小幅下滑,第二財季毛利率為72.4%,較上年同期的75.1%下降3.1個百分點;按非美國通用會計準則(Non-GAAP),毛利率為72.7%,與上年同期的75.7%下降3個百分點;剔除1.8億美元的H20晶片庫存釋放影響,毛利率為72.3%。市場高度關注的業績指引方面,輝達預期,2026財年第三財季營收540億美元上下浮動2%(592億—551億美元),分析師預期為534.6億美元;預計毛利率為73.3%,按非美國通用會計準則為73.5%,上下浮動50個基點;按非美國通用會計準則,該公司仍預計到年底實現75%左右的毛利率。雖然輝達給出的營收預測看似符合預期,但部分分析師樂觀預計該數字應該接近600億美元。輝達指出,其第三財季營收預期未包含任何向中國市場的H20晶片出貨量。隔夜美股收盤,輝達微跌0.09%,報181.6美元/股。財報披露後,輝達股價在美股盤後交易中直線跳水,一度大跌超5%,截至發稿,跌幅超3%。此次財報還揭示了輝達在中國市場晶片銷售方面面臨的持續挑戰。輝達提到,第二財季公司沒有向任何來自中國的客戶出售H20晶片,但之前被中國市場訂購H20晶片庫存釋放了1.8億美元。另外,輝達財報顯示,2026財年上半年,輝達以股票回購和現⾦股息的形式向股東返還了243億美元。截⾄第二財季,公司剩餘的股票回購授權⾦額為147億美元。2025年8⽉26⽇,董事會批准公司額外增加600億美元的股票回購授權,且該授權⾦額⽆有效期。在財報發佈前,RSM首席經濟學家Joseph Brusuelas表示,今天股市中唯一重要的就是它的財報。輝達被視為廣泛市場的風向標,也是AI發展重要指標,其財報可能影響今年的股市漲勢。黃仁勳:需求異常強勁輝達創始人兼CEO黃仁勳在財報中表示:“Blackwell是全球期待已久的AI平台,實現了卓越的代際飛躍,Blackwell Ultra的量產正在全速推進,需求異常強勁。輝達NVLink機架級計算具有革命性意義,它的到來正值推理型AI模型推動訓練和推理性能實現數量級增長之際。AI競賽已然開啟,而Blackwell正是這一競賽的核心平台。”稍後,黃仁勳在分析師電話會議上表示,AI需求非常、非常高,未來存在重大的、快速成長的機會,未來前景“無限光明”。關於中國市場,黃仁勳表示,中國今年可能帶來500億美元的商機,中國市場年增長大約50%,希望向中國市場銷售更新的晶片。他說道:“中國是全球第二大計算市場,也是AI研究人員的聚集地,全球約有50%的AI研究人員在中國。我認為,對於美國科技公司來說,進軍這個市場至關重要。”談及ASIC晶片帶來的競爭威脅,黃仁勳稱,輝達現在提供的是複雜的產品系統,而不僅僅是晶片。輝達技術存在於所有的雲中,更具有能效性。輝達首席財務官克萊特·克雷斯(Colette Kress)表示,預計到本世紀末,人工智慧基礎設施支出將達到3兆至4兆美元。今年主權人工智慧業務的收入有望達到200億美元以上。萊特·克雷斯表示,公司正在等待白宮對輝達和AMD支付的15%晶片銷售收入匯款的正式規定,作為允許其繼續在該地區銷售晶片的條件。她補充說,輝達準備出貨價值20億至50億美元的H20晶片。 (券商中國)
光晶片,火力全開
光子學在資料中心人工智慧的加速中發揮著越來越重要的作用。全球光學元件市場規模龐大,去年營收達170億美元。歷史上,電信行業(例如海底電纜和光纖到戶)一直是光學元件需求的主導。然而,資料通訊領域,尤其是人工智慧驅動的資料中心,如今佔據了超過60%的市場份額。這種轉變正在加速光學技術的發展。為了跟上AI計算叢集(XPU,包括GPU和定製加速器)不斷提升的性能,光傳輸速率正在快速提升。圖1:光學元件市場歷史及預測據摩根大通稱,最大的光學元件供應商是相干公司和旭創科技(各佔20%的市場份額),其次是博通,佔10%。眾多規模較小的供應商也在為不斷擴大的生態系統做出貢獻。大模型 (LLM) 推動 AI 資料中心增長大型語言模型 (LLM) 正在推動 AI 工作負載呈指數級增長。隨著 AI 能力的提升和成本的下降,需求也隨之激增。LLM 規模的不斷擴大需要龐大的 XPU 叢集。互連需求的增長速度超過了 XPU 數量本身的增長速度,這迫切需要高頻寬、低延遲的網路解決方案。博通首席執行官 Hock Tan 指出,資料中心的網路成本正在攀升,從目前資本支出的 5% 到 10% 上升到 2030 年預計的 15% 到 20%。圖 2:AI 叢集規模呈爆炸式增長例如,Oracle 雲基礎設施 (OCI) 正在部署通過 NVLink72 互連的 131,000 個 Nvidia Blackwell GPU 的叢集。圖 3:Oracle 雲基礎設施超級叢集產品,助力生成式 AI橫向擴展與縱向擴展網路在人工智慧資料中心中,互連主要有兩種類型:橫向擴展:光纖鏈路連接跨機架和跨行的交換機擴大規模:電氣鏈路連接少量機架內和機架之間的 GPU圖 4:資料中心的光學系統雖然橫向擴展網路已經是光學的,但縱向擴展網路向光子學的轉變正在進行中,但尚未完成。橫向擴展網路中的光學進步光子技術是橫向擴展架構的核心。如今,可插拔光纖收發器能夠實現數十米範圍內部網路卡和交換機之間的資料傳輸。隨著資料速率的提升,這些解決方案面臨著越來越大的功耗和性能限制。Oracle 的 131K-GPU 架構在其橫向擴展網路的三個層級上均使用了光纖鏈路。然而,傳統的可插拔光纖鏈路功耗巨大。圖 5:Oracle 光纖叢集網路結構圖6:功耗和TCO仍然是主要考慮因素為了滿足LLM的增長和吞吐量需求,橫向擴展網路中的資料速率不斷提升,網路功率已超過加速器機架功率。據Nvidia稱,從可插拔光模組轉換為CPO(共封裝光模組)可以大幅降低1.6Tbps鏈路的光模組功率,從30W降至9W。在 GTC25 上,Nvidia 推出了首款搭載 CPO 的橫向擴展交換機。其節能特性可實現更高的 GPU 密度——在相同的資料中心功率範圍內,GPU 數量最多可增加 3 倍。圖 7:Spectrum-X 光子技術可節省 3.5 倍功耗可靠性是從銅纜到光纖再到CPO的關鍵考慮因素。人工智慧資料中心的資料量巨大,而且增長速度飛快,就像iPhone一樣。從統計資料來看,良率和可靠性必須非常高。Google平台光學總監表示,每天0.004%的鏈路故障率聽起來不錯,但對於100萬條鏈路來說,這意味著每天有40條鏈路故障。光學解決方案需要設計成極低的故障率,並在非常苛刻的條件下進行測試,並使用非常大的樣本量,以確保量產成功。擴大網路中 CPO 之路目前,縱向擴展互連仍以銅線為主。Nvidia 的 Blackwell 架構採用全銅解決方案 NVLink72,其廣泛的布線貫穿了主機板、交換機和機架背板。如今訊號頻率極高,銅線束可以直接連接到 GPU,從而繞過傳統的 PCB 走線。圖 8:Nvidia 的路線圖已延伸至 NVLink576,該線路仍使用銅纜,但不斷提升的資料速率和訊號完整性問題最終將需要採用光纖解決方案然而,銅纜的侷限性正日益凸顯。Nvidia 的路線圖已延伸至 NVLink576,該線路仍然使用銅纜,但不斷增長的資料速率和訊號完整性問題最終將需要光纖解決方案。微軟提出了對未來AI加速器的CPO要求,希望用一個具有可組態介面的單一物理層來取代現有的介面。圖9:新的互連場景需要統一介面,並具有更嚴格的延遲和可靠性要求新的統一介面需要“兼顧兩者”——合併後的規範比它們所取代的傳統介面更好。這給CPO帶來了更大的挑戰,但同時也擴大了市場。圖10:新的統一介面需要比它所取代的傳統介面更好Nvidia 還提出了對 CPO 與 AI 加速器整合的要求:圖 11:Nvidia 的 CPO 要求這些要求雖然具有挑戰性,但切實可行。Needham & Company 建議,在 Scale-Up 網路中,CPO 的初步遷移將發生在單個 GPU 域內的機架之間,而機架內連接暫時仍採用銅纜連接。100% 的資料中心 AI 晶片均由台積電製造。他們深度參與所有主要 AI 廠商的技術路線圖:他們只開發主要客戶所需的產品。台積電在 4 月底的年度技術大會上展示了其 AI 晶片路線圖,其中包括共封裝光學器件:他們預見到了這一趨勢,並正在為此做好準備。市場前景和行業參與者預計未來幾年內,規模化網路將開始向 CPO 過渡,並在 2030 年代大規模替換可插拔式光模組。到 2030 年,CPO 市場規模將從目前的零增長到 50 億美元。博通、Marvell、Ayar Labs、Celestial AI 和 Lightmatter 等早期進入者以及 Coherent 等雷射器供應商都將從中受益。圖12:光學元件快速發展,CPO將在2027-2030年出現光子學不再僅僅賦能人工智慧,它正成為人工智慧規模化發展中不可或缺的一部分。到2030年代中期,所有互連都將是光學的,並且都將採用CPO。 (半導體行業觀察)