#AI行業
CPO,過熱了?
在AI基礎設施被資本與產業合力推向發展高潮的當下,凡是與“光”“互聯”“頻寬”“功耗”掛鉤的技術方向,都極易被貼上“下一代核心技術”的標籤,迅速成為市場追逐的焦點,其中共封裝光學(CPO),正是這股熱潮中最具代表性的存在。然而,就在行業對 CPO 的討論熱度節節攀升之際,博通首席執行長陳福陽(Hock Tan)卻在2025 財年第四季度財報電話會議上,為這股狂熱情緒澆下一盆冷水。“矽光子學在短期內不會在資料中心發揮實質性作用。”陳福陽並未簡單粗暴地否定這項先進技術地未來,他在後續問答中解釋,矽光子、CPO 絕非對現有技術的“跳躍式”替代方案,而是需要在既有互聯技術路徑的潛力被徹底榨乾後,才會被產業被動啟用的終極選擇。他將整個互聯技術的演進邏輯清晰梳理:首先是機架級銅互聯的規模化落地,隨後是可插拔光模組(Pluggable Optics)的持續迭代升級,唯有當這兩條技術路徑均觸及物理性能與經濟成本的雙重極限,矽光子 / CPO 才會真正成為行業剛需。“這一天一定會到來,但不是現在。”當然,給CPO降溫的並非只有博通一家。在最新的巴克萊第 23 屆全球技術大會上,包括Arista、Credo、Marvell、Astera、Lumentum在內的一眾行業頭部企業,均傳遞出了相似的聲音。從“算力不足”到“互聯焦慮”事實上,過去幾年裡,AI行業已經逐漸走出了早“單純堆算力的階段。即便是輝達這樣的算力王者,也在有意淡化對單點計算性能的強調,轉而反覆突出互聯、網路以及系統級架構的重要性——因為在大模型時代,真正決定上限的,早已不只是晶片本身。隨著模型參數規模與叢集規模同步呈指數級擴張,AI叢集的核心瓶頸也開始悄然從計算能力轉向互聯能力。此時考驗行業巨頭的,已不再只是能否豪擲重金採購更多GPU,而是如何在超大規模系統中實現高效互聯:通訊效率是否足夠高、延遲是否可控、系統能否穩定協同運行,正逐步成為決定算力能否“用得起來”的關鍵因素。行業顯然早已預見到這一變化。博通首席執行長陳福陽在財報電話會議中透露,其客戶正在規劃和部署規模超過10萬顆GPU的超大型AI叢集;而Arista在技術大會上進一步指出,行業內部討論的目標,已經指向百萬GPU等級的叢集架構。多位產業領袖的判斷趨於一致:當AI叢集規模從數千顆GPU擴展到數十萬、乃至百萬等級時,網路不再只是“頻寬夠不夠”的問題,而是演變為一整套系統性挑戰——包括互聯可靠性、功耗上限、可維護性以及整體部署節奏。正因如此,過去一年中,巨頭們反覆強調的關鍵詞也發生了明顯變化:Scale-Out(橫向擴展)、Scale-Up(縱向擴展)、Scale-Across(跨域擴展),以及功耗牆、鏈路可靠性、系統級協同設計……這些看似偏“工程化”的概念,實則標誌著行業對AI基礎設施瓶頸認知的一次深刻轉向——AI的競爭重心,正在從算力本身,全面邁向互聯與系統能力。橫向擴展用不到首先來說橫向擴展(Scale-Out),這一概念往往稱為叢集系統,通過增加獨立的伺服器來分散工作負載,從而提高計算容量,類似於輝達InfiniBand。對於巨頭而言,橫向擴展目前似乎還用不到CPO。博通陳福陽的表態最具代表性:800G可插拔技術於2022年推出,增長周期將持續至2026年;1.6T產品已進入量產,預計增長至少持續到2029年;3.2T技術已完成展示。“未來5-7年,可插拔光模組仍將佔據主導地位,這也是橫向擴展領域的CPO技術尚未被廣泛採用的原因。”Lumentum的袁武鵬進一步細化了2026年的市場結構預測:光連接埠總量將達到6000萬-7000萬個,同比增長接近翻倍。其中800G連接埠約佔55%-60%,1.6T連接埠約佔15%-20%。這一資料表明,即便1.6T技術已經就緒,800G仍將是2026年的絕對主流,行業並未出現“激進躍遷”。Marvell首席營運官Chris Koopmans的觀點進一步強化了這一判斷:“橫向擴展領域的CPO技術最終會到來,但仍需數年時間。在傳輸距離較長、需要互操作的市場中,可插拔產品的採用速度較慢。”他特別指出,客戶已經完成400G產品的軟體認證,當800G產品推出後,從400G向800G的遷移“幾乎是即時完成的”,新部署項目迅速採用了800G解決方案——這正是軟體預認證帶來的生態優勢,也是可插拔架構的核心護城河。Arista也強調,在1.6T速率下,“我們仍然有信心實現低功耗光模組(LPO)的穩定運行;同時,共封裝銅纜(CPO)等技術也在評估之中,這些都是潛在的差異化優勢。率先推出下一代速率產品並快速實現商業化,是我們的核心差異化策略之一。”縱向擴展也不著急?縱向擴展(Scale-up)專注於升級單台伺服器或基於機箱的系統,通過向現有系統增加晶片來提升算力,它曾被視為CPO技術的“第一戰場”,是CPO最有希望應用的場景。但在這個最需要CPO的場景中,量產時間表也被大幅推遲。CPO的急先鋒Marvell收購Celestial AI後給出了新的營收目標:2027年底年化營收達5億美元,2028年底翻倍至10億美元。其解釋道,這一時間表主要基於首款產品和首個客戶的落地情況。Celestial AI帶來的16太位元芯粒產品,其性能是橫向擴展領域最先進1.6T產品的10倍,具有完全不同的外形尺寸、密度、頻寬和技術特性——但即便如此,大規模商業部署仍被推遲至2027-2028年。Astera Labs的Jitendra Mohan給出了更為詳細的時間預判:“隨著系統複雜度提升、資料速率增長,以及客戶希望將縱向擴展領域從1個機櫃擴展到2-4個機櫃,轉向光學技術將成為必然選擇。我們與客戶就這一交匯點展開了深入合作,預計將在2028-2029年實現大規模部署。但光學技術的部署不會一蹴而就,2027年將進行一些測試性部署,為2028年的大規模部署做準備。”為什麼即便是最需要的場景,CPO應用時間表也被推遲?Lumentum的袁武鵬給出了供應鏈視角的解釋:“CPO供應鏈仍相對較新,需要時間來提升產能以支援大規模需求。因此,當前的供應限制並非源於基礎產能不足,而是因為供應鏈尚不成熟,供應商需要時間來適應需求增長。”Credo的CEO Bill Brennan則從產能角度分析:“縱向擴展場景的需求將是現有需求的數倍。我們目前已經在積極擴大產能,而縱向擴展場景將進一步大幅提升產能需求。這需要整個行業的共同努力,我們正在與多個客戶就此展開溝通,並已開始相關工作。”更深層的原因,是各種過渡方案的生命力超出預期。Astera Labs的Mohan坦言:“客戶之所以不願轉向光學,是因為光學技術需要更高的功耗和成本。”而博通則強調:“我們認為CPO是正確的技術方向,但我們不確定這些產品是否會完全部署,因為我們的工程師和行業同行會儘可能通過機櫃內銅纜和可插拔光模組實現縱向擴展,只有當可插拔光模組和銅纜都無法滿足需求時,矽光子技術才會成為必然選擇。”功耗與可靠性:比頻寬更真實的約束條件對於巨頭而言,功耗和可靠性正是他們遲遲不願意全面擁抱CPO的重要原因之一。Credo的Bill Brennan用具體案例闡釋了這一挑戰的嚴重性:xAI原本使用基於雷射的光模組連接18個機櫃的叢集,後來計畫遷移到液冷設施,將機櫃數量從18個壓縮到6個。團隊向Credo提出:“如果你們能生產7米長的線纜,我們就能建構一個‘零中斷’叢集。”因為銅纜解決方案的可靠性眾所周知,是絕對穩定的。“零中斷”這個概唸給了行業巨大啟發。Bill Brennan指出,從那時起,Credo的團隊開始重點攻克可靠性難題,“尤其是針對GPU與第一級交換機(T0)之間的鏈路。我們最近推出的所有產品,其差異化優勢核心都圍繞可靠性展開。”在巨頭看來,互聯技術首先要可靠可控,而非一味追求極限性能;可預測、可診斷、可維護,往往比“理論最優”更重要。Lumentum的袁武鵬在談到ZeroFlap光學解決方案時,詳細闡述了這一理念的技術實現。他指出,甲骨文與xAI一樣面臨鏈路中斷問題,但他們的鏈路長度遠超7米,只能採用基於雷射的光模組。Lumentum的方案核心是:在鏈路中斷髮生前識別潛在風險,並通過主動干預加以緩解。具體而言,Lumentum重新設計了定製化光學DSP,使其能夠在帶內(in-band)通訊——即在傳輸高速資料的同時,實現DSP之間的雙向通訊,傳輸遙測資料。然後將試點軟體進行深度整合,將原始資料轉化為可用的遙測資料;再通過交換機SDK實現與客戶網路的整合。“如今,我們能夠為客戶提供即時、持續的遙測資料,包括訊號強度與接收靈敏度、前置誤位元率、後置技術直方圖等;還能識別靜電放電(ESD)損壞、檢測光纖上的灰塵。這一解決方案遠超傳統雷射光模組的系統級能力。”就目前而言,短距互聯的可靠性上限,依然掌握在銅纜/ AEC手中,CPO並非替代者,其優勢更多來自距離、密度和系統可觀測性。Arista在演講中還提到了功耗這一行業關注的核心問題。“我們產品的功耗通常比同類產品低約25%——當大規模部署產品時,這一優勢將尤為顯著。當前,功耗是行業關注的核心問題之一,低功耗交換機無疑具備很強的市場吸引力。”過度方案,正在“吃掉”CPO的敘事空間值得關注的是,LPO、AEC、ALC等過渡方案也在持續蠶食、分流原本被寄望於CPO的應用空間。越來越多廠商在實踐中形成了一種微妙的共識:現有互聯生態遠未觸及邊界,CPO並非唯一答案,也不是當下的終局。LPO(線性驅動可插拔光模組)被視為一種替代方案。Arista稱,LPO技術“可以說是Arista向行業輸出的前瞻性創新”,其聯合創始人Andy Bechtolsheim提出了這一概念,並推動行業廣泛採用。“目前,800G速率的LPO光模組已實現大規模部署,該技術為客戶帶來了顯著的成本優勢:由於無需數字訊號處理器(DSP),資本支出更低;同時功耗更低,營運支出也相應減少,客戶可以將節省的功耗預算用於部署更多計算裝置。我們有信心在1.6T速率下實現LPO技術的穩定運行。”LPO的邏輯是“去DSP → 降功耗、降成本”,對交換機與光模組廠商來說,這是“架構最佳化”,而非“生態重構”,相對應的,AEC(有源電纜元件)與ALC(有源光纜)的邏輯則是在2–30米這個最密集、最關鍵的互聯區間,提供接近銅纜的可靠性 + 接近光學的頻寬。Credo的Bill Brennan強調,AEC在資料中心的應用場景非常廣泛,“除了多種解決connectivity問題的方案外,無論是後端網路的橫向擴展/縱向擴展交換機機櫃、前端連接,都存在大量超越標準的創新機會。因此,AEC領域將持續湧現更多創新。”他特別指出,Credo的獨特之處在於開創了這個市場,且“必須深入產業鏈各個環節,對產品的每一個方面都承擔責任”——這種端到端掌控能力,構成了難以踰越的競爭壁壘。Marvell推出的“黃金線纜計畫”,正是AEC這一邏輯的延伸。Marvell的Chris Koopmans指出,線纜產品與光模組本質上沒有區別,超大規模客戶希望實現多源供應。“我們的‘黃金線纜計畫’本質上是一個完整的參考設計,向相關企業展示如何打造符合要求的產品。之所以能實現這一點,是因為我們的DSP在PAM4技術方面性能強勁、功能強大,能夠適配各類線纜——我們無需端到端控制和定義整個產品,而這正是客戶想要的。”ALC技術則是另一個重要方向。Credo的Bill Brennan指出,當行業最終需要CPO替代方案時,“我們在ALC中投入的微LED技術將直接應用於近封裝光學(near-package optics),其功耗僅為CPO的1/3,且無需像當前展會上展示的那樣採用複雜的交換機設計。因此,我們認為當行業最終需要CPO替代方案時,我們的技術路徑將更具優勢。”CPO的現實問題清單綜合多家公司的表態,CPO面臨的挑戰高度一致,且集中在工程與商業層面而非技術可行性。可維護性是最突出的痛點。Lumentum的袁武鵬直言,CPO技術“經過多代演進,其核心目標是降低成本和功耗。目前行業仍在解決可維護性等相關問題,我們相信隨著技術成熟,CPO將得到廣泛應用。”博通的陳福陽更明確指出CPO的三大根本缺陷:“從成本來看,CPO肯定更貴;從可靠性來看,基於雷射的CPO遠不如現有技術;從功耗來看,它也不是當前討論的所有技術中最低的。這些缺陷導致CPO遲遲未能量產。”系統設計複雜度是另一重障礙。Marvell的Chris Koopmans指出,縱向擴展領域所需的光互聯技術是一種完全不同的技術類型,必須直接與千瓦級XPU和交換機共封裝,具有完全不同的外形尺寸、密度、頻寬和技術特性。Astera Labs的Jitendra Mohan補充道,光鏈路由三個元件構成:電積體電路(EIC)、光子積體電路(PIC)和連接器——“連接器是關鍵元件,負責將光子積體電路的光輸出耦合到光纖,目前限制了光學技術的規模化(量產數百萬EIC和PIC相對容易,但可靠地連接光纖等環節面臨挑戰)。”成本結構不確定性困擾著所有參與者。博通的判斷最為直接:“從成本來看,CPO肯定更貴。”這不是便宜的光模組,而是昂貴的系統工程——散熱、供電、測試、維修全部需要重構。除此之外,生態尚未形成,需要交換機、光學、封裝、軟體協同成熟。Lumentum的袁武鵬在談到橫向擴展CPO時指出,“客戶的機會成本非常高,所有項目都需要即時產能爬坡,他們沒有時間去認證新的供應商。”而對於新技術,這種生態成熟度的建立需要多年時間。為什麼超大規模雲廠商不著急?有趣的是,即便是技術最激進、資金最充裕的超大規模雲廠商,對CPO的態度也異常謹慎。Lumentum的袁武鵬給出了一線觀察:“目前,客戶仍然更傾向於依賴現有的供應鏈,因為他們已經建立了高度的信任——知道這些供應商能夠實現產能爬坡,且產品可靠性、質量都有保障,而這種信任需要時間積累。尤其是現在,客戶的機會成本非常高,所有項目都需要即時產能爬坡,他們沒有時間去認證新的供應商。”這透露出了一個行業關鍵矛盾:CPO技術的部署窗口,與超大規模客戶的部署節奏存在根本性錯配。Arista的Hardev Singh在談到雲客戶需求時指出:“二級雲廠商和企業客戶的合作模式略有不同:這些客戶有明確的需求和上市時間要求,他們關心的是‘供應商是否能提供現成的網路解決方案,快速部署並投入使用’。而與超大規模雲廠商的合作則完全不同——他們始終追求前沿技術,傾向於採用尖端創新方案。”但即便是“始終追求前沿技術”的超大規模雲廠商,在面對CPO時也表現出了審慎態度。原因何在?第一,可靠性要求極高,容錯空間為零。Credo的Bill Brennan反覆強調:“在超大規模客戶使用的任何人工智慧系統中,除了XPUs等定製加速器,還包含大量其他元件,因此我們認為以系統形式銷售並對整個系統承擔全部責任是合理的。”而CPO技術一旦出現問題,是“整板級風險”,遠超可插拔光模組的故障隔離能力。第二,維運體系的慣性巨大。Lumentum的袁武鵬指出,所有超大規模雲廠商“都擁有自己的網路團隊”,已經建立了完善的認證、測試、維運流程。Marvell的Chris Koopmans補充道:“客戶的認證周期通常在一年前就已啟動,即使後來推出性能合格的產品,要在多個模組生態系統、多種雷射類型以及所有超大規模客戶要求的特定外形尺寸中完成認證,也需要很長時間。而如今,客戶最關注的首要因素是上市時間。”第三,供應鏈安全優先於技術領先。博通陳福陽在財報會議上強調:“隨著需求增長和創新封裝的需求提升,封裝已成為一項極具技術性的挑戰。建設新加坡工廠的核心目的是部分內部化先進封裝產能——我們認為,基於強勁的需求,內部化封裝不僅能最佳化成本,更能保障供應鏈安全和交付穩定性。”而CPO技術的供應鏈成熟度,遠低於可插拔光模組。第四,架構靈活性需求強烈。Astera Labs的Jitendra Mohan指出:“目前,許多客戶仍在規劃整體架構。如果將所有功能都整合到單片晶片中,客戶現在就必須做出決策。但在行業標準尚未最終確定、另一端的交換機尚未推出的情況下,誰會冒險將所有賭注押在某一種協議上?”而可插拔架構恰恰提供了這種靈活性。Marvell的Chris Koopmans總結道:“歸根結底,我們需要評估每個機會:我們的角色是什麼?客戶是否要求我們這樣做?我們能帶來什麼差異化價值?以及我們在該領域能否獲得可持續的競爭優勢?目前,客戶要求我們專注於PCI Express及其向UALink的轉型——這對我們來說是一個巨大的機會,因此我們的重點在此。”CPO不是偽命題,但現在顯然“被講早了”對於行業而言,CPO更像是互聯體系的“最後一公里”技術,而非下一代架構的默認選項。它解決的是現有技術路徑徹底失效之後的問題,而不是當下迫在眉睫的瓶頸。這一判斷,在博通首席執行長陳福陽的表態中得到了高度概括。他直言:“未來某個時刻,矽光子學將會成為實現高速傳輸的唯一途徑,屆時它的重要性便會凸顯,但我們目前還未到那個階段。只有當可插拔光模組技術也無法滿足需求時,矽光子學才會成為最終的解決方案。這一天終將到來,我們也已做好準備,只是不會很快實現。”換言之,CPO是終極解法之一,但不是當前階段的最優解。因此,在相當長的一段時間內,LPO、AEC、ALC 以及ZR光模組仍將承擔資料中心互聯的主力角色。相比之下,CPO的應用場景將更加收斂——主要集中在極高連接埠密度、極端功耗約束、以及現有架構已經“無解”的特定系統中,而非大規模鋪開。多家廠商給出的技術路線與時間表,也印證了這一判斷。Arista的Hardev Singh明確表示,LPO的演進遠未結束:“我們有信心在1.6T速率下實現LPO技術的穩定運行,目前相關研發工作正在推進中。”Credo首席執行長Bill Brennan則從另一條路徑給出了更具“反直覺”的判斷:“我們在ALC中投入的微LED技術將直接應用於近封裝光學,其功耗僅為CPO的三分之一,且無需複雜的交換機設計。因此,我們認為,當行業最終需要CPO替代方案時,我們的技術路徑將更具優勢。”在時間節點上,行業的判斷也正在逐步收斂:2026年:800G仍佔主導,1.6T開始放量,LPO / AEC持續增長2027年:1.6T成為主流,CPO進入小規模測試與驗證階段2028年及以後:CPO在特定場景(主要是縱向擴展的高密度系統)中開始規模化部署Lumentum的袁武鵬對這一節奏給出了相對激進、但依然謹慎的預測:“到2027–2028年左右,首批採用CPO的客戶中,約有40%–50%的交換機將基於CPO技術。但這一判斷仍存在較大不確定性,客戶也在根據自身業務節奏進行評估。”Astera Labs的Jitendra Mohan則給出了幾乎一致的判斷:“我們預計將在 2028–2029 年實現大規模部署。光學技術的演進不會一蹴而就,2027 年更多是測試性部署,為後續放量做準備。”由此,真正的問題已經不再是“要不要 CPO?”,而是“在什麼條件下,現有方案真的不夠用了?”Marvell光學與互聯業務負責人Chris Koopmans給出了最務實的回答:“歸根結底,客戶在光學技術選擇上存在很大分歧。我們的理念不是強迫客戶接受某一種路徑,而是支援他們的選擇——如果客戶希望將其指定的光子技術與我們的電晶片和封裝方案結合,我們會非常樂意配合。”這或許正是理解當前CPO討論熱度與實際部署節奏錯位的關鍵所在:在PPT裡,CPO非常重要;在機房裡,它並不緊急。行業真正需要的,不是技術可行性證明,而是系統必要性證明。只有當 LPO、AEC、ALC等路徑在功耗、密度、可靠性上同時觸頂,CPO才會從未來選項轉變為當下必需。而從當前幾乎所有行業巨頭的共同表態來看,那個時刻,還沒有到來。 (半導體行業觀察)
甲骨文百億項目融資突然「告吹」,美國AI泡沫恐慌來襲?
美國時間12月中旬,有報導稱,甲骨文在美國資料中心項目的主要支持者Blue Owl Capital將不會資助密歇根州一個價值100億美元的資料中心。這被視為百億項目融資“告吹”,該消息迅速放大並引發市場對AI泡沫的擔憂。實際上,自9月初見頂以來,甲骨文股價已下跌近45%。作為近兩年推動美股牛市的關鍵因素,AI行業對於明年市場的走向依然至關重要。難道,美國此輪 AI 基建周期已經提前來到了拐點?甲骨文的AI故事不香了?7 個月前,甲骨文官方帳號在社交媒體上發佈了一段頗具象徵意味的視訊。畫面中,時任甲骨文雲基礎設施負責人 Clay Magouyrk 正帶領 OpenAI CEO 山姆·奧特曼(Sam Altman)參觀德克薩斯州阿比林(Abilene)首個“星際之門(Stargate)”項目現場。Magouyrk 對奧特曼形容道:“這裡就像是小孩子在玩很大的玩具。”甲骨文官號配文稱:“我們正在建設全球最大的 AI 訓練設施。”當時,多家媒體援引知情人士稱,OpenAI 未來幾年將向甲骨文支付千億美元規模的算力費用。圖:2025年4月,OpenAI CEO奧特曼造訪甲骨文資料中心現場這一敘事迅速傳導至資本市場。甲骨文股價從 4 月 21 日的約 122 美元一路上漲,在 9 月初一度衝至 320 美元以上,也讓 81 歲的聯合創始人埃裡森以約 3832 億美元的身家,短暫超過馬斯克,重回世界首富寶座。幾乎在同一時期,主導雲端運算基建項目的 Clay Magouyrk 被提拔為甲骨文聯席 CEO。但進入年末,隨著投資者逐漸將目光從“故事規模”轉向“兌現這些承諾所需付出的成本”,甲骨文股價開始回吐此前全部漲幅。問題不再是 AI 有沒有前景,而是這條路到底要花多少錢、多久才能回本?信用市場最先“翻臉”曾因做空安然成名的大空頭吉姆·查諾斯(Jim Chanos),在 12 月初毫不避諱地公開炮轟甲骨文資產負債表擴張過快,正逼近財務承壓區間。他在播客採訪中直言,作為五大超大規模雲廠商之一,甲骨文為了追趕同行而採取了激進投資策略,但新增資本投入並未帶來相應的利潤回報。“如果用新增營業利潤除以新增投入資本來計算,甲骨文的回報率只有大約 8.5%,而微軟接近 40%。”查諾斯指出,這意味著甲骨文目前無法收回增量資本成本。在他看來,更大的不確定性來自 AI 變現時間表本身。市場普遍假設 AI 的貨幣化拐點將在 2027到2028 年出現,但如果這一節點被推遲至 2030 年,甚至最終無法兌現,甲骨文將面臨根本性的財務挑戰。這並不是對 AI 技術前景的否定,而是對當下資本配置邏輯的質疑。這一點,在甲骨文 12 月初的財報電話會上被體現得更加直接。多位分析師反覆追問:甲骨文在 AI 上到底要花多少錢?但管理層並未給出清晰的數字答案。私募信貸開始轉向?與此同時,私募信貸市場也在重新定價風險。紐約投資公司 Blue Owl 過去是甲骨文多項大型資料中心項目中的關鍵資本方。其典型做法是通過設立特殊目的公司(SPV),引入銀行融資,並以甲骨文的長期租約作為現金流支撐,從而幫助甲骨文實現“資產負債表外”的擴張。在德州阿比林、新墨西哥等項目中,這一模式運轉順暢。但密歇根項目成為分水嶺。隨著市場對 AI 支出規模、甲骨文自身債務水平以及項目執行風險的態度發生變化,貸款方開始要求更嚴格的租賃和債務條款。在融資成本上升、槓桿空間收緊的情況下,該項目對 Blue Owl 的財務吸引力明顯下降,最終導致其在放款前選擇退出。儘管甲骨文緊急“滅火”稱,項目的股權交易最終談判進展按計畫進行,整體推進符合預期,但市場的擔憂已經被點燃。OpenAI能否付得起錢?另一條逐漸被市場放大的質疑,來自OpenAI算力訂單的可靠性。摩根大通分析師埃麗卡·斯皮爾在 12 月 15 日關於甲骨文的研報標題為“如果你建造它,他們(OpenAI)會付錢嗎?”投行D.A.Davidson 科技研究主管分析師 Gil Luria 在 12 月 12 日的一份報告中直言,“鑑於 OpenAI 不太可能兌現其 3000 億美元的承諾,我們認為甲骨文最好的做法是主動重組該合同,以更負責任地部署資本,而不是假裝擁有 5230 億美元的剩餘履約義務( RPO)。”剩餘履約義務(RPO)指的是企業已簽訂的、但尚未確認為收入的合同銷售。換句話說,OpenAI承諾在未來五年向甲骨文支付3000億美元購買算力,但並非一定發生。截至 11 月 30 日,甲骨文的 RPO 已躍升至 5230 億美元。“OpenAI 誤導了甲骨文,甲骨文又誤導了投資人。” Gil Luria 在接受採訪時表示,儘管甲骨文被頻繁提及為 OpenAI 的重要基礎設施合作方,但在實際算力分配、合同結構以及未來擴展中,其最終能分得多少,仍缺乏透明度。11月初,OpenAI 先後與微軟、亞馬遜簽署新的合作協議,算力來源呈現明顯的多元化趨勢,讓甲骨文在OpenAI生態中的位置變數增加。更重要的是,OpenAI 在AI需求中的位置也處在變動中。一來,隨著Google等資金實力更雄厚的競爭對手加速追趕,新一代 Gemini 模型獲得市場好評,奧特曼本人在12月初已經通過公司內部信發出“紅色警報”,那怕推遲其他產品的開發,也要全力押注GPT在AI競爭中保持身位。也就是說,在技術路線快速演進的背景下,OpenAI 是否能夠持續保持領先,並不確定。二來,OpenAI 與晶片製造商輝達之間的協議仍懸而未決。兩家公司曾於 9 月 22 日宣佈簽署意向書,稱輝達將在多年內向OpenAI投資多達 1000 億美元,OpenAI 則購買數百萬輝達專用晶片用於其 AI 基礎設施。外界曾期待OpenAI會把輝達的投資轉手給甲骨文購買算力。但兩個多月過去了,協議仍未正式簽署。輝達在最新財報中表示,“並不保證任何投資會按預期條件完成,甚至根本不會完成。”AI競爭進入“現金流檢驗期”?甲骨文並非唯一重注 AI 的科技公司,但在這一輪投資周期中,卻處在對資本最為敏感的位置。在 AI 浪潮之前,甲骨文依賴高度可預測的現金流和約 70% 毛利率的傳統軟體業務,能夠支撐穩定回購與分紅。但 AI 投資打破了這一平衡。資料中心和算力基礎設施意味著資本高度前置、回報周期拉長,執行節奏成為關鍵變數。相比之下,微軟和Google擁有更強的現金流緩衝,更容易消化長期資本消耗。當資本已經投入、收入尚未兌現、利率仍處於高位時,市場開始重新評估,那家公司的資本結構,能夠承受更長時間的回報延遲。儘管公司已任命新的聯席 CEO,但是否繼續為 AI 承擔高強度投入,最終仍由創始人拉里·埃裡森拍板。Oracle 的英文原意是“神諭”。當 AI 投資進入結算階段,市場關心的也不再是預言是否宏大,而是誰能撐到預言兌現的那一天。 (新浪科技)
行業深度:從風冷到液冷 資料中心散熱的破局與未來
數字經濟爆發下,全球資料中心耗電量佔比逐年攀升。據統計,2024年中國資料中心能耗總量1660億千瓦時,約佔全社會用電量的1.68%,同比增長10.7%。2024年全社會用電增速為6.8%,資料中心用電量增速遠高於全社會用電量平均增速【1】。資料中心能耗已成為不可忽視的能源消耗領域。隨著人工智慧技術的迅猛發展,AI相關行業正經歷著前所未有的快速增長和技術迭代。這一變革不僅推動了社會的進步,也帶來了對計算能力的巨大需求。智能計算中心,作為AI技術發展的核心基礎設施,正面臨著前所未有的挑戰。01AI行業的快速發展AI技術的進步和應用場景的拓展,使得智能計算中心的建設成為推動行業發展的關鍵。技術的快速迭代要求資料中心能夠迅速適應新的計算需求,保持技術的領先地位。02高密散熱的需求關注隨著AI計算密度的增加,散熱問題成為智能計算中心必須面對的挑戰。高密度計算裝置產生的熱量如果不能有效管理,將直接影響資料中心的穩定性和效率,甚至可能導致裝置損壞和性能下降。03液冷技術的應用為瞭解決高密度散熱問題,液冷技術作為一種高效、環保的冷卻解決方案,已經成為智能計算中心散熱管理的重要趨勢。液冷技術能夠有效降低資料中心的能耗,提高裝置的散熱效率,是應對高密度散熱挑戰的有效手段。隨著晶片功耗增長加速,在面對不同業務需求時,製冷解決方案變得更多多樣。隨著機架功率密度的不斷攀升,行業內普遍認同,40~60kW/Rack已經達到了風冷極限,超過這個能力邊界,無論是考慮到散熱能力還是散熱成本,必須開始部署液冷。資料中心製冷從完全風冷邁向風液混合製冷,不同機架功率密度的製冷解決方案推薦如圖1所示。▲ 圖1 不同功率密度機櫃製冷解決方案機櫃功率密度在20~25kW以內時,常規遠端風冷方案即可解決伺服器散熱需求。當機櫃功率密度進一步提升,單機櫃功率密度在25~45kW時,就應該開始考慮近端風冷的解決方案。風冷方案再疊加背板熱交換器(Rear Door Heat Exchanger,RDHx),可以進一步解決單機櫃60kW以內的散熱需求。單機櫃功率密度在40~60kW時,就可以開始考慮採用液冷,但根據伺服器或晶片不同,也可以更早開始採用液冷。即使採用液冷,根據風液比不同,伺服器仍然有5%~50%的熱量需要通過風冷散熱來解決,風液混合將成為大多數高熱密度機櫃散熱方案。根據伺服器供液溫度要求,室外一次側需選擇不同的散熱方案。伺服器供液溫度要求大於40℃時,室外一次側散熱可以採用完全自然冷的解決方案,當伺服器供液溫度要求較低時,室外一次側需要採用機械冷卻。在單機櫃功率密度小於40kW時,考慮伺服器類型,往往更多選用風冷技術。為實現PUE要求,各類自然冷技術在機房空調裝置中已經大量應用。從節能技術維度,可以分為三類:01風側自然冷方案通過利用室外低溫空氣直接為資料中心供冷。在實際應用中有兩種方案:直接空氣自然冷,直接引入自然界新風對資料中心進行冷卻,但該方案受空氣質量、濕度等因素限制,適用場景較為有限。間接空氣自然冷,借助換熱器實現自然界低溫空氣與資料中心高溫空氣的熱交換,以降低機房溫度。此類方案可有效解決空氣質量及濕度問題,但在夏季室外溫度較高時,其應用仍會受到限制。02水側自然冷方案通過利用低溫水源或者水蒸發潛熱來為資料中心供冷。在過往的水側自然冷應用案例中,有直接引入湖水為資料中心供冷的方式,但此方案受水質條件,以及可能對當地生態環境影響的限制,應用範圍較窄。另一種通過水蒸發利用自然冷的方式應用則更為普遍,常見的冷卻塔及間接蒸發冷裝置等,在開啟水噴淋的情況下,均屬於水側自然冷,通過水的蒸發潛熱利用自然冷源。03氟泵自然冷方案通過氟泵來驅動冷媒循環,付出少量機械能,在室外低溫時將室外自然冷源的冷量通過冷媒相變傳遞至機房,從而達到降低機房降溫的效果。一般氟泵自然冷和壓縮機製冷整合在一個系統裡,當室外低溫時,壓縮機停止運行,啟動氟泵完成製冷循環。當時外溫度較高時,則需要啟動壓縮機來完成製冷循環。以上自然冷方式可以單獨應用,或者組合應用,充分挖掘室外自然冷潛能,實現節能效果。近期在資料中心領域應用比較多的混合雙冷源方案,即為一種組合式的自然冷方案。機房空調設計兩組盤管,層疊安裝。高溫迴風首先經過第一組盤管進行預冷,此時預冷冷源可以是氟泵自然冷,也可以是冷卻塔提供的冷卻水,之後通過第二組盤管,第二組盤管可以是氟泵自然冷,也可以是壓縮機機械製冷,根據製冷需求進行自動切換,詳見圖2所示。▲ 圖2 兩種不同雙冷源自然冷方案通過“預冷+補冷”的控制思路,實現自然冷源利用最大化,從而實現空調裝置高能效,有效幫助降低資料中心PUE。以資料中心常用100kW空調為例,採用上述自然冷技術的機組,在以下區域應用,可以達到的製冷因子CLF如表1所示。在空調機組100%輸出的條件下,水側自然冷通過利用更長時長的自然冷,製冷因子更低,見表2所示。在空調機組75%輸出條件下,可以看到氟側機組的能效提升更快,在北京以及上海,均可表現出比雙冷源機組更好的節能效果,見表3所示。隨著負載率進一步降低,在空調機組50%輸出條件下,氟泵自然冷機組的能效已經全面優於水側自然冷雙冷源機組。不管採用那種雙冷源,北方全年室外環境溫度更低,可以收穫更好的節能效果。隨著負載率降低,氟泵自然冷工作時長顯著增加,氟泵功耗遠小於水泵功耗,在各地均可獲得更好的節能效果。可以看到,利用“預冷+補冷”設計方案,兩類雙冷源方案可達到系統級的製冷因子相當,在選擇具體方案時,需結合項目地自然條件進行選擇。液體冷卻是指利用高導熱性能的流體介質(諸如25%丙二醇諸如25%丙二醇,去離子水、冷卻液或製冷劑)而不是空氣來冷卻資料中心。液體直接參與資料中心關鍵發熱源(如伺服器內部高性能晶片)的熱量交換過程。液冷技術縮短了熱傳導路徑,使得熱量能夠更直接、更有效地從熱源匯出,進而顯著降低了對伺服器內部風扇輔助散熱的依賴,從而降低整體能耗與噪音水平。資料中心液冷技術的應用可細分為兩大主流類別:直接到晶片(Direct-to-Chip, DTC)冷卻技術,常被稱為冷板冷卻,其特點在於將冷卻液直接匯入至伺服器內部,通過緊貼晶片的冷板結構實現高效熱交換。浸沒式冷卻技術,該技術將整個或部分伺服器元件完全浸沒於非導電冷卻液中,實現熱量的全面、均勻散發。在DTC配置中,液體不直接與電子元件接觸,液體冷卻劑被泵送到解決伺服器內部電子元件散熱的冷板上。雖然大部分熱量都被冷板帶走了,但仍然需要風扇來幫助去除電路板層面的熱量,儘管風量和風速都非常低。在這種情況下,一些設計通過空氣將熱量從伺服器機箱交換出去,而另一些設計則需要在機架或行級使用熱交換器將熱量傳輸到主冷卻回路,具體見圖3冷板液冷系統原理圖。▲ 圖3 冷板液冷系統原理圖CDU是液體冷卻系統中必不可少的元件,可在整個系統中均勻分配冷卻液。CDU建立了一個獨立的二次側回路,與提供室外散熱的一次側回路隔離開,並調節和控製冷卻液的流量以保持二次側回路所需的溫度和流量。其次,CDU要採用高耐腐蝕性的不鏽鋼材質,確保與冷卻液的完美相容,有效防止腐蝕。設計上尤其要注重關鍵器件的冗餘備份,如電源、泵、感測器及過濾器等,確保系統在任何情況下都能穩定運行。同時,CDU需內建精準溫控系統,能有效消除伺服器CPU和GPU的熱衝擊問題。此外,配備補液罐以滿足長期運行需求,並設有自動排氣裝置以排除空氣,保持冷卻效率。1)供液溫度冷板液冷系統的供液溫度設計需充分考慮不同晶片及伺服器製造商的特定要求,如Dell可能接受高達32℃甚至更高的供液溫度,而Nvidia則設定在25℃至45℃的較寬範圍內。需要注意的是,必須嚴格避免供液溫度過低,以防止水蒸氣凝結現象的發生,這可能嚴重損害IT裝置的正常運行。此外,系統還需具備強大的穩定性,確保在一次側流量出現波動時,二次側仍能維持穩定的供液溫度,以保障整體散熱效能與裝置安全,見圖4所示。▲ 圖4 一次側流量波動,二次側仍可保障穩定供液溫度2)供液流量冷板液冷系統的供液流量設計是確保高效散熱與穩定運行的關鍵環節。CDU(冷量分配單元)在此過程中扮演著核心角色,負責精確調控一次流體與二次流體的流量。具體而言,二次流體需維持穩定的流速進入IT裝置,以在裝置滿載時能夠有效從冷板中帶走所有熱量,保持IT入口溫度的恆定。同時,一次流體的流量則根據需散熱的熱量動態調整,並依據CDU的接近溫度(ATD)進行調整,見圖5所示。▲ 圖5 一次側流量波動,二次側仍可保障穩定回液溫度為了確保流量控制的精準性,系統要採用壓差控制並輔以即時監控,以確保系統中的洩漏不會導致壓力下降。此外,通過CDU內,泵與電源的冗餘設計,系統能夠在關鍵業務場景下保障流量的連續供應,進一步提升整體系統的可靠性與穩定性。3)過濾要求冷板液冷系統要求冷卻液順暢通過冷板內極其微小的通道,這些通道的寬度可精細至低於50微米,甚至達到30微米以內。堵塞不僅會限制流量,甚至可能完全中斷IT裝置的冷卻,導致維護成本急劇上升,因此系統對冷卻液的過濾精度提出了嚴格標準。通常,這一精度需低於冷板通道的最小尺寸,業界經驗傾向於採用25微米或更細的過濾等級。此外,為確保系統長期保持清潔狀態,CDU(冷量分配單元)需持續進行線上過濾,這是維護系統高效運行與延長使用壽命的關鍵措施。4)流體選擇在設計冷板液冷系統的初期,選擇合適的流體化學成分及可靠的供應商非常重要。一旦確定流體策略,後續的任何更改都將涉及繁瑣且成本高昂的清洗與淨化過程。此外,流體的選擇還會在偵錯階段帶來顯著複雜性,包括循環測試、雜質沖洗以及系統氣泡的排除,這些工作對於每台伺服器及整體解決方案的順利運行都至關重要。在整個系統使用周期內,對液體的持續關注同樣不可或缺,需定期進行pH值、外觀、抑製劑濃度及污染物水平的檢測,以確保其性能穩定與系統的持續高效運行。同時,所有冷卻液均需遵循嚴格的儲存與處理規範,並配備適當的個人防護裝置以保障操作安全。在冷板液冷系統的二次側流體選擇中,存在三種主流方案。首先,去離子水配方液換熱效果優越,然而其腐蝕風險不容忽視,需採取額外措施加以防範。其次,乙二醇配方液雖具備一定的防腐能力,但其毒性相對較大,且在環保要求較高的地區,其排放處理成為一大現實問題。最後,丙二醇配方液作為Intel、Nvidia等業界巨頭推薦的選擇,由於其防腐效果更好,成為眾多使用者信賴的優選方案。在選擇時,需綜合考慮流體性能、成本、環保要求及安全性等多方面因素,以做出最適合自身需求的決策。5)故障預防和檢測在冷板液冷系統中,除了二次流體網路內其他感測器的監測外,CDU的嚴密監控與管理是預防並儘早發現故障的關鍵。資料中心尤為關注洩漏問題,大部分洩漏案例發生在manifold與伺服器軟管快速斷開附件處,對IT裝置影響很小。但伺服器機箱內部的洩漏,特別是發生在內部manifold、軟管與冷板之間的洩漏,則對IT裝置構成重大威脅。因此,實施額外過濾與感測器在內的防錯系統至關重要,這些措施不僅能在熱交換性能下降時提供預警,還能有效遏制人為錯誤導致的污染物增加或液體質量漏檢風險,從而全面提升系統的穩定性與安全性。液體輔助DTC冷卻:機箱級、閉環的獨立產品,帶有冷板、泵和散熱器,針對處理器的局部熱點。熱量通過伺服器內部的液體-空氣熱交換器消散。與液體-液體DTC冷卻相比,這種液體輔助DTC產品不需要和伺服器外部的液體進行熱交換,也不需要CDU或其他液體基礎設施或對現有基礎設施進行修改,同時能夠解決高密度點。全液冷板冷卻:目前大部分DTC冷卻伺服器僅覆蓋高功率、高發熱部件,如中央處理器(CPU)、圖形處理器(GPU),其他部件仍需通過風扇提供的氣流進行冷卻,包括記憶體、儲存、硬碟驅動器/固態驅動器、外圍元件互連高速通道/開放計算項目(OCP)卡和電源單元。全液冷板冷卻配置將為所有部件配置冷板,並使用液體進行冷卻,完全消除風扇,進一步提高電源使用效率(PUE)。根據執行階段液體的狀態,DTC還可以進一步分為單相和雙相兩類。在單相系統中,液體冷卻劑始終保持液態。在雙相系統中,液體冷卻劑蒸發以將熱量從液體中轉移出去,然後通過熱交換器冷凝並轉換回液態。負壓液冷:有三個氣密性較好的液腔,分別是主真空腔、儲液腔、輔真空腔。主真空腔和輔真空腔交替保持高真空度確保工藝冷媒從伺服器冷卻環路流回,儲液腔保持較低的真空度使工藝冷媒流進伺服器冷卻環路。二次泵採用低揚程潛水泵,安裝於儲液腔內部,當檢測到二次側供液溫度低於機房的露點溫度時,潛水泵將停止工作以確保不會有凝露產生。配有真空泵等負壓系統(包含氣液分離器、消音排氣口,空氣流量感測器),用以保證三個腔體的真空度。三個腔體各配有兩個氣動開關閥,一個接通真空泵,另一個接通大氣相連的氣液分離器,用於控制各個腔體的真空度,以確保液體順利循環。伺服器不同,伺服器運行的冷卻液體溫度不同。根據水溫,冷板液冷有不同的製冷系統架構設計方案。當一次側水溫在W32及以下時,一次側冷源不能完全依靠冷卻塔全年供應,需要補充額外的機械製冷,即冷凍水冷源機組,常見可用的冷凍水冷源機組有水冷冷水機組、風冷冷水機組等。1)同源液冷方案和風冷部分均採用冷卻塔同源冷卻塔方案,不同末端例如液冷部分(XDU)以及水冷型空氣處理機組(AHU)等所需負荷都由同一冷卻塔進行供應。2)非同源液冷方案採用冷卻塔,風冷部分採用機械製冷或冷機非同源方案,包括高水溫不同源風冷和高水溫不同源冷凍水方案。當採用不同源風冷補冷方案時,精密空調和液冷CDU分別採用不同的冷卻塔或乾冷器;當採用不同源冷凍水方案時,空氣處理機組(AHU)冷源採用冷水機組,液冷部分(XDU)冷源採用冷卻塔,見圖6所示。▲ 圖6 風液混合系統製冷架構3)風液方案:機房已有風冷精密空調裝置,需要部署少量液冷機櫃,此時集中式風液型CDU方案是優選方案。CDU和液冷機櫃間通過軟管連接,液冷伺服器中的熱量通過冷板,Manifold,以及管路傳遞至風液CDUSB 隨身碟管,最後散至機房,再通過機房空調將所有熱量帶至室外,見圖7所示。▲ 圖7 風液方案系統製冷架構在做液冷方案選擇時,需要考慮伺服器可接受的冷卻液溫度,以及機房條件,來選擇適合的製冷系統架構方案。在當前的AI算力範式下,擴大算力的一個基本邏輯是不斷提高“堆疊”密度,由此帶來(單位空間內)的能量密度持續上升,將進一步推動液冷技術的應用。基於此,對於未來智算中心液冷技術發展方向可以概括為以下兩點:目前主流的冷板式液冷仍然存在較大比例的熱量需要風冷解決,這對智算中心的複雜度造成了很大影響。進一步降低風冷佔比,是進一步提升單機櫃功率密度、降低資料中心複雜度的迫切需要。傳統冷板方案可進一步最佳化伺服器和冷板設計,將主要發熱器件儘可能使用冷板散熱,單相浸沒式液冷、全覆蓋冷板液冷也是可以大力發展的方向。單相浸沒式液冷在解決高功率晶片擴熱問題後,可以實現100%液冷。全覆蓋冷板方案可以較好地適配AI伺服器,而不用考慮普通伺服器的通用性要求。進一步降低風冷佔比後,可能會面臨以下難點:晶片層面由於製程改進的效果越來越有限,利用先進封裝技術將多個較小的晶片拼裝為一體的Chiplet技術正得到普遍的應用,其中的一個重要趨勢是3D堆疊,這意味著單位面積上的電晶體數量會繼續高速增長,如何將晶片封裝內的熱量有效的傳匯出來,將成為行業面對的一大挑戰。機櫃層面以NVIDIA GB200 NVL72為代表的解決方案目前採用風液混合模式,櫃內互聯採用大量的銅纜,對散熱風道的設計形成了一定的阻礙。隨著機櫃功率的進一步提高,需要提高冷板在各節點內的覆蓋率,向全液冷的方向演進。隨著AI晶片功率的進一步提升(1500W-2000W以上),風冷散熱器已達瓶頸(1000W),單相水冷板也將很快到達散熱能力瓶頸(1500W),相變散熱技術是必然的方向,包括相變浸沒液冷和相變冷板液冷。相變冷板又包括泵驅兩相(Pumped twophase)冷板和自驅動兩相(Passive 2-Phase)冷板等方向。相比較而言,泵驅兩相冷板國外有較多的研究,但其複雜度較高、可靠性問題比較難以解決;自驅動兩相冷板的技術基於環路熱管(LHP)技術,挑戰更大,但其具有解熱能力強、高可靠、易維運、長壽命等優點。 (零氪1+1)
AI圈都在緊張:一塊GPU能撐幾年?
過去三年,AI 行業就像在開加速掛。模型越跑越大,資料中心越建越多,輝達的股價越飛越高。但就在全球科技巨頭準備在未來五年砸下 1 兆美元造 AI 資料中心時,一道靈魂提問突然冒出來:一塊 GPU,到底能撐幾年?就是這麼一個看起來挺小的硬體壽命問題,已經成為了影響 AI 行業的最刺激、最敏感、最能影響股價的 KPI。包含在投資人、高管在內的各界人士似乎都在試圖判斷核心裝置的使用壽命。而讓人焦慮的是,這個問題沒有正式的標準答案。其中,Google、Oracle 和 Microsoft 給出的伺服器壽命最高可達 6 年,而像做空者 Michael Burry 這樣的懷疑者認為沒那麼長,可能也就 2~3年。AI圈都在緊張的一個問題當全球 Top 的一批公司計畫在未來五年投入 1 兆美元建設 AI 資料中心時,有一個項目讓高管與投資人都格外緊張:折舊。過去十年,伺服器、儲存裝置這些老貨都能用 5 到 7 年,大夥都心裡有數。但 GPU 不一樣。三年前才開始狂買,沒人知道它們到底能用多久、不值錢得有多快。“折舊”,顧名思義,就是將一項硬體資產的成本分攤到預計可用壽命內,在科技行業經常被提及且很關鍵。因為企業要預測它們購入的幾十萬張輝達 GPU 能使用多久、價值能保留多久。簡單理解:折舊=資產壽命。壽命越長,利潤越好看;壽命越短,利潤“啪”一下蒸發。如果你有關注過,你甚至會發現市面上對於GPU的折舊有完全不同的看法。AI GPU:一個全新的折舊難題AI GPU 在市場上的歷史還很短。輝達面向資料中心的首批 AI 晶片於 2018 年發佈,而真正讓 GPU 市場爆發的是 2022 年底 ChatGPT 的誕生。此後,輝達資料中心收入從 150 億美元飆升到截至 1 月的財年裡的 1152 億美元,足足十倍。“是三年、五年還是七年?”Latham & Watkins 的副主席 Haim Zaltzman(長期從事 GPU 融資業務)表示,目前沒有可參考的長期使用記錄,這對融資影響巨大。樂觀派:6年!業內不少巨頭給出的答案比較統一:6年!Google、Oracle、Microsoft 等基礎設施巨頭認為其伺服器可以用長達 6 年。但微軟似乎最近有所調整:它們也可能更快折舊——微軟在最新年度檔案中稱其計算裝置的壽命為 2 至 6 年。此外,一些輝達客戶認為 AI 晶片會長期保值,因為舊 GPU 對部分任務仍有需求。CoreWeave(大量採購 GPU 並出租)自 2023 年以來一直按照 6 年折舊周期來計提。CoreWeave CEO Michael Intrator 表示,他們對 GPU 壽命的判斷是“資料驅動”的。他曾對外表示,公司手上的 A100(2020 年發佈)全部租滿,還有一批因合同到期而釋放出來的 H100(2022 年發佈),立即以原價 95% 的水平售出。“所有的資料都在告訴我,這些基礎設施是保值的。”不過,市場卻啪啪打臉。CoreWeave 在財報後股價仍跌了 16%,今年高點以來已跌去 57%,反映了市場對 AI 過度投資的擔憂。Oracle 也從 9 月高點跌去 34%。懷疑者:GPU 只能用 2 到 3 年?最激烈的懷疑者之一是著名做空者 Michael Burry,他最近披露了自己正在做空輝達和 Palantir的倉位。為什麼?Burry 認為 Meta、Oracle、Microsoft、Google 和 Amazon 都高估了 AI 晶片的使用壽命,從而低估折舊。他認為伺服器的真實壽命只有 2–3 年,這會導致企業利潤被“虛高”。對於這個言論,Amazon 和 Microsoft 拒絕了回應;Meta、Google 與 Oracle 也尚未置評。黃仁勳暗示:前代 GPU 會提前“過氣”!AI 晶片可能在 6 年內貶值,原因包括:硬體磨損技術更新太快導致迅速過時雖可運行任務,但成本效益大幅降低輝達 CEO 黃仁勳早已有暗示。當輝達發佈新一代 Blackwell 時,他調侃說上一代 Hopper 價值會暴跌:“當 Blackwell 大規模出貨時,你根本送不出去 Hoppers。”“雖然還有些場景 Hopper 能用……但不多。”輝達現已從兩年一代加速到一年一代,AMD 也同步提速。亞馬遜今年早些時候還將部分伺服器資產的壽命從 6 年調降至 5 年,理由是 AI 技術迭代速度更快。與此同時,其它雲廠商卻在拉長新伺服器的壽命預估。微軟:別在單代 GPU 上“押重注”關於這個問題,微軟 CEO 納德拉在本周表示,公司正刻意拉開 GPU 採購節奏,不願在單一代產品上投入過多。他指出,現在輝達新舊 GPU 的競爭更激烈。“我們最大的經驗之一是輝達遷移速度變快了。我不希望被某一代 GPU 的 4–5 年折舊周期套住。”其實,說到底,還是這個行業發展實在太快了。首先,納德拉也提到了,輝達的發佈節奏從兩年一代變成了一年一代。即便硬體壽命沒變,但價值衰減速度暴漲。其次,雖然推理成本可以降低,但代際更新的GPU顯然,速度更快。而舊的 GPU 能跑,但速度變慢、整體下來的算力成本卻會變高,經濟上不划算了。再者,二手市場需求變幻莫測。有些行業用舊卡完全夠用,有些任務必須用最新架構。這就形成了極其神奇的價格波動。所以 GPU 並不是物理壽命上的壞掉,而是從實際業務上不划算了:“還能跑,但跑得不值錢。” (51CTO技術堆疊)
當日本押注晶片製造
7月18日,日本尖端半導體代工廠Rapidus進入量產前的試運轉階段,首次向媒體公開了試制的2nm半導體樣品晶圓。晶圓是從99.99%的純矽圓柱體(矽錠)上切下來的,被打磨得很光滑,然後再根據結構需求將導體、半導體材料薄膜沉積到其上。在一塊晶圓上製造出晶片還需要經過上千道工序,從設計到生產往往得歷時三個多月,換句話說,Rapidus的晶片之路仍然漫長。新聞發佈會上從左到右依次為Rapidus董事長(1949年出生)、Rapidus總裁兼首席執行官(1952年出生)、北海道知事和千歲市市長。Rapidus成立於2022年8月,旨在製造最先進的2奈米晶片,抗衡台積電。這是一家由日本政府全力支援的企業,迄今為止已經拿了1.7兆日元(約114億美元)的政府補貼,而且接下來還要繼續拿數兆日元的財政撥款。與財政資金相比,來自豐田等民營企業的注資僅僅有730億日元(約4.9億美元),給人一種象徵性表態、不好意思不捐的感覺。日本人對於半導體行業的心情十分複雜。作為該領域曾經的霸主,上世紀八九十年代,東京電子、尼康、索尼、佳能等公司在與荷蘭阿斯麥、韓國三星、美國英特爾以及台積電的競爭中紛紛落敗。尼康和佳能在1990年代之前一度主導光刻機市場,但在最尖端的極紫外光刻機(EUV)開發競爭中敗給了阿斯麥;目前阿斯麥成為該領域的霸主,掌握全球市場份額的60%,日本企業則陷入困境。新千年之後,日企基本退出了半導體整合度領域的競爭,不再更新技術,先進半導體只能依賴從台灣省和韓國進口。在本輪AI需求爆發後,日本眼睜睜看著韓國和台灣賺得盆滿缽滿——兩地的最新人均GDP已超越日本,心裡很不是滋味。恰好美國有意扶持日本打壓如日中天的三星和台積電,於是日本政府一拍大腿,決定以政府投資的形式全力支援Rapidus發展2nm晶片工藝,從而為日企在AI資料中心與自動駕駛等領域提供穩定的晶片供應保障。不知是不是受了川普影響,一些日本企業家似乎告別了大家傳統印象裡嚴謹、刻板、低調的作風,也開始學著“放衛星”,張嘴就是台積電3倍。Rapidus成立至今已有三年整,按照計畫將於2027年實現量產,可目前只提供了一份晶圓樣品。據《日經新聞》報導,當下日本國內對Rapidus的評價既有期待也有不安,但不安的聲音佔了多數。一方面,晶片製造領域有一個“良品率”的概念,直接關係到盈利水平。良品率需要長期積累打磨,不同工藝水平的廠差別很大,如果良品率不高,即使技術層面實現了2nm意義也不大,因為價格在市場上沒有競爭力。另一方面,就算真造出來2nm晶片且良品率達標,客戶又在那裡呢?日本國內沒有科技大廠,而美國使用者蘋果、輝達、高通、AMD等多跟台積電簽有長期合作協議,有的乾脆包了台積電的產線。Rapidus作為新入局的玩家,在技術、產能、成本等方面均沒有優勢的情況下,憑什麼讓人家選擇你呢?實際上,Rapidus在日本民間募資時困難重重,基本是靠政府資金在支援——回顧歷史,這類項目鮮有成功之案例。至於說汽車晶片、家電晶片和軍事用途晶片,它們對於製程的要求遠沒有手機和人工智慧晶片高,2nm屬於英雄無用武之地。《日經新聞》這樣點評道:“台積電是被日本政府和Rapidus視為競爭對手的全球最大代工廠,在台積電的客戶名單中,蘋果、輝達等多家世界級企業赫然在列。半導體廠商,尤其是代工廠,生死攸關之處在於客戶的數量、質量以及訂單規模。對於剛起步的企業來說,這樣說或許顯得殘酷,但如果缺乏這些,就不會形成‘優秀產品→良好客戶→開發更優秀產品’的良性循環。半導體行業的特性本來就以良性循環為前提,數字裝置的性能和價格每兩年都會發生劇烈變化,因此Rapidus問題的本質在於開拓客戶。”輝達過去幾年的業績固然是符合了摩爾定律,但全球只有一個輝達。當今半導體製造領域,台積電是2nm和3nm製程的領頭羊,中國大陸企業則在7nm及以上製程裡實現突破,並廣泛供應各類電子裝置和電動汽車。日本如果想憑藉Rapidus分一杯羹,它只能跟台積電競爭尖端製程。說來有趣,過去幾年給日本半導體企業帶來增長希望的恰恰就是中國大陸市場。在美國發起的晶片出口管制行動中,因老一代裝置不在管制範圍之內,於是阿斯麥的手下敗將尼康和佳能開始進入中國廠家視線。儘管它們的裝置略顯落後,但好歹可以起個過渡作用,有總比沒有強。不僅如此,中國公司還從日本廠家那裡收購了不少二手光刻機等急需裝置,以至於東京電子、尼康、佳能等公司頗有捲土重來的架勢。日本學者指出:“無法引進尖端半導體製造裝置的中國廠商正在轉向生產通用半導體,結果讓日本不受限制的半導體製造裝置出口增加。”Rapidus本身極為脆弱,很難靠市場競爭獨立生存,假如僥倖沒被美國管制,僅剩的一線生機就是中國。可美國目前是將Rapidus定位為對抗台積電過度主導晶片代工的替代選項,容不得它變成“中日聯手”模式。在近日Rapidus舉辦的客戶推介活動上,到場者以合作夥伴企業為主,海外大型潛在客戶寥寥無幾,前景很不被市場看好。台積電位於日本熊本的工廠,主要生產12nm及以上製程晶片,精準服務於索尼等公司。台積電計畫2025年在全球新建9座工廠,而Rapidus目前只有北海道一座試營運的工廠。儘管日本錯失了EUV光刻機和晶片製造,但它在光刻膠、掩膜、光掩膜製造等關鍵材料領域仍具備強大實力,近幾年的半導體浪潮也帶火了東京電子等企業。最後簡單聊幾點對半導體行業的看法。1、半導體行業是國際產業鏈分工的代表,可隨著地緣政治升溫和川普關稅風暴到來,支撐半導體產業的國際分工體系正迎來轉折點。目前各國從經濟安全保障的角度出發,竭力推動本土化生產,而越來越多的本地化也正迅速導致供應過剩。2、半導體作為一種元器件,高度依賴下游具體行業發展,從本質上說,晶片只是手段,而不是目的。半導體行業興衰與否取決於搭載晶片的智慧型手機、個人電腦、電動汽車和算力叢集等領域是否持續擴張。目前個人電腦和智慧型手機市場出貨量已趨於穩定,電動汽車對晶片要求沒有那麼高,成熟製程足以滿足需求,唯一有明顯增長趨勢的只剩下用於AI大模型訓練的算力叢集。如果AI浪潮的前景不及預期,將不可避免地波及半導體行業,特別是高端製程。3、曾幾何時,液晶螢幕也是高科技產品的代名詞之一,不過隨著中國企業突破這一技術瓶頸,產業格局驟然改觀——在螢幕生產能力(以面積計算)方面,中國2017年首次超過韓國,到2023年已擴大到韓國八倍的規模。站在中國大陸的角度,半導體行業是當下亟待征服的一座高峰,它不僅具有經濟和產業價值,還有巨大的政治意義。台灣島內,台積電是其相對大陸最後的技術優勢堡壘——島內政客和媒體張嘴晶片、閉嘴晶片,台積電在台灣社會的意義早已超越了一家科技企業的範疇。大洋彼岸,AI革命極大鞏固了美國資本市場的自信,為美元資產重新注入了吸引全球資金的“磁性”。如果中國最終能引領半導體與AI行業的發展,其意義或直接影響到地緣政治領域的權力更迭。 (星火好望角)
AI 新一輪行情的起點!
國際頂級機構近年密集發佈的報告,一致看好人工智慧行業的長期前景,尤其強調中國市場的增長潛力。高盛在報告中指出,儘管增速趨緩,AI 基建投資未來 2-3 年具備持續性,市場過度關注 “回報慢” 可能忽略了成本紅利已經開始釋放,且股價尚未反映這一結構性變化。同時,中國軟體市場在 2025 年二季度延續了 AI 原生應用的強勁發展勢頭,高盛認為中國生成式 AI 應用已進入商業化初期,而 AI Agent、多模態 AI 模型和模型部署成為行業增長的三大核心引擎。摩根士丹利發佈的全球科技藍皮書《中國 - 人工智慧:沉睡的巨人覺醒》,到2030 年,中國核心 AI 行業潛在市場規模達人民幣 1 兆元,相關產業規模達人民幣 10 兆元。光模組雙龍頭業績高增:GPU+ASIC 雲端運算共振,看好AI算力雙重增長!1、中際旭創25Q2歸母淨利潤20.2-28.2億,中值24.2億,對應同比+79.2%,環比+52.7%;扣非歸母淨利潤20.2-28.2億,中值24.2億,對應同比+80.4%,環比+54.4%。2、新易盛發佈25Q2歸母淨利潤21.3~26.3億,中值23.8億,對應同比+339.8%,環比+51.2%;扣非21.2~26.2億,中值23.7億,對應同比+339.3%,環比+51.2%。1、一二線雲廠資本開支堅定,“表觀”增長持續,企業及主權的AI 算力需求加速顯現。GPU與ASIC單卡提升空間低於多卡互連提升空間,單卡對應頻寬/光、銅連線有望提升2、輝達最新技術和產品來自一二線雲廠、主權與企業AI的需求有望繼續增長,同時1.6T等開始參與配套出貨,有望實現基數和滲透率的連按兩下3、一線雲廠自研ASIC出貨快速增長,ASIC 相比GPU單卡性能略差但性價比更高,“單位美元”能夠買的,需要買的算力卡及配套增加,雲廠資本開支投向或在產業鏈再分配,產業鏈增速有望高於雲廠資本開支增速相關標的:光:中際旭創,新易盛,天孚通訊,源傑科技,長光華芯,長芯博創矽光&CPO:致尚科技,太辰光,仕佳光子PCB:勝宏科技,景旺電子,滬電股份,生益電子銅:兆龍互連,鴻騰精密【國內AI應用】歷經4個月充分調整,Q3新的大模型推出有望帶動新一輪行業β重點標的:強β:新致軟體、鼎捷數智、漢得資訊、泛微網路、致遠互聯、賽意資訊等AI落地快:港股:訊飛醫療、邁富時、第四範式、北森控股、金蝶國際等;A股:鼎捷數智、海天瑞聲、稅友股份、金山辦公、合合資訊等。From HT電腦Agent重新定義兆勞動力市場(機構調研記)
奧特曼最新專訪:這,將是接下來10年所有人的作業系統
商業思維筆記君說:5月13日消息,OpenAI聯合創始人兼首席執行官山姆·奧特曼,於美國當地時間5月12日出席了全球知名投資機構紅杉資本舉辦的“2025 AI Ascent”大會。在本次專訪中,奧特曼分享了OpenAI的創業歷程、產品規劃與發展路徑,並深入探討了他對AI行業未來的洞察。奧特曼回顧了OpenAI從一個僅有14人的研究實驗室,成長為全球領先的人工智慧平台的歷程。他設想將ChatGPT演進為一種高度個性化的AI服務——它能夠記住使用者的完整生活背景,從對話記錄到電子郵件內容,同時能夠在多個應用和服務之間無縫銜接、自然協作。他指出,年輕一代使用者已經將人工智慧視為作業系統,而不僅僅是搜尋工具。這種趨勢預示著一個全新的未來:一個高效、統一的大模型,能夠在無需重新訓練的前提下,基於超大規模的上下文進行推理,全面理解使用者的歷史資訊,從根本上重塑人與技術的互動方式。以下為奧特曼最新專訪精華內容:一、OpenAI的“從0到1”:ChatGPT是如何誕生的?問:這是你們當年成立時的辦公室(如下圖)?奧特曼:沒錯,這正是我們最初的辦公地點,2016年我們就在這裡起步!問:2016年的你可曾預見OpenAI會有現在的光景嗎?奧特曼:完全沒想過。那時我們14個人擠在角落裡,圍著白板討論我們到底應該做什麼。說實在的,那時我們就是個純粹的研究實驗室,雖然有著非常強烈的信念和方向感,但沒有明確的行動計畫。別說商業化產品了,連“大語言模型”(LLM)的概念都還很遙遠。問:從公司初創到ChatGPT問世,歷經六年時間,你們是如何設定里程碑的?奧特曼:其實我們的第一個面向消費者的產品並不是ChatGPT,而是DALL·E(文字生成圖像系統),更早的則是API介面服務。我們曾嘗試過多個方向,包括遊戲AI、機械臂控制等。後來有團隊專注於無監督學習,這才誕生了GPT-1和GPT-2。但直到GPT-3,我們才感覺手頭真的有了點“東西”,雖然當時還不清楚該用它來做什麼。與此同時,我們也意識到,如果想繼續擴展模型規模,就必須籌集更多資金。像GPT-4這樣的模型,其開發成本達十億美元級,已不是靠科研資助能支撐的,除非是像粒子加速器那樣的國家級項目。因此,我們開始認真思考,如何將這一研究轉化為可持續的商業模式。我們隱約意識到,這項技術終將變得非常實用。雖然我們開源發佈了GPT-2的模型權重,但市場反應平平。然而,通過觀察許多創業公司,我發現一個模式:開放API介面往往能帶來意想不到的價值,這在很多YC孵化項目中被多次驗證。另一個關鍵體會是:技術越易用,其價值通常越大。當時運行這些大模型仍然非常困難,因此我們決定建構專用軟體以最佳化部署體驗。由於尚未明確產品形態,我們選擇在2020年6月開放GPT-3的API介面,想看看開發者們是否能基於它打造出有價值的應用。有趣的是,雖然全球市場反應較為冷淡,但矽谷創業圈敏銳地意識到這項技術的潛力,有人甚至認為它是通用人工智慧(AGI)的雛形。就我所知,真正基於GPT-3 API建構起可持續商業模式的公司並不多,主要集中在文案生成服務上,這是當時唯一能夠突破商業化門檻的應用場景。但我們注意到一個異常現象:儘管人機對話功能尚不成熟,使用者卻樂此不疲地與模型互動。要知道那時的聊天體驗並不理想,因為還沒有引入基於人類反饋的強化學習(RLHF),但大家依然愛不釋手。除了文案生成,人機對話幾乎是唯一具備“殺手級應用”潛力的功能,這最終促使我們決定開發ChatGPT。在ChatGPT 3.5發佈時,API已支援八大類商業應用場景,遠遠超出早期的單一功能。我們也愈發堅信——人們渴望與AI對話。雖然DALL·E的表現也不錯,但考慮到我們在微調技術方面的積累,我們最終決定投入資源,專門打造一款面向對話的AI產品。經過六年的打磨與探索,ChatGPT終於在2022年11月30日正式上線。如今,每周有超過5億使用者與之互動。二、從精簡團隊到高效協作,OpenAI是如何做到“越大越快”的?問:最近半年,你們似乎在持續不斷地發佈新產品?奧特曼:是的,確實如此。我們發佈了很多重量級更新,而且產品發佈節奏越來越快,連我們自己也覺得非常驚人。問:你是如何在一家如此規模龐大的公司中,仍然保持快速的產品迭代能力?奧特曼:我認為,很多公司都會陷入一個典型誤區:隨著公司規模的擴大,產出卻陷入停滯。他們只是為了擴張而擴張,卻沒有同步提升產品的研發與迭代效率,這就是所謂的“效率停滯”。我始終堅持幾個基本原則:讓每個人都高效運轉;保持團隊小而精;確保人均產出與公司規模相匹配。否則,你就會看到一個40人的會議,為了一個小功能而爭論不休。商業界有句老話:“優秀的管理者永遠很忙”,因為沒有人希望看到閒著的人到處攪局、影響效率。在我們公司,也像許多科技公司一樣,真正創造價值的是研究員、工程師和產品經理。你必須確保這些關鍵崗位上的人始終專注、高效地推進工作,產生實際影響。如果你打算擴張公司規模,那就意味著必須同時增加項目數量,否則就只會增加無謂的會議和內耗。因此,我們儘量保持精簡的團隊結構,但賦予每個人極大的責任感。要實現這一點,唯一的方式就是同時推進大量項目。現在,我們確實有機會打造下一代網際網路的核心平台。要實現“終身個性化AI助手”的願景,意味著必須跨越不同的服務場景,覆蓋主流與長尾應用,而這需要建構豐富的功能模組和配套能力。問:在過去這六個月裡,有沒有那個產品讓你特別自豪?奧特曼:我最自豪的是模型能力的持續躍升。當然,我們距離目標還有不少改進空間,但我們正在以非常快的速度迭代。目前的ChatGPT已經是一款非常優秀的產品,而它之所以如此強大,核心就在於底層模型的出色表現。一個模型能夠高品質地完成如此多樣的任務,這一點讓我感到由衷驚嘆。三、核心AI服務之外,機會無限問:你們既在開發小模型,也在推進大模型,幾乎什麼都在做。那麼我們這些從業者該怎麼做,才能不被OpenAI“碾壓”?奧特曼:你可以這樣理解我們在做的事情:我們希望成為使用者的核心AI訂閱服務提供商。這其中一部分功能將通過ChatGPT實現,其他還會涵蓋一些關鍵模組。但最核心的,還是打造更智能的模型,探索新的互動入口,比如專屬硬體終端裝置,甚至類似作業系統的基礎平台。至於API或SDK 的形態,我們現在還沒有完全想清楚,但一定會找到合理的路徑。可能會經歷幾輪嘗試,但最終我們會做成。我希望我們的平台能為全世界創造巨大的價值,成為其他開發者創新的基礎。問:OpenAI未來的發展目標是什麼?奧特曼:我們就是繼續打造更強大的模型,推出使用者喜歡的產品。除此之外,沒有什麼複雜的“終極藍圖”。我們更關注眼下要做什麼。現場有很多OpenAI的老同事可以作證,我們不是那種喜歡坐下來制定繁複計畫的團隊。我始終相信——如果你從一個“宏大終點”向回推規劃,很容易走偏。與其設計一個自上而下的總體戰略,不如一步步往前走,靠使用者反饋和現實成果驅動決策。我們知道接下來會需要龐大的AI基礎設施,要建“AI工廠”。與此同時,我們會不斷提升模型性能,打磨優秀的終端產品,從模型到介面再到硬體,每一部分都要做到最好。我們以靈活應變為榮。隨著外部世界不斷變化,我們也會及時調整戰術。目前我們還沒開始規劃明年要發佈的產品,但我們有信心打造出真正打動使用者的創新。我對我們目前的研究路線充滿信心,從未像現在這樣樂觀。問:接下來的研究路線圖是怎樣的?奧特曼:更智能化的模型,這是我們的中心目標。但每一步如何走,我們會邊走邊看,通常是走一步看兩步。問:所以你更相信“從現在出發,逐步演進”,而不是“自上而下反向規劃”?奧特曼:完全正確。我聽過很多人講他們有一個宏大的戰略藍圖:比如“最終要統治世界”,然後再往回推算每一步該做什麼……但我從來沒見過,這樣的路徑能真正帶來巨大成功。四、年長者用AI查資訊,年輕人用AI過人生問:你認為大公司在轉型為AI原生組織時,常犯那些錯誤?無論是在使用 AI 工具還是建構 AI 產品方面?為什麼初創公司明顯在創新上更具優勢?奧特曼:幾乎每一次技術革命都會出現類似現象,所以這並不令人驚訝。他們犯的錯誤與以往如出一轍:過度依賴傳統流程,固守舊有思維。當技術每隔一兩個季度就發生飛躍,而你還在依賴一年才開一次會的資訊安全委員會來決定是否引入新應用、如何處理資料,那麼這種轉型註定將異常艱難。這正是“創造性顛覆”的核心,也是初創企業往往能勝出的根本原因。行業就是在這種顛覆中不斷前進的。我對大公司的轉型速度感到失望,但並不意外。我的判斷是,未來一到兩年裡,它們仍會經歷掙扎期——試圖假裝AI不會顛覆一切,等真正危機降臨時才匆忙轉型,但往往已經為時過晚。屆時,初創公司早已利用靈活機制和新範式完成“彎道超車”。而這種落差不僅體現在組織層面,也反映在人身上。比如,你可以觀察一下一個20歲的年輕人與35歲使用者在使用 ChatGPT 時的差異,簡直天壤之別。這就像智慧型手機剛問世時,孩子們能迅速上手,而年長者可能要花三年時間才能掌握基本功能。今天的AI工具,也在重演類似的“代際斷層”,而企業的行為,往往只是個體趨勢的放大。問:你觀察到年輕人在使用 ChatGPT 上有那些獨特的創新方式?奧特曼:他們真的已經把 ChatGPT 當作一個作業系統來使用了。他們會結合檔案、工具鏈與提示詞,設定複雜的操作流程,甚至精心設計提示詞並記在腦子或文件裡,就像使用一門語言一樣。讓我印象最深的是,如今很多年輕人在做人生重大決策之前,都會先來問 ChatGPT 的意見。因為它已經擁有他們完整的背景資訊、過往的對話記錄與行為偏好,具備了“記憶”能力,這使人們與它的互動方式發生了根本變化。簡單來說:年長使用者把 ChatGPT 當作Google的替代品,20–30 歲的使用者視其為“人生顧問”,而大學生則已經把它當作作業系統來用了。問:OpenAI內部是如何使用 ChatGPT 的?奧特曼:ChatGPT在我們內部主要用於大規模輔助程式設計。具體比例難以精確衡量,用“程式碼行數”統計是沒有意義的。例如微軟會說:“我們有20%或30%的程式碼由 AI 編寫。”但我認為,用行數衡量是非常愚蠢的方式。真正關鍵的是,它是否能產出高品質、有意義的程式碼——那些真正解決問題的核心程式碼,而不是邊角料。這才是價值所在。問:你剛才提到你們的核心是打造面向消費者的訂閱服務,收入也主要來自消費端使用者。那為什麼還要繼續保留 API?奧特曼:我的希望是,最終實現一個統一融合的系統——使用者可以用同一個 OpenAI 帳號登錄所有服務,第三方也能通過 SDK 將 ChatGPT 深度整合進自己的應用介面。一旦個性化 AI 掌握了你的完整資訊與使用偏好,你自然希望無論在那種應用場景下,它都能與你保持一致的個性化體驗。雖然今天的API離這個目標還有相當距離,但我相信我們終將實現它。六、OpenAI的終極目標:成為AI時代的“作業系統”問:對於建構應用層產品的開發者來說,我們非常希望能用上你們各種API,比如Deep Research API(雖然還沒發佈)。你們是否會優先打造一個更開放的平台供大家使用?奧特曼:我希望未來能出現一種介於“完全封閉”和“完全開放”之間的新範式,類似一種“HTTP協議等級的AI網際網路標準”。我設想的是,未來的網路結構將支援更加細粒度的功能模組呼叫、智能體系統之間的高效協作,並內建身份認證、支付、資料交換等機制,做到“工具互通、系統互信”。目前我們還無法確切描述這個系統最終會長什麼樣,但我們對這個方向越來越清晰。要實現這樣的平台,可能需要經歷幾輪嘗試和演化,但我們希望這是AI生態發展的主路徑。問:AI想更好理解現實世界,需要更多輸入資料。你們有沒有考慮讓模型接收來自感測器的資料,比如溫度、環境等?奧特曼:實際上,已經有不少開發者在這麼做了。他們通過我們的 API 把感測器資料接入,比如使用GPT-4(03模型)來進行處理。某些場景下,這種做法效果非常出色。更重要的是,我們的最新模型在處理這類非結構化或多模態資料時,比以往更強大。未來我們很有可能會在模型架構上,更明確地支援這類輸入。問:語音模型在OpenAI 的技術堆疊中處於怎樣的位置?未來會如何整合進 ChatGPT?奧特曼:語音互動對我們來說極其重要。坦率地說,目前我們的語音產品還遠未達到理想狀態,但沒關係。我們在文字模型上也經歷了很長的迭代過程,最終做得很好,語音也一樣會做到。我認為,一旦語音技術成熟,很多使用者都會更願意通過語音與 AI 互動。最讓我著迷的是,我們發佈的語音模式允許使用者一邊講話、一邊操作手機介面,這是一種“語音 + UI”的混合互動方式,非常有潛力。雖然目前還不夠理想,但一旦純語音體驗完善,它不僅將在現有裝置上大放異彩,還可能催生全新的人機互動裝置形態。如果AI真的實現“類人語音互動”,一切都將不同。問:程式設計對於OpenAI來說,是一個垂直場景,還是核心戰略?奧特曼:程式設計絕對是我們的核心戰略之一。目前,你向ChatGPT 提問,它返回的可能是文字或圖像。但未來,我們希望它直接返回可運行的程式碼。我們認為,程式設計將成為AI與現實世界互動的主要方式,AI通過寫程式碼呼叫API,實現任務執行。因此,ChatGPT 必須成為世界上最好的程式設計助手。我們的願景是:從“助手”演進為“智能體”,再演化成“完整的應用系統”。這個過程會是連續的、逐步推進的。問:在打造更強大模型的過程中,除了常見的“資料、算力、架構”三要素之外,還有那些關鍵因素被大家低估了?奧特曼:這些基礎要素確實都非常關鍵,但我認為,真正能帶來質變的,是演算法層面的重大突破。我們還可能看到一兩個“數量級等級”的演算法創新(10倍甚至100倍提升),雖然出現的機率不高,但只要出現一次,就將產生巨大影響。問:作為世界頂級機器學習團隊的領導者,你是如何在“放手讓天才研究自己感興趣的課題”和“自上而下推動重點項目”之間取得平衡的?奧特曼:確實有些項目必須高度協調,必須自上而下推進。但我認為很多組織在這方面走得太遠了。我們在創立 OpenAI 時,花了很多時間研究歷史上優秀研究實驗室的運作模式。現代參考案例其實並不多,所以我們主要從歷史中汲取經驗。經常有人問:“為什麼 OpenAI 總能不斷創新,而別的實驗室只是跟隨?”我們其實公開分享過那些經驗與原則,但很多團隊聽完之後,還是更傾向於走自己的老路,結果並不理想。說到底,科學研究本身是可以高效管理的,但前提是你得真正理解“管理”不等於“管死”。問:現在的大模型似乎已經可以幫助研究者解決一些人文學科長期未解的問題,比如藝術周期的變化、系統性偏見等。OpenAI 是否考慮與學術界展開合作,推動這類研究?奧特曼:我們確實設有學術合作項目,核心資源是模型存取權。其實,大多數研究者並不需要完全定製的技術支援,他們想要的是:對通用模型的自由呼叫,或者獲得底層基礎模型的運行權限。好在我們的架構非常適合這類需求。許多學術項目只需標準化API即可完成,OpenAI模型天然適合支援這類探索。雖然我們偶爾會參與一些定製化研究,但我們90%以上的精力,還是集中在提升通用模型能力。這是我們認為最具長期價值的路徑。七、OpenAI真正的野心是“讀懂你一生的AI”問:你怎麼看待模型的定製化?它是過渡方案還是長期路徑?奧特曼:在我理想中的狀態是這樣的:未來會有一個極其輕量、推理能力強大的模型,擁有兆級 token 的上下文窗口。它能夠記住你一生的所有對話、讀過的書、郵件、瀏覽記錄,並持續吸收新增資訊。它無需調整模型權重,僅憑這些上下文資訊就能做出精準推理。當前技術距離這一願景還有相當距離,所有現有方案都只能算是對理想形態的妥協。但我希望最終我們能實現這種純粹由上下文驅動的個性化AI系統。問:你認為未來12個月AI領域的主要價值創造點在那裡?是記憶功能、安全協議,還是智能體與現實世界的連接?奧特曼:歸根結底,價值創造依然集中在三大方向:AI基礎設施建設(更大規模的計算和部署能力)、更聰明的模型、以及將AI納入現實社會結構的“支架”——包括介面、流程和信任機制等。只要持續推進這三項,其他進展自然會跟上。如果細化來看,我認為2025年將是“AI智能體突破年”,尤其在程式設計領域,智能體可能成為主流應用場景之一。2026年或許將成為AI輔助發現新知識的元年,也許AI會參與甚至主導人類歷史上的重要科學發現。長遠來看,一旦人類完成對地球的“擴散與殖民”,經濟增長將主要依賴科學進步與知識的應用落地。我猜測2027年將是AI從“認知層”轉向“物理世界”的關鍵節點,機器人將從探索性項目變為真正的生產力工具。當然,這只是我的直覺式預測。問:GPT-5會不會比我們所有人加起來都聰明?奧特曼:如果你現在還覺得自己比GPT-4聰明很多,那也許還真得加把勁了—— 畢竟GPT-3已經非常強大了。問:你上次來這裡時,剛經歷了OpenAI的“高層風波”。事過半年,有什麼建議可以給創業者,關於“韌性”、“耐力”和“抗壓”能力嗎?奧特曼:作為創始人,你一定會不斷面臨新的挑戰,它們會越來越複雜,賭注也越來越高。但好消息是,你的情緒承受力會不斷增強。即便挑戰更大,處理它們所需的心理能量卻越來越少。你會逐漸變得更“抗打擊”,更擅長應對壓力。問:那一部分最難?是危機爆發當時,還是之後的餘波?奧特曼:其實,最難的不是危機爆發的那一刻。在那個時點,你往往會被腎上腺素驅動,資源和支援也會快速聚集到你身邊,你甚至會“自動進入戰鬥狀態”。最艱難的是風暴過後的恢復期。比如到了第60天,喧囂褪去,你開始清點殘局、重建信心、重新組織團隊——這才是真正考驗心理韌性的階段。很多人關注如何應對“Day 0”的危機爆發,卻忽視了“Day 60”的重建過程。而真正寶貴的能力,是你能在那種低谷中重新站起來。沒有那本書能教你怎麼做,但每經歷一次,你就能變得更強。 (筆記俠)
【Computex】62歲黃仁勳,一鳴驚人
AI行業的一片天,依然由NVIDIA撐著。黃仁勳Computerx開幕演講引爆全球今日,廣受關注的Computex2025(台北國際電腦展)開幕,輝達CEO黃仁勳在開幕演講中,放出了不少“猛料”。首先,黃仁勳宣佈,輝達推出的個人AI電腦DGX Spark已全面投產,將於數周內就緒。DGX Spark  圖源:直播截圖並且,輝達還攜手全球電腦製造商推出“AI優先”的DGX個人計算系統,DGX Spark將搭載輝達GB10超級晶片及張量核心,可以說是“性能怪獸”。同時,預計華碩、戴爾、惠普等業內巨頭今年晚些時候將同步推出DGX Station工作站。這款被稱為 “桌面級AI超算” 的裝置,由輝達超級晶片驅動,將資料中心級算力首次壓縮至150×150×50.5mm的桌上型電腦形態機身內,支援開發者在本地完成大模型的訓練、微調和推理,並實現與雲端算力的無縫遷移。圖源:直播截圖這也意味著,一方面,個人AI算力門檻大幅降低,AI開發正式進入了 “個人時代”。另一方面,輝達AI計算產品線實現了全面升級,為輝達AI生態再添一塊關鍵拼圖。除了個人AI電腦DGX Spark以外,黃仁勳還表示,將聯合台積電、富士康在台灣建立AI超級電腦。AI超級電腦  圖源:直播截圖同時,鴻海旗下工業富聯董事長鄭弘孟表示,鴻海會以輝達GB200和GB300人工智慧晶片平台為核心,在全球打造更多的運算中心。其次,黃仁勳表示:“在物理世界中製造機器人‘不切實際’,必須在遵循物理定律的虛擬世界中訓練它們。”因此,輝達與DeepMind和Disney Research研究合作開發了全球最先進的物理引擎Newton,計畫於七月開源。Newton 圖源:直播截圖Newton完全支援GPU加速,具有高度可微性和超即時操作能力,能夠通過經驗實現有效學習。其正在將該物理引擎整合進Nvidia的ISAAC模擬器,這一整合能夠以真實的方式讓這些機器人“活”起來。再次,黃仁勳還透露,輝達正在將其AI模型應用於自動駕駛汽車,其將與梅賽德斯在全球範圍內推出一支車隊,使用輝達的端到端自動駕駛技術,今年即可實現。接下來,我們來看看晶片方面,黃仁勳有那些重磅宣佈。演講上,黃仁勳表示,輝達將推出NVLink Fusion,透過其讓客戶的客制化CPU 與自家GPU相連,大搶ASIC商機,合作夥伴包括世芯- KY、聯發科、邁威爾、高通、Astera Labs、FUJITSU、Synopsys和Cadence等。以上企業是首批NVLink Fusion的合作夥伴,可實現客制化設計,目前已經IP授權給相關業者。輝達AI工廠 圖源:直播截圖黃仁勳還指出,雲端服務業者(CSP)客戶已經使用自家的CPU、TPU、ASIC或是客制化加速器已一段時間,並建立一個龐大的生態系統,未來若希望將輝達晶片整合進其生態系統,也可以透過NVLink連接,不論是這一代的Blackwell或下世代的Rubin都適合採用該技術。演講的最後,黃仁勳放出了一組NVIDIA新總部的效果圖,宣佈“NVIDIA新總部將落地台灣”。NVIDIA台北新總部黃仁勳將這個新的總部命名為“NVIDIA Constellation”,也就是星座的意思。從效果圖上看,建築風格和NVIDIA全齊總部如出一轍,充滿了科技感和科幻色彩。不過,黃仁勳並未披露它的建築規模、入駐員工數、建成時間等。當然,回到台灣的黃仁勳也並非只為了Computerx。5月17日晚間,他宴請了各大供應鏈高管,包括台積電、聯發科、廣達、華碩、和碩等科技巨頭齊聚一堂。黃仁勳宴請供應鏈高管餐廳為台北敦化北路的“磚窯古早味懷舊餐廳”,這家餐廳也因為黃仁勳第3度在此宴請供應鏈高管,成為了台北人氣餐廳。宴會尾聲,黃仁勳也向媒體透露,這場晚宴是為慶祝輝達最新Grace Blackwell AI系統順利量產,而接下來輝達會在全世界建造AI超級電腦,預示著台灣供應鏈將“會變得非常忙碌”。送台積電董事長魏哲家離開時,黃仁勳還對媒體稱讚台積電,說台積電將不斷打造極限,讓全世界科技公司都成為客戶,是台積電助攻輝達實現AI晶片願景。宴會後黃仁勳接受採訪同時,老黃表示:魏哲家是全世界最優秀的CEO之一、“My Hero(我的英雄)”,他努力工作、為顧客提供服務關心,做的每件事都是在關心台灣。總而言之,正如黃仁勳所言:“AI是新時代的電力”。或許,AI引領的“工業革命”,已經開啟。出口管制下,輝達努力解局當然,在AI晶片蓬勃發展的背後,輝達也正面臨中美科技博弈帶來的一系列棘手難題。為了遏制中國半導體產業的升級,美國政府層層加碼的技術封鎖,今年5月,美國商務部最新聲明,任何國家使用華為昇騰晶片均被視為違反出口管制,而輝達專為中國設計的H20晶片也因性能“超標”被列入禁令清單。這也讓AI晶片巨頭輝達遭受不小的損失:2025年,中國市場的營收佔比從2024年的13%驟降至個位數,其中,僅H20禁令,便導致季度損失55億美元。川普和黃仁勳並且,近日有消息稱,由於美國政府限制Hopper架構的H20晶片出口至中國,輝達正重新審視中國市場戰略,未來Hopper系列晶片不會再推出對華特供版。對此,老黃表示:“不會是Hopper,因為Hopper已無法再調整。”另外,輝達也正尋求減少對大型科技公司的依賴,方法是達成新的合作夥伴關係,將其人工智慧晶片出售給民族國家、企業集團以及微軟、亞馬遜和Google等集團的挑戰者。當然,面對不斷受損的利益,黃仁勳沒有坐以待斃。此前,黃仁勳曾公開發聲,直言美國之前制定的AI擴散規則存在錯誤,他主張AI技術應在全球範圍內實現最大化應用。並且,黃仁勳多次強調中國AI市場的巨大潛力,稱未來兩三年,甚至數年,中國AI市場價值將達到500億美元(約合人民幣3600億元)。他表示,如果輝達無法進入中國,美國等同把3600億AI市場拱手讓給華為。除此之外,輝達還向川普政府承諾,對美國人工智慧資料中心進行新投資,即輝達將在四年內向美國投資5000億美元實現本土製造晶片。同時,輝達正加緊開發另一款符合美國出口規定的對華“特供版”AI晶片,並已通知阿里、字節、騰訊等中國廠商,最快將於今年6月量產出貨。可以說,在美國晶片“緊箍咒”下,黃仁勳正帶領輝達英不斷博弈,尋求突破口。當然,對弈也取得了一定進展,管制“枷鎖”有一定鬆動的趨勢。5月13日,美國商務部正式發佈檔案,宣佈啟動撤銷拜登簽署的《AI擴散規則》的程序。美國商務部撤銷《AI擴散規則》川普政府稱,拜登時期的AI規則過於複雜、官僚,會阻礙美國創新。因此,原計畫5月15日生效的該規則,現被川普政府廢棄,但廢除決定尚未最終確定,且川普政府將採取新的措施,進一步加強對全球晶片出口的管制。近期,輝達也被傳出計畫在上海建研究中心,且已經在上海租賃了新的辦公空間。目前上海市政府已表達對上述計畫的初步支援,而輝達也在遊說美國政府批准。關於該研究中心,據稱將聚焦中國客戶的定製化需求,並參與全球研發項目,涵蓋晶片設計驗證、產品最佳化及自動駕駛技術研究等領域。不過,核心設計和生產仍將保留在海外。輝達表示,我們不會將任何GPU(圖形處理器)設計傳送到中國進行修改以符合出口管制。多方周旋下,關於輝達AI晶片的中國市場動向,仍有多重不確定性。而這種不確定性,有可能會提昇華為等晶片供應商在中國的受歡迎程度。不論如何,讓我們共同等待下一步進展。小米自研晶片也來了提到晶片,還有一則值得關注的消息。今日,雷軍在微博宣佈,小米自主研發設計的3nm製程手機處理器晶片玄戒O1即將亮相。圖源:微博截圖玄戒O1,不是7nm,不是5nm,甚至不是網傳的4nm,而是最頂尖最先進的3nm製程。對此,雷軍表示:“小米晶片已走過 11年曆程,但面對同行在晶片方面的積累,我們只能算剛剛開始。晶片是小米突破硬核科技的底層核心賽道,我們一定會全力以赴。這裡,懇請大家,給我們更多時間和耐心,支援我們在這條路上的持續探索。”玄戒O1也就是說,小米將成繼蘋果、高通、聯發科後,全球第四家發佈自主研發設計3nm製程手機處理器晶片的企業。因此,這顆晶片,事實上不單單是技術突破這麼簡單,在目前格局下,其影響遠比我們想像中大。一方面,這是小米近期的重磅利多消息,換句話說,飽受輿論爭議下,小米“憋了個大招”。另一方面,這是中國大陸地區消費級3nm晶片設計的一次突破,在晶片設計領域,為卡脖子難題的解決方案,再度加碼。總而言之,當下,晶片的意義已不僅是矽基文明的基石,更是人類通向智能時代的“金鑰”。關於半導體行業近在眼前的未來,讓我們共同關注。 (科技頭版)