#資料中心
奧爾特曼要與馬斯克決戰太空?
據知情人士透露,奧爾特曼今年夏天曾探討過籌集資金收購一家火箭公司或與之合作建立合作關係。儘管科幻味十足,但當前矽谷打造“太空資料中心”的設想,卻似乎絕非空談——至少OpenAI首席執行長奧爾特曼在過去幾個月確實曾一度真的想“付諸行動”……據知情人士透露,奧爾特曼今年夏天曾探討過籌集資金收購一家火箭公司或與之合作建立合作關係,此舉旨在與埃隆·馬斯克的SpaceX展開競爭。據悉,奧爾特曼至少接觸過火箭製造商Stoke Space,雙方在秋季加速了磋商處理程序——提案中包含OpenAI對該公司進行系列股權投資並最終取得控股權的方案。該筆投資預計將耗資數十億美元。但接近OpenAI的消息人士稱,相關談判目前已不再積極推進。在簽署了數百億美元的算力交易合約後,奧爾特曼與OpenAI近來正面臨著市場逆風,因該公司未能向外證明其如何能承擔這些巨額成本。與馬斯克決戰太空?奧爾特曼長期以來就一直關注於太空資料中心的建設可能性,他認為人工智慧系統對計算資源的無止境需求,最終將消耗巨大電力,其環境影響可能使太空成為更優選擇。“我確實認為,隨著時間推移,全球將遍佈資料中心,”奧爾特曼近期在一場播客節目採訪中表示。“比如,我們或許能在太陽系周圍建造巨大的戴森球,然後說:‘嘿,把這些設施放在地球上其實毫無意義。’”一些這一設想的支持者也稱,太空軌道上的資料中心可利用太陽能供電。包括貝索斯、馬斯克和Google首席執行長桑達爾·皮查伊在內的科技公司高管,都曾盛讚在太空建構人工智慧算力叢集的可能性。儘管該概念尚未得到驗證,但Google母公司Alphabet與衛星營運商Planet Labs已達成協議,計畫於2027年發射兩顆搭載Google人工智慧晶片的原型衛星。這也令Stoke Space在過去幾個月進入了奧爾特曼的視線。由傑夫·貝索斯旗下藍色起源公司前員工創立的Stoke公司,正致力於研發完全可重複使用的火箭——這正是馬斯克旗下的SpaceX眼下試圖實現的目標。值得一提的是,作為資深風險投資人的奧爾特曼,曾執掌初創企業孵化器Y Combinator,該機構此前就曾投資過Stoke公司。鑑於SpaceX在火箭發射領域的主導地位,與Stoke的擬議合作無疑將使奧爾特曼與馬斯克展開更為直接的競爭。新型火箭研發充滿技術挑戰和監管難題,往往耗時長達十年之久,因此從零開始創辦新公司難度極大。包括藍色起源、火箭實驗室(Rocket Lab)和Stoke在內的多家發射公司正試圖挑戰SpaceX的霸主地位。而與Stoke達成協議,本可讓奧爾特曼接觸到該公司正在研發的名為“Nova”的火箭,從而存在更多彎道超車的可能。奧爾特曼近期還創立了腦機介面初創公司Merge Labs——該公司將與馬斯克的Neuralink形成競爭;OpenAI正在建構的社交網路,則可能與X平台抗衡。理想很豐滿,現實很骨感據悉,有關潛在火箭投資的討論開始成形,正值今夏市場對AI的熱情達到頂峰時。不過很顯然,此後奧爾特曼和OpenAI面對的,是更為骨感的現實挑戰。市場風向的轉變可謂迅速。在奧爾特曼於9、10月宣佈與甲骨文、輝達等一系列晶片和資料中心的巨額合作時,投資者曾報以瘋狂熱情,推動相關公司股價大幅上漲。然而,市場近期對這類擴張性AI雄心已逐漸“降溫”——過去一個月,甲骨文股價下跌約19%,輝達也下跌了約13%。更為嚴峻的是,輝達首席財務官本周透露,公司與OpenAI高達1000億美元的合作協議尚未最終敲定。這一切,都讓OpenAI雄心勃勃的擴張計畫蒙上了一層陰影。在過去短短幾個月內,OpenAI已承諾了接近6000億美元的新計算資源採購,但其如何支付這些天價帳單卻是一個巨大的問號。與此同時,OpenAI的核心業務也亮起了“警報”。本周一,官奧爾特曼在公司內部的Slack備忘錄中告訴員工,該公司將啟動一項“紅色警報”行動,公司將因此向ChatGPT投入更多資源。為此,OpenAI甚至推遲了包括廣告產品在內的其他項目,並鼓勵員工臨時調動團隊以支援ChatGPT的改進工作。在這樣的大背景下,一個耗資數十億美元、周期長達數年甚至十餘年、且技術風險極高的火箭公司收購或控股計畫,對於OpenAI而言,無疑顯得有些不切實際。將公司的財務和注意力資源從迫在眉睫的AI產品市場爭奪戰,轉向一個遙不可及的太空夢想,在當下這個時間點可能並非明智之舉。因此,雖然奧爾特曼的太空資料中心夢想描繪了一幅宏大的未來圖景,但與Stoke Space談判的冷卻,或許也清晰地表明:即便是最富想像力的科技領袖,也不得不首先應對地球上的嚴峻競爭與財務現實。與馬斯克的“太空決戰”或許終將上演,但對現在的奧爾特曼和OpenAI來說,打好眼前的“地球保衛戰”才是重中之重…… (科創日報)
華爾街也怕了?德銀之後,大摩也要“縮減”資料中心風險敞口
作為人工智慧融資競賽中的關鍵參與者之一,摩根士丹利正在考慮通過一種被稱為“重大風險轉移”(SRT)的方式,出售其部分資料中心相關敞口。此前,德意志銀行也在評估如何管理其數十億美元的資料中心貸款風險,考慮的方案包括做空一籃子AI相關股票。隨著人工智慧引發的投資狂潮將資料中心行業推向估值頂峰,一些身處風暴中心的華爾街巨頭正從狂熱中抽身,開始審慎地評估並尋求管理其巨大的風險敞口。12月4日,據彭博報導,作為AI基礎設施競賽關鍵融資方之一的摩根士丹利,正在考慮通過所謂的“重大風險轉移”(Significant Risk Transfer, SRT)來剝離其部分資料中心貸款風險。該行已就一項與AI基礎設施業務貸款組合相關的SRT交易,與潛在投資者進行了初步會談。此舉緊隨德意志銀行此前的內部討論。德意志銀行也在評估如何管理其數十億美元的資料中心貸款風險,考慮的方案包括做空一籃子AI相關股票,或採用“合成風險轉移”(Synthetic Risk Transfer)交易。兩家跨國大行的相似舉動,共同指向一個日益清晰的訊號:在巨大的市場機遇面前,對潛在泡沫和過度集中的擔憂正促使頂級投行採取切實的避險行動。對於投資者而言,這意味著一直為AI熱潮提供資金彈藥的銀行體系,已經開始為潛在的市場回呼建構防禦。大摩尋求風險轉移摩根士丹利正探索多種方式來降低其在資料中心領域的風險。據上述媒體報導,除了與投資者初步商討SRT交易外,該行也在探索其他避險或銀團分銷部分資料中心風險的途徑。重大風險轉移(SRT)是銀行管理信貸風險、最佳化資本充足率的金融工具,通過向機構投資者出售與貸款組合相關的信用連接票據(credit-linked notes),銀行可以將潛在的違約風險轉移出去,從而釋放資產負債表空間以進行新的放貸。儘管與資料中心風險敞口掛鉤的SRT交易在整個信貸風險轉移市場中仍屬新興領域,但摩根士丹利的探索凸顯了其前瞻性的風險管理考量。不過,報導稱,相關討論尚處於早期階段,無法保證最終一定會達成交易。摩根士丹利的謹慎態度,源於其在該領域的深度參與。該行是AI基礎設施融資的核心參與者之一。今年10月,摩根士丹利為Meta Platforms Inc.位於路易斯安那州裡奇蘭縣的Hyperion資料中心項目的一個特殊目的載體(SPV),安排了超過270億美元的債務融資和約25億美元的股權融資。此外,該行還牽頭了TeraWulf Inc.、Cipher Mining Inc.和Applied Digital Corp.近期的三筆高收益債券發行,所得資金部分用於支援新資料中心設施的建設。摩根士丹利的策略師預測,到2028年,大型雲端運算公司在資料中心基礎設施上的支出將高達約3兆美元,其中一半預計將通過債務市場融資。如此巨大的融資需求意味著銀行體系可能面臨對少數幾家公司的過度風險集中。一個例證是,甲骨文公司(Oracle Corp.)的債務違約保護成本近幾個月大幅飆升,摩根士丹利一份研究報告認為,為該公司建設貸款提供融資的銀行及其他貸款方,可能是背後關鍵的驅動因素。德銀已經採取防禦避險措施摩根士丹利的行動並非孤例,此前德意志銀行已表露出類似的擔憂。據媒體報導,德意志銀行高管已在內部討論如何管理該行向AI和雲端運算行業提供的數十億美元貸款風險。該行將資料中心融資視為其投行業務的“豪賭”,主要向服務於Alphabet、微軟和亞馬遜等“超大規模”科技巨頭的企業提供貸款。為避險潛在的下行風險,德意志銀行考慮的方案包括做空一籃子AI相關股票,以及通過合成風險轉移(SRT)交易為部分貸款購買違約保護。這些討論的背景,是銀行已為瑞典集團EcoDataCenter和加拿大公司5C等提供了超過10億美元的債務融資以支援其擴張。華爾街投行的審慎姿態,與全球監管機構和市場懷疑論者日益增長的警示聲音遙相呼應。新加坡金融管理局(MAS)在其近期的《金融穩定評估》報告中明確指出,科技和AI類股正呈現“相對緊張的估值”,並警告稱市場樂觀情緒的逆轉可能引發“急劇回呼”。一些知名投資者則用實際行動表達了看空立場。因電影《大空頭》而聞名的投資者Michael Burry,其管理的Scion Asset Management基金已將大量倉位用於做空AI熱潮的代表性公司。 (invest wallstreet)
算力成本:一場耗資7億美元的資料中心規模化競賽
AI算力需求爆發正重塑資料中心投資版圖:2025年全球資本支出將超兆美元,微軟、亞馬遜等巨頭單年砸下數百億美元建智算中心,中國「東數西算」疊加新能源優勢,年內智算項目已超300個,投資規模近千億元。液冷、核能、模組化與REITs平行,綠色、高密度、可擴展成為資本追逐的新標竿,資料中心正從成本中心升級為AI時代的核心資產。人工智慧正催生對算力的旺盛需求,促使企業投入數十億美元用於基礎設施建設。然而,由於未來需求的不確定性,投資人需謹慎決策。AI is fueling high demand for compute power, spurring companies to invest billions of dollars in infrastructure. But with future demand uncertain, investors will need to make calculated decisions.在人工智慧熱潮下,算力正成為本世紀最關鍵的資源之一。在全球各地的資料中心,數百萬台伺服器全天候運轉,處理支撐人工智慧的基礎模型與機器學習應用。這些資料中心所需的硬體、處理器、記憶體、儲存和能源共同構成算力,而市場對算力的需求似乎永無止境。Amid the AI boom, compute power is emerging as one of this decade's most critical resources. In data centers across the globe, millions of servers run 24/7 to process the foundation getels and machine learning 組合, that ​​nandal, enerity, learning needed to operate these data centers are collectively known as compute power—and there is an unquenchable need for more.我們的研究表明,到2030年,全球資料中心需投入6.7億美元才能跟上算力需求的成長步伐。其中,AI處理負載能力的資料中心預計需5.2億美元支出,而支撐傳統IT應用的資料中心預計需1.5億美元支出。總體而言,到2030年資本支出總需求接近7億美元——無論以何種標準衡量,這都是一個驚人的數字。Our research shows that by 2030, data centers are projected to require $6.7 trillion worldwide to keep pace with the demand for compute power. Data centers equipped to handle AI processing loads are projected to repowerp.2 pped to handle AI processing loads are projected to repowers 25.2 5% 5.表 5% applications are projected to require $1.5 trillion in capital expenditures. Overall, that's nearly $7 trillion in capital outlays needed by 2030—a staggering number by any measure.為了滿足這一需求,算力價值鏈上的公司必須在快速部署資本和審慎決策之間取得平衡。要提高資料中心投資獲得豐厚回報率,企業可分階段推進項目,並在每一步評估投資回報率。但未來需求的不確定性使得精確的投資計算難以實現。To meet this demand, companies across the compute power value chain must strike a balance between deploying capital quickly and doing so prudently. To improve the odds that their data center investments willnvide scan return, scom smooo, s​​hool inscan wills scoms shd, scoms s​​hd, scom swhe scom, s​​stal, s​​an shd, scom, scom, sh.com each step. Still, a lack of clarity about future demand makes precise investment calculations difficult.算力價值鏈極為複雜——從建造資料中心的房地產開發商,到為其提供電力的公用事業公司,再到生產晶片的半導體企業,以及託管數兆太字節資料的雲端服務超大規模供應商均涵蓋其中。這條價值鏈上的領導者們深知,必須加大算力投資以推動人工智慧發展加速。然而,他們面臨的挑戰是艱難的:決定將多少資本分配到那些項目,同時卻無法確定人工智慧未來的成長與發展會如何影響算力需求。超大規模雲端服務提供者是否會繼續承擔成本壓力?還是企業、政府及金融機構會透過新的融資模式介入?在人工智慧使用量持續激增的情況下,資料中心需求是否會進一步上升?還是會隨著技術進步使人工智慧對算力需求的依賴減少而下降?The compute power value chain is complex—from the real estate developers that build data centers to the utilities that power them, to the semiconductor firms that produce chips to the cloud service hypersers that hosta caler produce chips to the cloud service hypersers that hosta caliv. must invest in compute power to accelerate AI growth. But their challenge is formidable: deciding how much capital to allocate to which projects, all while remaining uncertain of how AI's future growth and dedopment will impx or will enterprises, governments, and financial institutions step in with new financing models? Will demand for data centers rise amid a continued surge in AI usage, or will it fall as technological advances make AI usage, or will it fall as technological advances make less compute有一點毋庸置疑:此事利害攸關。過度投資資料中心基礎設施可能導致資產閒置,而投資不足則意味著落後。本文基於麥肯錫的研究分析,為算力價值鏈上的各類企業整理了未來五年的投資格局。儘管這些預測經過嚴謹論證,但我們也承認人工智慧是一個快速發展的領域。我們的分析雖然基於深入研究的假設,但仍存在一些無法量化的關鍵不確定性。One thing is certain: The stakes are high. Overinvesting in data center infrastructure risks stranding assets, while underinvesting means falling behind. This article, based on McKinsey research and analysis, provides com cross crossue. the next five years. Despite the rigor behind these forecasts, we acknowledge that AI is a radically evolving space. Our analysis is built on thoroughly researched hypotheses, but there are critical uncertainties that ununcertainet or unccan.預測算力需求曲線Predicting the compute power demand curve企業要決定在算力上投入多少,首先應精準預測未來需求——鑑於人工智慧產業變化如此之快,這絕非易事。我們的研究表明,到2030年,全球對資料中心容量的需求可能會接近三倍,其中約70%的需求來自人工智慧工作負載(見圖1)。但這一預測取決於兩個關鍵不確定性因素:To decide how much to invest in compute power, companies should first accurately forecast future demand—a challenging task given that the AI sector is shifting so rapidly. Our research shows that global mand de dataabout so rapidly。 of that demand coming from AI workloads (Exhibit 1). However, this projection hinges on two key uncertainties:人工智慧用例。人工智慧的價值體現在應用層面——企業如何將人工智慧轉化為實際業務價值。如果企業未能從人工智慧中創造實質價值,算力需求可能達不到預期。相反,變革性的人工智慧應用可能會推動比當前預測更大的需求。AI use cases. The value in AI lies at the application layer—how enterprises turn AI into real business impact. If companies fail to create meaningful value from AI, demand for compute power could fail short of expect age 決定, current projections suggest.快速創新周期和顛覆變革。人工智慧技術的持續進步,例如處理器、大語言模型(LLM)架構和功耗,可能會顯著提高效率。例如,2025年2月,中國的大語言模型參與者DeepSeek揭露,其V3模型在訓練和推理效率方面實現大幅提升,與GPT-4o相比,訓練成本大幅降低18倍,推理成本降低36倍。然而,初步分析表明,這類效率提升可能會被更廣泛人工智慧市場中激增的實驗與訓練活動所抵消。因此,從長期來看,效率提升或許不會對整體算力需求產生實質性影響。。 that its V3 model achieved substantial improvements in training and reasoning efficiency, notably reducing training costs by approximately 18 times and inferencing costs by about 36 times, pared . types of efficiency gains will likely be offset by increased experimentation and training across the broader AI market. As a result, efficiency gains may not substantially impact overall compute power demand over the long demandm.僅人工智慧需求就需5.2兆美元的投資AI demand alone will require $5.2 trillion in investment我們測算,2030年,算力價值鏈上的各類企業僅為滿足全球人工智慧需求,就需向資料中心投入5.​​2億美元。這一數字基於廣泛的分析和關鍵假設,包括到2030年預計需要156吉瓦(GW)與人工智慧相關的數據中心容量,2025年至2030年期間將增加125吉瓦。這5.2兆美元的數字反映了滿足人工智慧計算能力不斷增長的需求所需的巨額投資規模——這一龐大的資本投入,也凸顯了未來挑戰的艱巨性。We calculate that companies across the compute power value chain will need to invest$5.2 trillion into data centers by 2030 to meet worldwide demand for AI alone. We based this figure on extensive anawide demand for AI alone. We based this figure on extensive analysis and key assaings projects projects, 375), g sadvvvv) AI-related data center capacity demand by 2030, with 125 incremental GW added between 2025 and 2030. This $5.2 trillion figure reflects the sheer scale of investment required to meet the wing mand for meet the compute scale of investment required to meet the wing mand for meet the compute scale ofinvestmentremed magnitude of the challenge ahead (see sidebar “The scale of investment”).鑑於未來算力需求存在不確定性,我們建立了三種投資情景,從需求受限到加速成長(見圖2)。在第一種情境中,成長大幅提速,2025年至2030年期間將增加205吉瓦,這將需7.9億美元的資本支出。本文採用的是第二種情景:需求有所增長,但不及第一種情景,預計資本支出為5.2兆美元。第三種情境為需求較受限的情況,未來五年新增容量78吉瓦,總資本支出為3.7 億美元。Amid the uncertainty about future needs for compute power, we created three investment scenarios ranging from constrained to accelerated demand (Exhibit 2). In the first of our取 three scenarios, growth relbit 2). In the first of our取 three scenarios, growth relelerates signal accly 20 月added between 2025 and 2030. This would require an estimated $7.9 trillion in capital expenditures. The second scenario is the one we use in this article: Demand grows, but not groas we use in this article: Demand 實體$5.2 trillion. In our third scenario, in which demand is more constrained, with 78 incremental GW added in the next five years, the total capital expenditure is $3.7 trillion .2025-2030 年預測:人工智慧驅動的全球資料中心資本支出總額(按類別與情境劃分)單位:兆美元Global data center total capital expenditures driven by Al,by category and scenario, 2025-30 projection, $ trillion無論那種情景,這些投資數額都極為驚人,背後有多重因素驅動:In any scenario, these are staggering investment numbers. They are fueled by several factors:生成式人工智慧的大規模應用。支撐生成式人工智慧的基礎模型,其訓練與運作需要大量算力資源。訓練和推理工作負載都在推動基礎設施的成長,預計到2030年,推理將成為主要的工作負載。Mass adoption of gen AI. The foundation models that underpin gen AI require significant compute power resources to train and operate. Both training and inference workloads are contributing to infrastructure growth, with inference expected to ben contributing to infrastructure growth, with inference expected to become 30.企業整合。在各行業(從汽車到金融服務)部署人工智慧驅動的應用程序需要大量的雲端運算能力。隨著應用場景不斷增多,人工智慧應用將愈發複雜,會整合為特定領域量身定製的專用基礎模型。Enterprise integration. Deploying AI-powered applications across industries—from automotive to financial services—demands massive cloud computing power. As use cases grow, AI applications will grow more sophisticated, integrating specialed.激烈的基礎設施競賽。超大規模供應商和企業正在競相建立專屬人工智慧算力以獲得競爭優勢,這推動了越來越多的資料中心的建設。這些「建設者」(下文將進一步描述)希望透過實現規模效應、優化資料中心技術堆疊,最終降低算力成本,從而鞏固競爭優勢。Competitive infrastructure race. Hyperscalers and enterprises are racing to build proprietary AI capacity to gain competitive advantage, which is fueling the construction of more and more data centers. These "builders” (as furbe des pib) descr3 3000m ”(achieving scale, optimizing across data center tech stacks, and ultimately driving down the cost of compute.地緣政治考量。各國政府正大力投資人工智慧基礎設施,以增強安全、經濟領導和技術獨立性。Geopolitical priorities. Governments are investing heavily in AI infrastructure to enhance security, economic leadership, and technological independence.這些投資將流向何處?Where is the investment going?需要說明的是,我們對人工智慧基礎設施 5.2 兆美元的投資預測存在一定侷限性—— 該分析可能低估了所需的總資本投入,因為我們的估算僅量化了五類算力投資者中的三類,即建設者、能源供應商以及技術研發與設計商。這三類投資者直接為人工智慧發展所需的基礎設施和基礎技術提供資金支援(詳見側邊欄「五類資料中心投資者」)。約15%(0.8兆美元)的投資將流向建設者,用於土地、材料和場地開發。另有25%(1.3兆美元)將分配給賦能者,用於發電和輸電、冷卻和電氣裝置。最大的投資份額,即60%(3.1兆美元),將流向技術開發者和設計師,他們為數據中心生產晶片和計算硬體。另外兩種投資者原型,運營商(如超大規模提供商和共址提供商)和人工智慧架構師(他們構建人工智慧模型和應用)也投資於計算能力,特別是在人工智慧驅動的自動化和數據中心軟件等領域。但由於這類投資與他們的整體研發支出有重疊,因此難以單獨量化其在算力上的具體投入規模。To qualify our $5.2 trillion investment forecast for AI infrastructure, it's important to note that our analysis likely undercounts the total capital investment needed, as our estimate quantifies capital investment for only three out of five compute power investor archetypes—builders, energizers, and technology developers and designers—that directly finance the infrastructure and foundational technologies necessary for AI growth (see sidebar “Five types of data center investors”). Appximate 是 15 cent 你。 materials, and site development. Another 25 percent ($1.3 trillion) will be allocated to energizers for power generation and transmission, cooling, and electrical equipment. The largest share of investment, 60 will ($3. produce chips and computing hardware for data centers. The other two investor archetypes, operators, such as hyperscalers and colocation providers, and AI architects, which build AI models 和center software. But quantifying their compute power investment is challenging because it overlaps with their broader R&D spending.五類資料中心投資者Five types of data center investors儘管預計需要如此龐大的資本投入,但我們的研究顯示,當前投資規模仍落後於需求。在數十次客戶訪談中我們發現,執行長們不願全力投資算力產能,因為他們對未來需求的洞察力有限。對人工智慧採用是否會繼續快速上升的不確定性,以及基礎設施項目有很長的前置時間,使得企業難以做出明智的投資決策。許多公司不確定今天對人工智慧基礎設施的大規模資本支出是否會在未來產生可衡量的投資回報率。那麼,企業領導者如何能自信地推進他們的投資呢?首先,他們可以確定自己的組織在計算能力生態系統中的位置。Despite these projected capital requirements, our research shows that current investment levels lag demand. In dozens of client interviews, we found that CEOs are hesitant to invest in compute power capacity at maximum levels be hesitant to invest in compute power capacity at maximum levels be hesit. about whether AI adoption will continue its rapid ascent and the fact that infrastructure projects have long lead times make it difficult for companies to make informed investment decisions. Many comcommend are unsure wheake informed investment decisions。 measurable ROI in the future. So how can business leaders move forward confidently with their investments? As a first step, they can determine where their organizations fall within the compute power ecosystem.人工智慧基礎設施投資者的五大類型Five archetypes of AI infrastructure investors這場兆級美元的人工智慧算力投資競賽背後,究竟是誰在主導?我們已明確說明五類核心投資者類型,每類都面臨獨特的挑戰與機遇,同時也詳細測算出它們未來五年的潛在投入規模。Who are the investors behind the multitrillion-dollar race to fund AI compute power? We have identified five key investor archetypes, each navigating distinct challenges and opportunities, and detailed how much they could spstinct challenges and opportunities, and detailed how much they could spend in the next five spendy.1. 建設者 Builders核心身份:房地產開發商、設計公司和建築公司,正在擴大大量資料中心的容量。Who they are: real estate developers, design firms, and construction companies expanding data center capacity人工智慧工作負載的資本支出:8000億美元。AI workload capital expenditure: $800 billion非人工智慧工作負載的資本支出:1000億美元。Non-AI workload capital expenditure: $100 billion關鍵投資:土地和材料採購、熟練勞動力、場地開發。Key investments: land and material acquisition, skilled labor, site development機遇。建設者若能優化選址,可搶佔核心區位、縮短建設周期,並儘早融入營運反饋,從而實現數據中心更快部署與更高運營效率。Opportunities.Builders that optimize site selection can secure prime locations, reduce construction timelines, and integrate operational feedback early, ensuring faster deployment and higher data center effency.挑戰。技術人員與建築工人的勞動力短缺可能影響人力供給,而選址限制可能壓縮可選場地範圍。與此同時,機架功率密度的增加可能會帶來空間和冷卻方面的挑戰。Challenges.Labor shortages could impact technician and construction worker availability, while location constraints could limit site selection options. Meanwhile, increased rack ges density could create space and cooling lenlen.解決方案。具有前瞻性的建設者能夠找到核心挑戰的應對之策,為其投資決策增添確定性。例如,一些建設者透過採用模組化設計來解決勞動力短缺問題,這種設計簡化了建設過程,例如在場外建造大型元件,然後在現場組裝。Solutions.Forward-thinking builders can find solutions to core challenges, adding certainty to their investment decisions. For example, some are solving the labor shortage issue by adopting mod alsigns that solving the labor shortage issue by adopting mod alsigns that cesstreams sargeion can be assembled on-site.2. 賦能者 Energizers核心身份:公用事業公司、能源供應商、冷卻/電氣裝置製造商和電信運營商,他們正在為人工智慧數據中心建設電力和連接基礎設施。Who they are: utilities, energy providers, cooling/electrical equipment manufacturers, and telecom operators building the power and connectivity infrastructure for AI data centers人工智慧工作負載的資本支出:1.3兆美元。AI workload capital expenditure: $1.3 trillion非人工智慧工作負載的資本支出:2000億美元。Non-AI workload capital expenditure: $200 billion核心投資領域:發電(發電廠、輸電線路)、冷卻解決方案(空氣冷卻、直接晶片液體冷卻、浸沒式冷卻)、電氣基礎設施(變壓器、發電機)、網絡連接(光纖、電纜)。Key investments: power generation (plants, transmission lines), cooling solutions (air cooling, direct-to-chip liquid cooling, immersion cooling), electrical infrastructure (transformers, generators), net connectivity) (networkn,able)機遇。能源供應商若能擴大電力基礎設施規模,並在可持續能源解決方案方面開展創新,將能更能掌握超大規模雲服務供應商日益增長的能源需求所帶來的機會。Opportunities.Energizers that scale power infrastructure and innovate in sustainable energy solutions will be best positioned to benefit from hyperscalers' growing energy demands.挑戰。現有電網的薄弱環節可能導致資料中心供電受阻,而處理器密度不斷提升所帶來的熱管理難題仍是一大障礙。此外,賦能者還面臨清潔能源轉型的要求和漫長的電網連接審批流程。Challenges.Powering data centers could stall due to existing grid weaknesses and solving heat management challenges from rising processor densities remains an obstacle. Energizers also face clean-energy transition re解決方案。鑑於超過 1 兆美元的投資面臨風險,賦能者正在尋找方法提供可靠的電力,同時推動投資回報率。他們正在對新興發電技術進行大量投資,包括核能、地熱能、碳捕獲與儲存以及長期能源儲存。同時,他們正加強,盡快提升各類能源的上線容量既涵蓋再生能源,也包括天然氣、化石燃料等傳統能源基礎設施。當前的變化在於,能源需求的規模已極為龐大,這催生了以空前速度建設發電產能的新緊迫性。隨著需求——尤其是對清潔能源的需求——的激增,預計發電量將迅速增長,可再生能源預計到2030年將佔能源結構的45%到50%,而今天僅佔約三分之一。Solutions.With over $1 trillion in investment at stake, energizers are finding ways to deliver reliable power while driving ROI. They are making substantial investments in emerging power-generation technologies—including captures, ) capgeage, 片面They are also doubling down on efforts to bring as much capacity online as quickly as possible across both renewable sources and traditional energy infrastructure, such as gas and fossil fuels. What ismands nowa is a遠 that the build power capacity at unprecedented speed. As demand—especially for clean energy—surges, power generation is expected to grow rapidly, with renewables projected to account for approximately 45 to 50 percent to 20 energy 2003, 000 energy 30day 50 enerper 20030,3. 技術研發與設計商 Technology developers and designers核心身份:為資料中心生產晶片和計算硬體的半導體公司和IT供應商。Who they are: semiconductor firms and IT suppliers producing chips and computing hardware for data centers人工智慧工作負載的資本支出:3.1兆美元。AI workload capital expenditure: $3.1 trillion非人工智慧工作負載的資本支出:1.1兆美元。Non-AI workload capital expenditure: $1.1 trillion核心投資領域:圖形處理單元(GPU)、中央處理單元(CPU)、記憶體、伺服器和機架硬體。Key investments: GPUs, CPUs, memory, servers, and rack hardware機遇。技術研發與設計商若能投資於具備可擴展性、面向未來的技術,且擁有明確的需求洞察力作為支撐,將能在人工智慧計算領域獲得競爭優勢。Opportunities.Technology developers and designers that invest in scalable, future-ready technologies supported by clear demand visibility could gain a competitive edge in AI computing.挑戰。少數幾家半導體公司控制著市場供應,抑制了競爭。產能建設仍不足以滿足當前需求,與此同時,人工智慧模型訓練方法與工作負載的變化,使得特定晶片的未來需求難以預測。Challenges.A small number of semiconductor firms control the market supply, stifling competition. Capacity building remains insufficient to meet current demand, while at the same time, shifts in AI model trainture method and while at the same time, shifts in AI model 大chips.解決方案。在算力競賽中,技術研發與設計商的潛在效益最大,因為正是它們提供了承擔實際計算工作的處理器與硬體。目前市場對其產品的需求旺盛,但它們的投資需求也最為龐大——未來五年將超過 3 億美元。少數幾家半導體公司對行業供應有著不成比例的影響,使他們成為計算能力成長的潛在瓶頸。技術開發者和設計師可以透過擴大製造能力並多樣化供應鏈來緩解這一風險,以防止瓶頸。Solutions.Technology developers and designers have the most to gain in the compute power race because they are the ones providing the processors and hardware that do the actual computing. Demand for their products is currently high, but the grle 造成 highnes the grolducts is currently0,five years. A small number of semiconductor firms have a disproportionate influence on industry supply, making them potential chokepoints in compute power growth. Technology developers and designers can mitigate this ifyrby expanding and un​​ywperion this risk by bottlenecks.4. 運營商 Operators核心身份:超大規模提供者、共址提供者、GPU即服務平台以及透過提高服務器利用率和效率來優化計算資源的企業。Who they are: hyperscalers, colocation providers, GPU-as-a-service platforms, and enterprises optimizing their computing resources by improving server utilization and efficiency人工智慧工作負載的資本支出:未包含在此分析中。AI workload capital expenditure: not included in this analysis非人工智慧工作負載的資本支出:未包含在此分析中。Non-AI workload capital expenditure: not included in this analysis核心投資領域:資料中心軟件、人工智慧驅動的自動化、訂製矽片。Key investments: data center software, AI-driven automation, custom silicon機遇。業者若能有效率擴大規模,同時平衡投資回報率(ROI)、性能與能源消耗,將可望引領產業長期發展。Opportunities.Operators that scale efficiently while balancing ROI, performance, and energy use can drive long-term industry leadership.挑戰。人工智慧託管應用尚不成熟,可能導致長期投資回報率(ROI)的計算難以清楚量化。資料中心營運效率低正推高成本,但人工智慧需求的不確定性仍在繼續擾亂長期基礎設施規劃和採購決策。Challenges.Immature AI-hosted applications can obscure long-term ROI calculations. Inefficiencies in data center operations are driving up costs, but uncertainty in AI demand continues to disrupt long-term.解決方案。儘管如今的數據中心已處於較高的運行效率水平,但人工智慧創新的迅速發展仍要求運營商同時優化能源消耗與工作負載管理。部分運營商透過投資更有效的冷卻解決方案和增加機架堆疊能力在不犧牲處理能力的前提下減少空間需求,從而提高資料中心的能源效率。另一些運營商正在投資人工智慧模型開發本身,以建立需要較少計算能力來訓練和運行的架構。Solutions.While data centers today operate at high-efficiency levels, the rapid pace of AI innovation will require operators to optimize both energy consumption and workload management. Some operators are improving energy dataeffect inject insticution and 周長increasing rack stackability to reduce space requirements without sacrificing processing power, for example. Others are investing in AI model development itself to create architectures that need less compute power to be trained and operateditectures that need less compute power to be trained and operated.5. 人工智慧架構師 AI architects核心身份:人工智慧模型開發者、基礎模型提供者、建構專有AI能力的企業。Who they are: AI model developers, foundation model providers, and enterprises building proprietary AI capabilities人工智慧工作負載的資本支出:未包含在此分析中。AI workload capital expenditure: not included in this analysis非人工智慧工作負載的資本支出:未包含在此分析中。Non-AI workload capital expenditure: not included in this analysis核心投資領域:模型訓練與推理基礎設施,演算法研究。Key investments: model training and inference infrastructure, algorithm research機遇。人工智慧架構師若能發展出平衡效能與低算力需求的架構,將引領下一波人工智慧應用浪潮。而投資於AI能力的企業可以透過開發符合其需求的專用模型來獲得競爭力。Opportunities.AI architects that develop architectures that balance performance with lower compute requirements will lead the next wave of AI adoption. Enterprises investing in proprietary AI capabilities can eds competitiveness by 字詞 specialtail bys specialtail.挑戰。人工智慧治理相關問題,包括偏見、安全和監管,增加了行業複雜度,可能會減緩發展。與此同時,推理構成了一個主要的不可預測成本組成部分,企業正面臨難以證明人工智慧投資的明確投資回報率的困難。Challenges.AI governance issues, including bias, security, and regulation, add complexity and can slow development. Meanwhile, inference poses a major unpredictable cost component, and enterprises are facing dicis ultare facs解決方案。大規模人工智慧模型不斷升級的計算需求正在增加訓練它們的成本,特別是在推理方面,即訓練有素的人工智慧模型將他們學到的知識應用到新的、未見過的數據上以做出預測或決策的過程。具有先進推理能力的模型,如OpenAI的o1,需要顯著更高的推理成本。例如,與該公司的非推理型GPT-4o相比,OpenAI的o1的推理成本高出六倍。為降低推理成本,領先的AI企業正通過稀疏啟動、知識蒸餾等技術優化模型架構。這些方案能夠減少AI模型產生回應時所需的算力,提升營運效率。Solutions.The escalating computational demands of large-scale AI models are driving up the costs to train them, particularly regarding inference, or the process where trained AI models apply their learned knowledge to newsion, sdics dataly their learns formly their learndeen to newsion, sdics dataorv. capabilities, such as OpenAI's o1, require significantly higher inference costs. For example, it costs six times more for inference on OpenAI's o1 compared with the company's nonreasoning GPT-4. optimizing their model architectures by using techniques like sparse activations and distillation. These solutions reduce the computational power needed when an AI model generates a response, making operations more icient.人工智慧基礎設施發展的關鍵考量因素Critical considerations for AI infrastructure growth企業在規劃人工智慧基礎設施投資時,需應對多種潛在結果。在需求受限的場景下,受供應鏈限制、技術變革及地緣政治不確定性影響,人工智慧相關資料中心的產能建設可能需要 3.7 億美元資本支出。而在需求加速成長的場景下,這些阻礙因素得到緩解,投資規模或高達 7.9 億美元。緊跟不斷變化的行業格局,對於制定明智且具戰略性的投資決策至關重要。投資者必須考慮的不確定性因素包括:As companies plan their AI infrastructure investments, they will have to navigate a wide range of potential outcomes. In a constrained-demand scenario, AI-related data centercapacityilliondisruptions, and geopolitical uncertainty. These barriers are mitigated, however, in an accelerated-demand scenario, leading to investments as high as $7.9 trillion. Staying on top of the evolving landscape is instical landscapeking informed. uncertainties investors must consider include:技術變革。模型架構的突破,包括計算利用效率的提高,可能降低對硬體和能源的預期需求。Technological disruptions. Breakthroughs in model architectures, including efficiency gains in compute utilization, could reduce expected hardware and energy demand.供應鏈限制。勞動力短缺、供應鏈瓶頸和監管障礙可能會延遲電網連接、晶片供應和數據中心擴展——減緩整體人工智慧的採用和創新。為瞭解決關鍵晶片的供應鏈瓶頸,半導體公司正在投入大量資本建設新的製造設施,但由於監管限制和上游裝置供應商的長前置時間,這種建設可能會停滯。Supply chain constraints. Labor shortages, supply chain bottlenecks, and regulatory hurdles could delay grid connections, chip availability, and data center expansion—slowing overall 過程investing significant capital to construct new fabrication facilities, but this construction could stall due to regulatory constraints and long lead times from upstream equipment suppliers.地緣政治緊張局勢。關稅波動與技術出口管制可能為算力需求帶來不確定性,進而潛在影響基礎設施投資與人工智慧的發展。Geopolitical tensions. Fluctuating tariffs and technology export controls could introduce uncertainty in compute power demand, potentially impacting infrastructure investments and AI growth.競爭優勢的角逐The race for competitive advantage在人工智慧驅動的計算時代,贏家將是那些能夠預判算力需求並進行相應投資的企業。算力價值鏈上的各類企業,若能主動掌握關鍵資源(土地、材料、能源容量和計算能力)將可望獲得顯著的競爭優勢。為實現有把握的投資,它們可採取三管齊下的策略。The winners of the AI-driven computing era will be the companies that anticipate compute power demand and invest accordingly. Companies across the compute power value chain that proactively secure critical resources — land, erialscity, gy as enerftd enerure critical resources—land, aterialscity, cat enerle enerftd enerft, enery, part, enerityenertercomenerftdedge. To invest with confidence, they can take a three-pronged approach.首先,投資者需要在不確定性中理解需求預測。企業應儘早評估人工智慧計算需求,預判需求的潛在變化,並制定具備可擴展性的投資策略,以適應人工智慧模型及應用場景的演進。其次,投資人需探索提升計算效率的創新路徑。具體而言,可優先投資於兼具成本效益與能源效率的計算技術,在最佳化性能的同時,管控能耗與基礎設施成本。第三,投資者可建構供應端韌性,確保人工智慧基礎設施在不過度投入資本的前提下持續成長。這將需要投資者確保關鍵投入(如能源和晶片),最佳化選址,並為供應鏈注入靈活性。First, investors will need to understand demand projections amid uncertainty. Companies should assess AI computing needs early, anticipate pot ential shifts in demand, and design scalable investment strategies that can ential shifts in demand, and design scalable investment strategies that can ential shifts in demand, and design scalable investment strategies that can ential shifts in deals of designal mod . innovate on compute efficiency. To do so, they can prioritize investments in cost- and energy-efficient computing technologies, optimizing performance while managing power consumption and infrastructure motside Third, the can pun​​ion sem. without overextending capital. This will require investors to secure critical inputs such as energy and chips, optimize site selection, and build flexibility into their supply chains.在成長與資本效率之間取得平衡至關重要。戰略投資不只是一場擴巨量資料基礎設施規模的競賽,更是一場塑造人工智慧未來的競爭。Striking the right balance between growth and capital efficiency will be critical. Investing strategically is not just a race to scale data infrastructure—it'sa race to shape the future of AI itself. (DeepKnowledge)
炸裂!美國科技大佬空前一致:AI的未來,不屬於地球
美國感恩節假期來臨之際,Google紅得發紫。繼TPU晶片搶走輝達生意之後,Google向世人表明:我們的目標是外太空!這也代表了美國科技大佬們的最新展望。打造太空資料中心利用太陽能11月26日,GoogleCEO桑達爾·皮查伊與GoogleDeepMind項目的高級產品經理洛根·基爾帕特里克進行了一次深入對話,討論了Gemini 3和Nano Banana Pro的發佈,以及Google在人工智慧領域的整體發展勢頭。他們談到了Google對基礎設施的長期投資和Vibe Coding的興起,皮查伊也分享了他對量子計算未來的展望。在談到量子計算時,皮查伊認為大約五年後,人們對量子計算的熱情將會像今天對人工智慧一樣高漲。他表示,Google特別為此推出了「陽光捕手計畫」(Project Suncatcher)。該長期研究計畫在去年11月推出,目標是在太空中建造緊湊型衛星資料中心,利用太陽能為這些資料中心供電,從而顯著減輕地球電網的壓力。皮查伊設定了一個重要的內部里程碑:在2027年前將公司的張量處理單元(TPU)部署到太空軌道上。皮查伊承認這一概念“在今天看來很瘋狂”,但他為認為這是滿足未來計算能力巨大指數級增長需求的必要之舉。皮查伊強調,Google的戰略在於始終著眼長遠,並從宏偉的目標出發,反向推導。對於「陽光捕手」計畫而言,其意義在於預測下一代人工智慧的處理需求。皮查伊說:“你知道,當你真正退後一步,設想一下我們將來需要多少計算能力時,一切就都明白了。”他補充說:“這只是時間問題,那麼,你該如何推進這項工作?你需要倒推,制定27個里程碑,然後開始行動。”Google的理念核心在於能源的豐富性和高效性。該公司表示,太陽的輻射量是人類總發電量的100兆倍以上,使其成為太陽系中最根本的能源。在談到太空資料中心時,皮查伊打趣道:“也許我們會遇到一輛特斯拉跑車。”皮查伊指的是2018年,馬斯克將他那輛老款特斯拉跑車掛在SpaceX火箭上,並讓一個身穿太空衣的假人坐在駕駛座上,將其送入太空軌道的那次發射。馬斯克:必須進入太空無獨有偶,在人工智慧時代,美國科技大佬的未來似乎指向了外太空。上周,Salesforce Inc. 執行長馬克·貝尼奧夫在X上分享了一段馬斯克在與黃仁勳的討論中,談到在軌道上建立資料中心與在地面上建立資料中心的成本效益的視訊。貝尼奧夫指出:“資料中心成本最低的地方是太空,因為在太空中,只要有持續的太陽能供電和冷卻,無需電池,就能為300吉瓦的電腦資料中心提供電力和冷卻。”針對貝尼奧夫的帖子,馬斯克在X上分享了他的看法:“星艦每年應該能夠將大約300吉瓦的太陽能人工智慧衛星送入軌道,也許能達到500吉瓦。'每年'這個數字才是它如此重要的原因。”美國聯邦能源監管委員會的資料顯示,美國去年發電量超過4,151太瓦時,除以一年的小時數(8,760),得出的數字約為473吉瓦。「如果太空人工智慧的計算量達到每年300吉瓦,那麼僅資料處理一項,每兩年就會超過整個美國的經濟規模,」馬斯克說。「因此,晶片生產是亟待解決的關鍵難題,」馬斯克說道,並補充說,「特斯拉TeraFab是滿足市場需求的必要之舉。」TeraFab是特斯拉計畫建設的一座晶圓代工廠,據報導,該公司正與英特爾公司合作開發該項目。「地球只能接收到太陽大約十億分之一到二十億分之一的能量,」馬斯克在活動上說。 「所以,如果你想要獲得比地球所能產生的能量高出一百萬倍的東西,你就必須進入太空。這就是擁有太空公司的優勢所在。”貝佐斯和奧特曼也要“上天”此外,上個月,商業太空探索公司藍色起源執行長傑夫貝佐斯大力宣傳在太空建設千兆瓦級資料中心的想法,並表示這些資料中心可能更具成本效益。據報導,貝佐斯還在支援一家名為「普羅米修斯計畫」的新創業公司,該公司專注於人工智慧在汽車、航空航天和科學研究領域的應用。這家新創公司已獲得62億美元的融資,其中一部分來自貝佐斯本人。貝佐斯將擔任該初創公司人工智慧項目的聯合首席執行官,這是貝佐斯自2021年卸任亞馬遜首席執行官以來最重要的營運角色。「普羅米修斯計畫」的另一位聯合執行長兼聯合創始人維克·巴賈傑來頭也不小。巴賈傑曾任GoogleX(又稱「登月工廠」)主管,他曾與Google聯合創始人謝爾蓋·布林密切合作,參與了包括後來發展成為Waymo的自動駕駛汽車在內的多個項目。這讓馬斯克覺得很有趣,他稱貝佐斯是“模仿者”,因為“普羅米修斯計畫”將與藍色起源密切合作,可能會成為馬斯克旗下SpaceX的競爭對手。除此之外,OpenAI首席執行官薩姆·奧特曼在7月接受採訪時也表示:“我猜隨著時間的推移,世界上很多地方都會被資料中心覆蓋。但我也不確定,因為也許我們會把它們放到太空裡。比如,我們可能會在太陽系裡建造一個巨大的戴森球(註:這是一種假想的巨型結構,它完全包圍著地球,嘿,嘿 (北美商業見聞)
行業深度:從風冷到液冷 資料中心散熱的破局與未來
數字經濟爆發下,全球資料中心耗電量佔比逐年攀升。據統計,2024年中國資料中心能耗總量1660億千瓦時,約佔全社會用電量的1.68%,同比增長10.7%。2024年全社會用電增速為6.8%,資料中心用電量增速遠高於全社會用電量平均增速【1】。資料中心能耗已成為不可忽視的能源消耗領域。隨著人工智慧技術的迅猛發展,AI相關行業正經歷著前所未有的快速增長和技術迭代。這一變革不僅推動了社會的進步,也帶來了對計算能力的巨大需求。智能計算中心,作為AI技術發展的核心基礎設施,正面臨著前所未有的挑戰。01AI行業的快速發展AI技術的進步和應用場景的拓展,使得智能計算中心的建設成為推動行業發展的關鍵。技術的快速迭代要求資料中心能夠迅速適應新的計算需求,保持技術的領先地位。02高密散熱的需求關注隨著AI計算密度的增加,散熱問題成為智能計算中心必須面對的挑戰。高密度計算裝置產生的熱量如果不能有效管理,將直接影響資料中心的穩定性和效率,甚至可能導致裝置損壞和性能下降。03液冷技術的應用為瞭解決高密度散熱問題,液冷技術作為一種高效、環保的冷卻解決方案,已經成為智能計算中心散熱管理的重要趨勢。液冷技術能夠有效降低資料中心的能耗,提高裝置的散熱效率,是應對高密度散熱挑戰的有效手段。隨著晶片功耗增長加速,在面對不同業務需求時,製冷解決方案變得更多多樣。隨著機架功率密度的不斷攀升,行業內普遍認同,40~60kW/Rack已經達到了風冷極限,超過這個能力邊界,無論是考慮到散熱能力還是散熱成本,必須開始部署液冷。資料中心製冷從完全風冷邁向風液混合製冷,不同機架功率密度的製冷解決方案推薦如圖1所示。▲ 圖1 不同功率密度機櫃製冷解決方案機櫃功率密度在20~25kW以內時,常規遠端風冷方案即可解決伺服器散熱需求。當機櫃功率密度進一步提升,單機櫃功率密度在25~45kW時,就應該開始考慮近端風冷的解決方案。風冷方案再疊加背板熱交換器(Rear Door Heat Exchanger,RDHx),可以進一步解決單機櫃60kW以內的散熱需求。單機櫃功率密度在40~60kW時,就可以開始考慮採用液冷,但根據伺服器或晶片不同,也可以更早開始採用液冷。即使採用液冷,根據風液比不同,伺服器仍然有5%~50%的熱量需要通過風冷散熱來解決,風液混合將成為大多數高熱密度機櫃散熱方案。根據伺服器供液溫度要求,室外一次側需選擇不同的散熱方案。伺服器供液溫度要求大於40℃時,室外一次側散熱可以採用完全自然冷的解決方案,當伺服器供液溫度要求較低時,室外一次側需要採用機械冷卻。在單機櫃功率密度小於40kW時,考慮伺服器類型,往往更多選用風冷技術。為實現PUE要求,各類自然冷技術在機房空調裝置中已經大量應用。從節能技術維度,可以分為三類:01風側自然冷方案通過利用室外低溫空氣直接為資料中心供冷。在實際應用中有兩種方案:直接空氣自然冷,直接引入自然界新風對資料中心進行冷卻,但該方案受空氣質量、濕度等因素限制,適用場景較為有限。間接空氣自然冷,借助換熱器實現自然界低溫空氣與資料中心高溫空氣的熱交換,以降低機房溫度。此類方案可有效解決空氣質量及濕度問題,但在夏季室外溫度較高時,其應用仍會受到限制。02水側自然冷方案通過利用低溫水源或者水蒸發潛熱來為資料中心供冷。在過往的水側自然冷應用案例中,有直接引入湖水為資料中心供冷的方式,但此方案受水質條件,以及可能對當地生態環境影響的限制,應用範圍較窄。另一種通過水蒸發利用自然冷的方式應用則更為普遍,常見的冷卻塔及間接蒸發冷裝置等,在開啟水噴淋的情況下,均屬於水側自然冷,通過水的蒸發潛熱利用自然冷源。03氟泵自然冷方案通過氟泵來驅動冷媒循環,付出少量機械能,在室外低溫時將室外自然冷源的冷量通過冷媒相變傳遞至機房,從而達到降低機房降溫的效果。一般氟泵自然冷和壓縮機製冷整合在一個系統裡,當室外低溫時,壓縮機停止運行,啟動氟泵完成製冷循環。當時外溫度較高時,則需要啟動壓縮機來完成製冷循環。以上自然冷方式可以單獨應用,或者組合應用,充分挖掘室外自然冷潛能,實現節能效果。近期在資料中心領域應用比較多的混合雙冷源方案,即為一種組合式的自然冷方案。機房空調設計兩組盤管,層疊安裝。高溫迴風首先經過第一組盤管進行預冷,此時預冷冷源可以是氟泵自然冷,也可以是冷卻塔提供的冷卻水,之後通過第二組盤管,第二組盤管可以是氟泵自然冷,也可以是壓縮機機械製冷,根據製冷需求進行自動切換,詳見圖2所示。▲ 圖2 兩種不同雙冷源自然冷方案通過“預冷+補冷”的控制思路,實現自然冷源利用最大化,從而實現空調裝置高能效,有效幫助降低資料中心PUE。以資料中心常用100kW空調為例,採用上述自然冷技術的機組,在以下區域應用,可以達到的製冷因子CLF如表1所示。在空調機組100%輸出的條件下,水側自然冷通過利用更長時長的自然冷,製冷因子更低,見表2所示。在空調機組75%輸出條件下,可以看到氟側機組的能效提升更快,在北京以及上海,均可表現出比雙冷源機組更好的節能效果,見表3所示。隨著負載率進一步降低,在空調機組50%輸出條件下,氟泵自然冷機組的能效已經全面優於水側自然冷雙冷源機組。不管採用那種雙冷源,北方全年室外環境溫度更低,可以收穫更好的節能效果。隨著負載率降低,氟泵自然冷工作時長顯著增加,氟泵功耗遠小於水泵功耗,在各地均可獲得更好的節能效果。可以看到,利用“預冷+補冷”設計方案,兩類雙冷源方案可達到系統級的製冷因子相當,在選擇具體方案時,需結合項目地自然條件進行選擇。液體冷卻是指利用高導熱性能的流體介質(諸如25%丙二醇諸如25%丙二醇,去離子水、冷卻液或製冷劑)而不是空氣來冷卻資料中心。液體直接參與資料中心關鍵發熱源(如伺服器內部高性能晶片)的熱量交換過程。液冷技術縮短了熱傳導路徑,使得熱量能夠更直接、更有效地從熱源匯出,進而顯著降低了對伺服器內部風扇輔助散熱的依賴,從而降低整體能耗與噪音水平。資料中心液冷技術的應用可細分為兩大主流類別:直接到晶片(Direct-to-Chip, DTC)冷卻技術,常被稱為冷板冷卻,其特點在於將冷卻液直接匯入至伺服器內部,通過緊貼晶片的冷板結構實現高效熱交換。浸沒式冷卻技術,該技術將整個或部分伺服器元件完全浸沒於非導電冷卻液中,實現熱量的全面、均勻散發。在DTC配置中,液體不直接與電子元件接觸,液體冷卻劑被泵送到解決伺服器內部電子元件散熱的冷板上。雖然大部分熱量都被冷板帶走了,但仍然需要風扇來幫助去除電路板層面的熱量,儘管風量和風速都非常低。在這種情況下,一些設計通過空氣將熱量從伺服器機箱交換出去,而另一些設計則需要在機架或行級使用熱交換器將熱量傳輸到主冷卻回路,具體見圖3冷板液冷系統原理圖。▲ 圖3 冷板液冷系統原理圖CDU是液體冷卻系統中必不可少的元件,可在整個系統中均勻分配冷卻液。CDU建立了一個獨立的二次側回路,與提供室外散熱的一次側回路隔離開,並調節和控製冷卻液的流量以保持二次側回路所需的溫度和流量。其次,CDU要採用高耐腐蝕性的不鏽鋼材質,確保與冷卻液的完美相容,有效防止腐蝕。設計上尤其要注重關鍵器件的冗餘備份,如電源、泵、感測器及過濾器等,確保系統在任何情況下都能穩定運行。同時,CDU需內建精準溫控系統,能有效消除伺服器CPU和GPU的熱衝擊問題。此外,配備補液罐以滿足長期運行需求,並設有自動排氣裝置以排除空氣,保持冷卻效率。1)供液溫度冷板液冷系統的供液溫度設計需充分考慮不同晶片及伺服器製造商的特定要求,如Dell可能接受高達32℃甚至更高的供液溫度,而Nvidia則設定在25℃至45℃的較寬範圍內。需要注意的是,必須嚴格避免供液溫度過低,以防止水蒸氣凝結現象的發生,這可能嚴重損害IT裝置的正常運行。此外,系統還需具備強大的穩定性,確保在一次側流量出現波動時,二次側仍能維持穩定的供液溫度,以保障整體散熱效能與裝置安全,見圖4所示。▲ 圖4 一次側流量波動,二次側仍可保障穩定供液溫度2)供液流量冷板液冷系統的供液流量設計是確保高效散熱與穩定運行的關鍵環節。CDU(冷量分配單元)在此過程中扮演著核心角色,負責精確調控一次流體與二次流體的流量。具體而言,二次流體需維持穩定的流速進入IT裝置,以在裝置滿載時能夠有效從冷板中帶走所有熱量,保持IT入口溫度的恆定。同時,一次流體的流量則根據需散熱的熱量動態調整,並依據CDU的接近溫度(ATD)進行調整,見圖5所示。▲ 圖5 一次側流量波動,二次側仍可保障穩定回液溫度為了確保流量控制的精準性,系統要採用壓差控制並輔以即時監控,以確保系統中的洩漏不會導致壓力下降。此外,通過CDU內,泵與電源的冗餘設計,系統能夠在關鍵業務場景下保障流量的連續供應,進一步提升整體系統的可靠性與穩定性。3)過濾要求冷板液冷系統要求冷卻液順暢通過冷板內極其微小的通道,這些通道的寬度可精細至低於50微米,甚至達到30微米以內。堵塞不僅會限制流量,甚至可能完全中斷IT裝置的冷卻,導致維護成本急劇上升,因此系統對冷卻液的過濾精度提出了嚴格標準。通常,這一精度需低於冷板通道的最小尺寸,業界經驗傾向於採用25微米或更細的過濾等級。此外,為確保系統長期保持清潔狀態,CDU(冷量分配單元)需持續進行線上過濾,這是維護系統高效運行與延長使用壽命的關鍵措施。4)流體選擇在設計冷板液冷系統的初期,選擇合適的流體化學成分及可靠的供應商非常重要。一旦確定流體策略,後續的任何更改都將涉及繁瑣且成本高昂的清洗與淨化過程。此外,流體的選擇還會在偵錯階段帶來顯著複雜性,包括循環測試、雜質沖洗以及系統氣泡的排除,這些工作對於每台伺服器及整體解決方案的順利運行都至關重要。在整個系統使用周期內,對液體的持續關注同樣不可或缺,需定期進行pH值、外觀、抑製劑濃度及污染物水平的檢測,以確保其性能穩定與系統的持續高效運行。同時,所有冷卻液均需遵循嚴格的儲存與處理規範,並配備適當的個人防護裝置以保障操作安全。在冷板液冷系統的二次側流體選擇中,存在三種主流方案。首先,去離子水配方液換熱效果優越,然而其腐蝕風險不容忽視,需採取額外措施加以防範。其次,乙二醇配方液雖具備一定的防腐能力,但其毒性相對較大,且在環保要求較高的地區,其排放處理成為一大現實問題。最後,丙二醇配方液作為Intel、Nvidia等業界巨頭推薦的選擇,由於其防腐效果更好,成為眾多使用者信賴的優選方案。在選擇時,需綜合考慮流體性能、成本、環保要求及安全性等多方面因素,以做出最適合自身需求的決策。5)故障預防和檢測在冷板液冷系統中,除了二次流體網路內其他感測器的監測外,CDU的嚴密監控與管理是預防並儘早發現故障的關鍵。資料中心尤為關注洩漏問題,大部分洩漏案例發生在manifold與伺服器軟管快速斷開附件處,對IT裝置影響很小。但伺服器機箱內部的洩漏,特別是發生在內部manifold、軟管與冷板之間的洩漏,則對IT裝置構成重大威脅。因此,實施額外過濾與感測器在內的防錯系統至關重要,這些措施不僅能在熱交換性能下降時提供預警,還能有效遏制人為錯誤導致的污染物增加或液體質量漏檢風險,從而全面提升系統的穩定性與安全性。液體輔助DTC冷卻:機箱級、閉環的獨立產品,帶有冷板、泵和散熱器,針對處理器的局部熱點。熱量通過伺服器內部的液體-空氣熱交換器消散。與液體-液體DTC冷卻相比,這種液體輔助DTC產品不需要和伺服器外部的液體進行熱交換,也不需要CDU或其他液體基礎設施或對現有基礎設施進行修改,同時能夠解決高密度點。全液冷板冷卻:目前大部分DTC冷卻伺服器僅覆蓋高功率、高發熱部件,如中央處理器(CPU)、圖形處理器(GPU),其他部件仍需通過風扇提供的氣流進行冷卻,包括記憶體、儲存、硬碟驅動器/固態驅動器、外圍元件互連高速通道/開放計算項目(OCP)卡和電源單元。全液冷板冷卻配置將為所有部件配置冷板,並使用液體進行冷卻,完全消除風扇,進一步提高電源使用效率(PUE)。根據執行階段液體的狀態,DTC還可以進一步分為單相和雙相兩類。在單相系統中,液體冷卻劑始終保持液態。在雙相系統中,液體冷卻劑蒸發以將熱量從液體中轉移出去,然後通過熱交換器冷凝並轉換回液態。負壓液冷:有三個氣密性較好的液腔,分別是主真空腔、儲液腔、輔真空腔。主真空腔和輔真空腔交替保持高真空度確保工藝冷媒從伺服器冷卻環路流回,儲液腔保持較低的真空度使工藝冷媒流進伺服器冷卻環路。二次泵採用低揚程潛水泵,安裝於儲液腔內部,當檢測到二次側供液溫度低於機房的露點溫度時,潛水泵將停止工作以確保不會有凝露產生。配有真空泵等負壓系統(包含氣液分離器、消音排氣口,空氣流量感測器),用以保證三個腔體的真空度。三個腔體各配有兩個氣動開關閥,一個接通真空泵,另一個接通大氣相連的氣液分離器,用於控制各個腔體的真空度,以確保液體順利循環。伺服器不同,伺服器運行的冷卻液體溫度不同。根據水溫,冷板液冷有不同的製冷系統架構設計方案。當一次側水溫在W32及以下時,一次側冷源不能完全依靠冷卻塔全年供應,需要補充額外的機械製冷,即冷凍水冷源機組,常見可用的冷凍水冷源機組有水冷冷水機組、風冷冷水機組等。1)同源液冷方案和風冷部分均採用冷卻塔同源冷卻塔方案,不同末端例如液冷部分(XDU)以及水冷型空氣處理機組(AHU)等所需負荷都由同一冷卻塔進行供應。2)非同源液冷方案採用冷卻塔,風冷部分採用機械製冷或冷機非同源方案,包括高水溫不同源風冷和高水溫不同源冷凍水方案。當採用不同源風冷補冷方案時,精密空調和液冷CDU分別採用不同的冷卻塔或乾冷器;當採用不同源冷凍水方案時,空氣處理機組(AHU)冷源採用冷水機組,液冷部分(XDU)冷源採用冷卻塔,見圖6所示。▲ 圖6 風液混合系統製冷架構3)風液方案:機房已有風冷精密空調裝置,需要部署少量液冷機櫃,此時集中式風液型CDU方案是優選方案。CDU和液冷機櫃間通過軟管連接,液冷伺服器中的熱量通過冷板,Manifold,以及管路傳遞至風液CDUSB 隨身碟管,最後散至機房,再通過機房空調將所有熱量帶至室外,見圖7所示。▲ 圖7 風液方案系統製冷架構在做液冷方案選擇時,需要考慮伺服器可接受的冷卻液溫度,以及機房條件,來選擇適合的製冷系統架構方案。在當前的AI算力範式下,擴大算力的一個基本邏輯是不斷提高“堆疊”密度,由此帶來(單位空間內)的能量密度持續上升,將進一步推動液冷技術的應用。基於此,對於未來智算中心液冷技術發展方向可以概括為以下兩點:目前主流的冷板式液冷仍然存在較大比例的熱量需要風冷解決,這對智算中心的複雜度造成了很大影響。進一步降低風冷佔比,是進一步提升單機櫃功率密度、降低資料中心複雜度的迫切需要。傳統冷板方案可進一步最佳化伺服器和冷板設計,將主要發熱器件儘可能使用冷板散熱,單相浸沒式液冷、全覆蓋冷板液冷也是可以大力發展的方向。單相浸沒式液冷在解決高功率晶片擴熱問題後,可以實現100%液冷。全覆蓋冷板方案可以較好地適配AI伺服器,而不用考慮普通伺服器的通用性要求。進一步降低風冷佔比後,可能會面臨以下難點:晶片層面由於製程改進的效果越來越有限,利用先進封裝技術將多個較小的晶片拼裝為一體的Chiplet技術正得到普遍的應用,其中的一個重要趨勢是3D堆疊,這意味著單位面積上的電晶體數量會繼續高速增長,如何將晶片封裝內的熱量有效的傳匯出來,將成為行業面對的一大挑戰。機櫃層面以NVIDIA GB200 NVL72為代表的解決方案目前採用風液混合模式,櫃內互聯採用大量的銅纜,對散熱風道的設計形成了一定的阻礙。隨著機櫃功率的進一步提高,需要提高冷板在各節點內的覆蓋率,向全液冷的方向演進。隨著AI晶片功率的進一步提升(1500W-2000W以上),風冷散熱器已達瓶頸(1000W),單相水冷板也將很快到達散熱能力瓶頸(1500W),相變散熱技術是必然的方向,包括相變浸沒液冷和相變冷板液冷。相變冷板又包括泵驅兩相(Pumped twophase)冷板和自驅動兩相(Passive 2-Phase)冷板等方向。相比較而言,泵驅兩相冷板國外有較多的研究,但其複雜度較高、可靠性問題比較難以解決;自驅動兩相冷板的技術基於環路熱管(LHP)技術,挑戰更大,但其具有解熱能力強、高可靠、易維運、長壽命等優點。 (零氪1+1)
從 AC 到 DC:AI 資料中心正在經歷的下一場能源革命
在過去一百多年裡,整個世界的電力系統基本都建立在交流電(AC)之上。不管是家庭插座、工廠裝置,還是資料中心的空調、水泵、伺服器,幾乎都依賴 AC 供電。但隨著 AI 的迅速崛起,GPU 訓練叢集功率飆升,單櫃從過去的 5kW、20kW,一路邁向 60kW、100kW,甚至未來的兆瓦級。傳統 AC 架構複雜、損耗高、效率天花板明顯,開始難以支撐 AI 時代的超高功率需求。於是,一個被忽視了百年的問題重新回到舞台中心——資料中心的核心供電方式,正在從 AC 轉向 DC(直流)。這並不是簡單的技術切換,而是資料中心能源體系的一次根本性變革。一、AI 推動供電架構升級:傳統 AC 模式逐漸面臨瓶頸傳統 AC 架構之所以面臨挑戰,原因主要來自三個方面:第一,能效損耗不斷放大。AC 架構從高壓到機櫃,會經過多級變壓、整流、逆變,再進入伺服器後還要再次轉換為 DC。每一級都會造成 1%–3% 的損耗,累計損失可達 7%–12%。在 AI 超大規模叢集中,這是一筆極為可觀的能耗。第二,裝置鏈路複雜、佔地大、可靠性受影響。UPS、柴油發電機、多個變壓器和開關櫃構成了 AC 架構的基礎設施。這些裝置既佔空間、成本高,也增加了潛在故障點。第三,AI 負載波動快,對響應速度要求更高。GPU 訓練任務會出現毫秒級的用電波動,傳統 UPS 不擅長處理這類頻繁的“突髮型”功率需求。這些問題促使行業重新思考供電體系的底層結構。二、DC 供電的優勢逐漸凸顯當資料中心的基礎能源體系以 DC 為主時,整體效率、可靠性和成本結構都將發生顯著改善。全 DC 架構的效果主要體現在以下幾點:能效提升 7%–10%:由於減少了 AC↔DC 的多次轉換,DC 供電鏈路更短、損耗更低。建設成本可降低約 35%:大量 UPS、PDU、變壓器和開關櫃可以被移除或減少,使建設投資明顯下降。系統可用性提升:DC 架構更簡單、裝置更少,配合超級電容可實現更快速的負載響應,整體可用性可提升到遠超傳統 AC 的水平。與新能源的適配性更高:燃料電池、太陽能、電池儲能本身輸出就是 DC,使得資料中心可直接接入多種 onsite 電源。因此,DC 架構不僅是提高能效的手段,也與全球“雙碳”背景和大規模可再生能源接入需求高度匹配。三、現場發電 + DC 供電:資料中心出現新的“能源形態”燃料電池能直接輸出 ±400V 或 800V 的 DC 電,與伺服器本身的 DC 需求天然匹配。結合超級電容系統,它形成了適合 AI 資料中心的“穩態 + 瞬態”供電模式:燃料電池 提供穩定持續的基礎功率,超級電容 負責應對瞬時功率波動,配合 DC 配電母線,就能構成一個響應速度快、架構精簡的全新供電體系。值得注意的是,這種 onsite DC 發電結構能夠支援“孤島運行”,即使電網故障也能維持正常供電。這對於電力供應緊張的地區(如北美部分區域)非常具有現實意義,也讓資料中心擺脫“電網限電”和“等待供電接入”的建設瓶頸。四、±400 V 與 800 V:DC 架構的兩條技術路線±400 V(雙極性)安全性更高行業應用更成熟EMI 噪聲較低成本相對更低適合現階段多數 DC 資料中心落地。800 V(單端)效率最高功率密度最大對絕緣與電磁干擾要求更高多用於未來超高密度 AI 伺服器場景。結合行業發展情況來看,中短期以 ±400V 為主流,長期高密度場景會逐步轉向 800V,兩者並不是替代關係,而是互補的選擇。五、DC 架構對資料中心基礎設施帶來的結構性改變未來 DC 資料中心可以減少的裝置比例:去除100% UPS 系統,去除100% 柴油發電機,去除90% 的變壓器,去除65% 的開關櫃,去除50% 的 PDU,這是 DC 架構的最大變化:供電鏈路從“層層堆疊”變為更輕量、更直接、更高效的結構。這樣的簡化帶來三個直接影響:減少佔地,讓更多空間用於 IT 部署,降低故障機率,提高可用性,建設周期縮短,部署靈活度更高,對於大規模擴容的 AI 資料中心來說,這些因素都具有非常高的實際價值。六、與零碳資料中心的發展高度一致DC 架構與碳捕捉、餘熱利用、吸收式製冷等技術的整合更加自然,這主要源於:新能源裝置本身輸出 DC,可直接與高壓直流母線連接,去掉柴油機後可避免大量碳排放。隨著國際大型科技公司紛紛提出 2030–2040 年零碳資料中心建設目標,DC 供電體系可能成為未來政策與行業趨勢中被重點採用的技術路線之一。AI 叢集規模正在急速擴大,傳統 AC 架構的能效、響應速度和成本模型都在逐漸難以適應這一趨勢。隨著現場發電、超級電容和 DC 配電技術成熟,資料中心的供電方式正在經歷一次自下而上的結構性調整。短期內,AC 依然會大量存在;但從高密度 AI 叢集、現場能源系統和零碳資料中心的發展趨勢來看,DC 會在越來越多的場景中成為核心供電方式。對於行業而言,AC→DC 不是概念變化,而是一次面向 AI 時代的底層基礎設施升級。(零氪1+1)
日經新聞—輝達持續成長浮現新隱憂——電力
輝達2025年8~10月財報刷新了歷史最高利潤,面向AI的數據中心投資支撐著獲利成長。不過,供電網的建設尚未跟上資料中心的需求,交付的半導體無法正常運作的風險正在浮現。有分析師稱:「電力將成為資料中心投資的瓶頸」…美國輝達(NVIDIA)11月19日公佈的2025年8~10月財報刷新了歷史最高利潤。面向人工智慧(AI)的數據中心投資支撐著獲利成長。不過,供電網的建設尚未跟上資料中心的需求,交付的半導體無法正常運作的風險正在浮現。電力短缺將成為該公司持續成長的障礙。「對管理供應鏈的能力有信心。與以前相比更容易預測未來”,該公司首席執行官(CEO)黃仁勳在同一天的財報說明會上,被問及阻礙高增長的風險因素時如此強調。在股票市場上,認為輝達的供應能力不足將成為成長絆腳石的不安情緒正在擴散。黃仁勳解釋稱,該公司與AI半導體代工企業台積電(TSMC)緊密合作,並表示正在建立滿足較高需求的增產體制。為黃仁勳的樂觀發言提供支撐的是同一天公佈的強勁財報。該公司2025年8~10月的財報顯示,營業收入較上年同期成長62%,達到570億600萬美元,淨利潤成長65%,達到319億1,000萬美元。營業收入和利潤均超過市場預期,按季度計算刷新歷史最高紀錄。該公司對2025年11月~2026年1月的營業收入預期也比去年同期成長65%,達到650億美元左右,超過市場的預測(約620億美元)。由於提出營收成長將再次加速的預期,輝達的股票在19日的盤前盤後交易中比當天收盤價一度上漲約6%,相關股票也迎來大量買盤。支撐強勁業績的是美國微軟和美國亞馬遜等科技企業的AI投資。美國調查公司德羅洛集團(Dell'Oro Group)預測稱,全球的資料中心投資額到2027年將增至2024年的2倍以上,達到約1億美元。輝達的圖形處理器(GPU)可望持續受益。輝達目前的主要搖錢樹是尖端AI半導體“Blackwell”。在19日的財報中再次公佈了2026年推出新一代產品「Rubin」的計畫。將透過以1年為單位的開發周期提高效能,推動科技企業持續投資。輝達在公佈強勁財報的同時,在向美國證券交易委員會(SEC)提交的揭露資訊中,也透露出快速成長帶來的隱憂。作為該公司的風險因素而新提出的是「客戶和合作夥伴確保資金和電力、及時建設複雜數據中心的能力」。輝達之所以對電力問題保持警惕,是因為阻礙成長的隱憂正在成為現實。美國摩根大通證券的分析師Kevin Kwan在11月的報告中指出:「電力將成為資料中心投資的瓶頸」。美國勞倫斯伯克利國家實驗室的資料顯示,到2028年,資料中心的電力消耗最多可能增加到2023年的3倍以上。數據中心佔美國電力消耗量的比例預計將從2023年的約4%上升至2028年的最高12%。與普通的資料中心相比,AI數據中心的電力消耗量非常大。這是因為每台伺服器機架上配備的GPU數量會激增。美國高盛集團預測稱,2027年僅一台冰箱大小的機架就將消耗美國500戶家庭所需的電力。電力供應跟不上電力需求的成長。美國摩根士丹利的統計顯示,即使推進現有發電站的用途轉換,到2028年,美國也有可能出現13吉瓦時的電力缺口。如果換算成核能發電,相當於十多個機組的發電量。微軟的執行長薩提亞·納德拉10月底在美國播客節目中就AI開髮指出:「最大的課題是電力」。他表示,如果無法滿足資料中心所需的電力需求,「大量半導體可能會沉睡在庫存中」。據美國彭博社報導,矽谷的兩個資料中心可能因電力公司供電延遲而在數年裡無法運作。從建設開始算起,資料中心2年左右就可以運行,但供電網的建設需要較長時間。輝達也在採取對策。黃仁勳在19日的說明會上表示:「世界上沒有可以浪費的剩餘資源。每瓦的表現都至關重要」。考慮透過提高GPU的電力效率,解決電力短缺的議題。當被問及包括電力問題在內的風險因素時,黃仁勳回答:「沒有什麼容易的事」。作為總市值居首的企業,輝達繼續超越投資者預期的難度正在進一步加大。(日經中文網)
財經雜誌—富士康與OpenAI合作,計劃在美國建造更多資料中心
因供應鏈成本更高,在美國建AI資料中心的成本是在中國的3倍—4倍當地時間11月20日,美國AI(人工智慧)公司OpenAI宣佈與全球最大的電子產品代工製造商鴻海科技集團(富士康)達成合作。根據OpenAI官方訊息,此次合作重點在於下一代AI基礎設施硬體的設計工作以及在美國的生產準備。作為合作的一部分,OpenAI將分享其對人工智慧產業新興硬體需求的洞察,以幫助富士康更好地設計和開發將在其美國工廠生產的硬體。這項初步協議不包含任何購買承諾或財務義務,但OpenAI將有機會提前評估這些系統,並擁有購買選擇權。此次合作有三個核心點,一是雙方將合作設計、研發多代AI資料中心機架,以滿足快速發展的AI大模型需求。二是加強美國的AI供應鏈,擴大採購範圍,納入更多的美國供應商。三是富士康將在美國生產AI資料中心的關鍵設備。一位網路公司資料中心負責人告訴《財經》,富士康在資料中心伺服器產品方面的ODM(原始設計)能力很強,是輝達GB200、GB300晶片主要代工廠。該負責人同時表示,美國AI資料中心建設成本是中國3倍-4倍,因為供應鏈成本高很多。根據富士康官網,該公司目前在美國的工廠分佈在威斯康辛州、俄亥俄州、德克薩斯州、維吉尼亞州和印第安納州。近期,OpenAI承諾了約1.4億美元的基礎設施投資,合作方包括AMD、伯通、輝達和甲骨文等。OpenAI執行長山姆·奧特曼表示,這些投資只是起點,OpenAI希望建立一套技術和財務體系,能夠以每周1GW(吉瓦)的速度新增產能,每GW成本約200億美元。他提到,這意味著OpenAI需要實現數千億美元的年收入。今年11月,山姆·奧特曼透露,今年OpenAI預期年收入約200億美元。OpenAI最新估值已經超過5000億美元,估值較今年初翻了兩倍。近年來,富士康一直在加強轉型力度,在電子代工業務之外,持續加大在雲端與AI方面的投入。投資銀行摩根士丹利的數據顯示,2024年,輝達近三成的AI伺服器訂單流向了富士康。今年10月,富士康公開一項總額不超過13.7億美元的設備採購計劃,用於自建人工智慧運算叢集及超級運算中心。本工程建設周期定為2025年12月至2026年12月,資金來源皆為自有資金。但富士康並未公佈建設地點。今年8月,富士康宣佈在墨西哥投資1.68億美元,以擴大人工智慧伺服器生產規模。富士康表示,“此次投資旨在透過提升富士康工業互聯網工廠的生產能力來滿足需求。”今年5月,輝達宣佈將與台積電、富士康合作,在台灣建立AI超級電腦。輝達提供核心技術和GPU(圖形處理器),台積電負責晶片製造,富士康則負責機房的建設與系統整合,並參與後續的硬體運營維護。也就是說,富士康在這項合作計畫中,不只是擔任代工商,也參與了AI基礎設施的運作。同樣在今年5月,富士康獲批投入自有資金7.35億美元,在美國設立ProjectETA(DE)LLC,該實體用於資料中心設備製造及AI伺服器組裝業務。根據富士康財報,該公司今年三季淨利潤約18.9億美元,年增約17%,公司表示這主要得益於AI伺服器需求的持續成長,且富士康的雲端和網路業務的營收已經連續兩個季度超過消費電子業務,是目前富士康最大的收入來源。AI資料中心正在持續擴張。根據市場研究機構Precedence Research的預測,全球AI資料中心的市場規模將由2025年的175.4億美元,增加至2034年的1,657.3億美元,年複合成長率28.34%。AI資料中心投資規模龐大,包括建造成本和硬體設備成本。摩根士丹利估算,全球在2029年前,將投資約3兆美元建置AI資料中心。這個數字相當於美國五大科技公司(蘋果、微軟、Google、亞馬遜、Meta)2024年營收總和(約1.8兆美元)的1.7倍。科技巨頭們大舉投資資料中心引發廣泛討論。業內人士認為,要爭取AI發展的高地,必須增加資料中心的投資,算力不足會嚴重限制AI模型的最佳化速度。但產業外的人們開始擔憂資料中心的投資會帶來電力負擔、水資源緊張和噪音污染等問題。今年11月,美國產業監管機構北美電力可靠性公司發布報告表示,今年冬天的電力消耗量較去年同期大幅成長,若出現強烈冬季風暴,可能會導緻美國西北部、德州、卡羅萊納州等地出現能源短缺。該公司還提到,“這些地區用電負載需求大幅增長的主要原因是數據中心”。根據本地媒體報導,美國科技巨頭們建造的算力中心約有一半在水資源緊缺的地區,因為這些地區通常電費較便宜。 (財經雜誌)