#GPU算力
GPU算力為何引發全球電荒?
當下,一場電力飢渴正席捲全球AI產業。 2025年,OpenAI在德州阿比林規劃4.5GW電力接入,相當於五座核電站的發電量;微軟GPU叢集因電力不足而「吃灰」;北維吉尼亞資料中心的專案排隊「等電」長達數年…這些現象指向一個殘酷現實:AI競賽的核心正從算力晶片轉向基建。01. 從“缺少晶片”變為“缺電”「我們現在面臨的最大問題,不再是算力資源過剩,而是電力——以及能否足夠快地在有電力的地方完成設施建設。」微軟首席執行官薩提亞·納德拉在最近與OpenAI首席執行官薩姆·奧特曼對話的播客節目中坦言。他補充說:“如果做不到這一點,我們可能會有一堆晶片躺在倉庫裡卻插不上電。”缺電,讓微軟高價購買的顯示卡在倉庫吃灰「一年多前短缺的是晶片,接下來短缺的將是電力。」而就在一年之前,馬斯克在「博斯互聯世界2024」大會上的警告言猶在耳。幾乎在同一時間,薩姆·奧特曼在達沃斯論壇上也表達了類似擔憂,承認人工智慧產業正走向能源危機。曾經,AI產業最頭痛的問題是缺乏先進晶片。如今,情況正發生根本性轉變。隨著科技巨頭爭相購買高性能GPU,電力供應已成為限制AI發展的新瓶頸。國際能源總署預測,到2026年,AI產業的電力消耗將至少是2023年的10倍。更嚴峻的數據顯示,AI消耗的算力每6個月就會增加10倍,遠快於晶片製造能力的提升速度。生成式AI的年度耗電量將從2023年的7TWh激增至2028年的393TWh,年複合成長率超出產業預期。同時,美國資料中心電力缺口預計在2025-2028年間達到49GW。這一數字相當於多少?摩根士丹利指出,這可能造成相當於3,300萬美國家庭用電的短缺。美國最大電網PJM互聯電網的預測更為激進:到2035年,夏季高峰需求將比2023年增長38%,新增近58吉瓦的電力需求,相當於「在未來10年安裝兩個新英格蘭電網」。電路老化、新增發電容量成長緩慢讓歐美「缺電」問題嚴重大洋彼岸的歐洲,「缺電」問題更為嚴重。2025年初,歐盟委員會公佈了雄心勃勃的《人工智慧白皮書》,決定在域內投資300億歐元,創建13個區域性AI工廠網路與千兆瓦級超級資料中心。這些AI超級工廠計畫由歐盟委員會主席馮德萊恩在上月公佈,目標是幫助歐洲在AI領域追趕美國和中國。然而,歐洲的AI夢想正撞上冰冷的能源現實。每個千兆瓦級資料中心需約1吉瓦電力,相當於中型城市的用電需求,而歐洲電網目前設計並未考慮如此高密度、集中式的負載。資料中心諮詢公司世邦魏理仕的凱文·雷斯特維托直言不諱:這些AI超級工廠將面臨與歐洲私人項目相同的問題——難以獲得輝達晶片,缺乏滿足大規模運算所需的電力供應。02. 全球電網基建危機全面爆發回顧過去幾年,AI的能耗成長速度令人震驚。根據國際能源總署數據,2022年全球資料中心總耗電量約460太瓦時,佔全球用電量的2%;到2026年,此數據將超過1000太瓦時,大約是整個日本2022年全年的用電量。具體到AI應用,能耗更為驚人。訓練GPT-3一次訓練的耗電量就達1287兆瓦時,相當於3000輛特斯拉電動車共同開跑、每輛車跑20萬英里所耗電量的總和。而ChatGPT每天回應約2億個請求,消耗超過50萬度電。更直觀的比較是:一次AI搜尋的耗電量是Google搜尋的10倍。一個資料中心的耗電量可與1000家沃爾瑪門市相當。高盛預測,到2030年,全球資料中心耗電量將較2023年大幅成長175%,相當於再增加一個「全球前十耗電大國」的電力資源負載。與AI快速發展形成鮮明對比的是歐美老化的電力基礎設施。美國超過70%的變壓器已超齡服役25年,三分之一的超過50年。這些設計壽命40年的設備,在颶風、野火等天災面前變得愈加脆弱。同時,美國電網呈現分散化特徵,各州電網獨立運行,缺乏統一協調的調度體系。全球主要地區AI電力危機表現對比而同樣的問題也出現在歐洲,高盛在最近的深度研報中詳細分析了歐洲能源系統根深蒂固的三大脆弱性:化石燃料依賴、低碳供應鏈瓶頸和老化的電網。高盛指出,歐洲的電網普遍老舊,平均「年齡」高達50年,已接近其設計壽命終點,電網的碎片化則導致地區間電價差距巨大且不斷擴大。03. 努力自救的科技企業面對嚴峻的缺電情勢,科技公司紛紛展開自救。良心點的做法,是到處修發電廠。像OpenAI和甲骨文在德州合建天然氣發電廠,xAI也在田納西大力搞基建,結果把發動機都給搞缺貨了,訂單直接排到2029年後。另一種做法是將資料中心搬到國外。墨西哥、智利還有一些南非國家,都成了AI發展的輸電幫浦。但這些地區電力供給本來就不發達,現在更是雪上加霜。在愛爾蘭,資料中心消耗了全國20%的電力,停電、耗水,都對當地居民生活和生態環境造成了影響。更富創意的是,科技公司甚至將目光投向了太空。Google在2025年11月初公佈了一個名為「捕光者計畫」的項目,該計畫的運作方式是把TPU晶片送入太空,使用太陽能為其發電。Google並不是唯一有這種想法的公司,一家名為Starcloud的新創公司已經發射了搭載輝達H100晶片的衛星,並宣稱要建設一個擁有5吉瓦功率的天基資料中心,而埃隆·馬斯克也曾表示SpaceX「將會做」太空資料中心。04. 電力稀缺時代,中國的機會在全球AI產業因電力短缺而陷入焦慮之際,中國卻憑藉其長期累積的能源基建優勢與戰略前瞻性,悄悄站上了新一輪產業競爭的高地。與歐美老舊的電網和分散的能源體系形成鮮明對比的是,中國擁有全球規模最大、電壓等級最高、調控能力最強的統一電網,並已在清潔能源佈局上走在世界前列。「東數西算」國家工程為中國AI成長提供同時,中國在新能源領域的壓倒性產能,為AI的「綠色電力飢渴」提供了潛在的解決方案。全球最大的太陽能和風電產業鏈在中國,這意味著在取得清潔、低成本能源方面,中國AI產業擁有更穩定、更具彈性的供應鏈。目前,中國多家科技巨頭,如華為、阿里巴巴、騰訊,已在內蒙古、寧夏、貴州等再生能源豐富的地區佈局資料中心,實施「東數西算」國家工程,這本身就是對未來能源約束的未雨綢繆。在這場剛開始的電力霸權競爭中,中國不僅手握能源底牌,更在重新定義成長與永續的邊界。而全球AI產業的未來格局,或許正取決於誰能率先解開能源這道終極難題。05. 破局之戰:清潔能源誰主沉浮在「碳中和」時間表的督促下,誰都想讓電力既降本又減碳,最終實現綠色、高效、可持續的資料中心算力發展路徑,新型清潔能源能否堪當大任?又該如何圍繞資料中心的“電算協同”,將電力市場推向更靈活、更開放的新地帶?策略押注小型核電面對AI資料中心的算力需求,核電正成為科技巨頭們的首選解決方案。去年9月,微軟與Constellation Energy簽署了價值16億美元的購電協議,重啟三哩島核電廠已關閉的反應堆,為其雲端運算和人工智慧專案提供穩定能源。此舉被視為科技圈轉向能源賽道的標誌,更是顯示出頭部科技企業對於核電成為未來能源支柱的押注之意,尤其是亞馬遜、Google等科技巨頭迅速跟進。亞馬遜、Google都選擇和電力基礎設施公司合作,不僅要買核電,還要參與到核電廠的建設中,尤其是小型模組化反應器(SMR,Small Modular Reactors)。亞馬遜曾放出招募首席核子工程師的需求,並且特別強調工程師要在SMR技術上有豐富的經驗;Google則緊跟著宣佈與核能初創公司凱洛斯能源(Kairos Power)簽署了一項新協議,計劃在2030年前建造7座SMR,為其數據中心提供電力支援,至2035年將部署更多反應堆,總體高達500兆元電力網。亞馬遜正在建造的SMR工程最近,Google也宣佈與北美能源公司NextEra達成合作,將於2029年第一季重啟位於美國愛荷華州的杜安·阿諾德(Duane Arnold)核電站,直接為Google在當地擴張的雲端運算和AI基礎設施提供全天候零碳電力。有趣的是,就在2023年,愛荷華州的全美首個SMR項目,還沒實現首堆投運,就因為電力買家太少而終止了。真是時移勢易。核電之所以受到科技巨頭青睞,關鍵在於其獨特的優勢。核電具有發電量大且穩定、成本相對可控的特點,對於無間斷運作的資料中心來說,核電無疑是最可靠的能源選擇。而SMR的出現更是完美契合了資料中心的需求,它的設計功率較傳統反應器小,是可模組化生產、在工廠製造、於現場組裝的核反應器類型,比普通核電站建設周期短了太多。這意味著它的建造時間短、安全效能更高,可以靈活部署在資料中心附近,減少輸電損耗。然而,核電之路並非一帆風順。安全性能更高不代表百分百安全。在以往核電廠事故的陰影下,怎麼提升建造地社區居民的接受度就是一個大問題。再加上美國脆弱的電網基礎設施,資料中心很有可能會使本地配電網負載劇增,危及電網可靠性並增加其他用戶成本。風光電以外的穩定選擇其實想要穩定的清潔能源還有其他選擇,像是「地熱發電」。“地熱發電”聽起來像是“從地球肚子裡掏電”,其實也差不多。地理告訴我們,地球內部處於極高溫狀態,地殼下幾公里就是數百度的岩漿熱源,偶爾會隨著熔岩被帶到地表附近。人類其實很早就懂得怎麼利用地熱資源,像是我們曾泡過的溫泉,其實就是被地熱加熱後的地下水。 「地熱能」就是地球自然產生的乾淨再生能源,如果拿來發電就是所謂的「地熱發電」。地熱能我們並不陌生,溫泉的存在就是一個證明地熱發電擁有不少優點,包括碳排放低、低污染、抗天災等,更沒有目前太陽能光電發電和風力發電最為人詬病的不穩定問題,可以24小時全天候提供電力。若能妥善開發利用,不失為未來全球再生能源供給的重要選項。透過鑽井取出高溫蒸汽或熱水,驅動渦輪機發電,這就是地熱能發電的核心原理。就傳統的地熱發電來說,地底需要同時滿足三個條件:豐富的熱源、充足的地下水和良好的滲透率,滲透率好才能讓水可以在其中流動,這三者缺一不可。在具備這些條件的地方,汲取地熱能量相對容易。但如果從地底出來的水是蒸汽形態,我們可以如上所述直接利用,這稱為乾蒸汽(Dry Steam)發電,這也是最古老的地熱發電方式。只不過,這麼好的條件可遇不可求。位於冰島的地熱發電廠近來,許多新建地熱發電廠採用所謂的雙循環(Binary-Cycle)發電方式。當溫度沒那麼高的地下水到達地表後,會在熱交換器與另一種沸點很低的流體交換熱能,例如正戊烷(Pentane)或丁烷(Butane);在接收到地下水的熱能後,這個流體會轉變成氣態並推動渦輪,產生電力。雙循環系統的好處是適用更廣大的區域,而且對溫度的要求不高,甚至有57度就成功發電的紀錄,但缺點就是發電效率較低。以上就是目前地熱發電廠主要用的三種方式,開採深度一般在地下1.5公里到2.5公里。不僅美國的科技企業在考慮去那些位於地球構造類股邊界地區,利用地熱發電,中國同樣在地熱資源開發利用方面走在世界前列。根據中國石化集團2024年的公開數據,中國地熱直接利用規模長期穩居世界第一,已建成地熱供暖和製冷面積13.3億平方米,折合裝機92.4吉瓦。只不過全球都面臨著地熱開發利用技術水準有待全面提升的問題,畢竟地熱發電不像風能、太陽能等再生能源技術,它們在過去十多年中不僅證明了可行性,並且技術進步明顯,使得建設成本不斷降低。地熱開發利用能否大規模商用和技術、成本息息相關。06. 「電算協同」的中國方案除了開發新能源,頭部科技公司也不斷透過演算法優化、算力調度等方式,從需求端降低能源消耗,一直在探索算力與電力協同發展的新模式。「東數西算」為算力、電力協同發展提供了一種新思路透過走訪業內相關企業,我們發現在資料中心,節能並不只是“省電”那麼簡單,而是要從“算力架構”,包括硬體、演算法、冷卻和封裝;以及“電力供應”,包括電網耦合、熱回收等維度共同優化。在演算法層面,業界和學界的研究都表明,透過剪枝、量化、蒸餾等技術優化演算法,可以讓AI模型更快、更節能。另外,現實中電力資源分佈與產業需求往往有錯位,兩者如何真正實現協同發展仍是一道難題。 “我們最大希望是電力既綠色又便宜”,這是採訪中資料中心負責人的共同心聲。這方面,前文所述的「東數西算」策略提供了一個新思路。該策略旨在吸收西部地區的風電和太陽能發電資源,以實現算力資源的全國優化配置。據瞭解,中國算力需求集中在東部地區,但東部地區電力自給率不到40%,而西部擁有中國70%的再生能源裝置。另一方面,AI大模型的訓練並不需要靠近東部沿海主要應用端,這些區域的電價成本較高,反而可以將訓練工作放在電價成本更低的西部省份;待訓練完成後,大模型進入應用階段時,再把對即時反饋要求極高的應用型數據中心放在東部。不過這也要考慮到現實因素。目前綠電交易機制不健全,綠電溯源和綠證交易存在諸多障礙;西部基礎設施不完善,實際的營運、技術支撐都缺人才…這些因素仍制約著資料中心綠色轉型的進程。 (壹零社)
AMD已經被吹上天了
10月6日美股盤前,AMD股價大幅上漲超過30%,收盤時市值增加634億美元至3306億美元。當日,納斯達克指數上漲0.49%,標普500指數上漲0.28%,美光科技、台積電、邁威爾科技等晶片類股票同步走高。這輪行情源於AMD與OpenAI達成的一項為期四年的晶片供應協議。根據雙方公告,OpenAI將部署總計6吉瓦的AMD GPU算力,首批1吉瓦基於MI450系列的部署計畫於2026年下半年啟動。作為交易安排,AMD向OpenAI發行了上限為1.6億股的認股權證,行權價為每股0.01美元。若OpenAI完成全部6吉瓦的部署並滿足相關條件後行使全部權證,其持股比例將達到AMD總股本的約10%。目前,AMD在AI加速器領域的位置正在發生變化。根據行業資料,輝達預計在2025財年實現營收2062.6億美元,而AMD同期預計營收為327.8億美元。在AI訓練市場,輝達佔據超過90%的份額,AMD今年的AI GPU收入預計為65.5億美元。AMD首席執行官蘇姿丰表示,此次獲得OpenAI訂單後,該協議從明年起將帶來可觀收益,並在2027年進一步加速,預計未來四年每年將新增數百億美元營收。OpenAI總裁格雷格·布羅克曼表示,算力供應制約了ChatGPT等產品的功能落地,與AMD合作可以緩解這一壓力。這項協議將三星、Astera Labs等HBM與UALink技術供應商納入供應鏈體系,說明AI晶片競爭已從單一算力擴展到儲存、互聯與系統層面。在宣佈與AMD合作前不久,輝達在9月23日宣佈與OpenAI達成基礎設施合作。根據輝達官網資訊,AMD計畫通過數百萬個GPU支撐的數千兆瓦資料中心擴展OpenAI的算力,並將分階段投資最高1000億美元,具體金額根據每千兆瓦的部署進度落實。當時,OpenAI的聯合創始人兼CEO山姆·奧特曼表示,沒有其他合作方能做到像他們這樣大規模且快速地完成部署。現在,OpenAI既得到了輝達的投資許諾,又拿到了AMD的股權獎勵,在硬體供應端的合作夥伴選擇上愈發多元。這種安排形成了一個資本與算力的循環:OpenAI錨定算力需求,晶片製造商提供硬體,雲服務商建設資料中心,各方通過投資和訂單深度繫結。但這一模式的可持續性正受到質疑。根據The Information此前報導的內部財務資料及業內分析,2025年OpenAI預計虧損超過50億美元。今年6月,OpenAI披露其年收入約為100億美元,而每年用於建設資料中心和租用計算能力的支出達到600億美元,收入不足支出的五分之一。瑞銀在研報中指出,OpenAI欲從當前130億美元收入起步,2030年達2000億美元目標。其ChatGPT周活使用者從去年2億增至如今7億,同比增250%,按此趨勢年底或破10億,但7億使用者中約95%免費使用。為實現收入增長,OpenA需在ChatGPT訂閱業務之外開闢新增長點。在此背景下,瑞銀分析師通過行業調研預測,10月6日的開發者日活動將聚焦消費級AI產品發佈,旅行預訂代理可能是重點方向之一,部分觀察人士預測OpenAI可能推出挑戰Chrome的AI瀏覽器,並最終推出廣告收入模式。隨著業務的不斷拓展和技術需求的日益增長,對高性能計算資源的需求也愈發迫切。此時,在AMD與輝達競相向OpenAI提供算力支援的同時,這些公司的高管也在積極拓展亞洲市場。其中,據《日本經濟新聞》10月3日報導,奧特曼於10月2日在東京拜訪了日立製作所等機構,這是他自今年2月以來再次公開訪問日本。事實上,OpenAI已與日立達成戰略合作初步協議,並獲得了日立對"星際之門"計畫的支援。該計畫由川普於今年1月宣佈,主要投資者為OpenAI、軟銀和甲骨文,計畫投資1000億美元用於建設AI計算伺服器,投資金額將在四年內擴大至5000億美元。而在此前訪問韓國期間,奧特曼已與三星電子和SK海力士就採購儲存半導體達成協議。輝達首席執行官黃仁勳於4月訪問了日本首相官邸,蘋果首席執行官蒂姆·庫克在9月下旬也訪問了日本。根據報導,川普政府在其AI綜合計畫中提出放寬AI開發管制、擴大模型和半導體出口的戰略,目的是通過推廣美國技術應對中國在開發能力上的競爭。因此,國產晶片企業也在這輪周期中獲得機會。摩爾執行緒於9月26日正式過會,在此之前初靈資訊、盈趣科技、和而泰、聯美控股等相關概念股連續多日上漲。今年8月,寒武紀股價上漲後總市值首次超過中芯國際,成為科創板市值第一。9月29日,DeepSeek-V3.2-Exp模型於Hugging Face開源發佈,華為昇騰、寒武紀、海光同步完成適配。其GPU算子含TileLang和CUDA雙版本,其中TileLang由北大楊智團隊主導,適配國產硬體。在此情形下,AMD能否如期兌現產能承諾,以及輝達是否會通過價格或生態調整作出反應,或將成為觀察AI基礎設施競爭的關鍵因素。 (AI硅基未來)
歷史記錄!甲骨文豪擲13萬塊Blackwell GPU,打造全球最大的算力集群。總投資200億美元
Oracle,全名為甲骨文,是全球領先的資訊管理軟體及服務供應商,總部位於美國加州的紅木城。公司成立於1977年,Oracle的主要業務是資料庫管理系統,其開發的Oracle資料庫產品因其性能卓越而聞名,被廣泛應用於各行各業,特別是被財富排行榜上的前1000家公司以及眾多大型網站所採用。除了資料庫管理系統外,Oracle還提供了一系列的企業軟體解決方案,涵蓋企業資源規劃、客戶關係管理、供應鏈管理,幫助企業提高管理效率、降低成本並增加競爭力。 01 /OCI超級叢集:雲端AI效能的全新巔峰131,072塊輝達Blackwell GPU Oracle正醞釀其最新力作-OCI超級集群,重塑AI超級運算領域。不只是一台普通的雲端超級計算機,是Oracle向未來AI時代堅定大基建。 OCI超級集群算力巨擘,這台超級電腦將搭載前所未有的131,072塊輝達Blackwell GPU,這一數量不僅刷新了最新的記錄,驚世駭俗的投資。如果這些GPU齊力並發,OCI超級叢集的峰值效能預計將飆升至爆表的2.4 zettaflops,也就是說每秒超過十億億次的運算能力,全球最頂尖的超級電腦也望塵莫及。這裡的效能標準採用了FP8,之前有解釋過,是專為AI優化,相較於傳統的FP64計算,FP8在保證精度的同時,大幅提升計算效率。 02 /靈活與安全並重的雲端AI服務多元化配置與未來探索
中國大公司瘋搶GPU!全世界都在搶算力!
2022 年下半年,生成式AI 爆火的同時,矽谷著名風險資本a16z 走訪了數十家AI 創業公司和大科技公司。他們發現,創業公司轉手就把80%-90% 的早期融資款送給了雲計算平台,以訓練自己的模型。他們估算,即便這些公司的產品成熟了,每年也得把10%-20% 的營收送給雲計算公司。相當於一筆“AI 稅”。 這帶來了在雲上提供模型能力和訓練服務,把算力租給其它客戶和創業公司的大市場。僅在中國,現在就至少有數十家創業公司和中小公司在自製複雜大語言模型,他們都得從雲計算平台租GPU。據a16z 測算,一個公司一年的AI 運算開支只有超過5000 萬美元,才有足夠的規模效應支撐自己批量採購GPU。 據《晚點LatePost》了解,今年春節後,擁有雲計算業務的中國各互聯網大公司都向英偉達(NVIDIA,台灣稱輝達)下了大單。字節今年向英偉達訂購了超過10 億美元的GPU,另一家大公司的訂單也至少超過10 億元人民幣。 僅字節一家公司今年的訂單可能已接近英偉達去年在中國銷售的商用GPU 總和。去年 9月,美國政府發布對A100、H100(英偉達最新兩代數據中心商用GPU) 的出口限制時,英偉達曾回應稱這可能影響去年四季度它在中國市場的 4億美元(約合28 億元人民幣)潛在銷售。以此推算,2022 年全年英偉達數據中心GPU 在中國的銷售額約為100億元人民幣。