#AI資料中心
AI算力“逃離地球”?Google宣佈“追日者”計畫,2027年擬在太空部署AI資料中心
Google提出“太空資料中心”設想,試圖以太陽能驅動的衛星叢集緩解AI算力與能源瓶頸。但高昂成本、維護困難、軌道碰撞與監管缺失構成重大挑戰。在微軟水下項目受挫後,這一計畫更像對AI無限擴張的激進押注。Google正在嘗試一項突破性的基礎設施實驗,計畫將高能耗的AI資料中心轉移至太空,以應對地面電力短缺和規劃受阻的瓶頸。據英國《金融時報》17日報導,Google披露了名為“Project Suncatcher”的計畫,旨在建構一個由太陽能驅動的太空資料中心原型。該項目並不是建立一個單一的軌道巨石,而是由81顆搭載AI晶片的衛星組成的叢集,它們將在太空中協同飛行並處理資料。作為該計畫的第一步,Google將與衛星公司Planet合作,預計於2027年向近地軌道發射兩顆原型衛星。此舉的核心邏輯在於利用太空獨特的環境優勢——特別是太陽同步軌道提供的近乎恆定的太陽能,以及免除在地面建設所需的土地和水資源。對於投資者而言,這釋放了一個明確的訊號:儘管面臨物理世界的限制,科技行業仍試圖證明AI具備無限的可擴展性。如果Gemini等AI模型的查詢能夠在太空中處理並將結果傳回地球,將徹底改變算力基礎設施的成本結構與能源依賴。然而,這一宏大構想正面臨嚴峻的技術可行性與經濟性拷問。在微軟此前結束其海底資料中心項目(Project Natick)後,業界對極端環境下資料中心的維護難度與成本效益持謹慎態度。除了高昂的發射與維護成本,太空環境的輻射、碎片撞擊風險以及日益擁擠的軌道交通,都為這一“上天”計畫的前景蒙上了陰影。01 逃離地球:Google的“追日”計畫根據Google研究人員上個月發佈的預印本論文,Project Suncatcher設想在距離地球約650公里的太陽同步軌道上運行。該軌道能夠確保通過衛星搭載的太陽能電池板獲得近乎不間斷的電力供應,從而為高能耗的AI負載提供動力。與傳統地面資料中心不同,這一架構依賴於衛星群的協同工作。這些衛星不僅要處理計算任務,還需要在高速飛行中保持通訊。這一方案旨在規避地面資料中心面臨的諸多障礙,包括日益複雜的規劃審批程序、當地社區的反對,以及現有電網無法滿足AI極速擴張帶來的巨大能源缺口。據行業估算,AI所創造的能源需求已難以在地球現有的資源邊界內得到滿足。02 太空雷區:擁擠軌道的碰撞風險與技術挑戰儘管太空提供了無限的能源潛力,但其技術風險不容忽視。密歇根大學空間科學家Mojtaba Akhavan-Tafti指出,Google計畫使用的軌道也是近地軌道中最為擁擠的路徑之一。為了實現互聯互通,這些衛星之間的間距僅為100米至200米。Mojtaba Akhavan-Tafti警告稱,在如此近的距離下,軌道導航的誤差容限幾乎為零。一旦發生單次撞擊,不僅可能摧毀一顆衛星,還可能引發連鎖反應,導致整個衛星叢集毀滅,並向本已是“雷區”的軌道散佈數百萬塊碎片。歐洲航天局資料顯示,目前軌道上已有超過120萬塊尺寸超過1釐米的碎片,任何一塊都可能造成災難性破壞。隨著軌道交通激增,“凱斯勒效應”(Kessler effect)——即碎片引發連鎖碰撞導致軌道無法使用——的可能性正在上升。此外,Google的論文也承認,太空輻射會降解電子裝置並破壞資料。更為棘手的是,與地面設施不同,太空資料中心幾乎無法進行遠端硬體維護,如何處理故障硬體或報廢衛星仍是未解難題。03 微軟水下項目折戟與高昂的“上天” 成本在Google之前,微軟也曾探索過利用非常規環境解決資料中心散熱和能耗問題。2018年,微軟在蘇格蘭海岸沉入了一個名為Project Natick的水下資料中心。然而,據報導該項目已經結束,微軟且表示沒有進一步的海底計畫。相比於海底,在太空中建立資料中心的難度呈指數級增加。儘管火箭發射成本正在通過SpaceX等公司的努力不斷降低,但在這一階段,太空電力的單位成本與地面電力相比大致相當,並無顯著的成本優勢。當被問及具體置評時,Google方面僅引用了相關的預印本論文及部落格文章。04 科技巨頭的太空圈地運動?除了技術和成本障礙,該項目還引發了關於太空治理的擔憂。天文學家擔心,更多的衛星星座將進一步干擾科學觀測。目前地球周圍已有近1.6萬顆衛星在運行,其中近9000顆屬於馬斯克的Starlink網路,且還有1.5萬顆新衛星的計畫正在接受審查。Starlink已因反射光線干擾光學圖像以及無線電洩漏干擾射電天文學而受到詬病。目前的太空領域正逐漸成為Jeff Bezos和馬斯克等科技巨頭缺乏規則約束的競技場。Google的這一計畫不僅可能加劇光污染和無線電干擾,還暴露了針對太空這一公共資源的有效治理機制的缺失。對於市場而言,這既是一次展示AI無限潛力的豪賭,也是該行業在能源焦慮下“過度擴張”的隱喻。 (硬AI)
從 AC 到 DC:AI 資料中心正在經歷的下一場能源革命
在過去一百多年裡,整個世界的電力系統基本都建立在交流電(AC)之上。不管是家庭插座、工廠裝置,還是資料中心的空調、水泵、伺服器,幾乎都依賴 AC 供電。但隨著 AI 的迅速崛起,GPU 訓練叢集功率飆升,單櫃從過去的 5kW、20kW,一路邁向 60kW、100kW,甚至未來的兆瓦級。傳統 AC 架構複雜、損耗高、效率天花板明顯,開始難以支撐 AI 時代的超高功率需求。於是,一個被忽視了百年的問題重新回到舞台中心——資料中心的核心供電方式,正在從 AC 轉向 DC(直流)。這並不是簡單的技術切換,而是資料中心能源體系的一次根本性變革。一、AI 推動供電架構升級:傳統 AC 模式逐漸面臨瓶頸傳統 AC 架構之所以面臨挑戰,原因主要來自三個方面:第一,能效損耗不斷放大。AC 架構從高壓到機櫃,會經過多級變壓、整流、逆變,再進入伺服器後還要再次轉換為 DC。每一級都會造成 1%–3% 的損耗,累計損失可達 7%–12%。在 AI 超大規模叢集中,這是一筆極為可觀的能耗。第二,裝置鏈路複雜、佔地大、可靠性受影響。UPS、柴油發電機、多個變壓器和開關櫃構成了 AC 架構的基礎設施。這些裝置既佔空間、成本高,也增加了潛在故障點。第三,AI 負載波動快,對響應速度要求更高。GPU 訓練任務會出現毫秒級的用電波動,傳統 UPS 不擅長處理這類頻繁的“突髮型”功率需求。這些問題促使行業重新思考供電體系的底層結構。二、DC 供電的優勢逐漸凸顯當資料中心的基礎能源體系以 DC 為主時,整體效率、可靠性和成本結構都將發生顯著改善。全 DC 架構的效果主要體現在以下幾點:能效提升 7%–10%:由於減少了 AC↔DC 的多次轉換,DC 供電鏈路更短、損耗更低。建設成本可降低約 35%:大量 UPS、PDU、變壓器和開關櫃可以被移除或減少,使建設投資明顯下降。系統可用性提升:DC 架構更簡單、裝置更少,配合超級電容可實現更快速的負載響應,整體可用性可提升到遠超傳統 AC 的水平。與新能源的適配性更高:燃料電池、太陽能、電池儲能本身輸出就是 DC,使得資料中心可直接接入多種 onsite 電源。因此,DC 架構不僅是提高能效的手段,也與全球“雙碳”背景和大規模可再生能源接入需求高度匹配。三、現場發電 + DC 供電:資料中心出現新的“能源形態”燃料電池能直接輸出 ±400V 或 800V 的 DC 電,與伺服器本身的 DC 需求天然匹配。結合超級電容系統,它形成了適合 AI 資料中心的“穩態 + 瞬態”供電模式:燃料電池 提供穩定持續的基礎功率,超級電容 負責應對瞬時功率波動,配合 DC 配電母線,就能構成一個響應速度快、架構精簡的全新供電體系。值得注意的是,這種 onsite DC 發電結構能夠支援“孤島運行”,即使電網故障也能維持正常供電。這對於電力供應緊張的地區(如北美部分區域)非常具有現實意義,也讓資料中心擺脫“電網限電”和“等待供電接入”的建設瓶頸。四、±400 V 與 800 V:DC 架構的兩條技術路線±400 V(雙極性)安全性更高行業應用更成熟EMI 噪聲較低成本相對更低適合現階段多數 DC 資料中心落地。800 V(單端)效率最高功率密度最大對絕緣與電磁干擾要求更高多用於未來超高密度 AI 伺服器場景。結合行業發展情況來看,中短期以 ±400V 為主流,長期高密度場景會逐步轉向 800V,兩者並不是替代關係,而是互補的選擇。五、DC 架構對資料中心基礎設施帶來的結構性改變未來 DC 資料中心可以減少的裝置比例:去除100% UPS 系統,去除100% 柴油發電機,去除90% 的變壓器,去除65% 的開關櫃,去除50% 的 PDU,這是 DC 架構的最大變化:供電鏈路從“層層堆疊”變為更輕量、更直接、更高效的結構。這樣的簡化帶來三個直接影響:減少佔地,讓更多空間用於 IT 部署,降低故障機率,提高可用性,建設周期縮短,部署靈活度更高,對於大規模擴容的 AI 資料中心來說,這些因素都具有非常高的實際價值。六、與零碳資料中心的發展高度一致DC 架構與碳捕捉、餘熱利用、吸收式製冷等技術的整合更加自然,這主要源於:新能源裝置本身輸出 DC,可直接與高壓直流母線連接,去掉柴油機後可避免大量碳排放。隨著國際大型科技公司紛紛提出 2030–2040 年零碳資料中心建設目標,DC 供電體系可能成為未來政策與行業趨勢中被重點採用的技術路線之一。AI 叢集規模正在急速擴大,傳統 AC 架構的能效、響應速度和成本模型都在逐漸難以適應這一趨勢。隨著現場發電、超級電容和 DC 配電技術成熟,資料中心的供電方式正在經歷一次自下而上的結構性調整。短期內,AC 依然會大量存在;但從高密度 AI 叢集、現場能源系統和零碳資料中心的發展趨勢來看,DC 會在越來越多的場景中成為核心供電方式。對於行業而言,AC→DC 不是概念變化,而是一次面向 AI 時代的底層基礎設施升級。(零氪1+1)
本輪AI熱潮的真正的贏家,只有一個
這兩年AI建設如火如荼,科技巨頭不斷追加對AI的投資,眼看著真金白銀砸下去,確實也贏得了大批使用者,但是和投出去的錢比起來,就有點不夠看了,說到賺錢,這波AI熱潮真正的贏家只有一個,就是半導體巨頭。首先看GPU方面的絕對王者-輝達(NVDIA)AI資料中心市佔率超過90%,深耕平行計算30年,CUDA生態護城河堅固,還投資了大量AI企業,Figure,Perplexity,xAI,市面上有名的他都投,賣卡賺錢,客戶又拿他的錢買卡,完美閉環。22年底chat-gpt發佈的時候輝達市值4000億,現在已經登頂全球第一,市值翻了十倍,今年半年之內,漲幅接近100%,最高峰接近5兆。2024年收入1,305 億美元,2025上半年收入超過700億美元,利潤超過400億美元。誰為輝達代工-台積電(TSMC)輝達的晶片幾乎都是台積電代工,從H100, B200, 到Blackwell無不如此,台積電長期主導全球半導體製造市場,其技術就是先進工藝的代名詞,從7nm到5nm到3nm,不斷突破工藝極限。輝達對台積電的收入貢獻目前已提升到20%,蘋果,AMD, 高通,都是其重要客戶。台積電是第一個市值破兆美元的亞洲公司,兩年實現市值翻三倍,目前以1.4兆的市值位列全球市值第九,2025前十個月的營收達到了2.76兆新台幣,而且目前訂單激增,擁有定價權的台積電還可以漲價繼續增利。定製AI晶片和網路通訊-博通(AVGO)博通主要的看點有兩個,第一是ASIC定製,除開輝達的GPU,各家大廠為了更低功耗更強性能,想定製自己的AI專用晶片時會購買博通的ip。第二是晶片之間的互聯,大規模部署GPU叢集時,晶片之間需要極高速和低延遲的網路交流,博通在這一領域擁有極大優勢。目前博通的市值超過一兆美金,2024年至今市值漲幅超過200%,2025年第三季度AI相關的營收達到52億美元,同比大幅增長62%,且目前在手訂單超過1100億美元,增速強勁。HBM記憶體卷王-海力士(sk hynix)GPU計算速度已經遠超傳統記憶體資料傳輸速度,HBM(高頻寬記憶體)的出現正是解決了這一問題,海力士很早就押注此技術的研發,並靠著此項技術以及AI帶來的訂單在今年反超三星成為全球第一大儲存廠家,目前在HBM領域市佔率達到57%。雖然消費電子需求疲軟,但是靠著這波AI狂潮,海力士營收創新高,去年底給員工豪氣發出15個月的年終。今年勢頭更勁,openAI聯合多家巨頭投資5000億新建資料中心,海力士和三星就是其中HBM晶片的主要供應商,2026產能已經被全部吃光,訂單已經排到了2027年,其結果更是直接擠壓傳統記憶體產能,最近大家聽說的記憶體大漲價就是來自於此。最後說下為什麼是半導體巨頭呢,半導體是一個贏家通吃的行業,麥肯錫2025年報告顯示,全球半導體行業前5%的公司(輝達、台積電、SK海力士、博通等)捲走了1590億美元的經濟利潤,而中間90%的公司僅分得50億美元,底層5%甚至虧損370億美元。無論模型怎麼進化,應用怎麼豐富,最終都離不開晶片,晶片巨頭們拿到的是實實在在的訂單,從這點來看,就算這是一場泡沫,半導體巨頭們也要穩得多,當所有人都湧向“淘金熱”時,賣“鏟子”的笑了。 (星野回望)
盤後大漲近4%!蘇姿丰:到2030年AI資料中心市場規模料突破1兆,AMD營收年增或超35%
AMD預計,到2030年,AI資料中心的總市場規模(TAM)遠超今年的約2000億美元,復合年增長率(CAGR)超過40%;未來三到五年,AMD的年均營收CAGR將超過35%,AI資料中心的營收將平均增長80%。蘇姿丰講話期間,盤中曾跌近4%的AMD股價一度轉漲。美東時間11日周二,在AMD首次舉行的公司金融分析師日活動上,AMD CEO蘇姿丰給出了樂觀的人工智慧(AI)市場預期,並預計未來五年AMD的銷售會加速增長。本周二蘇姿丰稱,AMD預計,包括處理器、加速器、網路產品在內,到2030年,AI資料中心的總市場規模(TAM)將突破1兆美元,遠超今年的約2000億美元,復合年增長率(CAGR)超過40%。最新TAM目標。今年6月蘇姿丰表示,預計到2028年,AI處理器的市場規模將超過5000億美元。與去年的預期相反,今年蘇姿丰說,AI基礎設施的需求增長不會變平穩,而是會持續旺盛。她說,客戶的AI投資並沒有“趨於穩定”。AI計算基礎設施的需求得不到滿足。同樣不同於此前觀點的是,蘇姿丰認為,AI和GPU的增長正在增加、而非減少對CPU的需求。她說,AI加速器並沒有造成CPU市場下滑。本次蘇姿丰說,有明顯的跡象表明,AI的工作負載正從訓練轉向推理。今年6月她在Advancing AI 2025大會上說,AI加速器領域正以超過60%的CAGR增長,還說,推理晶片的市場“將增長得更快”。蘇姿丰透露,AMD預計,未來三到五年,公司的年均營收CAGR將超過35%,其中,AI資料中心的營收將平均增長80%。相比之下,目前分析師預計的均值為,今年AMD的年銷售將增長32%,此後兩年——2026年和2027年將分別增長31%和39%。蘇姿丰講話期間,美股午盤刷新日低時跌逾3.8%的AMD股價曾拉升轉漲,盤中一度漲約2%,但漲勢未能保持,此後重回跌勢,收跌2.65%,在周一反彈超4%後回落。截至本周一收盤,AMD股價今年內累漲約102%。評論認為,今年AMD股價高漲主要得益於該司與OpenAI和甲骨文等公司簽署的協議。這些協議驗證了AMD產品的質量,並表明其技術有望在數百億美元的新建資料中心投資中分一杯羹。上周二美股盤後AMD公佈的三季度營收同比超預期增長36%至92.46億美元,資料中心業務的收入同比增長22%至43億美元,也高於預期。但AMD的四季度指引不夠驚豔。AMD預計四季度營收約為93億-99億美元,指引區間中值為96億美元,雖然高於分析師預期均值92億美元,但還低於一些分析師的樂觀預期值99億美元。AMD的四季度毛利率指引為54.5%,符合分析師共識預期。蘇姿丰在業績電話會上首次明確了公司的長期AI收入目標,預計到2027年,資料中心AI業務年收入將達到“數百億美元”的規模。她同時披露,在與OpenAI的里程碑式合作中,首批基於下一代MI450系列加速器的計算叢集將於2026年下半年開始上線。然而,這些積極的長期展望,疊加超出分析師平均預期的第四季度收入指引,仍未能阻止AMD股價周二盤後一度跌超3%。當時媒體指出,部分投資者對AMD的預期更高,這表明市場認為AMD從AI熱潮中獲得回報的速度,可能比此前預期的要慢。AMD超過20%的銷售增長指引遭到投資者的冷淡回應是因為,大部分增長來自個人電腦(PC)和伺服器處理器,而非最受關注的AI加速器業務。電話會上,蘇姿丰接連面對分析師關於AI晶片增長何時才能“真正爆發”的追問。會議還透露一個關鍵資訊:三季度,AMD傳統的伺服器業務增長甚至略微超過了其備受矚目的AI晶片部門,這與市場將AMD視為AI領域“下一個輝達”的火熱預期形成了鮮明對比。 (invest wallstreet)
輝達+富士康,掀起AI資料中心電源架構革命!
今日,富士康在官網上宣佈,公司正在與輝達合作,推動800伏直流(800V DC)架構落地AI資料中心。這一新架構將首先在高雄K-1人工智慧資料中心項目中實施,該項目作為展示平台,展現公司在AI伺服器、資料中心及可再生能源整合方面的能力。800V直流架構是一種應用於資料中心電源系統的高壓直流架構。據富士康介紹,此架構專為高密度AI工作負載打造,具備模組化與可擴展特性,能顯著降低電流與電阻損耗,減少銅導體用量並簡化電力分配與使用空間,同時提升能源轉換效率與降低總體用電費用。該架構亦支援輝達未來多代GPU平台,為AI伺服器與資料中心提供高效、可靠且可持續的電力基礎,滿足下一階段AI運算需求。為了智算性能,AI工作負載需將GPU儘可能密集部署,形成超萬顆及以上的超大智算叢集,使得在較小空間內功率高達10-100+MW。而當前資料中心供配電體系難以應對未來超高密機櫃部署,需要重構。智算中心超高密機櫃供配電系統與通算資料中心的關鍵區別是超大功率傳輸、動態衝擊,產生對更高電壓制式、更高效率、更高功率密度、抑制動態衝擊保護等方面的關鍵需求。輝達正加快營造高壓直流電源生態,聯合電源解決方案公司、上游零部件供應商推動800V HVDC架構落地。今年5月,輝達宣佈將從2027年起推動資料中心電力基礎設施向800V高壓直流(HVDC)過渡,目標是支援1MW及以上功率密度的IT機架。技術合作方面,輝達與納微半導體聯合開發基於GaN及SiC的800V HVDC電源架構,率先應用於下一代AI資料中心與Rubin Ultra計算平台;供應鏈協同方面,輝達與英飛凌(SiC器件)、台達(電源系統)、維諦技術(直流母線槽)等廠商合作,確保核心元件的供應與技術相容。據《科創板日報》不完全統計,輝達資料中心電氣生態系統中的主要夥伴合作包括:晶片提供商:Infineon(英飛凌)、MPS(芯源)、TI(德儀)、ST(意法)、ROHM(羅姆)、Navitas(納微);電源系統元件:Delta(台達)、Flex Power(偉創力)、Lead Wealth(領裕/比亞迪)、LiteOn(光寶)、Megmeet(麥格米特);資料中心電力系統:伊頓(Eaton)、施耐德電氣(Schneider Electric)、維諦技術(Vertiv)。中國公司同樣有望受益此架構落地,此前8月1號,輝達官網更新800V直流電源架構(800V DC)合作商名錄,中國GaN晶片龍頭英諾賽科成唯一入選中國廠商。目前,中國主流為240V/336V HVDC方案,海外800V升級方案尚處於驗證中。據民生證券不完全統計,A股公司中,中恆電氣在互動易中表示,公司積極推動在800V領域的試點應用;科華資料在投關平台上答覆形成面向高功率,高密機櫃的800VDC產品解決方案,同時在科華資料官方公眾號中公佈了其已經交付了1000台和騰訊聯合開發的彈性直流一體櫃;麥格米特在最新一期半年報中提出在伺服器電源領域已推出PowerShelf、BBUShelf、Power Capacitor Shelf、800V/570kW Side Rack等產品。招商證券在研報中表示,中國企業在供電變革中可能有不錯的機會。隨著HVDC的大規模應用,海外傳統櫃外供電廠商(如伊頓、維諦、施耐德)面臨格局重塑風險,較多的研發周期促使它們尋求中國企業代工或合作開發產品,中國公司過去積累的電力電子技術、快速響應能力和優質工程師團隊將成為關鍵優勢,有望通過代工OEM等方式進入海外體系,並獲得優異回報。該機建構議關注:1)HVDC:科華資料、麥格米特、科士達、陽光電源、中恆電氣、盛弘股份、禾望電氣;2)配套:蔚藍鋰芯、思源電氣、江海股份、金盤科技、伊戈爾、四方股份。興業證券表示,資料中心建設需求快速增長背景下,海外電網保供能力捉襟見肘,現場電源的應用必要性顯著提升。新能源在資料中心中的應用,有望推動HVDC滲透率提升和電能質量裝置應用的增加。 (科創日報)
豪賭!左手7100億,右手3800億,泡沫還是革命?
近日,阿里CEO吳泳銘在雲棲大會宣佈,目前阿里正積極推進3800億的AI基礎設施建設,並計畫追加更大的投入。目標是發展出能自我迭代、全面超越人類的超級人工智慧(ASI)。前兩天,黃仁勳與奧特曼聯手投下千億美元炸彈,輝達擬向OpenAI投資1000億美元(約7100億元),共建算力規模堪比紐約市峰值用電需求的AI資料中心。這場跨越太平洋的資本競賽,將AI推向了泡沫巔峰與革命前夜的十字路口。一邊是質疑:輝達與OpenA、Google之間的“循環融資”模式,以及全球3兆美元AI投資可能催生泡沫的警告;另一邊是篤定:AI的到來在人類歷史上,等同於火、電的發明,而接下來的10年,將決定未來100年的格局。泡沫之巔,還是變革前夜?拭目以待!3800億元,阿里梭哈AI2025雲棲大會9月24日在杭州舉行。阿里巴巴集團董事兼首席執行官,阿里雲智能集團董事長兼首席執行官吳泳銘表示,未來可能會有超過全球人口數量的agent(智能體)和機器人,和人類一起工作,對真實世界產生巨大影響。吳泳銘表示,實現AGI已是確定性事件,但這僅是起點,終極目標是發展出能自我迭代、全面超越人類的超級人工智慧(ASI),以解決氣候、能源、星際旅行等重大科學難題。通往超級人工智慧之路分為三個階段:1、智能湧現,AI通過學習人類知識具備泛化智能;2、“自主行動”,AI掌握工具使用和程式設計能力以“輔助人”,這是行業當前所處的階段;3、“自我迭代”,AI通過連接物理世界的全量原始資料,實現自主學習,最終能夠“超越人”。吳泳銘認為,大模型是下一代作業系統,而AI雲是下一代電腦。也許未來全世界只會有5、6個超級雲端運算平台。目前阿里正積極推進3800億的AI基礎設施建設,並計畫追加更大的投入。為了迎接ASI時代的到來,對比2022年這個GenAI的元年,到2032年阿里雲全球資料中心的能耗規模將提升10倍。這意味著阿里雲算力投入將指數級提升。只有“飽和式”投入,才能擠進終極牌桌!3800億背後,是阿里對增長範式的重新定義:收入結構:2026財年Q1,AI相關產品收入連續8個季度保持三位數增長,拉動阿里雲增速重回26%,創三年新高;成本結構:AI算力成本三年下降80%,讓1元Token呼叫成本從2022年的0.1分降至0.002分,推動AI應用爆發;資本結構:為籌措“彈藥”,阿里年內已發行32億美元零息票據,80%用於雲基礎設施;港股年內最大規模再融資亦在路上。正如蔡崇信所言:“阿里既是AI基礎設施的供應商,又是大模型開發者,這種組合讓我們比純雲廠商更懂模型,比純模型公司更懂算力。”更重要的是,阿里將撬動產業鏈,3800億像一塊巨型磁鐵,重塑國產算力產業鏈。北美砸錢,更是火熱!就在前兩天,輝達和OpenAI的千億美金合作也被強烈關注。9月22日輝達宣佈與OpenAI正式簽訂合作意向書,建立戰略合作夥伴關係,未來將為OpenAI提供足夠的軟硬體支援以幫助OpenAI完成下一代AI基礎設施的建設。而為了支援整個合作的穩定推進,輝達將累計向OpenAI投資1000億美元(約合人民幣7100億元),這個數字將直接刷新人工智慧賽道史上的最高投資紀錄,也足以見證輝達的決心。根據雙方發佈的資訊,OpenAI之所以尋求與輝達合作,是因為目前的底層算力架構(也就是所謂的“基礎設施”)已經很難滿足OpenAI開發新一代大模型的需求,因此需要與輝達進行更全方位地幫助。作為回應,輝達將協助OpenAI打造一個涵蓋數百萬台GPU、整體功率達到10千兆瓦(GW)的AI資料中心。這個工程龐大到一個什麼程度呢?2024年12月,Meta宣佈將在美國路易斯安那州裡奇蘭縣建立(當時)迄今為止規模最大的資料中心,用來支援開源大型語言模型的進一步開發。具體資料方面,Meta的這座資料中心佔地400萬平方英呎(約37.16萬平方米)、需要超過5000名工人參與建設,整體投資為100億美元(約合人民幣710億元),建成之後將為Meta提供超過2千兆瓦的算力。也就是說,OpenAI與輝達的目標是將Meta那座巨型工廠放大至少5倍。在這個前提下,硬體投資、軟體投資、人力成本都將幾何倍增加。有分析師計算,想要實現10千兆瓦的算力,至少需要堆砌400萬甚至500萬台GPU。輝達在合作協議裡承諾投資的1000億美元,就主要投入到這個項目的算力堆砌以及電力擴容上,黃仁勳也因此將這筆投資定義為“人工智慧史上最大的基建項目”。更重要的是,這個“史上最大的基建項目”並不是一個遠期規劃。根據協議,這個重金打造的AI資料中心的一期工程將在2026年下半年完成,由輝達的Vera Rubin平台支援。Vera Rubin平台是輝達開發的“超級算力平台”,其中Vera是新一代的CPU,整合了88個定製Arm核心,支援176執行緒,提供1.8TB/秒的NVLink-C2C互連頻寬;Rubin是新一代的GPU,專為處理高性能的AI任務而設計,FP4運算速度高達每秒50 千兆次浮點運算。同時,Vera Rubin平台想辦法讓兩款產品在同一個整合系統裡實現協作,指數級放大算力。以目前已有NVIDIA Vera Rubin NVL144 CPX為例,這個版本Vera Rubin平台就已經能提供8 exaflops的AI算力,單機櫃性能上比輝達的上一代產品NVIDIA GB300 NVL72系統高出7.5倍的AI性能,同時具備100TB高速記憶體與1.7PB/秒的記憶體頻寬。在9月初的新產品發佈上,黃仁勳給予了這個平台非常高度的評價,說:“Vera Rubin平台標誌著人工智慧計算領域將迎來又一次飛躍……泡沫之巔,還是變革前夜?全球科技巨頭瘋狂砸錢投向AI,引發了關於其是泡沫之巔,還是變革前夜的廣泛討論。包括經濟學家、科技巨頭CEO和知名投資者在內的多位權威人士,都對此發表了最新評論。下面的表格整理了相關人士的核心觀點及邏輯:這些觀點看似對立,實則揭示了AI發展現狀的兩個側面:革命性的一面:權威人士普遍認同AI技術本身具有顛覆性的潛力,將深刻改變社會和經濟形態。當前的巨額投資很大程度上是在建設類似於“電網”的基礎設施,這是技術普及的必要前提。泡沫風險的一面:擔憂主要集中於投資的商業可持續性。一些分析師質疑,巨頭之間的大額投資(如輝達向OpenAI投資1000億美元)可能存在“循環交易”的嫌疑,即資金在生態內循環以維持繁榮表象。同時,許多AI初創公司營收能力尚未得到驗證,但估值已極高,存在過度投機跡象。綜合來看,當前的AI熱潮更可能是一次 “建立在革命性技術基礎上的周期性泡沫” 。這意味著:長期是“革命”:AI技術本身的方向是明確的,有望帶來長期的生產力變革。短期或有“泡沫”:在資本狂熱下,部分投資和估值已脫離現實,市場很可能將經歷一輪洗牌和淘汰。正如薩姆·奧特曼所指出的,這種“過度投資”和“投資不足”的周期是技術革命的常態。最終,能夠在具體場景中創造實際價值、並擁有可持續商業模式的企業將會留下來,成為真正的贏家。 (讀史)
豪賭!左手7100億,右手3800億,泡沫還是革命?
價值線導讀今天,阿里CEO吳泳銘在雲棲大會宣佈,目前阿里正積極推進3800億的AI基礎設施建設,並計畫追加更大的投入。目標是發展出能自我迭代、全面超越人類的超級人工智慧(ASI)。前兩天,黃仁勳與奧特曼聯手投下千億美元炸彈,輝達擬向OpenAI投資1000億美元(約7100億元),共建算力規模堪比紐約市峰值用電需求的AI資料中心。這場跨越太平洋的資本競賽,將AI推向了泡沫巔峰與革命前夜的十字路口。一邊是質疑:輝達與OpenA、Google之間的“循環融資”模式,以及全球3兆美元AI投資可能催生泡沫的警告;另一邊是篤定:AI的到來在人類歷史上,等同於火、電的發明,而接下來的10年,將決定未來100年的格局。泡沫之巔,還是變革前夜?拭目以待!3800億元,阿里梭哈AI2025雲棲大會9月24日在杭州舉行。阿里巴巴集團董事兼首席執行官,阿里雲智能集團董事長兼首席執行官吳泳銘表示,未來可能會有超過全球人口數量的agent(智能體)和機器人,和人類一起工作,對真實世界產生巨大影響。吳泳銘表示,實現AGI已是確定性事件,但這僅是起點,終極目標是發展出能自我迭代、全面超越人類的超級人工智慧(ASI),以解決氣候、能源、星際旅行等重大科學難題。通往超級人工智慧之路分為三個階段:1、智能湧現,AI通過學習人類知識具備泛化智能;2、“自主行動”,AI掌握工具使用和程式設計能力以“輔助人”,這是行業當前所處的階段;3、“自我迭代”,AI通過連接物理世界的全量原始資料,實現自主學習,最終能夠“超越人”。吳泳銘認為,大模型是下一代作業系統,而AI雲是下一代電腦。也許未來全世界只會有5、6個超級雲端運算平台。目前阿里正積極推進3800億的AI基礎設施建設,並計畫追加更大的投入。為了迎接ASI時代的到來,對比2022年這個GenAI的元年,到2032年阿里雲全球資料中心的能耗規模將提升10倍。這意味著阿里雲算力投入將指數級提升。只有“飽和式”投入,才能擠進終極牌桌!3800億背後,是阿里對增長範式的重新定義:收入結構:2026財年Q1,AI相關產品收入連續8個季度保持三位數增長,拉動阿里雲增速重回26%,創三年新高;成本結構:AI算力成本三年下降80%,讓1元Token呼叫成本從2022年的0.1分降至0.002分,推動AI應用爆發;資本結構:為籌措“彈藥”,阿里年內已發行32億美元零息票據,80%用於雲基礎設施;港股年內最大規模再融資亦在路上。正如蔡崇信所言:“阿里既是AI基礎設施的供應商,又是大模型開發者,這種組合讓我們比純雲廠商更懂模型,比純模型公司更懂算力。”更重要的是,阿里將撬動產業鏈,3800億像一塊巨型磁鐵,重塑國產算力產業鏈。北美砸錢,更是火熱!就在前兩天,輝達和OpenAI的千億美金合作也被強烈關注。9月22日輝達宣佈與OpenAI正式簽訂合作意向書,建立戰略合作夥伴關係,未來將為OpenAI提供足夠的軟硬體支援以幫助OpenAI完成下一代AI基礎設施的建設。而為了支援整個合作的穩定推進,輝達將累計向OpenAI投資1000億美元(約合人民幣7100億元),這個數字將直接刷新人工智慧賽道史上的最高投資紀錄,也足以見證輝達的決心。根據雙方發佈的資訊,OpenAI之所以尋求與輝達合作,是因為目前的底層算力架構(也就是所謂的“基礎設施”)已經很難滿足OpenAI開發新一代大模型的需求,因此需要與輝達進行更全方位地幫助。作為回應,輝達將協助OpenAI打造一個涵蓋數百萬台GPU、整體功率達到10千兆瓦(GW)的AI資料中心。這個工程龐大到一個什麼程度呢?2024年12月,Meta宣佈將在美國路易斯安那州裡奇蘭縣建立(當時)迄今為止規模最大的資料中心,用來支援開源大型語言模型的進一步開發。具體資料方面,Meta的這座資料中心佔地400萬平方英呎(約37.16萬平方米)、需要超過5000名工人參與建設,整體投資為100億美元(約合人民幣710億元),建成之後將為Meta提供超過2千兆瓦的算力。也就是說,OpenAI與輝達的目標是將Meta那座巨型工廠放大至少5倍。在這個前提下,硬體投資、軟體投資、人力成本都將幾何倍增加。有分析師計算,想要實現10千兆瓦的算力,至少需要堆砌400萬甚至500萬台GPU。輝達在合作協議裡承諾投資的1000億美元,就主要投入到這個項目的算力堆砌以及電力擴容上,黃仁勳也因此將這筆投資定義為“人工智慧史上最大的基建項目”。更重要的是,這個“史上最大的基建項目”並不是一個遠期規劃。根據協議,這個重金打造的AI資料中心的一期工程將在2026年下半年完成,由輝達的Vera Rubin平台支援。Vera Rubin平台是輝達開發的“超級算力平台”,其中Vera是新一代的CPU,整合了88個定製Arm核心,支援176執行緒,提供1.8TB/秒的NVLink-C2C互連頻寬;Rubin是新一代的GPU,專為處理高性能的AI任務而設計,FP4運算速度高達每秒50 千兆次浮點運算。同時,Vera Rubin平台想辦法讓兩款產品在同一個整合系統裡實現協作,指數級放大算力。以目前已有NVIDIA Vera Rubin NVL144 CPX為例,這個版本Vera Rubin平台就已經能提供8 exaflops的AI算力,單機櫃性能上比輝達的上一代產品NVIDIA GB300 NVL72系統高出7.5倍的AI性能,同時具備100TB高速記憶體與1.7PB/秒的記憶體頻寬。在9月初的新產品發佈上,黃仁勳給予了這個平台非常高度的評價,說:“Vera Rubin平台標誌著人工智慧計算領域將迎來又一次飛躍……泡沫之巔,還是變革前夜?全球科技巨頭瘋狂砸錢投向AI,引發了關於其是泡沫之巔,還是變革前夜的廣泛討論。包括經濟學家、科技巨頭CEO和知名投資者在內的多位權威人士,都對此發表了最新評論。下面的表格整理了相關人士的核心觀點及邏輯:這些觀點看似對立,實則揭示了AI發展現狀的兩個側面:革命性的一面:權威人士普遍認同AI技術本身具有顛覆性的潛力,將深刻改變社會和經濟形態。當前的巨額投資很大程度上是在建設類似於“電網”的基礎設施,這是技術普及的必要前提。泡沫風險的一面:擔憂主要集中於投資的商業可持續性。一些分析師質疑,巨頭之間的大額投資(如輝達向OpenAI投資1000億美元)可能存在“循環交易”的嫌疑,即資金在生態內循環以維持繁榮表象。同時,許多AI初創公司營收能力尚未得到驗證,但估值已極高,存在過度投機跡象。綜合來看,當前的AI熱潮更可能是一次 “建立在革命性技術基礎上的周期性泡沫” 。這意味著:長期是“革命”:AI技術本身的方向是明確的,有望帶來長期的生產力變革。短期或有“泡沫”:在資本狂熱下,部分投資和估值已脫離現實,市場很可能將經歷一輪洗牌和淘汰。正如薩姆·奧特曼所指出的,這種“過度投資”和“投資不足”的周期是技術革命的常態。最終,能夠在具體場景中創造實際價值、並擁有可持續商業模式的企業將會留下來,成為真正的贏家。 (價值線)
OpenAI殺瘋了!「星際之門」剛宣佈將提前實現:輝達有望成為地球第一個市值超10兆美金公司
老黃要笑醒了,輝達很可能將成為地球上第一個市值超過10兆美金的公司,看到最後你就明白了OpenAI、甲骨文(Oracle)和軟銀(SoftBank)今日聯合宣佈,將在美國境內新增五個 AI 資料中心站點,以支援 OpenAI 宏大的 AI 基礎設施平台——“星際之門”(Stargate)。這一重大擴展將使 Stargate 計畫提前實現其在2025年底前確保總計5000億美元投資和10吉瓦(gigawatt)算力的承諾此次擴張計畫涉及未來三年內超過4000億美元的新增投資,使得總投資額朝著最初宣佈的5000億美元、10吉瓦算力的宏偉目標邁出了堅實的一步,並有望提前完成根據公告,這五個新資料中心將由兩大合作體系分別推進:1.OpenAI 與甲骨文的合作:雙方在今年7月達成協議,將共同開發高達4.5吉瓦的 Stargate 容量,這項合作在未來五年內的價值超過3000億美元本次宣佈的三個新站點將由甲骨文負責開發,分別位於德克薩斯州沙克爾福德縣、新墨西哥州多娜安娜縣,以及一個中西部地區(具體地點即將公佈)加上對德州阿比林(Abilene)旗艦資料中心附近額外600兆瓦的擴建潛力,這批設施的總容量將超過5.5吉瓦預計這些項目將直接創造超過25,000個現場工作崗位,並在全美範圍內帶動數以萬計的間接就業機會2.OpenAI 與軟銀的合作:另外兩個 Stargate 站點將由 OpenAI 和軟銀合作開發,預計在未來18個月內可擴展至1.5吉瓦的容量,並具備擴展至數吉瓦 AI 基礎設施的潛力其中一個站點位於俄亥俄州洛茲敦,軟銀已在此處啟動了先進資料中心設計的建設工作,預計明年投入營運第二個站點位於德克薩斯州米拉姆縣,將與軟銀集團旗下的SB Energy公司合作開發,後者將為該快速建設項目提供強大的能源基礎設施支援與軟銀的合作旨在實現更快的部署、更強的可擴展性和更高的成本效益,從而讓高性能計算資源變得更加普及項目背景與未來展望這五個新站點的選址經過了嚴格的全國性篩選。自今年1月啟動以來,項目組審查了來自美國30多個州的300多份提案。今天的公告僅是第一批入選名單,未來還將有更多美國站點加入,以完成並超越最初5000億美元的投資承諾。該計畫的推進速度超出預期,並吸引了更多合作夥伴的加入Sam Altman的野心不止於此,Sam剛剛又寫了一篇博文,全面闡述了OpenAI的算力願景智能富足的時代人工智慧服務的增長一直非常驚人;預計未來的增長將更加令人震撼。隨著人工智慧變得越來越聰明,獲取AI將成為經濟的核心驅動力,甚至最終可能被我們視為一項基本人權。幾乎每個人都希望有更多的AI為自己服務為了滿足世界的需求——無論是運行這些模型所需的推理算力,還是讓模型變得越來越好所需的訓練算力——OpenAI正在奠定基礎,以期能夠極大地擴展建設AI基礎設施的宏偉藍圖如果AI能夠沿著預想的軌跡發展,那麼許多不可思議的事情將成為可能。也許有了10吉瓦的算力,AI就能找出治癒癌症的方法;或者,有了10吉瓦的算力,AI就能為地球上的每個學生提供個性化的教育。如果算力有限,就必須在兩者之間做出取捨;沒人願意做這種選擇。OpenAI的願景很簡單:希望建立一座每周能生產1吉瓦算力新AI基礎設施的工廠要實現這一目標將極其困難;需要數年時間才能達到這個里程碑,並且這需要從晶片、能源、建築到機器人技術,在整個產業鏈的每個環節都進行創新。但OpenAI一直在為此不懈努力,並相信這是可能實現的。在OpenAI看來,這將是有史以來最激動人心且意義最為重大的基礎設施項目。尤其興奮能將其中大部分建設在美國;目前,其他國家在晶片工廠和新能源生產等領域的建設速度比我們快得多,OpenAI希望幫助扭轉這一局面。寫在最後昨天輝達宣佈的向OpenAI投資1000億美金,也是星際之門項目的補充Sam Altman 年初說OpenAI要花7000億美金建設超級計算中心,當時很多人當笑話聽,現在已經基本實現最終的最大的受益人當然是老黃,網上有個段子:Sam Altman:“我需要 GPU!!”黃仁勳:“你知道誰有 GPU 嗎”Sam:“但是我沒有錢”老黃:“我們建立戰略合作夥伴關係吧。”上午 9:00:“Nvidia 將向 OpenAI 投資 1000 億美元,部署 10GW 的資料中心”上午 9:20:輝達股價上漲 1000 億美元老黃:“這是我的 1000 億美元投資。”馬斯克更瘋狂,看到老黃和OpenAI的合作,馬斯克說xAI將第一個實現1吉瓦,10吉瓦,100吉瓦,1太瓦算力中心這樣一來輝達很有可能成為地球上第一個市值超過10兆美金的公司 (AI寒武紀)