#Azure
話題討論 | 獨家深扒:OpenAI 真實帳本曝光!推理成本其實是天價,收入或被嚴重注水?
最近,一份內部檔案揭示了 OpenAI 在微軟 Azure 上的真實推理支出,以及支付給微軟的收入分成。結論令人咋舌:OpenAI 的燒錢速度可能遠超想像,而其實際收入可能遠低於外界的瘋狂預測。在深入資料之前,我們需要先瞭解一個關鍵背景:微軟拿走 OpenAI 20% 的收入。這意味著,如果我們知道了微軟分到了多少錢,就能倒推出 OpenAI 的真實收入底牌。雖然由於公司架構重組(轉為盈利性公司),協議細節有所微調,但 20% 這個核心比例依然是計算的基石。更可怕的是,本次資料僅包含“推理成本”(Inference Spend),也就是模型生成回答的成本,甚至還沒算上那數以億計的“訓練成本”。讓我們看看這份被洩露的真實帳單,到底有多驚人。2024年的糊塗帳:消失的12億美金根據洩露檔案,OpenAI 在 2024 年的資料與媒體大肆報導的版本存在巨大出入。推理成本內部資料:全年花費 37.6 億美元。外界報導:The Information 曾報導該數字僅為 20 億美元左右。真相:真實成本幾乎翻倍!營收收入微軟分帳推算:微軟分走了 4.938 億美元。這意味著 OpenAI 全年實際營收約為 24.7 億美元。外界報導:媒體普遍引用的是 37 億美元,甚至有預測高達 40 億美元。真相:實際收入比報導少了約 12 億美元。外界以為它賺得多花得少,實際上它賺得少花得多。2025年上半場:失控的成本曲線時間來到 2025 年,資料變得更加觸目驚心。OpenAI 的推理成本正在呈指數級爆炸,而收入增長似乎沒能跑贏成本。僅在 2025年上半年(1月-6月):推理成本:狂燒 50.2 億美元。(注意:此前媒體報導的成本僅為25億美元。現實又是翻倍的打擊。)隱含收入:約為 22.7 億美元。(對比:此前 The Information 報導稱其上半年營收達 43 億美元。)這裡有個恐怖的數學題:上半年花了 50 億做推理,只賺回了 22 億。這還沒算員工工資、辦公室租金,以及那個吞金獸般的“模型訓練費”。截至 2025 年 9 月,OpenAI 在推理上的總支出已經達到了 86.7 億美元。按照這個速度,這恐怕是人類歷史上最“重資產”的初創公司了。Sam Altman 的“數學魔術”?Sam Altman 曾公開表示,OpenAI 的年收入“遠超” 130 億美元(年化)。但在看過這些檔案後,真的無法理解這個數字是怎麼來的。這裡可能存在一種典型的矽谷創投圈的“口徑魔術”:所謂的“年化收入”(Annualized Revenue / ARR):並沒有嚴格的法律定義。. 你可以取過去30天的收入乘以12;. 你甚至可以取公司歷史上業績最好的某30天乘以12。如果按照微軟實打實收到的分成反推,OpenAI 的收入遠遠達不到 Altman 吹噓的量級。除非微軟也在陪著演戲,或者有一些極其隱秘的收入來源完全避開了微軟的協議(但這在商業邏輯上很難解釋)。行業啟示:AI 的商業模式跑通了嗎?再這裡,我們不想討論 OpenAI 什麼時候破產(畢竟它背後有金主爸爸),但這些資料揭示了一個全行業都需要警惕的訊號:推理成本極其昂貴過去 18 個月,OpenAI 的推理成本從 37 億飆升到近百億。這似乎不是一個隨著規模擴大會“邊際成本遞減”的生意,反而像是線性甚至指數級增長。定價過低?如果 OpenAI 這種體量的巨頭,花 50 億成本只能換來 20 多億收入,說明目前的 API 和會員定價可能完全無法覆蓋成本。未來漲價或許是必然。毛利危機如果連 OpenAI 的毛利都如此難看(甚至可能是負數),那麼其他依賴 OpenAI 模型套殼,或者自己訓練模型的“小巨頭”們,日子的艱難程度可想而知。 (GD梯度下降)
AI 算力版圖 2025:Azure 如何幫助中國硬體廠商走向全球
2024—2025 是人類歷史上算力基礎設施擴張最快的兩年,全球需求暴漲、GPU 供不應求、各國瘋狂建 AI 資料中心。這一增長主要由兩大引擎驅動:一方面,大模型參數規模持續膨脹,Google最新發佈的 "Transformer 3.0" 模型參數突破 1.2 兆,單次訓練需消耗 8000 塊 H100 晶片連續運行 60 天;另一方面,邊緣計算場景快速普及,全球 270 億台物聯網裝置每秒產生海量資料,自動駕駛汽車單台每秒資料生成量達 800MB,對低時延算力提出迫切需求。🌐 全球算力缺口正在急速擴大:多地正在規劃 10 萬卡等級的 AI 超算中心。全球一致的趨勢 誰能提供算力,誰就能掌握未來產業話語權 Azure 算力生態:全球化競爭的核心支撐力(一)全球分佈式算力基礎設施微軟 Azure 在 140 個國家和地區部署了超過 60 個區域資料中心,形成 "核心算力 + 邊緣節點" 的全域網路。其中,歐洲新增的 5 個液冷資料中心 PUE 低至 1.18,中東區域節點實現 99.99% 可用性,東南亞邊緣節點覆蓋新加坡、印尼等主要市場,為硬體廠商提供本地化算力落地支撐。(二)權威認證體系與技術協同Azure 聯合輝達、AMD 等打造的 AI 硬體認證體系,涵蓋伺服器、GPU 模組等全品類,通過 300 + 項測試標準確保硬體與 Azure 雲服務的相容性。例如,Azure Cobalt 100 晶片驅動的實例已實現 Defender for Endpoint 等核心服務的最佳化運行,認證硬體可直接接入 Azure AI Foundry 大模型生態。(三)全球化客戶資源與場景驗證Azure 服務著全球 95% 的財富 500 強企業,涵蓋寶馬智能工廠、Spotify 音訊 AI 等標竿場景。這些客戶的算力升級需求形成穩定採購通道,經 Azure 認證的硬體可快速進入其供應鏈體系,降低市場驗證成本。成本、交付、合規:海外市場更青睞“雲+認證硬體”在海外客戶看來,硬體採購的本質不是“便宜”,而是—— ✔ 穩定交付 ✔ 全球合規 ✔ 與雲服務匹配 ✔ 長期可維護 👉 Azure + 本地化 AI 伺服器 = 完整解決方案中國硬體廠商出海的關鍵障礙與Azure解決方案中國硬體廠商出海仍面臨多重挑戰,Azure生態系統提供了相應的解決方案:技術適配與認證壁壘:不同地區對技術標準的要求各異。Azure認證體系幫助硬體廠商快速獲得國際認可,如凌群電腦獲得Microsoft Azure Specialization Partner認證後,顯著提升了其服務企業雲端轉型的能力。資料合規與安全要求:各國資料主權法規日益嚴格。Azure提供“你擁有你的資料”的核心隱私原則,保證客戶資料所有權,並且不會將資料用於行銷或廣告目的。算力與能源協同挑戰:全球計算正與能源步入系統性深度協同新階段。Azure在綠色計算方面投入顯著,全球新建資料中心PUE值普遍低於1.25,液冷技術應用佔比提升至41%,幫助硬體廠商滿足可持續發展要求。Azure認證硬體:中國廠商突破出海壁壘的利器獲得Azure認證的硬體產品為中國廠商出海提供了顯著競爭優勢:技術整合優勢:漢朔科技基於Azure OpenAI大模型能力研發的創新AI應用解決方案,通過微軟嚴格稽核後,成為微軟中國區首家獲得“零售行業人工智慧軟體解決方案認證”的ISV合作夥伴。這一認證顯著提升了其國際競爭力。市場准入便利:Azure的全球合規性覆蓋幫助硬體廠商滿足各地法規要求。Azure獲得BSI雲安全認證包含ISO/IEC 20000-1資訊技術服務管理,ISO/IEC 27001資訊安全管理,CSA STAR雲安全等多項認證。生態協同效應:通過Azure生態系統,硬體廠商可以更容易地找到合作夥伴和客戶。利用Azure混合雲優勢:Azure混合雲解決方案可跨本地、多個雲和邊緣簡化複雜的分佈式環境。將Azure管理引入整個IT環境,並在任何位置運行Azure服務的能力,為中國硬體廠商提供了獨特的市場定位。面對 2025 年全球算力版圖的機遇與挑戰,Azure AI 硬體聯盟將持續發揮橋樑作用。通過提供最新認證資訊、組織技術研討會對接專家資源、搭建商機匹配平台,助力中國硬體廠商突破壁壘。 (Azure AI 硬體聯盟)
微軟與輝達共同投資Anthropic,三方達成重磅合作 | News
巨頭聯手,AI雲服務格局再洗牌。本周,微軟(Microsoft)與輝達(Nvidia)共同宣佈,對人工智慧公司Anthropic進行新一輪大規模投資。微軟將向Anthropic投資50億美元,輝達則將投入100億美元。與此同時,Anthropic 計畫在未來的一段時間內,至少投入300億美元在微軟Azure雲服務上,用於租用配備輝達晶片的伺服器,其AI模型也將首次在Azure平台上向企業客戶開放。Anthropic目前的股東包括亞馬遜(Amazon)和Google(Google)。其大模型訓練和部署長期依賴這兩家公司的雲基礎設施。Anthropic在最新聲明中特別強調:“Amazon 仍然是 Anthropic 的主要雲服務提供商和訓練合作夥伴。”這意味著此次與微軟的深度合作,並未改變其與亞馬遜之間的核心技術關係。微軟此次動作,也顯示出其正在進一步拓展與OpenAI之外其他領先AI公司的合作。微軟此前已向OpenAI投資約130億美元,並在自家產品中復用OpenAI的模型;而OpenAI則承諾在未來幾年於Azure雲服務上投入超過2500億美元。今年起,微軟也開始在部分產品中採用 Anthropic的模型。與投資OpenAI不同的是,微軟此次對Anthropic的投資並不包含 Anthropic模型的智慧財產權使用權,雙方合作模式更偏向雲基礎設施服務與算力支援。微軟首席執行官薩提亞·納德拉(Satya Nadella)在公佈合作的視訊中表示,AI 行業不應陷入“零和競爭”或“贏家通吃”的敘事,他指出:“這個機會實在太大了,不可能用其他方式來推進。”在輝達方面的資訊中,Anthropic起始投入的300億美元,將用於租用約1吉瓦算力規模的Azure伺服器。這些伺服器將搭載輝達最新的Grace Blackwell和Vera Rubin晶片。微軟補充表示,未來Anthropic還將最多再簽約額外1吉瓦的算力容量。至於微軟是否會專門建設新的資料中心來滿足此次合作帶來的算力需求,微軟方面並未給出明確回應。通常來說,建設一個擁有1吉瓦容量的資料中心,雲服務商需要投入的成本約為500億美元。隨著微軟、輝達與 Anthropic 的深度繫結,全球 AI 雲基礎設施和大模型生態可能再次迎來重要調整。未來雙方在算力、模型產品與雲市場中的進一步合作,預計也將成為產業關注的焦點。 (創新觀察局)
微軟 CEO 納德拉:130 億押 OpenAI,換來什麼?
2025 年 10 月 29 日,舊金山 GitHub Universe 大會。這是微軟 CEO 薩提亞·納德拉關於 OpenAI 合作最完整的一次公開闡述。130 億美元。這是微軟自 2019 年起對 OpenAI 的累計投資,從最初的 10 億一路追加到如今的 130 億,成為全球最大規模的 AI 戰略合作之一。比爾·蓋茲當年甚至警告他:“這 10 億美元要打水漂的。”但今天,GitHub Copilot 每天服務數百萬開發者;M365 Copilot 成為 Office 的智能入口;Azure 成為全球 AI 模型部署的首選平台。從帳面上看,這筆投資得到了驗證。但當主持人問起這場合作的深層邏輯時,納德拉給出的答案,遠比外界想像的更複雜。他沒有談 OpenAI 的模型有多強,也沒有談 AGI 何時到來。他談的是一個更根本的問題:AI 現在最大的問題,不是模型是否足夠強大,而是這種“鋸齒狀”的智能不夠穩定。第一節|不是為了 AGI,而是解決“鋸齒智能”“鋸齒狀的智能”,是納德拉對當下 AI 狀態的精準描述。具體來說:某些能力增長很快,比如程式碼生成、對話生成;但一旦超出模型熟悉的邊界,質量就突然掉下來,甚至完全失效。他用參差不齊的智能(spiky intelligence)來形容這種現象。這不是聰不聰明的問題,而是靠不靠譜的問題。在納德拉看來,微軟要解決的,恰恰是這個“不靠譜”:不是追求最強模型,而是建構一個足夠穩、能長期用的系統:我們需要一個像編譯器一樣可靠的智能系統,而不是一個氛圍感十足但不可控的助手。他還引用了前特斯拉AI總監、OpenAI創始成員 Andrej Karpathy 的說法:即便某些能力上表現出指數級提升,但整體系統的可靠性,並沒有同步提高。這也是微軟為什麼不急於談“AGI”的原因。在納德拉看來,AGI 的定義因人而異,已經變得模糊不清,也缺乏實際意義。微軟更關注的是:AI 能否在真實場景中產生可靠結果。這也是微軟一系列動作背後的思路:從 GitHub Copilot 到 M365 Copilot,他們不是在打造一個“聰明的大腦”,而是要讓 AI 像熟練工一樣,融入每一個辦公和開發流程,成為能被信任的可靠助手。這不需要通用智能(General Intelligence),需要的是廣泛智能(Broad Intelligence):能覆蓋足夠多的任務場景,並在每個場景中,穩定地產生有用輸出。正如納德拉所說,在達到可信賴的標準之前,談 AGI 為時過早。第二節|130 億不是投模型,而是買“系統判斷”130 億美元的投入,看起來像是押注某個模型的勝負。但納德拉明確表示,這不是一場技術押注,而是一次組織判斷。他回憶,微軟與 OpenAI 最初的合作是在 2016 年。那時 OpenAI 還是一個非盈利實驗室,還在研究遊戲裡的智能體。真正讓兩家公司重新走近,是 2019 年。Sam Altman 回來找他說:我們真的相信擴展規律是管用的。納德拉讀了 Dario、Ilya 他們寫的那篇關於擴展定律的論文後判斷:這可能就是打開下一代智能的大門。所謂“擴展規律”,是指:模型參數越多、資料越大、訓練越充分,AI 的表現就會大幅提升。但納德拉看的不是技術本身,而是背後的邏輯:微軟從 1995 年就開始研究自然語言。我們做 Office 的,是做知識工作工具的。所以當 OpenAI 說:“我們要認真做這件事”,我們當時就判斷:這不只是模型突破,更可能是系統機會。微軟當時開出第一筆 10 億美元投資,很多人覺得大膽,甚至不理性。連比爾·蓋茲都說:“你這10億美元會打水漂的。”但納德拉的判斷標準很清楚:這不是一場關於強不強的評估,而是關於“值不值得做”的決策。他說:我們當時投這 10 億的時候,沒人會說這會成一個獨角獸。我們只是覺得這事值得做。這背後,其實是微軟長期以來的思維習慣:不追風口,而是判斷一個方向是不是足夠基礎、足夠深入; 不投短期結果,而是看能不能形成可複製的方法論。比如他提到,真正讓他意識到系統性突破的,是 GitHub Copilot:我第一次看到 Copilot 執行階段,就覺得:天那,這真的管用了。從那一刻開始,微軟不僅繼續追加資金,還圍繞這個方向重組了自己的 AI 戰略,從產品團隊、開發工具鏈到基礎設施設計,都不是為某個模型服務,而是要搭建一個能持續運轉的智能引擎。所以今天微軟再談 OpenAI 合作,已經不是在說模型能力有多強。模型只是原材料,真正重要的是能不能把這些原材料接入工作流程、變成可靠產出。微軟投的,是那個能建構、部署、整合模型的組織能力。第三節|從 Copilot 到 Agent,“總部系統”才是主角在 GitHub Universe 2025 上,納德拉描述了 Copilot 的新形態:它已經不是一個模型,而是一個由多個模型、多個智能體組成的協作團隊,在不同分支上平行工作,再統一交付。過去我們理解的 AI 助手,是 ChatGPT 一類的對話機器人,或者幫你補程式碼的小工具。但在微軟內部,這種認知已經徹底改變。納德拉用了一個新詞:“Agent HQ”(智能體總部)。他解釋道,這個架構,有點像一個項目團隊:每個 Agent 負責一個子任務,比如寫程式碼、查資料、格式化文件;不同模型可以被派去不同的任務,比如 Claude 寫總結、GPT 做翻譯、Grok 查系統資訊;最後,所有內容自動彙總成一個輸出結果,由人類開發者(或者是你)來稽核確認。微軟把這整套流程稱為“任務控制系統”(Mission Control)。它不是一個外掛系統,而是一個真正可以被調度、協作、管理的 AI 工作組。簡單說,微軟正在建構的是一種把多個模型組織起來工作的方式,而不是單純提升某一個模型的性能。GitHub Copilot 是第一個驗證這個架構的產品。開發者已經可以在 VS Code 中呼叫多個智能體,分別在不同分支工作。每個代理都有上下文、有職責分工,還可以回看過程,就像在管理一個 AI 團隊。這套架構可以適配不同的模型。納德拉說: “Codex、Claude、Grok,你喜歡那個模型,就讓它在你的工作流程中執行一段任務。”過去我們說 AI 輔助人類,現在在微軟的設想中,是 人類調度 AI 團隊,就像管理一個遠端項目組。這套 Agent HQ 架構背後,是微軟產品組織方式的重大轉向: 不是做一個越來越聰明的 AI, 而是做一個能整合多個智能、讓它們協同工作的平台。第四節|微軟如何搭建自己的“AI 工廠”?有了 Agent HQ 這樣的協作系統,誰來支撐這些代理的運行?納德拉給出了一個公式:智能,就是每美元、每瓦特能產出多少 token。AI 的競爭,不只是模型能力,更是生產效率。他甚至說:我現在對資料中心冷卻系統的瞭解,遠超十年前的預期。冷卻、電力、網路等基礎設施,才是 AI 時代的核心競爭力。這就是“token factory”( AI 工廠)。✅ 微軟怎麼搭建“Token Factory”微軟在 AI 基礎設施上的投入是實打實的。根據微軟官方報告,2025 財年,微軟計畫投入約 800 億美元用於 AI 相關基礎設施建設,其中超過一半將投資在美國:資料中心:大規模擴建,全球同步推進光纖網路:僅北美就擴大 40%,新增容量相當於全球網路的五分之一伺服器叢集:在北美、歐洲、亞洲同步部署新一代裝置AI 晶片:接入 NVIDIA、AMD、Broadcom 最新晶片,支援多模型運行你想用 GPT、Claude,還是 Gemini?納德拉表示都沒問題,關鍵是基礎設施能夠支撐。微軟要建構的,是一個最靈活、可互換的系統。✅ 模型不是主角,調度能力才是核心這也是為什麼微軟內部也在研發自己的模型。Mustafa Suleyman 領導的 Microsoft AI 團隊已經推出了三個自研模型:MAI-Voice-1:語音生成模型,單 GPU 一秒內可生成一分鐘音訊MAI-1-preview:文字基礎模型,用約 15,000 塊 NVIDIA H100 GPU 訓練MAI-Image-1:圖像生成模型,在 LMArena 排名前十這不是為了自研更強的模型,而是為了確保平台本身不依賴某一家。納德拉說得很直接:我很滿意 OpenAI 做的事。但我也歡迎 Anthropic、Mistral,甚至 Gemini 放到 Azure 上運行。這不是誰贏誰輸的比賽,而是微軟希望所有模型產品都能在它的“工廠”裡上線。✅  為什麼工廠比模型更關鍵納德拉真正看重的,不是誰的模型更聰明,而是誰能更快、更便宜地生產出可信的結果。這就像傳統製造業,不是光有好設計圖,而是要有能力建出高效產線。微軟的目標是:讓每一個計算、每一瓦電,都產出更多有價值的 token。換換句話說,微軟要建的不是“最聰明的大腦”,而是一座能讓所有大腦高效運轉的工廠。你不能只想要結果,還得有能力產出這個結果。這,就是微軟眼中真正的競爭力。結語|押注成功只是起點,系統才是終局OpenAI,也許是過去十年科技圈最有爭議的合作對象之一。但在納德拉眼中,它只是起點,不是終點。130 億美元不是豪賭,而是一次戰略判斷:微軟要的不是一家模型公司的成功,而是一整套能持續產出的智能系統。從解決“鋸齒智能”,到建構多智能體協作的 Agent 總部;從 GitHub Copilot,到 800 億美元投入資料中心和網路基礎設施。微軟要解決的核心問題是:如何把越來越多的模型,組織成真正可用的生產力。這不是模型能力的問題,而是系統能力的問題。真正能落地的 AI,不是工具,不是外掛,而是一套能長期運行、不斷進化的系統。模型是元件,微軟建構的是平台。這,就是 130 億換來的東西:不是模型,是能力。 (AI 深度研究員)
OpenAI重組落定,微軟讓步,非營利掌控營利
OpenAI正式宣佈完成資本重組,確立非營利組織OpenAI基金會對營利性業務OpenAI Group PBC的控股權。基金會持有26%的股份(估值1300億美元),微軟持股27%(價值1350億美元),其餘47%由員工及投資者持有。整體估值達5000億美元的OpenAI,通過這一架構試圖平衡商業擴張與“AGI惠及全人類”的使命。從非營利理想主義到商業現實OpenAI成立於2015年,初衷是以非營利模式推動AI發展。但2018年馬斯克退出後,公司陷入資金困境。2019年,OpenAI不得不成立營利性子公司,並接受微軟首輪10億美元投資。此次重組前,微軟持股比例達32.5%。新協議將雙方技術合作延長至2032年,即使OpenAI實現AGI,微軟仍有權使用其技術。控制權與靈活性的再平衡重組後,OpenAI基金會通過控股地位確保使命優先,同時營利實體可更自由地融資。值得注意的是:微軟妥協與共贏:微軟持股降至27%,但獲得技術使用權延長至2032年,並解除對OpenAI計算服務的優先購買權。作為交換,OpenAI承諾額外採購2500億美元Azure服務。AGI規則明確化:未來若OpenAI宣佈實現AGI,需經獨立專家小組驗證。此後微軟雖停止收入分成,但保留技術使用權。第三方合作開放:OpenAI可與第三方聯合開發非API產品,API產品仍由Azure獨佔。微軟也可獨立研發AGI。CEO薩姆·奧特曼透露,OpenAI計畫將基礎設施投入擴至每年1兆美元,需實現“數千億美元年收入”支撐。目前其收入主要依賴ChatGPT訂閱(佔84%)和企業API服務(佔15%),但高價模型(如o1-Pro收費達競品數十倍)和AI智能體(月費高達2萬美元)能否持續拉動增長仍是未知數。2018年離開OpenAI的馬斯克,曾批評其偏離非營利初心。如今重組看似回歸“使命控制商業”,實則通過基金會控股模式化解這一矛盾。但奧特曼強調,商業成功與否直接決定基金會資助公益的能力——這種捆綁是否真能避免AI壟斷?或許正是馬斯克當年擔憂的延續。OpenAI的重組不僅是資本結構的調整,更是對AGI時代權力分配的一次預演。非營利基金會的控股權看似守護初心,但每年兆投入的商業壓力可能讓使命與利潤的邊界逐漸模糊。如果AGI最終由一家被商業利益驅動的公司掌控,人類如何確保其紅利公平共享? (MaXTe)
微軟Azure最大危機曝光!美股AI太火把自家雲“榨乾”了?
美股市場在缺乏關鍵經濟資料的情況下,波動性有所增強。投資者對前期漲幅巨大的科技股和周期性資產可能存在的泡沫風險表現出擔憂,導致日內獲利了結的壓力顯著增強。儘管尾盤時段,市場對微軟資料中心需求的樂觀預測帶來了支撐,促使大盤跌幅縮小,但標普500、納指和道指最終仍以下跌收盤。從資金流向來看,投資者正在進行明顯的類股輪動:資金拋售了對經濟周期敏感的類股,並轉向了醫療保健、必需消費品等防禦性類股,這體現了市場對宏觀不確定性的避險需求。輝達延續昨日漲勢,今日該股創盤中與收盤歷史新高,市值逼近4.7兆美元。據美股投資網瞭解到,美國商務部工業和安全域已根據今年5月達成的雙邊人工智慧協議條款,向輝達公司頒發出口許可證,批准其向阿拉伯聯合酋長國出口價值數十億美元的晶片。甲骨文收高3.06%,其上漲受到華爾街分析師的積極推動。券商TD Cowen在最新的研報中,將甲骨文列為“首選股”(Top Pick),明確看好其AI業務將產生巨大的收益增長。,貝爾德公司也於當日首次覆蓋甲骨文,並直接給予了“跑贏大盤”的評級。輝達創歷史新高,恭喜長期持股的 VIP會員們,一直持有2050年微軟預測:算力短缺危機將持續到2026年!10月9日,據美股投資網瞭解到,微軟公司內部的最新預測顯示,包括北弗吉尼亞州和德克薩斯州等關鍵伺服器叢集在內,其多個美國資料中心區域正經歷物理空間或伺服器的嚴重短缺。這一現狀直接導致Azure雲服務的新訂閱服務受到了限制。值得注意的是,這一供應緊張的持續時間似乎比微軟此前向市場傳遞的訊號更長。微軟首席財務官Amy Hood曾在今年7月份的財報電話會議上表示,當前的供應限制預計將持續至2025年底。現在,市場正在消化更持久的供需失衡風險。當前的供應緊缺並非僅限於支援尖端AI工作的圖形處理單元(GPU)工作負載,而是全面波及了以中央處理器(CPU)為主的傳統雲服務資料中心。作為微軟最重要的增長引擎,Azure在2025財年創收超過750億美元,其擴張速度一直超越主要競爭對手亞馬遜和Google,因此這一“增長的煩惱”尤為引人關注。AI與傳統業務:雙重需求“榨乾”產能分析來看,當前的產能危機源於兩大核心需求的共同擠壓。首先,人工智慧的強勁計算需求無疑是資料中心新增需求的主要驅動力。微軟首席技術官Kevin Scott在10月初曾直言:“自ChatGPT和GPT-4發佈以來,幾乎不可能以足夠快的速度建設產能。即使是我們最雄心勃勃的預測也經常被證明是不夠的。” 市場對大模型訓練和推理的需求,消耗了海量的GPU資源。然而,AI工作負載並非唯一的“需求黑洞”。微軟在支撐網際網路應用和網站的傳統雲基礎設施方面同樣面臨巨大的需求緊縮。有報導指出,在基於CPU的工作負載方面,OpenAI同樣是微軟最大的客戶,這表明AI生態對通用計算資源的需求同樣龐大。此外,微軟自身的龐大業務,如Office套件,也在不斷消耗著大量的計算資源。為節約產能,有消息稱,一些微軟員工已被告知在受影響的區域關閉內部項目,這側面反映了產能緊缺的嚴峻性。客戶與微軟的應對策略面對Azure的容量限制,客戶正在採取務實的應對策略。一些遇到容量問題的客戶選擇將業務轉向其他雲服務商,這無疑給亞馬遜AWS和Google Cloud帶來了潛在的機會。另一些客戶則選擇利用多個Azure區域,或僅將關鍵工作負載傳送到雲端,等待更多產能釋放。微軟方面正在積極補救,試圖通過多種方式平衡供需。公司發言人表示,美國大多數Azure服務和區域“仍有可用容量,現有客戶可以繼續增長”,並在出現意外需求高峰時,採取“容量保存方法”來調配資源。內部指引顯示,當首選設施空間不足時,微軟銷售人員會引導客戶轉向其他有容量的區域。不過,媒體指出,這種變通方案可能會增加系統的複雜性和資料傳輸延遲。對此,微軟表示將定期與大客戶合作規劃需求激增期間的需求,並承諾在客戶面臨成本或延遲增加的異常情況下,補償他們的額外費用。值得一提的是,美國以外的地區,特別是微軟的許多歐洲區域,可用性明顯更好,可以不受限制地處理新客戶訂閱。歷史性建設熱潮與供應鏈瓶頸為應對爆發式增長的需求,微軟已啟動了一場歷史性的資料中心建設熱潮,在過去一年裡增加了超過兩吉瓦的容量,相當於胡佛水壩的發電量。然而,巨大的投入仍難解“近渴”。一個資料中心從初步規劃到伺服器正式上線,其建設周期可能長達數年。更關鍵的制約因素在於供應鏈瓶頸。熟悉流程的人士透露,從半導體晶片本身到變壓器等電力基礎設施,資料中心的許多關鍵部件都面臨漫長的交付周期。這種持續的供應短缺不斷打亂微軟的建設計畫。首席財務官Amy Hood在7月的表態,印證了公司在預測供應改善方面遇到的困難:“我曾在1月說過,我以為到6月我們的供需狀況會更好。而現在(7月)我想說,我希望到12月情況能好轉。” 這種一再延後的預期,凸顯了在當前全球供應鏈環境下,科技巨頭實現大規模、快速擴張的難度。 (美股投資網)