2025 年 10 月 29 日,舊金山 GitHub Universe 大會。這是微軟 CEO 薩提亞·納德拉關於 OpenAI 合作最完整的一次公開闡述。130 億美元。這是微軟自 2019 年起對 OpenAI 的累計投資,從最初的 10 億一路追加到如今的 130 億,成為全球最大規模的 AI 戰略合作之一。比爾·蓋茲當年甚至警告他:“這 10 億美元要打水漂的。”但今天,GitHub Copilot 每天服務數百萬開發者;M365 Copilot 成為 Office 的智能入口;Azure 成為全球 AI 模型部署的首選平台。從帳面上看,這筆投資得到了驗證。但當主持人問起這場合作的深層邏輯時,納德拉給出的答案,遠比外界想像的更複雜。他沒有談 OpenAI 的模型有多強,也沒有談 AGI 何時到來。他談的是一個更根本的問題:AI 現在最大的問題,不是模型是否足夠強大,而是這種“鋸齒狀”的智能不夠穩定。第一節|不是為了 AGI,而是解決“鋸齒智能”“鋸齒狀的智能”,是納德拉對當下 AI 狀態的精準描述。具體來說:某些能力增長很快,比如程式碼生成、對話生成;但一旦超出模型熟悉的邊界,質量就突然掉下來,甚至完全失效。他用參差不齊的智能(spiky intelligence)來形容這種現象。這不是聰不聰明的問題,而是靠不靠譜的問題。在納德拉看來,微軟要解決的,恰恰是這個“不靠譜”:不是追求最強模型,而是建構一個足夠穩、能長期用的系統:我們需要一個像編譯器一樣可靠的智能系統,而不是一個氛圍感十足但不可控的助手。他還引用了前特斯拉AI總監、OpenAI創始成員 Andrej Karpathy 的說法:即便某些能力上表現出指數級提升,但整體系統的可靠性,並沒有同步提高。這也是微軟為什麼不急於談“AGI”的原因。在納德拉看來,AGI 的定義因人而異,已經變得模糊不清,也缺乏實際意義。微軟更關注的是:AI 能否在真實場景中產生可靠結果。這也是微軟一系列動作背後的思路:從 GitHub Copilot 到 M365 Copilot,他們不是在打造一個“聰明的大腦”,而是要讓 AI 像熟練工一樣,融入每一個辦公和開發流程,成為能被信任的可靠助手。這不需要通用智能(General Intelligence),需要的是廣泛智能(Broad Intelligence):能覆蓋足夠多的任務場景,並在每個場景中,穩定地產生有用輸出。正如納德拉所說,在達到可信賴的標準之前,談 AGI 為時過早。第二節|130 億不是投模型,而是買“系統判斷”130 億美元的投入,看起來像是押注某個模型的勝負。但納德拉明確表示,這不是一場技術押注,而是一次組織判斷。他回憶,微軟與 OpenAI 最初的合作是在 2016 年。那時 OpenAI 還是一個非盈利實驗室,還在研究遊戲裡的智能體。真正讓兩家公司重新走近,是 2019 年。Sam Altman 回來找他說:我們真的相信擴展規律是管用的。納德拉讀了 Dario、Ilya 他們寫的那篇關於擴展定律的論文後判斷:這可能就是打開下一代智能的大門。所謂“擴展規律”,是指:模型參數越多、資料越大、訓練越充分,AI 的表現就會大幅提升。但納德拉看的不是技術本身,而是背後的邏輯:微軟從 1995 年就開始研究自然語言。我們做 Office 的,是做知識工作工具的。所以當 OpenAI 說:“我們要認真做這件事”,我們當時就判斷:這不只是模型突破,更可能是系統機會。微軟當時開出第一筆 10 億美元投資,很多人覺得大膽,甚至不理性。連比爾·蓋茲都說:“你這10億美元會打水漂的。”但納德拉的判斷標準很清楚:這不是一場關於強不強的評估,而是關於“值不值得做”的決策。他說:我們當時投這 10 億的時候,沒人會說這會成一個獨角獸。我們只是覺得這事值得做。這背後,其實是微軟長期以來的思維習慣:不追風口,而是判斷一個方向是不是足夠基礎、足夠深入; 不投短期結果,而是看能不能形成可複製的方法論。比如他提到,真正讓他意識到系統性突破的,是 GitHub Copilot:我第一次看到 Copilot 執行階段,就覺得:天那,這真的管用了。從那一刻開始,微軟不僅繼續追加資金,還圍繞這個方向重組了自己的 AI 戰略,從產品團隊、開發工具鏈到基礎設施設計,都不是為某個模型服務,而是要搭建一個能持續運轉的智能引擎。所以今天微軟再談 OpenAI 合作,已經不是在說模型能力有多強。模型只是原材料,真正重要的是能不能把這些原材料接入工作流程、變成可靠產出。微軟投的,是那個能建構、部署、整合模型的組織能力。第三節|從 Copilot 到 Agent,“總部系統”才是主角在 GitHub Universe 2025 上,納德拉描述了 Copilot 的新形態:它已經不是一個模型,而是一個由多個模型、多個智能體組成的協作團隊,在不同分支上平行工作,再統一交付。過去我們理解的 AI 助手,是 ChatGPT 一類的對話機器人,或者幫你補程式碼的小工具。但在微軟內部,這種認知已經徹底改變。納德拉用了一個新詞:“Agent HQ”(智能體總部)。他解釋道,這個架構,有點像一個項目團隊:每個 Agent 負責一個子任務,比如寫程式碼、查資料、格式化文件;不同模型可以被派去不同的任務,比如 Claude 寫總結、GPT 做翻譯、Grok 查系統資訊;最後,所有內容自動彙總成一個輸出結果,由人類開發者(或者是你)來稽核確認。微軟把這整套流程稱為“任務控制系統”(Mission Control)。它不是一個外掛系統,而是一個真正可以被調度、協作、管理的 AI 工作組。簡單說,微軟正在建構的是一種把多個模型組織起來工作的方式,而不是單純提升某一個模型的性能。GitHub Copilot 是第一個驗證這個架構的產品。開發者已經可以在 VS Code 中呼叫多個智能體,分別在不同分支工作。每個代理都有上下文、有職責分工,還可以回看過程,就像在管理一個 AI 團隊。這套架構可以適配不同的模型。納德拉說: “Codex、Claude、Grok,你喜歡那個模型,就讓它在你的工作流程中執行一段任務。”過去我們說 AI 輔助人類,現在在微軟的設想中,是 人類調度 AI 團隊,就像管理一個遠端項目組。這套 Agent HQ 架構背後,是微軟產品組織方式的重大轉向: 不是做一個越來越聰明的 AI, 而是做一個能整合多個智能、讓它們協同工作的平台。第四節|微軟如何搭建自己的“AI 工廠”?有了 Agent HQ 這樣的協作系統,誰來支撐這些代理的運行?納德拉給出了一個公式:智能,就是每美元、每瓦特能產出多少 token。AI 的競爭,不只是模型能力,更是生產效率。他甚至說:我現在對資料中心冷卻系統的瞭解,遠超十年前的預期。冷卻、電力、網路等基礎設施,才是 AI 時代的核心競爭力。這就是“token factory”( AI 工廠)。✅ 微軟怎麼搭建“Token Factory”微軟在 AI 基礎設施上的投入是實打實的。根據微軟官方報告,2025 財年,微軟計畫投入約 800 億美元用於 AI 相關基礎設施建設,其中超過一半將投資在美國:資料中心:大規模擴建,全球同步推進光纖網路:僅北美就擴大 40%,新增容量相當於全球網路的五分之一伺服器叢集:在北美、歐洲、亞洲同步部署新一代裝置AI 晶片:接入 NVIDIA、AMD、Broadcom 最新晶片,支援多模型運行你想用 GPT、Claude,還是 Gemini?納德拉表示都沒問題,關鍵是基礎設施能夠支撐。微軟要建構的,是一個最靈活、可互換的系統。✅ 模型不是主角,調度能力才是核心這也是為什麼微軟內部也在研發自己的模型。Mustafa Suleyman 領導的 Microsoft AI 團隊已經推出了三個自研模型:MAI-Voice-1:語音生成模型,單 GPU 一秒內可生成一分鐘音訊MAI-1-preview:文字基礎模型,用約 15,000 塊 NVIDIA H100 GPU 訓練MAI-Image-1:圖像生成模型,在 LMArena 排名前十這不是為了自研更強的模型,而是為了確保平台本身不依賴某一家。納德拉說得很直接:我很滿意 OpenAI 做的事。但我也歡迎 Anthropic、Mistral,甚至 Gemini 放到 Azure 上運行。這不是誰贏誰輸的比賽,而是微軟希望所有模型產品都能在它的“工廠”裡上線。✅ 為什麼工廠比模型更關鍵納德拉真正看重的,不是誰的模型更聰明,而是誰能更快、更便宜地生產出可信的結果。這就像傳統製造業,不是光有好設計圖,而是要有能力建出高效產線。微軟的目標是:讓每一個計算、每一瓦電,都產出更多有價值的 token。換換句話說,微軟要建的不是“最聰明的大腦”,而是一座能讓所有大腦高效運轉的工廠。你不能只想要結果,還得有能力產出這個結果。這,就是微軟眼中真正的競爭力。結語|押注成功只是起點,系統才是終局OpenAI,也許是過去十年科技圈最有爭議的合作對象之一。但在納德拉眼中,它只是起點,不是終點。130 億美元不是豪賭,而是一次戰略判斷:微軟要的不是一家模型公司的成功,而是一整套能持續產出的智能系統。從解決“鋸齒智能”,到建構多智能體協作的 Agent 總部;從 GitHub Copilot,到 800 億美元投入資料中心和網路基礎設施。微軟要解決的核心問題是:如何把越來越多的模型,組織成真正可用的生產力。這不是模型能力的問題,而是系統能力的問題。真正能落地的 AI,不是工具,不是外掛,而是一套能長期運行、不斷進化的系統。模型是元件,微軟建構的是平台。這,就是 130 億換來的東西:不是模型,是能力。 (AI 深度研究員)