#定義智能邊界
與OpenAI平行,微軟AI CEO:回到常識,把人放在中心
2025年11月6日,微軟宣佈成立 MAI 超級智能團隊(MAI Superintelligence Team)。這個團隊直屬 Microsoft AI CEO Mustafa Suleyman 領導,不依賴 OpenAI 模型,自研超級智能。沒有發佈會,沒有演示。這支被稱為世界上最好的 AI 研究團隊之一的組織,只做了一件事:定義智能邊界。(微軟 AI CEO:為什麼要給超級智能劃邊界?)在對話中,Suleyman 明確表示:我們永遠不想要一個擁有這三種能力的系統:自我改進、完全自主、獨立設定目標。當 ChatGPT、Claude、Gemini 的競爭日趨激烈,他卻選擇畫出紅線。微軟並未終止與 OpenAI 的合作,仍然保持著主要投資方和模型部署平台的角色。但 MAI 團隊的成立,意味著微軟正式走上一條平行但獨立的研發路線。(《財富》頭條:微軟不再完全依賴 OpenAI,正式加入“超級智能”競賽)與 OpenAI 追求通用平台不同,微軟的方向是:不求更強,但求更穩;不求泛化,但求可控。那麼,Suleyman 所說的把人放在中心,到底是什麼?安全、落地、邊界,是否真能成為超級智能下半場的主導邏輯?第一節 | 微軟為什麼另起團隊?Mustafa Suleyman 沒有用技術術語開場,而是開門見山地宣告了微軟開發超級智能的核心原則。我們永遠不想要一個系統,它不僅比我們任何一個人都聰明,甚至比我們所有人加在一起還聰明,並且還具備三種能力:自我改進、完全自主、獨立設定目標。換句話說,微軟要避免打造一個最終會失控、脫離人類掌控的系統。這是立場,不只是技術路線。很多公司都在研究如何訓練出能力更強的 AI,然後通過對齊機制確保它不傷人類。Suleyman 不認同這種做法,他認為應該在一開始就避免那種可能脫離人類掌控的路徑。控制、遏制和對齊,是我們從第一天就寫進這個項目裡的三個基礎。這是微軟成立 MAI 團隊的出發點:不再依賴外部通用模型,而是自己建立一條更穩妥、更受控的超級智能研發路線。與 OpenAI 的合作並未中斷,但 Suleyman 給出的訊號很明確:微軟需要掌握自己對超級智能的設計權和控制權。因為行業裡並不是所有人都同意這一點。有人相信,只要 AI 和人類價值觀保持一致,那怕它擁有完全自主權,也依然可以被信任。但在 Suleyman 看來,這種想法太過樂觀:“我認為這是一個非常非常重要的區別。微軟的選擇,是基於一種不同的風險觀念:不把安全寄託於事後補救,而是從源頭就規避不可預測的風險。”這看法的背後非常明確:不是 AI 會不會出問題,而是當問題出現時,人類有沒有剎車可踩。所以,微軟另起爐灶,不是因為 OpenAI 不夠強,而是因為這套超級智能必須從安全可控開始,就寫在“說明書”的第一頁。第二節 | 與其造萬能大腦,不如先落地三件事微軟的新團隊 MAI,把注意力集中在三件事上:醫療、日常助手、安全護欄。為什麼是這三個方向?Suleyman 說:“我們是一個平台的平台,很多人會使用我們建構的模型。我們的任務,是提前思考那些未來的用途必須通過那些測試,才能被信任地使用。”他用“橡膠正在接觸路面”來形容這個轉變:AI 不再停留在實驗室和概念層,而要進入現實使用場景。一、醫療:比醫生更快,但必須可解釋在訪談裡,Suleyman 把醫療診斷放在首位。這個領域既能體現超級智能在高精度、強計算、處理不確定性上的價值,也最容易出事。微軟的目標不是讓 AI 取代醫生,而是讓醫生能看懂 AI 的思路。AI 可以從海量影像中發現早期癌變,也能在藥物組合上給出方案,但每一個推薦,都要能被追溯、能被解釋。安全並非空談,它代表三個核心:系統必須可理解、可解釋、受約束。二、日常助手:幫人做決定,而不是替人生活Suleyman 說,AI 應該成為使用者的助手,而不是主角。微軟希望開發的,是那種能理解你需求、記得你偏好、給出合適建議的智能助理,但它永遠不會越界。我們想要的,是能加速人類潛力的智能,而不是取代人類互動。 這類 AI 會記得你的行程、幫你整理資料、甚至協助創作,但它的設計原則是:幫助不主導,理解不干預。三、安全護欄:先把防線建起來談到安全,Suleyman 指出了一個尷尬的現實:航空、汽車、能源行業都花了幾十年建立起層層安全機制,而 AI 領域目前幾乎空白。“今天我們在 AI 中真的沒有多少這樣的機制。”MAI 團隊正在研究如何提前發現風險,比如通過紅隊測試、設定蜜罐來誘導異常行為、反覆訓練模型在極端情況下的反應。這些手段的根本目的,是將最終控制權牢牢置於人類手中。微軟要讓智能變強之前,先變穩。在 Suleyman 看來,AI 不該成為一個你完全不懂的黑盒,而要成為一個能解釋、能被糾錯的幫手。它是一種更穩的智能,永遠被人類遏制和對齊。這也是他口中人本超級智能的真正含義:先落地服務人,再談超越人。第三節 | 功能靠後,解釋優先Mustafa Suleyman 對那種無限堆砌算力的技術演進路徑表達了質疑。他說:“我們願意放棄某些模型能力提升,只為優先確保人類能理解它在做什麼。”這聽起來幾乎是逆行業潮流的。別的公司都在追更強模型、更高吞吐量、更複雜架構,Suleyman 卻說,不是做不到,而是不該那樣做。為什麼?因為他關注的不只是 AI 能力,而是人類是否還能看懂它,並始終參與其中,保持控制。 控制的核心,是讓 AI 使用我們能理解的語言和方式來溝通。Suleyman 警惕的,是所謂向量到向量的 AI 內部交流方式。模型之間可能用高維數學表達互相溝通,但人類卻無法解釋中間過程。微軟不接受這種不可追蹤的交流。所以他明確提出: AI 之間的通訊,必須使用我們能理解的語言。這並不是效率最優的做法。Suleyman 也承認,讓 AI 用自然語言交流,確實會犧牲部分運行效率。但他堅持,這才是對人類負責的做法。更深一層的擔憂在於:誰來監督負責安全的 AI?如果所有監督都交給另一個 AI,這就只是把問題從一個黑盒轉給另一個黑盒。換句話說,不能讓 AI 管 AI,然後告訴人類一切盡在掌握。OpenAI 追的是多模態通用平台,而微軟關注的是:企業使用者如何敢用、政府如何能監管、人類如何隨時踩住剎車。Suleyman 的態度很堅決:我們不能不惜一切代價前進,那將是一個瘋狂的自毀任務。從語言協議、通訊透明,到性能讓位於可控,微軟要的不只是模型,而是人類有解釋權的智能工具。在技術邊界尚顯模糊的當下,微軟必須主動為此劃清紅線。結語 | 不是靠爭第一,而是定邊界這不是一場模型之爭。微軟不是不追前沿,而是更早意識到:超級智能的門票,不是參數數量,而是控制能力。MAI 團隊的設立,是為了在模型越來越強時,先設規矩、保可控、劃邊界。在 Suleyman 看來,AI 的落點不是接管世界,而是留在可控邊界內,把現實的三件事先做好:醫療別出錯,助手別越界,系統別脫控。這聽起來克制審慎,但正因為稀缺,才更重要。超級智能不是未來某一天突然爆發的成果,而是我們現在選擇怎麼建它、怎麼約束它、怎麼使用它。這一次,Suleyman 不是在爭誰更快,而是在提醒:別忘了我們要去那。 (AI深度研究員)