一個價值 1000 億的詞,讓 OpenAI 和微軟槓上了

Grok 4 發出之後,風評非常兩級。有人大噴特噴,覺得它又貴又不好用。有的則嘖嘖稱神,斷言「AGI 已經實現啦」。

AGI 怎麼又實現了,AGI 究竟是什麼還不好說呢——華爾街日報報導,微軟和 OpenAI 又因為這個要吵起來了。

早在 2023 年,兩家公司就簽訂協議,將 AGI 定義為「可以產生 1000 億美元利潤的自主系統」。

但僅僅一年後 OpenAI 就不這麼想了,而是在官網上聲稱,AGI 定義為「在最具經濟價值的工作上表現優於人類的高度自主系統」,並認為自己將最先實現製造 AGI。

OpenAI 提出的 AGI 五階段理論 圖片來自:Bloomberg

微軟跟 OpenAI 之間的合同,價值超過 130 億美元——而他們甚至沒有對 AGI 到底是什麼達成一致,這是在玩過家家嗎?

一個反直覺的可能性是:不定義清楚,比定義清楚,更有利。

定義權?No;印鈔術,Yes

微軟之所以跳起來,不僅是因為他們真金白銀在花錢,也是因為曾經的合同中有一個危險條款:當 OpenAI 的系統達到 AGI 水平時,這家初創公司將能夠限制微軟對其技術的訪問。

微軟正在努力阻止這種情況發生,其中就包括直接挑戰「AGI」的定義。

「AGI 到底是什麼?」 這是近幾年最常見,也最無解的問題之一。別說答案不僅不清晰,甚至連問題本身都開始模糊。

技術社區從未就 AGI 的定義達成共識——是多模態能力的融合?是持續學習與自我最佳化?還是與人類智力的等價比肩?沒人知道,也沒人敢下斷言。

為瞭解決這一麻煩,微軟曾經的嘗試算是提出了一個看似客觀的判斷方法:如果 AI 能創造的利潤達到了 1000 億美元,就可以認為是實現了 AGI。

這看上去像是玩笑,但其實並不荒謬。

考慮到人工智慧是大燙門賽道,熱錢不斷翻湧,「AI」已經不夠吸引人了,「AGI」才行。天才們不是要做人工智慧,更要做通用人工智慧。而做通用人工智慧,需要大量的資金投入。

但投入不能完全沒有回報,那麼當靠燒錢培養出來的 AGI 真的能扛起掙錢的重任時,怎麼不算實現 AGI 了呢?

在這個前提下,一條檯面下的規則在發生作用:誰能定義 AGI,誰就抓住了一台「印鈔機」——包括但不限於吸引投資、驅動估值、收穫輿論與政策資源。

在商業策劃案上寫上「AGI」,敲不開的門都自動打開了,進不去的賽道都敞開懷抱了。這一現象背後的邏輯,並不只屬於商業談判的範疇,而是反映著一種權力結構。

OpenAI 與微軟之間的業務關係,圖片來自:The Information

把模糊的術語繫結到經濟收益上,對於微軟而言是更有利的,除此之外也能進一步兜售未來想像,為自己在巨頭之間的競爭中獲得話語資源。

不得不說,Sam Altman 是有大智慧的:AGI 無法被定義,正是它好用的原因

AGI 是一種典型的「模糊術語」——你越無法精確說明它是什麼,它就越容易在不同情境下被靈活呼叫,用於估值、用於談判、用於兜售未來。

這也是為什麼微軟與 OpenAI 會在 AGI 的定義上出現張力:不是因為誰更關心技術真相,而是因為誰擁有宣佈「它已到來」的話語權,就擁有了改寫合作關係、重組利益分配的權力。

數字一定更客觀嗎?

如果技術都不足以定義 AGI,那難道除了吵架,就沒有別的方法了嗎?

此時就輪到資料建模登場了。

英國紐卡斯特大學的一項研究引發了討論,這篇論文對 AGI 以及潛在的社會影響,提出了一個社會經濟學的分析框架。

它的特殊之處在於,嘗試通過數學建模的方式,來推算 AGI 社會影響的臨界點。研究人員基於 AI 發展對不同行業勞動力替代率、資本積累速度和平台集中度的資料建模,試圖找出一個拐點:在那個階段之後,AI 技術將不可逆地引發社會結構的斷裂、重組。

研究裡使用了多種不同的生產函數,建構了一個「Power shift」模型,希望能夠模擬 AGI 代替人力所帶來的影響。

用量化資料揭示 AGI 替代效應與勞動收益崩潰的臨界閾值,這和「年營收 1000 億美元即是 AGI」的判斷方式,屬於同一種思維範式:如果你無法理論性地定義它,那就給它設一個數字,數字總是相對「客觀的」。

當然,在細節上,建模還是有很多問題。比如缺少行業資料、歷史真實案例的支撐,使得推演更像是一種「預言」,而缺乏一定的解釋效力。另外,行業內部競爭所帶來的算力價格變化、營運成本,甚至是監管所帶來的影響,都很難體現出來。

因此論文的結論也比較謹慎,它不是說「AGI 實現了」,而指出「一旦超過這個點,社會將進入結構性變革階段」。

不過,建模這種思路在科技界並不陌生。與其在哲學上爭辯「AI 是否具有意識」、「世界模型是不是更高級的範式」,不如在財務模型上設立一個目標函數。

當估值模型跑通、資料指標達標,AGI 就可以「實現」了——不是因為它真的實現了,而是因為它具備了被宣佈為現實的全部前提。

這或許是為什麼研究人員,將這種趨勢稱為「技術封建主義」:真正統治世界的,不是技術,而是對技術的定義權。平台不需要創造新的文明,只需要控制對新文明的描述方式。

而一個概念的定義越含糊,就容易根據不同的場景來調整。雖然合同已經簽好了,但是「AGI」的定義變化了,資金的使用也可以隨之變化,享受的待遇也可以變化,連合作結構也可以變化。

這也是為什麼我們需要警惕——AGI 可能永遠無法精確定義,但它已被嵌入制度,成為真實存在的行動基礎。它的模糊性沒有削弱它的效力,反而增強了它的「多功能」:既可作為投資敘事,也可作為政策籌碼,還可作為控制合約的開關。

當某一天你看到一款 AI 產品上線,宣稱「AGI 已至」,不妨先別問技術細節,而是問一句:這是誰的 AGI?又是為誰而宣佈? (APPSO)