OpenAI豪擲千億美金:為鞏固AI地位提前囤積算力

今年3 月,OpenAI 為ChatGPT 上線了一項備受矚目的新功能,將靜態照片轉化為生動的動畫角色。這項功能一經推出,便迅速點燃了使用者的使用熱情,短時間內造訪量飆升。然而,激增的需求遠超系統承載能力,OpenAI 不得不緊急對該功能實施臨時限制,以避免服務器過載崩潰。

事實上,這樣的算力危機並非首次上演。OpenAI 財務長Sarah Friar在上周高盛舉辦的投資者會議上坦言,算力不足已成為製約公司發展的關鍵瓶頸。由於缺乏足夠的計算資源,OpenAI 時常被迫推遲新功能或新模型的發布計劃,有時甚至要在現有產品上“做減法”,刻意降低部分服務的運行速度,以此緩解算力壓力。在她看來,公司正面臨制約其發展的算力限制,這問題已影響到產品迭代與使用者體驗。

為了打破算力困局,OpenAI 制定了一項雄心勃勃的計劃:未來五年內,將額外斥資約1000 億美元,從雲端服務供應商手中租用備用服務器。據公司高層向部分股東透露,這筆巨額投入並非獨立支出,而是在2030 年前預計3500 億美元服務器租賃費用的基礎上追加的,這意味著未來幾年OpenAI 在算力基礎設施上的投入規模將達到前所未有的水平。

這一「備用伺服器計畫」 的背後,折射出SamAltman對AI 產業競爭格局的深刻判斷。在他看來,在日趨激烈的AI 競賽中,能否掌握充足的服務器資源,將成為決定企業勝負的關鍵。他甚至曾向同事坦言,按照當前AI 技術的發展速度,未來OpenAI 運行所有服務器所需的電力,有可能會超過整個美國電網的供給能力,其對算力的渴求可見一斑。

據透露,Sam與公司高階主管團隊一致認為,AI 產業的發展充滿不確定性,未來一旦出現現象級的爆款產品,或在技術上實現重大突破,都可能引發無法預料的算力需求激增。而當前的算力儲備,顯然無法應對這種突發狀況。因此,OpenAI 目前已經動用了所有能獲取的大規模輝達GPU 叢集,算力資源已處於「飽和」 狀態。

在這樣的背景下,OpenAI 面臨著巨大的競爭壓力。如果再出現一款像先前照片轉動畫功能那樣廣泛傳播的「爆款」 應用,例如近期爆火的Google Nano banana,導致算力資源再度告急,或是因缺乏足夠服務器而無法及時訓練有潛力的新模型,那麼OpenAI 很可能會將市場份額和用戶拱手讓給Google、Meta 平台公司等競爭對手。

根據OpenAI 的內部預測,若將備用伺服器的支出計算在內,未來五年公司平均每年將在服務器租賃上花費約850 億美元。這一數字極具衝擊力, 亞馬遜AWS、微軟、Google雲、甲骨文這四大全球頂尖雲廠商,去年所有客戶的服務器租賃總花費也僅約2000 億美元。 OpenAI 一家公司的年度投入,已接近四大雲廠商全球客戶年度總支出的一半,其對算力的投入力度可見一斑。這筆1000 億美元的備用服務器開支,是導致OpenAI 預計到2029 年長期資金消耗總額高達1150 億美元的重要原因之一。如此龐大的資金需求,意味著OpenAI 可能需要籌集同等規模的資本,才能支撐起這個計畫的推進。

不過,OpenAI 對未來的營收預期也頗為樂觀,公司預計在2030 年開始產生正現金流,到那時,營收規模可望達到約2,000 億美元。對比來看,OpenAI 今年的營收為130 億美元,主要依靠ChatGPT 的強勁表​​現支撐;而2030 年的預期收入,將超過輝達或Meta 在過去12 個月中的收入,展現出公司對自身發展潛力的高度信心。

儘管備用服務器計劃意味著巨額成本,但在OpenAI 高管眼中,這些服務器並非單純的“燒錢工具”,反而具備“可變現” 價值。一方面,充足的備用服務器能為公司提供靈活的算力支援,若未來出現新的科研突破,或是產品使用量突然激增,這些服務器可以迅速投入使用,幫助公司抓住發展機遇,進而創造預測之外的額外收入。另一方面,OpenAI 也積極探索降低成本、實現效益的其他路徑。例如,在獲得雲端服務供應商同意的前提下,公司可能會將多餘的算力返還給甲骨文、微軟等合作方;同時,OpenAI 也在考慮為這些服務器叢集尋找新客戶,不過目前尚未明確有那些企業有能力承擔如此大規模的算力費用, 除了OpenAI 的頭部競爭對手之外,其他企業很難具備這樣的實力,而且是否有資格成為一個轉機製造商尚未解決的問題。

值得注意的是,若OpenAI 最終既沒有用上這些多餘的伺服器,也未能成功找到買家,那麼外界很可能會質疑其「囤積GPU」。輝達的硬體幾乎驅動OpenAI 所有的伺服器,一旦出現「囤積」 現象,會導致其他企業難以取得足夠的晶片,進而可能促使這些企業轉向使用AMD、Google等競爭對手的AI 晶片,這無疑會影響輝達在AI 晶片市場的份額和地位。

從支出節奏來看,OpenAI 預測備用伺服器的支出將在2028 年達到峰值,屆時年度花費將高達400 億美元。不過,目前外界尚不清楚為何公司預測2028 年之後相關成本會大幅下降。對此,OpenAI 方面表示,未來計畫自建資料中心和晶片,此舉或許能有效降低對外部雲端服務供應商的依賴,從而填補成本下降帶來的算力供給缺口,為公司長期穩定發展提供保障。

在矽谷,「爆款產品引發服務器不足」 的問題並不新鮮,其潛在後果也讓不少企業記憶猶新。早在20 多年前,早期社群網站Friendster 就曾因用戶量暴增導致服務器頻繁宕機,最終因無法及時解決算力問題,用戶體驗急劇下滑,被後來的競爭對手超越,逐漸退出了市場舞台。

回顧過去一年多的發展,OpenAI 也未能完全擺脫當機的困擾,曾多次出現服務中斷情況,有時當機時間甚至持續數小時。但即便如此,憑藉著ChatGPT 的強大競爭力,OpenAI 依然成功穩固了在聊天機器人市場的領先地位。資料顯示,截至今年7 月,ChatGPT 的周活躍使用者已達到7 億,按照當前的成長趨勢,預計到今年年底,這一數字將逼近10 億。

從產業發展視角來看,OpenAI 這次斥巨資佈局備用服務器,既是自身應對算力危機的必然選擇,也折射出全球AI 產業對算力資源的激烈爭奪態勢。目前,AI 技術正處於快速迭代期,大模型訓練、生成式AI 應用落地等都對算力有著極高的需求,算力已成為衡量AI 企業核心競爭力的重要指標。 OpenAI 的大規模投入,可能引發產業連鎖反應,促使Google、Meta 等競爭對手進一步加大算力基礎設施建設,進而推動全球AI 算力資源的擴張與技術升級。

不過,這項計畫也面臨諸多挑戰。一方面,巨額的資金投入對OpenAI 的融資能力提出了極高要求,若後續融資不及預期,可能會導致項目推進受阻;另一方面,自建資料中心和晶片需要長期的技術積累與時間沉澱,短期內難以看到成效,如何在成本下降的過渡期保障,是OpenAI 需要解決的關鍵問題。此外,隨著全球AI 監管政策的不斷完善,未來若出現新的算力資源管控措施,也可能對OpenAI 的服務器租賃與使用產生影響。

從更長遠看,OpenAI想透過備用伺服器換取“戰略緩衝”,以免未來再次受制於人。這種未雨綢繆的做法,或許能讓它在AI下一個拐點來臨時立於不敗之地。但能否真正兌現營收預期,化解資金與資源的巨大壓力,還需要市場與時間來驗證。 (每日天使)