1.4 兆美元算力帳:OpenAI 還沒獲利,Sam Altman 怎麼付?

一家還沒獲利的公司,準備花掉1.4 兆美元。

不是估值,不是估算,而是CEO Sam Altman 親口確認的承諾:我們會在很長一段時間裡,把這筆錢花完。

就在最近這一周,OpenAI 動作頻繁:12月18日,推進新一輪融資談判,規模數百億美元、估值7500 億美元;12月16日,ChatGPT 上線全新圖像模型和App 生態平台;同期還發佈了AI 在科學任務上的推理能力評估報告。

(Sam Altman 訪談片段: ChatGPT下一步該做什麼?)

2025 年12 月19 日,Altman 在新一期播客中回應了外界最大的質疑:

一個現金流還沒轉正的公司,憑什麼敢為AI 基礎設施砸下1.4兆?

他給了一個出乎意料的答案:如果我們現在有兩倍算力,我們就能賺兩倍的錢。

這句話背後,藏著OpenAI 對AI 商業化的全套邏輯:錢怎麼來、怎麼花、何時能獲利。

而Altman 這次,把這套邏輯講得異常清楚。

第一節|虧損1200億美元,為什麼越花越多?

從財報數字來看,OpenAI 確實還在虧損。

在訪談中,Sam Altman 承認:我們預計從現在到2028/2029年之間,將會虧損約1,200 億美元。

這是什麼規模?作為對比,特斯拉從2003 年成立到2020 年首次實現年度獲利,花了17年時間。 OpenAI 預計4 年虧損1200 億,每年平均虧損300億美元。這是一場前所未有的資本押注。

但Altman 並不認為這是問題。他給了一組具體資料:OpenAI 目前每天前沿模型的生成量,大約是10兆個token。這是什麼概念?一本10萬字的書大約是13萬個token,10兆token相當於每天產生7700萬本書的文字量。

這個數字還在以每年3 倍的速度成長。每次基礎設施擴容,就能直接換來更高的服務能力、更快的產品上線速度和更強的付費意願。

因此,這不是一家沒錢賺的公司,而是一家錢來不及賺的公司。

OpenAI 的主要業務收入來自三個部分:

  • ChatGPT 使用者訂閱;
  • 企業版API 呼叫;
  • 面向大客戶的模型客制化服務。

其中最讓Altman 感到興奮的是第二項:API 成長已經超過ChatGPT本身的成長速度,企業客戶正成為OpenAI 的主要收入來源。

目前,OpenAI 已擁有超過100 萬家企業使用者,透過API 將模型連接到客服、財務、搜尋、程式設計、資料分析等多個環節。更關鍵的是,這些客戶使用的不是對話,而是一個任務區塊:寫程式碼、產生分析、總結檔案。任務越多,算力消耗越大,收入越高。

Altman 舉了個例子:企業員工一小時的工作,可能包括做PPT、寫指令碼、看材料。只要有70%的任務被模型完成,就是實實的降本提效。

這就是OpenAI 正在算的帳:

  • 不是按人數算訂閱費,而是以任務量算力消耗;
  • 不是在意每月續費率,而是專注於每個任務背後提升多少效率。

所以,他才會下判斷:訓練支出繼續成長沒關係,重要是推理收入會漲得更快。

當然,這套帳也有風險:基礎建設投入已經遠超現階段營收,必須靠資本市場支援持續擴張。

但Altman 相信:模型在變得更好,需求變得更大。

這是典型的AI 時代獲利模式之一:先投算力,收入隨後成長。

第二節|面對競爭,OpenAI的護城河是什麼?

算力換收入的邏輯聽起來很美,但前提是OpenAI 必須一直跑在前面。

過去一年,從DeepSeek 到Gemini,再到Claude、Mistral、Grok、Qwen,競爭對手接連出現。而OpenAI 的應對是:快速反應,持續推出新品。

最近,他們連續推出三項關鍵更新:新影像模型GPT Image 1.5,上線更快,細節更準;ChatGPT開放app提交入口,打造模型版App Store;FrontierScience研究成果上線,AI成為科學家的研究助理。

Altman 一直在強調一件事:真正的風險不是模型被超越,而是使用者不用它。

這就是他最常說的字:黏性

他提到了幾個例子:

  • 有人把血液檢查報告丟給ChatGPT,它讀懂了,提出初步判斷,使用者去醫院確認,發現確實是之前沒查出的病症;
  • 有人開始和ChatGPT聊生活、做規劃、定行程,它能記住細節,持續跟進,並提出建議;
  • 有人用它解構複雜文件,有人用它做企業報告,有人只讓它早上列個待辦清單。

這些行為有個共同點:不是測試模型好不好,而是讓它真正幫你完成任務。

當你習慣了ChatGPT 記住你的偏好、理解你的表達方式、知道上次聊到那裡,切換到其他產品的成本就會變得很高。

這就是ChatGPT的護城河所在:習慣、一致性和個人經驗所累積的信任感。

在企業側,這個護城河變成了另一個維度:個性化能力

第一節講了企業能帶來多少收入,但問題是為什麼他們會留下來?

Altman 說:企業需要的不是聰明模型,而是能連結自己資料、完成自己任務、理解自己流程的AI 工具。它可能是客服助手,也可能是法務審查器,甚至是每天早上把管理郵件歸納好再發通知的智慧助理。

ChatGPT 企業版的目標,就是讓這些個人化AI 工具運作在一個平台上,連結不同部門、流程和任務。 OpenAI 面向未來建構的真正產品形態:不是大模型,而是企業級AI 入口。

而在企業應用這條路上,Google 是最大的威脅。

Altman 不否定Google 的實力。他甚至說:如果Google 在2023年一開始就認真對待我們,我們可能就完了。

但他也指出了Google的問題:把AI 塞進搜尋框裡,不如重新設計一個AI 優先的入口。他認為,AI 不是功能外掛,而是一種全新的互動方式。你不應該再找某個東西,而應該告訴AI:這是我今天要解決的事。它聽懂了,就去做,不需要你重複輸入指令、點選圖表、切換介面。

這不僅是ChatGPT 的方向,也是在定義下一代軟體是什麼。

OpenAI 不急著回應每一次跑分。他們關心的是:使用者是否把ChatGPT 當作生活工具;企業是否用它接住任務流程;一家公司是否已經開始圍繞它重建工作流程。

技術可以被超越,習慣很難被取代。

這,就是Altman 所理解的護城河。

第三節|1.4 兆要買什麼?

這不是一個隨口報出的數字。

在訪談中,Sam Altman 反覆講了幾次:我們計畫在未來很長一段時間內投入約1.4兆美元。

前面我們拆解了收入從那裡來,那麼:這筆錢到底花在那裡?

1. 這筆用來買什麼?

這筆支出大致分為四類:

  • 晶片,如NVIDIA的H100、B100或自研方案,用來訓練和運作最先進的模型;
  • 資料中心,需要全新建設的AI工廠,不是傳統雲端運算中心,對頻寬、電力和散熱的要求都極高;
  • 網絡,連接全球模型推理的骨幹網絡,要確保延遲極低、吞吐極高;
  • 能耗,大量GPU同步工作,背後需要穩定且便宜的能源配套。

即便如此,Altman 認為仍然不夠:我們的擴張速度已經快到,即使現在就把這些基礎設施建好,也永遠不夠用。

2. 為什麼現在就要花?

很多人會問,未來五年模型還在變,技術還不穩定,為什麼現在就提早花掉這麼多?

Altman 說:不是我們想提早花,而是市場已經等不及了。

原因有三:

基礎建設周期太長

一個資料中心從規劃到投入使用需要2-3年,晶片訂單要提前18個月鎖定,電力配套甚至要提前5年佈局。如果等到需求爆發再建,根本來不及。

市場需求正在快速爆發

從一年前到現在,OpenAI 的算力擴張了3倍,明年還要再擴3 倍。收入也跟著漲。這是一種算力先行、收入追趕、效率遞增的模式。越早買算力,越早釋放成長。

更關鍵的是,競爭對手都在搶同樣的資源

NVIDIA的H100、B100供不應求,資料中心的電力配額有限,優質機房更是稀缺。不提前鎖定,別人就搶走了。

一句話總結:OpenAI 不是在投資未來,而是在解決現在問題。

3. 回本邏輯是什麼?

花了1.4兆,成本怎麼變?Altman 的判斷是:未來訓練會越來越省錢,推理也越來越快。

OpenAI 的策略是:用一套訓練好的通用模型,支撐多個終端業務。訓練一次,部署多次,推理規模越大,單位成本越低。透過ChatGPT、企業API、代理系統等通道,把token 消耗轉化為真實收入。

這是典型的前期重投入、後期低成本模型:先建廠,再接單。

Altman 也被問到另一個爭議問題:如果模型進度放緩怎麼辦?

他的回答是:

「即便模型停在o1-5.2,能做的事情還遠未被挖掘。光是用好現在的模型,就足以支撐一個5000億美金的公司。如果未來模型繼續提升,回本速度只會更高。”

在資本上,他認為舉債投資AI 是合理的。 OpenAI 不是靠模型會更強這件事融資,而是現在就能產生的使用量、顧客需求和token消耗。

不是靠講故事,而是靠算帳。

所以這筆1.4兆,表面是買晶片、買電力,本質是在提前鎖定全球AI算力的供給能力。 在科技巨頭都在爭奪AI 入口的今天,誰能提前建好基礎設施,誰能決定未來的遊戲規則。

第四節|ChatGPT 的終極型態是什麼?

前三節講的都是錢和算力,但最後要做什麼產品?

在大多數人眼中,ChatGPT是個聊天工具。但Altman 每天用它做的,遠不止聊天:安排行程、確定見誰、規劃健身計畫。他說,ChatGPT 已經幫他做了很多他自己都沒注意到的事情。

這就是OpenAI 想要的轉變:從被動回答問題的工具,變成主動幫你辦事的助理。

這個轉變分三個方向:

1 、從記住對話,到記住你的人生

第二節提到記憶是使用者黏性的來源,但Altman 認為現在還遠遠不夠。

他說:ChatGPT 的記憶能力現在還停留在GPT-2 階段。它能記住一些偏好,能保持上下文,但遠遠達不到真正理解你的水平。

下一步呢?未來的AI 不只記住你說過的話,而是瞭解你沒說出口的偏好,懂你長時間的變化,甚至可以主動提醒、提問、跟進。我們對記憶的潛力還完全低估了。就算是人類最頂尖的私人助理,也不可能記住你生活中每一封郵件、每個細節。

而AI 可以。

2 、從被動回應,到主動處理

Altman 對現有AI 互動方式並不滿意。

“我不想每天發訊息、等總結、看草稿。我想直接告訴它今天要完成什麼事,能搞定的別來煩我。”

這是一種完全不同的使用方式:不是你問我答,而是你交給我辦。

為了實現這個目標,OpenAI 正在佈局多條產品線:

  • Code Interpreter可以執行複雜的資料分析任務;
  • AI瀏覽器幫使用者自動讀取網頁、理解內容、產生摘要;
  • Agent原型可以長時間運作、自動喚起其他工具,逐步接管日常事務。

關鍵是:你不用時時盯著它。

3、不只是螢幕上的對話框

在訪談最後,Altman 被問到關於硬體設備的問題。他沒有透露太多細節,但給了一個明確的方向:

“我們未來不會只有一個設備,而是多個產品組合。這些產品要能感知你、理解你、主動服務你,而不是等你輸入命令。”

這其實就是OpenAI 與硬體團隊(Jony Ive)正在推進的硬體專案。它不一定是手機,不一定有螢幕,但它會主動記錄你說的內容,透過語音或感知理解你的行為,不再讓你像用電腦一樣點開視窗、切換App。

現在人們接受了聊天介面是因為它簡單、熟悉,但未來不同類型的任務,AI 應該能自己產生適合的互動方式。

例如:你和它討論旅行,它自動展示地圖;你談健康計劃,它產生日曆與飲食建議;你說今天幫我規劃一下,它整合前幾天的對話和習慣,給出主動安排。

從記憶、執行、再到硬體,OpenAI 要做的不只是更強的模型,更是改變AI 在人類生活中扮演的角色:

  • 從被動回答問題,變成主動協助;
  • 從通用工具,變成你的個人化助手;
  • 從你使用它,變成它代你做。

未來很多人不會再單獨處理任務,而是管理一群AI 幫手。

在 Altman 設想裡,ChatGPT 不再只是一個產品,而是能協調其他AI 工具的中樞系統。它會收集指令、分配任務、總結結果、決策提醒。

1.4 兆,買的就是這個未來。

結語|這筆帳,怎麼付?

Sam Altman 給了一套完整的帳本:用算力換收入,用收入涵蓋成本。

怎麼做?

  • 算力每翻倍,收入就翻倍;
  • 透過用戶粘性和個性化,確保持續收入;
  • 提前投入基礎設施,確保算力夠用;
  • 從聊天工具到AI 作業系統,擴大營收成長空間。

1.4 兆聽起來很瘋狂,但拆開看,每一筆都有對應的變現路徑。

能不能付得起? OpenAI 用實際成長給了答案:收入確實在跟著算力跑。

至於能跑多遠,時間會證明。 (AI深度研究員)