【GTC 2026】4 位 CEO 同台,4 個判斷看清 AI

關於 AI,技術狂歡之外,更是真實的生意。

在 NVIDIA GTC 現場,一場 97 分鐘的 All-In 特別節目裡,四位 CEO 拋出了四個判斷:

  • 算力資產的生命周期,遠比想像的長;
  • 模型不會一家獨大,整合能力才是護城河;
  • 通用模型進不了企業核心,私有化定製才是解法;
  • 電力和資料中心,才是當下最大瓶頸。

從 GPU 到資料中心,從基座模型到企業訂閱,AI 產業鏈的每一層,都在加速變現。

(Perplexity CEO :AI公司怎麼賺錢?)

第一節|算力資產,比想像重要

這兩年 AI 爆發,底層晶片最火。但在 CoreWeave CEO Michael Intrator 眼裡,單純的硬體裝置反而是最不重要的一環。他們真正賣的,是“算力”本身。

早期行業的玩法很簡單:買 GPU,訓練模型,用完算成本。

現在這套邏輯變了。

CoreWeave 的核心玩法,是把算力變成可以簽約、可以抵押、能持續產生現金流的金融資產。他們先與微軟、OpenAI 這種體量的巨頭簽下長達 5 年的合同;合同一簽,就有了確定的遠期收入。隨後,他們把 GPU、資料中心和電力打包,裝進一個獨立的融資結構(SPV)裡。客戶打過來的錢直接進這個資金池,優先支付電費、維運、利息和本金,剩下的利潤才回流到公司。

在這套商業邏輯裡,CoreWeave 賣的已經不是裝置,而是一條持續運轉的“算力生產線”。

這種模式的回報速度快得驚人。5 年期的合同,前 2.5 年就能覆蓋全部成本,往後基本全是純利。憑藉確定的現金流,他們能在短時間內從資本市場融到數百億美元,繼續瘋狂擴張。

過去,算力是純粹的成本;現在,算力是源源不斷的現金流。

對此,外界一直存在一個質疑:GPU 技術迭代這麼快,硬體會不會迅速過時?

Michael 的回答是:

“如果有人說 GPU 16個月就會被淘汰,那他完全不瞭解行業現狀。我們的平均合同期是 5 年,客戶買的是未來 5 到 6 年的算力使用權。”

事實上,幾年前發佈的 A100 晶片,今年在二級市場的價格反而上漲了。

因為 AI 的商業價值不僅在訓練大模型,更在於推理。當模型真正部署到產品裡,被使用者海量且反覆地呼叫時,算力才算真正被“消費”掉。當下大量的 AI 初創企業需要跑中小模型,早幾代的 Ampere 架構不僅完全夠用,而且性價比極高。

技術確實在快速迭代,但算力資產的生命周期反而在拉長。

只要有人持續付費,它就沒有過時。

這就是第一個判斷:算力資產的生命周期,遠比想像的長。

第二節|沒有一家獨大,整合者贏

如果說上一節的算力是底層的“提款機”,那麼到了應用層,核心問題就變成了:誰在真正為 AI 持續買單?

Perplexity CEO Aravind Srinivas 給出的答案是:企業。

如今的 AI 正在經歷從“問答框”到“執行者”的跨越。從接入搜尋、打開瀏覽器到自動填表,它現在已經能端到端地完成整項任務。你只需要說一個目標,整理客戶名單、做報告、搭工具,它在背後把流程跑完。

在這個過程裡,人類不再負責拆解步驟,而是直接交付目標。AI 正在全面走向 Agent(智能體)化。

這種演變帶來的直接結果是“入口”的轉移。過去十幾年,網際網路的入口分散在各類 App、網站和軟體介面裡;現在,AI 正在把這些工具整合吞噬,變成唯一的超級入口。

這也是為什麼 Perplexity 選擇同時用多家的模型。

在 Aravind 看來,Perplexity 的核心護城河就在於“絕對中立”。無論最終是 GPT 贏、Gemini 贏還是那個大模型贏, Perplexity 都無所謂。

對於 OpenAI、Anthropic、Google 這些海外閉源模型廠商來說,做多模型聚合意味著要把競爭對手的模型也放進來,這在戰略上很難接受。但 Perplexity 不做模型,只做整合,這反而成了它獨特的生態位:精準呼叫各個模型的最優能力,讓它們高效協同工作。

而企業,正在為這種“整合與調度”能力買單。

目前,Perplexity 已經積累了數千家企業客戶,這是增長最快的業務線。定價從每人每月 40 美元到 400 美元不等,所有收入都已實現正毛利。

這就是第二個判斷:基礎模型不會一家獨大,能做好整合與整合的人,離錢最近。

第三節|通用模型進不了企業,垂直才是解法

梳理一下前兩層的邏輯:底層是算力資產的變現,中間層是超級應用對多模型的整合與整合。那麼再往上一層,最核心的問題變成了:大模型如何真正重塑企業的核心業務?

Mistral CEO Arthur Mensch 給出的答案非常篤定:通用大模型做不到,必須走私有化定製。

現成的通用大模型可以寫通稿、敲程式碼、做百科問答。但當它真正深入企業內部,撞上的往往是高度機密的私有資料、複雜的業務工作流和幾十年的行業 Know-how。如果模型無法與這些核心資產深度耦合,它能力再強,也只能是一個邊緣的辦公輔助工具。

這正是為什麼越來越多的頭部企業,開始拋棄“通用方案”,轉而訓練專屬的垂直模型。

Mistral 的打法是:直接讓頂尖演算法科學家與企業的行業專家並肩作戰。

以他們和 ASML(阿斯麥)的合作為例。為了攻克圖像掃描缺陷檢測的難題,Mistral 團隊深入業務一線,學習 ASML 專家如何看圖、如何判定微小瑕疵,最終用這些極其珍貴的行業資料,硬生生“喂”出了一個能自主執行檢測任務的 CV 專有模型。

這套模式的關鍵在於:資料絕對不能離開企業。

為此,Mistral 採用的是極致的本地化部署(On-premise)。全套工具鏈直接打包進客戶自己的機房,所有資料清洗、訓練和推理都在企業內部閉環,絕不向 Mistral 回傳那怕一個字節。

這恰恰是開源模型真正的殺手鐧。開源意味著企業擁有最高權限:可以觸達底層程式碼,可以進行參數級的深度微調,可以毫無顧忌地將其部署在物理隔離的環境中。而閉源模型,永遠隔著一層 API 的黑盒。

Arthur 認為,企業手裡握著最核心的 IP 和商業資料,想把這些資產毫無保留地對接到閉源的商業模型裡,不僅面臨資料合規風險,在技術上也難以實現深層定製。只有開源,才能把底層架構的控制權真正交還給企業。

這就是第三個判斷:通用模型進不了企業核心,垂直定製才是唯一解法。

第四節|電力和建設,才是真正瓶頸

前三節講的都是數字世界的事:算力怎麼賣、模型怎麼整合、資料怎麼定製。

IREN CEO Daniel Roberts 關注的是另一層:什麼在限制這一切的擴張?

過去很多人以為,限制 AI 擴張的只是晶片產能。但現在行業越來越清醒:GPU 只是入場券。拿到了卡,不代表馬上能跑起模型。電力接入、資料中心排期、液冷裝置採購、高頻寬網路鋪設……每一項都是重資產、長周期的物理建設。

而這其中,最大的瓶頸是電力。

IREN 目前手握 4.5GW 的電力容量,這幾乎相當於整個舊金山灣區一年的用電規模。但即便擁有如此龐大的儲備,在他們與微軟簽下的 97 億美元大單面前,也僅僅消耗了其總產能的 5%。

這足以窺見巨頭們對電力的渴求有多麼狂熱。

更有意思的是,由於物理電網的限制,現在的鐵律變成了“電力在那裡,資料中心就得建在那裡”。

Daniel 提到了一個極具荒誕感的現狀:在西德州,風能和太陽能的發電量高達 45 到 50GW,但通往達拉斯和休斯頓的輸電網路容量上限只有 12GW。海量廉價的清潔能源受限於輸電瓶頸,被死死“困”在了沙漠裡。

IREN 的解法簡單粗暴:直接把資料中心蓋在發電源頭。將龐大的電力就地轉化為算力,再把生成的 Token 通過光纖以光速傳輸出去。

還有一個極其反直覺的現象:技術降本非但不會減少算力消耗,反而會徹底引爆需求。

主持人問了個問題:如果算力猛增 10 倍,生成一張圖片的成本和時間從 2 分鐘斷崖式降到 5 秒,人們是會覺得夠用了,還是會生成更多的圖片?

Daniel 的答案是:需求會指數級爆發。

這就是 AI 時代的“傑文斯悖論(Jevons Paradox)”。無論出圖速度多快,前端永遠有填不滿的業務需求在等著吞噬這些算力。AI 在數字世界裡的胃口正呈幾何級膨脹,但現實世界的風電場、核反應堆和高壓電網的建設速度,卻只能依循物理法則緩慢爬行。這道巨大的剪刀差,正在成為限制 AI 擴張的最硬性約束。

這就是第四個判斷:AI 的上限,不再只由技術突破決定,而是由電力、土地和建設周期來裁決。

結語|誰領先,誰建壁壘

這四個判斷背後,藏著一條共同的暗線:先行者正在構築壁壘。

算力被鎖進 5 年合同;整合能力成為護城河; 企業資料築成高牆; 電力和土地被提前圈佔。

每一層都在變成長期資產,每一層的門檻都在抬高。

有人還在等技術成熟,有人已經開始佔資源了。

而在 AI 這個行業,這些資源一旦被佔住,後來者的成本會高得多。 (AI深度研究員)