AI公司正陷入囚徒困境!知名科技投資老鳥警告:未來三到四年最重要的是建設太空資料中心,OpenAI最大痛點是每token成本太高

“AI 時代,誰是 token 的最低成本生產者,誰就擁有決定性優勢。”

“未來三四年,最重要的事情是太空資料中心。”

近日,知名科技投資人Gavin Baker在最新採訪中與主持人深入探討了輝達與Google之間的基礎設施戰爭,Gemini3和Scaling Law的影響,以及從Hopper向Blackwell晶片的轉變如何重塑了整個行業。

Gavin Baker是Atreides Management的管理合夥人兼首席投資官(CIO),以其在公開市場上對科技趨勢,尤其是AI領域的深刻洞察而聞名。

其中有關太空資料中心的觀點,也得到了馬斯克的認同:

Gavin尖銳地指出,過去幾年所有AI公司都陷入“囚徒困境”:如果你放慢腳步,你就永遠出局;如果競爭對手不停,你只能繼續投。

他認為,在模型進展上,Gemini 3 證明Scaling Law仍然成立。過去一段時間 AI 的主要進步則更多來自後訓練的兩條新縮放路徑,也就是帶驗證回報的強化學習與測試時算力,讓 AI 在新一代硬體還沒有完全到位時仍能繼續推進。

Blackwell(GB200/GB300)和 AMD MI450 的出現,將帶來大幅降低每 token 成本的能力。Gavin強調,xAI 將是最快推出 Blackwell 模型的公司,因為它擁有最快的資料中心部署能力和大規模叢集調通經驗。

Gavin還指出,過去 Google 是全球最低成本 Token 生產者,這給了他們巨大優勢。但隨著GB300開始量產,低成本時代將屬於 Nvidia 的客戶,如OpenAI、xAI 等。

至於太空資料中心的建設,他認為這是未來三到四年最重要的事情,“現在這是一場巨大的淘金熱”。

此外,他還分析了:

  • AI 推理如何讓飛輪啟動,徹底改變資料和使用者反饋的價值邏輯;
  • 端側 AI 對算力需求的潛在衝擊,可能讓雲算力的爆發放緩;
  • SaaS 公司在 AI 時代面臨的毛利困局,以及誰能抓住下一波風口。

小編節選整理了部落格內容,資訊量巨大,enjoy!

Gemini 3 與前沿模型整體進度

主持人:
公眾對 Gemini 3 的理解大多集中在擴展定律(Scaling Laws)與預訓練機制。你怎麼看當前的前沿模型整體進展?

Gavin:
Gemini 3 非常重要,因為它再次確認:預訓練的擴展定律仍然成立。

關鍵在於,全世界沒人真正知道為什麼擴展定律成立。它不是理論,是經驗事實,而且被極其精確地測量、驗證了很多年。我們對擴展定律的理解,就像古埃及人對太陽運行的理解:能精確測量,卻完全不知道背後的物理機制。所以每一次確認都非常關鍵。
基於擴展定律,其實 2024–2025 按理應該沒有任何 AI 進展。

原因是:xAI 把 20 萬 Hopper GPU 做到完全“coherent”(訓練時 GPU 彼此同步共享狀態)之後,下一步就必須等下一代晶片。Hopper 時代的上限就是 20 萬片,你再擴都沒用。

但真正的故事是: “推理(Reasoning)”救了整個 AI 行業

如果沒有推理模型(OpenAI 在 2024 年 10 月推出的 Reasoning 系列),整個行業會從 2024 年中期到 2025 年底 陷入 18 個月停滯。

推理帶來了兩條全新擴展定律:

  1. 強化學習 + 可驗證獎勵(RL + Verified Rewards)
    “在 AI 中,凡是你能驗證的,你就能自動化。”
  2. 測試時計算(Test-Time Compute)
    也就是讓模型在推理階段使用更多算力。

這兩條擴展定律讓 AI 在沒有新 GPU 的 18 個月裡依然高速進步。

xAI會最快訓練出 Blackwell 模型

Gavin:
Google 在 2024 推 TPU v6、2025 推 TPU v7。這些晶片性能飛躍巨大,相當於從二戰戰機跳到冷戰噴氣機。

因為 Nvidia Blackwell(GB200)極度困難、延遲嚴重,Google 等於是提前拿到了下一代“材料”。Gemini 3 正是在更強 TPU 上驗證預訓練擴展定律的第一次大考,結果通過了。

這意味著:Blackwell 時代訓練出來的模型會非常強。2026 年初會出現第一批真正的 Blackwell 模型。我認為最快的是 xAI。
理由很簡單:黃仁勳曾說過,“沒有人比 Elon Musk 更快建資料中心。”

Blackwell 這種超級複雜的晶片,需要海量叢集快速部署來“磨合”。只有 xAI 能做到最快部署、最多叢集、最快調通。所以他們會最先訓練出 Blackwell 模型。

Google“低成本生產 Token”的戰略地位將被逆轉

Gavin:
過去 Google 是 全球最低成本 Token 生產者,這給他們巨大優勢:他們可以用低價(甚至負毛利!)讓競爭對手幾乎無法呼吸。這是極其理性的企業戰略。

但當 GB300(比 GB200 更強)開始量產、並且能無縫替換進現有機房後,低成本時代將屬於 Nvidia 的客戶(OpenAI、xAI 等)。

到那時,Google 就不再是最低成本生產者,就不能再輕易靠“負 30% 毛利”窒息競爭者。AI 行業經濟格局將大幅改變。

為什麼 TPU v8 / v9 趕不上 GPU?

主持人:

為什麼會這樣?為什麼 TPU v8、v9 無法做到和 GPU 一樣優秀?

Gavin:

這裡有幾點原因。

第一點:Google 做了更加保守的設計選擇
原因之一我認為是他們的晶片設計流程本身比較特殊。半導體設計分為前端(Front-End)與後端(Back-End)。另外還有與台積電合作的晶圓代工環節。製造 ASIC 有很多方式,而 Google 的方式是:

  • Google 主要負責前端設計(相當於建築師畫房子的圖紙)
  • Broadcom 負責後端設計與量產(相當於施工方蓋房子,並負責與台積電合作)

這是個粗略類比,但能說明問題。

Broadcom 的半導體業務長期維持 50~55% 毛利率。我們不知道 TPU 的具體數字,但如果假設到 2027 年 TPU 業務規模達到 300 億美元,那麼 Broadcom 大概會從中賺走 150 億美元的毛利。

對 Google 來說,這實在太貴了。

當一個公司把 ASIC 業務做大到這種量級,就會出現一個非常明顯的經濟動力:把所有晶片設計和製造流程“收歸自研”。

蘋果就是這麼幹的。蘋果的晶片沒有 ASIC 合作夥伴,前端蘋果自己做,後端蘋果自己做,生產也由蘋果直接管理台積電,因為他們不想為外包設計付 50% 毛利。

當業務規模夠大時,你完全可以把 Broadcom 這類供應商的工程師挖走、薪水翻倍、甚至三倍,還可以省錢。

如果 TPU 到 2028 年規模做到 500 億美元,那 Google 每年付給 Broadcom 的錢會變成 250 億。
那 Google 完全可以去 Broadcom 把整個團隊全買走,把成本反而降下來。

當然,出於競爭與監管原因 Google 不能真的這麼幹,但這些“經濟摩擦”已經影響 TPU v8 / v9 的設計節奏了。

第二點:Google 引入了聯發科(MediaTek),在敲打 Broadcom

這是一個明確的訊號:Google 對付給 Broadcom 的高額費用已經非常不滿。台灣的 ASIC 公司(包括聯發科)毛利要低得多,把他們引入,就是“第一槍”。

第三點:SerDes 是晶片之間通訊的核心技術,但有價值上限
Broadcom 的 SerDes 確實很好,但SerDes 的價值上限也就 100~150 億美元等級,絕沒到 250 億美元 這種程度,世界上還有其他優秀的 SerDes 供應商

所以,Google 沒必要永遠被 Broadcom 卡住。

第四點:Google 的保守設計,可能是因為供應鏈“分裂”要開始了

Google 正在準備多家供應商平行工作(Broadcom + MediaTek)。
這種“分裂的供應鏈”會讓設計更加保守,因為你要保證每家廠商都能按時做出一致的結果。這讓 TPU 的迭代速度變慢了。

第五點:GPU 正在加速,而 ASIC 正在變慢

這是行業最關鍵的趨勢。Nvidia 和 AMD 的回應是:

“你們所有人都在造自己的 ASIC?
好,我們就一年一代,讓你們永遠追不上。”

GPU 的迭代速度現在是過去的 2 倍甚至 3 倍。而當你去做 ASIC(TPU、Trainium、各種自研晶片)時,你會突然意識到:

“哦……原來造 ASIC 根本不是只做一個晶片這麼簡單!”

你要同時解決:晶片本體、NIC(網路介面卡)、CPU、Scale-up 交換機、Scale-out 交換機、光模組、軟體棧、訓練框架、生態系統、整個供應鏈。

你做出來一個小晶片,結果發現:

“糟糕,我只是做了一個微小元件,而 GPU 廠商已經把整個巨型系統打通了。”

第六點:做出“好 ASIC”需要至少三代

Google TPU 的歷史就是活生生的例子:

  • TPU v1:能用,但力量不足
  • TPU v2:好一點
  • TPU v3/v4 才開始接近真正“能打”

Amazon 的 Trainium 也是一樣:

  • Trainium 1:比 TPU v1 略好,但差不多等級
  • Trainium 2:變強一點
  • Trainium 3:第一次達到“可以接受”
  • Trainium 4:預計才會真正成為好晶片

這就是經驗積累 → 工程成熟 → 系統打磨,無法跳步驟。

這意味著所有其他試圖“自研 AI 晶片”的公司都會發現自己根本追不上 Nvidia、AMD。

第七點:最終,TPU 和 Trainium 也會變成“客戶自有工具鏈”

你可以爭論具體年份,但方向是確定的。因為從第一性原理來說,當規模足夠大,把晶片從外包轉為自研是經濟必然。

主持人:

如果把視角拉遠一點,這一切的意義是什麼?三代 GPU、三代 TPU、三代 Trainium 之後,這場巨大戰爭將給全人類帶來什麼?

Gavin:

如果讓我給出一個事件路徑:

第一步:Blackwell 時代的模型將極其強大。

第二步:GB300(以及 AMD MI450)帶來每 Token 成本的大幅下跌。

這會讓模型可以“思考更久”。當模型能思考更多步,就能做新的事情。

我被 Gemini 3 第一次“主動幫我做事”震撼到:它幫我訂餐廳。以前模型都是給我生成文字、做研究,這次是直接辦成一件現實任務。

如果它能訂餐廳,那就離訂機票、訂酒店、打 Uber、管日程、全面生活助理不遠了。

大家現在都在談這個,但真的想像一下:這東西最終會跑在手機裡。這就是近期就會發生的未來。

而且你看,現在一些非常“技術前沿”的大公司,他們超過 50% 的客服已經完全由 AI 處理了。客服是一個 4000 億美元的大產業。而 AI 特別擅長的一件事,就是“說服”,這正是銷售和客服的核心能力。

從一家公司的角度想,如果把業務拆開,就是:做產品、賣產品、服務使用者。現在看,到 2026 年底,AI 很可能在其中兩塊已經非常拿手了。

這又回到 Karpathy 說過的那句話:AI 可以自動化所有“可被驗證”的任務。

凡是存在明確對錯結果的事情,你都可以用強化學習把模型訓練得非常強。

主持人:
你最喜歡的例子有那些?或者說未來最典型的?

Gavin:
比如讓模型自動訓練模型本身;比如全球帳目是否能對齊;比如大規模會計工作;或者銷售、客服這些“明確可驗證結果”的任務。

如果這些在 2026 年開始全面落地,那麼NVIDIA Blackwell就有明確 ROI,然後領域繼續往前走,接著會迎來Rubin,再接著是 AMD MI450、Google TPU v9。

ASI與大公司的“囚徒困境”

Gavin:

但最有意思的問題是:人工超級智能(ASI)到底會產生怎樣的經濟回報?

過去幾年所有公司都陷入“囚徒困境”:如果你放慢腳步,你就永遠出局;如果競爭對手不停,你只能繼續投。

微軟今年早些時候“猶豫”了 6 周,我想他們大概會說他們後悔。

但是隨著 Blackwell、特別是 Rubin 的到來,經濟因素將會壓倒囚徒困境。因為數字實在太誇張了。

你看那些買 GPU 最大的公司,都是上市公司,他們每季度都有審計過的財報,你完全可以算出他們的 ROIC(投入資本回報率)。而所有這些公司在大規模買 GPU 後,ROIC 比之前更高。

有人說那是因為減少了營運成本,但那本來就是期待的 AI ROI。

還有很多收入增長,其實來自廣告推薦系統從 CPU 遷移到 GPU 帶來的效率提升。但不管怎樣,ROI 已經非常明確。
每家網際網路大廠內部,掌管營收的人都非常不爽,因為他們認為太多 GPU 被給了研究團隊:“你把 GPU 給我,我就能增長營收。”這在每家公司都是永恆的爭奪。

主持人:
我很好奇你有那些“潑冷水”的看法,會讓算力需求增長放緩?

Gavin:
最明顯的“空頭邏輯”是端側 AI(Edge AI)。

三年後,只要手機稍微變厚一點、塞下更多 DRAM、電池短點續航,你就能在本地運行一個剪裁版 Gemini 5、Grok 4/4.1、ChatGPT,達到30–60 tokens/s,IQ 115 左右。而且這是免費的。

顯然,這就是蘋果的戰略:在本地運行隱私安全的模型,只有需要時才呼叫雲端的“上帝大模型”。

如果端側 AI 滿足90% 的需求,那這將是最嚇人的“空頭論點”。
另一個風險是 scaling law 不再生效。但如果假設 scaling law 繼續有效,預訓練肯定還能撐一代;後訓練(RLVR 等)剛起步;推理階段的 test-time compute 也才剛開始。

而且我們已經在取得巨大進展,比如模型能把越來越多上下文裝進“腦子”裡。

長期來看,大上下文窗口可能是解決當前很多問題的關鍵。配合 KV-cache offload 這一類技術,它們潛力巨大。

對 Meta、Anthropic、OpenAI的看法

主持人:
我們其實還沒有聊太多 Meta、Anthropic、OpenAI。我很好奇你對整個基礎設施層的看法。這三家是這個“大博弈”裡最關鍵的玩家。

我們前面討論的所有趨勢,對這幾家公司會產生什麼影響?

Gavin:
我先談談對 frontier 模型整體的一些看法。

在 2023–2024 年,我特別喜歡引用Erik Brynjolfsson(美國經濟學者) 的一句話。Erik 說:“基礎模型是歷史上增值速度最快的資產。”

我認為他說對了 90%。我當時補了一句:“擁有獨特資料和網際網路等級分發能力的基礎模型,才是歷史上增值最快的資產。”

但“推理” 的出現徹底改變了這一切。

以前所有偉大網際網路公司的核心飛輪都是:做出好產品→ 吸引使用者 → 使用者產生資料 → 用資料改進產品 → 更多使用者 → 更多資料……

Netflix、亞馬遜、Meta、Google都靠這套飛輪運轉十年以上,這也是為什麼它們擁有極強的規模回報。
然而,這個飛輪在“無推理能力”的AI 時代是不存在的。你預訓練一個模型,把它丟到現實世界,它就那樣了。你可以做 RLHF,基於一些使用者反饋去調整,但那個過程噪音大、訊號弱、反饋難以精確量化,很難真正變成“可驗證獎勵”反饋回模型

但推理讓飛輪開始轉動了。現在,如果大量使用者不斷提出某類問題,並持續對某些回答給出明確的正向或負向反饋,這些都能被轉化為可度量、可驗證的獎勵訊號,再反饋回模型做強化學習。

我們現在還處在非常早期的階段,但飛輪已經開始轉動了。這是對所有 frontier labs 的格局影響最大的變化。

主持人:
你能具體解釋一下嗎?為什麼 reasoning 會讓飛輪成立?

Gavin:
如果大量使用者在問同一個問題,並穩定地偏好某些答案、不喜歡另一些答案,這就產生了一個穩定一致的獎勵訊號。而且這個獎勵訊號是可驗證的。模型就能把這些偏好再次學習回去。
雖然現在還早、還很難做,但你已經能看到飛輪開始啟動。
第二點,我認為非常重要的是:Meta。祖克柏在今年1 月曾說過一句話:“我高度確信,到2025 年的某個時間點,我們將擁有最強、最好的AI。”

我現在不確定他是不是仍然能排進前 100 名。他當時的判斷可以說是錯得不能再錯。而我認為這是一個非常重要的事實,因為它說明:這四家美國前沿實驗室做到的事情,其實難度遠比外界想像的大。Meta 砸了巨額資金,也失敗了。
Yann LeCun團隊出現動盪,他們甚至推出了那個著名的“10 億美元挖 AI 研究員”的計畫。

順帶說一句,微軟也失敗了。他們雖然沒有像 Meta 那樣做明確預測,但微軟收購了 Inflection AI,當時他們內部也多次說:“我們預期自己的內部模型會迅速變強,未來 Copilot 會越來越多跑在內部模型上。”

亞馬遜則收購了 Adept AI,他們有自己的 Nova 模型,但我不認為它能進入前 20 名。
所以很顯然,這件事比一年前所有人以為的都要難得多。

原因有很多,例如要讓一個巨型 GPU 叢集保持“同步一致”其實非常困難。許多傳統科技公司過去營運基礎設施時都以“節省成本”為核心,而不是以“性能複雜度”為核心。要讓一大堆 GPU 在大規模叢集裡保持高利用率,這是極其難的事情,而且不同公司在 GPU 維運能力上差距非常大。

如果你最多能把兩、三十萬顆 Blackwell(GPU)跑到高效一致,而你的叢集只有 30% 的有效執行階段間,而你的競爭對手能做到 90%,那你們根本不在同一個維度競爭。

這就是第一點:不同公司在 GPU 維運能力上存在巨大差距。

第二點,這些 AI 研究人員喜歡談“品味”,我覺得很好笑。“你為什麼賺這麼多錢?”“因為我的品味很好。”所謂“品味”,其實就是一種對實驗方向的直覺判斷能力。而這正是為什麼這些人能拿很高的薪水。

隨著模型規模繼續增大,你已經不能像以前一樣,先在一個 1000 GPU 的叢集上跑一次實驗,再把它複製到 10 萬 GPU 上。你必須直接在 5 萬 GPU 規模上跑實驗,而且可能要跑好幾天。機會成本極高。所以你必須有一支極強的團隊,知道應該把算力押在那些實驗上。

然後,你還必須把 RL(強化學習)、後訓練、推理成本控制等所有部分都做到很好。整個流程極其複雜。

做這一切,非常非常難。很多人以為簡單,但其實一點都不簡單。我以前做零售行業分析時常說:在美國任何一個行業,如果你能營運 1000 家門店,並讓它們保持整潔、燈光明亮、陳列合理、價格得當、員工友好並且不偷東西——你就能成為一家 200 億或 300 億美元的公司。但結果是,全美國只有 15 家公司能做到。真的非常難。

AI 也是同樣的道理:要把所有環節都做到位,非常難。而這也讓所謂的“推理飛輪”開始拉開差距。

更重要的是,這四家實驗室,XAI、Gemini、OpenAI、Anthropic,它們內部都有比公開型號更先進的“檢查點”。所謂檢查點,就是模型持續訓練過程中階段性的版本。

它們內部使用的版本更強,它們又用這些更強的版本去訓練下一個版本。如果你沒有這些最新的 checkpoint,你就已經落後了,而且會越來越難追上。

中國開源對 Meta 來說是“天賜禮物”。因為 Meta 可以用中國開源模型當成自己的 checkpoint,從而實現“自舉”(bootstrap)。我相信他們正在這麼做,其他公司也一樣。

OpenAI的最大痛點:Per-token成本太高

Gavin:

回到公司競爭格局:XAI 將會是第一家推出 Blackwell 模型的公司,也是第一家在大規模推理場景中使用 Blackwell 的公司。這對他們來說是非常關鍵的節點。

順便說一句,如果你現在去看 openrouter 的資料,xAI 已經佔據主導地位了。openrouter 可能只佔 API token 的 1%,但它是一個趨勢訊號:

  • XAI 處理了大約1.35 兆 token
  • Google 大約800–9000 億
  • Anthropic 大約7000 億

XAI 表現非常好,模型也很棒,我強烈推薦。

你會看到:XAI 先推出模型,OpenAI 會隨後跟上,但速度更快。

但是 OpenAI 現在最大的痛點,是它們的 per-token 成本太高,因為他們需要為算力支付溢價,而且合作方不一定是最擅長維運 GPU 的那批人。結果就是OpenAI 是高成本的 token 生產者。這也解釋了他們近期的“紅色警戒”。

他們承諾了1.44 兆美元的未來 GPU 支出,這是一個巨大的數字,因為他們知道自己需要大量融資,尤其是如果 Google 繼續“把生態的經濟氧氣吸乾”,那 OpenAI 的壓力更大。

他們會推出新模型,但在相當長的時間裡,他們仍然無法解決自己相對於 XAI、Google、甚至 Anthropic 的成本劣勢。

Anthropic 是一家好公司,他們燒錢遠低於 OpenAI,但增長更快。所以我覺得必須給Anthropic很多的認可,而這很大程度上得益於他們和Google、Amazon在TPU和Trainium上的合作關係。Anthropic能夠從與Google相同的動態中受益,我認為這在這場精彩的“國際象棋”遊戲中非常具有指示意義。你可以看看Daario Jensen,可能有一些公開評論,他們之間有一些小小的交鋒。

Anthropic剛剛和Nvidia簽了50億美元的合同。那是因為Dario是個聰明人,他理解關於Blackwell和Rubin相對於TPU的這些動態。所以Nvidia現在從原來的兩個“戰士”(XAI和OpenAI)增加到了三個戰士。這有助於Nvidia在與Google的競爭中佔據優勢。如果Meta能夠趕上,這也非常重要。我相信Nvidia會盡其所能幫助Meta,比如:“你這樣運行這些GPU,我們或許可以把螺絲擰緊一點,或者調整一下參數。”此外,如果Blackwell回到中國,看起來很可能會發生,那也非常好,因為中國的開源生態也會回歸。

未來三到四年,最重要的是太空資料中心

主持人:我總是很好奇關於資料中心的一些問題,比如你腦中有沒有關於非晶片方面的突破?

Gavin:我認為未來三到四年世界上最重要的事情是太空中的資料中心,這對地球上建造電廠或資料中心的人都有深遠影響。現在這是一場巨大的淘金熱。

大家都覺得AI很有風險,但我打算建一個資料中心,一個電廠來驅動資料中心。我們肯定需要它。但如果從最基本的原理來看,資料中心應該建在太空裡。運行資料中心的基本投入是什麼?是電力、冷卻和晶片。總成本角度來看,這就是全部的投入。

在太空中,你可以讓衛星全天候在陽光下運行,而且陽光的強度高出30%。你可以讓衛星一直接收光照,這意味著外太空的輻照度比地球高六倍,所以你能獲得大量太陽能。其次,因為全天都有陽光,你不需要電池,而電池成本佔比巨大。所以太空中可用的最低成本能源就是太陽能。

冷卻方面,在一個機架中,大部分重量和體積都是用於冷卻,而地球上的資料中心冷卻非常複雜,包括HVAC、CDU、液冷等。而在太空中,冷卻是免費的,你只需把散熱器放在衛星的背光面,這幾乎接近絕對零度,所有這些成本都消失了,這節省了大量開銷。

每顆衛星可以看作是一個機架,也有人可能製造三機架的衛星。那麼如何連接這些機架呢?在地球上,機架通過光纖連接,本質上是通過電纜傳輸雷射。而唯一比光纖更快的,是通過真空傳輸雷射。如果你能用雷射把太空中的衛星連接起來,你就擁有比地球資料中心更快、更穩定的網路。

訓練方面,這需要很長時間,因為規模太大。但推理(inference)方面,我認為最終訓練也會發生。考慮使用者體驗:當我問Grok問題並得到回答時,手機發出的無線電波傳到基站,然後進入光纖,經過紐約某個匯聚設施,再到附近的資料中心完成計算,最後返回。如果衛星可以直接與手機通訊,而Starlink已經展示了直接到手機的能力,那麼體驗將更快、更低成本。所以從最基本的原理來看,太空資料中心在各方面都優於地球上的資料中心。

主持人:那麼阻礙因素是什麼?是發射成本嗎?還是發射可用性問題?

Gavin:我的意思是,我們需要大量的太空飛船。像Starship這樣的飛船是唯一能夠經濟地實現這一目標的飛船。我們需要很多這樣的Starship。也許中國或俄羅斯能夠回收火箭,Blue Origin剛剛回收了一個助推器。這完全是一種全新的思考SpaceX的方式。很有趣的是,Elon昨天在採訪中提到,Tesla、SpaceX和XAI正在趨於融合,實際上確實如此。

XAI將成為Tesla Optimus機器人的智能模組,Tesla Vision提供感知系統,而SpaceX將擁有太空中的資料中心,為XAI、Tesla、Optimus以及許多其他公司提供AI算力支援。這種融合非常有趣,每個公司都在為其他公司創造競爭優勢。如果你是XAI,有了與Optimus的內建關係非常好,Tesla又是上市公司,任何內部協議都會經過嚴格稽核,而太空資料中心又帶來了巨大優勢。此外,XAI還有兩家公司擁有大量客戶,可以幫助他們建立客戶支援和銷售AI代理系統。總的來說,這些公司正在以一種巧妙的方式融合在一起。我認為當xAI明年推出第一個Blackwell模型時,將是一個重要時刻。

如何看待算力短缺的周期性問題

主持人:歷史上人類經濟中短缺總會伴隨資本周期的過剩。如果這次短缺是算力,比如Mark Chen曾表示,如果給他們幾周時間,他們會消耗十倍算力。似乎算力仍然存在巨大短缺,但歷史規律表明短缺之後會出現過剩。你怎麼看這個規律在這項技術上的體現?

Gavin:AI與傳統軟體根本不同,每次使用AI都會消耗算力,而傳統軟體不會。確實,每家公司都可能消耗十倍算力,結果可能只是讓200美元檔的服務更好,免費檔可能會加入廣告。Google已經開始用廣告為AI模式變現,這會給其他公司引入免費模式廣告的許可,這將成為重要的ROI來源。OpenAI等公司也會在服務中收取佣金,例如幫你預訂旅行,獲取一定收入。

半導體行業中庫存動態會導致周期性波動。半導體的“鐵律”是客戶緩衝庫存必須等於交貨周期,因此出現庫存周期。我們最近沒有看到真正的半導體產能周期,也許自90年代末以來就沒有。原因是台灣半導體非常擅長整合和穩定供應,但現在他們的產能擴張未跟上客戶需求。我認為台灣半導體可能會犯錯誤,因為他們過於擔心產能過剩。他們曾經嘲笑Sam Altman,認為他不懂,他們害怕產能過剩。

從另一個角度看,功率作為“限速器”對最先進計算玩家非常有利。如果功率受限,計算成本就不重要,你每瓦特獲得的算力越高,收入越高。建造資料中心的投資回報取決於單位功率的收益,這是對最先進技術非常有利的。

至於能源解決方案,美國無法快速建造核電站,法律和環境限制太嚴格。解決方案是天然氣和太陽能,AI資料中心可以靈活選址,這也是為什麼美國各地,包括Abilene,會有大量活動,因為這裡靠近天然氣產區。渦輪機製造商正在擴張產能,比如Caterpillar計畫在未來幾年增加75%產能,所以電力問題正在得到解決。

SaaS公司犯的“亞馬遜式錯誤”

主持人:我們來談談SaaS吧,你怎麼看?

Gavin:應用型SaaS公司正在犯和實體零售商對待電商時同樣的錯誤。實體零售商,特別是在電信泡沫破裂後,他們看到了亞馬遜,覺得“哦,它在虧錢,電商是低利潤業務。”從基本原理來看,怎麼可能效率更高呢?現在,我們的客戶自己去店裡,付運輸費,然後再付把商品運回家的費用。如果我們直接把貨物發給每個客戶,怎麼可能效率更低呢?亞馬遜的願景當然是,最終我們會沿街把包裹送到每戶人家。因此,他們當時沒有投資電商,雖然看到客戶需求,但不喜歡電商的利潤結構。這就是幾乎所有實體零售商在投資電商方面動作緩慢的根本原因。

現在來看,亞馬遜在北美零售業務的利潤率甚至高於很多大眾零售商。利潤率會變化,如果客戶需求一項根本性的變革性新技術,不去接受總是錯誤的,這正是SaaS公司正在犯的錯誤。

這些SaaS公司有70%、80%、甚至90%的毛利率,但他們不願接受AI帶來的毛利率。AI的本質是,每次都需要重新計算答案,而傳統軟體寫一次就能高效分發,這也是傳統軟體很好的商業模式。AI正好相反,一個優秀的AI公司毛利率可能只有40%。

主持人:那為什麼他們還能夠早期產生現金流?

Gavin:奇怪的是,由於效率提升,他們比傳統SaaS公司更早產生現金流,但不是因為高毛利,而是因為員工很少。看著這些公司很悲哀,如果你想運行AI代理,但不願意接受低於35%的毛利率,它永遠不會成功,因為AI原生公司就是以40%左右的毛利在運作。

如果你試圖保持80%的毛利結構,等於保證在AI上失敗,這是絕對的保證。這很瘋狂,因為我們已有案例證明軟體投資者願意忍受毛利壓力,只要毛利潤美元總額合理,這就是雲端運算的存在證明。

你可能忘了,Adobe從本地部署轉向SaaS模式時,不僅毛利下滑,收入也大幅下降,因為從一次性收費變為多年分期收費。微軟的情況沒那麼戲劇,但早期雲轉型的股票也很難,投資者覺得“天啊,你是個80%毛利的業務,現在毛利下降到50%”。但事實證明,只要毛利潤美元總額增長,這些毛利可以隨著時間改善。微軟買下GitHub,現在GitHub也成為Copilot的分發管道,這是一筆巨大的業務,毛利較低,但成功了。

幾乎沒有一家應用型SaaS公司不能運行成功的AI代理策略。他們相較AI原生公司有巨大優勢,因為他們有現金流業務。我認為有機會出現新的“建設性激進者”,去告訴SaaS公司:別再這麼傻了。只需展示AI收入和毛利,說明真實的AI是低毛利的,並且對比風險投資支援的虧損競爭者。有些公司甚至可以暫時將毛利降為零,但他們有現成現金流業務。這是一套顯而易見的玩法,Salesforce、ServiceNow、HubSpot、GitLab、Atlassian,都可以運行。

使用AI代理的方法很直接:先問自己,當前為客戶提供的核心功能是什麼?如何用代理進一步自動化?例如CRM,客戶做什麼?他們與客戶溝通,我們做客戶關係管理軟體,也做客戶支援。做一個可以執行這些功能的代理,以10%-20%的價格出售,讓代理訪問所有資料。目前的情況是,其他人開發的代理訪問你的系統,把資料拉走,最終你會被替換。這完全是因為企業想保持80%毛利,這是一場生死攸關的決策。除了微軟,幾乎所有人都在失敗。正如Nokia當年備忘錄所說,你的平台在燃燒,你可以跳到新的平台去撲滅火。 (51CTO技術堆疊)