Meta的AI算帳時刻:燒了千億之後,終於學會過日子咯!

如果說 2025 年的 Meta 還是那個 "AI 軍備競賽裡的富二代"—— 拿著千億美金砸算力、搶晶片、堆模型,一副 "只要能跟上 OpenAI,錢不是問題" 的架勢;那 2026 年的小扎 (祖克柏) 明顯已經從 "燒錢換速度" 的狂熱裡冷靜下來,開始認認真真算每一筆帳咯!

這不是說 Meta 要收縮 AI 戰線,恰恰相反,它把 2026 年的資本支出直接幹到了 1250 億 - 1450 億美元的天文數字,比去年又漲了一大截兒。

但這筆錢花得跟以前完全不一樣了:以前是 "別人有我也得有" 的被動追趕,現在是 "每一分錢都要算出廣告收入的效率驅動。整個公司的 AI 戰略,正在經歷一場從 "資源被動約束" 到 "效率驅動變現的關鍵轉折。

先說說大家最關心的 Meta AI 助手!

很多人可能覺得這玩意兒不溫不火,比不上 ChatGPT 那麼有話題度,但人家悄悄已經把月活幹到了中高數億量級,DAU 也有數億等級。這個增長速度其實相當恐怖,而且幾乎沒花什麼獲客成本 —— 全靠 WhatsApp、Instagram 和 Facebook 這三大社交平台的 "嵌入式分發"。

特別是 WhatsApp,貢獻了超過一半的月活,畢竟全球幾十億人每天都在用它聊天,加個 AI 入口簡直是降維打擊!

但問題也出在這裡~現在的 Meta AI,更像個 "高級搜尋框":七成以上的會話不到 5 輪,大家主要用它查個天氣、寫個郵件、生成個簡單文案。真正能觸發下游動作的 "有意義互動",只佔不到三成。

更要命的是成本帳:單輪推理成本大概在零點幾到半美分之間,看著不多,但架不住每天數十億次的對話量。光推理這一項,Meta 每天就要燒掉幾百萬美元。

這就是為什麼 Meta AI 遲遲衝不破十億 DAU 的關口!不是拉不到使用者,而是拉來了養不起啊~

每新增 1 億 DAU,對應的年化基礎設施投入就是數億美元,而現在的變現能力根本覆蓋不了。小扎心裡門兒清:現在的瓶頸根本不是流量,是效率。什麼時候能把千 token 推理成本再壓縮個三五倍,什麼時候十億 DAU 的單位經濟性才算真正成立。

所以你看 Llama 5 的戰略,就特別能體現 Meta 現在的 "務實"!

以前大家做模型,都是比誰的參數多、誰的基準測試分數高,恨不得把所有算力都砸進去追求 "絕對第一"。但 Meta 現在不這麼玩了,Llama 5 的目標不是靜態對標 GPT-5 或者 Gemini,而是瞄準它發佈時的 "動態前沿高位"—— 能做到九成接近甚至局部領先就行,沒必要為了最後那 5% 的性能,付出兩倍三倍的成本。

Meta 甚至搞出了一套自己的 "智能衡量標準":

推理與工具呼叫成功率佔 40%,延遲調整後的回答質量佔 30%,成本歸一化後的智能指標也佔 30%。

簡單說就是:如果一個技術改動能讓模型性能提升 10%,但推理成本漲了 20%,那對不起,這個改動直接 pass。他們寧願部署一個 "不是最聰明,但性價比最高" 的模型,然後靠自己幾十億使用者的分發規模,把商業價值最大化。

當然,這不是說 Meta 放棄了前沿研究。恰恰相反,他們算得很清楚:簡單模型能覆蓋 80% 的基礎查詢,但剩下那 20% 需要多步推理的複雜查詢,貢獻了接近三分之二的後續價值訊號。

輕量模型的多跳推理成功率只有四五成,而前沿模型能做到七八成。這一點點能力差距,折算到廣告業務上,就是中低個位數的參與度提升,對應著數十億美元的增量收入。

這筆帳,怎麼算都划算啊!

再說說自研 MTIA 晶片,這絕對是 Meta 今年最受關注的話題之一。

很多人之前吹 MTIA 能吊打輝達 H100,現在看來確實是想多了。實際測試下來,MTIA 的有效性能大概只有 H100 的七成多,離當初傳聞的九成目標還差得遠。

問題主要出在三個地方:

  • 一是架構沒跟上,前兩代 MTIA 都是針對稠密 Transformer 最佳化的,結果現在行業主流都轉向了 MoE 混合專家架構和長上下文,等於白做了不少工作
  • 二是軟體棧太嫩,編譯器和執行階段才積累了兩年多,像 FlashAttention 這種關鍵算子還得大量手動調優
  • 三是互連不行,沒有輝達 NVLink 那種等級的高頻寬互連生態,根本扛不住 Llama 5 這種量級的模型訓練

業內普遍判斷,MTIA 要真正追平輝達,至少還需要兩到三年的時間。所以 Meta 也沒傻到一下子就把輝達的 GPU 全換掉,而是走了一條 "階梯式退出" 的路線:現在外部 GPU 還佔三成左右,2027 年降到一兩成,2028 年再壓到一成多。

那怕到了 2028 年,Meta 也會保留數萬台外部 GPU 作為 "戰略彈性"—— 用來壓縮新模型的上市時間、應對突發的流量高峰,或者萬一 MTIA 路線圖延期了,還能有個備份。

這種 "不把雞蛋放在一個籃子裡" 的做法,其實特別聰明。畢竟現在輝達的 GPU 雖然貴,但至少穩定可靠。而自研晶片雖然長期能省大錢,但短期風險極高。Meta 現在的策略就是:

把那些穩定可預測的常規負載,慢慢轉到成本更低的內部基礎設施上;而那些高回報、時效敏感的任務,還是用外部雲服務。

這樣算下來,長期能把外部算力支出壓縮七成左右,已經相當可觀了。

不過,Meta 現在面臨的最大挑戰,既不是模型也不是晶片,而是一個所有人都沒想到的問題--電!

你沒看錯,就是電。現在 AI 資料中心的規模已經大到了 1 吉瓦等級,相當於一個中等城市的用電量。但電網的建設速度根本跟不上 AI 的擴張節奏:一個資料中心的建設周期只要 18-24 個月,但電網擴容、變電站升級和並網審批,卻要 3-5 年。

美國約三分之一在建或規劃的 AI 資料中心,都面臨著分區審批和環境評估的延期問題。

Meta 的 1 吉瓦級資料中心園區,現在有五六成的機率會延期 3-9 個月。這不是因為樓蓋慢了,而是因為變壓器交不了貨、變電站建不起來、並網排不上隊。有些地方的電網接入等待周期,甚至已經拉長到了兩三年。

這也是為什麼 Meta 明明在大力推進自研晶片,卻還是要跟 CoreWeave、Lambda Labs 簽那麼多長期 GPU 合同 —— 這些外部算力,現在已經成了"項目進度避險工具"!

為瞭解決這個 "電力危機",Meta 也是拼了。最近甚至傳出消息,他們跟一家太空太陽能公司簽了 1 吉瓦的協議,打算用衛星在太空收集太陽能,再傳回地球給資料中心供電。雖然這個技術要到 2030 年才能商業化,但也足以看出電力問題已經嚴重到了什麼程度。

說了這麼多困難,那 Meta 的 AI 投入到底有沒有回報?答案是:有,而且已經開始兌現咯!

最大的回報來自廣告業務~

Meta 的 Advantage + 自動化投放工具,加上生成式創意工具,已經實實在在地提升了廣告的參與度和轉化率。而且 AI 驅動的參與度提升,傳導到廣告收入的彈性幾乎是線性的。

這意味著,只要 AI 能讓使用者在平台上多待 1%,廣告收入就能多漲 1%。長期來看,這部分的增量空間有數十億美元,這也是 Meta 敢維持千億級資本支出的最大底氣。

現在 Meta 內部的算力分配,也清晰地反映了這個戰略重點。廣告與推薦系統依然佔據了過半的算力,但生成式 AI 的份額已經漲到了三成多,同比上升了超過十個百分點。

騰出來的空間,主要來自廣告訓練側的邊際放緩和持續學習管道的效率提升。而且 Meta 還搞了個算力 "資本化" 的內部機制,各個團隊要按 GPU 小時拿預算,用可量化的 KPI 來背書。

這個機制推行之後,GPU 的有效利用率直接從六成多漲到了接近八成,相當於憑空多了幾十萬張 GPU。

回頭看這兩年 Meta 的 AI 之路,其實特別有代表性!

從一開始的 "元宇宙夢碎,all in AI" 的慌亂,到 "別人有我也得有" 的軍備競賽,再到現在 "每一分錢都要算回報" 的效率驅動,Meta 終於找到了屬於自己的 AI 節奏。

它沒有 OpenAI 那種 "改變世界" 的理想主義,也沒有Google那種 "基礎研究至上" 的工程師文化,但它有全世界最大的社交網路、最成熟的廣告系統,以及最會算帳的管理層。

它不追求做 "最聰明的 AI",但它要做 "最能賺錢的 AI",嘿嘿!

現在的 AI 行業,正在從 "拼燒錢" 的上半場,進入 "拼效率" 的下半場。那些只會砸錢堆算力、卻找不到變現路徑的公司,很快就會被淘汰。而像 Meta 這樣,能把 AI 技術跟自己的核心業務深度結合,能算出每一分算力投入的廣告回報的公司,反而可能笑到最後哦!

畢竟,商業的本質從來都不是追求技術的極致,而是追求投入產出比的極致。在這一點上,小扎顯然已經想明白了。 (商業分析家)