漲價的真正推手不是OpenAI,而是用GPU鎖住AI底價的輝達

【新智元導讀】ChatGPT漲價、免費額度縮水,罵歸罵,很多人還是沒搞懂:到底誰在拿走我們的錢?其實,漲價的真正推手不是OpenAI,而是用GPU鎖住AI底價的輝達。

ChatGPT漲價的討論又沖上了首頁。

Plus到手價從20美元漲到22美元、美區Team從25美元漲到30美元,Claude在20美元的Pro之外,又新增了30美元的Team檔和Max檔,

有人罵貴,有人覺得情有可原,更多人開始意識到:AI正在進入一個「越用越貴」的時代。

可順著成本鏈條往下看,會發現漲價的真正推手既不是OpenAI,也不是Anthropic,而是Nvidia。

所有AI公司都在為它的GPU付帳,使用者最終為這條鏈買單。

漲價的起點:算力被Nvidia推上去了

外界把漲價的矛頭指向OpenAI,可真正把整個行業往貴的方向推的,是算力成本。

把「算力」 這兩個字拆開看,其實就是三個字:輝達

據The Information報導,這一輪漲價背後,是Nvidia的現金流在過去兩年裡出現了幾乎前所未有的爆炸性增長。

截至2023年1月,它的自由現金流只有38億美元;到了明年,預計會飆到965億美元,三年複合增長率高達194%。

短短四年,它的自由現金流放大了二十多倍。

這種增速,在1990年以來的大型科技公司裡都極為罕見,能勉強靠近的只有iPod剛問世那幾年的蘋果,但幅度仍不及Nvidia。

Nvidia的自由現金流在四年內接近百倍暴漲,遠超Meta與Apple在各自巔峰時期的增速

這種增長不是憑空出現。

2023年ChatGPT爆火後,全球科技公司一齊衝向Nvidia訂購AI晶片。

Google、Meta、微軟、亞馬遜在AI上的投入全面上升,它們瘋狂擴建資料中心、搶購GPU,Nvidia直接變成算力時代的核心供貨商。

ChatGPT點燃AI浪潮後,Nvidia的營收與自由現金流在四年內直線上衝,遠超資本開支的增幅,形成史無前例的「現金噴泉」

The Information在報導裡提到一個關鍵趨勢:Google、Meta、亞馬遜和微軟因為大規模購入Nvidia的GPU,自身的自由現金流被明顯壓低,可用來維持「免費服務」的現金池變小了。

我們看到的那些「免費額度減少」「會員漲價」「高級模型限流」,都和這一點息息相關。

巨頭為了繼續做AI,只能把算力成本攤給使用者。

與此同時,Nvidia的的現金儲備也在持續膨脹。從2023年初大約130億美元,上升到今年10月底的600億美元。

分析師預計,從現在到2030年,Nvidia累計會創造接近8500億美元自由現金流。

分析師預計Nvidia在2027—2030年的自由現金流將持續走高,到2030年逼近3000億美元

這一總量,被認為已經明顯高於分析師對Google、亞馬遜、Meta、微軟同一時期自由現金流的預期,也高於蘋果被預計產生的自由現金流。

現金被掏空:巨頭把成本轉嫁給使用者

當Nvidia的現金曲線開始向上「跳檔」時,產業鏈的另一邊已經有些吃不消了。

Google、Meta、微軟、亞馬遜這幾家最能賺錢的公司,過去兩年都在加速擴建AI計算叢集。

它們的資本開支成倍增長,而自由現金流卻被顯著壓縮。

也就是說,它們花的錢比以前多,手裡能自由支配的現金卻比以前少。

這個變化直接影響了整個AI服務的收費方式。

在此之前,巨頭還能靠廣告、雲服務、硬體補貼使用者,讓產品保持免費。

但當資料中心不斷擴建、GPU價格居高不下,它們第一次發現:AI服務不能再無限免費了。

於是我們就看到:強模型被放進更貴的付費層,免費額度開始收緊,訂閱費一點點往上挪。

這些公司的商業模式沒什麼本質變化,它們只是被迫承認一個現實——算力成本持續上升,如果價格不調整,就只能長期虧錢。

更關鍵的是,Nvidia不只賣晶片,它還在投資、扶持整條下游鏈條。

Anthropic、CoreWeave、Lambda這些雲和模型公司,都在它的生態之內;最近它和微軟一起宣佈,未來幾年最高會向Anthropic投入150億美元,其中Nvidia自己的部分最高可達100億美元。

有這麼多的需求,GPU的價格就很難往下走。

巨頭買GPU的成本壓不下來,AI產品自然也不可能回到過去那種「想用多少用多少」的時代。

供應商變金主:Nvidia把AI底價鎖死了

所以問題已經不再是「為什麼漲價」,而是:為什麼未來幾年AI的價格都很難降下來。

原因不是市場競爭不夠,而是Nvidia已經在用另一套邏輯,把整個AI行業的基礎結構提前固定住了。

The Information提到Nvidia的幾個關鍵操作:

  • 向Anthropic投入100億美元
  • 與OpenAI商談規模高達千億美元等級的長期合作;
  • 支援CoreWeave、Lambda等雲廠商擴建算力
  • 替一家雲公司擔保資料中心租約,換取未來的GPU訂單

這些看起來像是財務投資,實質是一種「提前繫結」:誰來買卡、買多久、買多少,Nvidia都提前把關係鎖好了。

被繫結的公司規模越大,算力需求越高,Nvidia的收益也越高。

再疊加CUDA的生態壁壘、台積電的產能限制、替代方案的落地周期這些現實因素,很容易得出的結論:行業短期內根本離不開Nvidia。

一旦離不開,成本就不會降。

就算巨頭有心拉低價格,也會被供不應求的 GPU 和已經鎖定的產能限制。

對使用者來說,這意味著AI會越來越強,但「免費時代」幾乎不可能回來了;更好的模型,會停在更高的價格層;按量計費會變成常態。

整個行業已經切到一條不會輕易反轉的軌道上。

成本不會突然降低,價格自然也不會。

過去一年,我們習慣把AI看作一種「能力爆發」,但Nvidia的曲線提醒我們,背後還有一場靜悄悄的基礎設施重構。

當算力被鎖定,當供應鏈被提前寫入未來,當整個行業都圍著同一個底層旋轉——價格就不再只是市場行為,而是一種結構性趨勢。

你的時間、你的技能、你的效率,也會在這條曲線裡被重新定價。

成本會上升,但它推動的,未必只有負擔,也可能是價值的整體抬升。 (新智元)