ChatGPT每年電費2億?!日耗電量≈1.7萬個家庭,網友:挺值!

ChatGPT居然這麼費電?

最新的等式出現了:

ChatGPT日耗電量≈1.7萬家庭每日耗電量。

什麼概念?一年光電費就要花2億人民幣!

美國一般家庭平均單日用電29千瓦時,而ChatGPT的單日用電量超過了50萬千瓦時

(美國商業用電一度約0.147美元也就是1.06元,相當於一天53萬元)

消息一出就直接衝上熱搜第一了。


除了OpenAI,Google也「不容小覷」:

在Google搜尋中應用生成式AI技術,Google每年的耗電量將高達290億度,也就是每天約7900萬度(?)。

而在未來,AI這一「吃電巨獸」的食量還會更驚人。

數據統計:

到2027年,人工智慧資料中心的用電量將和荷蘭、瑞典等小國用電量相當。

有網友看完表示:

這是利好光伏和風電?


AI要耗多少電?

如上數據來自一篇論文《The growing energy footprint of artificial intelligence》。

作者是荷蘭數位經濟學家Alex de Vries,透過輝達、OpenAI、Google等公開數據進行估算。

結果就得出了許多意想不到的結論。

首先,現在大模型訓練時期的耗電量和推理階段相比,已經不值一提了

SemiAnalysis數據顯示,OpenAI需要3617台輝達HGX A100、共28936個GPU來支持ChatGPT推理。

ChatGPT每天需要回應1.95億次請求,預計每天需要消耗564兆瓦時電力,每個請求約2.9瓦時。

而GPT-3整個訓練階段的耗電量預估為1287兆瓦時,是ChatGPT大約4天的消耗量。

谷歌報告也表示,2019-2021年,與人工智慧相關的能源消耗中有60%來自推理部分。

因此論文提出未來研究AI用電量時,更應該從全週期角度來考慮。

但這也與模型再訓練頻率、模型效能與功耗之間的平衡有關。例如BLOOM在推理階段的耗電量就顯著降低。


其次,搜尋引擎如果用上AI,耗電量還會更高。

谷歌方面曾在去年2月表示,AI回應請求的成本可能是一般搜尋的10倍。

數據顯示,使用一次Google搜尋消耗的電量是0.3瓦時。這和上面分析給出的數據相呼應。

如果要將大模型能力植入到Google搜尋中,預計需要512821個HGX A100,按照每台設備功耗為6.5千瓦來計算,每天將需要80吉瓦時的電力消耗,一年需要29.2太瓦時。

目前Google每天需要處理高達90億次搜索,換算一下,平均每個請求要消耗6.9-8.9瓦時,已經是普通搜索的20倍+。


同樣的現像在輝達的財報資料中也可以看到。

去年第二季度,輝達營收創紀錄,其中資料中心部門較上季度相比成長了141%,這表示AI方面的需求擴增。

今年,輝達AI伺服器出貨量可能達到150萬台,總功耗可能達到9.75-15.3吉瓦。這數量級的伺服器,每年的用電量將達到85.4-134太瓦時。


不過AI用電量會一路飆漲嗎?

研究認為也不一定。

即使像Google這樣在全球擁有數十億用戶的廠商,也會慎重考慮AI與搜尋引擎的融合。在硬體、軟體和電力成本壓力下,廠商腳步或許沒那麼快。

硬體生產本身也受到掣肘,AI熱潮使得台積電CoWoS先進封裝產能吃緊,但新建廠真正可能開始批量生產要等到2027年,這或許也會影響輝達的出貨量。

以及模型本身的演算法和架構也會讓AI功耗在一定程度上降低。

最終研究認為,關於AI用電量的問題,過於悲觀或樂觀都不可取。

短期內,在各種資源因素影響下,AI用電量成長會被抑制;但硬體和軟體的能源效率提高,顯然也無法抵銷長期的電力需求成長。

總之,作者認為在AI開發方面,還是不要鋪張浪費的好。監管機構也需要考慮要求廠商揭露相關數據,提高整個AI供應鏈的透明度,以便更了解這項新興技術的環境成本。

實際上,先前關於AI消耗資源的話題已經多次引發討論。

有研究指出,到2027年,資料中心人工智慧的用電量將與荷蘭或瑞典等小國的用電量相當。

加州大學河濱分校研究表明,問ChatGPT5-50個問題,就可消耗500毫升水。

因為AI超算資料中心需要大量水來散熱,微軟也承認用水是訓練模型的一大成本,從2021年到2022年,其全球用水量飆升了34%,相比研究AIGC前急劇增加。


網友:也要看產出

除了微博,#ChatGPT日耗電超50萬度#的消息也在知乎衝上熱榜第三。


儘管這數據看起來驚人,但不少網友都表示:

我們還是需要比較一下投入產出。


知乎網友@段小草就淺算了一下:

一天50萬度電,1.7萬個美國家庭。但美國有1.2億個家庭,也就是只需萬分之一的家庭用電,就能支撐一個服務全球TOP 1的AI產品、服務數億用戶,這還是在浪費能源破壞環境嗎?

言下之意,如下所說(來自知乎網友@桔了個仔):

ChatGPT創造的價值其實遠遠超過它的能耗。

和某些技術(咳,懂得都懂)的耗電量相比,它可能更不值一提了。


所以,有人(知乎網友@玩吾傷智)直接就表示,這則消息應該這麼理解:

震驚, 只需要1.7萬一般家庭的電力即可滿足ChatGPT的一日用電需求。(手動狗頭)


咳咳,有趣的是,上面的答主@段小草還提到了一篇論文,題為《The Carbon Emissions of Writing and lllustrating Are Lower for Al than for Humans》,講的是AI在畫畫和寫作上的碳排放量一個比人類少310到2900倍,一個比人類少130到1500倍


這樣看來,AI甚至算是「節能減排的先鋒」。(手動狗頭)

吶,我們還是早點洗洗睡、關注GPT-5什麼時候發吧。


奧特曼:我們需要可控核融合

話又說回來,儘管比起收益,ChatGPT一日1.7萬個家庭的能耗還不值一提,但AI能耗確實也是一個值得關注的問題。

而這一點,奧特曼早就「擔憂」了。

在今年1月的一場達沃斯會議中,他表示:

人工智慧的未來取決於清潔能源的突破。
 圖源Digwatch


具體而言,他認為:

隨著技術越來越成熟,AI將消耗越來越大量的電力,如果能源技術無法突破,就無法實現這一目標(即讓AI技術釋放全部潛力)。

而現在,大眾還不是很了解這個需求究竟有多大,奧特曼本人也表示也遠遠超出他的預期。

至於如何提升能源產量,他也直言:

需要可控核融合,或更便宜的太陽能及儲存等等。

——說起可控核融合,奧特曼其實早就押注了一家相關公司,名叫Helion


他在它身上投資了3.75億美元,這是他以個人名義投資的最大一筆。

除此之外,奧特曼的「爸爸」微軟也押注了這家公司。

據了解,Helion成立於2013年,目前約150+員工。他們預計2028年上線50兆瓦規模的可控核融合發電項目,微軟將率先採購。