因供應鏈成本更高,在美國建AI資料中心的成本是在中國的3倍—4倍
當地時間11月20日,美國AI(人工智慧)公司OpenAI宣佈與全球最大的電子產品代工製造商鴻海科技集團(富士康)達成合作。
根據OpenAI官方訊息,此次合作重點在於下一代AI基礎設施硬體的設計工作以及在美國的生產準備。作為合作的一部分,OpenAI將分享其對人工智慧產業新興硬體需求的洞察,以幫助富士康更好地設計和開發將在其美國工廠生產的硬體。這項初步協議不包含任何購買承諾或財務義務,但OpenAI將有機會提前評估這些系統,並擁有購買選擇權。
此次合作有三個核心點,一是雙方將合作設計、研發多代AI資料中心機架,以滿足快速發展的AI大模型需求。二是加強美國的AI供應鏈,擴大採購範圍,納入更多的美國供應商。三是富士康將在美國生產AI資料中心的關鍵設備。
一位網路公司資料中心負責人告訴《財經》,富士康在資料中心伺服器產品方面的ODM(原始設計)能力很強,是輝達GB200、GB300晶片主要代工廠。該負責人同時表示,美國AI資料中心建設成本是中國3倍-4倍,因為供應鏈成本高很多。
根據富士康官網,該公司目前在美國的工廠分佈在威斯康辛州、俄亥俄州、德克薩斯州、維吉尼亞州和印第安納州。
近期,OpenAI承諾了約1.4億美元的基礎設施投資,合作方包括AMD、伯通、輝達和甲骨文等。OpenAI執行長山姆·奧特曼表示,這些投資只是起點,OpenAI希望建立一套技術和財務體系,能夠以每周1GW(吉瓦)的速度新增產能,每GW成本約200億美元。他提到,這意味著OpenAI需要實現數千億美元的年收入。
今年11月,山姆·奧特曼透露,今年OpenAI預期年收入約200億美元。OpenAI最新估值已經超過5000億美元,估值較今年初翻了兩倍。
近年來,富士康一直在加強轉型力度,在電子代工業務之外,持續加大在雲端與AI方面的投入。投資銀行摩根士丹利的數據顯示,2024年,輝達近三成的AI伺服器訂單流向了富士康。
今年10月,富士康公開一項總額不超過13.7億美元的設備採購計劃,用於自建人工智慧運算叢集及超級運算中心。本工程建設周期定為2025年12月至2026年12月,資金來源皆為自有資金。但富士康並未公佈建設地點。
今年8月,富士康宣佈在墨西哥投資1.68億美元,以擴大人工智慧伺服器生產規模。富士康表示,“此次投資旨在透過提升富士康工業互聯網工廠的生產能力來滿足需求。”
今年5月,輝達宣佈將與台積電、富士康合作,在台灣建立AI超級電腦。輝達提供核心技術和GPU(圖形處理器),台積電負責晶片製造,富士康則負責機房的建設與系統整合,並參與後續的硬體運營維護。
也就是說,富士康在這項合作計畫中,不只是擔任代工商,也參與了AI基礎設施的運作。
同樣在今年5月,富士康獲批投入自有資金7.35億美元,在美國設立ProjectETA(DE)LLC,該實體用於資料中心設備製造及AI伺服器組裝業務。
根據富士康財報,該公司今年三季淨利潤約18.9億美元,年增約17%,公司表示這主要得益於AI伺服器需求的持續成長,且富士康的雲端和網路業務的營收已經連續兩個季度超過消費電子業務,是目前富士康最大的收入來源。
AI資料中心正在持續擴張。根據市場研究機構Precedence Research的預測,全球AI資料中心的市場規模將由2025年的175.4億美元,增加至2034年的1,657.3億美元,年複合成長率28.34%。
AI資料中心投資規模龐大,包括建造成本和硬體設備成本。摩根士丹利估算,全球在2029年前,將投資約3兆美元建置AI資料中心。這個數字相當於美國五大科技公司(蘋果、微軟、Google、亞馬遜、Meta)2024年營收總和(約1.8兆美元)的1.7倍。
科技巨頭們大舉投資資料中心引發廣泛討論。業內人士認為,要爭取AI發展的高地,必須增加資料中心的投資,算力不足會嚴重限制AI模型的最佳化速度。
但產業外的人們開始擔憂資料中心的投資會帶來電力負擔、水資源緊張和噪音污染等問題。今年11月,美國產業監管機構北美電力可靠性公司發布報告表示,今年冬天的電力消耗量較去年同期大幅成長,若出現強烈冬季風暴,可能會導緻美國西北部、德州、卡羅萊納州等地出現能源短缺。該公司還提到,“這些地區用電負載需求大幅增長的主要原因是數據中心”。
根據本地媒體報導,美國科技巨頭們建造的算力中心約有一半在水資源緊缺的地區,因為這些地區通常電費較便宜。 (財經雜誌)