「燒光」70000億美元,與輝達、台積電為敵

有朋友問:Leslie,你是專業建廠出身,之前傳出山姆奧特曼要投資7萬億造芯,雖然本人不明確回應,但大媒體傳出來,一定不是空穴來風。如果有7萬億,造划算,還是買划算,如果造,可能要考慮哪些方面的投入及因素?

奧特曼的「7兆」傳聞的確是石破天驚,構想很有意思,回答這個問題得具備豐富的半導體建廠,工藝,運營等一系列知識,我們可以嘗試推導一下,如果手握7萬億美元,如何將這筆錢「合理地」花出去?


每萬片晶圓,建廠投資150億美元

首先,第一步必然是生產GPU邏輯晶片,這樣一來就需要先蓋一座邏輯晶圓廠。我們以台積電最先進的2nm工廠為例,看看每萬片晶圓的資本投入情形。

依投資額劃分,晶圓廠各項投入比例大致為:製程設備:77%,土地與建築物:4%,無塵室:5%,水電氣化學品等供應系統設施:14%。

光刻機是晶圓廠最大的製程設備投資項之一,佔比在20%左右,而且2nm需要用到EUV光刻機(負責其中25層的光刻),成本相對更高,佔比預計會提升至24%左右。

目前台積電的2nm還是採用低數值孔徑的EUV,對應ASML最新的NXE:3800E,其每小時產出晶圓(WPH,Wafer per hour)大致在190-200片的區間,單一設備每月產能預計2400片左右(具體計算見下表註釋),這意味著每萬片晶圓的產能,需要4台ASML的NXE:3800 EUV光刻機,而除了EUV負責的25層外,其餘層還需要3台每小時產出晶圓295片的NXT:2100,以及一台KrF DUV光刻機。

*單一設備月產能=每小時產出晶圓數*運轉時長*% customer efficiency(效率)*% doseage headwind(vs.30mJ)*EUV層數*30天


依照ASML提供的數據,NXE:3800E售價2億美元左右,NXT:2100i約7,500萬美元,KrF DUV約1,500萬美元,這意味著2nm製程的晶圓廠,每萬片晶圓產能,光刻機(含維修以及備件)的投入預計在13億美元左右。

依照光刻機的投入佔全部製程設備24%的比例倒推,製程設備的總投入為54億美元,而製程設備佔晶圓廠全部投資額的77%,以此倒推,2nm節點,每萬片晶圓產能,晶圓廠總投資額大致為71億美元。

每萬片晶圓產能,晶圓廠總投資額劃分,單位:美元


建完GPU邏輯晶片廠之後,還要考慮生產HBM的DRAM廠的建置。

我們以最先進的1gamma製程為例,儘管DRAM的EUV光刻層有所減少,但每萬片晶圓所需的設備數量卻不降反增,尤其是刻蝕設備,整體估算下來,1gamma製程的DRAM廠投資額大概在邏輯晶片晶圓廠的總投資額的85%,也就是60億美元左右。

補充說一下,DUV時代,DRAM廠的投資額大概是同級的邏輯晶圓廠110%-120%,直到7nm節點,邏輯廠開始大量使用EUV光刻機,每萬片晶圓產能的投資額開始反超DRAM廠。

解決前段的GPU邏輯晶片和DRAM記憶體晶片之後,還要解決後段的封裝問題,包括CoWoS先進封裝、HBM封裝兩部分。

目前,最先進的AI晶片採用的事SoIC+CoWoS封裝技術,HBM4將會採用混合鍵結(Hybrid Bonding),每萬片晶圓的投資額將大幅提高至10億美元(含設備廠房)。另外,先進封裝涉及的中介層,也還需利用DUV建造配套的65/45nm的前段晶圓廠,投資額為每萬片晶圓8億美元。也就是說,封裝部分,每萬片晶圓的整體投資額預計在18億美元左右。

每萬片晶圓產能,不同晶圓廠單位投資額,單位:美元


這個花錢的活涉及到的數據比較多,幫大家做一個小總結,每萬片晶圓產能,或者說單位投資額,對應2nm製程的邏輯晶圓廠、1gamma製程的DRAM廠、封裝廠(先進封裝+中介層,10億美元+8億美元)方面的投資總計約150億美元。


年產600萬顆GPU,成本500億美元

但是,GPU邏輯晶片、HBM記憶體以及中介層,對應的比例不是1:1:1的關係,所有總投資額還要在單位投資額的基礎上,按照係數增加,這個係數大致可以從一顆GPU ,所需的CPU、HBM記憶體、中介層的數量來推算。

以輝達最新的Blackwell架構GPU B200的Die size(814mm²)為例,每片晶圓可以切80顆晶片,按照台積電最好的工藝,良率大致在65%左右,即每片晶圓可以切50顆Good Die。

附帶說一下,由於GPU邏輯晶片是大晶片,為了提高光刻的曝光清晰面積,物鏡成像的景深就需要控制在相對較大水平,這會導致分辨率降低,是缺陷變多,良率下降的重要原因。

輝達的B200搭配了Grace CPU,2顆GPU搭配1顆Grace CPU,那麼50顆GPU,需要搭配25顆CPU。依照3nm製程計算,以CPU的Die Size和良率預估,一片晶圓可以切300顆左右的CPU晶片,這意味著一片GPU晶圓,需要搭配0.08片CPU晶圓。

目前3nm節點,每萬片晶圓的投資是2nm節點的70%,大致50億美元,也就是說投入71億美元生產10000片GPU晶圓的同時,還要對應投資71億美元×70%× 0.08,即4億美元,用於CPU晶圓的生產。

AI晶片的另一個重頭戲即HBM,輝達的H100、H200標配6顆,到Blackwell架構的B200,則採用了8顆HBM3e內存。依照台積電最新的路線圖,2026年,一顆GPU可以搭配12顆HBM內存,屆時HBM的規格也將從12層堆疊的HBM3e,升級至16層堆疊的HBM4/4e。

如前文所述,2nm晶圓可以切出50顆GPU邏輯晶片,依照B200的標準,每片晶圓需要搭配400顆HBM3e記憶體。目前,1gamma製程的DRAM晶片,每片晶圓大概可以出1200顆DRAM顆粒,而按照85%的良率計算,最終可以得到1000顆DRAM顆粒,之後要將這些DRAM顆粒封裝成12層堆疊的HBM3e內存。目前,封裝的良率大概在80%左右,也就是一片DRAM晶圓可以出1000÷12*80%,約等於70顆左右12層堆疊的HBM3e記憶體。

也就是說,一片GPU晶圓,除了需要0.08片CPU晶圓,還需要5.7片DRAM晶圓。未來隨著GPU邏輯晶片搭配HBM顆粒數進一步增加,尤其是堆疊數量從12層提升到16層,GPU:DRAM晶圓1:5.7的比例,還會進一步擴大。

依照現有先進封裝的中介層尺寸,一片晶圓可以完成15顆GPU邏輯晶片的封裝,對應一片GPU邏輯晶片的晶圓,需要3.3片晶圓的先進封裝

每萬片晶圓產能,不同晶圓廠的建廠投資總額,單位:美元


一句話總結:每10000片GPU晶圓,需要800片CPU晶圓,5.7萬片DRAM晶圓,3.3萬片中介層晶圓,3.3萬片SoIC+CoWoS先進封裝,5.7萬片HBM封裝,對應的投資金額,即1*71+0.08*50+5.7*60+3.3*10+3.3*8+5.7*10≈476億美元。

每10,000片GPU晶圓所有配套晶片的生產工廠需要耗費476億美元,加上其他雜七雜八費用直接算整數為500億美元,換算成GPU晶片數量,為每月50萬顆,一年600萬顆。


8年半可以燒完7兆美元

投資500億美元,一年生產600萬顆GPU,這是什麼概念?可以根據台積電CoWoS產能,來計算全世界的AI GPU的量,然後再進行比較。

2024年,台積電CoWoS總共31萬片的產能,其中95%都是給AI GPU,只有一萬多片是給Xilinx的FPGA,剩下的近30萬片被輝達、AMD以及全球互聯網大廠諸如穀歌,AWS,Meta,Mircosoft的自研ASIC晶片瓜分。

也就是說,台積電CoWoS產能代表全世界AI晶片產能,2024年80%的GPU還是只使用2.5D CoWoS,輝達的H100大約是每片29顆,其他自研ASIC則都高於這個標準,有的還超過40顆,目前只有AMD的MI300使用SoIC封裝,每片約15顆。

綜合下來,今年台積電30萬片CoWoS產能,對應約1000萬顆GPU,也就是2024年全球AI GPU的大致總量。前面提到,投入500億美元,每年可生產600萬顆GPU,也就是說,在2024年,想要生產滿足全世界需求的1,000萬顆AI GPU,總投入需要830億美元。這個水準相當於台積電2-3年的資本支出,也大概是台積電Fab20A,一座月產12萬片的2nm晶片工廠的總投資額。

投入830億美元,就能生產出2024年全世界所需的AI晶片,想要把奧特曼的7兆美元花完,還有很多工作要做,畢竟830億美元也只是建造晶片工廠的費用。

晶片廠、DRAM廠、封裝廠都蓋完之後,就要考慮生產伺服器的工廠建設,還得蓋許多座類似工業富聯的這樣的工廠,不過這類伺服器組裝工廠與晶片工廠相比來說,只是小巫見大巫,把AI伺服器所有產業鏈上的工廠全部建設起來,包含伺服器,光模組,液冷,銅線材,各式各樣的模具廠,年產1000萬顆GPU,按單一伺服器8顆GPU算,即120萬台伺服器,所有下游工廠的總投資額大致為170億美元。加上上游晶片工廠的830億美元,1000億美元則是2024年全球所有AI 晶片+伺服器出貨量所需的工廠建設總成本。

上下游工廠建設只是開端,製程還需要持續的研發投入,包括設計、製造相關的研發費用,涵蓋GPU、CPU、HBM、先進封裝等等環節,這部分可以包裝一下輝達、AMD、台積電、SK海力士的研發總額,大致300億美元。再加上伺服器硬體研發、例如光模組、也冷等等,研發部分的費用滿打滿算可以達到500億美元。

而對於OpenAI,在推進AGI的路上,也需要持續的進行模型研發投入,每年在這上面的費用至少200億美元。

晶片部分的研發+AI部分的研發,每年的總投入至少在700億美元,如果要更快入的推進,加大研發投入是必然,所有推進AGI終極目標的研發投入,每年估算需加大投入到1000億美元。

以上的研發費用還不包括訓練費用,且訓練需要大量的水力發電資源消耗,這部分基礎設施同樣需要自建。

歐美地區目前建造1KW核電機組的成本約4000美元,每百萬千瓦的核電機組一年發電量約為8.6億度電,根據IEA(國際能源協會)計算,2027年全球人工智慧將耗費1340億度電,所以要建造155組百萬千瓦的核能機組,這需要6000億美元左右。

根據加州大學河濱分校的研究,2027年人工智慧將耗費66億立方公尺的清潔淡水,大約是全英國一半的用水量,主要場景來自於伺服器的冷卻,發電以及晶片製造這三大耗水環節,興建相應的水處理廠費用約為1000億美元。

相較於前面的投資,製造環節的人力成本規模相對較小,重頭戲主要在晶片的設計,包括模型研發部分。

前段晶圓廠把人力配置拉滿, 每萬片約需要1000人,後段約1500人,2000萬顆GPU年產能的所有前段工廠(含DRAM,中介層等)大約需要2萬人,人均年芯為15萬美元,後段封裝需要3萬人,人均年薪約7萬美元,加上5,000名各類晶片製造研發人員,人均20萬美元,每年晶片製造的人員薪資費用總共60億美元。

晶片設計以及大語言模型的人力成本方面,以輝達+OpenAI+微軟伺服器部門的1.5倍計算,約為5萬人,人均年薪30萬美元,共150億美元涉及伺服器所有硬體製造的工廠人數為15萬人,電力以及用水保障設施人員15萬人,共30萬人,人均年薪8萬美元,總共240億美元。

以上所有環節,人力薪資成本為每年60億+150億+240億共450億美元。

物料成本方面,GPU及相關晶片,再加上所有伺服器硬體的成本為2,000美元/顆,每年2,000萬顆,即400億美元。伺服器的營運費用方面,人工420億美元+物料成本400億美元+其他雜費180億美元,取整數1000億美元。

OpenAI年產2000萬顆GPU的投資額及各項費用推算,單位:美元


以上即奧特曼親自下場造芯涉及到的主要環節的費用的拆解,如果替奧特曼花這筆錢,理想的方案是:2000億美元建設年產2000萬顆GPU(2024年全球約1000萬顆)以及涉及所有伺服器硬體的製造工廠,然後為了推進AGI的終極目標每年投入1000億美元的研發投入,相關設計、研發、製造總人力成本1000億美元,投資7000億建設能源以及用水的基礎設施,同時編列2000億美元現金應付稅費以及各種雜費或者沒有計算到的費用,最後保留4000億美元作為可能漏算的預備金,如此一來,大約需要1.7萬億美元,就可以覆蓋2000萬顆AI GPU所有製造工廠的啟動資金。

營運資金方面,要維持每年1000億美元的晶片以及硬體新產能投入,並持續推進摩爾定律,提升電晶體密度。每年新增2000億美元的新電力及新用水投入,再加上人工以及物料等每年約1000億美元,這樣的話,每年的極限是新增7000億美元的營運費用。

如此一來,不到2兆美元即可涵蓋2024年全球AI晶片需求量兩倍的所有相關製造,能源基礎設施和營運費用,每年新增控制在7000億美元的水平,這筆預算大致可以再燒7.5年。

怒砸2兆美元,擁有全世界AI GPU兩倍產能,奧特曼也無法壟斷全球人工智慧-OpenAI的模式領先全球,建立在以台積電為代表的全球最先進的晶片製造,以及以輝達為代表的GPU晶片設計的基礎之上,如果奧特曼另起爐灶,全方位生產AI晶片,幾乎是得罪了目前全球的晶片企業。

作為“舊勢力”,台積電、輝達以及眾多晶片設計公司,有可能會扶持OpenAI的所有競爭對手,包括矽谷乃至於全球的大大小小做大模型以及AI應用的企業,諸如老對手DeepMind加上谷歌,AWS,Mircosoft等巨頭,以及Stability、OpenAI前創辦人成立的Anthropic等創企。

即便OpenAI的晶片設計與製造能力與台積電、輝達相當,面對全球所有大小模型與演算法的一眾企業,本身就不一定有絕對優勢,更何況帶著7萬億下場造晶片,站在輝達、台積電的對立面。

客觀地說,如果不考慮生態,GPU設計公司倒不是那麼無可取代。在GPU設計上,沒有輝達還有AMD,甚至還有Cerebras這類設計整片晶圓面積遠遠超過傳統GPU的AI晶片設計公司,但在晶片製造上,目前台積電呈現一騎絕塵的態勢。

以2024年為例,台積電可生產每平方毫米高達2.84億電晶體密度的N3P工藝,排名第二的英特爾還只能生產每平方毫米1.8億電晶體的Intel 4,第一跟第二之間已經出現了代差,如果在最高性能的晶片上不使用台積電工藝,在基礎上就落後競爭對手一個世代。

晶片製造無法用錢堆砌,更需要技術累積的產業,往死裡砸錢砸人,最快也要三年才能建設好晶片工廠並生產出晶片,對OpenAI來說,假設「7兆」真實存在,面對「舊勢力」的反撲,也至少要撐過這三年。(芯榜+)

文/ 前台積電建廠專家Leslie Wu(公眾號:梓豪談芯 )