#輝達GPU
美銀分析:輝達GPU技術超前,H200未來收入仍存不確定性
美銀本周舉辦了輝達(NVDA)投資者關係部門的 Toshiya Hari 線上投資者會議,核心要點如下:1)輝達 GPU 仍領先競爭對手整整一代 —— 目前已推出的基於 GPU 的大語言模型(LLM)均採用舊款 Hopper 架構訓練,而非 Blackwell 架構(基於該架構的大語言模型將於 2026 年初推出),後者相較前代性能提升 10-15 倍;2)下一代 Vera Rubin 架構按計畫將於 2026 年下半年推出,路線圖未發生變化;預填充推理 CPX 版本同樣按計畫推進,預計 2026 年第四季度發佈;3)Google仍是輝達的核心客戶,且合作規模持續擴大,所有模型開發者仍在使用輝達的產品;4)輝達對 2025-2026 年(日歷年)至少 5000 億美元的銷售額展望具備供需端可見性,與 OpenAI、Anthropic 的合作將帶來額外增量;5)已推出 5 年的 Ampere 架構 GPU 在客戶端仍保持近 100% 的利用率,GPU 5-6 年的折舊 / 使用壽命設定合理;6)輝達的核心競爭優勢在於與客戶的協同設計能力,其打造的端到端平台涵蓋 CPU、GPU、縱向擴展、橫向擴展、跨場景擴展及軟體(CUDA 庫)—— 這一優勢無人能複製;7)中國市場及 H200 GPU 相關影響目前尚難以評估;8)儘管儲存成本上漲,公司仍維持 70% 左右的毛利率展望不變。與此同時,美銀仍認為,輝達 2026/2027 年(日歷年)預期市盈率分別為 25 倍 / 19 倍,這一估值具備較強吸引力 —— 其市盈率相對盈利增長率(PEG 比率)僅約 0.5 倍,而同期 Mag-7 成分股及其他成長型同行的 PEG 比率約為 2 倍。美銀維持對輝達的 “買入” 評級,將其列為首選標的,目標價 275 美元。輝達仍領先競爭對手整整一代儘管GoogleGemini3 是目前頂尖的大語言模型且基於 TPU 訓練,但輝達認為目前判定勝負為時尚早。關鍵在於,當前已推出的基於 GPU 的大語言模型均採用 2022 年發佈的舊款 Hopper 架構產品訓練,與即將推出的基於 2024 年 Blackwell 架構 GPU 訓練的大語言模型無可比性。基於 Blackwell 架構的模型將於 2026 年初開始逐步推出,輝達認為屆時其至少領先競爭對手整整一代的優勢將明確顯現。此外,MLPerf、InferenceMAX 等多數外部基準測試顯示,Blackwell 架構在訓練和推理領域均處於絕對領先地位,輝達在每瓦令牌數和每令牌收入兩項關鍵指標上均保持領先。2026 年前至少 5000 億美元銷售額具備可見性輝達重申,公司對 2025-2026 年(日歷年)Blackwell/Rubin/ 網路業務類股至少 5000 億美元的銷售額展望具備供需端可見性。輝達近期與 OpenAI 及 Anthropic /微軟達成的合作(每採購 / 部署 1GW 算力,輝達將投入 100 億美元資金)將為這 5000 億美元銷售額帶來額外增量 —— 這些合作目前為意向書(LOI)形式,有望成為業績上行的潛在驅動力。需注意的是,Blackwell 世代資料中心基礎設施的輝達相關產品價值約為 300 億美元 / GW,Rubin 世代這一數值將更高。中國市場及 H200 GPU 影響尚難量化關於川普政府近期擬重新允許向中國出售 H200 GPU 的立場,輝達認為目前評估或量化其影響為時尚早。輝達尚未獲得正式許可,後續還需明確三大問題:中國客戶的實際需求、公司供應鏈端的產能建設速度及規模、監管機構的相關許可情況。美國政府要求的 25% 相關削減比例具體計算方式尚不明確,但美銀認為,此舉更可能導致公司銷貨成本(COGS)上升,而非收入下滑。 (騰訊自選股)
H200獲批出口中國,輝達GPU:迎來新爭議
據川普最新社交媒體消息透露,美國政府計畫允許輝達(Nvidia)對華出口其H200晶片,這是這家AI晶片設計公司為維持其在世界第二大經濟體的市場准入所做努力的最新轉折。美國商務部計畫批准許可,允許輝達向中國出售其H200。其中一位知情人士稱,該晶片的性能高於此前獲准銷售的H20,但不如該公司今年發佈的頂級Blackwell產品,也不如明年將推出的Rubin系列晶片。值得一提的是,後面這兩款產品還是在限製出售名單裡。知情人士稱,此舉是在美國總統川普與輝達首席執行長黃仁勳(Jensen Huang)上周會晤之後做出的,兩人在會晤中討論了H200的出口問題。熟悉相關討論的知情人士稱,包括AI總監大衛·薩克斯(David Sacks)和商務部長霍華德·盧特尼克(Howard Lutnick)在內的一些官員支援出口H200,因為這可能是一個很好的折衷方案,既能讓輝達與中國公司競爭,又不會讓中國在AI領域超越美國。今年早些時候,川普政府批准對華出口H20,作為交換,銷售額的15%將上繳美國政府,但中國方面卻以所謂的安全擔憂為由,告知本國公司不要使用這些晶片。一些分析師認為,中方的這一資訊是一種談判策略,目的是為了獲得像H200這樣更好的晶片。目前尚不清楚這項15%的協議是否會適用於H200的銷售。智庫Institute for Progress估計,H200的性能幾乎是H20的六倍。輝達新一代產品的性能通常會有巨大提升。拜登政府對關鍵晶片實施了出口限制,許多分析師認為這些限制措施限制了中國國內半導體和AI能力的發展。投資者將關注中國對H200預期獲批的反應,以及美國能獲得什麼回報(如果有的話)。此舉可能為輝達帶來數以十億美元計的銷售額,並幫助那些一直難以獲得頂級晶片來訓練其模型的中國科技巨頭。黃仁勳稱,應允許輝達在中國市場競爭,因為中國擁有許多世界頂尖的AI研究人員,而美國應該希望他們使用美國技術。黃仁勳也明確表示,中國的AI需求規模使該國對輝達的未來至關重要。黃仁勳上周在智庫戰略與國際問題研究中心(CSIS)的一場活動上說:“你無法取代中國。”毫無疑問,在H200出口中國的問題上,黃仁勳獲得了勝利。但對輝達來說,還有另外的問題需要應對。一位博主質疑GPU出貨量在社交媒體上,有一位自稱律師的博主Kakashii一直對輝達的GPU有很多的質疑。最近,他在論壇上發表了一篇詳細的帖子,引發了人們對輝達最新一代 GPU 的重新審視。在文章中,Kakashii質疑了黃仁勳關於 Blackwell GPU 已出貨 600 萬塊的說法。據CNBC報導,黃仁勳在 2025 年 10 月表示,對輝達晶片的需求仍在激增,並指出該公司在過去四個季度中已出貨 600 萬塊 Blackwell GPU 。當時,他還表示,輝達預計Blackwell 系列和明年的Rubin系列GPU 的總銷售額將達到 5000 億美元。根據 Kakashii 在 X 上分享的分析,自 Blackwell 發佈以來,輝達報告的 1110 億美中繼資料中心收入似乎與該出貨量不符。即使考慮到輝達在 2024 年第四季度 Blackwell 營收中披露的超過 100 億美元的收入,該帖子認為這些數字僅代表大約 400 萬台裝置,留下了數十萬到數百萬台 GPU 的潛在缺口。以下為該博主的原文摘譯:由於 Blackwell 推出,輝達報告 GPU 資料中心收入達到 1110億美元。如果簡單計算,自 Blackwell 開始出貨以來,資料中心報告的 1110 億美元收入中 600 萬塊 Blackwell GPU 並不匹配,因為這只代表 250 萬到 350 萬顆 Blackwell 晶片。讓我們試著幫輝達,把他們 2024 年第四季度報告的“Blackwell 收入超過 100 億”加起來。這使得總收入超過 1210 億美元。超過 100億 的晶片數量大約是 25 萬到 33 萬,理想情況下,這讓我們擁有近 400 萬塊 Blackwell GPU,但還是不匹配。好,我們再試一次計算。我們再假設黃仁勳說的是實話,他指的是所有細分市場中Blackwell 晶片的總銷量。這意味著 250 萬到 350 萬塊 Blackwell 晶片收入歸入 1110億,而剩餘的 350 萬到 250 萬塊則用於遊戲及其他細分領域。因為我們相信 Jensen,並且試圖找出我的計算不符的地方,我假設他指的是所有細分市場,也就是所有出貨 GPU 的 20%,而另外 80%用於資料中心。這意味著即使我們把輝達在 Blackwell 的第四季度收入算進去,假設 80%流向資料中心,我們還有 50 萬到 80 萬塊 GPU 的差距。但還是不匹配。為了印證這個說法,Kakashii又從能源方面進行了說明。如他所說,黃仁勳曾表示,自 2025 年 1 月以來,輝達已經出貨了 600 萬塊 Blackwell GPU。大約 65%到 70%的 GPU 會送到美國的資料中心。要為這 600 萬 GPU 中 65%到 70%(約 390 萬到 420 萬 GPU)供電,你需要大約 85吉瓦(gigawatts :GW)) 到 11 吉瓦的資料中心容量。(供參考,這個發電量大致相當於新加坡的總發電能力,或大約十座標準核反應堆。)2024年至2025年間,美國在2024年建成了3.8至4.2吉瓦,2025年估計為4.5至5.0吉瓦,合計8.5吉瓦(先不考慮因電力延遲,實際交付的約一半在日歷年內完成)。所以我們充其量只有 8.5 GW的大量,這大致是為美國所有 Blackwell 晶片供電的最低限度。只有當我們假設美國只有配備 Nvidia 晶片的資料中心(不包括 AMD、TPU 及其他沒有 Nvidia 的資料中心),並且只有 Blackwell 在 2024 年建成的資料中心中安裝過,並且他們是在等待 2025 年 Blackwell 晶片執行階段,數學才是相符的。根據聯邦能源監管委員會(FERC)的資料,美國在 2025 年 1 月至 8 月間安裝了近 26 吉瓦的新發電容量,略高於去年同期的約 23 吉瓦。在26吉瓦中,3吉瓦為風能,3.7吉瓦天然氣,20吉瓦太陽能,0吉瓦核能。我會相信Jensen,因為在這篇文章裡,我們只是相信Jensen的話:未來6到7年,我們將看到一堆小型核反應堆,我們都會成為發電廠,就像某個人的農場一樣。所以我假設他指的是從2026年1月開始,因為到目前為止,美國在2025年部署的核能是0吉瓦的。這意味著,如果所有已建成、部署並計畫今年年底完工的資料中心都按時完工,那麼僅從數字上(簡單計算,我不清楚實際分配情況)來看,今年所有建成的天然氣都分配給了資料中心消費,其中約80%的風能或約25%的太陽能。大空頭Burry 的出擊上周末,因預測 2008 年房地產崩盤而名聲大噪的投資者麥可·貝瑞(Michael Burry)要求提供輝達公司囤積GPU 的證據。其實早在2023年和2024年,貝瑞就曾警告投資者不要對科技行業過度樂觀。這些警告並未點名批評輝達,而是以評論估值、利率和投機等話題的形式在市場上廣泛傳播。公眾仍然將他與宏觀經濟的悲觀論調聯絡在一起,而不是與人工智慧經濟學聯絡起來。到2024年底,形勢開始轉變。海外監管檔案顯示,Michael Burry主導的Scion Asset Management買入了大量與輝達和Palantir掛鉤的看跌期權。這筆交易低調、規模異常,而且出手較早。他當時並未與輝達發生衝突,而是押注人工智慧的發展將會遭遇阻力。2025年11月,貝瑞詳細闡述了他認為目前對人工智慧熱潮理解方式存在的根本性缺陷。他的論點涵蓋了會計選擇、成本假設、企業激勵機制以及高資本支出技術周期的心理因素。這些缺陷並非僅限於輝達,但該公司處於風口浪尖,因為它提供了推動這場競賽的硬體。他的擔憂很快引起了輝達的重視並做出了回應。貝瑞觀點的核心在於人工智慧硬體的使用壽命。購買先進GPU的公司通常會將這些資產按年折舊。這種折舊方式可以將成本分攤到不同時期,從而降低短期支出並提高帳面收益。貝瑞認為這種做法掩蓋了經濟真相。他認為人工智慧硬體的更新換代速度太快,不值得採用如此長的折舊周期。他估計,更合理的使用壽命可能接近三年。這種差異至關重要,因為這些晶片價格昂貴。較長的折舊期會降低每個季度的帳面成本。較短的折舊期則會降低許多人工智慧採用者的收益,並縮小其人工智慧投資的表面回報。如果這些公司指望使用壽命只有一半的資產來獲得六年的生產力,那麼它們的實際利潤率可能遠低於表面值。這並非欺詐指控,而是關於發展速度的爭論。人工智慧硬體發展日新月異,今天發佈的晶片很快就會與後續產品展開競爭。如果折舊計畫與這一現實不符,最終會導致資產減值或新採購熱情下降。貝瑞的分析認為,這種差距可能在2026年至2028年期間顯現。對於一家依賴客戶快速積極採購的公司而言,增長放緩的影響可能非常顯著。一些最具爭議的評論涉及供應商融資或循環融資的概念。像吉姆·查諾斯這樣的分析師也表達了類似的擔憂,即人工智慧生態系統中可能存在一些激勵機制或融資結構,會人為地製造需求。在這種觀點看來,受益於人工智慧基礎設施增長的公司可能以某種方式幫助買家抬高了當前的銷售額。輝達對此予以堅決否認。該公司聲明,它不會參與此類行為,其需求源於真實、獨立的購買決策。這場爭論持續不斷,是因為供應商融資模式在其他行業早已存在。當需求激增時,一些公司會為客戶提供支援以維持增長勢頭。人工智慧領域是否存在類似模式仍不確定。在沒有證據的情況下,這場爭論仍然停留在懷疑與否認的層面。未來任何證實都將產生重大影響。目前,這仍然是更廣泛討論中一個懸而未決的問題。投資者現在都在密切關注各種跡象。超大規模資料中心營運商在裝置使用壽命和減值方面的決策至關重要。人工智慧資本支出的速度至關重要。是否存在任何融資安排也至關重要。問題不在於人工智慧是否會繼續成為技術領域的核心,而在於當前的支出速度是否與長期價值創造相匹配。人工智慧晶片折舊速度引發的會計風波在今天,華爾街日報也發佈了一個文章,探討了人工智慧晶片折舊速度引發的會計風波。WSJ表示,關於輝達的會計處理方式,一場爭論正在激烈進行。他們指出,科技公司正在斥巨資研發晶片和其他裝置。這一次,一些人工智慧公司的批評者可能有些言過其實了。投資者很少會對固定資產的合理折舊時間表這樣看似平淡無奇的話題如此關注。但當少數幾家全球最大的公司在人工智慧基礎設施上的投入高達數千億美元時,市場自然會密切關注。在2015年電影《大空頭》中由克里斯蒂安·貝爾飾演的著名投資經理麥可·貝瑞,最近又火上澆油。他在上個月的一篇文章中寫道:“延長資產使用壽命可以減少折舊費用,增加表面利潤。這是現代最常見的欺詐手段之一,會導致資產估值過高和利潤虛增。”“無論這種批評是否合理,我們都需要從不同的角度看待它。”WSJ表示。例如,今年Meta Platforms公司將其大部分伺服器和網路資產的預計使用壽命延長至5.5年。此前,該公司曾表示其預計使用壽命為4至5年。而就在2020年,Meta還表示其預計使用壽命最短僅為3年。Meta公司表示,最新延期使其2025年前九個月的折舊費用減少了23億美元。這筆金額不小。但為了更直觀地理解其規模,該公司此前的折舊總費用接近130億美元,而稅前利潤則超過600億美元。Alphabet、微軟以及亞馬遜等公司對類似資產的使用壽命也比五年前更長。Alphabet 和微軟的使用壽命均為六年,高於 2020 年的三年。亞馬遜在 2020 年採用的是四年,並計畫到 2024 年延長至六年,但今年將部分伺服器和網路裝置的使用壽命縮短至五年。華爾街日報指出,公司將折舊費用計入損益,是因為其固定資產最終會損耗或過時。這種做法確保資本投資成本能夠隨著時間的推移在財務報表中得到確認。管理層的任務是選擇一個年限,逐步將這些折舊費用攤銷出去。多年來,大型科技公司延長其正在折舊的資產的使用壽命,一直備受投資者關注。這不難理解,因為這樣做可以將費用轉移到未來,從而提高當期收益。管理層僅僅通過修改會計估算,就能輕而易舉地將年度收益增加數十億美元,這種做法即便稱得上大膽,也顯得過於激進。但歸根結底,更重要的問題或許不在於合適的折舊年限,而在於合適的折舊方法。目前普遍採用的是直線法,即對同一筆購置的資產,每年的折舊費用都相同。然而,某些類型的資產價值在早期會急劇下降,然後趨於穩定,並沿著可預測的曲線緩慢下降。例如,據追蹤輝達晶片價格的Silicon Data公司稱,最近一台使用三年的H100系統的平均轉售價格約為全新H100價格的45%。在這種情況下,所謂的加速折舊法可能比直線折舊法更能反映經濟現實。採用六年折舊期,折舊費用在經濟效益消耗較快的初期會較高,而在後期則會較低。不過,在這種情況下,差別不會太大。如果採用直線折舊法,第三年的累計折舊額將不到購買價格的一半。如果採用加速折舊法,累計折舊額會略高於一半。而大型人工智慧超大規模資料中心的投資者們也深知,任何對當前投資高回報的預期都需數年之後才能實現。從根本上講,公司財務報表中的大多數數字都是基於估計、猜測和假設。折舊這項費用也是一種人為建構的概念,就像會計中的許多其他概念一樣。精確性是罕見的。沒有人能夠確切地知道一家公司的固定資產每年貶值多少。公司管理層可能並不清楚特定資產的使用壽命,尤其是一些高需求的技術裝置。如果資產價值嚴重受損,管理層理應計提更大額的減值準備。但通常情況下,減值準備只有在公司股價暴跌之後才會進行,而“七俠蕩寇志”顯然並非如此。如果投資者將來認為大量人工智慧投資被浪費了,那並非因為企業選擇的折舊方法。儘管人們有充分的理由質疑科技巨頭如何為其人工智慧投資進行會計核算,但折舊之爭並不會改變最終結果。 (半導體行業觀察)
算力帝國的裂痕:Google TPU 戰略如何重構輝達的“兆護城河”
引言:從“房中大象”到“門口野蠻人”過去十年,AI 算力幾乎等於“輝達 + CUDA”。從深度學習興起到大模型時代,H100/H200 乃至 Blackwell B200/B300 已經成為行業默認標準,訓練與推理基準幾乎都圍繞輝達的 GPU 來定義。資本市場也早就給了輝達“帝國級”的定價:市值長期錨定全球 AI 投資預期,下圖是 NVIDIA 的股價走勢,可以直觀看到這家公司的戰略地位——反觀Google,在很長的一段時間裡,Google的 TPU 就像房間裡的大象,雖然體量巨大,但因為僅供內部使用,並未直接在公開市場與輝達拼刺刀。然而,2024 年至 2025 年的種種跡象表明,Google的戰略發生了根本性轉變:TPU 不再僅僅是Google的成本控制工具,而是正在變成一種攻擊性的商業武器。Google基於 TPU 的“AI Hypercomputer”體系,從內部支撐 Gemini、Search、Maps 等上億使用者級產品,逐步走向對外商用,甚至推出第七代 Ironwood TPU,單 pod 算力已公開對標並宣稱超過輝達 GB300 平台。近年來TPU發展的幾個關鍵節點是:TPUv5e:面向中等規模訓練與大規模推理的“性價比版本”,Google 在 2023 年 Cloud Next 上宣佈 GA,被產業研究普遍認為在 <200B 參數模型區間具有顯著的性價比優勢。TPUv5p + AI Hypercomputer:v5p 作為高性能版本,構成 Google “AI Hypercomputer” 的核心,強調網路、儲存、調度的端到端最佳化,而不是只賣單塊晶片。Ironwood(第 7 代 TPU):最新一代 Ironwood TPU 單晶片提供約 4,614 FP8 TFLOPS,192GB HBM3E,並可在一個 pod 中擴展到 9,216 顆 TPU,總計 42.5 FP8 ExaFLOPS,Google 甚至公開聲稱其訓練與推理 pod 性能超越輝達 GB300 NVL72 平台。TPU 已經從“能用的專用加速器”演進為“面向大模型時代的完整算力平台”,並且開始出現與輝達在同一維度,比如ExaFLOPS、FP8、HBM 容量等指標直接對標的宣傳。一、 商業模式的降維打擊:垂直整合 vs. 水平分發輝達的商業模式雖然暴利,但目前來看本質上仍是硬體銷售商。它依賴台積電代工,通過高昂的毛利率(75%+)賺取利潤,再通過 CUDA 鎖定客戶。而Google的 TPU 業務並不是為了賣晶片賺錢,它是為了降低整個Google生態的單位計算成本(Unit Compute Cost)。1. 利潤中心的轉移輝達的邏輯: 晶片本身就是利潤來源。因此,它必須不斷推高單卡性能和價格,以維持高股價。Google的邏輯: 一開始,Google認為晶片是成本中心,而非利潤中心。TPU 越便宜、越高效,Google的搜尋、廣告和雲服務利潤就越高。這種“羊毛出在豬身上”的打擊是致命的——Google可以用接近成本價的算力來支撐其 AI 服務,而輝達的客戶必須支付高昂的硬體溢價。2. 系統級效率的碾壓輝達必須設計通用的 GPU 來適應戴爾、惠普、聯想等成千上萬種伺服器環境。而Google的 TPU 從設計之初就是為了插在Google自訂的資料中心機架上,配合Google自研的光路交換機(OCS)和液冷系統。洞察: 這種“量身定製”帶來了極致的系統級 TCO——總擁有成本。據分析,在同等算力規模下,TPU 叢集的建設成本和電力消耗往往比輝達方案低 30%-50%。這不僅僅是省錢,更是Google雲(GCP)在 AI 基礎設施定價戰中的核武器。在大模型時代,真正的戰場已經從“誰的單卡更快”轉向“誰能在同樣電費和機房成本下提供更多 token/s 與更低延時”。在這一點上,TPU 對輝達的威脅是真實存在的。二、 生態戰:瓦解 CUDA 的“軟”圍剿輝達最堅固的堡壘不是 GPU,而是 CUDA。Google深知直接再造一個 CUDA 是不可能的,因此它選擇了“升維攻擊”。1. 軟體抽象層的去特定化Google大力推廣 JAX 框架和 XLA (Accelerated Linear Algebra) 編譯器。它們的戰略意圖非常明確:將底層硬體商品化。在 PyTorch/XLA 的架構下,開發者只需寫一次程式碼,編譯器就會自動將其翻譯成適合 GPU 或 TPU 的指令。後果: 一旦程式碼與硬體解耦,輝達 GPU 就從“不可替代品”變成了“可替換的算力通貨”。這對輝達的高溢價定價權是釜底抽薪。2. 建立反輝達聯盟Google正在將其 TPU 算力變為一種戰略資源,與其投資的 AI 獨角獸進行繫結。案例: Google重注Anthropic,目前來看,Anthropic、Lightricks 等第三方公司已經在新一代 TPU/AI Hypercomputer 平台上訓練和部署模型,並公開反饋成本與性能收益。有分析指出,大規模推理場景下,某些工作負載從輝達 GPU 遷移到 TPU,可獲得約 4.7 倍的性價比提升和約 67% 的功耗降低。傳聞中的 Meta 合作: 近期有市場傳聞稱,Meta 正在考慮引入 TPU 算力作為其自研晶片(MTIA)之外的補充。如果連輝達的大的客戶(Meta)都開始擁抱 TPU,輝達的營收基本盤將產生裂痕。這意味著 TPU 不再只是Google內部“吃自家狗糧”的項目,而是被越來越多雲端客戶視作對標輝達的現實選項。不過也受限於其只能在 Google Cloud 上“租”,不能隨處“買”,以及GPU 的通用性仍然難以撼動,TPU 可以在“頭部大模型算力”這塊蛋糕上搶份額,但在整個 AI+HPC 大盤裡,輝達通用 GPU 的剛性需求仍然存在。三、 市場周期的逆轉:推理時代的王牌過去五年是“大模型訓練”的時代,通用性極強的 GPU 是絕對王者。但未來五年將是“大模型推理”的時代,這正是專用晶片(ASIC)的主場。訓練(Training): 需要極高的靈活性,不斷嘗試新演算法。輝達佔優。推理(Inference): 演算法已定型,需要極致的能效比和低延遲。TPU 佔優。隨著 ChatGPT、Gemini 等應用的大規模普及,推理算力的需求將遠超訓練。Google TPU 憑藉專為 Transformer 架構最佳化的脈動陣列設計,在處理大規模並行推理時,擁有比 GPU 更高的“每瓦特性能(Performance per Watt)”。這意味著,全球 AI 算力需求越是爆發,Google相對於輝達的成本優勢就越明顯。四、 對輝達帶來的深層挑戰TPU 對輝達的衝擊,遠不止市場份額的蠶食。定價權的喪失: 過去,輝達擁有絕對的定價權,比如H100 即使賣 3 萬美元也有人搶。但現在,TPU v5p/v6/Ironwood 的存在為市場提供了一個“價格錨點”。如果輝達溢價過高,雲廠商和巨頭就會倒向自研或租用 TPU。TPU 實質上成為了 AI 算力市場的“調節閥”,限制了輝達無休止漲價的能力。客戶關係的異化: 輝達正在推出 DGX Cloud,直接向終端企業出售算力服務。這讓輝達從Google、亞馬遜的供應商,變成了它們的直接競爭對手。這種“既當裁判又當運動員”的行為,迫使Google更堅定地通過 TPU 建構自己的獨立王國,加速了雙方的分道揚鑣。人才與創新的分流: TPU 的成功證明了 ASIC 路線的可行性,這激勵了微軟(Maia)、亞馬遜(Trainium)甚至 OpenAI 都在招募晶片團隊。Google作為“黃埔軍校”,培養的大量定製晶片人才正在向全行業擴散,最終形成一個龐大的“非輝達晶片聯盟”。五、 未來的展望:雙寡頭格局的形成我們不會看到 TPU 徹底消滅 GPU,正如 iOS 沒有消滅 Android。TPU 更深層的影響,是加速整個行業走向“多極算力秩序”,未來大機率會形成一種“二元算力的結構”:輝達的領地: 前沿探索、科學計算、中小企業市場、以及對靈活性要求極高的初創訓練任務。它依然是 AI 界的“軍火商”。Google TPU 的領地: 超大規模模型的訓練與推理、全球性 AI 服務的基礎設施。它將成為 AI 界的“水電站”。結論: Google TPU 對輝達的最大衝擊,在於它打破了“AI 發展必須向輝達交稅”的鐵律。通過將晶片、系統、軟體和業務深度捆綁,Google證明了在兆級算力時代統級的垂直整合才能產生極致的效益。如果說輝達過去幾年收的是“帝國稅”,那麼 TPU 和一眾專用加速器的崛起,本質上是一場關於電費、能效與議價權的革命。在這場革命裡,TPU 未必是最後的贏家,卻幾乎註定會是最重要的“攪局者”之一。 (AI Xploring)
這一戰,Google準備了十年
據報導,Google近期已在接觸那些主要租賃輝達晶片的小型雲服務提供商,敦促他們在其資料中心也託管Google自家的AI處理器,也就是TPU。Google已與至少一家雲服務提供商——總部位於倫敦的Fluidstack——達成協議,將在紐約的一個資料中心部署其TPU。Google的努力不止於此。據報導,該公司還向其他以輝達為核心的服務商尋求類似的合作,其中包括正在為OpenAI建造資料中心的Crusoe,以及向微軟租賃晶片並與OpenAI簽有供應合同的輝達“親兒子”CoreWeave。9月9日,花旗分析師因TPU競爭加劇將輝達目標價下調至200美元,預計2026年GPU銷售額將因此減少約120億美元。明眼人都能看出來的是,Google和輝達之間的大戰,已經開始了。而它們爭奪的,將是AI計算這個真正的兆美元市場。然而,Google對這一戰的準備,其實比我們想像的都要久。01 TPU,AI計算的最優解早在2006年,Google的內部就討論過在自家的資料中心中部署GPU、FPGA或ASIC的可能性。不過,當時只有少數應用程式能夠在這些特殊硬體上運行,而Google大型資料中心的過剩算力也完全夠它們使用了。因此,部署特殊硬體的計畫被擱置。然而,到了2013年,Google的研究人員發現:如果人們每天使用語音搜尋並通過深度神經網路進行3分鐘的語音識別,那麼當時Google的資料中心需要雙倍的算力才能滿足日益增長的計算需求。而如果僅通過擴巨量資料中心規模來滿足算力需求,不但耗時,而且成本高昂。於是,在這個背景下,Google開始了TPU的設計。Google的TPU是為AI計算而生的ASIC晶片,它專注於實現兩個核心目標:極高的矩陣乘法吞吐量與卓越的能效。為了實現高吞吐量,TPU在硬體層面採用了“脈動陣列”(Systolic Array)架構。該架構由大量簡單的處理單元(PE)構成網格。資料流從陣列的邊緣輸入,在每個時鐘周期同步地、一步步地流經相鄰的處理單元。每個單元執行一次乘法累加運算,並將中間結果直接傳遞給下一個。這種設計使得資料在陣列內部被高度復用,最大限度地減少了對高延遲、高功耗主記憶體的訪問,從而實現了驚人的處理速度。而其卓越能效的秘訣,則在於軟硬體協同的“提前編譯”(Ahead-of-Time Compilation)策略。傳統的通用晶片需要高能耗的快取來應對多樣的、不可預測的資料訪問。TPU則不同,它的編譯器在程式執行前就完整規劃好了所有資料路徑,這種確定性使其無需複雜的快取機制,從而大幅降低了能耗。在TPU的設計上,Google主導整體架構與功能定義,博通Broadcom參與了部分晶片的中後端設計工作,目前,Google TPU主要由台積電代工生產。隨著大語言模型參數的急劇擴張,AI計算任務正在從“訓練”走向“推理”。這時,作為通用算力單元的GPU,開始顯露出成本以及功耗過高的問題。而TPU從設計之初就專門瞄準了AI計算,具有很高的性價比優勢。據報導,GoogleTPU算力成本僅為OpenAI使用GPU成本的1/5,性能功耗比更是優於同代GPU。因此,為了抓住市場,Google圍繞著自己的TPU架構,打造了一系列產品與生態。02 Google造芯這十年Google第一代TPU (v1) 於2015年推出,通過高度簡化的專用設計,實現了超越同期CPU與GPU的能效比,並在AlphaGo等項目中展示了其高效能,從而驗證了AI ASIC的技術路徑。隨著研發深入,訓練環節的算力瓶頸日益凸顯,促使TPU的設計方向轉向系統級解決方案。2017年發佈的TPU v2為此引入了BF16資料格式以支援模型訓練,並配置了高頻寬記憶體(HBM)。更為關鍵的是,v2通過定製的高速網路將256個晶片單元互聯,首次建構了TPU Pod系統。隨後的TPU v3通過增加計算單元數量和引入大規模液冷技術,實現了性能的顯著提升。TPU v4的發佈帶來了互聯技術的重大革新,其核心是採用了光學電路交換(OCS)技術,實現了TPU Pod內部網路拓撲的動態重構,從而提升了大規模訓練任務的容錯能力與執行效率。進入v5與v6 (Trillium) 階段,TPU產品線呈現出分化策略,形成了分別側重於極致性能的'p'系列與能效比的'e'系列,以適應多樣化的AI應用場景。2025年Google TPU的全年出貨量預計為250萬片。v5系列總出貨量預計為190萬⽚,其中v5e佔⽐約120萬⽚,v5p佔⽐約70萬⽚, v6系列預計總出貨量為60萬⽚,⽬前僅v6e在市場上銷售,⽽v6p將在第四季度上市,約10-20萬⽚左右。預計到2026年,總體TPU銷量將超過300萬片。在今年的Google雲大會上,Google發佈了第七代TPU,代號“Ironwood”。Ironwood是Google迄今為止性能最強、能效最高且最節能的TPU晶片,其峰值算力達到4614 TFLOPs,記憶體容量為192GB,頻寬高達7.2 Tbps,每瓦峰值算力為29.3 TFLOPs。此外,Ironwood首次支援FP8計算格式,並在張量核和矩陣數學單元中實現這一功能,這使得其在處理大規模推理任務時更加高效。Ironwood最高配叢集可擁有9216個液冷晶片,峰值算力可達42.5 ExaFLOPS,是世界上最大的超級電腦El Capitan的24倍以上。其支援大規模平行處理和高效記憶體訪問,適用於複雜的推理任務如大型語言模型和混合專家模型。事實上,Ironwood的整體性能已經十分接近輝達B200,甚至在一些方面還有所超越。當然,輝達的統治力不僅在於其硬體性能,更在於整個CUDA生態。Google深知這一點,因此,它也建構了JAX這樣的,能在TPU上運行的高性能計算Python庫。Google還發佈了其模型流水線解決方案“Pathway”,用於向外部開發者訓練大型語言模型(LLM)。將其作為訓練模型的必備手冊,研究人員無需重新設計模型即可開發Gemini等LLM。有了上述的一整個“軍火庫“,Google終於可以和輝達掰掰手腕了。03 GoogleVS輝達投資銀行D.A. Davidson分析師Gil Luria在最新報告中指出,過去一年以來Google母公司Alphabet大幅縮小與輝達的差距,如今已成為“最好的輝達替代方案”。報告顯示,過去半年,圍繞Google Cloud TPU的開發者活躍度激增了約96%。Gil Luria與前沿AI實驗室的研究人員和工程師交流後發現,業內普遍看好GoogleTPU。因此Luria認為,若Google將TPU業務與DeepMind部門合併並將它們分拆上市,估值或將高達9000億美元。AI獨角獸Anthropic此前使用亞馬遜的Trainium晶片來訓練模型,最近,該公司被發現正在招聘TPU核心工程師;馬斯克旗下的人工智慧公司xAI也對採購TPU表現出興趣。這一切都說明了業界對於TPU的認可。而Google自身也在積極行動。首先,Google有意在公司內部進行從輝達GPU到自研TPU的迭代。Omdia資料顯示,2024年估計Google訂購16.9萬台Hopper 架構GPU,在五大雲廠商中排名最後,約為微軟的三分之一。同時,Google內部已部署了約150萬顆TPU。Google的對外戰略,就是文章開頭提到的,對那些使用輝達晶片的資料中心供應TPU。據報導,為了與Floydstack達成合作,Google將提供最高32億美元的備選擔保支援,若Fluidstack無力支付紐約新資料中心的租賃費用,Google將補足差額。根據野村證券最新報告,預計到2026年,ASIC總出貨量很可能會第一次超過GPU。而TPU正是目前最成熟的ASIC。輝達需要緊張起來了。04 結語市場對GoogleTPU的積極接受,反映出越來越多的公司想擺脫輝達“一卡難求“的困境,尋求更高的性價比和更多元、穩定的供應鏈。而借此機會挑戰輝達的,也不只有Google一家公司。供應鏈資料顯示,Meta將於2025年第四季度推出其首款ASIC晶片MTIA T-V1。它由博通設計,具有複雜的主機板架構,並採用液冷和風冷混合技術。到2026年年中,MTIA T-V1.5將進行進一步升級,晶片面積將翻倍,超過輝達下一代GPU Rubin的規格,其計算密度將直接接近輝達的 GB200 系統。2027年的MTIA T-V2可能會帶來更大規模的CoWoS封裝和高功率機架設計。報告指出,根據供應鏈估計,Meta的目標是到2025年底至2026年實現100萬至150萬件ASIC出貨量。微軟、亞馬遜同樣有自研的ASIC晶片,正在對這片被GPU霸佔的市場虎視眈眈。對此,輝達也有自己的反擊手段。今年5月,輝達正式發佈NVLink Fusion。NVLink Fusion允許資料中心將輝達GPU與第三方CPU或定製化AI加速器混合使用,標誌著輝達正式打破硬體生態壁壘。近日,輝達執行副總裁暨首席財務官Colette Kress在高盛組織的會議上談及了對於AISC晶片所帶來的競爭看法,稱輝達GPU更具性價比。一場大戲已經拉開了帷幕。無論是兆美元的市場規模,還是未來AI時代硬體結構的定義權,都值得幾大巨頭為之瘋狂。這一戰,誰都有不能輸的理由。 (環球老虎財經app)
Google的TPU vs輝達的GPU
Google 的TPU (Tensor Processing Unit)與NVIDIA GPU (Graphics Processing Unit)的對決,本質上是“專用定製晶片 (ASIC)”與“通用平行計算晶片 (GPGPU)”之間的路線之爭。這也是目前 AI 硬體領域最核心的兩個流派。嘗試從架構、性能、生態、商業模式等維度的詳細對比分析:一、核心設計理念1. NVIDIA GPU:通用平行計算的王者出身:最初為圖形渲染(遊戲)設計,後來通過 CUDA 架構演進為通用平行計算硬體。設計邏輯:SIMT (Single Instruction, Multiple Threads)。GPU 擁有成千上萬個小的CUDA 核心,非常擅長處理大量平行的任務。特點:極其靈活。它不僅能算AI 矩陣,還能做科學計算、圖形渲染、挖礦等。代價:為了保持通用性,GPU保留了許多複雜的控制邏輯(如快取管理、分支預測),這佔用了晶片面積和功耗。2. Google TPU:極致的 AI 偏科生出身: Google 為瞭解決內部日益增長的 AI 負載(如搜尋、翻譯、AlphaGo)而專門自研的ASIC (專用積體電路)。設計邏輯:脈動陣列(Systolic Array)。這是 TPU 的靈魂。比喻:傳統的CPU/GPU 讀寫資料像“搬運工”一趟趟跑記憶體;TPU 的脈動陣列像“流水線”,資料一旦讀入,就在成千上萬個計算單元之間像心臟脈動一樣流動、復用,直到算完才寫回記憶體。特點:專注於矩陣乘法(Matrix Multiplication)。這是深度學習(Transformer、CNN)中 90% 以上的計算量。TPU 砍掉了所有與 AI 無關的功能(如光線追蹤、圖形輸出)。優勢:在同等工藝下,晶片面積利用率更高,能效比Performance/Watt)極高。二、架構與互聯 (Architecture & Interconnect)1. 視訊記憶體與頻寬 (HBM)NVIDIA:極其激進。H100/H200/B200幾乎壟斷了海力士最頂級的 HBM3e 產能。NVIDIA 的策略是“力大磚飛”,用極高的視訊記憶體頻寬來緩解“記憶體牆”問題。Google TPU:相對保守但夠用。TPU v4/v5p也使用 HBM,但更依賴其“脈動陣列”帶來的資料高復用率,從而降低對外部記憶體頻寬的依賴。2. 互聯技術 (Scaling) —— Google 的殺手鐧在大模型訓練中,單卡性能不再是唯一指標,叢集通訊效率才是瓶頸。NVIDIA (NVLink + InfiniBand): NVIDIA 建構了極其昂貴但高效的 NVLink Switch 和 InfiniBand 網路。這是一個“無阻塞”的胖樹架構,非常強悍,但成本極高,布線複雜。Google TPU (ICI + OCS):ICI (Inter-Chip Interconnect): TPU晶片自帶高速互聯介面,直接晶片連晶片(2D/3D Torus 環面網路),不需要昂貴的外部網路卡。OCS (光路交換): Google 引入了光開關技術,可以在幾秒鐘內動態重新配置幾千張 TPU 的拓撲結構。這讓 TPU 叢集(Pod)的擴展性極強,且成本遠低於 NVIDIA 的方案。三、軟體生態 (Software Ecosystem) —— NVIDIA 的護城河1. NVIDIA: CUDA (堅不可摧)現狀:CUDA 是 AI 界的“英語”。幾乎所有的 AI 框架(PyTorch, TensorFlow)都優先在 NVIDIA GPU 上開發和最佳化。優勢:開發者拿到程式碼,pip install 就能跑。遇到bug,StackOverflow 上有幾百萬條解決方案。靈活性:支援動態圖,容易偵錯,適合研究人員做實驗、改模型結構。2. Google: XLA (追趕者)現狀:TPU 必須通過XLA (Accelerated Linear Algebra)編譯器才能運行。框架:早期繫結TensorFlow,現在大力擁抱JAX和PyTorch/XLA。劣勢:靜態圖限制: TPU 需要先“編譯”整個計算圖才能跑。如果你的模型有大量動態控制流(if/else),TPU 會非常慢,甚至跑不起來。偵錯難:報錯資訊往往是晦澀的編譯器底層錯誤,社區資源遠少於 CUDA。優勢:一旦編譯通過,XLA可以做極深度的算子融合(Operator Fusion),運行效率極高。四、性能對比 (Performance)註:比較必須基於同代產品,如 H100 vs TPU v5p。單卡性能 (Raw Power):NVIDIA 勝。H100 的 FP8/FP16 峰值算力通常高於同期的 TPU。對於小規模、非標準模型,NVIDIA 更快。叢集性能 (Cluster Efficiency):互有勝負,Google     規模優勢大。在訓練 GPT-4      或 Gemini Ultra 這種萬卡等級的任務時,TPU v4/v5 的線性加速比 (Linear Scaling)非常好,甚至優於       GPU 叢集,因為 ICI 互聯更高效。TPU 的MFU (Model FLOPs Utilization,模型算力利用率)往往能做到 50%-60% 以上,而未最佳化的 GPU 叢集可能只有 30%-40%。推理性能 (Inference):NVIDIA 憑藉 TensorRT 最佳化,在低延遲推理上更有優勢。TPU v5e 專門針對推理最佳化,在大吞吐量(Throughput)場景下性價比極高。五、商業模式與可獲得性 (Availability)這是兩者最本質的區別:或許可以這樣理解:NVIDIA 是 AI 時代的“英特爾”,提供最強的通用算力,統治了從個人玩家到資料中心的所有角落;而 Google TPU 是 AI 時代的“蘋果”,軟硬一體,雖然封閉,但在自己的生態和超大規模領域內做到了極致的效率。 (陌上鑷爵爺)
輝達GPU全部售罄,網路晶片大賣,市值暴漲
晶片巨頭輝達的營收和即將上市的銷售額均超出華爾街預期,緩解了投資者對人工智慧 (AI) 領域巨額支出引發市場動盪的擔憂。該公司周三發佈的季度財報顯示,截至10月份的三個月內,營收飆升62%至570億美元,主要得益於人工智慧資料中心對其晶片的需求增長。該部門的銷售額增長66%,超過510億美元。達到512億美元,輕鬆超過分析師此前預期的490.9億美元,較上一季度增長25%,較去年同期增長66%。剩餘的68億美元營收來自輝達的遊戲業務(42億美元),其次是專業可視化和汽車領域的銷售額。按美國通用會計準則(GAAP)計算,公司淨利潤為320億美元,同比增長65%。營收和利潤均超出華爾街預期。輝達表示,大部分增長是由其GB300晶片的初期銷售推動的。網路業務,即使數十個GPU能夠像一台電腦一樣協同工作的元件,貢獻了資料中心82億美元的銷售額。輝達首席財務官科萊特·克雷斯在一份聲明中表示,該公司最暢銷的晶片系列現在是 Blackwell Ultra,這是該公司 Blackwell 晶片的第二代版本。輝達首席財務官科萊特·克雷斯在致股東的聲明中指出,計算能力的加速發展、強大的AI模型以及智能體應用的興起推動了公司資料中心業務的增長。克雷斯在公司第三季度財報電話會議上表示,上個季度,公司宣佈了總計500萬個GPU的AI工廠和基礎設施項目。克雷斯表示:“這種需求涵蓋了所有市場,包括雲服務提供商、主權國家、現代建築企業和超級計算中心,並且包括多個標誌性建設項目。”Blackwell Ultra GPU於3月份發佈,提供多種配置選擇,表現尤為強勁,目前已成為公司內部的領頭羊產品。據該公司稱,此前的Blackwell架構版本也一直保持著強勁的需求。輝達表示,預計本季度銷售額約為 650 億美元,而分析師此前預期為 616.6 億美元。該公司表示,本季度淨利潤增長 65%,達到 319.1 億美元,即每股 1.30 美元,而去年同期淨利潤為 193.1 億美元,即每股 78 美分。輝達是全球市值最高的公司,被視為人工智慧繁榮的風向標。這家晶片製造商的業績可能會影響市場情緒。首席執行官黃仁勳在一份聲明中表示,其人工智慧 Blackwell 系統的銷售額“遠超預期”,並且“雲 GPU(圖形處理單元)已售罄”。黃仁勳在公司第三季度財報中表示:“Blackwell 的銷售額遠超預期,雲端 GPU 也已售罄。計算需求在訓練和推理方面持續加速增長,呈指數級增長。我們已經進入了人工智慧的良性循環。人工智慧生態系統正在快速擴張——湧現出更多新的基礎模型建構者、更多人工智慧初創公司,覆蓋更多行業和更多國家。人工智慧正在無處不在,無所不能。”“關於人工智慧泡沫的說法很多。但從我們的角度來看,我們看到的卻截然不同,”他在與分析師的電話會議上說道。“我們在人工智慧的各個階段都表現出色。”他曾表示,人們願意為人工智慧工具付費表明這項技術是“有利可圖的”,即便大多數科技公司現在都將賺到的錢再投資於新的基礎設施。由於人們越來越擔心人工智慧股票估值過高,這家晶片製造商的季度報告在華爾街引起了比以往更多的關注。由於人們對人工智慧投資回報的擔憂不斷,這些擔憂導致標普 500 指數在周三之前連續四天下跌。在輝達發佈業績之前,人們對其表現的預期很高。LPL Financial 的首席技術戰略家 Adam Turnquist 表示,問題不在於公司是否會超出預期,“而在於超出多少”。“儘管人工智慧估值佔據了新聞頭條,但輝達依然以優雅的方式開展業務,”哈格里夫斯·蘭斯當高級股票分析師馬特·布裡茨曼表示。他表示,人工智慧領域某些領域的估值“需要喘口氣,但輝達並不屬於這一類”。黃仁勳此前曾表示,他預計到明年人工智慧晶片訂單額將達到5000億美元。投資者們正在關注該公司預計何時實現這些收入,以及如何完成這些訂單。輝達首席財務官科萊特·克雷斯告訴分析師,該公司“可能”會在已宣佈的 5000 億美元訂單之外再接更多訂單。在財報電話會議上,她還別出心裁地列舉了晶片製造商合作夥伴近期財務報告中的亮點,以此強調人工智慧正在為公司帶來回報。例如,她提到,Meta公司的人工智慧推薦系統讓使用者“在Facebook和Threads等應用上花費了更多時間”;Anthropic公司近期表示,預計今年的年收入將達到70億美元;Salesforce的工程團隊自從使用人工智慧進行編碼以來,效率提高了30%。她還列舉了一系列企業客戶的例子。但她也對阻礙該公司向中國出口晶片的監管限製表示失望,稱美國“必須贏得包括中國開發者在內的每一位開發者的支援”。克雷斯在財報電話會議上指出:“由於地緣政治問題以及中國市場競爭日益激烈,本季度未能達成大額採購訂單。儘管我們對目前阻礙我們向中國出口更具競爭力的資料中心計算產品的現狀感到失望,但我們仍致力於繼續與美國和中國政府保持溝通,並將繼續倡導提升美國在全球的競爭力。”科技巨頭們正加大對人工智慧的投入,爭相從推動股價創下歷史新高的繁榮浪潮中獲利。Meta、Alphabet 和微軟上個月發佈的財報再次證實,這些公司在從資料中心到晶片等各個方面都投入了巨額資金。Google母公司Alphabet的首席執行官桑達爾·皮查伊也表示,儘管人工智慧投資的增長是一個“非凡的時刻”,但當前的人工智慧熱潮也存在一些“非理性”因素。他的這番言論是在其他行業領袖發出警告之際發表的。輝達生產的晶片對人工智慧資料中心至關重要,它與人工智慧領域的關鍵參與者(如 OpenAI、Anthropic 和 xAI)達成了一系列交易,而輝達正是這些交易的核心。這些交易因其循環性質而備受關注,因為人工智慧公司之間的相互投資日益增多。這些協議包括輝達向OpenAI (ChatGPT背後的公司)投資1000億美元。 (半導體行業觀察)
輝達開始在美生產GPU,台積電加速佈局
人工智慧引發了一場新工業革命。NVIDIA 和台積電正在美國攜手合作,建設為全球人工智慧工廠提供動力的基礎設施。NVIDIA 創始人兼首席執行官黃仁勳今天參觀了台積電位於菲尼克斯的半導體製造工廠,慶祝第一顆 NVIDIA Blackwell 晶圓在美國本土下線,這標誌著 Blackwell 已實現量產。在慶典儀式上,黃仁勳與台積電營運副總裁王永利一起簽署了 Blackwell 晶圓,以紀念這一里程碑,展示全球人工智慧基礎設施引擎如何在國內建設。這將增強美國的供應鏈,並將人工智慧技術堆疊轉移到國內,將資料轉化為智能,確保美國在人工智慧時代的領導地位。黃仁勳在活動上表示:“這是一個歷史性的時刻,原因有很多。這是美國近代史上第一次,最重要的晶片在美國最先進的晶圓廠——台積電——生產出來。” “這是川普總統對再工業化的願景——將製造業帶回美國,當然是為了創造就業機會,但同時,這也是世界上最重要的製造業和科技產業。”台積電亞利桑那工廠首席執行官莊睿表示:“從落戶亞利桑那州到在短短幾年內交付首款美國製造的NVIDIA Blackwell晶片,這體現了台積電的卓越成就。這一里程碑建立在與NVIDIA三十年的合作基礎之上,我們共同突破了技術的界限,也建立在我們員工和當地合作夥伴的不懈奉獻之上,正是他們幫助台積電亞利桑那工廠得以實現。”晶圓(半導體的基礎材料)將經過分層、圖案化、蝕刻和切割等複雜工藝,最終成型為 NVIDIA Blackwell 架構提供的超高性能、加速 AI 晶片。台積電亞利桑那工廠將生產包括二奈米、三奈米和四奈米晶片以及 A16 晶片在內的先進技術,這些晶片對於人工智慧、電信和高性能計算等應用至關重要。美國製造業對於滿足日益增長的人工智慧需求至關重要。今天的成就標誌著美國在半導體製造和人工智慧發展方面邁出了一大步,為美國在人工智慧領域的持續領先地位鋪平了道路。NVIDIA Blackwell GPU 為人工智慧推理提供了卓越的性能、投資回報率和能效。此外,NVIDIA 計畫部署其先進的 AI、機器人和數字孿生技術來設計和營運新的美國製造工廠。台積電加快加快亞利桑那州建設台積電正以超出預期的速度將其最先進的晶片技術推向市場。該公司確認,其N2工藝節點將在2025年底前實現量產,同時加快了在台灣本土的部署,並同步推進其在亞利桑那州工廠部署該技術。N2節點引入了基於奈米片的環柵電晶體,取代了自16奈米時代以來使用的FinFET架構。據公司高管稱,早期良率一直很高,到 2026 年,良率將大幅提升。台積電還在開發稱為 N2P 的下一步工藝,預計將於 2026 年下半年推出,以進一步提高效率。2奈米製程的里程碑與台積電第三季度創紀錄的財務業績同步。受人工智慧加速器和高端智慧型手機晶片需求的推動,台積電營收同比增長逾40%,達到331億美元。涵蓋N3、N5和N7系列的先進製程技術貢獻了近四分之三的銷售額。公司領導表示,今年的資本支出將保持強勁,總額將高達420億美元,其中近四分之三將用於擴大尖端製造能力。台積電在亞利桑那州的擴建目前是這些投資的核心。該公司已在鳳凰城附近的Fab 21的第一個模組開始使用其N4工藝生產晶片,接下來將上線N3工藝。但在本周的財報電話會議上,首席執行官魏哲家表示,“鑑於客戶對人工智慧相關技術的強勁需求,公司將加快在亞利桑那州將我們的技術升級到N2及更先進的工藝。”這一承認標誌著一次重大加速——Fab 21 的 N2 生產原本預計在本世紀末實現。這兩項努力標誌著這家全球最大晶片代工製造商的關鍵時刻,該公司正努力滿足全球對人工智慧和高級計算領域高性能處理器的激增需求。N2 及其繼任者 A16 的新模組預計將於今年晚些時候開始建造。竣工後,台積電 2 奈米及更先進節點的產量中約有 30% 將在美國生產。該公司位於亞利桑那州的工廠預計將發展成為一個“GigaFab”叢集,每月可生產約 100,000 片晶圓,並與封裝、測試和本地供應商網路完全整合。這一轉變正值美國決策者重新努力確保國內晶片生產能力並減少對亞洲代工廠的依賴之際。魏先生強調了這一背景,並將亞利桑那州的擴張描述為朝著在美國打造“獨立、尖端的半導體製造叢集”邁出的一步。該公司正在探索在其現有園區周圍收購更多土地,以支援其在最初1650億美元投資承諾之外的進一步擴張。 (EDA365電子論壇)