#自研晶片
亞馬遜擬對外銷售自研晶片,年營收將超500億美元
當地時間4月9日,亞馬遜首席執行長安迪·賈西(Andy Jassy)在年度致股東信中釋放重磅資訊:亞馬遜正考慮首次向第三方客戶直接出售其自研晶片,此舉將使其與輝達、博通等晶片巨頭在更廣闊的市場展開正面競爭。自研晶片業務年化營收已超200億美元,AI業務年化營收突破150億美元賈西在信中首次披露,亞馬遜的自研晶片業務年化營收已超過200億美元,且正以三位數的年增長率快速成長。該業務涵蓋三大核心產品線:基於ARM架構的伺服器處理器Graviton系列、專為AI訓練設計的Trainium系列加速器、用於虛擬化與安全的專用晶片Nitro。他透露,市場需求對於亞馬遜自研晶片的計算實例需求已遠超當前供給能力:“已有兩家大型客戶詢問,是否能在2026年包下全部Graviton計算實例。由於需要顧及其他客戶的需求,我們無法同意這項請求——這充分顯示出市場需求的強勁程度。”賈西同時首次披露,AWS的AI服務年化營收已超過150億美元,且仍在快速成長。這與自研晶片業務的200億美元營收是兩個獨立統計口徑——前者是AWS對外提供AI算力服務的收入,後者是自研晶片的價值體現。若自研晶片獨立銷售,年化營收可達500億美元賈西在致股東信中做了一個大膽的推算:“如果我們的自研晶片業務成為一項獨立業務,並且像其他晶片公司一樣對外銷售,將今年生產的晶片銷售給AWS及第三方業者,那麼我們的年化營收將達到約500億美元。”他進一步明確表示:“市場對我們晶片的需求如此旺盛,未來我們很有可能向第三方銷售大量晶片。”需要說明的是,這500億美元不僅包括AI晶片(Trainium),還涵蓋了Graviton伺服器CPU和Nitro等所有自研晶片產品。2000億美元投入“並非憑直覺”亞馬遜今年2月宣佈,2026年資本支出預計約2000億美元,絕大部分將投向AI基礎設施,包括資料中心、晶片及網路裝置。這一數字較2025年增長近60%,遠超同行水平。賈西在股東信中重申,這是“一生一次的機會”:“我們不會在此一領域採取保守策略,我們的目標是投入資金,成為具影響力的領導者。”他特別強調,這筆巨額投入“並非憑直覺”,而是基於客戶的實際承諾。賈西在信中提及OpenAI超過1000億美元的投資承諾,並表示亞馬遜已獲得客戶願意負擔“相當大一部分”資本支出。亞馬遜的晶片野心目前,亞馬遜已通過AWS向客戶提供Trainium加速器的使用權,與OpenAI、Anthropic及蘋果等公司達成了相關交易。但若直接對外銷售自研晶片,則意味著亞馬遜將從算力服務商升級為晶片供應商,與輝達、博通等在硬體層面展開直接競爭。分析師指出,亞馬遜自研晶片在成本和能效方面具備顯著優勢,若能成功打開第三方市場,將對現有晶片格局產生深遠影響。今年以來,亞馬遜股價表現相對掙扎,主要因投資人對公司激進的AI投資計畫存疑。隨著股東信的發出,亞馬遜股價9日收盤上漲5.6%。賈西在信中傳遞的資訊,與數十年前創始人貝佐斯向市場傳達的理念一脈相承——堅持長期主義,用巨額投入換取未來的主導地位。當年亞馬遜在雲端運算、倉儲裝置上的重注,最終創造了可觀的利潤並主導了市場。如今,同樣的邏輯正在晶片業務上重演。 (芯智訊)
何小鵬喊話自研晶片年出貨百萬顆!四款新車排隊上,要月產千台機器人
小鵬交出最好年報,何小鵬把出海智駕目標都公佈了。何小鵬擬砸25億加碼物理AI研發,新車出海機器人晶片目標都公佈了。車東西3月20日消息,就在剛剛,小鵬汽車董事長、CEO何小鵬在電話會議上透露了小鵬汽車今年在物理AI、人形機器人、圖靈晶片及出海的一系列目標。他指出,小鵬汽車正處在物理AI應用的歷史性轉折點,預計今年在物理AI方面的研發投入,將從去年的45億元提升至70億元。何小鵬進一步展開介紹了各具體業務的目標,第二代VLA方面,小鵬計畫在今年底將車端模型參數量從數十億級提升至200億級以上,使平均接管里程提升25倍,安全接管里程提升50倍。此外,小鵬的VLA2.0技術堆疊已經在機器人上成功跑通,搭載三顆圖靈AI晶片的全新一代IRON機器人將會在2026年底量產,年底的月產能目標是上千台。何小鵬還說:“屆時,物理AI agent的銷量榜單,將會比10年前的汽油車銷量榜和今天的新能源車銷量榜更加重要,我們也有信心成為全球物理AI智能體的領跑者。”官方對第二代VLA模型預期很高,這背後是小鵬自研圖靈晶片的加持。何小鵬透露,自圖靈晶片2025年三季度量產上車以來,累計出貨量已超過20萬片,預計今年全年出貨量目標接近100萬片,有望成為中國大算力端側AI晶片的出貨量第一名,自今年二季度起,小鵬旗下車型將全部切換至自研的圖靈晶片。會上,何小鵬還強調了對出海的看重,並提出了一系列海外目標,包括銷量同比翻倍,海外收入佔比進一步提升至20%以上,海外門店擴至680家,自營超充網路“走出去”,覆蓋10大核心市場等。小鵬還為出海準備了充足“彈藥”,今年二季度將正式發佈旗艦大六座SUV小鵬GX,年內推4款全球化新車。就在今天,小鵬汽車交出了2025年年報,總收入、毛利率、總交付量均創下歷史新高。▲小鵬2025年全年財務資料具體來看,小鵬2025年交付量達42.94萬輛,同比增長125.9%;總收入767.2億元,同比增長87.7%,較前一年增加近360億元;毛利率提升至18.9%;淨虧損縮小至11.4億元,全年研發支出達94.9億元,同比增長47.0%。值得特別注意的是,小鵬汽車更是在2025年四季度實現業績重大突破,毛利率達21.3%,淨利潤轉正至3.8億元。截至2025年底,小鵬汽車現金及現金等價物、受限制現金、短期投資及定期存款為人民幣476.6億元,同比增加57億元,用小鵬汽車副董事長及聯席總裁顧宏地的話來說,“這為我們堅定投入物理AI研發提供了堅實的保障。”01. 何小鵬10問連放狠話明年年初實現Robotaxi無安全員在今晚舉行的小鵬汽車財報電話會議上,小鵬汽車董事長兼CEO何小鵬對2026年度小鵬汽車的發展重點以及未來規劃做出了詳細回應。▲小鵬汽車董事長兼CEO何小鵬以下是何小鵬本次電話會的主要內容,車東西在不改變原意的基礎上進行了編輯:Q1: 小鵬VLA2.0今年會有什麼大的升級計畫?何小鵬:後面的每一個季度,我們都有至少一個大版本的OTA。▲小鵬第二代VLA架構比如二季度OTA升級中,第二代VLA會從原來僅覆蓋高速城區的主要路段,擴展至覆蓋更多的小路、停車場、園區,也就是說從有導航的公共道路的自動駕駛變成沒有導航、沒有規則的內部道路的自動駕駛。我們今年還會做非常多的能力升級,比如將車端模型從數十億等級提升到超過200億等級,我們希望安全的接管里程能夠在今年的基礎上再提高5到10倍。在自動駕駛之外,我們還會帶來多處升級,例如加入了多語言,本地化的支援力度增加,實現智能座艙與自動駕駛的整合。Q2: 小鵬VLA2.0對銷售轉化及使用者粘性將會帶來什麼樣的影響?何小鵬:從3月初開始宣傳第二代VLA之後,門店的試駕量環比翻倍,Ultra和Ultra SE版本的銷量佔比提升了不止一倍。當真正全量推送以及OTA之後,我期望第二代VLA會帶來更高的客流並且拉高單車的均價。說到使用粘性,我只能分享一個我自己的case。用了第二代VLA之後,我再使用其他的智能駕駛版本,就發現我已經覺得無論是使用其他的車型的自動駕駛還是專業的司機幫我開車,都比不過VLA的絲滑安心。我覺得高等級的自動駕駛,一定在使用者的日常生活中存在99%到100%的使用需求。我的司機最近已經兩次問我,專業的司機什麼時候會開始被淘汰的問題了。另外,我補充一下,第二代VLA因為是一個全新的範式,我們最需要先解決安全的問題。可能會出現很多的短板,因為我們的VLA不像以前,現在基本上完全不使用規則,我相信在短板可以彌補的情況下,後面會花非常多的時間來進行長板的增強和全球化的部署。Q3: 小鵬Ultra車型及VLA2.0在海外市場的部署計畫是怎麼樣?智駕出海對於海外銷售會有什麼樣的影響?智駕在海外是否有獨立收費的機會?何小鵬:我們已經啟動了第二代VLA相關的研發測試準備工作了,預計在今年年底到明年逐步在不同的區域開啟第二代VLA的交付。第二代VLA在海外有非常大的泛化優勢。我們在多個市場的測試中發現,沒有任何的海外資料參考,僅僅靠我們的第二代VLA就已經能夠做到非常好的智駕效果。小鵬的第二代VLA相比友商FSD,在小路的博弈能力是特別好的,在歐洲、東南亞我們的優勢特別明顯。所以我非常堅信,第二代VLA能夠更快速、更低成本、更優良地在海外提供高品質、高安全的智駕。我們現在的硬體已經做好了準備,我們也的確正在考慮智駕軟體在海外的一些更好的商業收費機會,我相信一定會將好的技術轉換成更好的商業。▲大眾將首發小鵬第二代VLAQ4: 小鵬在機器人研發、規模量產和供應鏈上,有那些競爭優勢?何小鵬:我們實際上正在使用一種非常具有挑戰性的全新方法,用一種比研發Robotaxi難度高10倍以上的方式,去做機器人的高品質量產,今年年底的月產能目標是上千台。▲小鵬全新一代IRON機器人跟汽車的一個很大的不同是機器人在軟體上所產生的價值,一開始就起碼是50%,而汽車可能最開始只有10%、15%,後面會逐步放大。我覺得汽車跟機器人是同源的,所以無論在研發、量產、供應鏈、品質,還是在產供銷服務全球化上,我相信都會有很多類似性。小鵬跟很多汽車公司不一樣,因為我們全端自研、跨域融合,小鵬的機器人從手關節到腳到身體,小鵬基本上全部都會研發,或者是自研,或者聯合研發。這些是小鵬和其他機器人公司及汽車公司的差異所在。Q5: 如何看待未來機器人的成本跟售價,成本的下降應該有什麼樣的指引?何小鵬:我覺得機器人的成本邏輯跟汽車的成本邏輯是不一樣的。我覺得機器人的成本有三個:硬體成本、研發成本、營運成本。其中硬體成本可能跟汽車接近,但是研發成本會遠高過汽車,特別是在過去汽車習慣跟Tier1合作,可以把別人的軟體跟硬體解決方案拿過來,那是在規則時代。但是在AI時代裡面,不是一個規則,它不能這樣直接拿過來。此外,人形機器人有通用跟專用之分,需要結合不斷新增的資料持續訓練模型,這會導致大量的營運成本,我認為規模量產型機器人會讓硬體成本不斷下降,但是軟體跟營運的成本會持續提高。Q6: 機器人在量產之後有那些應用場景?何小鵬:我們跟絕大部分公司不一樣,我們首先不是面向科研市場,我們最開始是期望進入商業,再進入工業,然後再進入家庭這三個場景,取決於我們對於技術能力的變化。▲小鵬全新一代IRON服務場景進入商業需要很安全的運動能力,我相信這個能力我們目前是行業的絕對第一。進入工業需要很好的操作能力,我們第二步會實現。進入家庭我認為是一個更困難的能力,我們在第三步會實現。Q7: 到目前為止以及接下來的幾年,AI算力規模大概需要多大?何小鵬:我覺得關於資料規模的事情,今天沒有人可以在物理AI領域給出一個清晰、長遠的判斷。我們現在是數萬卡的規模,我相信一定要達到數萬卡的規模。物理AI世界需要的資料量,我認為汽車大概是數字AI的1000倍,而機器人大概是汽車的1000倍。我們將來會用新的方法來解決物理AI的算力問題。Q8: 是不是所有的算力投資都算在研發裡面,還是說有一部分會劃分到資本開支裡邊?何小鵬:因為這個問題涉及到長期投入,只能相對框架性地回答您。在未來的數年裡面,我相信我們的汽車上的研發會穩定,投入會逐步收斂,AI上的投入會逐步向上,會越來越有效能。我們所有這些投入均一次性計入研發支出,未計入資本開支。Q9: Robotaxi目前的研發測試進度如何?今年有那些重要的里程碑節點,包括有安全員載客、無安全員載客的營運目標,預計在什麼時候跑通?何小鵬:我們認為大概在1到3年後,會實現軟體層的完全自動駕駛的能力,包括中國,包括全球。我們在硬體上關於Robotaxi的進展現在非常順利,我們正在去解決政策的問題。因為政策要求從獲取測試牌照,到實現有安全員、無安全員的營運落地,需分步驟推進。▲小鵬將於2026年推出三款Robotaxi我們需要在Robotaxi的全球化營運上去做一些少量的研發,今年下半年我們會開展有安全員的載客測試,明年年初希望能夠實現無安全員的Robotaxi商業化營運,並且在更後面我們會開放我們的整個體系,讓更多來自中國、全球的合作夥伴,用我們的平台和技術。Q10: Robotaxi業務未來規模拓展的策略怎麼看?小鵬汽車會有那一些車型計畫進入這個Robotaxi業務?何小鵬:Robotaxi在將來的規模拓展,取決於社會的接受度和政策的允許度。我認為在未來的兩年到也許三四年裡面,會在部分的國家跟區域優先,然後快速成長。至於未來是什麼樣的車型會開啟Robotaxi業務?我覺得這個問題也許再過2到3年我們會來思考,到底是以車來驅動Robotaxi,還是以機器人來驅動Robotaxi的業務。我覺得可以再讓子彈飛一下,大家會看到更清晰的結果。02. 季報年報業績創新高毛利率超蔚來理想小鵬汽車能夠喊出這些目標,可見底氣很足,而這也是由於小鵬汽車交出了一份最好的年報。具體來看,2025年小鵬汽車總收入為人民幣767.2億元,較2024年408.7億元的總收入上升87.7%。其中,2025年其汽車銷售收入為683.8億元,較2024年的358.3億元上升90.8%。▲小鵬汽車近3年營收及交付量變化毛利率方面,小鵬汽車2025年度毛利率為18.9%,超過了理想(18.7%)、蔚來(13.6%),汽車毛利率為12.8%,相較而言,2024年小鵬毛利率為14.3%,汽車毛利率為8.3%。淨虧損方面,其2025年全年淨虧損為人民幣11.4億元,2024年這一數字為57.9億元。2025年非公認會計原則小鵬汽車普通股股東應佔淨虧損為人民幣4.6億元,相較2024年的55.5億元大幅減虧。值得一提的是,2025年全年財務資料實現突破,與小鵬汽車在2025年第四季度的業績猛增密切相關。2025年第四季度,小鵬汽車總收入為人民幣222.5億元,較2024年第四季度增長38.2%,並較2025年第三季度增長9.2%,創下單季度歷史新高。▲小鵬汽車近5個季度營收及交付量變化同期,其毛利率為21.3%,創下單季度歷史新高,較2024年第四季度增長6.9個百分點,實現連續4個季度增長。而這也得益於小鵬汽車同期的銷量爆發,2025年第四季度,小鵬汽車總交付量為11.62萬台,較2024年同期的9.15萬輛增長27.0%,創下單季度交付量歷史新高。對於2025年取得的業績,小鵬汽車董事長及CEO何小鵬表示:“我相信小鵬汽車正處在物理AI應用的歷史性轉折點,我們不僅要擴大AI汽車的全球市場份額,完成L2+輔助駕駛向L4自動駕駛的跨越,讓第二代VLA走向海外,還要實現高階人形機器人的規模量產。”2025年財務表現亮眼,而今天,小鵬汽車也為今年第一個季度立下了銷量和業績目標。小鵬汽車預計,2026年第一季度汽車總交付量將介於6.1萬台至6.6萬台,總營收將介於122億元至132.8億元。03. 結語:小鵬汽車加快戰略轉型從2025年年報及最新電話會議披露的資訊來看,小鵬汽車正處在物理AI應用的歷史性轉折點。通過多年的規模研發投入,小鵬已建構晶片、大模型、資料、EA架構和AI Infra在內的全端自研體系,並推進自動駕駛與智能座艙融合以及動力與底盤的跨域融合,在這一過程中正逐步收穫更多碩果。隨著新一代VLA架構、多款新車及機器人產品的相繼落地,小鵬汽車有望在智能出行與具身智能領域建構更為完整的業務生態,其未來發展潛力值得持續觀察。 (車東西)
融資22億,蔚來造出獨角獸:8個月估值100億
智能駕駛晶片,跑出一個超級獨角獸:成立8個月,估值近100億。它的名字是“神璣”,由蔚來汽車孵化。你能想像嗎?一輛售價四十多萬的蔚來ET7,交付周期一度被拖長到7個月,原因不是產能不足,而是晶片太慢。封面|蔚來官網一個非常現實的因素:2022年前後,全球晶片荒。國內超過95%的高端智駕車型,都依賴輝達的Orin晶片,交貨周期長。2025年6月,“神璣”成立。它將面對的是怎樣一個賽道,背後暗藏著那些陷阱和機會?- 01 - 為什麼創業?國際晶片又貴又慢神璣的“親爸爸”是蔚來汽車,最早源於2021年蔚來內部的晶片自研計畫。當時,蔚來造車要用晶片,而輝達又貴又慢。國內L2級及以上智駕車型中,超過95%的高端算力晶片依賴輝達Orin系列,單顆採購成本超過8000元。2022年晶片供應緊張,蔚來ET7交付周期一度延長至7個月,供應鏈和成本壓力顯現。在這一背景下,蔚來啟動智駕晶片自主研發。團隊核心成員包括李斌、白劍和張丹瑜。李斌負責整體戰略方向;白劍曾在小米、OPPO負責硬體業務,2020年加入蔚來後主導智能硬體研發;張丹瑜曾任華為海思圖靈業務部AI處理器項目總監,2021年加入項目,負責晶片設計。項目就這樣跑起來了:2021年啟動研發;2024年5nm車規級智駕晶片NX9031成功流片;2025年6月,安徽神璣從蔚來獨立出來營運。五年內,團隊走完立項、流片到量產整條路。產品也有跑贏國際產品的地方。在性能方面,NX9031等效算力為1024 TOPS,是輝達Orin-X的4倍;功耗控制在35W以內,比競品低18%。在上海臨港複雜路況測試中,搭載該晶片的車輛,大模型智駕演算法響應速度比海外晶片車型快0.3秒,緊急制動安全距離縮短2.1米。- 02 - 提升蔚來3.2%毛利神璣的發展,是被智駕晶片需求推起來的。和燃油車相比,電車很燒算力。一輛L3級自動駕駛車型的算力需求,約為傳統燃油車的120倍,而晶片是智能化能力的基礎。而這麼關鍵的賽道,我們一直被國外“卡脖子”。2025 年,國內 L3 級高階智駕車型所搭載的高端算力晶片中,輝達佔比 68%,高通佔比 22%,國產晶片佔比不足 10%。而其中面臨問題,就是前文所說的:又貴又慢。這就給國產晶片崛起,創造了條件。這個市場需求又剛,規模又大。根據Counterpoint測算,2026年全球車規級智駕晶片市場規模將超過520億美元,中國市場佔比約36%,未來三年行業複合增長率約42%。晶片用在那裡?自動駕駛、座艙、感知、規控等系統。當然,最近2年,機器人、工業自動化也用得比較多。這股新勢力中,神璣的份額表現還算可以。它的核心產品是NX9031,該5nm車規晶片自2024年9月量產以來,累計出貨超過15.3萬套,搭載於蔚來ET7、ET9、ES6等車型。在國內新能源車企高端智駕晶片,它的出貨量中排名第三,僅次於輝達和高通。這款晶片,也部分解決了蔚來“又貴又慢”的問題。在成本方面,NX9031單顆量產成本比輝達Orin-X低約45%,使蔚來ET7整車硬體成本降低近4000元。2025年,蔚來毛利率同比提升3.2個百分點,其中晶片成本最佳化是因素之一。- 03 - 趨勢:從拼肌肉轉向拼腦子神璣這次22億元融資,算是車載晶片領域最受矚目的事件之一。這個行業,頭部效應非常強,資本扎堆。最近,為旌科技、矽傑微電子等多家企業也完成了新一輪融資,背後不僅有合肥國投這類國資,還有上汽、一汽等產業資本。在技術路線上,方向從“堆料”轉向“增效”。行業已告別單純的算力軍備競賽,核心邏輯轉向了“降本增效”。一個典型案例是,輕舟智航基於單顆地平線征程6M晶片(128TOPS),就跑通了城市導航輔助駕駛。而在2020-2024年,行業還在算力軍備競賽。背後的邏輯是:要實現L2+L3級自動駕駛,需要處理海量的攝影機、雷射雷達資料,大家不知道要多大的算力才算“夠用”。於是,一個簡單的競爭邏輯誕生了:誰的晶片算力高,誰就代表未來、誰就更先進。但其實,高算力不等於好體驗。一味地“堆參數”,成本也不好控制。Orin-X晶片的單顆成本高達400-500美元,四顆的成本就超過2000美元。這對於追求規模化、大眾化的車型來說,是難以承受的沉重負擔。這條彎路,行業總算走過來了。目前,國內車企減少對海外晶片依賴的趨勢較為明確。蔚來、小鵬、理想等新勢力,以及長安、廣汽等傳統車企,都在推進國產替代。同時,國產晶片企業分工逐漸清晰:地平線聚焦L0-L2級市場,神璣、黑芝麻智能等佈局L3及以上高階智駕。智駕晶片,也從“拼肌肉”的時代,進入“拼腦子”的時代。 (鉛筆道)
比肩輝達H20!阿里自研PPU浮出水面
這款備受業界矚目的PPU,此前已被央視《新聞聯播》曝光,如今正式揭開面紗。1月29日,阿里巴巴旗下半導體公司平頭哥在官網上線了其高端AI晶 片“真武810E”的詳細資訊。此次發佈的不僅是單一產品,更是意味著由通義實驗室、阿里雲和平頭哥共同構成的阿里巴巴AI戰略核心——“通雲哥”協同體系的首次公開亮相,展示了阿里在AI時代從底層算力、雲端運算平台到頂層大模型應用的全端自研實力。(圖源:平頭哥官網)1. 全端自研,賦能400+行業客戶“真武810E”是一款實現從硬體到軟體全端自研的高端AI晶片。目前,該晶片已在阿里雲上完成了多個萬卡叢集的規模化部署,並成功服務於國家電網、中科院、小鵬汽車、新浪微博等超過400家行業客戶,覆蓋了科研、能源、汽車、網際網路等多個關鍵領域。該晶片的核心技術優勢體現在:先進架構:採用自研的平行計算架構和ICN(Inter-Chip-Network)片間互聯技術,配合全端自研軟體棧,打通軟硬體壁壘。超大記憶體:整合HBM2e記憶體,容量高達96GB,滿足大模型訓練與推理的海量資料吞吐需求。高速互聯:支援7個獨立ICN鏈路,片間互聯頻寬達到700GB/s,可靈活配置多卡組合,輕鬆應對大規模叢集擴展。生態友好:全面相容主流AI生態,並提供原始碼級編譯能力與統一程式設計介面,極大降低了使用者的遷移和二次開發門檻。2. 實測表現卓越,瞄準核心AI場景經驗證,“真武810E”在實際應用中表現突出:自動駕駛:相容超過50個常見模型,泛化性強,絕大多數模型無需特殊適配,既便於客戶自服務,也降低了技術外洩風險。AI訓練:通過軟硬協同最佳化,有效解決大規模訓練中的通訊瓶頸,高效適配各類主流模型、框架與算子庫,顯著加速訓練迭代。AI推理:不僅支援主流推理引擎,還提供自研的專用推理框架和算子庫,為推理場景提供針對性極致最佳化。多模態生成:結合強大的AI算力與硬體級視訊編解碼能力,在文生視訊、圖文生成等前沿場景的推理與訓練中均展現出卓越性能。(圖源:平頭哥官網)“真武810E”的強勁性能,源於其底層採用的創新PPU架構。這是一種專門為AI計算設計的新型晶片架構,它採用了獨特的機率計算方法,能夠在處理複雜的AI任務時實現更高的效率和更低的功耗。外媒“The Information”此前爆料,平頭哥研發的第一代PPU性能可匹敵輝達暢銷的H20,而升級版的PPU性能則比輝達A100更強。另據業內人士透露,相比輝達H20晶片,平頭哥PPU性價比更高、能效高,特別在AI推理場景下表現突出。3. “芯”路歷程,注入新活力自2018年9月成立以來,平頭哥作為阿里全資的晶片業務主體,已建構起端雲一體的完整產品線,涵蓋資料中心晶片、IoT晶片等,實現晶片端到端設計鏈路全覆蓋。2019年,平頭哥推出AI推理晶片含光800,推理性能達到78563 IPS,每秒可處理7.8萬張圖片,創造了當時同類晶片的性能和能效比兩項第一。2021年,平頭哥發佈阿里首個通用伺服器晶片倚天710,性能超過同期業界標竿20%,能效比提升超50%。(圖源:平頭哥官網)此外,在儲存晶片方面,鎮岳 510 SSD 主控晶片已成功落地;在終端側,羽陣IoT晶片已實現數億顆出貨;網路晶片領域,資料中心核心場景的晶片佈局已基本成型。近期,多方消息顯示,阿里巴巴集團已決定支援平頭哥探索未來獨立上市的路徑。公司計畫先進行內部重組,引入員工持股,再擇機啟動IPO。這一戰略舉措,無疑將為平頭哥在激烈的全球晶片競爭中注入新的活力與發展空間。目前,具體上市時間還未確定。4. 寫在最後隨著“真武810E”的正式亮相與“通雲哥”體系的協同發力,阿里巴巴正將其在AI時代的全端自研技術實力清晰呈現,為中國在全球AI算力競賽中增添了重要籌碼。 (芯師爺)
賭城豪賭!亞馬遜“All in”自研晶片,招招刺向輝達軟肋:表面喊著合作,背後全是“算計”
(本圖片由AI生成)本周的拉斯維加斯,金錢永不眠,但真正的豪賭不在賭場,而在AWS的發佈會現場。當眾多開發者湧入re:Invent大會時,雲端運算霸主亞馬遜終於不再沉默。面對輝達的步步緊逼,它直接將籌碼推向了桌子中心:All in自研晶片。亞馬遜先是用一張Trainium3鎮住全場:性能飆升4倍,成本直接腰斬一半;緊接著,它又亮出了袖中的“底牌” Trainium4,FP4吞吐量暴漲6倍、記憶體頻寬提升4倍,招招直指輝達的軟肋。這一次,亞馬遜不再甘心做一個“賣鏟子”的中間商。這場關於算力控制權的戰爭,亞馬遜已經不想再忍了。與此同時,全新的Nova模型家族和“模型鍛造”工坊更顯示出亞馬遜試圖在AI時代重塑“雲端霸權”的野心。這不只是一次產品發佈,這是亞馬遜對輝達“稅收”的抗爭,也是對Google和微軟等雲服務商發起的大規模反擊。矽谷出租屋裡的歡呼:輝達GPU不再是唯一選擇故事的開始,發生在一個看似不起眼的矽谷出租屋裡。那裡聚集著AI視訊初創公司Decart的幾十名工程師。這是一家剛剛融資1億美元、估值高達31億美元的新晉獨角獸企業。但此時正陷入一場絕望的程式碼馬拉松:他們試圖訓練一款名為“Lucy”的AI視訊生成應用,目標是實現即時渲染,沒有任何卡頓。在嘗試了輝達GPU等多款競品晶片後,結果都不怎麼樣。Decart聯合創始人迪恩·萊特斯多夫(Dean Leitersdorf)回憶道:“在突破之前,我們只能生成1.5到2秒的視訊,然後螢幕上的畫面就變成了一團噪點。模型運行越來越亂,一切都會模糊。”直至AWS向他們提供了尚在保密階段的自研AI訓練晶片Trainium3。那是馬拉松程式設計的兩周後,所有人都身心俱疲。萊特斯多夫正在打Zoom電話,突然聽到身後傳來瘋狂的歡呼聲。“那一刻,我看到四個人興奮地跳上跳下,”萊特斯多夫說,“Trainium3讓我們運行了更龐大、更聰明的模型,而且不會崩潰。”Decart的實測資料顯示,Trainium3生成的視訊影格率是其他晶片的4倍。這一幕極具象徵意義。長期以來,輝達GPU是AI行業的硬通貨,是不可踰越的護城河。但現在,缺口被撕開了。亞馬遜在周二正式宣佈Trainium3開始上市銷售,採用3奈米工藝,由AWS旗下的Annapurna Labs設計。官方資料顯示,相比同等GPU系統,Trainium3能將AI模型的訓練和運行成本降低高達50%。(本圖片由AI生成)在這個算力成本決定生死的時代,“50% 的成本削減”對任何一家AI公司來說,都是無法拒絕的誘惑。AWS Trainium晶片首席架構師羅恩·迪亞曼特(Ron Diamant)直言不諱地表示:“歸根結底,主要優勢就是性價比。”會上,亞馬遜AWS宣佈已擁有包括Anthropic、Karakuri、Metagenomi、Neto.ai、理光和Splash Music在內的穩定客戶群。此外,亞馬遜發佈了計算叢集Trainium3 UltraServer,每個UltraServer可容納144顆Trainium3晶片。更誇張的是,這些伺服器可以連接起來,為單個應用提供高達100萬顆晶片的算力支援。這是上一代系統規模的10倍。在能源消耗日益成為資料中心噩夢的當下,AWS宣稱新系統的能效比上一代提高40%。 這對於那些正為“天文數字”般電費帳單發愁的AI巨頭們來說,無疑是另一劑強心針。“特洛伊木馬”:亞馬遜的陽謀如果說Trainium3是正面強攻,那麼亞馬遜對下一代晶片Trainium4的預告,則是一記精妙的“側翼包抄”。眾所周知,輝達最深的護城河不僅是GPU,更是NVLink互連技術和CUDA生態。為了打破這一壟斷,亞馬遜AWS祭出了一招“以夷制夷”。AWS在大會上透露,正在研發中的Trainium4將支援輝達的NVLink Fusion高速互連技術。這意味著,客戶可以在AWS的機房裡,混用亞馬遜的自研晶片與輝達GPU。亞馬遜似乎拋出了這樣的橄欖枝:“你不需要立刻拋棄輝達,而是可以把它們連在一起用。但你會發現用我的晶片更便宜、更高效。”這是一種典型的“特洛伊木馬”策略。通過相容對手標準,降低客戶的遷移門檻,然後用極致的性價比慢慢蠶食市場份額。(本圖片由AI生成)迪亞曼特在接受採訪時表現得十分“謙遜”。他說:“我不認為我們是在試圖取代輝達。”一再強調是要給客戶更多選擇。但市場反應很誠實。當Meta開始與Google商談購買TPU晶片、OpenAI與博通合作開發晶片的消息傳出,再加上亞馬遜的這一記重拳,輝達股價應聲波動。儘管輝達曾在社交平台X上強硬回擊稱自己“領先行業整整一代”,是唯一能運行所有AI模型的平台,但不可否認的是,“去輝達化”正在成為矽谷巨頭們心照不宣的共識。即便像Anthropic這種接受輝達100億美元投資的盟友,在AWS的誘惑面前也表現出了“渣男”的一面。AWS透露,Anthropic正在使用超過100萬顆Trainium2晶片建構Claude模型。Nova模型與“代工廠”模式:不僅僅是賣雲服務如果硬體層面比拚的是“省錢”,那麼軟體和模型層面的競爭則是“奪權”。亞馬遜一直被詬病在生成式AI大模型方面“趕了個晚集”,落後於OpenAI的GPT和Google的Gemini。但這次,AWS CEO馬特·加曼(Matt Garman)顯然想通過“實用主義”彎道超車。全新的Nova模型家族周二悉數亮相:——Nova Pro與Nova Lite: 對標GPT-5和Gemini 3.0等等級的強力模型。——Nova Sonic: 即時語音模型。——Nova Omni: 能夠像人一樣處理音訊、視訊、圖像和文字的多模態推理模型。亞馬遜宣稱,Nova 2 Pro在各項基準測試中匹配甚至超越了OpenAI和Google的旗艦模型。亞馬遜特別提到,該模型在執行複雜指令和電腦操作等智能體任務方面表現突出。較小的Nova 2 Lite模型則在多項基準測試中與Claude 4.5 Haiku、GPT-5 Mini和Gemini Flash 2.5性能相當。但真正的殺手鐧並非模型本身,而是名為Nova Forge的新工具。這一工具允許企業客戶在模型“預訓練”階段就匯入自己的資料。這與目前市面上常見的“微調”(Fine-tuning)截然不同。微調只是在成品模型上修修補補,限制了調優空間;而Nova Forge是讓客戶參與到地基澆築中。亞馬遜AI業務負責人羅希特·普拉薩德(Rohit Prasad)在發佈前接受採訪時表示:“每個企業都需要精通自身業務領域的前沿模型。”他透露,Nova Forge的技術最初是為Alexa等內部團隊開發的,“這本質上是全新的開放式訓練範式”。Reddit就成為了第一個吃螃蟹的人。(本圖片由AI生成)Reddit首席技術官克里斯·斯洛維(Chris Slowe)表示,傳統的微調根本不管用,因為大多數通用模型被設計得過於“嚴格”,會拒絕分析Reddit上某些具有爭議或攻擊性的內容。但通過Nova Forge,Reddit將自家龐大語料庫注入模型底層,訓練出了一個真正的“Reddit專家”。“其他大語言模型只是從概念上理解Reddit,而我們的模型真正懂其中的‘黑話’。”斯洛維說。這正是亞馬遜的精明之處。它沒有選擇用一個通用的超級ChatGPT來統治世界,而是通過Nova Forge,讓每一家公司都能以更低成本擁有一個屬於自己的“前沿模型”, 無論是Reddit、索尼還是Booking.com。“授人以漁”的策略,或許正是亞馬遜在AI時代差異化競爭的關鍵。AWS CEO的冷靜思考:拒絕泡沫,擁抱實效在AI淘金熱中,AWS CEO加曼的態度顯得異常冷靜。在大會前的專訪中,加曼毫不避諱地談到了他對所謂“AI泡沫”的看法。“當人們談論泡沫時,我認為風險最大的是那些交易,”加曼直言那些雖然沒有大規模應用、甚至沒有寫出多少程式碼,卻獲得數十億美元融資的初創公司,“一家沒有程式碼的初創公司估值能有30億美元?也許吧,但也可能不是。這些才是大問號。”加曼的賭注不在於製造下一個ChatGPT,而在於將AI變成一種像水電一樣廉價、可靠的基礎設施。他更看重AI的實際效能,並舉了亞馬遜內部案例:AWS一個團隊最近對內部程式碼庫進行了大規模重寫。按照傳統估算,這需要30個人工作18個月。但在AI智能體的輔助下,僅僅6個人只用71天就完成了任務。這種效率的提升是實實在在的,而不是資本講的故事。當然,挑戰依然存在。雖然亞馬遜在上一季度交出了超預期財報,但Google和微軟憑藉Gemini、OpenAI ChatGPT等明星AI,依然在快速蠶食市場份額。此外,亞馬遜內部激進的AI轉型也引發了陣痛,包括10月份宣佈的裁員計畫以及部分員工對AI環境影響的擔憂,都是加曼必須面對的難題。結語:巨人的反擊很長一段時間裡,亞馬遜在AI領域給人的印象是“沉睡的巨人”。微軟深度繫結了OpenAI,Google擁有DeepMind,而AWS似乎還在靠著老舊的雲服務模式慣性滑行。但re:Invent 2025徹底粉碎了這種印象。亞馬遜正在建構一個嚴密的戰略包圍圈:(本圖片由AI生成)底層: 用Trainium晶片打破輝達的價格壟斷,用更低能耗解決資料中心的電力焦慮。中層: 用Nova Forge打破通用大模型的壟斷,讓企業擁有定製化模型的主權。頂層: 用Bedrock和智能體平台,將AI嵌入到每一個具體的應用開發中。正如加曼所說:“兩年前,人們在建構AI應用;現在,人們在建構內建AI的應用。”這不再是關於誰的模型能寫出更優美的詩歌,而是關於誰能讓AI以更低成本、更可控方式,真正流淌進商業的各處毛細血管裡。輝達的股價或許還會繼續走高,OpenAI的發佈會或許依然吸睛,但亞馬遜已經把戰場拉回了它最擅長的領域:規模、成本與效率。在這場沒有硝煙的戰爭中,亞馬遜不想做那個最亮眼的公司,它只想做那個笑到最後、賺走每一分基礎設施利潤的公司。對於黃仁勳和奧特曼來說,真正的麻煩可能才剛剛開始。 (網易科技)
亞馬遜出招:新一代 Trainium3 登場 —— 會撼動輝達的“王座”嗎?
AWS 在 re:Invent 上推出自研 Trainium3 晶片並透露與輝達合作的路線圖,引發“雲端晶片戰”新一輪比拚。一、到底發生了什麼?事實速覽在 AWS re:Invent 大會上,亞馬遜正式發佈了其新一代 AI 訓練加速器 Trainium3,並推出基於該晶片的新伺服器據稱能比上一代大幅提升性能與能效。與此同時,AWS 透露計畫在未來的 Trainium4 中採用輝達的 NVLink Fusion 技術以實現更高效的互聯。AWS 還在大會上同步推出包括 Nova 2 在內的新款基礎模型與定製化工具(如 Nova Forge),表明 AWS 正在把晶片 + 模型 + 雲服務做一體化競爭策略。(以上為最核心的兩點:亞馬遜既自研晶片,又願意相容/協作輝達的互聯技術,這種“自研+開放互通”的策略,是本次事件的關鍵。)二、Trainium3 技術與定位(通俗解讀)定位:Trainium 系列是 AWS 專為模型訓練設計的加速器家族。Trainium3 為該路線的最新一代,主打“更高訓練吞吐與更低能耗”的雲端訓練平台。性能承諾:AWS 宣稱新一代伺服器在訓練性能和能效上實現顯著提升,能以更低成本支援大型模型訓練。多家媒體報導 Trainium3 在某些指標上比上一代快數倍,並得到部分企業使用者的試用認證。路線靈活:值得注意的是,AWS 同時宣佈將在未來版本引入 NVLink Fusion(輝達的高速互聯方案),顯示 AWS 在“自研”和“相容主流生態”之間尋求平衡。三、這對輝達意味著什麼?——威脅在那兒、機會又在那兒為什麼有人說這會對輝達構成威脅?雲端客戶大量自研等於潛在替代需求:AWS 是全球最大的雲服務商之一,如果越來越多 AI 客戶選擇在 AWS 的 Trainium 實例上訓練模型,長期會壓縮對輝達 GPU(如 H100/H200)的純粹需求。價格與成本優勢:Trainium 的早期版本就主打“比通用 GPU 更低的訓練成本”;若新代繼續擴大性能/能效比優勢,企業在算力採購上會更傾向於成本更優的專用實例。“機房級整合”能力:AWS 不只是賣晶片,它能把晶片、網路、儲存、模型服務整合為一套完整產品(比如 Bedrock / Nova Forge),這對客戶吸引力極強。輝達雖然生態龐大,但云服務商的“端到端”產品也有不可替代性。但這並非單向打壓——也可能演變為合作或互補:AWS 已公開表示將在 Trainium4 中採用 NVLink Fusion,這意味著即便 AWS 自研,面對更大規模的多晶片互聯場景,它也願意使用輝達的互聯技術。兩者既競爭又存在合作空間。四、對我們產業的三點啟示雲廠商自研晶片是長期趨勢中國的阿里、華為、浪潮等也在推進自研 AI 晶片與雲端算力佈局。AWS 的動作再次證明:掌握“硬體 + 雲服務”能顯著提高平台議價能力與成本控制。對中國雲廠商與晶片廠商而言,這是追趕與競合的雙重機會。模型與算力“捆綁銷售”更普遍AWS 除了晶片,還推出 Nova 家族模型與 Nova Forge 工具,說明未來客戶更在意“效率與一體化服務”,不僅僅是買晶片。中國企業若要搶市場,需提供同樣一體化、低門檻的產品體驗。輝達的王座短期難以被一錘定音撼動輝達在硬體生態、軟體工具(CUDA)、合作夥伴與市場份額上都具備深厚優勢。單靠一款晶片難以立即替代其全盤優勢;但“雲端自研+局部互通”的策略會長期重塑需求格局。對中國本土晶片廠商而言,這既是挑戰也是進入機會窗口。五、競爭與共生並存,真正的贏家是“有整合力者”AWS 推出 Trainium3,並同時選擇在未來版本中支援 NVLink Fusion,這一組合耐人尋味:一方面 AWS 希望通過自研降低成本並掌控堆疊;另一方面又承認在互聯等技術上,與已有生態協作更有利於客戶。換言之:未來的雲端晶片戰不會是單純的“全盤替代”或“徹底孤立”,而是以“更強的整合能力、服務能力與成本優勢”為贏者。對關注 AI 基礎設施的你來說,值得持續關注的點包括:Trainium3 的真實基準與客戶案例、Trainium4 與 NVLink 的合作細節、以及中國雲/晶片廠商的應對節奏。 (思考的邊界)
「給不出2000億顆晶片?行,我自己來!」馬斯克急了,正在憋一個「超級大招」
“給不出2000億顆晶片?行,那我自己造。”當全世界都在盯著Robotaxi何時上路,或是星艦何時能征服火星時,伊隆·馬斯克正在美國德克薩斯州的荒野深處,悄悄推進一項鮮為人知的「地下工程」。這一次,他不再滿足於買晶片,而是要從零打造一個全端半導體帝國。多年來,馬斯克一直把一句話掛在嘴邊:“決定特斯拉未來的,不是汽車而是晶片。”現在馬斯克不再只是說說而已。在被全球供應鏈短缺和代工巨頭產能瓶頸「逼到牆角」後,馬斯克決定不再等待。 他在秘密建構一個全端半導體製造生態系統,從最基礎的PCB 印製電路板,到尖端的先進封裝,甚至還要自建晶圓廠。這是一場豪賭,賭注是AI、機器人和衛星網路的未來控制權。受他大力宣傳自主研發AI 晶片的影響,特斯拉本周以來已經上漲6%。01. 被「逼」出來的野心:沒人能跟上我的速度馬斯克為什麼要自己造晶片?原因很簡單:在他的眼中,台積電和三星都太慢了。特斯拉的AI 路線圖依賴高效能晶片,SpaceX 的星鏈需要定製射頻晶片。但在全球晶片荒期間,馬斯克發現自己只能排在蘋果、輝達和高通身後。更讓馬斯克抓狂的,是傳統晶片製造業的「慢」。在與投資者羅恩·巴倫(Ron Baron)的對話中,馬斯克毫不留情地吐槽:“我對台積電和三星充滿敬意,但當我們問建一個新廠要多久時,他們說五年。五年?對我來說那簡直是永恆。”馬斯克的字典裡只有「立刻」和「馬上」。“如果他們不能在我們需要的時間內提供1000億到2000億顆(亦或是千億美元)等級的AI 晶片需求,那我們就自己幹。”這是一個讓行業分析師聽了都會「噴飯」的數字。要知道,2023年全球半導體裝置出貨量約為1.5兆顆,但其中包含了大量低階晶片。馬斯克張口就是千億等級的AI 晶片需求,這不只是野心,簡直是「瘋了」。要滿足單一客戶如此龐大的AI 算力晶片需求,現有的供應鏈根本做不到。但馬斯克的邏輯很簡單:既然你們不夠快,那我就自己幹。02. 德州的秘密工程:除了造車,還造“心臟”馬斯克沒有在開玩笑。在德克薩斯州,龐大的晶片製造版圖正在成型。他已經在德州建成了一座PCB(印刷電路板)工廠。這讓他能夠擺脫外部供應商,對特斯拉和SpaceX 的硬體迭代擁有絕對的控制權。而真正的重頭戲是FOPLP 先進封裝廠。由SpaceX 管理的一座FOPLP(扇出型面板級封裝)工廠正在接收裝置。FOPLP 是目前全球最先進的後端技術之一,專門用於處理高密度、高效能的AI 晶片。根據內部洩漏的時間表,工廠建設節奏快得驚人:· 2025年9月:裝置開始進場· 2026年初:開始安裝調試· 2026年第三季:限量試產· 2027年第一季:全面量產雖然初期產能僅為每月2,000個高效能封裝,但這標誌著馬斯克將掌握只有極少數美國科技巨頭才擁有的內部先進封裝管線。雖然在產能爬坡期間,SpaceX 將暫時採購意法半導體(STMicroelectronics)和群創光電(Innolux)的產品作為過渡,但最終目標是實現完全的「封裝自主」。03. 終極目標:月產百萬晶圓的超級工廠然而,封裝廠並不是馬斯克的極限。在特斯拉股東大會上,馬斯克拋出了真正的「核彈」:「我們準備建立一個晶圓廠,起步月產10萬片,最終目標是月產100萬片。”如果真如馬斯克所說,那將是美國乃至全球最大的晶圓廠之一。儘管分析師認為馬斯克可能會從14奈米等成熟過程切入,而非直接挑戰台積電的3奈米過程,但這對於汽車電子、電源管理和部分邏輯晶片來說已經綽綽有餘,且能極大降低成本和供應鏈風險畢竟特斯拉需要海量晶片餵給FSD 駕駛系統和柯博文(Optimus)機器人,SpaceX 也需要穩定的晶片供應來維持星鏈的擴張。04. 敵人的敵人就是朋友:英特爾入局馬斯克還找到了一個急需翻身的盟友:英特爾。業內人士透露,英特爾正成為馬斯克晶片帝國的核心合作夥伴。特斯拉Dojo 3晶片由台積電和三星代工,但封裝環節交給了英特爾在亞利桑那州的工廠。這是一場完美的利益交換:英特爾急需大客戶來證明IDM 2.0戰略的合理性,而馬斯克需要美國本土製造能力和英特爾的工程人才。05. 人才爭奪戰:這一局,我要贏從特斯拉已經普及的AI4到即將流片的AI5,再到已經開始研發的AI6,為實現「每年推出一款新AI 晶片」的瘋狂迭代速度,馬斯克正在矽谷發起一場人才掠奪戰。他在社群媒體X 上直接喊話,呼籲擁有AI 晶片設計、實體佈局和訊號完整性專長的頂尖工程師直接發郵件毛遂自薦。為了挖人,馬斯克開出的價碼非常豐厚:· 物理設計工程師(10年+經驗):年薪15.2萬至26.4萬美元(約合人民幣110萬-190萬),外加現金獎金和股票期權。· 訊號與電源完整性工程師:年薪最高可​​達31.8萬美元(約合230萬美元)。不僅給錢,馬斯克還親自下場督戰。他透露自己每周二和周六都會與晶片團隊開會,深度參與設計,直到AI5流片完成。06. 結語:別低估那個“瘋子”輝達CEO 黃仁勳曾說過,複製台積電的先進製造能力幾乎是「不可能的任務」。確實,從零打造晶片供應鏈面臨難以想像的技術壁壘。但華爾街的分析師們也不敢輕易看空馬斯克——畢竟他已經顛覆了火箭和汽車兩個重資產產業。馬斯克的邏輯很清晰:在AI、機器人和衛星網路的未來戰場上,算力就是生命線。他不能把這條生命線交到任何其他人手裡。當競爭對手還在為搶不到輝達的GPU 而焦慮時,馬斯克正在打造自己的兵工廠。這很瘋狂,但這很馬斯克。 (網易科技)
Google TPU強勢出擊,正面挑戰輝達AI晶片霸權
Google正加速推進自研AI晶片業務,與輝達展開正面競爭。多年來,Google一直將自研的AI晶片——張量處理單元(TPU)出租給客戶,供其在Google雲(Google Cloud)的資料中心內使用。據知情人士透露,Google現已開始向部分客戶(包括Meta Platforms和大型金融機構)推廣新方案:允許他們在自有資料中心部署TPU晶片。知情人士表示,Facebook和Instagram的母公司Meta目前正與Google洽談兩項合作:一是計畫在2027年斥資數十億美元,在自有資料中心採用TPU晶片;二是明年從Google雲租賃Google晶片。當前,Meta的AI運算主要依賴輝達的圖形處理器(GPU)。對Google而言,此類合作有望擴大TPU的市場覆蓋面。Google推TPU新方案。一位直接知情人士透露,Google在向企業推廣“自有資料中心部署TPU”方案時提到,客戶希望此舉能讓敏感資料滿足更高的安全與合規標準。Google還指出,TPU對那些在自有設施中運行AI模型的高頻交易公司尤為適用。這項業務還可能大幅提升Google的營收。Google雲部門部分高管表示,該方案有望搶佔輝達年營收的10%,對Google而言相當於每年數十億美元的收入增量。Google吸引客戶使用TPU的核心優勢之一在於成本——相比價格高昂的輝達晶片,TPU的使用成本更低。這也使得甲骨文等其他雲服務商難以通過出租輝達晶片獲得理想的毛利率。不過,輝達大機率會抵制Google在AI晶片市場的擴張步伐。作為AI伺服器晶片市場的絕對霸主,輝達已成為全球市值最高的公司,當前市值達4.36兆美元。其市場壟斷地位推動營收飆升,進而積累了豐厚的現金流,這些資金又可反哺給OpenAI、Anthropic等客戶,加深合作繫結。輝達CEO黃仁勳一直密切關注GoogleTPU的技術進展,並迅速採取行動,說服OpenAI、Anthropic等現有及潛在TPU客戶,與輝達GPU簽訂大額合作協議。有分析認為,黃仁勳可能會通過促成與Meta(輝達最大客戶之一)的新交易,來阻撓Meta與Google的TPU合作。“我們始終在探索與頂尖AI實驗室深化合作的方式。”輝達發言人表示。Meta發言人拒絕對TPU相關洽談發表評論。Google發言人未就TPU推廣計畫置評,但表示“市場對我們自研TPU和輝達GPU的需求正在加速增長;我們將一如既往地同時支援這兩種方案。”Gemini的成功:為TPU推廣添力Google當前在AI領域的強勁勢頭,或許能為其TPU推廣提供助力。本月早些時候,Google發佈了最新大型語言模型Gemini 3,獲得了眾多科技界知名人士的高度評價。他們認為,Google已彌合了與OpenAI之間的技術差距。據英國《金融時報》11月25日報導,GoogleTPU引發市場焦慮,輝達股價盤初急挫超7%、收跌2.6%,市值蒸發約1150億美元,超微電腦等關聯公司跟跌。Google長期以來一直使用TPU開發AI模型。部分開發者認為,借助TPU,Google在“為新大型AI模型訓練所需的密集伺服器叢集提供算力”方面,已縮小與輝達的領先差距。這一進展的佐證是:Meta與Google洽談的TPU合作,核心是用於訓練新AI模型,而非用於現有模型的推理過程。這一細節值得關注,因為多數分析師此前認為,鑑於暫無企業能在訓練晶片技術上與輝達抗衡,挑戰輝達的最大機會應在推理晶片領域,而這類晶片無需大型互聯伺服器叢集。與此同時,Meta也在繼續開發自研的AI推理晶片,以降低成本並減少對輝達的依賴。為推動“客戶自有資料中心部署TPU”的新計畫(該計畫名為TPU@Premises),Google專門開發了一款軟體,旨在降低客戶使用TPU的門檻。這款名為“TPU指揮中心”(TPU command center)的軟體,似乎是Google針對輝達核心優勢的破局之舉。輝達的Cuda軟體已成為AI開發者的“事實標準”。開發者對其操作極為熟悉,能輕鬆讓模型在輝達晶片上運行。而Google用於TPU的配套程式語言Jax,開發者熟練度相對較低。不過Google向客戶保證,他們可以使用與PyTorch相關的軟體來操作TPU,無需成為Jax專家。客戶可通過PyTorch相關軟體與控制TPU伺服器叢集的指揮中心進行互動。值得一提的是,PyTorch由Meta研發並開源。輝達的應對:以投資繫結核心客戶無論Google的TPU計畫最終能否成功,僅“出現強大替代方案”這一事實,就已為Anthropic、OpenAI等不願過度依賴單一AI晶片供應商的輝達大客戶帶來了利多。上個月,在Google宣佈向Anthropic提供最多100萬個TPU後,黃仁勳迅速宣佈向Anthropic投資數十億美元,並獲得了這家AI初創公司使用輝達GPU的承諾。類似地,在OpenAI計畫從Google雲租賃TPU的消息曝光後,黃仁勳與OpenAI達成了初步協議:擬投資高達1000億美元,助力其自建資料中心,同時探討向其出租輝達GPU的可能。輝達發言人強調,其對AI初創公司的投資不強制要求對方採購輝達GPU。黃仁勳已認可Google在AI晶片領域的進展。今年秋初的一檔播客節目中,黃仁勳表示:“Google已迭代至第七代TPU,我們確實應該給予應有的尊重。”輝達於26日凌晨發文回應GoogleTPU擴張,稱樂見GoogleAI進展、將繼續為其供貨。同時,輝達強調自身“是唯一適配全計算場景、支援所有AI模型的平台”,並暗指TPU這類專用ASIC晶片在通用性、性能靈活性上遜於自家產品,意在穩住市場信心。Google早在近十年前就啟動了TPU研發項目,並於2018年左右向有意自研AI模型的客戶開放TPU使用權限。目前,Google雲仍在向客戶出租搭載輝達晶片的伺服器,這項業務的營收仍顯著高於 TPU 相關業務。亞馬遜、微軟等雲服務領域的主要競爭對手,以及OpenAI、Meta等其他大型AI開發者,均已啟動自研AI晶片的嘗試,但迄今為止成效有限。夏季加速擴張:繫結小型雲服務商今年夏天,Google在TPU市場擴張方面變得更為激進。Google開始接觸那些主營輝達晶片租賃的小型雲服務提供商,提議在其資料中心部署TPU。目前,Google已與至少一家雲服務提供商達成協議——總部位於倫敦的Fluidstack將在紐約的資料中心部署TPU。該協議包含讓Fluidstack難以拒絕的條款:如果Fluidstack無法承擔紐約資料中心的租賃成本,Google將作為“後盾”提供最高32億美元資金支援。這一承諾正幫助Fluidstack及其資料中心提供商籌集該資料中心的建設資金。輝達也曾向CoreWeave等AI雲合作夥伴作出過類似承諾。Google還試圖與其他主打輝達晶片的雲提供商達成交易。其中,包括正在為OpenAI開發輝達晶片資料中心的Crusoe,以及向微軟出租輝達晶片且與OpenAI有合作的CoreWeave。目前這些洽談的進展暫未披露。 (創新觀察局)