亞馬遜又拿到船票了?

“我們的晶片業務火熱。”

這句話既不是出自輝達、英特爾,也不是Google、微軟,而是來自於亞馬遜CEO安迪·傑西(Andy Jassy)最新的股東信。

他還補充到,Trainium晶片的需求正在爆發。

這聽起來多少有點反直覺。

因為過去一段時間,你聽到的亞馬遜,大機率不是這個故事。

你聽到的應該是亞馬遜如何裁員,是自由現金流被AI基建吞掉,是AWS增速被質疑,是它和甲骨文一起被放進了“AI包工頭”那一撥裡。

在很多人的印象裡,亞馬遜根本就不是一家站在AI潮頭的公司。

模型這邊,OpenAI有ChatGPT,Anthropic有Claude,Google有Gemini。如果我問你亞馬遜最強的模型叫什麼,很多人可能還真得先搜一下。

但在大家沒怎麼注意的地方,亞馬遜其實已經暗度陳倉了。

在這封股東信裡說寫到,AWS的AI業務年化收入已經超過150億美元。

更關鍵的是,包含Graviton、Trainium和Nitro在內的亞馬遜自研晶片業務,年化收入已經超過200億美元,而且還在以三位數同比增長。

安迪表示,如果把這塊業務單獨拆出來,像輝達、英特爾那樣直接向第三方賣晶片,它的年化規模大約可以達到500億美元。

這個規模就不能再管它叫“內部降本工具”了,這是一塊真正長出來的新業務。

更重要的是,亞馬遜現在不是只做晶片。它有底層晶片,有資料中心,有AWS,有Bedrock,有Anthropic這樣的深度繫結客戶,也有OpenAI、蘋果這些外部大客戶。

換句話說,雖然模型本身沒那麼亮眼,不過亞馬遜的確是一家全端AI公司了。

微軟還在OpenAI、Copilot、Azure和Maia之間摸索主軸,但亞馬遜的方向反而越來越清楚。

讓AI儘可能跑在AWS上,儘可能消耗AWS自己的晶片,最後把AI時代的利潤率和控制權重新抓回自己手裡。

所以我才覺得,晶片正在成為亞馬遜的“AWS”。

就比如Anthropic,現在他們的Claude模型,全都已經在亞馬遜的晶片上跑過了。

為了吃定Anthropic這個大客戶,亞馬遜還專門建了一個AI算力叢集,叫Project Rainier。

這個叢集是全球已知最大的非Nvidia算力叢集之一,僅印第安納州New Carlisle這一處園區,當時就已經部署了大約50萬顆Trainium2晶片。

到2025年底,規模已經擴大到100萬顆晶片。而這些晶片存在的目的就一個,跑Claude。

亞馬遜都這麼客氣了,Anthropic自然也得禮尚往來,後者直接參與了亞馬遜Trainium3晶片的設計工作。

以前都是晶片公司有什麼晶片,AI公司才能訓練怎樣的模型。現在反過來了,AI公司開始教雲廠商怎麼造晶片。

問題也隨之而來。亞馬遜為何非要自己造晶片?它真的是為了挑戰輝達,還是只是想把AWS的利潤率再抬高一點?

歸根結底,亞馬遜造晶片這件事,表面看是個硬體故事,但你只要往深處看,就會發現還是亞馬遜那套平台邏輯,把別人的增長,變成自己的基礎設施收入。

01

一場從2015年開始的豪賭

Annapurna Labs成立於2011年,然後他們就一直處於隱身模式。

這家公司由三位工程師創立,他們採用了一種很叛逆的設計理念,從雲端運算、資料流量、實際需求倒推回去,再設計晶片。這種反向思維方法,恰好與亞馬遜的工作方式完全契合。

2015年初,亞馬遜以3.5億美元收購了一家以色列晶片創業公司Annapurna Labs。

沒有新聞發佈會,在亞馬遜的財報中,也只有一條簡短聲明。當時所有人都覺得,這只是亞馬遜眾多投資中不起眼的一筆。

收購完成後,亞馬遜並沒有急於推出產品。Annapurna Labs的團隊先是參與了AWS相關項目,後來開始給Nitro System的底層做硬體設計。

Nitro System是AWS的一套雲基礎設施底層架構。它是把原來由伺服器主CPU和傳統虛擬化軟體負責的很多事情,拆出來交給專門的硬體去做。

Annapurna Labs就是負責來設計這個硬體。

有一說一,這只是小打小鬧,或者你可以直接理解為Annapurna Labs在融入亞馬遜這個大家庭之前的一次團建,真正的故事要從2018年開始講起。

3年之後,AWS推出了Inferentia,這是一款專門用於推理的機器學習晶片。

亞馬遜認為,與訓練相比,推理任務對晶片的要求略低,更容易切入。這屬於人之常情,很多國內做AI晶片的廠商也秉持著相同的想法。

2019年,搭載Inferentia晶片的Inf1實例正式上線。

這玩意到底性能如何呢?亞馬遜之前有一套搭載輝達T4 GPU的雲伺服器,主打圖形渲染、視訊處理和機器學習推理。

Inf1比G4多了最高3倍的吞吐,每次推理成本最多低40%。

但是,Inf1在市場上卻沒什麼聲量。原因在於它是專門為推理場景做了最佳化,特別適合用來做推薦系統、圖像識別、語音識別、NLP推理這些。

可問題就在於,亞馬遜的整個晶片生態剛起步,你想用Inf1,就必須得用亞馬遜自己的AWS Neuron SDK。

這個SDK的框架雖然支援TensorFlow/PyTorch/MXNet,但相容性和成熟度遠不如輝達的CUDA。並且早期編譯器限制很多,比如控制流、模型大小、BERT序列長度等都有約束。

所以Inf1更像是個概念產品,只是給市場打了個樣,亞馬遜自己也深知這一點。

不過Inf1的表現還是超出了亞馬遜的預期,於是接下來,亞馬遜開始高歌猛進。

2021年,AWS正式發佈了首款面向客戶用於訓練AI模型的晶片Trainium。訓練晶片的技術難度遠高於推理晶片,第一代Trainium基於7奈米工藝,擁有約550億個電晶體,於2022年開始為EC2 Trn1實例提供算力。

亞馬遜表示,在特定工作負載下,Trainium的每token成本比A100叢集低54%。對於GPT類模型,Trainium的吞吐量與A100相當,但成本只有一半左右。

2023年底,亞馬遜在re: Invent大會上發佈了第二代Trainium2晶片。這款晶片採用5奈米工藝,計算核心數量是第一代的4倍,訓練速度提升4倍,記憶體容量顯著增加。

Trainium2針對生成式AI訓練做了專門最佳化,支援結構化稀疏性,能夠更高效地處理大語言模型的訓練任務。且相較於基於H200/H100的同類雲配置,價格性能可再提升30%到40%。

2024年12月,亞馬遜在re: Invent大會上首次公佈了新一代Trainium3晶片。這是AWS首款採用3奈米工藝的AI晶片。

到2025年底,Trainium3被正式整合到Trn3 UltraServer中,每台伺服器搭載144顆晶片,提供362 petaflops的總算力。這些伺服器採用液冷技術,能效比前代提升約4倍。

AWS表示在部分訓練和推理場景下,客戶可將成本進一步壓低至輝達GPU方案的一半左右。

從2015年到2026年,亞馬遜在晶片業務上的投入是漸進式的,因此越後面投入越大。

2025年,亞馬遜的資本支出達到約1250億美元,其中絕大部分流向AI所需的資料中心、電力和晶片。

2026年,這個數字預計將達到2000億美元,比分析師預期高出近40%,也超過了Google宣佈的1850億美元上限。

02

亞馬遜的晶片為何能賣出去?

錢,不能只花不賺。

前文提到亞馬遜晶片業務的年化營收已超過200億美元,是這個數字包括Graviton處理器、Trainium訓練晶片和Nitro網路晶片的總收入。

這封信還透露,如果晶片業務作為獨立公司營運,像輝達或英特爾那樣直接向第三方銷售晶片,年化營收規模可達500億美元。

Graviton本質上就是Annapurna Labs開發的一款Arm伺服器CPU,用來替代英特爾和AMD那類傳統x86處理器,負責跑Web服務、資料庫、容器和各種企業應用。

你可能要問了,那為何要有這玩意呢?我用英特爾的CPU不行嗎?

AWS上有大量的工作負載,其實根本不需要GPU,也不需要什麼AI晶片,這些東西吃的就是最普通、最穩定、最長期的伺服器CPU算力。

對這些常見的工作負載來說,Graviton更便宜、更省電,還更容易推廣。

目前,亞馬遜的晶片主要通過AWS以租用形式提供給客戶,而不是直接銷售硬體。客戶購買的是EC2實例的計算能力,背後可能是Graviton、Trainium或Inferentia晶片。

這種商業模式與傳統晶片廠商完全不同,倒是和網上一些租顯示卡的個體戶很像。

從後來的結果看,Graviton也確實成了亞馬遜自研晶片裡最早跑通商業閉環的產品。它不像Trainium那樣需要客戶重寫大量訓練流程,也不像Inferentia那樣強依賴特定推理場景。

在AWS彈性計算產品的1000個最大客戶中,超過90%正在使用Graviton晶片。AWS還披露,有超過5萬名客戶在使用Graviton。知名企業如蘋果、SAP、Pinterest、Datadog都是Graviton的使用者。

所謂一分錢難倒英雄漢,很多公司遷移到Graviton,就是因為它便宜、穩定,而且遷移成本低。

Graviton先幫亞馬遜證明了一件事,只要價格便宜,客戶並不介意自己用的是什麼晶片。

而這件事一旦被證明,Trainium和Inferentia後面的故事才真正有了繼續講下去的底氣。

Trainium和Inferentia的客戶就相對少一些,它們最大的客戶是Anthropic。

2024年底,Anthropic宣佈了Project Rainier,將使用一個擁有近50萬顆Trainium2晶片的算力叢集訓練Claude模型,文章開頭我就提到了。

這個叢集在2025年投入使用,是當時世界上最大的機器學習訓練叢集之一,算力是Anthropic之前使用叢集的五倍以上。

2025年,OpenAI先與AWS達成了規模達380億美元的長期雲合作承諾。到了2026年2月,亞馬遜又宣佈向OpenAI投資500億美元,並確認OpenAI將通過AWS基礎設施消耗約2吉瓦的Trainium計算容量。

考慮到Anthropic和亞馬遜自己的Bedrock服務已經使用了大量Trainium晶片,亞馬遜竟然還能騰出手接下OpenAI這筆大單子,可見當時的亞馬遜已經All In晶片了。

除此以外還有蘋果,它們的搜尋產品採用了Graviton 4和Inferentia 2,機器學習推理工作負載的效率提高了40%以上。蘋果還在早期階段測試Trainium 2,初步結果顯示,在Trainium 2上對模型進行預訓練,效率將提升50%。

然而正當亞馬遜以為自己的晶片功法就要煉成的時候,有人給他們潑了一盆冷水。

2025年7月,一份亞馬遜內部標註為“機密”的文件顯示,AI初創公司Cohere發現Trainium 1和Trainium 2晶片的性能“不及”輝達的H100 GPU。

開發了Stable Diffusion的圖像生成公司Stability AI也得出類似結論,認為Trainium 2在延遲方面表現不佳,使其在速度和成本上“競爭力較弱”。

新加坡AI研究機構AI Singapore的測試表明,配備輝達GPU的AWS G6伺服器在多個使用場景下的成本性能都優於Inferentia 2。

亞馬遜對此回應稱,這些反饋“並非當前情況”,Trainium和Inferentia已經在Ricoh、Datadog、Metagenomi等客戶那裡取得了“出色成果”。

03

雲巨頭造晶片

儘管如此,需求仍在快速增長。

亞馬遜的股東信中透露,兩家大型AWS客戶曾要求購買2026年所有的Graviton實例容量,但亞馬遜因需要照顧其他客戶的需求而婉拒了這兩筆大單子。

AWS在2025年新增了3.9吉瓦的電力容量,預計到2027年底總電力容量將翻倍。

亞馬遜造晶片的故事,從2015年的一筆低調收購,到2026年成為年化200億美元的業務,用了11年時間。

你要非得說這個增長多高多快,那也未必見得,但至少說得過去。問題就在於,這條路能走多遠,能否真正複製AWS的成功。

亞馬遜造晶片的核心邏輯很簡單,降低成本,提高利潤率。但這個邏輯能否成立,取決於三個問題:晶片真的更便宜嗎?客戶願意為此付出遷移成本嗎?多久能收回投資?

首先,客戶需要使用AWS的Neuron SDK對程式碼進行適配。

Anthropic的工程師透露,將訓練流程遷移到Trainium3大約需要三周時間,這比早期幾代定製晶片所需的數月時間大幅縮短,但仍然是一筆不小的工程投入。

其次,不是說所有的模型架構它都能用Trainium來跑。

有些架構需要CUDA進行特定操作,而且一些公司它是財大氣粗的類型,要求算力必須達到極限,而這時候,仍然只能使用輝達的產品。

如果把視角再往外拉一點,你會發現亞馬遜對晶片這件事的執念,其實也和它自己在AI戰場上的尷尬處境有關。

我就舉一個例子,如果問你,亞馬遜的模型是啥,你如果不去搜尋,能立馬回答得上來嗎?

亞馬遜不是沒做模型,相反,它很早就佈局了自己的Titan模型家族,後來又推出了Nova,想把文字、圖像、視訊這些生成能力都補齊。

後面還有覆蓋消費端到企業端的各種AI產品,比如Bedrock、Q,再到升級版Alexa。

問題在於,亞馬遜每一步都跟著摻和了,但是每一步都沒有讓客戶們滿意。這就導致亞馬遜在AI產業上面掉隊了。

除了亞馬遜,雲巨頭也都在重塑AI晶片市場。

Google的TPU已經迭代到第五代,微軟也在開發自己的AI晶片Maia。

Google雖然不直接賣TPU,不過好歹還建了個雲平台,對外銷售TPU的算力。微軟倒好,這個Maia就從來沒有對外放出來過。

然而Maia的現狀,並不樂觀。

2023年的時候,微軟本想用Maia 100來跑OpenAI、Copilot這些大模型,但等產品剛開始部署的時候發現,Maia 100的算力遠遠不夠支撐當時的ChatGPT,所以OpenAI也只能選擇輝達。

2025年,微軟下一代Maia被爆出難產,因此其量產時間從2025年推遲到了2026年,原因包括設計中途變更、團隊流動和工程推進不順,而且按當時外媒透露的消息,新Maia的性能也比不上輝達剛剛發佈的Blackwell。

到了2026年1月,微軟總算是正式拿出了採用3nm工藝的Maia 200,但它的定位是推理,並不能像輝達的GPU一樣用來訓練大模型。

然而市面上已經充滿了替代產品,微軟不僅技術上沒有領先,就連產能和鋪設速度也比不過亞馬遜和Google,這就導致微軟的Maia沒能掀起什麼風浪。

未來的AI晶片市場可能會分化為兩個層次,一個是輝達、AMD主導的通用市場,另一個是雲巨頭各自的封閉生態。

對於初創公司和中小企業來說,選擇那個雲平台,就意味著選擇了背後的晶片架構。如果深度依賴AWS的Trainium,將來遷移到其他平台的成本會非常高。

亞馬遜以前掉隊了,所以它才想要去鎖定中小企業未來,指不定能在AWS上再養出來幾個OpenAI、Anthropic這樣的企業。

但從另一個角度看,雲巨頭的自研晶片也在推動整個行業的進步。輝達之所以能夠長期維持高利潤率,部分原因是缺乏有效競爭。

當亞馬遜、Google、微軟都開始自己造晶片,就會去倒逼輝達降價、加快迭代。

最終受益的是整個AI行業。

亞馬遜造晶片能否成為下一個AWS,取決於如何定義“成功”。

如果成功意味著像AWS那樣創造一個全新的行業,改變整個科技生態,那麼顯然,它並不能成為下一個AWS。晶片行業已經存在了幾十年,亞馬遜不是在創造新市場,而是在重新分配現有市場的份額。

但如果成功意味著建立一個可持續的、有競爭力的業務,為AWS提供成本優勢和戰略控制權,那麼亞馬遜已經在這條路上走得很遠。

200億美元的年化營收,90%以上的頭部客戶採用率,Anthropic和OpenAI這樣的標竿案例,這些都足以證明Trainium的成功。

更重要的是,當你擁有從晶片到資料中心到軟體平台的完整堆疊,你就可以針對特定工作負載進行端到端的最佳化,這是購買通用晶片無法實現的。

從這個意義上說,亞馬遜造晶片的故事,不是關於能賺多少錢,而是關於誰掌握控制權。

在AI時代,算力就是石油,誰控制了算力的生產和分配,誰就掌握了未來。

亞馬遜不想把這個控制權完全交給輝達,就像它當年不想把雲基礎設施的控制權交給英特爾一樣。

就算到最後,Trainium不能與輝達平起平坐,它也已經證明了雲巨頭有能力挑戰晶片巨頭的壟斷地位。這本身也是一種成功。 (字母榜)