#AWS
解構亞馬遜最強晶片,GPU迎來勁敵
全球人工智慧模型製作者已經等待了一年多,希望能拿到 Trainium3 XPU,這些 XPU 是專門為訓練和推理而設計的,是輝達“Blackwell”B200 和 B300 GPU 以及Google“Trillium”TPU v6e 和“Ironwood”TPU v7p 加速器的可靠替代方案。但當亞馬遜網路服務 (AWS) 首席執行官 Matt Garmin 開始談論預計將於 2026 年底或 2027 年初交付的未來 Trainium4 XPU 時,所有排隊購買基於 Trainium3 的 EC2 容量塊的使用者都開始擔心自己會後悔。因為儘管 Trainium3 相較於該公司 Annapurna Labs 晶片設計部門開發的前幾代 Inferentia 和 Trainium XPU 已經相當出色,但 Trainium4 似乎將徹底改變插槽的尺寸,不僅帶來功能強大的裝置,還將帶來可擴展性更強的 UltraServer 叢集,從而更好地運行專家級和鏈式推理模型。在深入探討 Trainium4 的具體細節之前,我們先來回顧一下 Trainium3 XPU 的基本情況,尤其考慮到這款晶片及其前代產品 Trainium2 的許多技術規格直到最近才公佈。讓我們先來看看 Garmin 在本周拉斯維加斯 re:Invent 2025 大會開幕式上發表主題演講時提到的 Trainium3 規格表:這是AWS去年同期展示的幻燈片的更新版,其中預覽了AWS願意透露的三項資料。Tranium3採用了台積電的3奈米製程工藝,比我們大多數人認為Annapurna Labs用於Tranium2晶片的5奈米技術有所改進。Tranium3預計可提供兩倍的計算能力(這可能意味著很多不同的東西),並提供40%的能效提升(由於似乎沒有人知道Tranium1、Tranium2或Tranium3的功耗,因此這並非一個有價值的指標)。但顯然,製程工藝的改進主要是為了降低功耗,而不是為了在晶片中塞入新功能,而插槽尺寸的增大則是為了提升性能,最終每瓦性能淨提升了40%。亞馬遜銷售基於 Tranium2 的常規伺服器實例以及在共用記憶體域中總共有 16 個 Trainium3 插槽的 UltraServer 叢集配置,但到目前為止,僅交付了在單個記憶體域中具有 64 個 Tranium3 的 Trainium3 UltraServer。與搭載於 AWS 的 Trn3 UltraServer 相比,Trn3 UltraServer 的整體計算能力提升了 4.4 倍,這與其 XPU 數量少四倍的 Trn2 UltraServer 相比,可謂意義重大。據 Garmin 稱,最新的 UltraServer 的總 HBM 記憶體頻寬是 Trn2 UltraServer 的 3.9 倍,而對於那些擔憂推理成本(這是 GenAI 商業化的關鍵因素)的使用者來說,更重要的是,其每兆瓦的計算能力可以產生五倍的token。以下是 Garmin 為此項性能聲明提供的帕累托曲線,該曲線顯示了 Y 軸上每兆瓦輸出token數與以每秒每使用者token數表示的輸出互動性之間的相互作用:要想在2025年及以後獲得推理業務的成功,關鍵就在於如何提升並擴展這條曲線。這組圖表對比了運行OpenAI GPT-OSS 120B模型的Trn2 UltraServer叢集和Trn3 UltraServer叢集。該圖表還顯示(但 Garmin 沒有提及),如果互動性對你的推理工作量很重要,那麼在消耗相同能量的情況下,你可以獲得大約高一個數量級的互動性提升。在 Trainium2 實例在其雲上逐步部署的過程中,AWS 更新了此 XPU 的規格,我們也找到了一些 Trainium3 的規格,這消除了一些謎團,並填補了許多關於 Trainium 插槽中元件如何堆疊以構成每個後續 XPU 的空白。讓我們從神經元核心開始,逐步向外擴展。所有 NeuronCore 設計都將四種不同的計算單元整合到核心中,這與 CPU 核心長期以來混合使用整數(標量)和向量單元的做法非常相似,有時(例如 Intel Xeon 5 和 6 以及 IBM Power10 和 Power11)還會配備張量單元。從 Trainium 系列開始,Annapurna Labs 在架構中加入了集體通訊核心(CC-Core),用於處理高性能計算 (HPC) 和人工智慧 (AI) 工作負載中常見的集體操作,因此實際上共有五種計算單元。僅在 Inferentia1 晶片中使用的 NeuronCore-v1 架構包含一個用於整數運算的標量引擎(兩個整數輸入和一個整數輸出)、一個用於向量運算的向量引擎(兩個浮點輸入和一個浮點輸出)以及一個用於張量運算的張量引擎(多個矩陣浮點輸入和一個矩陣浮點輸出)。根據 AWS 文件,NeuronCore-v1 中的標量引擎每個時鐘周期可以處理 512 次浮點運算,並支援 FP16、BF16、FP32、INT8、INT16 和 INT32 資料類型。(我們認為 AWS 的本意是它支援 512 位資料)。文件還指出,向量引擎每個時鐘周期可以處理 256 次浮點運算(同樣,我們認為這是 256 位資料),並且也支援 FP16、BF16、FP32、INT8、INT16 和 INT32 資料格式。您可以根據資料寬度以及每個單元可以容納的資料量來計算每個時鐘周期的運算次數。NeuronCore-v1 的 TensorEngine 的維度從未公開,但我們知道它可以處理 FP16、BF16 和 INT8 輸入以及 FP32 和 INT32 輸出,並可提供 16 兆次浮點運算的 FP16 或 BF16 張量處理。在討論了第一個 NeuronCore-v1 設計之後,讓我們把它們全部並排擺放,看看我們認為 Trainium4 可能達到的水平:AWS 於 2020 年 12 月在 re:Invent 大會上開始討論 Trainium1,並花了兩年時間才全面投產。考慮到這是亞馬遜首款自主研發的資料中心級訓練加速器,這樣的進度也情有可原。我們認為 Trainium1 採用的是台積電 7 奈米工藝製造;已知它擁有 550 億個電晶體,運行頻率為 3 GHz。這款晶片與之後於 2023 年 4 月上市的 Inferentia2 晶片採用了相同的 NeuronCore-v2 架構,後者採用了 5 奈米工藝,電晶體數量大致相同,但針對推理工作負載進行了一些調整,例如 NeuronLink 晶片互連連接埠的數量減少了一半。隨著 Trainium2 於 2023 年 11 月發佈,並於 2024 年 12 月開始量產,AWS 轉向了 NeuronCore-v3 架構,並停止生產 Inferentia 晶片,因為推理過程開始變得越來越像訓練。Trainium2 的每個插槽核心數增加了四倍,單個記憶體域中的 NeuronCore 總數增加了 16 倍,因為每個實例的插槽數也增加了四倍。據我們所知,AWS 還將 Trainium2 的時脈頻率提升了,同時將製程從 Trainium1 的 7 奈米縮小到 5 奈米。有趣的是,每個 NeuronCore 的峰值標量和向量性能在 v3 中下降了約 60%,峰值張量吞吐量下降了 12%。但AWS為該晶片的張量運算增加了1:4稀疏度支援,再加上核心數量的增加,使得Trainium2在FP16或BF16精度下的有效吞吐量比Trainium1提升了3.5倍。事實上,NeuronCore-v3支援多種不同的稀疏度模式:4:16、4:12、4:8、2:8、2:4、1:4和1:2。三個計算單元共享的 NeuronCore-v3 的 SRAM 記憶體容量提升至每個核心 28 MB,但我們尚不清楚具體提升幅度。HBM 記憶體容量最終提升至 96 GB,提升了 3 倍,頻寬也提升了 3.5 倍,達到 2.9 TB/秒。可以說,這是首款具有競爭力的 Trainium 晶片,Anthropic 一直使用 Trainium2 裝置進行模型開發和推理,並且 AWS Bedrock 模型服務的大部分推理工作也由 Trainium 完成,這並非巧合。我們推測,Garmin 在主題演講中提到的數百萬台 Trainium 裝置中,大部分是 Trainium2 裝置。這就引出了 Trainium3,它現在已在 UltraServer 實例中批次交付。Trainium3 裝置的核心是 NeuronCore-v4 架構——沒錯,如果核心名稱與裝置名稱一致就更好了——它帶來了一些重大改進。首先,向量引擎經過調整,可以快速進行指數函數計算,其性能是標量引擎執行此任務的 4 倍,而這項任務是 GenAI 模型自注意力演算法的一部分。其次,FP16 和 BF16 資料格式可以量化為 MXFP8 格式,AWS 表示這對於 GenAI 模型中多層感知器 (MLP) 層之間的資料量化非常有用。NeuronCore-v3 設計還將每個核心的 SRAM 容量提升至 32 MB。 Trainium2 和 Trainium3 之間的時鐘速度似乎只有名義上的變化,沒有顯著變化,但該裝置最大的變化是 NeuronLink-v4 XPU 互連連接埠的頻寬翻了一番,達到 2.5 TB/秒,HBM 記憶體容量增加了 1.5 倍,達到 144 GB,HBM 頻寬增加了 1.7 倍,達到 4.9 TB/秒。我們認為 Trainium3 設計的改進旨在更好地平衡計算、記憶體和互連,從而提升 Trainium3 插槽的實際性能,而非其理論峰值性能。Trn3 Gen1 UltraServer 的記憶體域與 Trainium2 相同,仍為 64 個裝置,但目前已上市的 Trn3 Gen2 UltraServer 的記憶體域已擴展至 144 個插槽。這使得可用於 AI 訓練或推理任務的核心數量增加了 2.25 倍。這就引出了 Trainium4,預計將於明年這個時候開始推出。我們推測,AWS 將採用名為 NeuronCore-v5 的架構,為 Trainium 處理加入完整的 FP4 支援,而不僅僅是將 MXP4 資料塞進張量的 FP8 插槽中,造成大量空間浪費。Garmin 在主題演講中表示,通過採用 FP4 原生格式,Tranium4 的性能將是 Tranium3 的 6 倍,這意味著 FP8 處理能力將提升 3 倍。Garmin 還表示,Tranium4 的 HBM 記憶體容量將是 Tranium 3 的 2 倍,HBM 頻寬將是 Tranium 3 的 4 倍。在上面的巨型表格中,我們試圖弄清楚 Trainium4 可能是什麼樣子,以及如何進一步擴展一組耦合的 Trainium4 裝置的記憶體域。實現這一目標有很多不同的途徑,我們認為AWS最好的選擇是採用2奈米工藝以節省一些功耗,或者繼續使用3奈米工藝以節省一些成本,但這樣會製造出尺寸稍大、發熱量稍高的XPU。這很難抉擇,但我們認為AWS最終會傾向於採用2奈米蝕刻工藝來開發Trainium 4。如果你看一下 Garmin 上面的圖表,你會發現它表明 Tranium4 將同時支援裝置上的 NVLink 和 UALink 連接埠——Nvidia 曾大肆宣傳 AWS 採用 NVLink 技術,但我們猜測 AWS 將會推出帶有 NVLink 連接埠的 Graviton 系列晶片,並獲得 Nvidia 一直不願提及的功能:將定製 CPU 和定製 XPU 通過 NVLink 連接埠和 NVSwitch 記憶體交換結構連接到一個巨大的共用記憶體域。迄今為止,Nvidia 一直允許客戶使用連接到 Nvidia GPU 的定製 CPU 或定製 XPU,但尚未允許第三種選擇。我們認為AWS採購的GPU數量足夠多,因此它有能力提出這樣的要求並獲得相應的回報,而且價格也應該合理。我們還認為AWS會支援Nvidia的NVFP4資料格式以及用於FP4處理的MXFP4格式,這很可能是雙方交換條件的一部分,目的是為了讓在Tranium4晶片上進行的工作更容易地轉移到Nvidia的“Blackwell”和“Rubin”GPU上。當然,這些都只是我們的猜測。我們還認為AWS希望能夠將這些GPU接入到它自己的機架中,而這些機架本質上將是Nvidia機架的克隆版。但值得注意的是,Garmin 的上圖也提到了 UALink。AWS 仍在權衡各種方案,無疑希望 Tranium4 封裝採用晶片組架構,以便將 NVLink 連接埠取代為 UALink 連接埠,並採用機架式設計,以便在 UALink 交換機上市時(或許在明年晚些時候)將其取代為 NVSwitch 交換機。NeuronLink-v5 可能經過調整以相容 UALink 2.0,而這些交換機將由 Annapurna Labs 生產,而不是 Astera Labs、Upscale AI、Marvell、Cisco Systems 或其他提供可擴展互連 ASIC 的公司生產。要在相同或略微更小的散熱範圍內獲得三倍性能的最簡單方法是,將核心數量增加三倍,並保持時脈頻率基本不變,同時採用 2 奈米製程工藝。如果電晶體尺寸縮小更多(例如台積電的 1.6 奈米 A16 工藝),則可以略微降低散熱或略微提高時脈頻率。我們的建議是充分利用散熱優勢,保持其他參數不變,就像 AWS 在 Trainium2 和 Trainium3 之間所做的那樣,只需將核心數量增加三倍即可。如果將核心數量增加 3 倍,達到每個插槽 24 個核心,並可能分佈在四個晶片組上,那麼在保持精度不變的情況下,性能將提升 3 倍;如果將 FP8 降級到 FP4,那麼每個插槽的性能將提升 6 倍。現在有趣的地方來了。如果你將每個系統的裝置數量也翻倍至 288 個(與 Nvidia 的做法一致),那麼你可以在 Trainium4 UltraServer 叢集中獲得 6,912 個 NeuroCore,所有這些 NeuroCore 都位於一個記憶體域中,並擁有 1,944 TB 的 HBM 記憶體。當然,這與Google能夠在單個記憶體域中部署的 9,612 個 Ironwood TPU v7p XPU 相比,簡直是小巫見大巫……但它比目前市面上銷售的 Trn2 Gen2 UltraServer 叢集性能高出 13.5 倍。 (半導體行業觀察)
AWS發佈3nm晶片: 144 GB HBM3e,4.9 TB/s頻寬
亞馬遜網路服務 (AWS) 預覽其下一代 Trainium AI 加速器 Trainium3 至今已近一年。今天,這款晶片正式面世。在 AWS re:Invent 大會上,該公司宣佈 Amazon EC2 Trn3 UltraServer 正式上線,這是首批基於這款新晶片建構的系統,並作為其彈性計算雲 (EC2) 服務的一部分提供。Trainium3 由台積電採用 3 奈米工藝製造,單晶片可提供 2.52 PFLOPs 的 FP8 計算能力。該器件整合了 144 GB 的 HBM3e 視訊記憶體,提供 4.9 TB/s 的記憶體頻寬。AWS 向HPCwire表示,這些性能提升源於架構的改進,旨在平衡現代 AI 工作負載的計算、記憶體和資料傳輸。該公司表示,Trainium3 新增了對 FP32、BF16、MXFP8 和 MXFP4 的支援,並增強了對結構化稀疏性、微擴展、隨機舍入和集體通訊引擎的硬體支援。該公司稱,這些新增功能旨在使晶片更好地適應 LLM、混合專家架構和多模態系統的訓練模式。這些改進概述了晶片層面的新特性,但AWS表示,真正的規模優勢在於Trainium3的部署方式。該公司指出,許多最大的性能和效率提升都體現在UltraServer層面,因為新的架構、記憶體拓撲和整合引擎在數百個晶片上運行。在系統層面,一個完全配置的Trainium3 UltraServer連接144個晶片,聚合了362 FP8 PFLOPs的計算能力、20.7 TB的封裝內HBM3e記憶體以及706 TB/s的記憶體頻寬。據AWS稱,與上一代基於Trainium2的架構相比,該系統可提供高達4.4倍的計算性能提升、4倍的能效提升以及近4倍的記憶體頻寬提升。這些資料基於AWS在其發佈博文中分享的內部測量結果。AWS 向HPCwire透露,Trainium3 引入了 NeuronSwitch-v1,這是一種全新的全連接架構,可在單個 UltraServer 中連接多達 144 個晶片,並將晶片間頻寬提升至 Trn2 UltraServer 的兩倍。該公司還重點介紹了其網路堆疊的改進:升級後的 Neuron Fabric 將晶片間通訊延遲降低至“略低於 10 微秒”,而 EC2 UltraClusters 3.0 則提供多拍位元網路,以支援跨越“數十萬個 Trainium 晶片”的大型分佈式訓練作業。AWS 表示,UltraServer 層面更高的記憶體容量、更快的架構以及改進的協同引擎相結合,旨在減少大型 Transformer 和 MoE 模型(尤其是具有更長上下文窗口或多模態元件的模型)中的資料傳輸瓶頸。在對 OpenAI 的開源權重模型 GPT-OSS 進行的內部測試中,AWS 報告稱,與上一代 UltraServer 相比,每個晶片的吞吐量提高了 3 倍,推理響應時間提高了 4 倍,這表明該公司正在利用系統級的性能提升,使 Trainium3 能夠勝任數兆參數的訓練和大規模推理任務。AWS 表示,客戶已經開始使用 Trainium3 來降低訓練成本,Anthropic、Metagenomi和 Neto.ai等公司報告稱,與替代方案相比,成本最多可降低 50%。AWS 還指出,Amazon Bedrock 已經在 Trainium3 上運行生產工作負載,這表明該晶片已準備好進行企業級部署。早期採用者也在積極探索新的應用領域:據 AWS 稱,人工智慧視訊初創公司 Decart 正在使用 Trainium3 進行即時生成視訊,並以 GPU 一半的成本實現了 4 倍的幀生成速度。AWS 已著手研發下一代定製晶片。該公司表示,Trainium4 旨在顯著提升計算、記憶體和互連性能,包括至少 6 倍的 FP4 吞吐量、3 倍的 FP8 性能以及 4 倍的記憶體頻寬。AWS 將 FP8 性能的提升描述為“基礎性飛躍”,這將使企業能夠以至少三倍的速度訓練模型或處理三倍數量的推理請求,並且預計通過持續的軟體和工作負載最佳化,性能還將進一步提升。為了支援更大規模的模型和更高的節點級擴展性,AWS 表示 Trainium4 還將整合輝達的 NVLink Fusion 互連技術。其目標是使 Trainium4、Graviton 和 Elastic Fabric Adapter 能夠在通用的基於 MGX 的機架中互操作,從而建立一個靈活的機架級設計,既可以託管 GPU 伺服器,也可以託管 Trainium 系統。隨著 Trainium3 投入生產,Trainium4 也即將面世,AWS 似乎正在為未來做好準備。未來,人工智慧訓練的真正瓶頸將不再在於加速器本身,而在於連接它們的網路和系統設計。AWS 能否有效執行這一路線圖,將決定其在建構前沿規模人工智慧基礎設施的持續競爭中的地位。NVIDIA NVLink Fusion 被選中用於未來的 AWS Trainium4 部署今天,NVIDIA 和 AWS 宣佈建立多代合作夥伴關係,將 NVLink Fusion 晶片整合到未來的 AWS AI 機架和晶片設計中。AWS 在 2015 年收購 Annapurna Labs 後,開始自主設計 Graviton CPU、Nitro 網路卡和 AI 加速器。因此,AWS 的技術堆疊並非 NVIDIA 的技術堆疊,儘管它也採購了大量 NVIDIA GPU。未來,AWS 計畫將 NVIDIA 的技術整合到其定製的晶片棧中,這意義重大。NVLink Fusion 背後的理念是,NVIDIA 可以銷售一個 IP 模組,使其他晶片能夠使用 NVIDIA NVLink 進行通訊。NVIDIA宣佈了一系列合作夥伴,而Arm等其他公司最近也加入了進來。從新聞稿中我們可以看出,“AWS 正在設計 Trainium4,使其能夠與 NVLink 6 和 NVIDIA MGX 機架架構整合,這是 NVIDIA 和 AWS 在 NVLink Fusion 領域開展的多代合作的首個成果。”這對兩家公司來說都是一筆划算的交易。AWS 可以將與 NVIDIA NVL72 機架類似的機架架構用於其定製晶片項目。對輝達而言,這項技術正被融入到一項超大規模的定製晶片項目中。它有機會將NVLink Fusion Chiplet和NVLink交換機銷售到那些非輝達的CPU/GPU/NIC晶片機架中。或許最有趣的是,AWS在推進Trainium未來版本開發的同時,決定採用NVIDIA NVLink技術,而不是自行建構通訊協議、交換機以及機架基礎設施。此外,值得注意的是,AWS採用NVLink意味著它不會在其機架內擴展計算鏈路中使用Broadcom Tomahawk Ultra或其他基於乙太網路的交換機晶片,因為將兩種技術用於同一用途顯得不合常理。 (半導體行業觀察)
亞馬遜1.4萬人裁員潮中,被AI“淘汰”的員工們
早上8點,陳宇像往常一樣醒來,發現自己被公司凌晨“清退”了:企業信箱無法登錄,所有系統權限被關閉,聯絡不上任何同事,只有一封同步到私人信箱的裁員郵件。他在亞馬遜廣告部門工作了近兩年,最終只能通過領英私信他的部門領導,結果得知對方“也被裁了”。科技公司在AI競爭中重新定義了人與崗位這是亞馬遜自2022年末以來規模最大的一次裁員行動。據亞馬遜傳送給員工的郵件,10月28日,亞馬遜裁退了1.4萬人。波及範圍有中國、美國、加拿大、西班牙等全球各地。在裁員的同一周,亞馬遜發佈三季度財報,AWS雲服務創下自2022年以來最快增速。財報顯示,雲服務是支撐整個利潤體系的核心類股,三季度營收增速20.2%,達到330億美元。當日公司開盤股價上漲11%,市值增長近3000億美元。通知裁員消息後至今,亞馬遜市值上漲約4000億美元,最新市值2.66兆美元。利多和陰影同時交織在這家老牌科技巨頭身上。公司業績大漲,投資者普遍把裁員解讀為“降本提效訊號”,股價受到情緒提振。但在公司內部,多位員工表示工作氛圍變得沉默,有的工作量翻了兩倍,有的在改簡歷準備跳槽,剛入職的新人更是怕“等不到新年就要離開”。據當地媒體報導,亞馬遜的下一波大規模裁員預計將在明年1月開始。此前,有媒體報導稱亞馬遜將裁減多達3萬個崗位的消息,預計將逐步完成。自2022年以來,亞馬遜一直在縮減公司員工規模,迄今已裁員超過2.7萬人。這類情況並非只在亞馬遜上演。過去兩年,微軟、Google、Meta等美國科技巨頭做出相似的選擇:一邊裁撤數以萬計的崗位,一邊擴大在AI基礎設施與模型訓練上的投資。《財經》梳理近一年美國科技公司的裁員資訊發現,在頭部海外科技企業已公佈的裁員資訊中,今年累計涉及的員工總數已超過9萬人,中國、北美、歐洲、印度等全球主要市場均有涉及。裁員理由包括人工智慧的整合、消費需求的放緩、業務重組與資本投資,以及更廣泛的成本削減措施。科技行業正在進入一個新的拐點——機器的學習曲線越來越快,而人的崗位在重新被定義。對於很多從業者來說,裁員並不意外,但真正落到自己身上卻猝不及防,他們被拋向更殘酷的就業市場,重新思考職場的位置。01 裁員風暴陳宇完全沒做好被裁的準備。最近一段時間,他所在的團隊在籌備11月美國最大的購物節,壓力倍增。裁員前一天,他還在琢磨手頭的程式碼工作。看到公司即將裁員的新聞時,也沒有太在意,心想“團隊在廣告部很能賺錢”,直到他收到解僱郵件。陳宇想不通。在接到解僱通知當天,高層領導通過線上會議走完了例行公事,主要內容是通知後續安排,持續十多分鐘結束。領導表示裁員“不是隨機的”,內部有一套“準則”,但拒絕透露具體內容。美國職場平台Zety調查發現,“冷通知”已經成為行業解僱常態——被裁員工多達57%是通過電子郵件或電話得知消息,僅有30%是面對面通知。當日,不用上班的陳宇留在家裡,他形容自己整個人處於“懵”的狀態,沒怎麼吃飯,被頭痛一直折磨到半夜。亞馬遜是陳宇畢業後入職的第一家公司,他擔任軟體開發工程師,做了兩年多。他所在的團隊裡,被裁的有兩個,一個是任期最短的陳宇,一個是空降半年的新領導。《財經》瞭解到,亞馬遜此次裁員波及範圍廣泛,涉及電商零售體系(包括定價、支付、商品目錄等營運線)、智能裝置與語音助手(Devices & Alexa)、內容與娛樂業務(Prime Video & Amazon Games)、廣告業務線,以及核心的雲服務AWS多個團隊。受影響的地區包括中國、美國、加拿大、西班牙等。一份亞馬遜提交給美國華盛頓州政府的裁員檔案顯示,亞馬遜在華盛頓州裁員2303名企業員工,技術研發類崗位(軟體開發、資料工程等)是重災區,人數約600人,其中軟體開發工程師(SDE)一、二級崗位合計裁員343人,佔華盛頓州裁員總數約15%。另一大受影響的領域是人力資源與招聘崗,約200人。高等級的職位也在被裁減之列。據已有報導,亞馬遜零售部門的中層管理人員受裁員影響最大,被裁撤的職位中,超過78%的職位由L5至L7等級的經理擔任。亞馬遜發給員工的郵件裡表示,被裁員的員工將獲得90天的過渡期,可以選擇在公司內部尋找新職位,或者拿著包括遣散費等過渡性支援離開。但內部轉崗競爭激烈。適合陳宇的本地崗位有9個,每一個崗位平均都有三十多人在排隊申請轉崗。為了提高成功率,陳宇傾向於迴避同時對外招聘的崗位,因為“那樣競爭壓力會更大”。外部就業市場同樣艱難。職業諮詢公司Challenger, Gray & Christmas的最新資料顯示,今年10月,美國裁員人數153074人,較9月激增183%,較去年同期增長175%,創下22年以來歷史新高。對於在海外工作的中國員工來說,形勢更加嚴峻。失去工作後,陳宇擔心簽證問題。從最後一次領取離職金算起,他面臨60天倒計時,如果沒有找到下一份工作,美國工作簽證將自動失效。02 倖存員工也被影響今年剛畢業的於瑜“幸運”躲過了這次裁員。他花了半年,投了七八百份簡歷才成功“上岸”找到工作,沒想到在亞馬遜待了三四個月,就迎來了裁員潮。裁員消息傳出的那天晚上,於瑜無法入睡。他形容這種焦慮無法控制,輾轉Reddit、小紅書等各大社交平台,刷資訊,試圖拼湊出裁員的邏輯,發現校招生也有被裁的先例,直到第二天成功登錄進公司系統,才“放心一點”。“倖存”的員工們感受到了裁員帶來的另一重影響——公司裡氣氛變得壓抑。於瑜回憶,亞馬遜西雅圖辦公室平日裡氛圍活躍,同事間經常聊天,有不少員工會帶寵物上班。但在裁員前一天,這種活躍突然消失了。於瑜感到不對勁,正常小組的同事會待到五點左右下班,那天下午三點半,辦公室裡就空了,他所在的小組有十幾人,最後只剩下他和另外一位同事。裁員當天,這種“冷清”變得更直觀。於瑜上班到中午,發現大約四分之一的工位是空的,辦公室裡異常安靜,同事們不再說說笑笑,“有種蕭條感”。於瑜不確定是否真的安全,每隔五分鐘就要檢查一次信箱,怕收到裁員郵件,“雖然知道看也沒用,但還是幹一會兒就想確認一下。”裁員成了懸在員工頭上的劍。亞馬遜上一次這麼大規模的裁員還是在2022年底,約有2.7萬個崗位,分批進行裁撤。如今,一些倖存員工稱“暫時安全”,和被裁在家的陳宇一樣,他們也在修改簡歷,看市場機會。在零售部門擔任資料分析師的林安,經歷了三輪裁員震盪。她2022年入職亞馬遜,目睹同屆不少新人被裁,在首輪裁員潮倖存下來。然而,在2023年夏天,她還是接到了被裁通知,最終通過轉組保住了工作,但她仍然“心有餘悸”。面對新一輪裁員,林安已經“心態放平”。裁員前一天,林安做足了準備,她提前總結好工作內容,以防被踢出系統,還研究了請假規定,計畫將裁員的過渡期拉到最長。群裡有同事提醒,趕緊先把電話費報銷了。她把裁員當作推動跳槽的契機,一邊注重日常工作的“留痕”,詳細記錄項目內容和技能成長,一邊持續更新簡歷、留意市場機會,參與企業面試。於瑜也開始修改簡歷。面對科技行業普遍的裁員潮,他認為保持面試手感更為重要,“到被裁再準備就晚了。”在持續的動盪中,員工對公司的信任正被侵蝕。林安提到,隔壁組陸續走了不少人,認識的同事因此經常超負荷幹活,但這次同樣被裁撤。裁員的壓力正在傳導給留下的人。留下來的管理層需要監督更多的員工,沒被裁的員工需要承擔更重的工作量。陳宇離開的小組,這次承接了一個被裁小組的所有業務,人手變少的同時,工作量是之前的兩倍。研究公司Gartner的資料顯示,在美國裁員潮中倖存的主管們,如今監督的員工數量幾乎是十年前的三倍。2017年,每五名員工對應一名經理;到2023年,這一比例上升到每十五名員工對應一名經理,且似乎還在進一步提升。03 “節儉”至上美國科技行業大舉裁員的根源之一,是它們不再高速增長。亞馬遜曾經歷過猛烈的擴張期。2020年新冠疫情暴發,居家隔離帶來的線上購物需求激增,推動亞馬遜進行了前所未有的招聘,員工規模多次擴大。這一年,亞馬遜淨利潤幾乎翻了一倍,達到213億美元,新增了50萬個工作崗位,全球員工總數首次超過100萬。當時,在科技行業,風靡一時的熱門話題之一,是疫情下的“企業同理心和領導力”。還有一些科技巨頭利用危機搶奪新創公司人才,不乏蘋果、Google,展開大規模招聘,搜尋軟體工程師、資料科學家、產品設計師等。但當世界進入後疫情時代的“平穩期”,裁員潮反而越演越烈。2022年底,以Meta為代表的多家大型公司裁員上萬人,矽谷和美國企業界掀起裁員潮,最終影響了超過25萬人。包括Meta的董事長馬克·祖克柏在內的許多科技領袖都表示,此次裁員是過去兩年過度招聘的結果。外加宏觀經濟形勢嚴峻,這些公司出於對潛在經濟衰退的擔憂,優先考慮控制員工人數。亞馬遜是代表性案例之一。自2022年底以來,這家科技巨頭已經陸續裁減超過2.7萬名員工——2023年初宣佈約1.8萬人,同年3月追加約9000人;2024年1月在 Prime Video和MGM工作室部門削減數百人,4月深入到AWS雲服務核心盈利部門,裁員數百人。這股寒意延續至今。在此次亞馬遜大規模裁員之外,美國企業環境也正在經歷抵達歷史最高峰值的裁員潮。根據職業諮詢公司Challenger, Gray & Christmas資料,今年上半年,美國僱主解僱了近74.5萬人。從2009年至今,這一數值創同期歷史第二高,僅低於 2020年上半年,新冠疫情幾乎導致全球經濟停擺的時期。五年間,亞馬遜自身也在發生巨變。2021年,創始人傑夫·貝佐斯卸任,安迪·賈西接棒首席執行官。上任後,賈西以更注重成本削減和審慎投資的姿態,打造了一個更符合華爾街“期待”的亞馬遜。賈西上任後,亞馬遜處在疫情紅利消退的下行周期。疫情帶來的電商繁榮不再,亞馬遜的零售主業增速開始放緩。與此同時,該公司面臨著來自Shein、Temu等折扣零售平台的競爭,這些平台低價銷售從中國直接發貨的各種商品。疊加通膨和加息帶來的資本市場壓力,亞馬遜的股價在2022年全年下跌過半,市值一度蒸發超過1兆美元,成為歷史上首家遭遇如此規模市值縮水的公司。來自華爾街的壓力是即時且具體的。與創始人貝佐斯不同的是,賈西開始將與投資者的互動提升到新水平。從2023年2月開始,他開始出席財報電話會議,這一舉動被外界視為更直接與投資者溝通的訊號,因為貝佐斯在後期已基本放棄了這種做法。“節儉”被賈西放在首位。這一理念首先體現在持續三年的裁員潮上,其理由也從最初的“修正疫情過度擴張”,逐步演變為“裁減管理層級、提升效率,並將資本更集中投入到AI基礎設施”。除了裁員,賈西還削減了大量實體零售商店,並砍掉了一些盈利能力較差或未經證實的項目,包括人行道上的移動機器人、遠端醫療服務、健康和健身可穿戴裝置以及虛擬旅遊項目。2024年9月,賈西提出亞馬遜扁平化組織結構的計畫,同時要求員工恢復每周五天在辦公室工作。他為亞馬遜多個主要部門設定了目標,即到2025年一季度末,將普通員工與管理人員的比例至少提高15%,以減少管理人員數量。2025年6月,賈西在內部給員工的備忘錄中寫道,生成式人工智慧正在改變公司的工作流程,預計在未來幾年減少公司的員工總數,並鼓勵員工“擁抱AI轉型”。04 裁員與擴張並存在削減人力成本的同時,賈西正在將省下的,乃至更多的錢,投向以AI為核心的算力基礎設施上。作為貝佐斯欽點的接班人,賈西出身亞馬遜雲服務AWS部門,並主導帶領雲服務成為亞馬遜最盈利的業務部門。資料分析機構GlobalData分析師尼爾·桑德斯(Neil Saunders)在一份聲明中稱,亞馬遜這次2025年的大裁員,標誌著一個“從人力資本轉向技術基礎設施的臨界點”。亞馬遜是今年四大科技巨頭(微軟、亞馬遜、Google、Meta)中資本支出最高的公司:其預計2025年的資本支出將高達1250億美元,高於華爾街當前預期的1175億美元,較2024年增長55%以上,2026年還將繼續增加。相比之下,Google、微軟、Meta今年的資本支出都在1000億美元以下。Google2025年資本支出預計在910億至930億美元之間,Meta預計為700億至720億美元,而微軟為646億美元。這些錢正在用於採購更多的算力。2025年三季度雲服務AWS營收增速20.2%,達到330億美元。財報電話會議中,賈西表示:“AWS增長速度自2022年以來前所未見,我們將繼續看到AI和核心基礎設施的強勁需求,並著力加速擴容。”賈西同時透露,截至三季度末,AWS未完成訂單額增至約2000億美元,10月份又有超越全季的新大單,增長勢頭強勁。過去12個月,亞馬遜新增約3.8吉瓦電力容量,是行業中增速最快的廠商之一,並計畫在2027年實現總算力翻倍。在AI競賽中,亞馬遜還有一個核心“盟友”,是其對標OpenAI的AI初創公司Anthropic(詳見:《OpenAI、Anthropic台前鬥法,微軟、亞馬遜幕後對壘》)。亞馬遜已累計承諾向Anthropic投資高達80億美元。今年10月,亞馬遜啟動了代號為“雷尼爾計畫”(Project Rainier)的工程,斥資110億美元建設AI資料中心,專門用於訓練和運行Anthropic的模型。亞馬遜預計,到2025年底,Anthropic將使用其100萬顆自研的Trainium2晶片,此舉將帶來數十億美元的業務規模。這場押注於AI基礎設施的豪賭,也在重新定義“人”的角色。亞馬遜的老員工逐漸習慣了管理層在緊縮開支和快速擴張之間的動盪,由於裁員範圍不限於中高層員工,他們不再篤信內部晉陞,而是轉向了隨時準備跳槽的理性自保。新員工尚未開始積累經驗,就已陷入了如何保住工作,以及不被AI取代的焦慮中。經歷了裁員衝擊後,林安不再把全部熱情投入到“升職、晉級”的職業發展路徑上,她將目標轉向那些更具成長性、有不同商業模式的AI初創公司。於瑜是軟體開發工程師,現在大部分程式碼工作都交給了AI去寫,由此產生的危機感也更強。他考慮的職業轉向有兩類,要麼是去和AI強相關的核心部門(如AWS),要麼是不容易被AI取代、需要和人打交道的銷售崗。在他看來,工程師的高薪使其成為“降成本”的首選。“軟體工程師未來不到10年可能就會被徹底取代了。”於瑜說。 (財經雜誌)
🎯救命!十月噴2400點後,11月會不會「先跌3000點」套住你?Line@連結:https://lin.ee/mua8YUP🎯十月台股大漲超過2400點創下「史上最強十月」,這時候,一堆人腦袋裡想的都是:「漲這麼多,該跑了吧?」江江直接給你答案:你的恐懼,就是你錯失下一波暴富的開端!大盤沒你想的那麼危險!你正在錯過一個【歷史級的財富機會】別再用「感覺」在做投資了!請看三個最硬的指標:爆點一:景氣黃紅燈狂閃!你還在聽空頭鬼故事?•金髮女孩經濟甜蜜期:不燙、不冷,溫和成長,通膨受控!這就是最完美的甜蜜點!•外銷訂單創歷史新高:營收就是王道!十月、十一月營收只會一路 UP、UP、UP!景氣燈號已經亮出代表「上揚」的黃紅燈!爆點二:資金大水管還沒塞滿!散戶還不夠貪婪!•關鍵數據大揭密:大盤飆漲11000點,但「融資」增加的速度根本沒跟上!•過去兩個月,股市狂噴4000點,融資只增加394億!這距離我說的「過度貪婪」滿足點,還差433億!👉【三個死亡訊號】出現才真正該大賣我23年的經驗告訴你,你只需要盯緊這三個訊號,那才是大賣的時候:1.邪惡第五波的「延伸波」:指數連噴、狂噴!像吃了藥一樣瘋狂!2.融資曲線「抖度」暴增:散戶集體失控、大舉開槓桿!3.「擦鞋童」跟你聊股票:連路邊不關心股市的人都在問牌,市場熱到沸點!現在呢?我們還在第五大波的「起手式」!連裡面的小拉回都還沒出現! 🚀鎖定11月、12月【史上最強作帳行情】!歷史經驗證明:從來沒有「拉積盤」過後,中小型股(OTC)不接棒大飆漲的!OTC連續兩個月小漲休息,這跟費半指數大長紅後休息調整一模一樣!已進入標準的【大多頭準備衝刺】階段!至於中小型股該如何佈局?一樣要鎖定【AI股】!•黑馬股一:受惠於OpenAI概念,預計明年將獲得【史上最強大超級大訂單】!•黑馬股二:亞馬遜概念股!Q3獲利狂噴,AWS成長強勁!【第三季EPS比第二季成長數十倍】!這就是潛在的百倍黑馬!這種股票,你沒抱著,才是最大風險。🔴接下來我們會在粉絲團持續幫大家鎖定+追蹤,若還不知道該如何操作?那建議你務必要鎖定江江在Line @將有更進一步的訊息給大家了解。https://lin.ee/mua8YUP🔴想了解還未起漲的市場主流,同步了解大盤多空轉折點及學習預測技術分析,江江YT節目都會持續追蹤+預告。https://reurl.cc/02drMk********************************************************有持股問題或想要飆股→請加入Line:https://lin.ee/mua8YUP江江的Youtube【點股成金】解盤:https://reurl.cc/02drMk*********************************************************(本公司所推薦分析之個別有價證券 無不當之財務利益關係以往之績效不保證未來獲利 投資人應獨立判斷 審慎評估並自負投資風險)
雲端的以太坊:亞馬遜在建的未來支付底座
關於“亞馬遜啟用以太坊支付”的傳言在社區間快速傳播。然而,經多方核實,事實是——亞馬遜的雲端已經接入以太坊基礎設施,但支付體系仍未正式啟動。技術先行,商業待啟,這或許正是巨頭們的加密策略。🌐一|AWS的區塊鏈底座亞馬遜的雲服務部門Amazon Web Services(AWS)早已成為區塊鏈技術的重要參與者。其推出的Amazon Managed Blockchain服務支援以太坊節點部署和 API 呼叫,讓開發者能直接在雲端訪問鏈上資料、執行智能合約。這意味著亞馬遜在建構一種“技術底層的互聯能力”——它不賣幣,不炒幣,而是提供區塊鏈計算力與企業級接入方案。AWS 的區塊鏈佈局,更像是一種為未來 Web3 世界打下的“能源網路”。💳 二|商業支付尚未落地截至目前,亞馬遜電商平台並未支援任何加密貨幣支付。無論是以太坊(ETH)、比特幣(BTC),還是穩定幣(USDC、USDT),均未出現在官方支付選項中。部分社交媒體傳播的“亞馬遜啟用ETH支付”報導,多源於對 AWS 技術支援的誤讀。亞馬遜官方聲明中,並未提及“加密支付”計畫。業內人士認為,亞馬遜或在等待監管更明確的窗口期。畢竟,一旦開放加密支付,將涉及跨境結算、稅務追蹤及反洗錢系統的重構。📊 三|市場反應與行業預期儘管傳言落空,但市場反應保持理性。社區普遍認為,AWS 的以太坊介面本身已代表亞馬遜對區塊鏈生態的長期認同。分析人士指出,大型科技公司正採取**“技術先行、支付後置”**的節奏,先建立資料與算力基礎,再考慮商業整合。這種節奏也意味著,未來的支付整合不會以公告形式出現,而會以“系統相容”的方式悄然發生。🕊 亞馬遜與以太坊的關係,更像一場靜默的技術演化。支付尚未啟程,但基礎設施已在運轉。當雲端與鏈端的通路徹底打通,或許我們才會發現:所謂“整合”,其實早已在後台進行,只待一鍵結算。 (方到)
Claude斷供驚魂14天:Qwen和DeepSeek迅速補位,戳破AI巨頭的壟斷假象
開放永遠比封閉更有生命力。風暴眼:中資企業的 “AI 斷供驚魂夜”9 月 5 日晚間,Anthropic 的一紙公告讓無數中資企業的技術負責人徹夜無眠。“立即停止向多數股權為中資的公司提供 Claude 服務”,這條沒有緩衝期的禁令,像一把突然落下的手術刀,精準切斷了眾多企業的 AI Coding 命脈。Claude 憑藉其在複雜程式碼生成、跨語言偵錯上的超高精準率,早已成為大多數中國科技公司 AI Coding 工具棧的 “壓艙石”,甚至是部分初創企業的唯一選擇。更致命的是,Anthropic 的禁令覆蓋了所有 “中資控股” 主體,即便企業註冊在新加坡、開曼群島等離岸地區,只要股權穿透後中資佔比過半,都被劃入服務終止名單。這場突如其來的斷供,撕開了中國企業 AI 戰略的致命傷口:當核心模型被單一海外廠商 “卡脖子”,所謂的數位化轉型不過是建立在流沙上的城堡。有行業分析師在朋友圈直言:“這不是商業決策,是技術主權的預警。破局者 AWS:把競爭對手請上自家貨架就在行業陷入集體恐慌的第 14 天,AWS拋出的重磅消息打破了僵局。9 月 19 日,亞馬遜Bedrock 平台正式上架阿里巴巴 Qwen3 與 DeepSeek-V3.1 兩款中國開源模型,直接補位 Claude 留下的市場空白。這個決策本身就充滿顛覆性 —— 要知道,AWS 與阿里雲在亞太雲端運算市場的份額戰早已白熱化。Gartner 資料顯示,2024 年 AWS 以 37.7% 的全球份額穩居第一,而阿里雲憑藉本土優勢在亞太市場緊追不捨。將直接競爭對手的核心模型接入自家平台,這在 “繫結獨家模型” 成行業慣例的雲服務領域,堪稱石破天驚。更令人咋舌的是 AWS 的 “無差別收錄” 原則。早在今年 8 月,它就將微軟投資的 OpenAI 開源模型 GPT-OSS 請上了 Bedrock 貨架。要知道,OpenAI 不僅是微軟的 “親兒子”,更是 AWS 投資的 Anthropic 的直接競品。這種 “既容得下盟友,也放得下對手” 的操作,與微軟 Azure 繫結 OpenAI、Google Cloud 獨推 Gemini 的封閉策略形成鮮明對比。“我們評估的是模型價值,不是它的‘出身’。”AWS 產品總監表態背後,是 Bedrock 平台 14 家廠商、200 多款模型的豪華陣容。從 Anthropic 的 Claude 到 Meta 的 Llama,從 OpenAI 的 GPT-OSS 到中國的 Qwen3,這家雲巨頭正在建構一個沒有 “排他性壁壘” 的模型自由市場。中國模型的硬實力:性能碾壓,價格腰斬AWS 敢於打破行業慣例,底氣源自中國開源模型的硬實力。此次上架的 Qwen3 與 DeepSeek-V3.1,早已不是 “本土玩家” 的自嗨,而是經過全球市場檢驗的 “實力派”。阿里巴巴的 Qwen3 系列堪稱 “全能選手”。旗艦模型 Qwen3-235B-A22B 支援 262K token 的上下文長度,單次對話可處理兩部長篇小說體量的內容,而兩款編碼專用模型 Qwen3-Coder 在 Java、Python 等主流語言的程式碼生成精準率上,較 Claude 提升了 8 個百分點。更關鍵的是其成本優勢:採用 MoE 混合專家架構後,視訊記憶體佔用僅為同類模型的三分之一,4 張 H20 顯示卡即可實現滿血部署,這意味著中小企業無需天價算力投入就能享受頂級模型服務。DeepSeek-V3.1 則在推理能力上實現了突破。這款擁有 6850 億參數的巨無霸模型,獨創 “混合推理模式”—— 面對簡單查詢時切換 “快速響應模式”,處理多步數學推理或複雜程式碼時自動啟動 “思考模式”,決策過程全程透明可追溯。在 AWS 的實測中,它完成複雜金融資料分析的速度較前代提升 40%,而呼叫成本卻降低了 25%。這些性能優勢並非自賣自誇。Qwen 家族模型全球下載量已超 3 億次,衍生模型超過 10 萬個;DeepSeek-V3.1 則被 Artificial Analysis 評為 “2025 年最具商用價值的開源模型”。當 Claude 因政策原因退場,中國模型用 “更好性能 + 更低價格” 的組合拳,給出了最優解。出海護航:中國模型 + 全球基建的雙重保險對於正全力開拓海外市場的中國企業而言,AWS 此次上架中國模型的動作,更像是一份 “出海護航協議”。Qwen3 與 DeepSeek-V3.1 的多語言處理能力堪稱出海利器。前者在中文與英文場景的表現已達行業頂尖,後者則支援日語、德語等 12 種語言的精準翻譯與本地化內容生成。更重要的是,依託 AWS 覆蓋 37 個區域、117 個可用區的全球基建,這些模型能實現同區 2-5 毫秒的超低延遲呼叫,完美解決跨境業務的響應速度難題。合規性更是戳中了中國企業的痛點。Bedrock 平台通過了 ISO 27001、GDPR、HIPAA 等全球主流合規認證,客戶資料在 VPC 私有網路中隔離傳輸,完全符合歐盟《通用資料保護條例》等嚴苛要求。這意味著企業用 Qwen3 處理海外使用者資料時,無需擔心合規風險 —— 畢竟 “用中國模型 + 全球合規基建”,遠比依賴海外閉源模型更安全。某新能源企業的出海案例頗具代表性。該公司在歐洲市場推出的智能維運系統,採用 DeepSeek-V3.1 做裝置故障診斷,借助 AWS 法蘭克福區域的算力節點,實現故障響應時間縮短至秒級。“以前怕模型合規性出問題,現在 AWS 把‘中國大腦’裝進了‘全球合規殼’,出海終於不用束手束腳了。終局思考:開放打敗封閉的必然Claude 斷供與 AWS 補位的戲劇化對比,實則是 AI 行業發展的必然轉折。這種開放不是無私的 “慈善”,而是基於對行業趨勢的深刻洞察。對中國企業而言,這場風波是警醒也是機遇。它徹底打破了 “海外模型更優” 的迷思,證明中國開源模型已具備全球競爭力;更重要的是,它讓企業看清了 “技術自主 + 生態開放” 的生存之道 —— 與其依賴單一海外模型惶惶不可終日,不如擁抱開放平台,在多元選擇中掌握主動權。Anthropic 的公告或許會成為行業分水嶺:從此之後,“多模型策略” 將不再是可選項,而是企業 AI 戰略的必修課。而 AWS 用 Qwen3 與 DeepSeek-V3.1 給出的答案,是對所有技術封鎖的最有力反擊 —— 畢竟,開放永遠比封閉更有生命力。 (科技頭版)
Claude斷供驚魂14天:Qwen和DeepSeek迅速補位,戳破AI巨頭的壟斷假象
開放永遠比封閉更有生命力。風暴眼:中資企業的 “AI 斷供驚魂夜”9 月 5 日晚間,Anthropic 的一紙公告讓無數中資企業的技術負責人徹夜無眠。“立即停止向多數股權為中資的公司提供 Claude 服務”,這條沒有緩衝期的禁令,像一把突然落下的手術刀,精準切斷了眾多企業的 AI Coding 命脈。Claude 憑藉其在複雜程式碼生成、跨語言偵錯上的超高精準率,早已成為大多數中國科技公司 AI Coding 工具棧的 “壓艙石”,甚至是部分初創企業的唯一選擇。更致命的是,Anthropic 的禁令覆蓋了所有 “中資控股” 主體,即便企業註冊在新加坡、開曼群島等離岸地區,只要股權穿透後中資佔比過半,都被劃入服務終止名單。這場突如其來的斷供,撕開了中國企業 AI 戰略的致命傷口:當核心模型被單一海外廠商 “卡脖子”,所謂的數位化轉型不過是建立在流沙上的城堡。有行業分析師在朋友圈直言:“這不是商業決策,是技術主權的預警。破局者 AWS:把競爭對手請上自家貨架就在行業陷入集體恐慌的第 14 天,AWS拋出的重磅消息打破了僵局。9 月 19 日,亞馬遜Bedrock 平台正式上架阿里巴巴 Qwen3 與 DeepSeek-V3.1 兩款中國開源模型,直接補位 Claude 留下的市場空白。這個決策本身就充滿顛覆性 —— 要知道,AWS 與阿里雲在亞太雲端運算市場的份額戰早已白熱化。Gartner 資料顯示,2024 年 AWS 以 37.7% 的全球份額穩居第一,而阿里雲憑藉本土優勢在亞太市場緊追不捨。將直接競爭對手的核心模型接入自家平台,這在 “繫結獨家模型” 成行業慣例的雲服務領域,堪稱石破天驚。更令人咋舌的是 AWS 的 “無差別收錄” 原則。早在今年 8 月,它就將微軟投資的 OpenAI 開源模型 GPT-OSS 請上了 Bedrock 貨架。要知道,OpenAI 不僅是微軟的 “親兒子”,更是 AWS 投資的 Anthropic 的直接競品。這種 “既容得下盟友,也放得下對手” 的操作,與微軟 Azure 繫結 OpenAI、Google Cloud 獨推 Gemini 的封閉策略形成鮮明對比。“我們評估的是模型價值,不是它的‘出身’。”AWS 產品總監表態背後,是 Bedrock 平台 14 家廠商、200 多款模型的豪華陣容。從 Anthropic 的 Claude 到 Meta 的 Llama,從 OpenAI 的 GPT-OSS 到中國的 Qwen3,這家雲巨頭正在建構一個沒有 “排他性壁壘” 的模型自由市場。中國模型的硬實力:性能碾壓,價格腰斬AWS 敢於打破行業慣例,底氣源自中國開源模型的硬實力。此次上架的 Qwen3 與 DeepSeek-V3.1,早已不是 “本土玩家” 的自嗨,而是經過全球市場檢驗的 “實力派”。阿里巴巴的 Qwen3 系列堪稱 “全能選手”。旗艦模型 Qwen3-235B-A22B 支援 262K token 的上下文長度,單次對話可處理兩部長篇小說體量的內容,而兩款編碼專用模型 Qwen3-Coder 在 Java、Python 等主流語言的程式碼生成精準率上,較 Claude 提升了 8 個百分點。更關鍵的是其成本優勢:採用 MoE 混合專家架構後,視訊記憶體佔用僅為同類模型的三分之一,4 張 H20 顯示卡即可實現滿血部署,這意味著中小企業無需天價算力投入就能享受頂級模型服務。DeepSeek-V3.1 則在推理能力上實現了突破。這款擁有 6850 億參數的巨無霸模型,獨創 “混合推理模式”—— 面對簡單查詢時切換 “快速響應模式”,處理多步數學推理或複雜程式碼時自動啟動 “思考模式”,決策過程全程透明可追溯。在 AWS 的實測中,它完成複雜金融資料分析的速度較前代提升 40%,而呼叫成本卻降低了 25%。這些性能優勢並非自賣自誇。Qwen 家族模型全球下載量已超 3 億次,衍生模型超過 10 萬個;DeepSeek-V3.1 則被 Artificial Analysis 評為 “2025 年最具商用價值的開源模型”。當 Claude 因政策原因退場,中國模型用 “更好性能 + 更低價格” 的組合拳,給出了最優解。出海護航:中國模型 + 全球基建的雙重保險對於正全力開拓海外市場的中國企業而言,AWS 此次上架中國模型的動作,更像是一份 “出海護航協議”。Qwen3 與 DeepSeek-V3.1 的多語言處理能力堪稱出海利器。前者在中文與英文場景的表現已達行業頂尖,後者則支援日語、德語等 12 種語言的精準翻譯與本地化內容生成。更重要的是,依託 AWS 覆蓋 37 個區域、117 個可用區的全球基建,這些模型能實現同區 2-5 毫秒的超低延遲呼叫,完美解決跨境業務的響應速度難題。合規性更是戳中了中國企業的痛點。Bedrock 平台通過了 ISO 27001、GDPR、HIPAA 等全球主流合規認證,客戶資料在 VPC 私有網路中隔離傳輸,完全符合歐盟《通用資料保護條例》等嚴苛要求。這意味著企業用 Qwen3 處理海外使用者資料時,無需擔心合規風險 —— 畢竟 “用中國模型 + 全球合規基建”,遠比依賴海外閉源模型更安全。某新能源企業的出海案例頗具代表性。該公司在歐洲市場推出的智能維運系統,採用 DeepSeek-V3.1 做裝置故障診斷,借助 AWS 法蘭克福區域的算力節點,實現故障響應時間縮短至秒級。“以前怕模型合規性出問題,現在 AWS 把‘中國大腦’裝進了‘全球合規殼’,出海終於不用束手束腳了。終局思考:開放打敗封閉的必然Claude 斷供與 AWS 補位的戲劇化對比,實則是 AI 行業發展的必然轉折。這種開放不是無私的 “慈善”,而是基於對行業趨勢的深刻洞察。對中國企業而言,這場風波是警醒也是機遇。它徹底打破了 “海外模型更優” 的迷思,證明中國開源模型已具備全球競爭力;更重要的是,它讓企業看清了 “技術自主 + 生態開放” 的生存之道 —— 與其依賴單一海外模型惶惶不可終日,不如擁抱開放平台,在多元選擇中掌握主動權。Anthropic 的公告或許會成為行業分水嶺:從此之後,“多模型策略” 將不再是可選項,而是企業 AI 戰略的必修課。而 AWS 用 Qwen3 與 DeepSeek-V3.1 給出的答案,是對所有技術封鎖的最有力反擊 —— 畢竟,開放永遠比封閉更有生命力。 (科技頭版)
AWS「新金融、新經濟」論壇:探索生成式AI、數位資產與遊戲娛樂未來
Amazon Web Services (AWS) 將於2025年舉辦「新金融、新經濟」論壇,匯聚全球金融科技、與遊戲娛樂界領袖,深入探討生成式AI、數位資產及穩定幣如何重塑全球金融版圖。本次論壇橫跨金融科技創新、資安法遵、系統現代化等重要議題,為與會者提供全方位的產業洞察。重塑全球金融版圖開創產業新紀元論壇聚焦四大核心主題,包括人工智慧創新應用、安全法遵架構、現代化轉型策略,以及金融科技創新。其中,Amazon最新的生成式AI服務將展示如何提升金融服務效能與客戶體驗。在資安與法遵方面,AWS將分享完整解決方案,協助金融機構在推動創新的同時確保安全與合規。特別值得一提的是,論壇邀請來自美國、歐洲、韓國、新加坡、日本等地的國際專家,分享全球最新的金融科技發展趨勢與應用實例。從穩定幣的經濟變革到區塊鏈金融的安全治理,以及生成式AI如何協助企業加速創新,都將提供與會者全方位的前瞻視角。全球遊戲強國專家一同探索無限可能在遊戲產業專場中,AWS更網羅全球遊戲娛樂強國的產業專家,與台灣遊戲開發先驅共同探討2025年遊戲產業的發展機遇,包括如何突破地域限制、建構高效能低延遲的雲端遊戲解決方案,以及運用生成式AI重塑遊戲開發與營收模式。設立 AWS 遊戲科技EXPO / AWS GameTech EXPO現場除了精彩論壇內容,更設有遊戲創新技術展示區,讓與會者親身體驗最新遊戲科技,首次設置英雄聯盟賽事,選出屬於自己的英雄一起同樂,還可以和當紅直播主及啦啦隊互動。這難得的跨國交流平台,不僅提供深度討論的機會,更創造寶貴的商業合作契機,隨著亞洲遊戲產業快速崛起,本次論壇將帶您深入剖析區域市場優勢,探索全球擴張策略。本次論壇不僅是一場知識饗宴,更是連結全球金融科技創新的重要平台。無論與會者來自金融業、Web3新創、或技術研發部門,都能從中獲得寶貴的策略洞察與技術啟發。AWS期待與產業夥伴攜手,在數位金融的新紀元中開創嶄新格局。歡迎立即報名>> https://go.aws/4lfHIY4