#雲端
雲端爭霸與模型之戰:阿里與GoogleAI戰略的深度對標與未來分野
雲端爭霸與模型之戰:阿里與GoogleAI戰略的深度對標與未來分野一、先看棋盤:Google與阿里的最新 AI 佈局動態Google:從 Gemini 2.0—>2.5 —> 3 Pro,全面“AI 化”公司模型家族持續迭代:2024 年發佈 Gemini 1.5,率先把長上下文做到 200 萬 token。2024 年底推出 Gemini 2.0,定位為“agentic era”的通用模型,原生支援多模態與工具呼叫,目標是支撐“通用 AI 助手”。2025 年上線 Gemini 2.5 Pro + Deep Think,在推理和程式碼能力上拔高,並開放給 Google AI Ultra 使用者。最近的 Gemini 3Pro在多項基準上超越主流競品,並直接整合進 Search 和 Gemini App,配套“Thinking Mode”等複雜檢索模式。入口層全面 AI 化:Search:通過 AI Overviews把生成式摘要頂在自然結果之上,覆蓋率在 2024–2025 年間已從 26.6% 提升到 44.4%,對 SEO 和廣告模型產生結構性影響。Chrome:Gemini 深度整合瀏覽器,可跨多標籤獲取上下文做總結、寫作和自動化操作。Android / Android Auto / Wear OS:經典 Google Assistant 正在逐步被 Gemini 接管,包括車載 Android Auto 的語音助手也計畫在 2026 年之前切換。雲與企業 AI:Vertex + Gemini Everywhere在 Google Cloud 上,Vertex AI + Agent Engine 讓企業可以直接建構和託管 AI Agent,支援複雜工作流與大規模推理服務。推出 Gemini Enterprise 等方案,把 Gemini 嵌入垂直行業,例如與奔馳合作的 Automotive AI Agent 用於車載虛擬助手。通過 TPU v5p 與 “AI Hypercomputer” 建構自己的一體化算力平台,再向外輸出。開源側:Gemma 系列自 2024 年起持續迭代 Gemma 1—>2—>3,從 2B/7B 到 27B,再到多模態的 Gemma 3;下載量超 1.5 億、數萬衍生模型,成為主流開源 LLM 之一。整體來看,Google在做一件事——把 Gemini 變成整家公司乃至網際網路的“認知作業系統”,從晶片到模型再到 Search / Chrome / Android 全端打通。阿里:通義千問 + 3800 億 AI 基建 + 開源 + 新硬體入口模型家族:通義千問 / Qwen 2.5 —> 3 系列2024 年發佈 通義千問 2.5,官方宣稱中文能力全面超越 GPT‑4 Turbo,並開源 1100 億參數 Qwen1.5-110B,在多項基準上超過 Llama-3-70B,並一度登上 HuggingFace 開源排行榜榜首。2025 年初推出 Qwen 2.5-Max,阿里聲稱在多項評測上超過 GPT‑4o、DeepSeek‑V3 與 Llama‑3.1‑405B。截止2025 年,Qwen 系列已開源 0.5B–72B/110B 等多種規格,覆蓋語言、視覺、音訊、程式碼等,形成“Qwen + Wan + Qwen-VL + Qwen-Audio + Qwen-Coder”的大模型家族。開源與生態“資料點”:阿里自 2023 年起已開源 300+ 模型,基於 Qwen / Wan 的衍生模型數,到 2025 年已超 17 萬,全球下載量超過 6 億次,在開源家族中規模居前。在 Hugging Face,2024 年 Qwen 下載量佔平台總下載的 30% 以上,在開源 LLM 裡影響力極高。雲與基礎設施:3800 億 + 中國 AI 雲“霸主”2025 年 2 月,阿里宣佈未來三年在雲和 AI 硬體基礎設施上投入 3800 億元人民幣,金額超過過去 10 年總和,是中國民企歷史上最大規模的雲+AI 投資。2025 財年多個季度裡,阿里在 AI+雲基礎設施上的資本開支累計已達約 1200 億元。2025 年上半年,阿里雲在中國 AI 雲市場份額約 35.8%,超過第二到第四名之和,公共雲和 AI 產品是主要增長驅動力。產品與入口:從 Qwen App 到 Quark AI 眼鏡推出 Qwen App,試圖把原本分散在釘釘、通義官網、瀏覽器外掛裡的 AI 能力統一為一個 C 端入口,對標 ChatGPT / Gemini App。2025 年 11 月發佈 Quark AI 眼鏡,以通義Qwen 為底座,主打即時翻譯、價格識別、導航和購物等,與支付寶、淘寶等深度打通,定位“生活助手型”眼鏡,而非 VR娛樂裝置。算力與地緣限制受美國對高端 GPU 出口管制影響,阿里在中國境內受限,但通過在東南亞的資料中心租用 Nvidia GPU 進行訓練(例如在新加坡、馬來西亞),再在國內進行微調以滿足資料合規。整體來看,阿里在通過 “通義 + 阿里雲 + 開源 + 新硬體入口”,試圖把自己重塑為中國與新興市場的 AI 基礎設施提供商和生態“水電公司”。二、 戰略思想:技術信仰 vs. 商業實用主義兩家公司的AI戰略原點,深深植根於其企業基因之中。Google:通用智能的“全端技術流”,把 AI 放在“作業系統 + 分發層”,而不是單一 ToB 產品Google的戰略核心是“通用性”與“無處不在”。作為Transformer架構的誕生地,Google的AI戰略帶有濃厚的理想主義色彩——即實現AGI。CEO Pichai 多次強調,“AI 比火、電或網際網路更深刻”,並把公司戰略從“Mobile‑first”升級為“AI‑first”。核心思想: AI不僅是工具,更是認知作業系統和下一代計算平台。Gemini 不只是聊天機器人,而是 Search / Chrome / Android / Workspace / Cloud 等各產品線的統一認知層,未來通過 Agent Mode、Mariner 等能力替使用者直接“操作網際網路”。戰略定力: 儘管在ChatGPT發佈初期略顯慌亂,但Google迅速回歸其全端優勢:從晶片(TPU)到資料中心,再到模型Gemini和應用Search, Workspace, Android等,打造一個無法被穿透的生態閉環。阿里巴巴:雲智一體的“基礎設施流”,把 AI 放在“基礎設施 +業務增效層”,而不是定義一個新的“認知 OS”阿里的戰略核心是“賦能”與“商業落地”。在經歷組織變革後,CEO吳泳銘明確了“AI驅動”戰略,其本質是“雲端運算的二次增長曲線”。核心思想: 讓AI成為水電煤。阿里並不執著於做一個壟斷的超級模型,而是致力於做“AI時代的公共雲底座”。戰略路徑: “模型即服務”(MaaS),通過“通義千問”的高品質開源,降低全社會的AI使用門檻,從而將流量和算力需求導向阿里雲。阿里賭的是:模型終將商品化,而算力才是永恆的剛需。洞察: Google想做“上帝的大腦”,試圖理解全世界的資訊;阿里想做“市場的推手”,試圖最佳化全社會的交易與生產效率。三、 業務策略:封閉生態的護城河 vs. 開源突圍的攻城錘在業務打法上,兩者展現出了截然不同的進攻姿態:模型策略方面,Google在旗艦能力上整體仍有優勢,特別是 超長上下文、深度 agentic 推理與全球多語言相容度。阿里在 中文場景和開源陣營 裡極具競爭力,Qwen 家族已被認為是中國乃至全球最重要的開源 LLM 系列之一。算力底座方面,在“縱向深度”上,Google更強:從晶片 —> 超算 —> 雲平台 —> 模型 —> 應用。在“橫向廣度”上,阿里在中國算力供給和基礎設施上極具規模優勢,但仍是 GPU 生態的價格接受者,而非規則制定者。開發平台方面,Vertex 更全球化、連接主流企業 IT 堆疊;Model Studio 更貼合中國企業與本地生態。深度解析:阿里的“開源陽謀”Google因為擁有搜尋這一巨大的現金牛(Cash Cow),必須防守,因此傾向於封閉以保護其廣告商業模式不被過快顛覆。而阿里作為AI大模型的追趕者,選擇了激進的開源策略。Qwen-72B等模型在性能上逼近GPT-4,這種策略極其高明:瓦解對手壁壘: 通過提供免費的高性能模型,擠壓由於閉源而收費的中小模型廠商的生存空間。繫結雲生態: 雖然模型免費,但運行模型的高性能算力(阿里雲)收費。這是典型的“送剃鬚刀架,賣刀片”的邏輯。四、 產品策略:存量改造 vs. 場景重構五、 差距分析:阿里需要正視的挑戰雖然阿里在國內處於領先地位,但對標Google,仍在一些方面存在差距。更本質的一點:Google的優勢在 “全球作業系統級分發 + 全端技術深度”;  阿里的優勢在 “中國市場基礎設施規模 + 開源吸附力 + 場景理解”。但 “作業系統級入口”與“晶片級話語權” 是結構性資源,一旦錯過很難補齊——這是阿里相對Google最大的硬傷。算力硬約束這是最大的阿喀琉斯之踵。Google: 擁有TPU v5p等自研AI晶片,且坐擁全球最龐大的TPU叢集。Google掌握了從晶片設計到編譯器再到模型訓練的全鏈路主導權。阿里: 儘管阿里雲技術強大,但受限於美國晶片禁令,高端算力(如H100/H200)獲取困難。雖然在軟體層面做了大量異構計算最佳化,但物理算力的天花板決定了模型訓練迭代的速度和上限。原創性與人才密度Google: 是DeepMind的擁有者,是Transformer、MoE、AlphaFold的誕生地。Google聚集了全球最頂尖的AI科學家,做的是從0到1的突破。阿里: 更多是從1到10的工程化極客。通義千問雖然表現優異,但在模型架構的底層創新上,仍多是跟隨西方的技術路線。不僅缺頂級晶片,更缺能定義下一代架構的頂級大腦。商業變現的路徑依賴Google: 路徑比較清晰,Search Ads + Cloud API + Workspace Subscription。阿里: 目前主要靠賣算力,即阿里雲)。在電商側,AI能否直接帶來GMV的顯著增量尚待驗證。如果AI只是提高了效率但沒做大蛋糕,對於阿里這種體量的公司來說,邊際效益是遞減的。全球入口Google:Search、Chrome、Android、YouTube,幾乎覆蓋全球網際網路高頻入口阿里:主要是淘寶、天貓、支付寶、夸克、釘釘,集中在中國,阿里缺乏 OS / 瀏覽器級入口,是結構性短板六、 未來展望:體系化的演進路徑Google的未來:可能邁向“無限語境”與“主動智能”Agentic AI(代理智能): Google將利用Android生態,讓AI不僅僅是回答問題,而是幫使用者“做事”(訂票、發郵件、操作APP)。多模態推理: Gemini將不僅理解視訊,還能進行複雜的跨模態邏輯推理,這將徹底改變YouTube和搜尋的形態。阿里的未來:可能深耕“垂直產業”與“異構算力”產業AI化(Vertical AI): 阿里將避開與美國巨頭在AGI上的正面硬剛,轉而結合中國強大的供應鏈優勢,深耕製造、物流、金融等垂直領域的行業模型。算力突圍: 阿里將不得不加大自研晶片(含光NPU等)的投入,並大力發展異構計算軟體棧,試圖用軟體最佳化來彌補硬體製程的代差。七、 結語:平行宇宙下的殊途同歸阿里與Google的這場AI對決,遠非簡單的市值之爭或產品競速,它是中美兩大科技生態在不同約束條件下,對“智能時代作業系統”控制權的終極爭奪。1. 地緣技術格局:從“同向競速”到“平行宇宙”過去二十年,中美網際網路巨頭在摩爾定律的同一條軌道上賽跑。但在AI時代,由於地緣政治與硬體封鎖(如GPU禁令),雙方正在分裂為兩個“平行宇宙”。Google,資源富足型的暴力美學: Google代表了西方“大力出奇蹟”的巔峰。依託幾乎無限的高端算力,如TPU叢集,和頂尖人才密度,Google致力於攻克AGI的“珠穆朗瑪峰”,試圖用全知全能的超級模型來定義人類知識的邊界。Alibaba,資源約束型的生態突圍: 阿里代表了中國在極限施壓下的韌性。在算力受限的背景下,阿里被迫走上了一條“精益計算”與“應用驅動”的道路。通過開源Qwen系列建構“朋友圈”,阿里試圖用生態的廣度來彌補單點算力的厚度,證明了在非頂級硬體上依然可以跑出世界級的模型。這種“在匱乏中創新”的能力,或許是阿里未來最大的隱形資產。2. 商業文明演變:從“流量分發”到“意圖執行”阿里和Google的焦慮,本質上是對舊時代商業模式崩塌的恐懼。搜尋的黃昏與代理的黎明: Google的搜尋和阿里的電商搜尋,本質都是“連結的羅列”。而AI的終局可能是“連結的消亡”。未來的使用者不再需要十個Google藍色連結或一堆淘寶商品列表,他們只需要一個“結果”。Agent智能體的戰爭: 誰能率先完成從“提供資訊”到“替人辦事”的跨越,誰就是新王。Google希望Gemini成為你生活中的全能管家,可以訂機票、回郵件;阿里希望通義成為你生意上的全能合夥人,可以搞定采購、做客服。雙方都在爭奪“使用者意圖的唯一入口”。一旦這個入口被壟斷,傳統的APP孤島模式將被徹底粉碎。3. 組織進化的痛苦:大象不僅要跳舞,還要換血在這場戰役中,最大的敵人不是對手,而是“過去的自己”。Google的挑戰是“反熵增”: 作為矽谷的養老院,Google必須找回創業時期的野性。它需要在“保護搜尋廣告收入”和“自我革命”之間走鋼絲,稍有不慎,就會重演柯達時刻。阿里的挑戰是“去中心化”: 阿里需要從一個強營運導向的電商公司,蛻變為一個崇尚技術理想、容忍長期投入的硬科技公司。這不僅是戰略的轉型,更是企業基因的重組。Google在仰望星空,試圖打造“上帝的大腦”,解決全人類的通用問題;阿里在腳踏實地,試圖打造“萬能的手”,解決商業世界的效率問題。雖殊途,但終將同歸——兩家公司最終都將不再是網際網路公司,而會進化為驅動社會運轉的智能基礎設施。在這場沒有終點的馬拉松裡,勝負不再取決於誰的模型參數更大,而在於誰能更快地將昂貴的智力資源,轉化為廉價的、人人可用的社會生產力。 (AI Xploring)
OpenAI 發佈 GPT-5.1-Codex-Max,反擊 Gemini 3 Pro
OpenAI 於 2025 年 11 月 19 日發佈了 GPT-5.1-Codex-Max,本質上是在原有 GPT-5.1-Codex 之上,對“長程編碼任務”和 agent 化工作流做的一次定向升級:底層換成新版推理基座模型,訓練資料更貼近真實軟體工程過程,包括 PR 建立、程式碼審查、前端開發和技術問答,並在訓練階段顯式針對 Codex CLI 和 Windows 環境做了適配。官方同時將其設為 Codex 系列默認模型,經由 Codex CLI、IDE 外掛、雲端整合和程式碼評審等通道提供給現有使用者,API 計畫稍後開放。基準表現與長程任務能力從已公開的基準資料看,Codex-Max 相對上一代 Codex 的提升是具體且可量化的,而不是“版本號一加、能力翻倍”式的包裝。公開資料與社區整理結果顯示,它在 SWE-Lancer IC SWE 上從 66.3% 提升到約 79.9%,在 SWE-Bench Verified 上從 73.7% 升至 77.9%,Terminal-Bench 2.0 則從 52.8% 提升到 58.1%。這些測試運行在較高推理檔位,並結合所謂“compaction”機制:當上下文臨近極限時自動壓縮會話,僅保留關鍵要點,以便在單一任務中跨越百萬級 token。OpenAI 在產品文案和系統卡中反覆強調,Codex-Max 在內部環境下可以連續工作 24 小時以上,完成多階段重構、測試驅動迭代和自主演進式偵錯。這說明在 Codex 受控環境中,模型在多輪失敗和自我修正中仍能保持相對穩定的策略,而不僅僅是一次性給出答案。但這類長程任務的表現目前主要來自廠商自證和少量早期使用者反饋,在更複雜的企業程式碼庫和 CI/CD 流水線下能否復現,仍需要時間檢驗。OpenAI 同時表示,在中等推理強度下,Codex-Max 在保持或略微提升精準率的情況下,思考 token 消耗比上一代減少約 30%,理論上可以在不犧牲質量的前提下降低時延和成本。這些數字目前仍以官方披露為主,第三方系統化驗證尚不充分,更穩妥的做法是將其視為趨勢性訊號,而非精確定價依據。與 Gemini 3 Pro 的能力對比與 Gemini 3 Pro 的關係,比單純比較“誰更強”要複雜得多。DeepMind 的官方材料顯示,在 LiveCodeBench Pro 這類偏演算法競賽風格的基準上,Gemini 3 Pro 的 Elo 在 2400+ 區間,顯著高於此前的 GPT-5.1 系列;在若干長程、工具使用與博弈類任務中,Gemini 3 Pro 也有相對明顯的領先,被普遍視為“複雜推理 + 多模態 + agent 組合任務”上的強項。過去幾天的技術部落格與評測大多據此認為,Gemini 3 Pro 在“複雜推理 + 多模態 + agentic 任務”上,對 GPT-5.1 形成了階段性優勢。Codex-Max 引入後,這種對比出現了一些局部反轉。根據 OpenAI 自身資料和早期評測,在 SWE-Bench Verified 和 Terminal-Bench 2.0 這兩類更貼近真實工程和終端操作的基準上,Codex-Max 相對上一代 GPT-5.1-Codex 有明顯提升,並在部分設定下略高於當前公開版本的 Gemini 3 Pro。不過,這些對比往往使用不同 agent、不同終端環境和不同推理檔位,嚴格意義上的“同場雙盲”樣本並不多,目前更適合解讀為:在若干具體編碼基準上,兩者已進入“互有勝負”的狀態,而不是誰絕對壓制誰。更現實的判斷是:在日常“寫業務程式碼、修缺陷、補測試”這類任務中,兩者都足夠強,差異更可能體現在長任務穩定性、對特定平台和框架的適配程度,以及與現有工具鏈的整合深度。Codex-Max 更像是在 OpenAI / Codex 生態內部,把“工程 agent”這條線補足到不落於人,而 Gemini 3 Pro 則持續押注於“多模態 + 高階推理 + 超長上下文”的整體能力版圖。價格策略與“長任務經濟性”在經濟性方面,兩家目前採用的策略並不完全相同。Gemini 3 Pro 的 API 定價較為透明:在 200k token 內,每百萬輸入約 2 美元、輸出約 12 美元;超過 200k 之後分別翻倍到 4 美元和 18 美元,明顯通過價格對超長上下文收取溢價,同時在宣傳中頻繁強調“100 萬 token 上下文”的賣點。相比之下,OpenAI 尚未單獨公佈 Codex-Max 的 API 價格,而是強調通過 compaction 和思考 token 最佳化來降低有效成本,即在模型內部結構和推理策略上做文章,而不是在價格表上人為劃分“短上下文”和“長上下文”檔位。對真正會跑長任務的團隊而言,最終帳單會同時受兩類因素影響:模型本身的 token 效率,以及平台對長上下文的計費方式。現階段,大致可以預期 Gemini 3 Pro 在極長上下文、多模態場景的成本會相對更高,而 Codex-Max 在純文字 / 程式碼長任務中的“性價比”則需要依賴未來更多第三方使用資料來判斷。工具鏈與開發流程的策略差異從產品路線看,兩家在“工程 agent”問題上的回答明顯不同。OpenAI 的選擇,是儘量不觸碰開發者的主戰場:Codex-Max 深度嵌入 Codex CLI、傳統 IDE 外掛、雲端整合與程式碼評審流程,尊重現有的 Git / CI/CD 流程,只在原有流水線上引入更強的自動化能力。這種路徑的現實意義在於,企業不必在 IDE、原始碼託管或 CI 系統上做大幅遷移,只需要在權限和審計層面逐步提高對 agent 的信任度。Gemini 3 Pro 則試圖配合 Antigravity 直接重構開發環境。Antigravity 的設計圍繞多 agent 管理、Artifacts 記錄(計畫、執行證據、測試結果)以及自動UI 操作展開,把“agent 作為一等公民”的假設寫進 IDE 形態。這意味著,選擇這一路線的團隊,在獲得更激進自動化可能性的同時,也要面對 IDE 層級的範式遷移成本。短期內,OpenAI 路線的落地阻力顯然更小;但如果 Antigravity 這種模式在部分大廠內部證明有效,長期對開發工具和雲平台格局的衝擊可能更直接。安全、治理與不確定性在安全治理方面,OpenAI 的系統卡指出,GPT-5.1-Codex-Max 在網路安全方向已經“非常有能力”,但尚未達到其內部定義的“高能力”閾值,在生物安全方向則按高能力模型管理,配套更嚴格的使用限制和監控。為降低長程 agent 帶來的額外風險,OpenAI 在 Codex 產品層疊加了沙箱執行、可配置的網路訪問,以及行為監控與速率限制等機制。這些措施能在多大程度上覆蓋真實企業環境下的濫用場景,目前仍缺乏足夠公開案例,只能說方向合理,但效果有待觀察。Gemini 3 Pro 在官方材料中同樣強調安全評估與企業級控制選項,但在具體編碼任務下的攻擊能力、越權操作風險等方面披露更為克制,外部公開資料主要來自綜合評估和少量第三方測試。對有合規壓力的組織來說,一旦開始認真嘗試 24 小時等級的自治編碼任務,技術問題之外,很快會面臨審計、責任界定甚至監管層面的額外要求,這部分目前基本還處在“實踐先於規範”的階段。初步判斷與現實決策點綜合來看,GPT-5.1-Codex-Max 更像一場經過精心選擇發佈時間的防守反擊:在 Gemini 3 Pro 通過一系列基準與多模態能力佔據敘事高地之後,OpenAI 把“編碼專用”這一子類重新拉回到一個至少不落下風的位置,並在 SWE-Bench、Terminal-Bench 等對開發者更敏感的指標上爭取了部分優勢。然而,無論是 Codex-Max 還是 Gemini 3 Pro,目前都更適合被視為“強力助手 + 局部自治 agent”,距離可以完全接管軟體工程流水線、在企業環境中大規模無監督運轉,還有明顯距離。在這種背景下,對真正需要做技術選型的團隊來說,現在去糾結某個單一基準上差一兩個百分點的勝負意義有限,更現實的決策維度可能包括:現有工具鏈與那個生態的耦合程度更深,組織內開發者對那一套平台更熟悉,在安全與審計層面能接受怎樣的自治邊界,以及是否有意願為 Antigravity 這類新範式額外付出一輪遷移成本。至於長程 agent 是否真能在實戰項目中穩定跑完 24 小時以上任務,這件事大機率只能交給未來一兩年的真實項目和內部 A/B 測試來給答案。 (InfraNative)
獨家丨千問 app,阿里要怎麼做中國的 “ChatGPT”
今年阿里第三次集中力量辦大事。在科技公司大建 AI 的敘事裡,阿里之前更像美國的亞馬遜、微軟 —— 沒有微信、抖音那樣的全民流量入口,AI 投入選擇偏向企業客戶,不斷買卡建算力中心,以雲端運算業務抓住千行百業對 AI 的渴望。過去幾年,阿里在 AI 方面的主要進展也不在應用層 —— 入股多家中國頭部大模型創業公司、自研的 Qwen 系列大模型在諸多測試贏過其他開源模型、阿里雲加速增長。但 AI 助理 “千問 app” 在 11 月 17 日正式宣佈公測說明阿里想要更大的劇本。新的千問應用明確對標 ChatGPT 最新的 5.1 版本。它由此前的通義 app 和夸克 AI 對話助手升級而來,接入阿里通義實驗室最新的 Qwen 3 - Max 模型。這是繼 AI 基建、淘寶閃購後,阿里今年宣佈的又一個集團戰略項目,負責人是阿里巴巴智能資訊事業群總裁吳嘉。9 月起,上百名阿里工程師聚集在阿里巴巴西溪園區 C4 樓封閉開發 —— 和高德掃街榜上線前類似。ChatGPT、千問、豆包登陸後的初始介面。據我們瞭解,此次推出的是初級版本,很快會有大更新。除了會聊天,千問項目團隊還在聯合包括淘寶、高德、閃購、支付寶等產品的團隊聯合開發,希望更深嵌入相關產品,解決使用者的實際問題。一位阿里人士說,“阿里有很好的模型基礎,在 C 端肯定要有一個很強的入口,且要做一個 AI 原生應用,阿里會把 AI 超級入口的重點集中在千問上。”中國網際網路巨頭可能都沒有亞馬遜、微軟那樣奢侈的選擇權——退後一點,讓 ChatGPT、Gemini、Claude 接入自己的產品庫。豆包背後的字節跳動有辦公軟體也有自己的電商平台。在這裡,每個巨頭都必須保證自己有流量入口。拼多多內建短影片、阿里進入外賣大戰都是入口之爭。而聊天助手是目前最直接可見的 AI 入口。我們訪談了千問項目的產品經理和其他一些參與的阿里人士,回答為什麼阿里現在推出千問 app,之後的策略是什麼。以下是阿里相關人士回答,經刪減和調整,未改變對方原意。晚點:距離 DeepSeek 時刻已經過去快一年,為什麼現在做千問 app?千問團隊:阿里肯定要有一個非常強的 to C 的入口。這是每家大公司都在思考討論的問題,只是可能路徑不太一樣,和每家公司的業務構成和業務形態、能力累積等都有關聯。阿里的路徑肯定是從雲、基礎模型開始做,模型能力是最重要的,然後再回到 C 端。當下的時機剛剛好,有兩個原因促使我們要重點去做千問這款原生的 AI 產品:1. 模型的成熟度,Qwen3 - Max 整體性能、效果都已經達到全球領先。2. 整個 Agent 生態的成熟度,不管是整個三方生態還是集團內部的生態,都到了一個更能被模型普遍呼叫、能解決更多問題的狀態,我們也花了大量時間處理內部業務的資料互通,還有整個的授權能力。補充:一些事實和行業情況今年阿里每隔幾個月都會有關於 AI 的大動作 —— 2 月發佈 24Q4 自然季財報前,宣佈未來三年將投入超過 3800 億元建設雲和 AI 硬體基礎設施;5 月發佈 25Q1 自然季財報前,正式發佈通義千問 Qwen3 大模型;9 月中旬,The Information 報導稱阿里開發了一款新的 AI 晶片;再過一周,阿里將發佈新一季財報。晚點:對手產品已經推了半年,阿里現在做一個 AI 原生超級入口,晚嗎?千問團隊:不晚,原因也是兩點:1. 國內還沒有一款 AI 應用能夠穩定突破億級 DAU(日活躍使用者),這是一個重要的體量門檻,意味著至少國內還沒出現一個國民級的 AI 應用;2. 不論國內那款產品,客觀說還處於初級階段,沒有真正演進到能解決很多實際問題的程度。大家都是基於本身的知識和優勢來輔助人,而要邁過這個智力門檻,需要的不只是資料,更多依賴在理解世界、自主學習等底層架構上的突破。”補充:一些事實和行業情況今年 3 月,吳嘉對我們說,隨著模型能力的發展,現在到了應用的爆發階段,如果以過億 DAU 為標準,面向 C 端使用者的中國 AI 超級應用一定會很快到來,“不是 2025 年,就是 2026 年上半年。”QuestMobile 資料顯示,2025 年 10 月,AI 原生應用中,豆包的 DAU 最高,5410 萬;DeepSeek 2860 萬,騰訊元寶 560 萬(未包括直接微信裡使用元寶的使用者,但那更少)。作為對比,OpenAI 10 月披露 ChatGPT 全球周活躍使用者超過 8 億,以此推斷日活不可能少於 1 億,可能接近 2 億。晚點:“對標 ChatGPT”,千問要做成什麼樣的產品?千問團隊:千問定位是一款能聊天、會辦事的產品,能夠幫使用者真正解決很多實際問題。P 圖本身也是需求的組成部分,但只有覆蓋了使用者工作、學習和生活當中的大部分問題,才能走到 1 億 DAU。目前千問團隊最重要的是怎麼能夠徹底去激發模型的力量,把它和使用者現在和潛在、未來的需求進行更高程度的關聯。我們的主要工作分為兩個階段:第一階段,核心做好使用者體驗和口碑評價,基於模型快速進行產品迭代;第二階段是千問和阿里各個業務的整體協同,目前千問與高德、淘寶、支付寶、閃購等都已經在做一些聯合開發的工作,進展非常快,預計很快還會有大版本的更新。辦事能力指的就是能解決更複雜的任務,比如結合淘天的 AI 萬能搜,千問基於過去使用者的喜好習慣給使用者做推薦,甚至比價;再比如使用者有一個晚上想做的菜,千問能基於這個菜幫使用者提前買好對應的食材。晚點:千問和 ChatGPT 的產品思路會有什麼區別?千問團隊:會有不同:1. 我們強調普通人可以隨時用、免費用。目前完全不考慮收費的事,專心做好產品;2. 我們希望 ChatGPT 有的能力我們都有,很多會快速上線,另一方面 ChatGPT 沒有的我們也有,主要就是阿里生態裡的各種 agent 服務,內部業務合作、協同的程度會更深。我們必須承認,中國網際網路實際是封閉的,大家都把自己的資產當作最強的競爭門檻。這對於每一家網際網路大公司都是一個普遍問題。ChatGPT、Gemini 都驗證了一個路徑,依託模型的領先可以在 C 端產品上實現突破,這件事的本質是對模型智力的追求,我們的思考路徑也是一樣的。對千問團隊最大的挑戰是,阿里體系下有這麼多 agent,怎麼基於場景把它們更好地串聯在一起?使用者很多需求使用的不是一個或者兩個 Agent 的服務,比如說我想要規劃一個團建,呼叫的不只是飛豬,可能還有很多支付、出行、購物等一系列能力,怎麼把它們有機且絲滑得串聯在一起,這個難度比較大,因為每一個 Agent 的能力成熟度不一樣。晚點:什麼時候確定開始做千問,誰來主導?千問團隊:產品、演算法層面一直在做相關的準備工作,不是一次拍板,是個演進的過程。差不多在 2025 年夏天,阿里核心管理層的討論會更多一些,確定阿里要投入多少資源,投入多少力度去做這件事情,國慶前是阿里上上下下對千問項目討論最密集的時候。最終是吳泳銘做出的判斷和決定 —— 阿里巴巴必須要有一個 AI 原生的 C 端超級入口。9 月後,從北京、廣東調來上百名工程師,大家在阿里巴巴西溪園區 C4 樓封閉做千問項目,現在這幫人坐的地方是三層和四層,高德掃街榜當時封閉時坐的是二層。千問是高德掃街榜之後的又一個集團戰略級項目,吳嘉是負責人,團隊以智能資訊事業群為主,還有很多業務都參與,包括阿里雲、通義實驗室、淘天、高德等,一起在做共同開發。千問產品和大模型的對接,在產品方向上,由夸克團隊和通義實驗室一起針對拿到的使用者資料和反饋、各種應用場景做定製化的模型訓練和最佳化。晚點:阿里消費端 AI 的戰略具體是什麼樣的?千問團隊:面向使用者,一塊是原生應用,也就是千問;另一塊是原本業務的 AI 化,夸克、淘天、1688、高德、海外電商等都在做一些事實半年前,吳嘉對我們說,他希望夸克成為一個對使用者有用、專業、萬能的 AI 產品。“我們的第一優先順序肯定是讓夸克現如今這麼大的群體都享受到 AI 帶來的價值。”但夸克應用包羅萬象。需求最大的是搜尋,還有相當數量的使用者會在夸克網盤裡直接看劇。88VIP 有一項權益是贈送夸克網盤會員。根據 QuestMobile 的資料,夸克的 DAU 在 2025 年 1 月為 2970 萬,一直到 10 月,這個數字也只小幅增長到 3370 萬,與之對比的是,豆包 9 月較前一個月就多了 850 萬 DAU。一位阿里人士說,夸克的部分流量一直未被第三方資料標記,導致外部統計並不精準,目前實際 DAU 在 5000 萬 - 6000萬之間。2025 年,夸克關於 AI 的動作頻頻,上線了超級框、高考志願大模型、AI 創作平台、AI 眼鏡、AI 對話助手等。千問團隊:產品形態上,千問這樣的 chatbot 和夸克的超級框,其實不完全矛盾。打個比方,肯定不是說 Google 做了 Gemini,Google search 就不重要了。2025 年上半年,阿里當時的確希望通過夸克來嘗試 AI 時代的入口。夸克有原來的使用者、產品基礎,而且是一款年輕人都在用的產品。隨著 AI 能力的提升,我們覺得對話式 AI 助手是更好的形式,接下來阿里會重點發展千問,並把它放進夸克。夸克的定位是 AI 搜尋和 AI 瀏覽器。過去一兩年,阿里在組織上有一個非常大的變化,比如閃購這場仗不是閃購自己也不是淘寶自己打。它在競爭裡能站穩腳跟的本質,是集中了整個阿里所有的優勢資源,明確指揮官,統一指揮。 (晚點LatePost)
🎯不是欣興、不是富喬:看懂PCB的AI新故事,原來主力年底押寶最強黑馬是「它」!?Line@連結:https://lin.ee/mua8YUP👉很多人看到「AI伺服器需求爆發」,想到的可能是輝達(NVDA-US)或 AMD(AMD-US)CPU/GPU,但鮮少想到的是PCB產業。舉個生活比喻:你可以把AI伺服器想像一台極速列車,列車的引擎(GPU/ASIC)是輝達;底下的鐵軌,就是PCB。列車跑得越快、需求越大,你要的鐵軌規格就越高、鋼材要越好、建造要耗更多成本。👉同理,PCB也因為AI/交換器/高速通訊拉升,高階材料、多層板、載板價格逐季上漲、技術門檻同步升高。而今年台股的PCB族群正在迎來結構性轉型加速期,已成為趁大盤震盪時切入的最佳標的之一。🚀為什麼這波PCB值得你特別注意+多看一眼?1.AI/HPC伺服器大換機潮當輝達最新世代AI伺服器問世、資料中心升級、雲端運算需求爆,底層載板(特別是ABF載板)就是那根「大動脈」。市場報告指出,ABF載板市場規模在2025年起將明顯上揚。對應到台灣個股,載板三雄面臨的是「漲價+出貨量提升」的雙催化。這不是小幅成長,而是屬於規格躍升、階段性大躍進。2.高速網通與800G交換器升級5G、雲端資料中心、邊緣運算,對「高速傳輸、多層次、低延遲」板子的需求越來越強。特別是800G交換器這類設備,對PCB材料、載板層數、銅箔/玻纖材料需求已成結構性緊張。舉例:HVLP4銅箔與M9玻纖布正成為PCB規格升級的關鍵。3.電動車+自駕系統推升汽車板價值雖然整體車市景氣有起伏、補助退場、關稅風險也在,但車用PCB特別是智慧座艙、ADAS、電動車電子板仍是未來成長方向。如果你相信電動車+智慧座艙是未來,那麼從PCB產業鏈佈局是別人可能忽略但潛力不小的路。4.衛星通訊+低軌衛星高階應用這個比你想像的還要「未被看見」。據報導,今年台灣PCB材料與設備成長中,「鑽孔製程」年增超過30%。也就是說,從大型資料中心跳向「雲+邊緣+衛星」,對板子的需求又打開新窗口。這條故事線能讓你在盤整時期找到下一個起點。5.高階材料/CCL供應瓶頸上游材料其實是這場變革中最關鍵的一環。誰掌握銅箔、玻纖材、特殊基板,誰就可能成為「供應鏈稀缺端」。台灣高階材料產值年增雖然不到PCB整體,但這個「小環節」正在成為市場關注焦點。🚀PCB黑馬個股公開:六大天王,誰是年底最猛主升段飆股?♦️8046南電:AI伺服器+800G交換器載板的絕對龍頭南電剛公布的10月營收,年增率高達41.68%!這是什麼概念?在電子業傳統淡季,它交出了旺季的成績。花旗環球證券在11月初,一口氣將南電目標價拉高到360元,是外資圈的最高價。為什麼?因為AI載板的漲價趨勢確立了。♦️3037欣興:ABF載板與HDI板(高密度連接板)的雙料冠軍欣興上半年EPS僅0.62元,很多人看衰。但我觀察的是「毛利率」。隨著GPU伺服器用的高階HDI板良率拉升,下半年的毛利改善非常明顯。外資顯然也看到了。股價已一路漲到170元附近,里昂、花旗紛紛調高目標價到200元以上。短線欣興雖漲多,但AI趨勢不變,適合拉回後「長線持有」,等待毛利率回升的獲利爆發。♦️6274台燿:高頻材料(CCL)的技術王者,專吃最難的「ASIC伺服器」和低軌衛星訂單。Q3營收季增18.9%,創下單季歷史新高!10月營收又再創新高。這證實了它在美系雲端大廠(CSP)的AI伺服器材料市占率持續攀升。相比龍頭台光電(2383-TW),股價相對溫和,是「穩健成長股」,非常適合在拉回時分批佈局。♦️2368金像電:400G、800G交換器和AI伺服器主機板的「最純」受惠者。金像電全球雲端大廠的訂單能見度非常長。前三季EPS成長已超過30%,訂單滿手,基本面超強。只要AI趨勢不墜,它就是「必配」的PCB核心持股。♦️8155博智:利基市場雙雄:車用與網通的「隱形冠軍」博智不玩AI大亂鬥,專注在高階網通、伺服器和「汽車板」。公司獲利非常穩定,今年營收年增率屢創新高(如3月年增69.7%、8月年增32.6%。)雖然股價較牛皮,但年底新廠開出後,業績有望大爆發。♦️3167大量:高階硬板、網通板的主力供應商大量受惠於整體網通規格提升的換機潮,背鑽與半導體設備出貨爆發 Q3營收倍增Q4拚續向上,目前在手訂單逾30億元產能全滿,訂單已排至2026年。預計南京新廠Q4投產全年營收挑戰倍增,今年EPS挑戰8元創高可期。🔥結論:我長年觀察的經驗,每當股市出現大震盪,往往是資金「汰弱留強」最佳的時刻。舊的贏家正在下車,而下一波真正的主升段霸主,正在利用拉回,悄悄地吸納籌碼。你要看懂的是「背後的產業故事」,這場PCB的機會就在你眼前。********************************************************有持股問題或想要飆股→請加入Line:https://lin.ee/mua8YUP江江的Youtube【點股成金】解盤:https://reurl.cc/02drMk*********************************************************(本公司所推薦分析之個別有價證券 無不當之財務利益關係以往之績效不保證未來獲利 投資人應獨立判斷 審慎評估並自負投資風險)
AI行情到了第幾層?
今年的市場不見往日把美林時鐘捲成風扇的極致輪動,而是在猶如土撥鼠之日的重複裡不斷上演似曾相識的新高。投資者來來回回似乎總在交易同樣的主線——要麼是在全球貨幣秩序重塑的宏大敘事裡與黃金眉來眼去,要麼是在科技改變世界的宏偉藍圖裡與AI舉案齊眉。市場在近乎單調的行情裡,逐漸走向新一輪財報季。但會計報表還沒出,太平洋彼岸的科技公司就已經提前進入了新一輪“預期加碼”。上個月,OpenAI宣佈投資1000億美元購買Oracle的雲端運算服務,轉頭Oracle就宣佈投資1000億美元買輝達的顯示卡,然後輝達就宣佈向OpenAI投資1000億美元建設10吉瓦的AI資料中心。腦筋急轉彎之最後到底誰出了這1000億,還沒蹲出來權威答案,事情就又起了新的變化。2025年10月6日,繼輝達之後,Open AI與AMD也達成了一項價值數百億美元的合作協議:OpenAI 承諾將會在未來的幾年中累計部署6 吉瓦的 AMD GPU,並且將於2026年下半年開始部署首批AMD Instinct MI450 GPU 。與此同時,AMD 向 OpenAI 發行了普通股的認股權證,在滿足解鎖條件的情況下,Open AI 能以每股0.01美元的行權價購買最多1.6億股AMD普通股。如果按行權條件之一“AMD股價達到600美元”來計算,1.6億股的價值將達到960 億美元,四捨五入又是一個千億級的佈局。一周之後的2025年10月13日,OpenAI再度出手,宣佈與博通達成深度定製晶片的合作。AI投資大循環的生態系統裡,又迎來了一個1.5兆市值的巨頭參與其中。OpenAI 的朋友圈群賢畢至、金碧輝煌,但分歧也隨之而來。樂觀者們看到的是科技巨頭們 All in AI的決心,悲觀者們則是質疑這種類似“梯雲縱”的遊戲就像空中樓閣,隨時可能倒塌。站在當下這個時點,如何看待不斷新高中的AI成為了市場最為激辯的話題之一?遠川整理了部分機構近期對於人工智慧的觀點和討論以供讀者參考。高盛:AI沒有泡沫10月8日,高盛發佈了一篇題為《Why we are not in a bubble...yet》的研報,旗幟鮮明地表示:AI還沒有形成大規模的泡沫。高盛在報告中談到泡沫通常會涉及到三個重要的組成部分:資產價格的迅速上漲、估值過高以及槓桿增加驅動的系統性風險顯著上升,而這三者當下都還未達到產生泡沫的程度。首先資產價格的快速上漲並不直接意味著泡沫的產生。譬如今年國防類股票也產生了可觀的回報,而歐洲銀行股在過去幾年的表現甚至超過了美國科技股,但市場卻並沒有產生對其產生泡沫的擔憂。因此,價格上漲的速度並不是泡沫產生的充分條件。只有當股價所代表的相關公司總價值超過它們可能產生的未來潛在現金流時,泡沫才可能形成。站在當下來看,股價的快速上漲更多反映的是強勁而持續的盈利增長,而非對未來過度的投機。根據相關資料顯示,美國科技股的股價變化和EPS增速高度重合,這無疑表明了強勁的基本面是股價上漲的源動力。其次,美國市場的估值相對於其歷史而言雖然處於高位,但科技股的估值卻還遠沒有達到網際網路泡沫的峰值。高盛通過將過去科技股的回報分解為盈利、估值和股利貢獻後發現,2000年網際網路泡沫峰值時,除了盈利之外,還有比我們今天所見的要大得多的估值上升。尤其是對於歐洲電信股來說,估值上升甚至更陡峭,回報幾乎完全由估值而非盈利驅動。而當下"七巨頭"的24個月遠期市盈率中位數為27倍,如果排除特斯拉(其市盈率遠高於其他公司),則為26倍,僅是1990年代末最大7家公司等效估值的一半;PEG比率更是遠低於1990年代末的水平。因此估值曲線雖然看起來有些陡峭,但只要盈利始終沒有令人失望,那麼就不會產生大規模的泡沫。最後,同1990年代末不同的是,美國科技股的資本支出與銷售額之比迅速攀升的同時,資本支出與自由現金流之比卻一直保持穩定。這意味著當今大型科技公司的資產負債表因高現金流和低槓桿率而得到加強。儘管這些公司仍有可能無法實現足夠的投資回報,但並不會像此前網際網路泡沫破裂時對更廣泛的經濟產生系統性影響,因為它們的資產負債表仍然強勁。歸根到底,對於高盛以及所有的AI支持者而言,不論是來自於AI還是其他業務,只要公司的盈利還在保持增長,那麼股價的上漲也會成為理所當然,而泡沫也就永遠不會產生。只是對於諸多謹慎的投資者而言,“只要公司的盈利還在保持增長”似乎不再是一個令人篤定的假設,他們選擇離開這場AI的盛宴,並從蛛絲馬跡當中捕捉到一些人工智慧當下所面臨的困境。Kuppys Korner:對AI有少量看跌押注不論是看好還是看空,對於當前人工智慧行業而言,投資者繞不開的關鍵問題都在於:需要多少收入才能證明當下的資本開支是合理的。10月5日,避險基金Praetorian Capital的創始人Kuppys Korner在官網上發佈了一篇名為《An AI Addendum》的文章,表達了自身對於人工智慧行業的質疑。通過走訪資料中心產業端的人員,他發現自己此前對於資料中心的折舊年限還是太過於保守了。由於資料中心的使用壽命最多為三到十年,同時每隔一兩年就會出現一次新的 GPU 迭代,因此折舊曲線將加快到三到五年的範圍。這意味著行業可能需要一個接近 3200 億美元至 4800 億美元範圍的收入範圍來實現今年資本支出的收支平衡。而目前人工智慧每月產生的收入僅僅為10億美元左右。尤其是伴隨著2026 年還將建造數千億個額外的資料中心,對於收入水平的要求將高達1兆美元才能達到收支平衡,且其中還不包括數兆美元的回報要求。可以預見的是,屆時將會產生巨大的收支缺口。與此同時,Kuppys Korner還發現行業中並非所有的人都希望能夠獲得資本回報,尤其是對於政府來說,人工智慧或許同樣只是國家戰略的一部分。“回想一下橫貫大陸的鐵路的建設。出於戰略原因,政府希望連接海岸,並意識到需要補貼。於是它們想盡了各種各樣的辦法來達到他們的目的。譬如土地贈款以及廉價貸款。”Kuppys Korne寫道。最終,國家完成了橫貫大陸的鐵路目標,即便當時鐵路的運輸費率要低於營運成本,但更多的鐵路公司卻在這一過程當中經歷了破產。在他看來,如今的人工智慧與當初的鐵路建設並無二致:政府希望美國能夠在人工智慧領域獲勝,並給予了諸多的支援,卻未對其所創造的價值作出相應的要求。就像舊金山聯儲主席瑪麗·戴利在採訪中說的那樣,“即使投資者沒有得到早期在投資時所認為的所有回報,它也不會讓我們一無所有,反而會給我們留下許多的AI基建[1]。”但問題在於,如果資料中心的擴建停止,人工智慧受益人的股票就會被拋售,財富效應就會逆轉。當消費增長為負值時候便會遇到金融恐慌,這種恐慌在反饋循環中將會影響到整個經濟。就像鐵路建設過程中不斷破產的公司最終導致了金融恐慌一般,當下的人工智慧建設也正處於這樣一個明斯基時刻。在文章的末尾處,Kuppys Korner這樣說道,“從鐵路到 2000 年的光纖建設,從 1830 年代的運河泡沫到 1920 年代的發電廠泡沫。如果大規模地做一件不能從經濟學角度去解釋的事情,那麼它只會引發一場行業危機,並最終演變成一場國家經濟危機。”尾聲2025年年初,Deep Seek的橫空出世讓“算力通縮”成為了彼時AI最大的分歧。簡單來說,就是DeepSeek能夠以極低的成本訓練出了高性能模型,那麼科技公司就可以相應地減少對於算力的需求。而這種擔憂的持續發酵也讓輝達在2025年1月27當晚跌幅達到了16.97%。但預想中的“算力通縮”並未到來,相反,科技巨頭們在此後的季報中不斷上修自己對於AI的資本開支,並就此開啟了新一輪算力的軍備競賽。原因也不難理解:既然低訓練成本就能夠生成Deep Seek,那麼隨著算力的增加,最終生成更好模型的機率也就更高。根據高盛研報資料顯示,美國最大的5家科技公司現在的總價值超過了歐洲斯托克50指數、英國、印度、日本和加拿大市場的總和,其價值約佔全球公開股票市場總值的16%。時至今日,科技公司已經將AI產業的發展玩成了金融內循環。收入增速只是一個維度,市值上漲也是一個維度。投入與產出的平衡,算術題好像不只是在財務報表上。動輒兆市值的大公司們,因為一則新聞跳漲10%,就能多出來1000億的事情,在今年的市場上早已見怪不怪。這麼看來,投資者真的不要再責怪A股是一個融資市了。AI產業動輒千億的資本開支又何嘗不是“美股市場”的一種融資屬性呢?至於AI究竟有沒有泡沫?用橋水基金創始人達里奧的話來說,“我已經有一些泡沫的感覺了,但我並不會去做空這些超級規模的科技巨頭[4]。” (遠川投資評論)
CPU被超!GPU成市場新主角
2024年GPU銷售額超越APU和CPU,成為各類處理器中銷售額冠軍。Yole Group 近日發佈《2025 年處理器產業狀況》報告,指出全球處理器市場正經歷由生成式 AI 與雲端基礎設施推動的深刻變革。Yole Group 提到,2024 年 GPU 銷售額超越 APU 和 CPU,成為各類處理器中銷售額冠軍。其銷售額達 1130 億美元,佔總處理器銷售額的 39%,一年內實現 126% 的增長。這一增長主要受 NVIDIA 主導地位及生成式 AI 模型對 GPU 需求增加的推動。Yole Group 認為,到 2030 年,GPU 市場規模將達 2390 億美元,是 2024 年的 2 倍以上,增長背後是伺服器 GPU 平均售價的上升。同時,美國出口限制已重塑競爭格局,尤其在中國市場。儘管當前 GPU 佔據市場主導地位,但專為人工智慧應用設計的積體電路(AI ASIC)正成為戰略替代方案。ASIC(Application Specific Integrated Circuit特定用途積體電路)根據產品的需求進行特定設計和製造的積體電路,其定製程度相比於 GPU 和 FPGA 更高。ASIC 算力水平一般高於GPU、FPGA,但初始投入大,專業性強縮減了其通用性,演算法一旦改變,計算能力會大幅下降,需要重新定製。Google、亞馬遜(Amazon)、華為等超大規模雲端服務商,正大量投資專有解決方案,以減少對 NVIDIA GPU 的依賴。Google 早在 2013 年就秘密研發專注 AI機器學習演算法晶片,並用於雲端運算資料中心,取代輝達 GPU。這款TPU自研晶片2016年公開,為深度學習模型執行大規模矩陣運算,如自然語言處理、電腦視覺和推薦系統模型。Google 其實在 2020 年的資料中心便建構 AI 晶片 TPU v4,直到 2023 年 4 月才首次公開細節。值得注意的是TPU是一種定製化的 ASIC 晶片,它由Google從頭設計,並專門用於機器學習工作負載。亞馬遜也推出了其自研 AI 晶片Trainium,以減少對輝達的依賴並提高自身在 AI 領域的競爭力。該公司投資大量資金用於技術基礎設施建設,並已定製晶片以提升資料中心效率,降低成本。亞馬遜與被收購的晶片初創公司 Annapurna Labs 合作,旨在打造自有的 AI 晶片,同時也在投資 AI 基礎設施。據預測,2024 年至 2030 年,AI ASIC 市場年複合增長率(CAGR)將達 45%,規模將從 2024 年的 90 億美元增長至 2030 年的 850 億美元,成為行業增長最快的部分。其他類型處理器銷售情況好壞不一:DPU 增長與人工智慧及伺服器需求相關,預計 2030 年將增長至 170 億美元;FPGA 2024 年銷售額出現下滑,但預計將逐步穩定,2030 年前規模達 80 億美元,增長主要受汽車應用支撐。市場層面,2024 年電信與基礎設施領域收入佔比首次超越移動與消費領域,達 53%。預計到 2030 年,這一比例將升至 66%,凸顯雲端人工智慧部署的核心作用。汽車行業,尤其是與 ADAS 及娛樂系統相關的應用,同樣是增長引擎,預計 2030 年前年增長率將達 15%。近日來自大摩的一份報告也給GPU市場熱度再添一把火。摩根士丹利(大摩)最新報告顯示,在與輝達管理層會談後,對其在人工智慧(AI)領域的短期及長期需求信心增強,維持“增持”評級,目標價設定為 210美元,對應總市值約 5.1兆美元。這一積極的評估,反映了市場對 GPU驅動的 AI 基礎設施建設的樂觀預期,以及輝達在這一領域的領先地位。報告指出,全球雲資本支出持續擴張,計算核心正從CPU 向 GPU 加速遷移。這一趨勢是輝達收入增長的主要動力。隨著 AI技術在各行各業的深入應用,對算力的需求呈現爆發式增長。輝達憑藉其在 GPU 領域的深厚積累,以及 CUDA 等生態系統的優勢,成為了 AI 基礎設施建設的核心供應商。大摩預計,到 2030年,AI 基礎設施市場規模有望達到 3至5兆美元,遠高於此前的預測,這無疑為輝達帶來了巨大的增長潛力。針對輝達與OpenAI 合作引發的供應商融資議題,摩根士丹利的分析師團隊認為,這種模式是“需求加速器”。輝達正通過投資 CoreWeave及英國主權基金等方式擴巨量資料中心產能,以滿足市場日益增長的需求。這種戰略不僅能夠加速 AI 基礎設施的建設,也為輝達帶來了更多的市場機遇。未來,這種合作模式有望複製到更多企業,進一步鞏固輝達的市場地位。 (半導體產業縱橫)
甲骨文基於輝達晶片的雲端租賃業務毛利僅14%
10月7日消息,據The Information報導,甲骨文(Oracle)最新披露的內部檔案顯示,在截至8月為止的3個月期間,基於輝達(Nvidia)晶片的雲端租賃業務營收為9億美元,毛利率僅達14%,遠低於甲骨文整體毛利率(約70%)。報導指出,輝達晶片價格高昂加上甲骨文在人工智慧(AI)晶片租賃業務改採取的積極定價策略,讓外界對相關業務獲利產生質疑。甲骨文此前在公佈截至2025年8月31日的2026財年新一財季的財報時披露,其在第一季與三家不同客戶簽署了四份數十億美元的合約,未確認履約義務(即已簽約但未確認的收入)同比激增359%至4550億美元,其中與OpenAI合作建設的4.5吉瓦資料中心項目成為重要支撐。這份協議將於2027年開始執行。基於此,甲骨文管理層還公佈了極具野心的增長藍圖:2026財年第二季,雲端基礎設施營收33億美元,同比大漲55%;2026財年該類股收入預計達180億美元,較2025財年的103億美元增長77%。更引人注目的是,未來四年收入目標分別設定為320億、730億、1140億和1440億美元,意味著在現有基礎上實現八倍增長,遠超市場預期。值得注意的是,近日,處理器大廠AMD與OpenAI共同宣佈,雙方達成一項6000兆瓦(6吉瓦/6GW)的協議,為OpenAI的下一代AI基礎架構提供動力,該基礎架構將基於多代AMD Instinct GPU。首批1000兆瓦的AMD Instinct MI450 GPU部署預計將於2026年下半年開始。這似乎也意味著,甲骨文於OpenAI合作建設的4.5吉瓦的資料中心項目將會轉向採用AMD的AI加速器,而這也有望幫助甲骨文提高AI雲端租賃業務的毛利率。 (芯智訊)
GPU警鐘敲響,AI過熱了?
在OpenAI和輝達等聯手搞動GPU和整個晶片市場之後,一個警鐘悄然敲響。周二, 知名媒體The Information 在一篇報導對該公司購買數十億 Nvidia 晶片並作為雲提供商出租給 OpenAI 等客戶的計畫提出了質疑,隨後該公司股價下跌 3%。報導稱,甲骨文最近轉型為最重要的雲端運算和人工智慧公司之一,但可能會面臨盈利挑戰,因為輝達晶片價格昂貴,而且其人工智慧晶片租賃定價激進。根據報告援引內部檔案稱,截至8月的三個月裡,甲骨文旗下輝達雲業務的銷售額為9億美元,毛利率為14%。這遠低於甲骨文約70%的整體毛利率。甲骨文今年9月表示,其積壓的雲合同(稱為剩餘履約義務)在一年內增長了359%。該公司預測,2030年雲基礎設施收入將達到1440億美元,高於2025年的100多億美元。然而,這些預測收入的大部分來自 Oracle在星際之門項目中所扮演的角色,該項目中,這家企業供應商正與 OpenAI 合作,開設五個裝有 Nvidia 人工智慧晶片的大型資料中心。縱觀整個AI市場,這其實是OpenAI一系列動作下的結果OpenAI挑起的AI基礎設施爭奪戰據金融時報最新報導,OpenAI 今年已簽署了約 1 兆美元的合同,用於運行其人工智慧模型的計算能力。這些承諾使其收入相形見絀,並引發了對其資金來源的質疑。今年 1 月,OpenAI 與軟銀、甲骨文等公司啟動了一項名為“星際之門”的計畫,承諾為 OpenAI 在美國基礎設施建設上投資高達 5000 億美元。目前尚不清楚輝達和 AMD 的交易將如何融入“星際之門”計畫。這家 ChatGPT 製造商尚未透露是直接購買晶片還是通過其雲端運算合作夥伴購買,預計將租賃部分輝達晶片。OpenAI 已從其供應商處獲得了巨額財務激勵,以換取其晶片採購的回報。Nvidia 計畫在未來十年向 OpenAI 投資 1000 億美元,OpenAI 可以用這筆資金購買 Nvidia 的晶片,用於其 AI 資料中心。AMD 將向 OpenAI 提供認股權證,使其能夠以每股 1 美分的價格收購 OpenAI 最多 10% 的股份,具體取決於他們的項目是否達到特定目標,其中包括一些與 AMD 股價掛鉤的目標。據 OpenAI 高管估計,按目前的價格計算,每部署 1 千兆瓦的人工智慧計算能力的成本約為 500 億美元,總成本約為 1 兆美元。這些交易將一些全球最大的科技集團與 OpenAI 的能力緊密聯絡在一起,OpenAI 有能力發展成為一家盈利企業,並能夠償還其日益沉重的財務負擔。但DA Davidson 分析師 Gil Luria 表示:“OpenAI 沒有能力做出任何這些承諾”,他同時並補充該公司今年可能虧損約 100 億美元。“矽谷‘假裝成功,直到成功’的理念部分在於讓人們參與其中。現在,許多大公司在 OpenAI 上投入了大量資金,”他補充道。OpenAI 在基礎設施、晶片和人才方面投入了大量資金,遠沒有達到實現這些宏偉計畫所需的資金。這些交易還涉及這家全球最有價值的初創公司與其合作夥伴之間的循環安排,以及大多數情況下尚未達成一致的複雜融資條款。彭博社在一篇相似的報導中也指出,兩周前,輝達公司同意向OpenAI投資高達1000億美元,以幫助這家領先的人工智慧初創公司建設一個規模龐大、足以為一座大城市供電的資料中心。OpenAI則承諾在這些資料中心部署數百萬塊輝達晶片。這一安排因其“循環”性質而迅速受到批評。本周,OpenAI再接再厲,達成了一項類似的協議。這家ChatGPT的開發商周一與輝達的競爭對手AMD公司簽署了合作協議,將部署價值數百億美元的AMD晶片。作為合作的一部分,OpenAI有望成為AMD的最大股東之一。據報導, AMD 已與 OpenAI 達成合作夥伴關係,ChatGPT製造商將在多代晶片中部署 6 GW 的 AMD 圖形處理單元 (GPU)。 這筆交易對 OpenAI 來說是一個重大決定,OpenAI 幾乎完全依賴 Nvidia晶片來訓練 ChatGPT 及其其他 AI 產品背後的模型。Nvidia 佔據了人工智慧加速器市場的主導地位,市場份額估計為 80% 至 95%,當供應緊張或價格上漲時,客戶幾乎沒有其他選擇。現在,Instinct 系列在資料中心直接與 Nvidia 的 H100 和 H200 晶片競爭,這些處理器在資料中心訓練大型語言模型 (LLM) 並運行推理工作負載。此次合作的財務利益相當可觀——正如AMD執行副總裁、首席財務官兼財務主管 Jean Hu所說,此次合作“預計將為 AMD 帶來數百億美元的收入,同時加速 OpenAI 的 AI 基礎設施建設”。 她補充說,該協議“為 AMD 和 OpenAI 創造了重要的戰略一致性和股東價值,預計將大大增加 AMD 的非 GAAP 每股收益”。對於 AMD 來說,獲得 OpenAI 作為客戶是其多年來試圖打破 Nvidia 對 AI 晶片市場的控制的證明。從Meta到xAI,都在搶GPU除了OpenAI以外,其他雲供應商也都在加入到了這個瘋狂的AI基礎設施浪潮。從相關報導可以看到,META 和 CoreWeave 已簽署了一份價值 140 億美元的協議,利用後者的GPU算力為 Facebook 母公司提供計算能力。 ORACLE也正在和Meta 就一項價值約 200 億美元的多年期雲端運算協議進行談判,這凸顯了這家社交媒體巨頭致力於更快獲得計算能力的決心。八月底,有消息指出,Meta 與Google簽署了價值 100 億美元的雲端運算協議。根據協議,Meta 將使用Google雲的伺服器、儲存、網路和其他服務。此前,Meta 首席執行官馬克·祖克柏 (Mark Zuckerberg) 曾在 7 月份表示,公司將斥資數千億美元建設幾個大型人工智慧資料中心。在最新的財報電話會議上,該公司預測 2025 年的資本支出將提升到 660 億至 720 億美元。當中,Meta 將部分資金投向出版商、晶片初創公司和雲服務提供商,並與之達成協議——這是一項龐大行動的一部分。與此同時,數十億美元的資金正湧入輝達的 GPU、定製晶片以及類似能源公用事業的資料中心,旨在確保人工智慧經濟的各個領域都不受限制。值得一提的是,Meta 的高管表示,他們預計到 2028 年將在人工智慧基礎設施上花費 6000 億美元 ,包括 大型資料中心。另一家巨頭微軟也是GPU的大買家。科技諮詢公司 Omdia 的分析師估計,微軟在去年購買了 48.5 萬塊輝達的“Hopper”晶片。這使得微軟遠遠領先於輝達的第二大美國客戶 Meta(購買了 22.4 萬塊 Hopper 晶片),以及其雲端運算競爭對手亞馬遜和Google。但這遠遠滿足不了微軟的需求。據知情人士在本月初透露,微軟與 NeoCloud 公司 Nebius Group NV 達成的協議將為微軟內部團隊提供計算能力,用於開發大型語言模型和消費者 AI 助手。這項價值高達 194 億美元的協議公佈後,Nebius 股價應聲上漲,但公告並未透露具體細節。知情人士表示,作為協議的一部分,微軟將獲得輝達公司超過 10 萬塊最新的 GB300 晶片的使用權。雲供應商通常營運著自己的資料中心,但微軟卻難以提供足夠的計算能力。租用 NeoClouds 的伺服器可以加快速度,因為他們已經解決了包括獲取足夠的電力和晶片在內的後勤挑戰。“我們在人工智慧領域處於非常激烈的爭奪戰模式,”微軟雲業務負責人 Scott Guthrie 表示。“我們已經決定,我們不想在容量方面受到限制。”Elon Musk旗下的xAI也已然成為了AI基礎設施市場的另一個爭奪者。其中,孟菲斯是馬斯克斥巨資進軍人工智慧戰爭的前線。他的人工智慧公司 xAI 已經在這座布拉夫城建造了一座大型資料中心,並稱之為世界上最大的超級電腦。這座名為“Colossus”的設施擁有超過 20 萬塊輝達晶片,並為人工智慧聊天機器人 Grok 提供技術支援。現在,馬斯克即將完成第二座設施,這座設施規模將更大,他稱之為“Colossus 2”。一些人工智慧和資料中心專家表示,完成Colossus 2將耗資數百億美元。僅輝達晶片一項就耗資巨大:一位熟悉孟菲斯項目財務狀況的人士表示,馬斯克需要至少花費180億美元來購買大約30萬塊晶片才能完成孟菲斯項目。馬斯克在7月份表示,Colossus 2將總共擁有55萬塊晶片,並曾暗示最終可能擁有100萬個處理單元。此前報導指出,馬斯克還在探索一種無需直接購買、而是通過與外部合作夥伴達成的複雜融資協議租賃的方式來囤積價值120億美元的晶片。再加上其他雲廠商,尤其是中國廠商的搶奪,對於AI算力和GPU的需求,正在瘋狂增長。根據《商業內幕》對財務報表的分析,今年,我們統計的五大能源使用者中的四家,亞馬遜、Meta、Microsoft 和Google,估計可以在資本支出上花費 3200 億美元,主要用於人工智慧基礎設施。這超過了芬蘭的 GDP,略低於埃克森美孚 2024 年的總收入。另一場網際網路泡沫正在上演?此前從未有過如此巨額的資金被如此迅速地投入到一項儘管潛力巨大,但其盈利能力在很大程度上仍未經證實的技術上。而這些投資通常可以追溯到兩家領先的公司:輝達和OpenAI。近期兩大巨頭之間發生的一系列交易和合作,加劇了人們的擔憂:日益複雜且相互關聯的商業交易網路正在人為地支撐著價值數兆美元的人工智慧熱潮。幾乎每個經濟領域都面臨風險,人工智慧基礎設施的炒作和建設波及了各個市場,從債務、股票到房地產和能源。晨星公司分析師布萊恩·科萊洛在談到輝達對OpenAI的投資時表示:“如果一年後我們經歷了人工智慧泡沫並最終破裂,這筆交易可能是早期的蛛絲馬跡之一。如果情況惡化,循環關係可能會發揮作用。”這種迅速吹起的泡泡,讓人想起了四分之一個世紀前的“網際網路泡沫”。當時,公司們爭先恐後地為新興網際網路奠定支柱時,出現了類似的模式。在截至 2001 年的五年裡,WorldCom和Global Crossing等公司花費了數百億美元鋪設光纜和安裝其他網路功能,但第二年,網際網路泡沫破滅導致為建設提供資金的貸方索要資金,結果倒閉了。根據Businessinsider引述布魯金斯學會(Brookings Institution)的分析報告顯示,領導光纖建設的公司的股東損失了2兆美元的價值,而50萬名工人失去了工作。雖然光纜最終被投入使用,主要是由於 Netflix 開創的串流媒體視訊革命,但許多鋪設它的公司並沒有看到它。就像早期的光纜和鐵路一樣,資料中心的建設和 GPU 的購買都是由華爾街資助的。當然如上所述,矽谷巨頭本身也越來越多地為繁榮提供資金。這進一步引發了擔憂。“我們都見證了這種行為的某些方面,”JonesTrading首席市場策略師邁克·奧羅克(Mike O'Rourke)上個月在一份報告中寫道。“網際網路泡沫的教訓幾乎已被遺忘,但它的影響將永存,”他寫道,並指出供應商融資是朗訊倒閉的“關鍵”——朗訊曾是全球最大的電信裝置公司,如今卻像輝達一樣,被譽為新興科技經濟中的“鐵鍬”公司。(朗訊在2002年經濟衰退期間險些破產,並於2006年被出售給法國競爭對手阿爾卡特。)摩根士丹利分析師周一在一份報告中表示:“我們看到了一些重要的區別。”其中最主要的是:大型科技公司的財務狀況比網際網路時代許多過度膨脹的股票要強得多。“我認為這是全球有史以來最大、最危險的泡沫,”宏觀戰略合夥公司(MacroStrategy Partnership)的朱利安·加蘭(Julien Garran)在周五一份頗為悲觀的報告中寫道。他估計,由人工智慧引發的“美國資本錯配”比網際網路泡沫嚴重17倍,比2008年的房地產泡沫嚴重4倍。但拋開循環融資及其盈利能力的討論,我們更應該關注的是這些投資的核心產品:由大型語言模型驅動的生成式人工智慧(LLM)。而這正是許多其他投資者、分析師和學者們高呼“皇帝沒穿衣服”的原因。“我想說,這種想法可能太狹隘了,”周一,當被問及對大規模人工智慧投資可能超前發展的擔憂時,AMD CEO蘇姿丰在雅虎財經上表示。“你必須認真考慮這項技術的力量能為世界帶來什麼。”蘇姿丰表示,公司“正在以正確的速度進行投資,因為我們希望加速發展……這是一個當公司和合作夥伴採取大膽行動時就會獲得回報的地方。”展望未來,蘇姿丰表示,人工智慧熱潮仍處於初期階段。“我堅信,這是一個十年超級周期的開端,”她補充道,人工智慧改變金融、醫療保健和研究等各行各業的潛力才剛剛開始顯現。她說:“我們相信,只要正確使用人工智慧計算,就能更快地解決疾病問題,更快地研發新藥,更好地診斷早期患者的問題,從而為人們的生活帶來改變。”寫在最後由於文章裡的“泡沫說”是一個假設,那就意味著其在未來並不會出現,這也引發了另一個猜想,OpenAI和AMD的交易,Microsoft對AMD和輝達的觀點,會否撼動當前的輝達格局?如上所述,輝達佔領了接近九成的訓練晶片市場。據FactSet 估計,人工智慧處理器目前每年為資料中心創造超過 1460 億美元的收入,預計未來 12 個月的年銷售額將達到 2260 億美元。相比之下,AMD 的資料中心業務目前的年銷售額略高於 140 億美元。首席執行官蘇姿丰在周一上午的電話會議上表示,一旦首批晶片在明年下半年開始部署,OpenAI 的交易將為該部門帶來“數十億美元的年收入”。她還指出,未來幾年該業務的收入可能“遠超 1000 億美元”。這將是一筆可觀的收入,但也表明 AMD 要想縮小與輝達在人工智慧系統市場的領先優勢,還有很長的路要走。就AMD而言,在追趕競爭對手的競爭中,AMD現在面臨著更大的風險。這筆交易從AMD預計將於明年下半年開始出貨的MI450晶片開始。AMD宣稱,這些晶片的性能完全可以與輝達計畫同期推出的Vera Rubin晶片相媲美。這將是一個巨大的飛躍。根據輝達在3月份的GTC大會上公佈的規格,首批Rubin系列晶片的計算性能將是輝達目前銷售的最強大的Blackwell晶片的3.3倍。MI450 也代表著 AMD 首次嘗試所謂的機架式系統,該系統將多個 GPU 晶片和其他元件組合在一起,有效地形成一台可裝入現有資料中心機架的 AI 超級電腦。這類系統的複雜性非常高;就連輝達去年在量產首批基於 Blackwell 的機架時也遇到了一些困難。但AMD在追趕輝達的競爭中,仍需實現一個雄心勃勃且快速推進的目標,同時還要兼顧其他業務,例如個人電腦和視訊遊戲等增長前景黯淡的市場。對於OpenAI和AMD的交易來說,還有一個關注點,那就是博通是否會最大利空。因為據之前報導,OpenAI正在與博通打造ASIC。專家此前曾猜測,AVGO 將成為僅次於 Nvidia 的第二大 AI 晶片供應商——尤其是在有報導稱 OpenAI 已下達 100 億美元定製 ASIC 訂單之後。對此,各位讀者是怎麼看? (半導體行業觀察)