#雲端運算
黃仁勳看走眼?輝達的重倉股虧慘了
上周五,人工智慧雲端運算公司CoreWeave(CRWV)股價大跌,導致輝達的投資組合整體價值大縮水。輝達建構了一個專注於人工智慧領域的公開投資組合,涵蓋晶片設計、資料中心營運商和基礎設施提供商等,但這些公司鮮為人知。據報導,該投資組合包含六家公司,截至第三季度末,總價值約為38.4億美元。自第三季度末以來,該投資組合六隻持倉股票中有五隻出現下跌,佔投資組合價值86%以上的CoreWeave成為拖累投資組合表現的主要因素。期間,CoreWeave 42%的跌幅幾乎是跌幅第二大的Nebius Group(NBIS,下跌22%)的兩倍。在此期間,只有Applied Digital(APLD)實現了上漲。今年9月,CoreWeave與投資方輝達簽署了一份價值63億美元的初始訂單。根據一項協議,輝達將購買CoreWeave任何未售給客戶的雲容量。但從那之後,CoreWeave短暫上漲後轉頭下跌,如今跌幅已超過30%,較今年股價6月的高點更是下跌接近60%。分析師們對CoreWeave的前景總體持樂觀態度,認為其營收增長、客戶關係和積壓訂單都是支撐因素。然而,持續復甦的關鍵在於展現盈利能力、有效管理槓桿,以及在融資和可持續性存疑的情況下證明人工智慧的持久需求依然存在。在CoreWeave於3月上市前,輝達分兩期投資了3.5億美元。輝達最初於2023年4月投資了1億美元,並在CoreWeave上市前夕追加投資了2.5億美元,最終以每股40美元的價格購入了約2420萬股CoreWeave股票,佔股7%。CoreWeave上市後,股價在6月份飆升至每股187美元的歷史新高,但此後一直穩步下跌。儘管股價幾乎翻了一番,但仍比IPO發行價下跌了近60%。上周五,其股價再次下跌10%,市值降至約390億美元——與6月底近800億美元的市值相比,大幅縮水。上周五的暴跌源於一份提交給美國證券交易委員會(SEC)的4號表格檔案,該檔案披露首席財務官尼廷·阿格拉瓦爾於12月11日以平均每股82.58美元的價格出售了66,467股股票,總計約549萬美元。CoreWeave面臨的挑戰反映了人們對人工智慧行業增長前景的普遍質疑。分析師和投資者強調了潛在的“循環融資”模式,即輝達向購買其硬體的客戶提供投資或產能承諾。CoreWeave與輝達達成的協議包括一項價值63億美元的協議,根據該協議,輝達承諾購買截至2032年4月所有未售出的雲端運算容量,這為CoreWeave提供了收入保障,但也引發了人們對終端使用者真正需求的質疑。整個行業中,隨著營運現金流不足,大型科技公司越來越依賴債務融資來支援其龐大的人工智慧基礎設施項目。Meta Platforms發行了300億美元的債券,計畫於2025年發行,以支援資料中心的擴張。而甲骨文在發佈第三季度財報後,也遭遇了投資者的強烈反對。由於投資者擔憂其債務規模已超過1000億美元,且與人工智慧項目相關的自由現金流為負,甲骨文股價下跌了15%。這引發了關於過度投資風險、潛在產能過剩以及人工智慧建設長期盈利能力的爭論。儘管CoreWeave第三季度營收強勁增長至13.6億美元(同比增長顯著),且積壓訂單量巨大,但該公司仍持續出現淨虧損,並嚴重依賴債務融資,包括本月剛剛完成的26億美元可轉換債券發行,儘管利率僅為1.75%。未來幾年,資料中心擴建所需的高額資本支出預計將達到數百億美元,這被視為對其資產負債表造成了壓力。 (北美商業見聞)
攤牌了?重砸超3800億硬剛美科技巨頭,中企手握兩張硬核“王牌”
就在Google剛宣佈“2025年的資本開支將超過930億元”後沒多久,阿里就直接攤牌,甩出一記“王炸”——未來三年砸下超3800億元死磕AI基礎設施建設!而且就過去12個月來看,阿里在雲端運算和AI領域的資本開支已經超過了1260億元,同樣超越了Google,全球領跑!毫無疑問,阿里對AI領域的持續投入,主動扛起中國AI大旗,就是為了能夠快速助力中國AI產業的進步和突破,從而能夠有資格、有能力正面硬剛美科技巨頭,比如Google、Meta、OpenAI等等。通過多年的深耕和蟄伏,阿里早已成長為中國AI領域的標竿企業,且肩負著振興中國AI產業的重任,這一次,阿里“賭”對了,手握兩張硬核“王牌”,正搶佔更多行業話語權,大幅提升國際影響力。阿里的第一張“王牌”就是開源佈局,美科技巨頭在佈局AI時,依然延續了西方霸權主義思想,走閉源收費的路線。但阿里則不同,為了能夠讓更多的人使用Qwen系列大模型,採用了開源免費的方式。在全球AI都在比性能、比算力,阿里則另闢蹊徑,比用的多、用的廣、用得起。蔡崇信也說了,阿里不靠AI賺錢,這也凸顯了阿里的行業遠瞻性。實際上,早在十幾年前阿里決定自己造“雲”的時候,就有很多人質疑,但阿里雲連續虧損十年之久,也沒有停下來的意思。事實證明,阿里選對了,阿里雲也是阿里重押AI的底氣之一。回到開放原始碼的問題上,實際上阿里搞開源,並不是傻,這個過程就像是撒魚餌,一個新技術、一個新平台要讓更多的人用起來,必須要給出點什麼。而這恰恰能夠吸引更多的人才、開發者參與,更多的資料積累、更多的訓練、程式碼生成以及模型建立,都可以幫助阿里通義Qwen系列大模型更完善、更強大。更何況,使用中國AI大模型時間越久,後續要遷移資料的成本就越高,對中國AI大模型的依賴度就越高,到頭來還是繞不開阿里的雲和AI的基礎設施,不虧!現如今,以阿里Qwen系列為代表的中國開源大模型已經成為國際優先選項,在國際生態裡地位穩固,且獲得了很多科技大佬、美科技巨頭的盛讚,這也說明了,阿里對AI的未來投資是正確選擇。阿里的第二張“王牌”就是全端優勢,前面也提到了,阿里發展AI有自己的“雲”基礎支撐,AI技術再強,最終也要落地到實際的AI項目上,而阿里的全端能力是毋庸置疑的,全端基建就是阿里最大的底氣。值得一提的是,隨著千問App、靈光App以及夸克AI眼鏡等的先後發佈,這也意味著,阿里全面進入AI To C領域,從底層的雲端運算,到中層的大模型,再到應用層的AI To B/C市場,阿里正在不斷完善全端AI路線。就算真的存在“AI泡沫”,阿里也比其他科技企業具有更強的抗風險能力,可以鞏固其在全球AI領域的地位。總的來說,全球AI競爭之中,阿里作為中國AI企業的硬核代表,走上了一條創新但極具中國特色的道路,用開源換速度,用生態換粘性,已經實現了全球領先。這也給其他中國科技企業做了很好的榜樣!方向對了,努力才有價值,這場千億豪“賭”究竟誰才是最終贏家,讓我們拭目以待吧。 (W侃科技)
獨家丨千問 app,阿里要怎麼做中國的 “ChatGPT”
今年阿里第三次集中力量辦大事。在科技公司大建 AI 的敘事裡,阿里之前更像美國的亞馬遜、微軟 —— 沒有微信、抖音那樣的全民流量入口,AI 投入選擇偏向企業客戶,不斷買卡建算力中心,以雲端運算業務抓住千行百業對 AI 的渴望。過去幾年,阿里在 AI 方面的主要進展也不在應用層 —— 入股多家中國頭部大模型創業公司、自研的 Qwen 系列大模型在諸多測試贏過其他開源模型、阿里雲加速增長。但 AI 助理 “千問 app” 在 11 月 17 日正式宣佈公測說明阿里想要更大的劇本。新的千問應用明確對標 ChatGPT 最新的 5.1 版本。它由此前的通義 app 和夸克 AI 對話助手升級而來,接入阿里通義實驗室最新的 Qwen 3 - Max 模型。這是繼 AI 基建、淘寶閃購後,阿里今年宣佈的又一個集團戰略項目,負責人是阿里巴巴智能資訊事業群總裁吳嘉。9 月起,上百名阿里工程師聚集在阿里巴巴西溪園區 C4 樓封閉開發 —— 和高德掃街榜上線前類似。ChatGPT、千問、豆包登陸後的初始介面。據我們瞭解,此次推出的是初級版本,很快會有大更新。除了會聊天,千問項目團隊還在聯合包括淘寶、高德、閃購、支付寶等產品的團隊聯合開發,希望更深嵌入相關產品,解決使用者的實際問題。一位阿里人士說,“阿里有很好的模型基礎,在 C 端肯定要有一個很強的入口,且要做一個 AI 原生應用,阿里會把 AI 超級入口的重點集中在千問上。”中國網際網路巨頭可能都沒有亞馬遜、微軟那樣奢侈的選擇權——退後一點,讓 ChatGPT、Gemini、Claude 接入自己的產品庫。豆包背後的字節跳動有辦公軟體也有自己的電商平台。在這裡,每個巨頭都必須保證自己有流量入口。拼多多內建短影片、阿里進入外賣大戰都是入口之爭。而聊天助手是目前最直接可見的 AI 入口。我們訪談了千問項目的產品經理和其他一些參與的阿里人士,回答為什麼阿里現在推出千問 app,之後的策略是什麼。以下是阿里相關人士回答,經刪減和調整,未改變對方原意。晚點:距離 DeepSeek 時刻已經過去快一年,為什麼現在做千問 app?千問團隊:阿里肯定要有一個非常強的 to C 的入口。這是每家大公司都在思考討論的問題,只是可能路徑不太一樣,和每家公司的業務構成和業務形態、能力累積等都有關聯。阿里的路徑肯定是從雲、基礎模型開始做,模型能力是最重要的,然後再回到 C 端。當下的時機剛剛好,有兩個原因促使我們要重點去做千問這款原生的 AI 產品:1. 模型的成熟度,Qwen3 - Max 整體性能、效果都已經達到全球領先。2. 整個 Agent 生態的成熟度,不管是整個三方生態還是集團內部的生態,都到了一個更能被模型普遍呼叫、能解決更多問題的狀態,我們也花了大量時間處理內部業務的資料互通,還有整個的授權能力。補充:一些事實和行業情況今年阿里每隔幾個月都會有關於 AI 的大動作 —— 2 月發佈 24Q4 自然季財報前,宣佈未來三年將投入超過 3800 億元建設雲和 AI 硬體基礎設施;5 月發佈 25Q1 自然季財報前,正式發佈通義千問 Qwen3 大模型;9 月中旬,The Information 報導稱阿里開發了一款新的 AI 晶片;再過一周,阿里將發佈新一季財報。晚點:對手產品已經推了半年,阿里現在做一個 AI 原生超級入口,晚嗎?千問團隊:不晚,原因也是兩點:1. 國內還沒有一款 AI 應用能夠穩定突破億級 DAU(日活躍使用者),這是一個重要的體量門檻,意味著至少國內還沒出現一個國民級的 AI 應用;2. 不論國內那款產品,客觀說還處於初級階段,沒有真正演進到能解決很多實際問題的程度。大家都是基於本身的知識和優勢來輔助人,而要邁過這個智力門檻,需要的不只是資料,更多依賴在理解世界、自主學習等底層架構上的突破。”補充:一些事實和行業情況今年 3 月,吳嘉對我們說,隨著模型能力的發展,現在到了應用的爆發階段,如果以過億 DAU 為標準,面向 C 端使用者的中國 AI 超級應用一定會很快到來,“不是 2025 年,就是 2026 年上半年。”QuestMobile 資料顯示,2025 年 10 月,AI 原生應用中,豆包的 DAU 最高,5410 萬;DeepSeek 2860 萬,騰訊元寶 560 萬(未包括直接微信裡使用元寶的使用者,但那更少)。作為對比,OpenAI 10 月披露 ChatGPT 全球周活躍使用者超過 8 億,以此推斷日活不可能少於 1 億,可能接近 2 億。晚點:“對標 ChatGPT”,千問要做成什麼樣的產品?千問團隊:千問定位是一款能聊天、會辦事的產品,能夠幫使用者真正解決很多實際問題。P 圖本身也是需求的組成部分,但只有覆蓋了使用者工作、學習和生活當中的大部分問題,才能走到 1 億 DAU。目前千問團隊最重要的是怎麼能夠徹底去激發模型的力量,把它和使用者現在和潛在、未來的需求進行更高程度的關聯。我們的主要工作分為兩個階段:第一階段,核心做好使用者體驗和口碑評價,基於模型快速進行產品迭代;第二階段是千問和阿里各個業務的整體協同,目前千問與高德、淘寶、支付寶、閃購等都已經在做一些聯合開發的工作,進展非常快,預計很快還會有大版本的更新。辦事能力指的就是能解決更複雜的任務,比如結合淘天的 AI 萬能搜,千問基於過去使用者的喜好習慣給使用者做推薦,甚至比價;再比如使用者有一個晚上想做的菜,千問能基於這個菜幫使用者提前買好對應的食材。晚點:千問和 ChatGPT 的產品思路會有什麼區別?千問團隊:會有不同:1. 我們強調普通人可以隨時用、免費用。目前完全不考慮收費的事,專心做好產品;2. 我們希望 ChatGPT 有的能力我們都有,很多會快速上線,另一方面 ChatGPT 沒有的我們也有,主要就是阿里生態裡的各種 agent 服務,內部業務合作、協同的程度會更深。我們必須承認,中國網際網路實際是封閉的,大家都把自己的資產當作最強的競爭門檻。這對於每一家網際網路大公司都是一個普遍問題。ChatGPT、Gemini 都驗證了一個路徑,依託模型的領先可以在 C 端產品上實現突破,這件事的本質是對模型智力的追求,我們的思考路徑也是一樣的。對千問團隊最大的挑戰是,阿里體系下有這麼多 agent,怎麼基於場景把它們更好地串聯在一起?使用者很多需求使用的不是一個或者兩個 Agent 的服務,比如說我想要規劃一個團建,呼叫的不只是飛豬,可能還有很多支付、出行、購物等一系列能力,怎麼把它們有機且絲滑得串聯在一起,這個難度比較大,因為每一個 Agent 的能力成熟度不一樣。晚點:什麼時候確定開始做千問,誰來主導?千問團隊:產品、演算法層面一直在做相關的準備工作,不是一次拍板,是個演進的過程。差不多在 2025 年夏天,阿里核心管理層的討論會更多一些,確定阿里要投入多少資源,投入多少力度去做這件事情,國慶前是阿里上上下下對千問項目討論最密集的時候。最終是吳泳銘做出的判斷和決定 —— 阿里巴巴必須要有一個 AI 原生的 C 端超級入口。9 月後,從北京、廣東調來上百名工程師,大家在阿里巴巴西溪園區 C4 樓封閉做千問項目,現在這幫人坐的地方是三層和四層,高德掃街榜當時封閉時坐的是二層。千問是高德掃街榜之後的又一個集團戰略級項目,吳嘉是負責人,團隊以智能資訊事業群為主,還有很多業務都參與,包括阿里雲、通義實驗室、淘天、高德等,一起在做共同開發。千問產品和大模型的對接,在產品方向上,由夸克團隊和通義實驗室一起針對拿到的使用者資料和反饋、各種應用場景做定製化的模型訓練和最佳化。晚點:阿里消費端 AI 的戰略具體是什麼樣的?千問團隊:面向使用者,一塊是原生應用,也就是千問;另一塊是原本業務的 AI 化,夸克、淘天、1688、高德、海外電商等都在做一些事實半年前,吳嘉對我們說,他希望夸克成為一個對使用者有用、專業、萬能的 AI 產品。“我們的第一優先順序肯定是讓夸克現如今這麼大的群體都享受到 AI 帶來的價值。”但夸克應用包羅萬象。需求最大的是搜尋,還有相當數量的使用者會在夸克網盤裡直接看劇。88VIP 有一項權益是贈送夸克網盤會員。根據 QuestMobile 的資料,夸克的 DAU 在 2025 年 1 月為 2970 萬,一直到 10 月,這個數字也只小幅增長到 3370 萬,與之對比的是,豆包 9 月較前一個月就多了 850 萬 DAU。一位阿里人士說,夸克的部分流量一直未被第三方資料標記,導致外部統計並不精準,目前實際 DAU 在 5000 萬 - 6000萬之間。2025 年,夸克關於 AI 的動作頻頻,上線了超級框、高考志願大模型、AI 創作平台、AI 眼鏡、AI 對話助手等。千問團隊:產品形態上,千問這樣的 chatbot 和夸克的超級框,其實不完全矛盾。打個比方,肯定不是說 Google 做了 Gemini,Google search 就不重要了。2025 年上半年,阿里當時的確希望通過夸克來嘗試 AI 時代的入口。夸克有原來的使用者、產品基礎,而且是一款年輕人都在用的產品。隨著 AI 能力的提升,我們覺得對話式 AI 助手是更好的形式,接下來阿里會重點發展千問,並把它放進夸克。夸克的定位是 AI 搜尋和 AI 瀏覽器。過去一兩年,阿里在組織上有一個非常大的變化,比如閃購這場仗不是閃購自己也不是淘寶自己打。它在競爭裡能站穩腳跟的本質,是集中了整個阿里所有的優勢資源,明確指揮官,統一指揮。 (晚點LatePost)
AI行情到了第幾層?
今年的市場不見往日把美林時鐘捲成風扇的極致輪動,而是在猶如土撥鼠之日的重複裡不斷上演似曾相識的新高。投資者來來回回似乎總在交易同樣的主線——要麼是在全球貨幣秩序重塑的宏大敘事裡與黃金眉來眼去,要麼是在科技改變世界的宏偉藍圖裡與AI舉案齊眉。市場在近乎單調的行情裡,逐漸走向新一輪財報季。但會計報表還沒出,太平洋彼岸的科技公司就已經提前進入了新一輪“預期加碼”。上個月,OpenAI宣佈投資1000億美元購買Oracle的雲端運算服務,轉頭Oracle就宣佈投資1000億美元買輝達的顯示卡,然後輝達就宣佈向OpenAI投資1000億美元建設10吉瓦的AI資料中心。腦筋急轉彎之最後到底誰出了這1000億,還沒蹲出來權威答案,事情就又起了新的變化。2025年10月6日,繼輝達之後,Open AI與AMD也達成了一項價值數百億美元的合作協議:OpenAI 承諾將會在未來的幾年中累計部署6 吉瓦的 AMD GPU,並且將於2026年下半年開始部署首批AMD Instinct MI450 GPU 。與此同時,AMD 向 OpenAI 發行了普通股的認股權證,在滿足解鎖條件的情況下,Open AI 能以每股0.01美元的行權價購買最多1.6億股AMD普通股。如果按行權條件之一“AMD股價達到600美元”來計算,1.6億股的價值將達到960 億美元,四捨五入又是一個千億級的佈局。一周之後的2025年10月13日,OpenAI再度出手,宣佈與博通達成深度定製晶片的合作。AI投資大循環的生態系統裡,又迎來了一個1.5兆市值的巨頭參與其中。OpenAI 的朋友圈群賢畢至、金碧輝煌,但分歧也隨之而來。樂觀者們看到的是科技巨頭們 All in AI的決心,悲觀者們則是質疑這種類似“梯雲縱”的遊戲就像空中樓閣,隨時可能倒塌。站在當下這個時點,如何看待不斷新高中的AI成為了市場最為激辯的話題之一?遠川整理了部分機構近期對於人工智慧的觀點和討論以供讀者參考。高盛:AI沒有泡沫10月8日,高盛發佈了一篇題為《Why we are not in a bubble...yet》的研報,旗幟鮮明地表示:AI還沒有形成大規模的泡沫。高盛在報告中談到泡沫通常會涉及到三個重要的組成部分:資產價格的迅速上漲、估值過高以及槓桿增加驅動的系統性風險顯著上升,而這三者當下都還未達到產生泡沫的程度。首先資產價格的快速上漲並不直接意味著泡沫的產生。譬如今年國防類股票也產生了可觀的回報,而歐洲銀行股在過去幾年的表現甚至超過了美國科技股,但市場卻並沒有產生對其產生泡沫的擔憂。因此,價格上漲的速度並不是泡沫產生的充分條件。只有當股價所代表的相關公司總價值超過它們可能產生的未來潛在現金流時,泡沫才可能形成。站在當下來看,股價的快速上漲更多反映的是強勁而持續的盈利增長,而非對未來過度的投機。根據相關資料顯示,美國科技股的股價變化和EPS增速高度重合,這無疑表明了強勁的基本面是股價上漲的源動力。其次,美國市場的估值相對於其歷史而言雖然處於高位,但科技股的估值卻還遠沒有達到網際網路泡沫的峰值。高盛通過將過去科技股的回報分解為盈利、估值和股利貢獻後發現,2000年網際網路泡沫峰值時,除了盈利之外,還有比我們今天所見的要大得多的估值上升。尤其是對於歐洲電信股來說,估值上升甚至更陡峭,回報幾乎完全由估值而非盈利驅動。而當下"七巨頭"的24個月遠期市盈率中位數為27倍,如果排除特斯拉(其市盈率遠高於其他公司),則為26倍,僅是1990年代末最大7家公司等效估值的一半;PEG比率更是遠低於1990年代末的水平。因此估值曲線雖然看起來有些陡峭,但只要盈利始終沒有令人失望,那麼就不會產生大規模的泡沫。最後,同1990年代末不同的是,美國科技股的資本支出與銷售額之比迅速攀升的同時,資本支出與自由現金流之比卻一直保持穩定。這意味著當今大型科技公司的資產負債表因高現金流和低槓桿率而得到加強。儘管這些公司仍有可能無法實現足夠的投資回報,但並不會像此前網際網路泡沫破裂時對更廣泛的經濟產生系統性影響,因為它們的資產負債表仍然強勁。歸根到底,對於高盛以及所有的AI支持者而言,不論是來自於AI還是其他業務,只要公司的盈利還在保持增長,那麼股價的上漲也會成為理所當然,而泡沫也就永遠不會產生。只是對於諸多謹慎的投資者而言,“只要公司的盈利還在保持增長”似乎不再是一個令人篤定的假設,他們選擇離開這場AI的盛宴,並從蛛絲馬跡當中捕捉到一些人工智慧當下所面臨的困境。Kuppys Korner:對AI有少量看跌押注不論是看好還是看空,對於當前人工智慧行業而言,投資者繞不開的關鍵問題都在於:需要多少收入才能證明當下的資本開支是合理的。10月5日,避險基金Praetorian Capital的創始人Kuppys Korner在官網上發佈了一篇名為《An AI Addendum》的文章,表達了自身對於人工智慧行業的質疑。通過走訪資料中心產業端的人員,他發現自己此前對於資料中心的折舊年限還是太過於保守了。由於資料中心的使用壽命最多為三到十年,同時每隔一兩年就會出現一次新的 GPU 迭代,因此折舊曲線將加快到三到五年的範圍。這意味著行業可能需要一個接近 3200 億美元至 4800 億美元範圍的收入範圍來實現今年資本支出的收支平衡。而目前人工智慧每月產生的收入僅僅為10億美元左右。尤其是伴隨著2026 年還將建造數千億個額外的資料中心,對於收入水平的要求將高達1兆美元才能達到收支平衡,且其中還不包括數兆美元的回報要求。可以預見的是,屆時將會產生巨大的收支缺口。與此同時,Kuppys Korner還發現行業中並非所有的人都希望能夠獲得資本回報,尤其是對於政府來說,人工智慧或許同樣只是國家戰略的一部分。“回想一下橫貫大陸的鐵路的建設。出於戰略原因,政府希望連接海岸,並意識到需要補貼。於是它們想盡了各種各樣的辦法來達到他們的目的。譬如土地贈款以及廉價貸款。”Kuppys Korne寫道。最終,國家完成了橫貫大陸的鐵路目標,即便當時鐵路的運輸費率要低於營運成本,但更多的鐵路公司卻在這一過程當中經歷了破產。在他看來,如今的人工智慧與當初的鐵路建設並無二致:政府希望美國能夠在人工智慧領域獲勝,並給予了諸多的支援,卻未對其所創造的價值作出相應的要求。就像舊金山聯儲主席瑪麗·戴利在採訪中說的那樣,“即使投資者沒有得到早期在投資時所認為的所有回報,它也不會讓我們一無所有,反而會給我們留下許多的AI基建[1]。”但問題在於,如果資料中心的擴建停止,人工智慧受益人的股票就會被拋售,財富效應就會逆轉。當消費增長為負值時候便會遇到金融恐慌,這種恐慌在反饋循環中將會影響到整個經濟。就像鐵路建設過程中不斷破產的公司最終導致了金融恐慌一般,當下的人工智慧建設也正處於這樣一個明斯基時刻。在文章的末尾處,Kuppys Korner這樣說道,“從鐵路到 2000 年的光纖建設,從 1830 年代的運河泡沫到 1920 年代的發電廠泡沫。如果大規模地做一件不能從經濟學角度去解釋的事情,那麼它只會引發一場行業危機,並最終演變成一場國家經濟危機。”尾聲2025年年初,Deep Seek的橫空出世讓“算力通縮”成為了彼時AI最大的分歧。簡單來說,就是DeepSeek能夠以極低的成本訓練出了高性能模型,那麼科技公司就可以相應地減少對於算力的需求。而這種擔憂的持續發酵也讓輝達在2025年1月27當晚跌幅達到了16.97%。但預想中的“算力通縮”並未到來,相反,科技巨頭們在此後的季報中不斷上修自己對於AI的資本開支,並就此開啟了新一輪算力的軍備競賽。原因也不難理解:既然低訓練成本就能夠生成Deep Seek,那麼隨著算力的增加,最終生成更好模型的機率也就更高。根據高盛研報資料顯示,美國最大的5家科技公司現在的總價值超過了歐洲斯托克50指數、英國、印度、日本和加拿大市場的總和,其價值約佔全球公開股票市場總值的16%。時至今日,科技公司已經將AI產業的發展玩成了金融內循環。收入增速只是一個維度,市值上漲也是一個維度。投入與產出的平衡,算術題好像不只是在財務報表上。動輒兆市值的大公司們,因為一則新聞跳漲10%,就能多出來1000億的事情,在今年的市場上早已見怪不怪。這麼看來,投資者真的不要再責怪A股是一個融資市了。AI產業動輒千億的資本開支又何嘗不是“美股市場”的一種融資屬性呢?至於AI究竟有沒有泡沫?用橋水基金創始人達里奧的話來說,“我已經有一些泡沫的感覺了,但我並不會去做空這些超級規模的科技巨頭[4]。” (遠川投資評論)
GPU警鐘敲響,AI過熱了?
在OpenAI和輝達等聯手搞動GPU和整個晶片市場之後,一個警鐘悄然敲響。周二, 知名媒體The Information 在一篇報導對該公司購買數十億 Nvidia 晶片並作為雲提供商出租給 OpenAI 等客戶的計畫提出了質疑,隨後該公司股價下跌 3%。報導稱,甲骨文最近轉型為最重要的雲端運算和人工智慧公司之一,但可能會面臨盈利挑戰,因為輝達晶片價格昂貴,而且其人工智慧晶片租賃定價激進。根據報告援引內部檔案稱,截至8月的三個月裡,甲骨文旗下輝達雲業務的銷售額為9億美元,毛利率為14%。這遠低於甲骨文約70%的整體毛利率。甲骨文今年9月表示,其積壓的雲合同(稱為剩餘履約義務)在一年內增長了359%。該公司預測,2030年雲基礎設施收入將達到1440億美元,高於2025年的100多億美元。然而,這些預測收入的大部分來自 Oracle在星際之門項目中所扮演的角色,該項目中,這家企業供應商正與 OpenAI 合作,開設五個裝有 Nvidia 人工智慧晶片的大型資料中心。縱觀整個AI市場,這其實是OpenAI一系列動作下的結果OpenAI挑起的AI基礎設施爭奪戰據金融時報最新報導,OpenAI 今年已簽署了約 1 兆美元的合同,用於運行其人工智慧模型的計算能力。這些承諾使其收入相形見絀,並引發了對其資金來源的質疑。今年 1 月,OpenAI 與軟銀、甲骨文等公司啟動了一項名為“星際之門”的計畫,承諾為 OpenAI 在美國基礎設施建設上投資高達 5000 億美元。目前尚不清楚輝達和 AMD 的交易將如何融入“星際之門”計畫。這家 ChatGPT 製造商尚未透露是直接購買晶片還是通過其雲端運算合作夥伴購買,預計將租賃部分輝達晶片。OpenAI 已從其供應商處獲得了巨額財務激勵,以換取其晶片採購的回報。Nvidia 計畫在未來十年向 OpenAI 投資 1000 億美元,OpenAI 可以用這筆資金購買 Nvidia 的晶片,用於其 AI 資料中心。AMD 將向 OpenAI 提供認股權證,使其能夠以每股 1 美分的價格收購 OpenAI 最多 10% 的股份,具體取決於他們的項目是否達到特定目標,其中包括一些與 AMD 股價掛鉤的目標。據 OpenAI 高管估計,按目前的價格計算,每部署 1 千兆瓦的人工智慧計算能力的成本約為 500 億美元,總成本約為 1 兆美元。這些交易將一些全球最大的科技集團與 OpenAI 的能力緊密聯絡在一起,OpenAI 有能力發展成為一家盈利企業,並能夠償還其日益沉重的財務負擔。但DA Davidson 分析師 Gil Luria 表示:“OpenAI 沒有能力做出任何這些承諾”,他同時並補充該公司今年可能虧損約 100 億美元。“矽谷‘假裝成功,直到成功’的理念部分在於讓人們參與其中。現在,許多大公司在 OpenAI 上投入了大量資金,”他補充道。OpenAI 在基礎設施、晶片和人才方面投入了大量資金,遠沒有達到實現這些宏偉計畫所需的資金。這些交易還涉及這家全球最有價值的初創公司與其合作夥伴之間的循環安排,以及大多數情況下尚未達成一致的複雜融資條款。彭博社在一篇相似的報導中也指出,兩周前,輝達公司同意向OpenAI投資高達1000億美元,以幫助這家領先的人工智慧初創公司建設一個規模龐大、足以為一座大城市供電的資料中心。OpenAI則承諾在這些資料中心部署數百萬塊輝達晶片。這一安排因其“循環”性質而迅速受到批評。本周,OpenAI再接再厲,達成了一項類似的協議。這家ChatGPT的開發商周一與輝達的競爭對手AMD公司簽署了合作協議,將部署價值數百億美元的AMD晶片。作為合作的一部分,OpenAI有望成為AMD的最大股東之一。據報導, AMD 已與 OpenAI 達成合作夥伴關係,ChatGPT製造商將在多代晶片中部署 6 GW 的 AMD 圖形處理單元 (GPU)。 這筆交易對 OpenAI 來說是一個重大決定,OpenAI 幾乎完全依賴 Nvidia晶片來訓練 ChatGPT 及其其他 AI 產品背後的模型。Nvidia 佔據了人工智慧加速器市場的主導地位,市場份額估計為 80% 至 95%,當供應緊張或價格上漲時,客戶幾乎沒有其他選擇。現在,Instinct 系列在資料中心直接與 Nvidia 的 H100 和 H200 晶片競爭,這些處理器在資料中心訓練大型語言模型 (LLM) 並運行推理工作負載。此次合作的財務利益相當可觀——正如AMD執行副總裁、首席財務官兼財務主管 Jean Hu所說,此次合作“預計將為 AMD 帶來數百億美元的收入,同時加速 OpenAI 的 AI 基礎設施建設”。 她補充說,該協議“為 AMD 和 OpenAI 創造了重要的戰略一致性和股東價值,預計將大大增加 AMD 的非 GAAP 每股收益”。對於 AMD 來說,獲得 OpenAI 作為客戶是其多年來試圖打破 Nvidia 對 AI 晶片市場的控制的證明。從Meta到xAI,都在搶GPU除了OpenAI以外,其他雲供應商也都在加入到了這個瘋狂的AI基礎設施浪潮。從相關報導可以看到,META 和 CoreWeave 已簽署了一份價值 140 億美元的協議,利用後者的GPU算力為 Facebook 母公司提供計算能力。 ORACLE也正在和Meta 就一項價值約 200 億美元的多年期雲端運算協議進行談判,這凸顯了這家社交媒體巨頭致力於更快獲得計算能力的決心。八月底,有消息指出,Meta 與Google簽署了價值 100 億美元的雲端運算協議。根據協議,Meta 將使用Google雲的伺服器、儲存、網路和其他服務。此前,Meta 首席執行官馬克·祖克柏 (Mark Zuckerberg) 曾在 7 月份表示,公司將斥資數千億美元建設幾個大型人工智慧資料中心。在最新的財報電話會議上,該公司預測 2025 年的資本支出將提升到 660 億至 720 億美元。當中,Meta 將部分資金投向出版商、晶片初創公司和雲服務提供商,並與之達成協議——這是一項龐大行動的一部分。與此同時,數十億美元的資金正湧入輝達的 GPU、定製晶片以及類似能源公用事業的資料中心,旨在確保人工智慧經濟的各個領域都不受限制。值得一提的是,Meta 的高管表示,他們預計到 2028 年將在人工智慧基礎設施上花費 6000 億美元 ,包括 大型資料中心。另一家巨頭微軟也是GPU的大買家。科技諮詢公司 Omdia 的分析師估計,微軟在去年購買了 48.5 萬塊輝達的“Hopper”晶片。這使得微軟遠遠領先於輝達的第二大美國客戶 Meta(購買了 22.4 萬塊 Hopper 晶片),以及其雲端運算競爭對手亞馬遜和Google。但這遠遠滿足不了微軟的需求。據知情人士在本月初透露,微軟與 NeoCloud 公司 Nebius Group NV 達成的協議將為微軟內部團隊提供計算能力,用於開發大型語言模型和消費者 AI 助手。這項價值高達 194 億美元的協議公佈後,Nebius 股價應聲上漲,但公告並未透露具體細節。知情人士表示,作為協議的一部分,微軟將獲得輝達公司超過 10 萬塊最新的 GB300 晶片的使用權。雲供應商通常營運著自己的資料中心,但微軟卻難以提供足夠的計算能力。租用 NeoClouds 的伺服器可以加快速度,因為他們已經解決了包括獲取足夠的電力和晶片在內的後勤挑戰。“我們在人工智慧領域處於非常激烈的爭奪戰模式,”微軟雲業務負責人 Scott Guthrie 表示。“我們已經決定,我們不想在容量方面受到限制。”Elon Musk旗下的xAI也已然成為了AI基礎設施市場的另一個爭奪者。其中,孟菲斯是馬斯克斥巨資進軍人工智慧戰爭的前線。他的人工智慧公司 xAI 已經在這座布拉夫城建造了一座大型資料中心,並稱之為世界上最大的超級電腦。這座名為“Colossus”的設施擁有超過 20 萬塊輝達晶片,並為人工智慧聊天機器人 Grok 提供技術支援。現在,馬斯克即將完成第二座設施,這座設施規模將更大,他稱之為“Colossus 2”。一些人工智慧和資料中心專家表示,完成Colossus 2將耗資數百億美元。僅輝達晶片一項就耗資巨大:一位熟悉孟菲斯項目財務狀況的人士表示,馬斯克需要至少花費180億美元來購買大約30萬塊晶片才能完成孟菲斯項目。馬斯克在7月份表示,Colossus 2將總共擁有55萬塊晶片,並曾暗示最終可能擁有100萬個處理單元。此前報導指出,馬斯克還在探索一種無需直接購買、而是通過與外部合作夥伴達成的複雜融資協議租賃的方式來囤積價值120億美元的晶片。再加上其他雲廠商,尤其是中國廠商的搶奪,對於AI算力和GPU的需求,正在瘋狂增長。根據《商業內幕》對財務報表的分析,今年,我們統計的五大能源使用者中的四家,亞馬遜、Meta、Microsoft 和Google,估計可以在資本支出上花費 3200 億美元,主要用於人工智慧基礎設施。這超過了芬蘭的 GDP,略低於埃克森美孚 2024 年的總收入。另一場網際網路泡沫正在上演?此前從未有過如此巨額的資金被如此迅速地投入到一項儘管潛力巨大,但其盈利能力在很大程度上仍未經證實的技術上。而這些投資通常可以追溯到兩家領先的公司:輝達和OpenAI。近期兩大巨頭之間發生的一系列交易和合作,加劇了人們的擔憂:日益複雜且相互關聯的商業交易網路正在人為地支撐著價值數兆美元的人工智慧熱潮。幾乎每個經濟領域都面臨風險,人工智慧基礎設施的炒作和建設波及了各個市場,從債務、股票到房地產和能源。晨星公司分析師布萊恩·科萊洛在談到輝達對OpenAI的投資時表示:“如果一年後我們經歷了人工智慧泡沫並最終破裂,這筆交易可能是早期的蛛絲馬跡之一。如果情況惡化,循環關係可能會發揮作用。”這種迅速吹起的泡泡,讓人想起了四分之一個世紀前的“網際網路泡沫”。當時,公司們爭先恐後地為新興網際網路奠定支柱時,出現了類似的模式。在截至 2001 年的五年裡,WorldCom和Global Crossing等公司花費了數百億美元鋪設光纜和安裝其他網路功能,但第二年,網際網路泡沫破滅導致為建設提供資金的貸方索要資金,結果倒閉了。根據Businessinsider引述布魯金斯學會(Brookings Institution)的分析報告顯示,領導光纖建設的公司的股東損失了2兆美元的價值,而50萬名工人失去了工作。雖然光纜最終被投入使用,主要是由於 Netflix 開創的串流媒體視訊革命,但許多鋪設它的公司並沒有看到它。就像早期的光纜和鐵路一樣,資料中心的建設和 GPU 的購買都是由華爾街資助的。當然如上所述,矽谷巨頭本身也越來越多地為繁榮提供資金。這進一步引發了擔憂。“我們都見證了這種行為的某些方面,”JonesTrading首席市場策略師邁克·奧羅克(Mike O'Rourke)上個月在一份報告中寫道。“網際網路泡沫的教訓幾乎已被遺忘,但它的影響將永存,”他寫道,並指出供應商融資是朗訊倒閉的“關鍵”——朗訊曾是全球最大的電信裝置公司,如今卻像輝達一樣,被譽為新興科技經濟中的“鐵鍬”公司。(朗訊在2002年經濟衰退期間險些破產,並於2006年被出售給法國競爭對手阿爾卡特。)摩根士丹利分析師周一在一份報告中表示:“我們看到了一些重要的區別。”其中最主要的是:大型科技公司的財務狀況比網際網路時代許多過度膨脹的股票要強得多。“我認為這是全球有史以來最大、最危險的泡沫,”宏觀戰略合夥公司(MacroStrategy Partnership)的朱利安·加蘭(Julien Garran)在周五一份頗為悲觀的報告中寫道。他估計,由人工智慧引發的“美國資本錯配”比網際網路泡沫嚴重17倍,比2008年的房地產泡沫嚴重4倍。但拋開循環融資及其盈利能力的討論,我們更應該關注的是這些投資的核心產品:由大型語言模型驅動的生成式人工智慧(LLM)。而這正是許多其他投資者、分析師和學者們高呼“皇帝沒穿衣服”的原因。“我想說,這種想法可能太狹隘了,”周一,當被問及對大規模人工智慧投資可能超前發展的擔憂時,AMD CEO蘇姿丰在雅虎財經上表示。“你必須認真考慮這項技術的力量能為世界帶來什麼。”蘇姿丰表示,公司“正在以正確的速度進行投資,因為我們希望加速發展……這是一個當公司和合作夥伴採取大膽行動時就會獲得回報的地方。”展望未來,蘇姿丰表示,人工智慧熱潮仍處於初期階段。“我堅信,這是一個十年超級周期的開端,”她補充道,人工智慧改變金融、醫療保健和研究等各行各業的潛力才剛剛開始顯現。她說:“我們相信,只要正確使用人工智慧計算,就能更快地解決疾病問題,更快地研發新藥,更好地診斷早期患者的問題,從而為人們的生活帶來改變。”寫在最後由於文章裡的“泡沫說”是一個假設,那就意味著其在未來並不會出現,這也引發了另一個猜想,OpenAI和AMD的交易,Microsoft對AMD和輝達的觀點,會否撼動當前的輝達格局?如上所述,輝達佔領了接近九成的訓練晶片市場。據FactSet 估計,人工智慧處理器目前每年為資料中心創造超過 1460 億美元的收入,預計未來 12 個月的年銷售額將達到 2260 億美元。相比之下,AMD 的資料中心業務目前的年銷售額略高於 140 億美元。首席執行官蘇姿丰在周一上午的電話會議上表示,一旦首批晶片在明年下半年開始部署,OpenAI 的交易將為該部門帶來“數十億美元的年收入”。她還指出,未來幾年該業務的收入可能“遠超 1000 億美元”。這將是一筆可觀的收入,但也表明 AMD 要想縮小與輝達在人工智慧系統市場的領先優勢,還有很長的路要走。就AMD而言,在追趕競爭對手的競爭中,AMD現在面臨著更大的風險。這筆交易從AMD預計將於明年下半年開始出貨的MI450晶片開始。AMD宣稱,這些晶片的性能完全可以與輝達計畫同期推出的Vera Rubin晶片相媲美。這將是一個巨大的飛躍。根據輝達在3月份的GTC大會上公佈的規格,首批Rubin系列晶片的計算性能將是輝達目前銷售的最強大的Blackwell晶片的3.3倍。MI450 也代表著 AMD 首次嘗試所謂的機架式系統,該系統將多個 GPU 晶片和其他元件組合在一起,有效地形成一台可裝入現有資料中心機架的 AI 超級電腦。這類系統的複雜性非常高;就連輝達去年在量產首批基於 Blackwell 的機架時也遇到了一些困難。但AMD在追趕輝達的競爭中,仍需實現一個雄心勃勃且快速推進的目標,同時還要兼顧其他業務,例如個人電腦和視訊遊戲等增長前景黯淡的市場。對於OpenAI和AMD的交易來說,還有一個關注點,那就是博通是否會最大利空。因為據之前報導,OpenAI正在與博通打造ASIC。專家此前曾猜測,AVGO 將成為僅次於 Nvidia 的第二大 AI 晶片供應商——尤其是在有報導稱 OpenAI 已下達 100 億美元定製 ASIC 訂單之後。對此,各位讀者是怎麼看? (半導體行業觀察)
阿里想做的,不止“AI雲”
一個團隊的理念,往往受創始人個人風格影響很大。阿里雲產品理念的形成,受到影響最大的,同樣是它的創始人,王堅。作為阿里雲創始人,王堅最初為阿里雲制定的生存之道是:做如同電一樣的社會基礎資源的提供者,去支撐雲上應用創新,不與雲上應用競爭。王堅曾經做過一個生動的比喻:電是電網公司提供的基礎資源,總不可能因為理髮師的收益比電費高出好幾倍,國家電網就自己去開理髮店吧,雲端運算也是同理。正因如此,時至今日,阿里雲內部認為自己與其它雲廠商最大的區別依然是:大部分網際網路廠商做雲端運算,主要是基於自身主營業務最佳化雲端運算,然後將閒置資源釋放出來、服務客戶,只有阿里雲是將雲端運算真正在作為基礎設施來做。這兩個邏輯構成了阿里雲在意識形態上的底層邏輯,也延續到了現在阿里提及的“AI雲”。01只見大模型,不見阿里雲?什麼是雲端運算?一個通俗的理解是:雲端運算就是將全球“電腦”連起來,作為一台電腦,為每個需要算力的人提供無差別計算服務,這就是雲端運算。Google當年做搜尋引擎就是這個邏輯,亞馬遜後來做雲端運算延續了這個邏輯。不過,作為國內最大雲廠商,阿里雲,每年最大的科技盛會,今年阿里雲在雲棲主論壇上講的算力、網路、儲存等基礎設施少了,而是將大模型作為了技術發佈的主角貫穿始終。即便是在大模型已經成為阿里戰略重心的2024年,這也是不曾有的待遇。這讓不少人在看完阿里雲CTO周靖人的技術發佈後,會有一種錯覺——只見大模型,不見阿里雲。就我個人理解,這樣的變化出於三個主要原因:第一,雲基礎設施已經相對成熟。彈性計算、資料庫等底層能力在過去十幾年已經發展相對成熟,Google雲支撐起了全球最大的搜尋引擎,阿里雲支撐起了全球最大的線上購物節……雲端運算已經穩定支撐起全球網際網路穩定運行,現在很少再聽到網路不可用的情況了。當然,我不是說現在的雲端運算已經完美無缺,畢竟全球範圍內來看,即便是Google、微軟、亞馬遜,每年雲服務也還是會有那麼一兩次當機故障;像是彈性計算,也還是會有熱遷移、線上動態縮容技術不成熟的問題。不過,從阿里雲在2019年公佈的官方資料來看,阿里雲彈性計算多可用區多實例可用性達到了99.995%。這意味著,理論上每年在該情況下,彈性計算當機時間不到30分鐘(26.3分鐘),即便是在工業場景,也已經不影響企業正常使用。第二,人工智慧正在成為雲廠商的新故事。就雲廠商的視角來看,微軟牽手OpenAI,亞馬遜投資Anthropic,Google搞了Gemini,阿里則是搞了Qwen……這些雲廠商或重倉投資、或重倉自研,無一例外都在搞大模型。實際上,大模型在2023年就已經成為確定性趨勢,大模型也已經成為全球科技競爭焦點。在全球科技競爭中,大模型的進化仍在不斷加速。在今年的雲棲大會上,阿里雲一口氣連發了七款大模型,既有兆參數規模的Qwen3-Max,也有圖像、視覺、語音模型,乃至全模態模型。周靖人指出,阿里雲現在非常重視context length scaling(上下文長度)和total parameter scaling(總參數)兩個大模型趨勢,也在做模型架構創新。這次雲棲大會上,阿里雲還對外發佈了探索下一代架構創新的Qwen3-Next。第三,現階段的大模型正在成為雲端運算的“大客戶”。阿里巴巴CEO吳泳銘就指出,“AI的滲透速度超過了歷史上所有的技術,現在的Token消耗量每2-3個月就會翻一倍。”阿里雲政企事業部產品解決方案與服務管理總經理霍嘉在接受媒體採訪時分享了一個更生動的例子:“當年DeepSeek出來後,我做過一個測算——1000萬DAU的DeepSeek模型究竟需要多少張卡,當時算出來的結果是驚人的。而1000萬DAU在國內來說並不算大,國內好的應用DAU都在大幾億,現在整個智算市場依然處於高品質智算供不應求的狀態。”不過,這樣的發展趨勢更多體現的是潛力,大模型有著成為雲端運算消耗“大戶”的潛力。就現在實際行業應用情況來看,阿里雲公共雲事業部首席解決方案架構師韓鴻源給出了一個當下資料:“今天Token呼叫佔在企業IT支出佔比是微不足道的,即便是今天企業的Token呼叫量再增加100倍,也都不足以讓企業考慮把這個東西停掉。”當下,企業大部分雲上資源消耗依然在傳統的雲端儲存、雲端運算服務上。這裡要多提一句的是,未來大模型和雲端運算不只是供需關係,未來AI和雲會深度融合,也就是說,AI會把雲端運算再刷新一遍——雲端儲存會變為AI雲端儲存,雲端運算會變為AI雲端運算,基於雲長出來的應用也不再是軟體,或是雲原生軟體,而是AI智能體。這是阿里雲未來三年要投3800億於AI的主要原因,也是現在雲廠商紛紛提出AI雲,爭奪AI雲市場份額背後的核心邏輯。02“AI雲”的商業邏輯2022年5月26日,阿里發佈財報,阿里雲於2021年財年第四季度首次扭虧,2022財年首次全年實現盈利,利潤為11.46億元。經歷了十幾年的技術研發和商業探索,阿里雲終於跑通了雲端運算的商業模式。那麼,什麼是雲端運算的商業模式?王堅當年給雲端運算的定位是,像“電”一樣的公共基礎資源。所以,雲端運算的商業模式本質是租賃,租賃雲上的儲存資源、算力資源,企業則可以由此讓自己的業務線上、資料線上,實現數位化轉型,吃到網際網路紅利。那麼,什麼是AI雲的商業模式呢?或者,更聚焦一點,什麼是大模型的商業模式?阿里雲通義大模型業務總經理徐棟指出,目前我們能看到三種商業模式:第一種,基於API呼叫,按Token使用量計費,用了多少Token、付多少錢;第二種,基於訂閱制,包月或包年計費;第三種,基於結果付費,例如很多客服類企業的需求是,按滿足滿意度的接通電話量計費。不過,同樣會影響到大模型使用成本的,還有大模型具體能力,大模型越聰明,越不會輸出一堆差強人意的結果,才能減少無效Token使用量。所以,理論上來講,在商業應用場景中,要儘可能使用聰明的大模型,也要選擇一個適合自己業務的計費模式。至於在當下這個大模型創業紅利期,創業團隊如何抓住這波技術機會,盡快實現商業變現,我在今年雲棲大會上看到了兩個答案:第一,大模型已經具備不錯的數學、程式碼能力。不得不說,程式設計師開發出的大模型,正在幹掉一部分基礎程式設計工作,現在無論是在網際網路大廠,還是專業開發者或愛好者,都在使用大模型做程式設計,vibe coding也成了今年一個熱門領域。第二,新一代超級軟體,AI智能體紅利期已經來臨。在今年雲棲大會上,無論是在論壇演講中,還是在各個展館裡,聽到或看到最多的,正是AI智能體。相較於以往更強調執行的軟體工具,AI智能體具備完整的感知、決策、執行自動控制鏈路。那麼,我們要如何打造一個AI智能體呢?阿里雲瓴羊CEO朋新宇在大會上給出了這樣一個公式:企業Agent=大模型x好資料x強場景簡單來說,就是要選擇最適合業務的大模型,擁有為AI服務的自有好資料,率先在企業中資金、人力、資料密集場景中尋找建構企業Agent,也就是AI智能體的機會。阿里看好的三個會最先在企業中長出AI智能體的地方,分別是:行銷、客服、分析場景,對應的分別就是資金密集型、人力密集型、資料密集型場景。瓴羊這一套邏輯是干中實踐出來的,所以瓴羊這次也面向行銷、客服、分析場景發佈了AI智能體。據悉,瓴羊打造這些AI智能體,嚴格意義上來說,其實應該算是AI智能體建構工具鏈,那些有資料、有場景的公司,基於阿里雲的底層計算和模型資源,以及瓴羊的這些基礎智能體平台,就可以研發出自己的企業AI智能體。這其中就包括,瓴羊將與阿里核心業務——淘寶、天貓分別在電商客服智能體、行銷生圖智能體。有了AI智能體加持後,企業將從數位化跨入智能化,一直沿邊到“AI超級公司”。當然,這也是阿里給出的構想。在朋新宇的構想中,成為“AI超級公司”會分為三個階段:AI協作、AI協同、AI驅動。值得一提的是,AI驅動,正是吳媽在2023年走馬上任後,為阿里定下的兩大企業戰略之一。而阿里的另一個企業戰略關鍵詞是,使用者為先。03那個阿里,又回來了!2024年的雲棲大會,與以往有所不同,主論壇換上了大模型、自動駕駛、機器人三大主題對話,就連阿里雲的技術發佈,也被放到了下午、為主題對話讓路。說起來,2024年的雲棲大會,稱得上是過往這些年最獨特的一屆雲棲,就連前沿應用館,也第一次被機器人“佔領”,阿里一口氣請來了14家人形機器人廠商來鎮場子。2025年的雲棲大會,又有了一些新變化:就主論壇議題來看,首先阿里換回了戰略發佈+技術發佈的傳統格調,其次是大模型發佈成了技術發佈的主基調,與此同時,開幕式期間難得一見的出現了超節點、金融、德勤、SAP四個平行論壇。我在現場感受到的另一個變化是:前沿應用館展示了更多與主業相關的應用場景,除了阿里今年不斷出手投資的具身智能外,1688來了、釘釘來了、高德來了,新消費、新零售領域的一大批客戶也來了。當然,前沿館也不乏大模型應用創企,汽車、工業應用案例。就連朋新宇在大會上也不禁感慨:大家最近應該都感受到了,阿里回來了,各個方面都回來了!回到阿里雲來看,今年吳媽在演講中,設想了阿里雲的宏圖霸業,也講了很多“哲學”問題。吳媽說,AGI不是終點,超級人工智慧ASI才是。吳媽說,ASI要分三步走,智能湧現、自主行動、自我迭代,我們現在處於第二階段。吳媽說,大模型是下一代作業系統,AI雲是下一代電腦。吳媽說,通義千問將成為“AI時代的Android”,阿里(AI)雲要成為“下一代電腦”。吳媽說,未來,全世界可能只會有5-6個超級雲端運算平台。 (鋅產業)
阿里,站起來了
資本市場是最誠實的投票機器。2025年9月24日,阿里巴巴(9988.HK)港股股價飆升超過9%,觸及四年來的新高,成交額是平日數倍。華爾街的交易員們也沒閒著,阿里(BABA)的美股交易異常活躍,漲幅近9%。市場用真金白銀的狂熱,回應了杭州雲棲大會上吳銘的發言。這既是一次技術發佈會,更是一次宣言——阿里巴巴正在徹底撕掉傳統電商的標籤,將公司的命運,全部押注在AI+雲端運算這個新戰場上。過去幾年,投資者對阿里的敘事感到疲憊:電商業務增速放緩,新零售故事不再性感,雲端運算雖是亮點但獨木難支。市場一直在問:阿里的下一個增長引擎在那裡?吳泳銘給出了一個all-in的答案。從AGI到ASI:吳泳銘的升維打擊戰略在這次雲棲大會上,吳泳銘的發言核心,並非僅僅羅列技術參數,而是提出一個極具野心的概念躍遷:阿里的目標不再是通用人工智慧(AGI),而是要迎接和建構超級人工智慧(ASI, Artificial Superintelligence)的時代。這是一個關鍵的訊號。當行業還在普遍討論AGI的可能性時,吳泳銘已經將戰略目標拉到了一個更高的維度。這背後透露出兩個核心判斷:1、AI的終局是基礎設施之戰:他預測,未來全球只會有五到六個能夠提供大規模智能計算和AI服務的超級雲平台。這本質上是一場極度燒錢、技術壁壘極高的寡頭遊戲。阿里不但要上牌桌,還要成為最終的莊家之一。2、放棄幻想,全力投入:為此,阿里計畫在2032年前,將其全球資料中心的規模(以能源消耗衡量)擴大十倍。這是一個極其驚人的數字,遠超之前“三年投入3800億人民幣”的計畫。這意味著阿里未來多年的資本開支和資源,將毫不猶豫地、壓倒性地傾斜於AI和雲端運算。對於投資者而言,這意味著兩件事:第一,不要再用電商或零售的市盈率去評估阿里,它的估值模型正在向亞馬遜的AWS或微軟的Azure靠攏;第二,短期的利潤可能會因為巨大的資本開支而承壓,但這是為獲取未來十年“AI水電煤”的定價權而必須付出的代價。通義千問3.0的肌肉與百煉平台的野心戰略的落地,需要強大的武器。此次發佈的通義千問3.0-Max兆級參數模型,就是阿里秀出的最強肌肉。從技術層面看,阿里聲稱其在程式碼生成、邏輯推理和多模態理解上,已經可以對標甚至在部分領域超越OpenAI和Google的頂級模型。這不僅僅是為了在技術圈掙得顏面,更重要的是向企業客戶證明:阿里的AI能力,是可信、可用、可依賴的。然而,比一個超級模型更值得投資者關注的,是阿里正在建構的模型+平台的商業閉環:模型即服務(Model-as-a-Service):除了最強的Qwen3-Max,阿里還發佈了如Qwen3-VL(視覺語言)、Qwen3-Coder(程式碼)、萬相2.5(文生視訊)等一系列專用模型。這構成了豐富的產品矩陣,企業可以像點菜一樣,選擇最適合自己的模型服務,而不是所有需求都用一個萬能模型去硬解,這大大降低了企業使用AI的成本和門檻。平台即生態(Platform-as-a-Service):新推出的百煉智能體開髮套件(Model Studio-ADK)” 是這次發佈會的殺手鐧。它讓企業開發者可以更便捷地在阿里的平台上建構自己的AI Agent(智能體)。吳泳銘的野心,是讓通義成為AI時代的Android作業系統,讓百煉平台成為這個作業系統上的應用程式商店。他賭的是,未來AI應用的大爆發,將發生在他的生態裡。這種策略的商業邏輯非常清晰:通過開源部分模型吸引海量開發者,形成生態;通過強大的基礎設施和易用的開發平台鎖定企業客戶;最終,通過模型呼叫和增值服務實現盈利。商業化落地:全球化與聯盟的現實選擇AI的競爭,離不開算力和朋友圈。在這次大會上,阿里宣佈將在巴西、法國、荷蘭等地新建資料中心,並在印尼和德國設立新的區域服務中心。這一舉措的背後,是對地緣政治和商業現實的深刻理解。對於歐洲、中東等地的跨國企業和主權國家而言,資料主權是不可踰越的紅線。阿里通過全球化的資料中心佈局,解決了這些客戶的合規性和延遲問題,使其成為中國唯一有潛力在全球範圍內與亞馬遜、微軟、Google正面競爭的雲廠商。更值得玩味的是,阿里此次並未過多強調自研晶片,反而高調宣佈了與輝達在Physical AI領域的合作。這是一個極其務實的訊號。在當前環境下,與其追求遙遠的完全自主可控,不如先結成最強大的商業聯盟,確保自己擁有最先進的生產工具(GPU)。這不僅能快速提升自身在機器人訓練、模擬等前沿領域的能力,也給資本市場吃了一顆定心丸。投資價值重估:告別過去,擁抱硬核科技市場為何如此激動?因為阿里終於給出了一個清晰、可信且足夠宏大的新故事。1、估值錨點切換:阿里的估值核心,正在從GMV(商品交易總額)和使用者數,切換為雲端運算收入、AI模型呼叫量和企業客戶數。花旗銀行在會後重申“買入”評級,並將目標價定在187美元,其核心邏輯正是看好AI驅動下雲業務的持續高增長和利潤率擴張。2、戰略清晰度:吳泳銘領導下的阿里,正在變得更純粹。剝離非核心資產,將所有火力集中於AI和雲。這種戰略上的專注,消除了過去市場對於其業務龐雜、方向不明的疑慮。3、風險與回報:當然,這場豪賭並非沒有風險。首先,全球晶片供應的政治不確定性依然是懸頂之劍。其次,國內外競爭對手同樣在瘋狂投入,技術迭代速度極快,稍有不慎就可能掉隊。最後,如此巨大的資本投入能否換來相應的商業回報,仍然需要未來幾個季度的財報來驗證。軲轆凱寫在後面的話2025年的雲棲大會,很可能會成為阿里巴巴發展史上的一個分水嶺。它標誌著一個時代的結束——那個由電商流量驅動的、業務邊界不斷模糊的阿里帝國正在遠去;一個新時代的開啟——一個以硬核技術為基石、以AI和算力為核心產品的新阿里正在誕生。吳泳銘已經把所有籌碼推向了牌桌中央。對於投資者而言,現在需要評估的,不再是這家公司過去的輝煌,而是其在通往超級人工智慧的道路上,能否成為那個最終的賣水人。這註定是一場高風險、高回報的旅程。阿里已經開始顯露出了它在AI時代的王者風範。從此,阿里站起來了。 (軲轆凱)
華為的算力突圍 :一手大國重器、一手化繁為簡
把簡單留給企業,把複雜留給自己。9月18日,“華為全聯接大會2025”上,華為副董事長、輪值董事長徐直軍,一口氣官宣了未來三年多款晶片、超節點的演進路線。在智算領域,以昇騰950建構的新型超節點,將打造出“全球最強超節點”——不止比輝達2027年推出的NVL576系統更強,甚至在未來很多年內或許都將是全球最強算力的超節點。以昇騰960為基礎的超節點,則將在2027年四季度上市。“昇騰芯”、“超節點”,有望成為AI基礎設施建設的新常態。在通算領域,鯤鵬950、鯤鵬960系列處理器,也將在超節點上大顯身手。華為常務董事、華為雲端運算CEO張平安介紹,依託華為剛剛發佈的最新AI伺服器規劃,CloudMatrix雲上超節點規格將從384卡升級到未來的8192卡,實現50~100萬卡的超大叢集,為智能時代提供更澎湃的AI算力。華為雲CloudMatrix384 AI Token服務也全面上線,可直接為使用者提供最終的AI計算結果。“把簡單留給客戶,把複雜留給自己。”這一輪“上新”,華為雲為什麼這麼猛?關鍵的變數在於“系統級創新”,關鍵的路徑在於,全面走向千行萬業,而這兩個“關鍵”的背後是華為雲的戰略性聚焦。大爭之世,華為雲這一AI的戰略性聚焦,其實也是對行業趨勢的預判。全球AI的競爭,正聚焦為算力的競爭。據華為《智能世界2035》報告預測:到2035年,全社會算力總量將增長10萬倍。而美國,正試圖從AI晶片的源頭,掐斷中國的算力。但中國企業,選擇了主動破局。“華為全聯接大會2025”上,華為雲發佈CloudMatrix超節點的新升級,成為國產AI算力最強有力的答案。半年前,超越輝達NVL72的CloudMatrix384,可以支援384顆昇騰NPU和192顆鯤鵬CPU,組成超16萬卡的叢集,同時支援1300個千億參數大模型訓練或上萬個模型的推理。如今,根據華為雲的最新規劃,CloudMatrix超節點規格將從384卡升級到未來的8192卡。依託MatrixLink高速對等網際網路絡結合多網合一技術,可組成50~100萬卡的超大叢集。這堪比“算力大爆炸”。CloudMatrix384絕非簡單的晶片堆疊,而是架構上的全面創新:將資源全面池化,形成算力池、記憶體池、視訊記憶體池等。這樣就可以把計算型任務、儲存型任務、AI專家系統解耦開來,將序列任務儘可能地變成分佈式平行任務,極大地提升了系統的推理性能。目前華為雲已經為Pangu、DeepSeek、Qwen等業界主流大模型提供了極致的推理Token服務。在線上、近線和離線等不同時延要求的推理場景中,CloudMatrix384平均單卡的推理性能是中國特供版GPU H20的3到4倍。360集團旗下的奈米AI,也毫不猶豫地選擇了華為雲。作為全球唯一的L4級智能體,奈米AI引入的“多智能體蜂群”,可實現多智能體非同步平行。但這也導致其處理複雜任務可多達1000步,消耗Token高達500萬至3000萬。但基於CloudMatrix384超級“AI伺服器”,華為雲為奈米AI提供了高品質穩定的Tokens服務;基於EMS彈性記憶體儲存,足以打破AI記憶體牆,應對“蜂群”毫無壓力。周鴻禕說,華為雲充當了輝達+亞馬遜的角色,華為的Token性價比是非常好的,華為雲算力架構能完美的支撐多個基座大模型的共同工作。如果說算力是“燃料”,那麼大模型就是“引擎”。作為華為雲堅定不移的投入方向,“盤古大模型”的核心價值,就在於跳出了“模型空轉”的陷阱,使AI能力與行業Know-how融合,破解了企業“不會用、用不好”的難題,把 AI真正落到企業生產系統中去。在這方面,雲南交投是另一個典型案例。作為雲南綜合交通建設、經營的主力軍,2024年,雲南交投管養的高速公路高達6300公里。用AI驅動這麼龐大的交通資產,本身就是一個超級難題。為此,華為雲不僅為其打造了“雲、邊、端”混合雲算力基礎設施架構、行業高品質資料集,還建構了一個融合自然語言、視覺、多模態於一體的交通行業大模型“集”。大模型“集”的能力,就在於面對各類場景,無往不利。雲南交投使用DataArts,把自己的6.3萬個文件、620億條業務資料和上百萬的現場圖片打造成了一套高品質的AI資料集。經過盤古大模型的4輪訓練迭代,打造出雲南交投自己的綠美通道·交通大模型。讓問答精準率較開源大模型提升 20%以上,車流預測精度提升約 10%。目前,盤古已在政務、金融、製造等30多個行業落地,覆蓋500多個場景。張平安強調,華為也將繼續加大盤古大模型的投入,持續深耕行業,支援各行各業的客戶做好自己的大模型,加速千行萬業智能化。除了大模型,在“算力黑土地”之上,華為雲還在將智能體(Agent)嵌入企業業務流程,實現從“單點能力輸出”向“場景自主服務”的跨越。不同於個人輕量化Agent,企業級Agent要直面業務流程複雜、幻覺容忍度低、運行要求高的挑戰。為此,華為雲打造Versatile企業級智能體平台,覆蓋Agent開發、營運、維運全生命周期,希望建構易用、好用、開放的Agent開發和運行平台,幫助行業客戶快速開發出各種AI Agent。以華為雲慧通差旅為例。如果僅以常規手段來建構差旅應用的AI Agent,不得不直面資料工程建構難、模型協同管理難、持續最佳化閉環難等一系列難題。僅建構資料,就面臨“兩難”:內部經驗難挖掘,外部資料風險高。這導致理解使用者意圖、生成出行規劃的“第一步”,就舉步維艱。而資料的邊界與質量,決定著Al的能力上限。為此,慧通差旅基於Versatile,打造出智能體“通寶”,涵蓋出差提醒、路徑規劃、智能問答等。利用“通寶”,企業的資料層通過內部積累、迭代,與行業資料集整合,實現了高品質、高智能。通過對酒店推薦Agent、行程規劃Agent、知識問答Agent等Agent多模混編,加上專業的“差旅垂域大模型”,則進一步消減了Al推薦的不確定性。這使得路徑規劃上,目前“通寶”的採用率已超50%,差旅人員2分鐘即可完成預訂。而在Versatile平台上,Agent開發效率提升3倍,資料與演算法迭代由“周”縮短至“天”。這不僅重塑了企業差旅出行的體驗和效率,也加速企業差旅管理由“成本中心”向“價值中心”飛躍。從CloudMatrix384超節點算力底座,到盤古大模型沉澱的行業智慧,再到Versatile智能體打通業務鏈路……所有這一切,都是為了“把簡單留給客戶”,以便讓企業專注於核心業務創新;“把複雜留給自己”,讓企業海量的資料、模型、Agent應用,都平穩、高效、安全地跑在華為雲上。這一連串的“黑土地”上的新碩果,驅動著全行業不斷走向價值高地。華為全聯接大會2025上,國際化的面孔和比例非常高,並且有大量來自海外的案例。華為高級副總裁、華為雲全球Marketing與銷售服務總裁楊友桂,公開了一些資料:在全球,華為雲覆蓋34個地理區域、101個可用區,建構起一張國內時延30ms、海外時延50ms的“全球一張網”。這張“全球存算網”不僅能提供極致彈性的雲基礎設施,還能通過 “資料使能”服務釋放資料價值,並提供了一站式AI開發平台,讓企業能夠建構AI原生應用,實現智能升級。覆蓋47國500余家門店、電商觸達100多國的土耳其TOP快時尚品牌Defacto,曾被兩大難題困擾:一是大促的10倍流量扛不住,二是線上線下兩套CRM系統導致資料割裂,影響收益。華為雲介入後,直接擊中痛點:一是用容器服務,30秒自動擴容4000個Pods,流量潮湧被瞬間化解;依託“全球一張網”,土耳其業務接入時延低於25ms,埃及市場響應時延低於50ms,購物頁面載入時間從1.5秒縮至260毫秒。自 2023 年上線至今,Defacto已實現連續659天穩定0事故運行。二是引入中國夥伴Techsun,打通線上與線下資料。從此,線上、線下拉新促活、行為分析、客戶分群等,都有了巨量資料支撐,實現精準行銷。對此,Defacto CIO Abdurrahman Kılınç直言:“在全球業務擴張過程中,華為雲的強力支援對我們至關重要,其價值無法估量。”如果說“全球一張網”能讓企業“跑更快”,那麼華為雲的資料使能服務,則能讓企業“跑得更智能”。巴西Top資料智能技術公司Neogrid,每天要處理200萬活躍商品資訊、50萬POS機即時交易資料。以前,由於資料分散在多家雲廠商,企業第二天才能拿到資料,決策始終“慢半拍”。華為雲資料倉儲服務DWS介入後,改變了這一狀況:通過多平台分散資料的搬遷與整合,Neogrid資料整合效率提升40%、資料分析效率提升50%,下班前就能拿到當天資料,為決策搶佔先機。而華為雲一站式AI開發平台,更是將算力、模型與工具鏈全端創新融為一體。在萬華化學,基於華為雲盤古預測大模型,2000多台關鍵裝置實現從“事後維修”到“預測性維護”的跨越,模型預測準確率從70%提至90%,異常識別效率提升10%。華為雲還將預測與推理大模型結合,幫助萬華建構了故障診斷系統,並打通萬華故障知識庫,生成包含根因分析和處置建議的精準報告,極大加速了維運閉環過程,人工巡檢時間下降20%。而借助Versatile Agent開發平台,萬華打造出標準作業程序文件SOP稽核Agent,文件智能稽核效率提升50%以上。在長安汽車,華為雲CodeArts軟體開發工具鏈賦能研發模式從“瀑布流”轉向“統一平台”,研發效率提升30%。同時,華為雲聯合中國聯通打造的“一雲一網一平台”,以5G+IoT聯接1.2萬台裝置,打破資料孤島,實現資料驅動的柔性製造,將訂單交付周期從21天縮至15天。這一連串的實踐證明,企業AI應用的核心,不在於演算法、工具是否炫酷,而在於能否紮根行業場景,成為解決實際問題的利器。技術的創新與場景的落地,讓華為雲收穫了市場與行業的雙重認可:在容器、資料庫等領域突破入圍9個Gartner魔力象限,在17個產品和解決方案維度位居領導者象限,斬獲30+細分領域第一。行業領域,華為雲在政務、工業、金融、汽車四大行業市場份額均居第一,躋身醫療、藥物、氣象、汽車四個領導者象限。規模上,華為雲AI算力規模較去年暴增268%,昇騰AI雲客戶從321家增至1805家,且覆蓋央國企、智駕、大模型、網際網路等多個行業。楊友桂表示,“把簡單留給使用者,把複雜留給自己一直是華為的關鍵價值之一。無論是算力基礎設施的突破性建構、盤古大模型對千行萬業的持續賦能,還是資料治理領域的創新實踐——我們通過技術攻堅將複雜性內化於解決方案,最終為客戶呈現極簡體驗。”楊友桂在訪談中坦言:“人工智慧是面向未來 30 年的一個產業,應該說現在剛剛開始。面向未來30年,我們需要全產業鏈所有的客戶,所有的夥伴,所有的雲廠家共同努力,這樣才能打造一個面向未來,造福全人類的人工智慧和跟數位化轉型的時代。華為有這樣的信心,也有這樣的能力,更有這樣的意願跟全球的客戶夥伴和其他的廠家一起合作,然後為人工智慧時代的到來做出我們應有的貢獻。”這種“簡單”與“複雜”的深刻轉換,恰恰構成了華為雲“爭”與“不爭”的關鍵抉擇。“不爭” 的,是對短期利益的追逐和對單一市場的執念;“大爭” 的,則是對未來技術的深度佈局,以及對全球AI產業的責任擔當。而這份佈局未來的“大爭”,不僅為中國的AI產業積蓄力量,更將為全球的數智化貢獻中國智慧和中國方案。 (華商韜略)