#雲服務
胡泳:會計造假、舉債擴張,我們正目睹一場人工智慧泡沬嗎?丨大聲思考
以預言2008年次貸危機聞名的投資者麥可·貝瑞,如今將目光投向市場最熱衷的主題之一:人工智慧。他重倉押注市場繁榮終將破滅,也就是說,他認為人工智慧已經形成了泡沫。2025年10月31日,他在X上寫道:“有時候,我們能看見泡沫。有時候,我們能對此採取行動。而有時候,唯一能贏的做法,就是不參與。”貝瑞擁有160萬粉絲。麥可·貝瑞關於“泡沫”的判斷在過去一個半月裡,他重新回到社交媒體,講述了一段關於超大規模資料中心和 人工智慧股票的極度看空故事;看起來先是賭輸了輝達,但隨後又贏了回來。然而,他並沒有像傳統投資者那樣進行“勝利巡遊”,反而註銷了自己的避險基金、任命了繼任者,並創辦名字驚悚的專欄:《解放了的卡珊德拉》(Cassandra Unchained)。註:卡珊德拉,希臘神話先知人物,擁有預言能力但被詛咒無人相信該新聞通訊的首篇文章《泡沫的主要跡象:供給側的暴食》,發表於11月24日,援引1990年代末網際網路狂熱與當下人工智慧熱潮的相似性,指出政策制定者在忽視泡沫。他毫不客氣地作了一個類比:上個時代的“鎬頭與鏟子”(pick-and-shovel)代表是思科,而今天的對應物則是輝達。黃仁勳向馬斯克、納德拉等矽谷巨頭賣鏟子,圖片由AI生成01 關鍵質疑:隱藏費用、會計造假貝瑞和華倫·巴菲特或許是當代最知名的兩位投資家。雖然都積累了巨大的財富,但他們在投資策略上幾乎毫無共同之處。巴菲特斥資逾40億美元大舉買入Google母公司Alphabet,而貝瑞卻通過看跌期權,做空兩隻人工智慧熱門股票Palantir和輝達,總金額超過10億美元。對於 Palantir 來說,貝瑞的擔憂很可能源於其過高的估值。但輝達的情況比較複雜。過去幾年裡,各超大規模雲服務商(指營運龐巨量資料中心、提供海量按需計算、儲存及網路服務的企業)投入了數千億美元,儘可能多地採購輝達的GPU。OpenAI星門項目一期位於美國阿比林市的資料中心 來源:OpenAI然而存在一個問題:這些硬體在財務報表上究竟是如何被計量和處理的。假設一家公司預計所購買的GPU的使用壽命為五年。如果它在某一年花費10億美元採購這些晶片,那麼通常會按照這一預期壽命進行平均折舊——也就是在未來五年中每年計提2億美元的折舊費用。由於折舊在會計上被視作費用,這筆“理論上的”年度折舊額會侵蝕企業當年的帳面利潤,從而相應降低其最終的淨利潤。然而,現實卻完全不同。早在人工智慧革命真正開始之前,輝達就已經以大約每兩年更新一次晶片架構的速度在迭代;而到了2024年,這一節奏進一步加速,變成了每年一次。在這樣的背景下,GPU的真實產品生命周期可能只有兩到三年。就目前而言,由於企業將這些支出攤銷在更長的周期上——在某些情況下是五到六年——它們每年需要確認的費用相對被拉低了,與實際折舊相比顯得更少,從而讓利潤看上去更高。在這裡,貝瑞本質上是在指控輝達及其客戶,通過虛高的利潤率來支撐一種會計上的“造假”行為。顯然,這讓單季度營收570億美元的輝達感到緊張。首席財務官科萊特·克雷斯在財報說明會上反駁了貝瑞關於輝達晶片使用壽命的說法,稱公司硬體因其CUDA軟體系統而具有長期耐用性和高效性。首席執行官黃仁勳則盛讚人工智慧為各類企業——從初創公司到Meta Platforms等大型企業——帶來的益處。不過當然,人工智慧變革的最大受益者正是輝達本身,對人工智慧晶片市場的壟斷地位正使其成為科技界的美國鑄幣局。就在今年的10月29日,輝達市值突破5兆美元,成為首家市值破5兆的上市公司,在過去四個月內,它的市值增加了1兆美元。根據世界銀行資料,如此市值已經超過了除美國和中國之外的所有國家的國內生產總值。黃仁勳認為自己是革新者,駁斥市場泡沫的擔憂:“我們在過去六七十年裡首次重新發明了計算。全世界已部署的所有電腦都在向加速計算、視訊GPU以及人工智慧方向逐步升級。因此,這一建設周期將在未來多年持續。”事實上,若剔除中國市場,輝達本季度全球其他地區營收實現了翻倍增長——考慮到該公司過去兩年業務已呈爆炸式擴張,這堪稱非凡成就。所有跡象都表明輝達的增長勢頭將繼續下去。包括Meta、微軟、Google和亞馬遜在內的多家科技巨頭均表示,將繼續增加人工智慧相關資本支出,其中大部分資金將流向輝達晶片。克雷斯甚至透露說,公司2026年12月結束的兩年期銷售額可能超過此前預估的5000億美元。該數字遠高於其截至2025年1月的財年營收1300億美元。黃仁勳和克雷斯對增長前景的樂觀態度無可厚非,但諸多疑問依然存在。GoogleCEO皮查伊向祖克柏賣鏟子,圖片由AI生成眾多競爭對手正試圖蠶食輝達的市場份額,其中最顯著的是Google——其TPU人工智慧晶片正贏得客戶青睞。Google近日正式推出的大模型Gemini 3就是用自研的TPU進行訓練的,雖功能相對專一,靈活性不及輝達晶片,但研發成本更低、滿負荷執行階段功耗也更小。Google的TPU晶片傳言將被Meta等大客戶採用,受此提振,Google母公司Alphabet股價一路高歌猛進。當地時間11月25日,Google股價創下歷史新高,市值逼近4兆美元大關。黃仁勳竭力平息外界對輝達競爭力的質疑,屢次以毫不掩飾的自誇口吻強調其技術優勢和廣泛客戶群。02 循環融資,同吹一個大氣球另一個疑問是:為何輝達持續達成看似循環往復的交易——投資那些承諾採購其晶片的企業?圍繞輝達的科技公司開始相互交織,形成循環融資的格局。例如,輝達在2025年9月承諾向OpenAI投資至多1000億美元,11月又宣佈將向Anthropic投資至多100億美元(微軟同時投資至多50億美元)。連續的投資實際上形成了一個龐大的人工智慧公司集團,它們彼此間反覆輸送著數以十億計的資金。黃仁勳直言不諱地告訴分析師,輝達正“用現金資助自身增長”。除了輝達,另一大引擎當然是OpenAI。儘管它尚未上市,但已成為整個股市的風向標。其收入相比龐大的承諾規模仍然微不足道,預計2025年收入為130億美元,但它已簽署累計超過1.4兆美元算力合同。許多科技巨頭高度依賴於與OpenAI的合同,甲骨文的情況尤為明顯。為了滿足OpenAI不斷增長的基礎設施需求,甲骨文正在投入數百億美元購買輝達晶片,但龐大債務的問題也隨之浮現:在發行180億美元債券及獲得380億美元貸款後,甲骨文債務總額逼近960億美元,其利息支出可能吞噬季度淨利潤30億美元中的更大份額。如果OpenAI突然不再需要甲骨文的全部雲端運算容量,或者無法為其龐大的承諾融資,那麼甲骨文又該如何支付輝達?更關鍵的問題是,這些巨額投資將如何運作?當前的人工智慧投資網路彷彿2008年前的抵押貸款市場,多個參與者相互依賴,形成一個緊密耦合的系統。在這種系統中,局部的失敗會迅速傳播。如果 OpenAI 的收入增長未達預期,它對甲骨文的支付能力就會受質疑;如果甲骨文無法交付承諾的計算能力,其股價就會下跌;如果股價下跌,拉里·埃裡森的財富和甲骨文的籌資能力就會受損。這個鏈條可以繼續延伸到整個金融系統。這種背景下,人工智慧模型開發商、超大規模資料中心營運商以及晶片公司之間的大型合作公告不斷增加。另一種解讀認為,這些合作傳遞出一種緊迫感——各方都在爭相滿足激增的計算需求。人工智慧領域的領導者正在整個價值鏈上進行協調,以確保供應能夠跟上創新的速度。這樣的觀點有其合理性,但不可否認的是,幫助買家融資購買產品,並非拓展市場的最可持續方式。03 舉債擴張的兩面:加速創新、放大風險有關泡沫的第三個疑問是錢從那裡來。其實循環融資已經揭示了一些走向,但更大的問題是債務融資。阿爾特曼與黃仁勳掀起了整個科技界的大規模投資熱潮。這些投資並非可以點選取消的軟體收購或金融投資,而是實實在在的重資產資本支出(CAPEX)。科技巨頭們曾經主要依靠雲服務和廣告等核心業務產生的強勁現金流來推動人工智慧的擴張。然而,資料中心建設的規模如今需要比內部資源所能提供的更多資本,巨頭們不再滿足於依賴自由現金流。外部融資被提到了前所未有的高度——公司紛紛通過發行債券、股權融資,甚至尋求私募信貸等方式,為資料中心的建設籌集資金。Meta聯手私募巨頭Blue Owl通過發行債券籌資270億美元建設Hyperion資料中心,創下私募債發行紀錄。微軟牽頭成立300億人工智慧投資基金,最終計畫通過債務融資等方式籌集高達1000億美元資金。OpenAI與AMD達成的戰略合作,以“股權換訂單”。在連續兩年增長超過60%之後,超大規模雲服務商的資本支出預計將在2026年再增長30%,總額將超過5000億美元,遠高於2025年初預估的10%增幅。資本支出擴張與舉債融資齊頭並進,引發市場對這種激進的人工智慧投入愈發緊張,更令人擔憂的是臭名昭著的表外債務使用。Meta與埃隆·馬斯克旗下的xAI公司均通過特殊目的載體(Special Purpose Vehicle,SPV)進行表外融資,以滿足其人工智慧資料中心和晶片基礎設施所需的巨額資本支出。此舉使它們能夠借入數十億美元資金,同時避免全部債務負擔出現在主資產負債表上,從而保持高信用評級和低槓桿率。安然的警示於此再次出現。對於還記得其史詩般倒閉的人來說,表外債務的上升可能就是煤礦裡的金絲雀。所有這一切源於企業資本支出已逼近現金流承載極限。自2024年以來,亞馬遜、Google、Meta和微軟的自由現金流已經出現下降跡象。企業可能日益依賴債務來建構人工智慧模型所需的基礎設施與計算能力。更進一步的預測顯示,到2028年全球資料中心支出可能達到3兆美元,其中很大一部分將通過外部融資實現。儘管該行業的現金流依然強勁,每年總額達數千億美元,但投資速度正在超過現金流增長速度。這種轉變可能支援人工智慧的持續創新,但也引入了在早期階段並不突出的槓桿效應。當大型科技公司使用的融資手段包括企業債、證券化市場、私人融資以及表外工具,不免讓人聯想到2008年金融危機時期的操作。04 “從來不會只有一隻蟑螂”市場專家還擔心系統性風險,因為這些投資如今佔美國GDP增長的比例已超過 40%。到現在為止,2025年美國股市漲幅的80%來自人工智慧企業。人工智慧驅動的股市吸引著全球資金湧入,為美國經濟增長提供資金並推動其發展。《金融時報》撰稿人魯奇爾·夏爾馬總結道:“美國已變成一場押注人工智慧的豪賭。”一個不可否認的事實是,自2022年11月ChatGPT推出以來,人工智慧類股一直是美股增長的核心動力。標普500成分股中人工智慧相關公司在過去近3年時間的回報率高達165%,不僅大幅領先指數整體68%的回報,更是非人工智慧企業24%回報率的近7倍。美國股市,尤其是標普500,長期以來都存在異常集中的現象,尤其是自疫情以來情形更甚。但過去這種集中是廣泛分佈於科技股之中,最近則明顯縮窄至單一類股:人工智慧。主要科技公司對應標普500市值佔比,資料截止到10月17日,來源:CNBC五家公司——輝達、Google、微軟、蘋果和亞馬遜——就相當於標普500總市值的30%。換句話說,投資標普500——一個包含近500家公司、被視為最具代表性的美國經濟指標的指數——已經不再提供被動投資者所期望的分散化優勢。不過,投資者至今也沒有太多理由抱怨,因為在回報方面,這種集中反而帶來了好處:過去五年,標普500幾乎翻倍(上漲95%),自2025年初以來又上漲了16%。夏爾馬指出,若剔除這些巨額人工智慧投資的回報,“即便是歐洲股市,本十年也已跑贏美國,而這一差距現在開始擴大。截至2025年,從公用事業、工業到醫療保健及銀行業,全球其他地區所有主要行業表現均優於美國。”甚至連正統經濟學家、前歐巴馬政府高級經濟學家傑森·弗曼也表示,如果沒有大型科技公司對人工智慧的投資,美國GDP的年化增長率將僅為0.1%。這一幾乎停滯的增長凸顯了高科技基礎設施在塑造宏觀經濟方面日益關鍵的作用。但衡量一個國家經濟健康的指標之一是多樣性。古老的格言“不把所有雞蛋放在一個籃子裡”說明了為什麼不應過度依賴單一出口或產品作為繁榮的來源。目前,這些人工智慧的投資,以及由此帶動的最富有10%人口的大規模消費,似乎在支撐著美國經濟。與此同時,美國底層90%的勞動者則在勉力應對物價上漲和勞動力市場趨平的困境。由於最富有的10%人口持有85%的美國股票,當股價上漲時他們享受著最大的財富效應。難怪最新資料顯示,收入最高的前10%人群貢獻了半數消費支出,創下有記錄以來的最高份額。換句話說,那些大量持有股票、深度押注股市的最富有的美國人,正在為經濟貢獻遠超以往的消費佔比,使整個經濟結構更加脆弱。一旦股市出現25%甚至更大的調整,消費者支出必然受到衝擊——遑論如果跌幅達到50%,後果將更加嚴重。更重要的是,人工智慧熱潮背後還有一隻政府的“手”。美國政府將人工智慧視為國家戰略競爭的核心,這意味著它要在這個領域大舉加碼,同時也更放鬆監管。白宮剛剛宣佈啟動的“創世紀計畫” 就是顯例。川普推行的寬鬆的人工智慧監管,無疑會進一步放大槓桿化和估值過熱的問題。但造成更深遠影響的問題還有更多:人工智慧接管經濟對就業的打擊、能源價格高企與碳排放加劇、兒童安全與成年人精神健康、個人隱私與社會公平保障等等。可以相當肯定地說,如果大型科技公司所宣稱的人工智慧潛力未能兌現,整個美國經濟將面臨嚴峻挑戰,波及全社會。若聽信阿爾特曼或黃仁勳的說法,人工智慧的益處遠大於風險。但或許,那些對推動人工智慧發展不存在既得利益的人,才應該主導其監管方式。05 泡沫,沒有泡沫?全看基本面把上面這些問題放在一起看,人工智慧既是突破,也存在泡沫的可能。一方面人工智慧已成為美國經濟的驅動力,點燃了華爾街投資者的想像力,但另一方面輝達和OpenAI驚人的增長(它現在是歷史上唯一一家估值達到5000億美元的私營公司)也給投資者敲響了警鐘:股市和經濟越來越依賴於一群科技公司,這些公司正在源源不斷地創造數十億美元的利潤,並斥巨資開發未經證實的技術,而這些技術需要帶來巨大的回報。儘管人工智慧革命確實存在,其影響幾乎波及每一個行業,但圍繞它的“紙牌屋”特質難以忽視。實際上,推動華爾街上漲的同一批機構投資者,也在為風險投資和私募股權基金輸血。向人工智慧傾斜的趨勢非常明顯且單向:在過去兩年裡,風險投資行業每投資的兩美元中就有一美元流向人工智慧初創企業,領頭的自然是OpenAI和Anthropic,這些公司在近期融資輪中已籌集數百億美元。這也解釋了為什麼今天說一家公司“做人工智慧”,幾乎和說“開發軟體”一樣寬泛。人工智慧的領域非常廣泛,已不再有必要把人工智慧投資視為獨立類別;可以說,人工智慧正在悄悄地“吞噬世界”。金礦熱潮往往會吸引淘金者誤把“愚人金”當真貨。許多公司給相對普通的服務貼上“AI”標籤,必然會出現一波低品質的“AI垃圾”——製造噪音、混淆視聽、抬高預期。這種“AI洗地”的現象,讓人想起上世紀90年代末的網際網路泡沫時代:只要在初創公司的名字裡加上“.com”,估值就會被迅速推高——但最終證明大多隻是虛幻的繁榮。不過,如果黃仁勳對人工智慧的判斷是正確的,那麼從長遠來看,現有的擔憂都是次要的。人工智慧市場不太可能像網際網路泡沫那樣崩塌,因為企業推動力強勁,基礎設施已經承諾支援其成功。矽谷巨頭組團吹泡泡,圖片由AI生成我們可以從三個關鍵方面看到今天與網際網路泡沫年代的區別。首先是穩健的資產負債表。雖然出現了循環融資與外部融資的情形,如今的投資浪潮背後是有自由現金流和穩健利潤率支撐的。領先的人工智慧企業盈利能力強、現金流充足,其多元化的收入來源也提供了一定緩衝,例如,微軟的企業業務和亞馬遜的電商基礎能夠產生穩定現金流,有助於緩解風險。考慮到過去的許多泡沫都是在信貸收緊時破裂的,這一輪建設對類似壓力顯得更具韌性。許多人也將今天的情況與90年代供應商循環融資進行了比較,當時電信基礎設施公司互相融資以誇大增長。然而,如今的交易有所不同。資本可以說是在追逐人工智慧,而不是相反,且支出主要用於實際基礎設施,如晶片、電氣裝置和資料中心。其次,人工智慧公司具備收入動能。早期網際網路公司通常是先建後賺,而人工智慧公司則是在建設過程中就開始變現。超大規模資料中心營運商已經通過雲服務需求增加以及在程式設計、廣告和企業工具中的生產力提升獲得回報。模型開發商的商業模式仍在初期,但以OpenAI和Anthropic為代表的美國企業在個人使用者和企業使用者兩端均已實現可觀收入。阿爾特曼發推表示,預計2025年底OpenAI的年化收入將超過200億美元,比之前預測的130億美元大幅增長,相比2024年的40億美元更是增長5倍,並計畫到2030年增長至數千億美元。同時,市場已準備好快速採用能夠產生收入的工具和高效模型,企業的採用率在提升。畢馬威最新人工智慧調查顯示,企業平均人工智慧投資額較第一季度增長14%,達到1.3億美元,這得益於人工智慧應用案例帶來的可見生產力與盈利能力提升。人工智慧技術被廣泛採納並在創造實際價值,麥肯錫的調查顯示,大多數企業已經在至少一個業務職能中常規使用人工智慧,且商業付費和合同規模在快速增長,說明不是純實驗性炒作。再次,計算需求遠超供應。任何大規模資本投資浪潮都存在過度建設的風險。在網際網路泡沫高峰期,光纖網路的利用率僅約7%,留下了大量過剩產能,消化這些產能花費了多年時間。而在今天,資料中心空置率創歷史低點,利用率約為80%。過去三年產生的資料量超過歷史總和,人工智慧工作負載正在以巨大的規模增長。鑑於此,阿爾特曼才認為,根據當前觀察到的人工智慧使用趨勢及使用者需求規模,OpenAI所面臨的算力不足的風險,遠比算力過剩更為嚴峻,且更可能發生。除了生成式聊天機器人,機器人技術和物理人工智慧將成為下一次躍遷,為經濟和市場帶來可見的、實際的轉型。這是支援技術在實體經濟中長期存在的理由。最終,人們寄望於人工智慧發展中最強的參與者創造持久價值,務實而不是投機將佔據上風。畢竟,人工智慧屬於通用目的技術,極有可能從根本上改變大量經濟活動的運作方式,從而提升生產力與經濟增長。其變革潛力可與電力相媲美,通過持久改進我們的工作方式和生活方式,不僅令現有的許多活動被做得更好、更高效,還可能開啟全新的發現領域,尤其在健康與教育領域具有重大潛力。以上還僅僅是基於當下人工智慧能力的樂觀估計。而對通用人工智慧的追求意味著,這一技術前沿不會停滯不前;它將持續躍進,帶來一些我們目前難以完全理解的發展。這些發展將包括人工智慧與機器人技術、生命科學甚至最終與量子計算的融合。歷史表明,過去的革命性技術趨勢總是伴隨波動,人工智慧也不例外。就像網際網路時代一樣,雖然網際網路的願景最終成真,但過度投資的泡沫必須破裂,估值過高的市場必須崩塌,整個市場才能真正起飛。 (騰訊科技)
估值不便宜,基本面又很強:理性投資者該如何判斷Google的多空機會?
Google系列的終章篇;將從最近新聞大熱的Google TPU到雲服務,詳細、總結性分析“看多”與“看空”Google的理由。如果你對投資Google有興趣,那麼這篇值得閱讀。(註:系列文章,翻譯自Acquired播客,上期文章和資料來源連結已放在文末,Ben & David是播客的主持人)Ben:在過去 12 個月裡,Google創造了 3700 億美元的營收。在利潤方面,他們在過去 12 個月裡創造了 1400 億美元,這比任何其他科技公司的利潤都要多。放眼全球,唯一一家收益高於Google的公司是沙烏地阿拉伯阿美。別忘了,Google擁有史上最好的商業模式。我們在 Alphabet 那期節目的結尾也提到過這一點:即便身處 AI 時代,即便經歷了過去 5 年乃至10 年的風雲變幻,自我們在 2015-2016 年做完Alphabet 節目以來,Google的核心業務依然增長了 5 倍。再看市值。Google突破了之前 2 兆美元的高點,並在本月早些時候剛剛觸及 3 兆美元大關。他們目前是全球市值第四高的公司,僅次於輝達、微軟和蘋果。這簡直太瘋狂了。看他們的資產負債表,我覺得這其實非常有趣。我通常不會在這個環節看資產負債表,但這很有用。目前,他們擁有 950 億美元的現金和有價證券。我差點就此打住,想說:“哇,看他們擁有多少現金和資源。”但我實際上驚訝的是,這個數字居然沒有更高。2021 年時這個數字曾是 1400 億美元,而在過去四年裡,他們發生了巨大的轉變,從囤積現金的模式轉變為配置現金的模式,其中很大一部分用於建設 AI 資料中心的資本支出(Capex)。所以,他們在資本支出配置上非常有進攻性,就像 Meta、微軟和亞馬遜一樣。但我有點沒想通的是,資金支出的最大頭實際上是股票回購,而且他們還開始派發股息了。如果你不是搞金融的,這背後的潛台詞是:是的,我們仍然需要大量現金來投資 AI 和資料中心的未來,但我們手頭的現金實際上還是遠超所需,所以我們決定將其分給股東。這說明了他們的核心搜尋廣告業務是多麼瘋狂。這就好比他們在說:“商業史上資本最密集的競賽正在進行,我們打算贏得這場比賽。而且,在預留了足夠的資金投入這場資本支出競賽,並加上安全墊之後,我們手裡還有大把多餘的現金。”Google不為人熟悉的“雲服務”業務Ben: 所以,這裡有兩個業務值得關注。一是 Gemini,我們要搞清楚那裡發生了什麼;二是Google雲(Google Cloud)的簡史。我想告訴你今天的雲業務資料,但在此之前,有必要瞭解一下雲業務是如何走到這一步的可能更有價值。首先是 Gemini,因為這是Google,我認為他們的財務狀況是我們在所有研究過的公司中最晦澀難懂的。他們在財務報表裡“藏球”的能力最讓我抓狂。當然,我們不知道 Gemini 的具體營收。我們所知道的是,Google One 捆綁套餐有超過 1.5 億付費訂閱者。其中大部分處於非常低的檔位,比如每月 5 美元或 10 美元。AI 功能是在每月 20 美元的檔位才生效,在這個檔位使用者可以獲得高級 AI 功能,但我認為目前這在 1.5 億使用者中只佔很小的一部分。David:是的,我想我就在這個檔位。Ben:但有兩點值得注意。第一,它增長迅速。這 1.5 億使用者正以同比近 50% 的速度增長。第二,Google擁有一個 1.5 億人訂閱的訂閱套餐。所以我腦海裡一直有個想法,即 AI 作為一種人們直接付費的商業模式是沒有未來的,還是它必須像搜尋一樣由廣告支援?David:但是,這可不是個小數目。Ben:這幾乎相當於半個美國的人口。我的意思是,Netflix(網飛) 有多少訂閱者?Netflix 的使用者數是以億計的。這是真正成規模的消費者訂閱服務。我要感謝 Shashir Moroto 提供的這個洞察。實際上我們昨晚聊過,因為我在上一期節目中提到了他的名字,他聽到後聯絡了我們。那次談話讓我對此的態度發生了一百八十度大轉彎。我曾經認為,如果你要對某樣東西收費,你的總潛在市場(TAM)就會縮水 90% 到 99%。但他提出的觀點是,如果你建構一個真正引人注目的捆綁套餐——而Google擁有建構引人注目的捆綁包所需的數位資產。YouTube Premium、NFL Sunday Ticket、Play Store 裡的東西、YouTube Music,以及所有 Google One 儲存服務。他們可以把 AI 放入這個捆綁包,通過巧妙的捆綁經濟學,打造出一款付費 AI 產品,並真正觸達海量的付費訂閱使用者。所以,我們真的無法弄清楚Gemini 現在賺多少錢。反正可能也不盈利。所以,分析它有什麼意義呢?但是,好吧,給我們講講雲業務的故事。我們在 Alphabet 那期節目——也就是實際上是“Google第二部”中——故意沒有包含雲業務。因為它是一個新產品,現在在Google內部非常成功,且對 AI 來說太具有戰略意義了。它最早是作為 Google App Engine(Google應用引擎)起步的。那是 2008 年,人們快速為網頁(後來的移動應用)搭建後端的方法。它是一種平台即服務(PaaS)。所以你必須以這種非常狹隘的“Google式”方式做事。你必須使用特定的 SDK,必須用 Python 或 Java 編寫,必須完全按照他們想要的方式部署。它不是那種會對你說:“嘿,開發者,你想幹什麼都行,只要用我們的基礎設施就好”的東西。它預設性很強。這與 AWS 當時的做法完全不同,也與他們今天的做法不同。後來全世界都意識到 AWS 的路子是對的,即雲端運算應該是基礎設施即服務(IaaS)。甚至微軟也相當快地將 Azure 轉型到了這個方向,就像是:你想要儲存,我們有儲存給你。你想要虛擬機器,我們有虛擬機器給你。就連微軟也相當迅速地將 Azure 轉型到了這個方向,即:你想要儲存?我們有。你想要虛擬機器(VM)?我們有。你想要算力,想要資料庫?我們都能滿足。最終,Google在 2012 年推出了自己的基礎設施即服務。花了四年時間。他們推出了 Google Compute Engine,後來更名為 Google Cloud Platform(Google雲平台)。這就是今天這項業務的名稱。外界對Google的詬病在於,他們似乎永遠搞不懂如何與企業客戶打交道。他們的核心業務是製造人們喜愛的、打磨得極好的產品,並儘可能讓這些產品自助服務化,然後通過廣告商賺錢。老實說,除了使用Google搜尋,人們別無選擇,對吧?它並不一定需要為廣告客戶提供極佳的企業級體驗,因為客戶無論如何都會來,對吧?所以他們習慣了這種自助服務體驗。與此同時,雲端運算市場是一場殘酷的肉搏戰(knife fight)。這些都是大宗商品,一切都關乎企業客戶。這是關於儘可能低的價格,關於企業關係,關於巧妙的捆綁銷售,以及能否提供完整的解決方案David:你說“解決方案”,我想到的是“毛利率”。Ben:是的,所以Google在這個領域走出了他們的舒適區。早期他們不想洩露任何“皇冠上的明珠”。他們將自己的基礎設施視為秘密武器。我們不想讓別人使用它。我們在上面為自己編寫的最好的軟體工具,比如 Bigtable、Borg(Google的叢集管理系統)或 Disbelief,這些服務我們不會在Google雲上提供。這些是競爭優勢。但,Thomas Kurian 來了之後,一切都打破了。2017 年,在他加入的前兩年,這項業務營運了 10 年後營收只有 40 億美元。2018 年,他們第一個非常明智的戰略決策點是,推出了Kubernetes。這裡的智慧是:如果我們讓開發者將應用程式遷移到其他雲變得更便攜——世界某種程度上希望這裡是多雲策略,對吧?我們是第三名。我們沒什麼可輸的。所以我們可以提供這個工具,作為一種針對 AWS 和 Azure 的反向定位。我們改變開發者的範式,讓他們使用這些容器。他們在我們的平台上進行編排,然後你知道,我們有很棒的服務來為你管理它。這非常聰明。所以這成為了他們戰略的支柱之一:你想要多雲?我們會讓這變得簡單,你當然也可以選擇 AWS 或 Azure。這很棒。所以 David,正如你所說,還有誰比甲骨文(Oracle)前總裁 Thomas Kurian 更瞭解企業需求的人呢?這直接體現在了它們的營收增長上,2020年,他們營收突破 130 億美元,三年內幾乎翻了三倍。他們在市場推廣(GTM)部門招聘了大約 1 萬人。我沒誇張。而在他來的時候,這個部門只有 150 人,且大部分都在加州,並沒有在區域上分佈到全球各地。最有趣的是,Google一直以來某種程度上就是一家雲公司。他們有最好的工程師建構這個驚人的基礎設施,對吧?他們有產品,有基礎設施,只是沒有市場推廣組織,對吧?而且產品化完全是“Google式”的。就像是為我們自己,為工程師做的。他們並沒有真正建構讓企業按照自己想要的方式建構的東西。這一切都改變了。2022 年,他們的收入達到 260 億美元。2023 年,他們就像是一個真正可行的第三大雲服務商。他們還在 2023 年實現了盈利。如今,他們的年收入運行率超過 500億美元。同比增長 30%。他們是主要雲服務提供商中增長最快的,五年增長了 5 倍。這主要歸功於三點:第一,徹底覺醒,明白了如何真正服務企業客戶;第二,傾力投入多雲戰略,真正給企業開發者他們想要的東西;第三,AI對所有超大規模雲廠商來說都是巨大的順風,因為這些工作負載都需要在雲端運行,涉及海量資料、海量算力和能源。但在Google雲,你可以使用 TPU(張量處理單元),他們生產了大量的 TPU,而其他所有人都在拚命地向輝達購買GPU 的配額。所以,如果你願意不使用 CUDA 並在Google的技術堆疊上建構,他們有充足的 TPU 供你使用。我認為Google雲有兩個方面是他們在當初用App Engine 創業時未曾預見,但今天對Google具有巨大戰略意義的。第一,雲僅僅是 AI 的分發機制。所以如果你今天想玩轉 AI,你要麼需要一個偉大的應用,一個偉大的模型,一款偉大的晶片,要麼需要一朵偉大的雲。Google正試圖同時擁有這四樣。沒有其他公司能擁有超過一項。我認為這是正確的決策。想想那些 AI巨頭。輝達有晶片,算是有雲但也不完全是。他們只有晶片,最好的晶片,人人都想要的晶片,但終究是晶片。然後再看看其他科技巨頭。Meta 目前只有一個應用,他們在前沿模型的競賽中完全出局了。我們還要看看他們的招聘狂潮會帶來什麼結果。你看亞馬遜的基礎設施,他們有雲,也許有應用。我實際上不知道 Amazon.com 是否在很多方面受益於大語言模型(LLM)。雲的領導者,微軟雲,也只是雲,對吧?他們做一些模型,但我的意思是他們有應用、雲。蘋果什麼都沒有。AMD 只有晶片。OpenAI 有 AI 模型。Anthropic有模型。這些公司沒有自己的資料中心。他們雖然在嚷嚷著要造自己的晶片,但並沒有真正落實,肯定沒有達到規模化。Google擁有規模化的資料中心、規模化的晶片、規模化的模型使用量。我的意思是,甚至僅僅從 google.com 現在的 AI 概覽(AI Overviews)查詢和規模化應用來看。他們擁有 AI 的所有支柱,我認為沒有其他公司擁有超過一項,而且他們有最多的淨利潤可以用來“燒錢”。對吧?然後是這其中具體的晶片方面。如果Google沒有雲,它就不會有晶片業務。它只會有內部晶片業務。外部公司、使用者、開發者、模型研究人員能夠使用 TPU 的唯一途徑,就是Google擁有一個雲來交付它們,因為亞馬遜或微軟絕不可能把Google的TPU 放在他們的雲裡。我想大概一年內這可能會發生。已經有傳言說未來幾個月一些新興雲服務商(NeoClouds)將提供 TPU。雖然還沒官宣,但 TPU 很可能很快會在新興雲服務商中可用,這是一件有趣的事情。Google為什麼要這麼做?他們是想建立一個像輝達那樣靠賣晶片賺錢的業務嗎?我不這麼認為。我認為更多的是他們試圖圍繞自己的晶片建立一個生態系統,就像 CUDA 那樣。只有當你的晶片在人們運行現有工作負載的任何地方都可訪問時,你才能可信地做到這一點。如果這真的發生,會很有趣。也許有一天TPU 會出現在 AWS 或 Azure 上,但我不認為他們一開始就能做到這一點。如果Google沒有雲,也沒有任何途徑讓開發者使用 TPU 並開始想要 TPU,亞馬遜或微軟會說:“啊,你知道,好吧,Google,我們會拿一些你們的 TPU,即使外面沒有開發者使用它們。”對吧。對Google的“看多”與“看空”分析David : 我想我們這次結尾需要做一個“看多和看空”(Bull and Bear)分析。Ben: Google擁有通向基本上全人類的分發管道,作為網際網路的“前門”。他們可以隨心所欲地引導流量。你已經在 AI 概覽中看到了,也在 AI 模式中看到了。儘管很多人用 ChatGPT 做很多事情,但我假設Google的流量本質上仍處於歷史最高水平,而且這是一種默認行為,非常強大。所以這是對執行力的押注,賭Google能弄清楚如何執行並利用 AI 建立一個偉大的業務,但這仍然是他們可能會輸掉的局。而且他們有一個可行的產品,我不覺得 Gemini 比 OpenAI 或Anthropic 的產品差。這是關於價值創造(Value Creation)與價值捕獲(Value Capture)的問題。價值創造肯定是非常巨大的,價值捕獲的機制還有待觀察。Google舊的價值捕獲機制是歷史上最好的之一。所以,這就是眼前的問題。我們不要混淆,這不僅是一個好的體驗,這是一個極好的體驗。所以我們已經討論過,Google擁有贏得AI 競賽的所有能力,而且優勢明顯。基礎模型、晶片、超大規模雲服務,所有這些都有自我造血的資金支援。我的意思是,另一件瘋狂的事情是,你看雲廠商有自我造血的資金。輝達有自我造血的資金。沒有一家模型製造商有自我造血的資金,所以他們都依賴外部資本。Google是唯一擁有自我造血資金的模型製造商。這不瘋狂嗎?基本上,所有其他大規模使用的基礎模型公司實際上都是初創公司。而Google是由一個巨大的資金漏斗資助的,這個漏斗大到他們為了好玩把多餘的美元還給股東。再說一次,我們在談“看多”的情況。有一點我們沒提到,Google擁有連接其所有資料中的“粗管道”(fat pipes,高頻寬網路)。在 2000 年網際網路泡沫破滅後,Google以極低的價格買下了所有那些暗光纖(dark fiber),並在過去十年中一直在啟動它們。他們現在擁有資料中心之間自己的私有回程網路。沒有人擁有這樣的基礎設施。更不用說這還服務於 YouTube。那是真正的“粗管道”,這本身就是Google未來的一個看多理由。他們不僅可以在涵蓋長視訊和短影片的唯一規模化 UGC(使用者生成內容)媒體源上訓練模型,而且YouTube作為第二大搜尋引擎和巨大的目標網站,他們也擁有這些資源。所以他們預覽了一些功能,比如你將能夠購買視訊中出現的由 AI 標記或 AI 確定的物品。如果他們願意,他們可以去標記每一個視訊中的每一個產品,讓它們瞬間變得可購物。這不需要任何人工操作。他們可以直接做,然後在上面運行他們的標準廣告模型。然後還有他們一直在建構的所有視訊AI 應用,如 Flow 和 Veo。這將為 YouTube 生成視訊帶來什麼,是增加 YouTube 的參與度還是廣告收入呢?他們仍然擁有瘋狂的人才儲備。即使,你知道,他們總是在這裡、那裡流失了一些人才。但,他們也表明願意為合適的人才花費數十億美元並留住他們。讓我們談談晶片的單位經濟模型。每個人都在支付輝達 75%-80% 的毛利率,這意味著晶片的製造成本被加價了 4 到 5 倍。很多人稱之為“黃仁勳稅”(Jensen tax)或“輝達稅”。你可以這麼叫,也可以稱之為好生意,或者定價權,或者供應稀缺,隨你怎麼說。但這確實是事實。任何不自己製造晶片的人都在向輝達支付巨額溢價。Google仍然需要向他們的晶片硬體合作夥伴博通(Broadcom)支付一定的利潤,博通負責處理大量晶片與台積電(TSMC)介面的工作。我聽說博通在與Google合作 TPU 時的毛利率約為 50%,而輝達是 80%。但這仍然是一個巨大的差異。供應商 50% 的毛利率和 80% 的毛利率,區別在於 2 倍加價和 5 倍加價。當你這樣建構框架時,這對成本影響實際上是巨大的差異。所以你可能會適當地想,好吧,晶片真的是運行這些資料中心或訓練這些模型的總擁有成本(TCO)的大頭嗎?晶片是成本的主要驅動因素,但它們折舊非常快。我的意思是,5年就折舊,因為我們在推進晶片能力極限的速度、下一代模型的需求、台積電的生產速度方面都太快了。如果你認為你的 AI 晶片能折舊 5 年,五年前我們離 ChatGPT 還有兩年呢,對吧?或者想想黃仁勳在今年的 GTC 大會上說的話。他在談論 Blackwell 晶片,提到 Hopper 晶片時說:“呃,你不會想要 Hopper 的。”我的銷售人員會恨我,但在這一點上你真的不會想要 Hopper。要知道,這些可是 H100 啊。就在我們做最近那期輝達節目時,這還是最炙手可熱的晶片。事情變化得很快。所以我看到有估算說,營運一個 AI 資料中心的成本中,超過一半是晶片及其相關折舊。人力成本即研發(R&D)實際上也是相當高的一筆,因為僱傭這些 AI 研究人員和所有軟體工程人員是一筆不小的開支,大概佔 25% 到 33%。電力實際上只佔很小一部分,大約是2% 到 6%。所以當你考慮Google正在做的事情的經濟性時,它實際上讓你評估付給晶片供應商溢價,因為晶片是整個AI中最大的成本驅支出。所以我用 Gavin Baker(Atreides Management 的合夥人)來核實這其中的一些內容。他是一位偉大的股票投資者,長期研究這個領域。我們實際上在輝達 GTC節目中採訪過他,他指出,通常在歷史上的技術時代,成為低成本生產商並沒有那麼重要。Google贏不是因為它是成本最低的搜尋引擎,蘋果贏不是因為它是成本最低的。你知道,那不是人們獲勝的原因。但這個時代可能真的不同,因為這些AI 公司沒有像我們在科技行業習慣的那樣擁有 80% 的利潤率,或者至少在軟體業務中,這些 AI 公司充其量看起來像 50% 的毛利率。(註:也就說,AI公司比過去的科技公司毛利潤率更低,因此節省成本對它們來說很重要)所以,Google絕對是 Token的低成本提供商,因為他們營運著自己的所有基礎設施,並且能夠獲得低加價的硬體。這實際上會產生巨大的差異,可能意味著他們將成為為世界生產 Token 的贏家。我要為Google的看多案例再加一個要點。我們在第二部,也就是 Alphabet 那一集中談到的所有內容,Google內部的所有其他產品,Gmail、地圖、文件、Chrome、Android,那都是關於你的個性化資料,Google擁有這些資料,他們可以用它為你建立其他人無法做到的個性化 AI 產品。所以結束“看多”的真正問題在於,與搜尋相比,AI 會是一個好生意嗎?搜尋是一個很棒的生意,到目前為止 AI 還不是。但抽象來看,再次強調我們在談看多情況。所以我給你這個答案:它應該是一個好生意。在傳統的網路搜尋中,你輸入兩到三個詞——平均查詢長度。在 AI 聊天中,你通常會輸入 20 多個詞。所以應該會出現一種廣告模式,而且廣告費率實際上應該大幅提高,因為你有完美的精確度,對吧?你非常清楚那個使用者想要什麼,所以你可以真正決定是否向他們投放廣告。而 AI 應該非常擅長投放廣告。所以這一切都關乎弄清楚使用者介面、付費與免費的混合比例,以及這種廣告模式到底是什麼樣的。但在理論上,即使我們現在真的不知道產品是什麼樣子的,它實際上應該非常適合變現。而且由於 AI 擁有如此驚人的變革性體驗,所有這些在現實世界中發生或根本沒有發生的互動,比如回答問題和消磨時間,現在都可以在AI 聊天中發生。所以,數字互動的蛋糕實際上似乎比搜尋時代更大了。所以再次強調,變現應該會在某種程度上增加,因為那裡的蛋糕變大了。然後還有一個“銀河大腦”等級的看多理由,那就是如果Google真的創造了通用人工智慧(AGI),這些都不重要了。當然它是最有價值的東西。到目前為止,這些談起來都很有趣,但 AI 的產品形態並不適合廣告。所以儘管價值創造更多,但價值捕獲卻少得多。根據美國的一些粗略計算,Google每年從每個使用者身上賺取大約 400 美元。這是一個每個人都使用的免費服務,他們每年賺 400 美元。誰會為了使用 AI 每年支付 400 美元?人群比例佔比很少。有些人肯定會,但不是美國的每個人。所以如果你只看今天場面上的局勢,我看不到直接的價值捕獲路徑。想想Google在 1998 年推出時,僅僅 2 年後他們就有了 AdWords。他們瞬間想出了一個驚人的價值捕獲機制,非常快。另一個看空案例。回想 1998 年Google推出時,它顯然立即就是更優越的產品。David:是的,現在不是這種情況。Ben:不,現在有四五個很棒的產品。Google在聊天機器人方面的專用 AI 產品最初顯然是劣質產品,現在它可能與其他幾個產品不相上下,對吧?他們擁有 90% 的搜尋市場。我不知道他們擁有多少 AI 市場,但肯定不是 90%。但在穩定狀態下,可能會是 25% 左右,也許高達 50%。這將是一個有幾個大玩家的市場。所以,即使他們像在搜尋中那樣從每個使用者身上變現,但它們的使用者規模將會少很多,或者至少現在看起來肯定是這樣。AI 可能會奪走搜尋引擎的大部分使用者。即使沒有,我打賭它也會奪走很多高價值的使用者。我認為我唯一要補充的另一個看空理由是,他們現在面臨著作為在位者的額外挑戰——即使用者喜歡支援“弱者”挑戰強者,正如現在的AI初創公司更得人心,是吧?人心,難以量化;但會讓其道路變得有些艱難曲折。曾經,Google創業時,公眾喜歡和支援它們;如今,公眾已經不那麼待見這些高科技公司。它們變成了強者,不在是弱者了。同樣,全球的輿論時局也發生了微妙的變化,這影響了OpenAI、Anthropic 等初創公司,它們不得不在一開始就表現的像一家大型的、成熟的科技公司。使用者對科技公司的態度和包容性在縮小。Google的未來“潛力”分析Ben: 我們用 Hamilton Helmer 的“七種力量”來分析 AI 時代的Google。這七種力量是:規模效應(Scale Economies)網路效應(Network Economies)反向定位(Counter positioning)轉換成本(Switching Costs)品牌(Branding)稀缺資源(Cornered Resource)流程優勢(Process Power)問題是,其中那一種能使企業獲得持久的差異化回報?什麼賦予了他們持續獲得比最近的競爭對手更高利潤的權利?通常我們會對整個業務進行分析。我認為這期節目我們應該試著將其範圍限定在 AI 產品上。Gemini、AI 模式和 AI 概覽的使用,對比Anthropic、OpenAI、Perplexity、Grok、Meta AI 等競爭對手,規模效應是肯定的。也許,在 AI 領域比傳統科技領域更甚。我的意思是,他們正在將模型訓練成本分攤到每一次Google搜尋中。我肯定 AI 概覽背後是一些超級精簡的模型,但想想其他模型公司生成了多少推理 token,而 Gemini 生成了多少推理 token。他們只是將固定的訓練成本分攤到了海量的推理上。2024 年 4 月,Google在其所有平台上處理了 10 兆個 token。到 2025 年 4 月,這個數字幾乎是 500 兆。也就是,Google服務通過推理分發的 token 數量在一年內增加了 50 倍。而在 2025 年 4 月到 2025 年 6 月之間,它從略低於 500 兆增加到了略低於 1000 兆。技術上是 980 兆,但現在,因為已經是夏末了,肯定已經傳送了甚至數千兆的 token。David:是的,規模經濟肯定是最大的一個。Ben:我發現轉換成本相對較低。我用 Gemini 做一些事情,然後真的很容易切換走。David: 當它是個性化 AI,整合到行程、郵件和所有其它東西的時候,情況可能就不一樣了。Ben: 是的,轉換成本在 AI 產品中還沒有真正顯現出來,儘管我預計它們會出現。Ben: 網路效應。我不認為如果有其他人是 Gemini 使用者,這會對我更好,因為無論是否有人參與,他們都在吸納整個網際網路。我肯定AI 公司會隨著時間的推移發展出網路效應。David: Ok,把分發放在那裡?Ben: 儘管 ChatGPT 擁有“舒潔”(Kleenex,代指品類代名詞)般的品牌,但沒人擁有Google那樣的分發。Google的分發仍然令人難以置信。David: 那算是稀缺資源嗎?Ben: 我想是吧,Google搜尋肯定是一種稀缺資源。我不認為他們有流程優勢,除非他們能可靠地想出下一個 Transformer。上文中提到看空觀點,說他們是在位者。可對於大多數人來說,他們是信任Google的。他們可能不信任一些不知名的 AI 公司,但會信任Google。所以,總結一下,規模經濟是Google最大的一個優勢,其它還有品牌效應和稀缺資源,以及未來轉換成本的潛力。在花了數小時、數月瞭解這家公司之後,我提煉出的精髓是,這是“創新者的窘境”有史以來最迷人的案例。我的意思是,Larry 和 Sergey 控制著公司。他們曾多次公開表示,寧願破產也不願在 AI 上失敗。他們真的會這樣做嗎?如果 AI 不像搜尋那樣是一門好生意——感覺它當然會是,僅僅因為巨大的價值創造。但如果它不是,而他們在兩個結果之間做選擇:一個是實現我們組織世界資訊並使其普遍可訪問和有用的使命,另一個是擁有世界上最賺錢的科技公司。那一個會贏?因為如果只是為了使命,他們在 AI 模式上應該比現在激進得多,並且完全切換到 Gemini。這是一個非常難以拿捏的平衡。實際上,他們目前在保護核心特許經營權方面的管理方式給我留下了深刻印象,但這可能是那種基礎正在被侵蝕,卻不知為什麼尚未在財務資料中顯現出來的事情之一。我認為如果你看所有的大型科技公司,Google,儘管考慮到起步的情況看起來不太可能,但可能是目前在 AI 領域試圖穿針引線做得最好的。這對 “劈柴哥” 和他們的領導層來說是非常值得稱讚的。他們正在做出艱難的決定,比如我們要合併 DeepMind 和 Brain。我們要整合併標準化為一個模型,我們要真正快速地發佈這些東西,同時不做出魯莽的決定。迅速但不魯莽,你知道。顯然我們仍處於AI發生的早期階段,我們將看到 10 年後這一切會如何收場。被賦予管理一個使命和管理一個擁有公開市場股東的特許經營權的業務,是一個艱難的雙重使命,“劈柴哥” 和Google處理得非常好,特別是考慮到他們 5 年前的處境。我認為這將是歷史上最令人著迷的案例之一,值得我們拭目以待。好了,我們的Google系列暫時到此結束。重要事實披露:文章僅用於投資商業分析學習資料,不做投資建議或參考。對於曾經或以後探討或翻譯的系列公司,作者本人也許持有某一些公司股票的投資組合。但,作者本人堅決不做個股推薦!投資有風險,決策需謹慎!本文翻譯自:https://www.youtube.com/watch?v=lCEB7xHer5U&list=PLjZkFWu3rWSE2cZ8L2CbiRMmHtJeF0kHh&index=4&t=148s (希芙的星空)
微軟與輝達共同投資Anthropic,三方達成重磅合作 | News
巨頭聯手,AI雲服務格局再洗牌。本周,微軟(Microsoft)與輝達(Nvidia)共同宣佈,對人工智慧公司Anthropic進行新一輪大規模投資。微軟將向Anthropic投資50億美元,輝達則將投入100億美元。與此同時,Anthropic 計畫在未來的一段時間內,至少投入300億美元在微軟Azure雲服務上,用於租用配備輝達晶片的伺服器,其AI模型也將首次在Azure平台上向企業客戶開放。Anthropic目前的股東包括亞馬遜(Amazon)和Google(Google)。其大模型訓練和部署長期依賴這兩家公司的雲基礎設施。Anthropic在最新聲明中特別強調:“Amazon 仍然是 Anthropic 的主要雲服務提供商和訓練合作夥伴。”這意味著此次與微軟的深度合作,並未改變其與亞馬遜之間的核心技術關係。微軟此次動作,也顯示出其正在進一步拓展與OpenAI之外其他領先AI公司的合作。微軟此前已向OpenAI投資約130億美元,並在自家產品中復用OpenAI的模型;而OpenAI則承諾在未來幾年於Azure雲服務上投入超過2500億美元。今年起,微軟也開始在部分產品中採用 Anthropic的模型。與投資OpenAI不同的是,微軟此次對Anthropic的投資並不包含 Anthropic模型的智慧財產權使用權,雙方合作模式更偏向雲基礎設施服務與算力支援。微軟首席執行官薩提亞·納德拉(Satya Nadella)在公佈合作的視訊中表示,AI 行業不應陷入“零和競爭”或“贏家通吃”的敘事,他指出:“這個機會實在太大了,不可能用其他方式來推進。”在輝達方面的資訊中,Anthropic起始投入的300億美元,將用於租用約1吉瓦算力規模的Azure伺服器。這些伺服器將搭載輝達最新的Grace Blackwell和Vera Rubin晶片。微軟補充表示,未來Anthropic還將最多再簽約額外1吉瓦的算力容量。至於微軟是否會專門建設新的資料中心來滿足此次合作帶來的算力需求,微軟方面並未給出明確回應。通常來說,建設一個擁有1吉瓦容量的資料中心,雲服務商需要投入的成本約為500億美元。隨著微軟、輝達與 Anthropic 的深度繫結,全球 AI 雲基礎設施和大模型生態可能再次迎來重要調整。未來雙方在算力、模型產品與雲市場中的進一步合作,預計也將成為產業關注的焦點。 (創新觀察局)
美國初創公司GMI Cloud將在台灣建立5億美中繼資料中心
美國資料中心營運商GMI Cloud計畫在台灣建立一個價值5億美元的新設施,加入Alphabet Inc.旗下Google等更大規模的企業,提供雲服務給全球最先進的晶片製造基地。這家位於加利福尼亞州山景城的初創公司計畫建立一個16兆瓦的項目,由Nvidia Corp.的7000枚Blackwell Ultra晶片驅動。首席執行官Alex Yeh表示,該公司正在從幾家台灣銀行籌集4億美元作為交易的一部分,但並未透露任何貸款機構的名稱。根據Yeh和公司聲明,該站點預計將在大約四月上線時能夠每秒處理近200萬個代幣。GMI Cloud是包括Amazon.com Inc.和Microsoft Corp.在內的幾家公司之一,他們試圖在亞洲建立資料中心,以應對該地區對人工智慧發展的巨大需求。各國政府也在探索建立本土AI平台的方法,以促進國內經濟並確保對這種潛在革命性技術的影響力。Yeh表示,GMI Cloud正在與Reflection AI合作,為台灣島內建立一個AI平台,台灣擁有包括台積電和富士康科技集團在內的世界級製造商。Yeh表示,初創公司已為其位於台灣北部城市桃園的所謂“AI工廠”排定了一批客戶。Yeh還表示,GMI Cloud正在尋求在今年年底前再籌集2億美元融資,不過他拒絕透露估值。根據Yeh的說法,初創公司的現有投資者包括Headline Asia和Nvidia伺服器的主要組裝商緯創公司。除了美國和台灣,初創公司還在日本、新加坡和泰國營運。桑文表示,公司計畫在11月20日於舊金山的活動上正式宣佈融資輪的結束及其企業計畫的細節。“我們看到來自全球的需求,”他說。 (Benchmark Studio)
亞馬遜1.4萬人裁員潮中,被AI“淘汰”的員工們
早上8點,陳宇像往常一樣醒來,發現自己被公司凌晨“清退”了:企業信箱無法登錄,所有系統權限被關閉,聯絡不上任何同事,只有一封同步到私人信箱的裁員郵件。他在亞馬遜廣告部門工作了近兩年,最終只能通過領英私信他的部門領導,結果得知對方“也被裁了”。科技公司在AI競爭中重新定義了人與崗位這是亞馬遜自2022年末以來規模最大的一次裁員行動。據亞馬遜傳送給員工的郵件,10月28日,亞馬遜裁退了1.4萬人。波及範圍有中國、美國、加拿大、西班牙等全球各地。在裁員的同一周,亞馬遜發佈三季度財報,AWS雲服務創下自2022年以來最快增速。財報顯示,雲服務是支撐整個利潤體系的核心類股,三季度營收增速20.2%,達到330億美元。當日公司開盤股價上漲11%,市值增長近3000億美元。通知裁員消息後至今,亞馬遜市值上漲約4000億美元,最新市值2.66兆美元。利多和陰影同時交織在這家老牌科技巨頭身上。公司業績大漲,投資者普遍把裁員解讀為“降本提效訊號”,股價受到情緒提振。但在公司內部,多位員工表示工作氛圍變得沉默,有的工作量翻了兩倍,有的在改簡歷準備跳槽,剛入職的新人更是怕“等不到新年就要離開”。據當地媒體報導,亞馬遜的下一波大規模裁員預計將在明年1月開始。此前,有媒體報導稱亞馬遜將裁減多達3萬個崗位的消息,預計將逐步完成。自2022年以來,亞馬遜一直在縮減公司員工規模,迄今已裁員超過2.7萬人。這類情況並非只在亞馬遜上演。過去兩年,微軟、Google、Meta等美國科技巨頭做出相似的選擇:一邊裁撤數以萬計的崗位,一邊擴大在AI基礎設施與模型訓練上的投資。《財經》梳理近一年美國科技公司的裁員資訊發現,在頭部海外科技企業已公佈的裁員資訊中,今年累計涉及的員工總數已超過9萬人,中國、北美、歐洲、印度等全球主要市場均有涉及。裁員理由包括人工智慧的整合、消費需求的放緩、業務重組與資本投資,以及更廣泛的成本削減措施。科技行業正在進入一個新的拐點——機器的學習曲線越來越快,而人的崗位在重新被定義。對於很多從業者來說,裁員並不意外,但真正落到自己身上卻猝不及防,他們被拋向更殘酷的就業市場,重新思考職場的位置。01 裁員風暴陳宇完全沒做好被裁的準備。最近一段時間,他所在的團隊在籌備11月美國最大的購物節,壓力倍增。裁員前一天,他還在琢磨手頭的程式碼工作。看到公司即將裁員的新聞時,也沒有太在意,心想“團隊在廣告部很能賺錢”,直到他收到解僱郵件。陳宇想不通。在接到解僱通知當天,高層領導通過線上會議走完了例行公事,主要內容是通知後續安排,持續十多分鐘結束。領導表示裁員“不是隨機的”,內部有一套“準則”,但拒絕透露具體內容。美國職場平台Zety調查發現,“冷通知”已經成為行業解僱常態——被裁員工多達57%是通過電子郵件或電話得知消息,僅有30%是面對面通知。當日,不用上班的陳宇留在家裡,他形容自己整個人處於“懵”的狀態,沒怎麼吃飯,被頭痛一直折磨到半夜。亞馬遜是陳宇畢業後入職的第一家公司,他擔任軟體開發工程師,做了兩年多。他所在的團隊裡,被裁的有兩個,一個是任期最短的陳宇,一個是空降半年的新領導。《財經》瞭解到,亞馬遜此次裁員波及範圍廣泛,涉及電商零售體系(包括定價、支付、商品目錄等營運線)、智能裝置與語音助手(Devices & Alexa)、內容與娛樂業務(Prime Video & Amazon Games)、廣告業務線,以及核心的雲服務AWS多個團隊。受影響的地區包括中國、美國、加拿大、西班牙等。一份亞馬遜提交給美國華盛頓州政府的裁員檔案顯示,亞馬遜在華盛頓州裁員2303名企業員工,技術研發類崗位(軟體開發、資料工程等)是重災區,人數約600人,其中軟體開發工程師(SDE)一、二級崗位合計裁員343人,佔華盛頓州裁員總數約15%。另一大受影響的領域是人力資源與招聘崗,約200人。高等級的職位也在被裁減之列。據已有報導,亞馬遜零售部門的中層管理人員受裁員影響最大,被裁撤的職位中,超過78%的職位由L5至L7等級的經理擔任。亞馬遜發給員工的郵件裡表示,被裁員的員工將獲得90天的過渡期,可以選擇在公司內部尋找新職位,或者拿著包括遣散費等過渡性支援離開。但內部轉崗競爭激烈。適合陳宇的本地崗位有9個,每一個崗位平均都有三十多人在排隊申請轉崗。為了提高成功率,陳宇傾向於迴避同時對外招聘的崗位,因為“那樣競爭壓力會更大”。外部就業市場同樣艱難。職業諮詢公司Challenger, Gray & Christmas的最新資料顯示,今年10月,美國裁員人數153074人,較9月激增183%,較去年同期增長175%,創下22年以來歷史新高。對於在海外工作的中國員工來說,形勢更加嚴峻。失去工作後,陳宇擔心簽證問題。從最後一次領取離職金算起,他面臨60天倒計時,如果沒有找到下一份工作,美國工作簽證將自動失效。02 倖存員工也被影響今年剛畢業的於瑜“幸運”躲過了這次裁員。他花了半年,投了七八百份簡歷才成功“上岸”找到工作,沒想到在亞馬遜待了三四個月,就迎來了裁員潮。裁員消息傳出的那天晚上,於瑜無法入睡。他形容這種焦慮無法控制,輾轉Reddit、小紅書等各大社交平台,刷資訊,試圖拼湊出裁員的邏輯,發現校招生也有被裁的先例,直到第二天成功登錄進公司系統,才“放心一點”。“倖存”的員工們感受到了裁員帶來的另一重影響——公司裡氣氛變得壓抑。於瑜回憶,亞馬遜西雅圖辦公室平日裡氛圍活躍,同事間經常聊天,有不少員工會帶寵物上班。但在裁員前一天,這種活躍突然消失了。於瑜感到不對勁,正常小組的同事會待到五點左右下班,那天下午三點半,辦公室裡就空了,他所在的小組有十幾人,最後只剩下他和另外一位同事。裁員當天,這種“冷清”變得更直觀。於瑜上班到中午,發現大約四分之一的工位是空的,辦公室裡異常安靜,同事們不再說說笑笑,“有種蕭條感”。於瑜不確定是否真的安全,每隔五分鐘就要檢查一次信箱,怕收到裁員郵件,“雖然知道看也沒用,但還是幹一會兒就想確認一下。”裁員成了懸在員工頭上的劍。亞馬遜上一次這麼大規模的裁員還是在2022年底,約有2.7萬個崗位,分批進行裁撤。如今,一些倖存員工稱“暫時安全”,和被裁在家的陳宇一樣,他們也在修改簡歷,看市場機會。在零售部門擔任資料分析師的林安,經歷了三輪裁員震盪。她2022年入職亞馬遜,目睹同屆不少新人被裁,在首輪裁員潮倖存下來。然而,在2023年夏天,她還是接到了被裁通知,最終通過轉組保住了工作,但她仍然“心有餘悸”。面對新一輪裁員,林安已經“心態放平”。裁員前一天,林安做足了準備,她提前總結好工作內容,以防被踢出系統,還研究了請假規定,計畫將裁員的過渡期拉到最長。群裡有同事提醒,趕緊先把電話費報銷了。她把裁員當作推動跳槽的契機,一邊注重日常工作的“留痕”,詳細記錄項目內容和技能成長,一邊持續更新簡歷、留意市場機會,參與企業面試。於瑜也開始修改簡歷。面對科技行業普遍的裁員潮,他認為保持面試手感更為重要,“到被裁再準備就晚了。”在持續的動盪中,員工對公司的信任正被侵蝕。林安提到,隔壁組陸續走了不少人,認識的同事因此經常超負荷幹活,但這次同樣被裁撤。裁員的壓力正在傳導給留下的人。留下來的管理層需要監督更多的員工,沒被裁的員工需要承擔更重的工作量。陳宇離開的小組,這次承接了一個被裁小組的所有業務,人手變少的同時,工作量是之前的兩倍。研究公司Gartner的資料顯示,在美國裁員潮中倖存的主管們,如今監督的員工數量幾乎是十年前的三倍。2017年,每五名員工對應一名經理;到2023年,這一比例上升到每十五名員工對應一名經理,且似乎還在進一步提升。03 “節儉”至上美國科技行業大舉裁員的根源之一,是它們不再高速增長。亞馬遜曾經歷過猛烈的擴張期。2020年新冠疫情暴發,居家隔離帶來的線上購物需求激增,推動亞馬遜進行了前所未有的招聘,員工規模多次擴大。這一年,亞馬遜淨利潤幾乎翻了一倍,達到213億美元,新增了50萬個工作崗位,全球員工總數首次超過100萬。當時,在科技行業,風靡一時的熱門話題之一,是疫情下的“企業同理心和領導力”。還有一些科技巨頭利用危機搶奪新創公司人才,不乏蘋果、Google,展開大規模招聘,搜尋軟體工程師、資料科學家、產品設計師等。但當世界進入後疫情時代的“平穩期”,裁員潮反而越演越烈。2022年底,以Meta為代表的多家大型公司裁員上萬人,矽谷和美國企業界掀起裁員潮,最終影響了超過25萬人。包括Meta的董事長馬克·祖克柏在內的許多科技領袖都表示,此次裁員是過去兩年過度招聘的結果。外加宏觀經濟形勢嚴峻,這些公司出於對潛在經濟衰退的擔憂,優先考慮控制員工人數。亞馬遜是代表性案例之一。自2022年底以來,這家科技巨頭已經陸續裁減超過2.7萬名員工——2023年初宣佈約1.8萬人,同年3月追加約9000人;2024年1月在 Prime Video和MGM工作室部門削減數百人,4月深入到AWS雲服務核心盈利部門,裁員數百人。這股寒意延續至今。在此次亞馬遜大規模裁員之外,美國企業環境也正在經歷抵達歷史最高峰值的裁員潮。根據職業諮詢公司Challenger, Gray & Christmas資料,今年上半年,美國僱主解僱了近74.5萬人。從2009年至今,這一數值創同期歷史第二高,僅低於 2020年上半年,新冠疫情幾乎導致全球經濟停擺的時期。五年間,亞馬遜自身也在發生巨變。2021年,創始人傑夫·貝佐斯卸任,安迪·賈西接棒首席執行官。上任後,賈西以更注重成本削減和審慎投資的姿態,打造了一個更符合華爾街“期待”的亞馬遜。賈西上任後,亞馬遜處在疫情紅利消退的下行周期。疫情帶來的電商繁榮不再,亞馬遜的零售主業增速開始放緩。與此同時,該公司面臨著來自Shein、Temu等折扣零售平台的競爭,這些平台低價銷售從中國直接發貨的各種商品。疊加通膨和加息帶來的資本市場壓力,亞馬遜的股價在2022年全年下跌過半,市值一度蒸發超過1兆美元,成為歷史上首家遭遇如此規模市值縮水的公司。來自華爾街的壓力是即時且具體的。與創始人貝佐斯不同的是,賈西開始將與投資者的互動提升到新水平。從2023年2月開始,他開始出席財報電話會議,這一舉動被外界視為更直接與投資者溝通的訊號,因為貝佐斯在後期已基本放棄了這種做法。“節儉”被賈西放在首位。這一理念首先體現在持續三年的裁員潮上,其理由也從最初的“修正疫情過度擴張”,逐步演變為“裁減管理層級、提升效率,並將資本更集中投入到AI基礎設施”。除了裁員,賈西還削減了大量實體零售商店,並砍掉了一些盈利能力較差或未經證實的項目,包括人行道上的移動機器人、遠端醫療服務、健康和健身可穿戴裝置以及虛擬旅遊項目。2024年9月,賈西提出亞馬遜扁平化組織結構的計畫,同時要求員工恢復每周五天在辦公室工作。他為亞馬遜多個主要部門設定了目標,即到2025年一季度末,將普通員工與管理人員的比例至少提高15%,以減少管理人員數量。2025年6月,賈西在內部給員工的備忘錄中寫道,生成式人工智慧正在改變公司的工作流程,預計在未來幾年減少公司的員工總數,並鼓勵員工“擁抱AI轉型”。04 裁員與擴張並存在削減人力成本的同時,賈西正在將省下的,乃至更多的錢,投向以AI為核心的算力基礎設施上。作為貝佐斯欽點的接班人,賈西出身亞馬遜雲服務AWS部門,並主導帶領雲服務成為亞馬遜最盈利的業務部門。資料分析機構GlobalData分析師尼爾·桑德斯(Neil Saunders)在一份聲明中稱,亞馬遜這次2025年的大裁員,標誌著一個“從人力資本轉向技術基礎設施的臨界點”。亞馬遜是今年四大科技巨頭(微軟、亞馬遜、Google、Meta)中資本支出最高的公司:其預計2025年的資本支出將高達1250億美元,高於華爾街當前預期的1175億美元,較2024年增長55%以上,2026年還將繼續增加。相比之下,Google、微軟、Meta今年的資本支出都在1000億美元以下。Google2025年資本支出預計在910億至930億美元之間,Meta預計為700億至720億美元,而微軟為646億美元。這些錢正在用於採購更多的算力。2025年三季度雲服務AWS營收增速20.2%,達到330億美元。財報電話會議中,賈西表示:“AWS增長速度自2022年以來前所未見,我們將繼續看到AI和核心基礎設施的強勁需求,並著力加速擴容。”賈西同時透露,截至三季度末,AWS未完成訂單額增至約2000億美元,10月份又有超越全季的新大單,增長勢頭強勁。過去12個月,亞馬遜新增約3.8吉瓦電力容量,是行業中增速最快的廠商之一,並計畫在2027年實現總算力翻倍。在AI競賽中,亞馬遜還有一個核心“盟友”,是其對標OpenAI的AI初創公司Anthropic(詳見:《OpenAI、Anthropic台前鬥法,微軟、亞馬遜幕後對壘》)。亞馬遜已累計承諾向Anthropic投資高達80億美元。今年10月,亞馬遜啟動了代號為“雷尼爾計畫”(Project Rainier)的工程,斥資110億美元建設AI資料中心,專門用於訓練和運行Anthropic的模型。亞馬遜預計,到2025年底,Anthropic將使用其100萬顆自研的Trainium2晶片,此舉將帶來數十億美元的業務規模。這場押注於AI基礎設施的豪賭,也在重新定義“人”的角色。亞馬遜的老員工逐漸習慣了管理層在緊縮開支和快速擴張之間的動盪,由於裁員範圍不限於中高層員工,他們不再篤信內部晉陞,而是轉向了隨時準備跳槽的理性自保。新員工尚未開始積累經驗,就已陷入了如何保住工作,以及不被AI取代的焦慮中。經歷了裁員衝擊後,林安不再把全部熱情投入到“升職、晉級”的職業發展路徑上,她將目標轉向那些更具成長性、有不同商業模式的AI初創公司。於瑜是軟體開發工程師,現在大部分程式碼工作都交給了AI去寫,由此產生的危機感也更強。他考慮的職業轉向有兩類,要麼是去和AI強相關的核心部門(如AWS),要麼是不容易被AI取代、需要和人打交道的銷售崗。在他看來,工程師的高薪使其成為“降成本”的首選。“軟體工程師未來不到10年可能就會被徹底取代了。”於瑜說。 (財經雜誌)
輝達、甲骨文、OpenAI ,到底誰出1000億美金?
由“大模型-雲基建-算力晶片”三巨頭建構的閉環已然成型。“ONO”的強強聯手看起來像是一次只許成功、不許失敗的“鐵索連環”。矽谷AI界似乎從不缺天價交易。當地時間9月22日(週一),輝達宣佈了對OpenAI最高1000億美元的投資計畫,該消息將這一算力巨頭再次捧上高位。其股價週一一度漲超4%,刷新歷史新高,總市值逼近4.5萬億美元。動輒展開價值千億美元的合作,是“ONO”(OpenAI、Nvidia、Oracle)這三家AI巨頭之間正在上演的畫面,通過巨額投資與戰略牽手,它們似乎建構了一個緊密的“三角關係”,用以建構下一代AI算力帝國。這張圖清晰地展現了這個由“大模型-雲基建-算力晶片”三巨頭建構的閉環。一切始於OpenAI與甲骨文的一筆天價合同。今年6月,出現了甲骨文與OpenAI交易的首次跡象,當時甲骨文在一份監管檔案中表示,已達成一項雲服務協議,該協議將在 2027 財年帶來超過 300 億美元的收入。隨後有報導稱,OpenAI已與甲骨文簽署合同,將在約五年內向後者購買價值3000億美元的算力服務,該合同將於2027年開始實施,年均支出約600億美元。這份合約金額不僅遠超過OpenAI目前的營收、同時也是史上規模最大的雲端合約之一,被視作OpenAI“星際之門”(Stargate)計畫的關鍵一步;9月22日,輝達加入,完成了這輪閉環,該公司計畫向OpenAI投資最高1000億美元,雙方將共同建設大規模資料中心。根據協議,OpenAI將利用輝達系統建設並部署至少10吉瓦的人工智慧(AI)資料中心,用於訓練和運行下一代模型。這一耗電量相當於800萬戶美國家庭的用電量。輝達CEO黃仁勳週一在接受採訪時表示,10吉瓦相當於400萬至500萬塊圖形處理器(GPU),約等於輝達今年的出貨總量,是去年的兩倍。背後的利益傳導邏輯似乎再清晰不過。OpenAI向甲骨文購買雲服務;甲骨文作為硬體基礎設施供應商,負責建設並營運龐大的資料中心,為了提供這些服務,它需要向輝達採購大量的GPU晶片,資金在很大程度上流回輝達;緊接著,輝達再將其部分利潤以戰略投資的形式返還給OpenAI,支援其進一步的AI基礎設施建設。疑惑留給了眾人——巨額資金在多方手中循環一圈後,似乎又回到了原點,若成功運行,OpenAI解決了算力荒的難題、甲骨文獲得了搭建數字中心所需的算力硬體、輝達賣出了更多的硬體產品。這到底是AI的正向資本循環,還是卡bug的資本遊戲?一個不可忽視的事實是,儘管輝達、甲骨文的股價均因此大漲,但OpenAI目前並無造血能力。作為估值千億美元的AI應用巨頭,OpenAI遠未實現盈利。相反,它正在不斷虧損,據The Information此前報導,根據未公開的內部財務資料及業內專家的分析,2025年OpenAI預計虧損超50億美元。今年6月,OpenAI披露其年收入約為100億美元,這還不到其每年用於建設資料中心和從甲骨文租用計算能力的600億美元支出的五分之一。與此同時,甲骨文一路狂奔背後也存在隱患——高負債和負現金流。其債務負擔相對於其現金持有量,已經遠高於微軟、亞馬遜和Meta等其他雲服務商。據報導,甲骨文為跟上AI熱潮而進行的支出已經超過了現金流,微軟的總債務股本比為32.7%,而甲骨文為427%。這讓“ONO”的強強聯手看起來像是一次只許成功、不許失敗的“鐵索連環”。 (財聯社AI daily)
這一戰,Google準備了十年
9月3日,一則消息在科技圈引起了軒然大波:Google開始對外出售TPU了。據報導,Google近期已在接觸那些主要租賃輝達晶片的小型雲服務提供商,敦促他們在其資料中心也託管Google自家的AI處理器,也就是TPU。Google已與至少一家雲服務提供商——總部位於倫敦的Fluidstack——達成協議,將在紐約的一個資料中心部署其TPU。Google的努力不止於此。據報導,該公司還向其他以輝達為核心的服務商尋求類似的合作,其中包括正在為OpenAI建造資料中心的Crusoe,以及向微軟租賃晶片並與OpenAI簽有供應合同的輝達“親兒子”CoreWeave。9月9日,花旗分析師因TPU競爭加劇將輝達目標價下調至200美元,預計2026年GPU銷售額將因此減少約120億美元。明眼人都能看出來的是,Google和輝達之間的大戰,已經開始了。而它們爭奪的,將是AI計算這個真正的兆美元市場。然而,Google對這一戰的準備,其實比我們想像的都要久。01. TPU,AI計算的最優解?早在2006年,Google的內部就討論過在自家的資料中心中部署GPU、FPGA或ASIC的可能性。不過,當時只有少數應用程式能夠在這些特殊硬體上運行,而Google大型資料中心的過剩算力也完全夠它們使用了。因此,部署特殊硬體的計畫被擱置。然而,到了2013年,Google的研究人員發現:如果人們每天使用語音搜尋並通過深度神經網路進行3分鐘的語音識別,那麼當時Google的資料中心需要雙倍的算力才能滿足日益增長的計算需求。而如果僅通過擴巨量資料中心規模來滿足算力需求,不但耗時,而且成本高昂。於是,在這個背景下,Google開始了TPU的設計。Google的TPU是為AI計算而生的ASIC晶片,它專注於實現兩個核心目標:極高的矩陣乘法吞吐量與卓越的能效。為了實現高吞吐量,TPU在硬體層面採用了“脈動陣列”(Systolic Array)架構。該架構由大量簡單的處理單元(PE)構成網格。資料流從陣列的邊緣輸入,在每個時鐘周期同步地、一步步地流經相鄰的處理單元。每個單元執行一次乘法累加運算,並將中間結果直接傳遞給下一個。這種設計使得資料在陣列內部被高度復用,最大限度地減少了對高延遲、高功耗主記憶體的訪問,從而實現了驚人的處理速度。而其卓越能效的秘訣,則在於軟硬體協同的“提前編譯”(Ahead-of-Time Compilation)策略。傳統的通用晶片需要高能耗的快取來應對多樣的、不可預測的資料訪問。TPU則不同,它的編譯器在程式執行前就完整規劃好了所有資料路徑,這種確定性使其無需複雜的快取機制,從而大幅降低了能耗。在TPU的設計上,Google主導整體架構與功能定義,博通Broadcom參與了部分晶片的中後端設計工作,目前,Google TPU主要由台積電代工生產。隨著大語言模型參數的急劇擴張,AI計算任務正在從“訓練”走向“推理”。這時,作為通用算力單元的GPU,開始顯露出成本以及功耗過高的問題。而TPU從設計之初就專門瞄準了AI計算,具有很高的性價比優勢。據報導,GoogleTPU算力成本僅為OpenAI使用GPU成本的1/5,性能功耗比更是優於同代GPU。因此,為了抓住市場,Google圍繞著自己的TPU架構,打造了一系列產品與生態。02. Google造芯這十年Google第一代TPU (v1) 於2015年推出,通過高度簡化的專用設計,實現了超越同期CPU與GPU的能效比,並在AlphaGo等項目中展示了其高效能,從而驗證了AI ASIC的技術路徑。隨著研發深入,訓練環節的算力瓶頸日益凸顯,促使TPU的設計方向轉向系統級解決方案。2017年發佈的TPU v2為此引入了BF16資料格式以支援模型訓練,並配置了高頻寬記憶體(HBM)。更為關鍵的是,v2通過定製的高速網路將256個晶片單元互聯,首次建構了TPU Pod系統。隨後的TPU v3通過增加計算單元數量和引入大規模液冷技術,實現了性能的顯著提升。TPU v4的發佈帶來了互聯技術的重大革新,其核心是採用了光學電路交換(OCS)技術,實現了TPU Pod內部網路拓撲的動態重構,從而提升了大規模訓練任務的容錯能力與執行效率。進入v5與v6 (Trillium) 階段,TPU產品線呈現出分化策略,形成了分別側重於極致性能的'p'系列與能效比的'e'系列,以適應多樣化的AI應用場景。2025年Google TPU的全年出貨量預計為250萬片。v5系列總出貨量預計為190萬⽚,其中v5e佔⽐約120萬⽚,v5p佔⽐約70萬⽚, v6系列預計總出貨量為60萬⽚,⽬前僅v6e在市場上銷售,⽽v6p將在第四季度上市,約10-20萬⽚左右。預計到2026年,總體TPU銷量將超過300萬片。在今年的Google雲大會上,Google發佈了第七代TPU,代號“Ironwood”。Ironwood是Google迄今為止性能最強、能效最高且最節能的TPU晶片,其峰值算力達到4614 TFLOPs,記憶體容量為192GB,頻寬高達7.2 Tbps,每瓦峰值算力為29.3 TFLOPs。此外,Ironwood首次支援FP8計算格式,並在張量核和矩陣數學單元中實現這一功能,這使得其在處理大規模推理任務時更加高效。Ironwood最高配叢集可擁有9216個液冷晶片,峰值算力可達42.5 ExaFLOPS,是世界上最大的超級電腦El Capitan的24倍以上。其支援大規模平行處理和高效記憶體訪問,適用於複雜的推理任務如大型語言模型和混合專家模型。事實上,Ironwood的整體性能已經十分接近輝達B200,甚至在一些方面還有所超越。當然,輝達的統治力不僅在於其硬體性能,更在於整個CUDA生態。Google深知這一點,因此,它也建構了JAX這樣的,能在TPU上運行的高性能計算Python庫。Google還發佈了其模型流水線解決方案“Pathway”,用於向外部開發者訓練大型語言模型(LLM)。將其作為訓練模型的必備手冊,研究人員無需重新設計模型即可開發Gemini等LLM。有了上述的一整個“軍火庫“,Google終於可以和輝達掰掰手腕了。03. Googlevs輝達投資銀行D.A. Davidson分析師Gil Luria在最新報告中指出,過去一年以來Google母公司Alphabet大幅縮小與輝達的差距,如今已成為“最好的輝達替代方案”。報告顯示,過去半年,圍繞Google Cloud TPU的開發者活躍度激增了約96%。Gil Luria與前沿AI實驗室的研究人員和工程師交流後發現,業內普遍看好GoogleTPU。因此Luria認為,若Google將TPU業務與DeepMind部門合併並將它們分拆上市,估值或將高達9000億美元。AI獨角獸Anthropic此前使用亞馬遜的Trainium晶片來訓練模型,最近,該公司被發現正在招聘TPU核心工程師;馬斯克旗下的人工智慧公司xAI也對採購TPU表現出興趣。這一切都說明了業界對於TPU的認可。而Google自身也在積極行動。首先,Google有意在公司內部進行從輝達GPU到自研TPU的迭代。Omdia資料顯示,2024年估計Google訂購16.9萬台Hopper 架構GPU,在五大雲廠商中排名最後,約為微軟的三分之一。同時,Google內部已部署了約150萬顆TPU。Google的對外戰略,就是文章開頭提到的,對那些使用輝達晶片的資料中心供應TPU。據報導,為了與Floydstack達成合作,Google將提供最高32億美元的備選擔保支援,若Fluidstack無力支付紐約新資料中心的租賃費用,Google將補足差額。根據野村證券最新報告,預計到2026年,ASIC總出貨量很可能會第一次超過GPU。而TPU正是目前最成熟的ASIC。輝達需要緊張起來了。04. 結語市場對GoogleTPU的積極接受,反映出越來越多的公司想擺脫輝達“一卡難求“的困境,尋求更高的性價比和更多元、穩定的供應鏈。而借此機會挑戰輝達的,也不只有Google一家公司。供應鏈資料顯示,Meta將於2025年第四季度推出其首款ASIC晶片MTIA T-V1。它由博通設計,具有複雜的主機板架構,並採用液冷和風冷混合技術。到2026年年中,MTIA T-V1.5將進行進一步升級,晶片面積將翻倍,超過輝達下一代GPU Rubin的規格,其計算密度將直接接近輝達的 GB200 系統。2027年的MTIA T-V2可能會帶來更大規模的CoWoS封裝和高功率機架設計。報告指出,根據供應鏈估計,Meta的目標是到2025年底至2026年實現100萬至150萬件ASIC出貨量。微軟、亞馬遜同樣有自研的ASIC晶片,正在對這片被GPU霸佔的市場虎視眈眈。對此,輝達也有自己的反擊手段。今年5月,輝達正式發佈NVLink Fusion。NVLink Fusion允許資料中心將輝達GPU與第三方CPU或定製化AI加速器混合使用,標誌著輝達正式打破硬體生態壁壘。近日,輝達執行副總裁暨首席財務官Colette Kress在高盛組織的會議上談及了對於AISC晶片所帶來的競爭看法,稱輝達GPU更具性價比。一場大戲已經拉開了帷幕。無論是兆美元的市場規模,還是未來AI時代硬體結構的定義權,都值得幾大巨頭為之瘋狂。這一戰,誰都有不能輸的理由。 (半導體產業縱橫)
AMD:與x86相比,Arm架構已無任何優勢!
近年來,得益於亞馬遜等雲服務大廠紛紛自研Arm架構伺服器CPU,蘋果Mac產品向自研的Arm處理器,高通面向PC市場推出Snapdragon X Elite 處理器等帶動,Arm已經在伺服器市場和PC市場佔據了一定的市場份額。今年7月,Arm首席執行官Rene Haas對外透露,Arm來自資料中心市場增長的很大一部分是由於人工智慧。從2021年開始,隨著AI熱潮的爆發,使用Arm晶片的初創公司數量也激增了12倍。目前在使用基於Arm架構的處理器的伺服器客戶數量已經增長至7萬家,自2021年以來增長了14倍。Bernstein Research的預測顯示,2023年,全球近10%的伺服器採用了Arm伺服器CPU,其中半數由AWS部署,其雲端中已有超過200萬個自研的Graviton晶片。另外,隨著蘋果公司的Mac產品線全面轉向自研的Arm架構的M系列處理器,高通面向PC市場推出Snapdragon X Elite 處理器以及輝達攜手聯發科推出基於Arm架構CPU的個人超級電腦 DGX Spark等廠商的驅動,Arm在PC市場的份額也在持續增長。在今年的COMPUTEX 2025展會上,Arm就曾宣佈今年出貨到頂尖超大規模雲端服務供應商的算力,近50%是基於Arm構架。Arm也預估PC與平板市場,Arm構架將佔整體出貨量40%。而Arm之所以能夠取得這樣的進展,主要得益於其在AI計算性能與能源效率方面的出色表現,並且相對於x86方案來說,其在綜合成本上也更有優勢。不過,在近日的德國柏林消費電子展(IFA 2025)上,AMD計算和圖形事業部高級副總裁兼總經理 Jack Huynh 對當地媒體ComputerBase表示,x86 正在強勢回歸,Arm 相較x86 已無任何優勢。△AMD計算和圖形事業部高級副總裁兼總經理 Jack Huynh(資料圖)比如在AI性能和能源效率方面,AMD也與之前英特爾一樣,駁斥“x86不夠高效”的錯誤印象。它們認為無論搭載AMD Ryzen 或Intel Core 的處理器,筆記本產品在保障性能的前提下,都能提供更長的續航力,且能充分運用強大的x86生態系統。這將使得Arm 無法在整體使用體驗上勝過x86。雖然搭載蘋果的M系列處理器的Mac產品,以及高通驍龍Snapdragon X系列PC都帶來的出色的能效表現,但是隨著AMD 與英特爾分別加速推動新的AI PC晶片,Arm CPU的這一優勢正在消失。比如而英特爾的Lunar Lake 在NPU 性能高達120TOPS,能源效率也大幅升級。宏碁聲稱其Lunar Lake 筆記型電腦在 65 WHr 電池和 IPS LCD 螢幕基礎上,電池續航時間可長達29小時;華碩也聲稱其基於Lunar Lake 處理器的Expertbook筆記本可以提供長達 29 小時的 Netflix 播放時間。AMD 最新推出Strix Point 與Strix Halo 的APU 在性能/能效比也達到了最佳水準,因而在筆記型電腦、MiniPC及掌機等產品中獲得廣泛採用。重要的是,AMD 旗艦款Ryzen 9 AI MAX+ 395,整體高達126TOPS,高於Arm 的解決方案,足以證明x86 已經相比Windows on Arm 更具優勢。AMD明確表示,AI PC只能從一台好的PC中成長起來。Jack Huynh 解釋說,AMD 的首要目標是為“完美PC”提供硬體和軟體,他還出現在 IFA 2025 上聯想等一些合作夥伴活動。在這方面,實施AMD雄心勃勃的路線圖並保持合作夥伴可以信賴的節奏非常重要。當然,這並不代表Arm PC時代已經結束,但至少能夠讓x86的地位仍能穩固,特別是在英特爾的Panther Lake 與AMD Medusa Point 等新一代產品陣容的支撐下。 (芯智訊)