#google
輝達Google搶投AI獨角獸新秀,歐洲史上最大種子輪誕生
該初創企業的盈利模式、產品落地時間及收益規模均尚不明確。編譯 |  劉煜編輯 |  陳駿達智東西4月28日消息,今天,據路透社報導,由前GoogleDeepMind首席科學家戴維·席爾瓦(David Silver)創立的英國AI獨角獸Ineffable,已完成11億美元(約合人民幣75.14億元)的種子輪融資,估值達到51億美元(約合人民幣348.31億元)。本輪融資由美國紅杉資本與光速創投領投,輝達、Google和英國國家AI風投基金Sovereign AI等企業和機構共同參投。Ineffable稱,該輪融資為歐洲迄今為止金額最高的種子輪融資。目前,這家初創企業的盈利模式、產品落地時間及收益規模均尚不明確。Ineffable成立於2025年11月,其目標是打造一個超級學習系統(Superlearner)。該系統無需依靠人類資料,將通過自主實踐探索一切知識,覆蓋基本的運動技能(motor skill)到高階智力突破的全部範疇。Ineffable的創始人兼CEO Silver最廣為人知的身份,是AlphaGo背後的核心研究員。他主導了AlphaGo、AlphaZero以及AlphaStar的研發,全程參與了DeepMind強化學習體系的搭建與迭代。Silver與GoogleDeepMind聯合創始人兼CEO德米斯·哈薩比斯(Demis Hassabis)是大學同學,二人都曾就讀於劍橋大學。在劍橋學習期間,Hassabis教會了Silver下棋,其中包括圍棋。在拿到劍橋大學文學學士學位後,Silver前往加拿大阿爾伯塔大學攻讀電腦科學博士學位,師從圖靈獎得主、強化學習之父Richard Sutton。▲David Silver(圖源:Silver個人網站)本科畢業後,Silver於1998年與Hassabis共同創辦了遊戲公司Elixir Studios,同時出任CTO與首席程式設計師。之後,Hassabis與另外二人聯合創辦了DeepMind。在DeepMind成立之初,Silver便擔任該公司顧問,並於2013年正式加入,任職10餘年之久。在DeepMind任職期間,Silver的研究重點是深度強化學習,這是一個將強化學習與深度學習相結合的領域。他參與了多款智能程序的研發,其中,由Silver主導研發的AlphaGo,是首個在圍棋比賽中擊敗頂級職業棋手的程序。之後,他帶隊打造出AlphaZero,該程序依託同源AI架構從零自主研習圍棋,後續以相同訓練邏輯掌握國際象棋與將棋,綜合實力遠超同期所有同類程序。此外,他聯合主導了AlphaStar項目,該款程序能夠在高難度策略遊戲《星海爭霸Ⅱ》中,達到人類職業電競選手的競技水準。在工業界之外,Silver還在倫敦大學學院(UCL)擔任教授。創立Ineffable之初,Silver在該公司部落格發佈個人隨筆稱:“世界需要一個舞台,讓強化學習範式的雄心得以充分施展。在那裡,我們直面智能的根本命題:如何(讓AI)通過對環境的體驗,去發現未知的知識。”他還說道:“AI生成語言、視訊、程式碼等,已有完善生態持續發展,無需我再涉足。而Ineffable,是我畢生追求的事業。”據《連線》昨日報導,Silver稱:“我從Ineffable項目中獲得的所有收益,都將捐贈給具備高社會影響力的慈善機構,用以挽救更多生命。”結語:天價融資扎堆新銳AI企業非大模型賽道正加速突圍目前,Ineffable仍處於早期研發周期,其技術方案尚未成熟,商業化模式與落地規劃尚不明確。在巨額資本加持之下,該公司依託強化學習路線能否突破現有AI技術瓶頸、平衡前沿探索與商業可持續發展,或成為接下來行業關注的核心焦點。今年年初以來,各類新興獨立AI實驗室融資規模已達數十億美元。由圖靈獎得主、前Meta首席AI科學家楊立昆聯合創立的AMI實驗室,已於今年3月完成了10.3億美元種子輪融資,投前估值達35億美元。全球頂尖NLP學者理查德・索徹(Richard Socher)正為其個人實驗室接洽融資,該企業估值已達40億美元。此外,由前OpenAI高管米拉・穆拉蒂(Mira Murati)創立的AI初創企業Thinking Machines,正在洽談新一輪融資,預估估值約500億美元。一眾頂尖科研人才紛紛脫離科技大廠,扎堆創辦獨立AI實驗室,不同於當下主流的大語言模型賽道,這批新興研發團隊正跳出大模型的同質化競爭,轉向強化學習、現實場景感知等前沿方向,探索差異化的技術路線,正掀起新一輪AI浪潮。 (智東西)
Google宣佈:75%的程式碼由AI寫,程式設計師去那兒了?
01 Google宣佈:75%的程式碼由AI寫,程式設計師去那兒了?4月23日,GoogleCEO桑達爾·皮查伊在拉斯維加斯的Google Cloud Next大會上,拋出了一顆炸彈。他說:Google內部新編寫的程式碼,75%由人工智慧生成,然後再交給人類工程師稽核。一年半前,這個比例是25%。也就是說,在18個月的時間裡,Google工程師的工作內容,發生了一次根本性的轉變。以前,他們寫程式碼。現在,他們審程式碼。這件事,表面上是一個技術公司的內部管理變化。但往深處看,它意味著整個軟體行業的用工邏輯,正在被重寫。02 Google的工程師去那兒了?先說清楚一件事:Google並沒有因為75%的程式碼由AI寫,就把75%的工程師裁掉。那工程師們在做什麼?皮查伊給出了一個詞:稽核員(reviewer)。以前的工程師,主要精力花在"寫"上——思考演算法、敲擊鍵盤、偵錯Bug。現在的工程師,主要精力花在"判斷"上——AI給出了三種方案,那一種在性能、可維護性、安全性上綜合最優?Google內部有一個真實案例。他們有一項複雜的程式碼遷移任務,過去完全依靠人工,費時費力。今年,用智能體和工程師協同完成,速度比一年前快了6倍。不是工程師變強了,是工程師開始"指揮"AI了。但這裡有一個更微妙的變化,很多人沒有注意到。Google內部最近允許DeepMind的部分員工使用Anthropic的Claude Code工具,而不僅限於自家的Gemini模型。這在內部引發了一定的緊張情緒——畢竟,用競爭對手的工具做自家的產品,在情感上很彆扭。但Google還是開了這個口子。原因很簡單:誰的工具好用,就用誰的。效率優先。03 一場正在發生的轉型,但沒人告訴你怎麼過關最近,我跟幾位在大廠的朋友聊過這個話題。一位在某網際網路公司做了7年Java開發的工程師說:他們組最近引入了AI程式設計工具,需求排期從以前的兩周壓縮到了3天。但問題來了——他發現自己越來越像個"程式碼檢查員",而不是"程式碼創造者"。"我的核心競爭力還剩下什麼?"他問我。這是一個非常好的問題。根據GitHub Octoverse 2025的報告,使用AI輔助工具的開發者,程式碼產出量提升了55%。但與此同時,初級開發者的崗位需求下降了22%。資料很清晰:AI提升了效率,但淘汰了入門門檻低的崗位。IBM的做法或許更能說明趨勢——他們宣佈將入門級招聘規模擴大至3倍,但要求:必須會用AI工具。不是招更多基礎程式設計師,是招"會使用AI的程式設計師"。企業不再需要5個初級程式設計師,而是需要1個能指揮AI的高級程式設計師。問題不是"AI會不會取代程式設計師",而是"不會用AI的程式設計師,會被會用AI的程式設計師取代"。04 新的考核標準,已經寫進績效表裡Google這次的動作,還有一個細節被很多人忽略了。他們把AI工具使用目標,寫進了工程師的年度績效評估裡。這不是"建議你用AI",這是"你必須用,用了多少是考核指標"。這是一個訊號。當一家公司把某個工具的使用頻率寫進KPI,意味著什麼?意味著這家公司認為:不用這個工具的人,是在主動降低自己的價值。回顧歷史,類似的事情發生過。2000年代初,Excel和資料庫工具普及時,不會用電腦的會計被慢慢淘汰。2010年代,移動網際網路爆發時,只懂PC端的產品經理開始掉隊。2026年,AI工具全面滲透時,不會用AI協作的工程師,正在走向同樣的命運。這不是危言聳聽,這是一個規律。05 寫在最後:該怎麼做?我不打算給"AI會不會取代程式設計師"這個問題一個確定的答案。但有三件事,我認為是確定的。第一,AI正在改變"寫程式碼"這件事本身的價值權重。當75%的程式碼由AI生成,會寫程式碼已經不是稀缺能力。稀缺的是:能判斷程式碼好壞,能設計系統架構,能在AI給出的多個方案中做出正確選擇。第二,使用AI的能力,正在成為職場硬門檻。不是軟實力,不是加分項——是標配。Google、Meta、Snap的動作,已經說明了這一點。第三,變化已經在發生,但機會窗口還沒關上。Q1裁員78557人,有人被淘汰。但IBM逆勢擴招3倍,Cognizant宣佈不裁反而大規模培訓AI工具使用。被淘汰的是不願改變的人,被擴招的是主動擁抱變化的人。皮查伊說,Google正在轉向"真正以智能體為核心的工作流程"。這個方向,不會因為某個工程師不接受而停下來。問題只有一個:在這個轉變完成之前,你打算站在那一邊? (碼農菜菜)
從全球市值王座讀懂世界經濟史
從1950年二戰後全球經濟重建,到2026年人工智慧產業全面爆發,過去76年間,全球股票市值榜首的企業6幾經易主,每一次王座更迭,都不是簡單的商業競爭勝負,而是時代產業浪潮、全球經濟格局、技術革命迭代的直接對應。透過1950至2026年全球市值龍頭企業的興衰軌跡,我們能清晰看到人類經濟社會的發展脈絡,讀懂不同時代的核心驅動力,更能窺見未來商業世界的發展方向。20世紀50年代,是工業製造統治全球的黃金時代,通用汽車穩穩佔據全球市值第一的寶座。二戰結束後,美國憑藉遠離戰場的地理優勢,工業體系完整保留並快速擴張,汽車產業成為拉動美國經濟增長的核心引擎。彼時,通用汽車憑藉流水線生產模式、完善的汽車產品線,成為全球製造業的標竿,不僅滿足了美國民眾的出行需求,更推動了全球汽車產業的起步,巔峰市值達到150億美元,在當時的全球經濟中堪稱龐然大物。這一時期,市值王者代表著實體經濟的根基,工業製造是國家實力與經濟繁榮的核心象徵,通用汽車的崛起,正是美國製造業霸權的完美體現。步入60年代,全球經濟進入基建擴張與民用工業普及期,綜合工業巨頭通用電氣接過市值王座。在傑克·韋爾奇改革之前,通用電氣就已佈局電力、家電、軍工等多個核心領域,深度繫結戰後全球基礎設施建設、民用消費升級的需求。作為“漂亮50”核心龍頭企業,通用電氣憑藉多元化的業務佈局、強大的技術研發能力和穩定的盈利能力,成為全球資本市場的寵兒,巔峰市值突破200億美元。這一階段,多元化綜合工業企業成為時代主流,強大的產業覆蓋能力和抗風險能力,讓其成為資本市場追捧的對象,也標誌著全球工業發展從單一品類走向全產業鏈佈局的新階段。70年代,全球經濟陷入石油危機、通膨高企的困境,剛需壟斷型公用事業企業成為資本市場的避風港,AT&T(美國電話電報)憑藉獨家固話壟斷地位,登頂全球市值榜首。彼時,AT&T受美國政策特許經營,掌控全美乃至全球部分地區的固話通訊網路,擁有永續且穩定的現金流,不受經濟周期波動的影響。在石油危機衝擊下,能源、製造企業紛紛受挫,而AT&T憑藉剛需屬性,市值穩定在400億美元左右,成為70年代全球資本市場的絕對霸主。這一時期的市值更迭,印證了經濟下行周期中,壟斷型公用事業企業的防禦性價值,也凸顯了政策保護下的商業紅利。80年代,全球商業格局迎來兩次關鍵轉變,從企業資訊化壟斷到日本經濟泡沫狂歡。1980至1988年,IBM憑藉大型機技術,壟斷全球企業計算市場,成為當之無愧的“藍色巨人”。彼時,全球政企資訊化剛剛起步,IBM的大型機是唯一的選擇,其市值飆升至600億美元,主導了全球科技產業的發展方向,開啟了科技企業衝擊市值王座的序幕。90年代,埃克森石油依託冷戰後全球工業化擴張、能源需求暴漲,成為全球市值龍頭;97至98年,通用電氣在韋爾奇改革下,實現產融結合,市值逼近3000億美元,重回巔峰。而90年代末,微軟憑藉Windows系統和Office軟體,壟斷全球個人電腦市場,市值突破6000億美元,成為首個登頂的純軟體科技企業。這十年,傳統能源、工業與新興科技輪番登場,標誌著全球經濟從傳統實業向科技產業轉型的關鍵過渡。21世紀00年代,大宗商品超級牛市開啟,能源企業重回舞台中央,埃克森與美孚合併後的埃克森美孚,成為全球市值常年榜首企業。隨著中國等新興經濟體工業化處理程序加速,全球石油需求暴漲,油價持續攀升,埃克森美孚憑藉完善的上游勘探、中游煉油、下游化工全產業鏈,實現業績與市值雙豐收,2008年油價巔峰期市值突破6000億美元。這一時期,傳統資源型企業再次證明了其在全球工業化處理程序中的核心地位,也成為大宗商品周期的最後一輪黃金時代。2010年代,移動網際網路革命徹底改變全球商業格局,蘋果開啟獨霸時代。2010年之後,iPhone智慧型手機全面普及,移動網際網路產業爆發式增長,蘋果憑藉硬體+軟體+服務的封閉生態,成為全球首家兆市值企業,2019年末市值突破1.3兆美元,牢牢佔據全球市值榜首長達十年。蘋果的崛起,標誌著消費電子與移動網際網路成為全球經濟的核心驅動力,科技企業徹底取代傳統工業、能源企業,成為全球資本市場的絕對主角,也讓科技創新成為企業登頂市值王座的核心要素。2021至2026年,全球商業迎來人工智慧算力時代,市值王座進入科技企業內部輪替與新王者崛起階段。2021至2023年,蘋果依舊憑藉穩固的消費電子生態領跑,期間沙烏地阿拉伯阿美因全球通膨、能源價格上漲,短暫超越蘋果,體現了能源周期的最後餘溫。2024年,微軟依託雲端運算與AI技術,實現市值反超。2025至2026年,輝達憑藉AI晶片的全球壟斷地位,一路高歌猛進,2026年4月市值突破4.9兆美元,成為全球市值新霸主。短短五年間,從消費電子到雲端運算,再到AI算力,科技產業迭代速度空前加快,人工智慧成為驅動全球商業變革的核心力量。最後我們看一下2026年最新市值排行:1. 輝達 (NVIDIA) — 49,0002. Google (Alphabet) — 41,2093. 蘋果 (Apple) — 39,6734. 微軟 (Microsoft) — 31,3955. 亞馬遜 (Amazon) — 26,9466. 特斯拉 (Tesla) — 12,9607. 元宇宙 (Meta) — 約12,5008. 台積電 (TSMC) — 約11,8009. 博通 (Broadcom) — 約10,50010. 埃克森美孚 (ExxonMobil) — 約9,800回望1950至2026年76年的市值王座更迭史,我們能總結出三條殘酷又真實的商業規律:其一,沒有永恆的商業王者,只有時代的企業。通用汽車、AT&T、老式通用電氣等傳統壟斷巨頭,曾憑藉時代紅利登頂,卻因行業變革、政策變化、模式僵化最終衰落,被時代拋棄;其二,產業迭代是市值更迭的核心動力,全球經濟先後經歷工業製造、公用事業、資訊化、網際網路、人工智慧五大階段,每一次產業革命,都會催生新的市值龍頭,淘汰落後的傳統企業;其三,持續創新是企業穿越周期的唯一路徑,微軟、蘋果之所以能長盛不衰,正是因為不斷自我革命,從PC軟體到雲服務、從功能機到智慧型手機,始終緊跟技術浪潮。如今,AI算力已然成為全球商業的新賽道,輝達的崛起只是AI時代的開端。未來,隨著人工智慧技術的持續落地,全球市值格局還將迎來新的變革。但無論龍頭如何更迭,不變的是,只有緊跟時代產業趨勢、堅持科技創新、不斷適應市場變化的企業,才能在全球商業的浪潮中站穩腳跟,而這也正是76年市值更迭史,留給所有企業最珍貴的啟示。 (一生投資談)
Google跪了?400億砸向死敵!AI御三家終結,OpenAI孤立無援
Google豪擲400億美元加注Anthropic,自家Gemini正面對壘的「敵人」。當Claude年化收入一年暴漲30倍衝到300億,當算力成為AI下半場唯一硬通貨,與其用Gemini硬剛,不如把對手變成TPU最大買家。剛剛,Google開出了AI史上又一張「巨額支票」。將向Anthropic投入最高400億美元!100億美元立即到帳,按Anthropic 3800億美元的最新估值入股。剩下的300億美元繫結業績里程碑——只要Anthropic撞線,錢就到。更狠的是算力。Google雲承諾,未來五年向Anthropic交付5GW的計算能力,從2027年開始陸續上線。Anthropic的TPU使用規模會指數級擴張。這個數字什麼概念?相當於Google把整個DeepMind從成立到現在燒掉的錢,一次性再投一遍——但這次不是投自己人,是投外人。耐人尋味的是,Google手裡明明有DeepMind,有Gemini,有全球最大的TPU叢集。一個自家模型陣容已經夠豪華的公司,卻選擇用400億去加注別人家的Claude。Gemini模型對標的就是Claude。理論上,Anthropic是Google的直接對手。可現在,Google成了Anthropic的最大金主之一。有外媒稱這是Google的最新AI豪賭這套打法在AI圈很罕見:一家科技巨頭,明明手裡握著自家的旗艦模型,卻反手把巨額資金和算力傾倒給對面陣營。放在十年前的矽谷,這叫「認輸」。網友玩梗神圖御三家落幕,Anthropic陣營成型過去兩年,AI第一梯隊一直被定義為「御三家」。OpenAI、Google、Anthropic,三足鼎立,各自為王;當然還有馬斯克的xAI也在攪局。OpenAI靠GPT和ChatGPT先發佔位,背後站著微軟。Anthropic靠Claude在企業市場撕開口子,最初接受Amazon和Google兩邊的資金但保持獨立姿態。到了2026年4月這一周,這個敘事徹底散了。把Anthropic過去半年的金主清單列出來,會發現一個荒謬的現實:亞馬遜:50億美元現金 + 上限250億美元 + 5GW Trainium算力 + 1000億美元AWS採購合同;Google:100億美元現金 + 上限400億美元 + 5GW TPU算力;輝達:上限100億美元 + 1GW GPU供給;微軟:上限50億美元 + Anthropic向Azure採購300億美元算力。四家矽谷頂級玩家,全部在Anthropic的股東名冊上。僅僅4天前,4月20日,亞馬遜剛宣佈對Anthropic追加50億美元投資,並承諾總投資上限250億美元,外加Anthropic未來10年向AWS採購超過1000億美元的Trainium算力。Anthropic在4天內連收兩單「百億級」輸血。最戲劇性的是微軟。微軟手裡握著OpenAI最大外部股東的身份,轉頭還要給OpenAI的死敵投錢。這是「避險」的極端版本——OpenAI主導的Azure,居然也是Anthropic的一份算力供給。加在一起,Anthropic拿到了11GW以上的累積算力承諾,三套不同體系的晶片同時供給,任何一家斷供都不致命。剩下的OpenAI呢?它的核心算力來自Stargate項目——5000億美元的龐大基建計畫,落地周期長達數年。微軟不再是Stargate的獨家供應方,OpenAI還要找Oracle、軟銀、阿聯多方拼算力。格局已經從「三家分天下」,變成了「Anthropic vs OpenAI」的兩強對壘。御三家的說法,作古了。儘管Google在AI模型領域是直接競爭對手,但它也是Anthropic的關鍵基礎設施供應商。Anthropic嚴重依賴Google雲提供晶片和基礎設施,包括使用Google的張量處理單元(TPU)——這些專為AI工作負載設計的專用晶片,被視為輝達熱門處理器的最佳替代品之一。Google的算盤:與其硬剛,不如借力Google願意往死敵身上砸400億,看三個數字就懂。第一個:Anthropic 2026年3月的年化收入(ARR)突破300億美元。2025年初Anthropic的ARR還只有10億美元規模。一年時間,30倍。Claude Code從程式設計師社區出圈,企業管道全面開放,B端客戶從初創公司到財富500強一把抓。第二個:Anthropic在二級市場的隱含估值已經飆到1兆美元。這是Bloomberg和Tom's Hardware援引的二手市場資料。Anthropic的二級市場估值,已經壓過了OpenAI在AI業務部分的估值。第三個:Google今年的資本開支規劃是1850億美元(1750億到1850億之間)。這筆錢大部分要砸在資料中心、TPU生產、電力上。如果TPU沒有大客戶去消化,那就是最貴的庫存。Anthropic既是B端使用Claude企業客戶的導流入口,也是GoogleTPU產能的最佳壓艙石,一舉兩得。放在一起看,Google把對Anthropic的入股,做成了「輸不起就買進來」的避險操作。如果Anthropic真的贏了AI企業市場,Google至少能拿股權回報;如果Gemini跑出來了,Google兩頭贏;如果Gemini沒贏,那至少TPU出貨穩了,AI業務也能借Anthropic站穩腳跟。Gemini發佈兩年多,在企業級AI市場的開發者份額一直被Claude壓制。Claude Code在程式設計師群體裡的滲透率直接碾壓Gemini的同類產品。Google內部一直在重組Gemini團隊,但效果有限。繼續硬剛,不如借力打力。算力,AI產業新的護城河這場連環投資,背後真正的主角是算力。Anthropic在公開聲明裡點出了關鍵詞:infrastructure strain(基礎設施壓力)。這個表述來自Anthropic 官方部落格(2026年4月20日,與亞馬遜合作公告),原文是:我們的運行率收入現已超過300億美元,從2025年底的約90億美元增長。這種速度的增長給我們的基礎設施帶來了不可避免的壓力(inevitable strain);特別是我們前所未有的消費者增長,影響了free、Pro、Max等等級的可靠性和性能。Claude在企業、開發者、消費端的需求暴漲,自己的算力快撐不住了,必須找外援。把數字加起來看:亞馬遜承諾5GW的Trainium算力,Google承諾5GW的TPU算力,輝達供應最高1GW的GPU。合計11GW以上的累積算力承諾。這相當於10個核電站的發電量。OpenAI宣佈的Stargate項目目標也是10GW算力,但要數年內才能落地。Anthropic用了一周時間,就把同等量級的算力鎖在了手裡。OpenAI走的是另一條路:押注Stargate的5000億美元長期基建。這條路最大的問題在於落地周期。Stargate全面達產要等到2029年前後,而第一座Texas資料中心截至2026年4月,物理進度依然緩慢。算力,已經從基礎設施成本變成了AI公司的核心戰略資源。誰先鎖住算力,誰就有底氣推下一代模型。最尷尬的角色,其實是OpenAI過去兩年,OpenAI一直在試圖擺脫對微軟的依賴。奧特曼到處找錢,從阿布扎比到軟銀,融資規模一輪比一輪大。原因很簡單——微軟既是投資人又是競爭對手,Azure上跑著OpenAI的模型,也跑著微軟自己的Copilot。這種關係從第一天起就彆扭。現在Google用400億把Anthropic徹底鎖死,OpenAI的處境更微妙了。微軟還會像以前那樣全力支援嗎?還是說,微軟也會開始找自己的「Anthropic」?熟悉科技史的人會想起一個幾乎一模一樣的劇本。2000年代初,英特爾和AMD打得不可開交,但真正改變格局的不是誰的晶片更快,而是誰繫結了更多的生態夥伴。英特爾贏了,不是因為技術碾壓,是因為它把整個PC產業鏈都拉進了自己的陣營。Google現在干的是同一件事。它不再試圖用Gemini單挑Claude和GPT,而是把Anthropic拉進自己的算力生態,用基礎設施的優勢鎖定AI競賽的下半場。這事兒放進更大的坐標系裡看,400億隻是開胃菜。OpenAI被孤立,下一個百億金主難尋Anthropic的算力問題被解決了。OpenAI自己的算力問題,反而開始凸顯。Stargate項目過去半年頻繁出現資金缺口的傳聞。微軟不再是OpenAI的獨家算力供應方,軟銀承諾的資金至今還在分批到帳。OpenAI正在向中東主權基金、阿聯AI公司G42、沙烏地阿拉伯PIF等多方尋找新的資金來源。OpenAI的下家,目前看不清。OpenAI不是沒有金主——SoftBank、Oracle、MGX、輝達都在,輝達甚至單獨承諾投1000億美元,但這些資金大部分仍要靠Stargate這個執行不確定的載體落地。Anthropic四天搞定的事,OpenAI幹了一年還在協調。如果說Anthropic找到了Amazon、Google、Microsoft、Nvidia四重靠山,那OpenAI還需要在主權資本和雲巨頭裡再找一個等量級的合作夥伴——而且要快。更深層的問題是,OpenAI的傳統優勢在變弱。GPT-5.5上線後,單點性能依然領先,但Claude Code在Coding場景、Claude在企業級應用裡的份額持續蠶食OpenAI的護城河。奧特曼最近頻繁提到OpenAI的核心競爭力將轉向AI Operating System,但OS要落地,需要的不是模型領先,而是開發者生態加基礎設施。Anthropic陣營,把雲巨頭和算力都打包了。Benchmark分數已經決定不了AI產業的勝負。這場洗牌的真正賽道,是現金+算力+生態的三線博弈。Google投出400億的那一刻,第一回合的勝負判定已經寫好了。OpenAI該急著找下家了。 (新智元)
Google一篇論文,帶崩全球儲存晶片股!中國學者實名“打假”:用了我們的方法,卻不承認
3月26日,Google研究院發表了一篇論文,全球儲存晶片市場應聲大跌——美國和韓國巨頭一夜之間蒸發超900億美元市值。引發這場“血案”的,是一個叫 TurboQuant 的新演算法。Google宣稱,它能在幾乎不損失精度的前提下,把AI大模型的記憶體佔用壓縮到原來的1/6。論文發表僅一天後,一位中國學者在社交媒體公開“開火”:“Google的論文存在嚴重學術問題,明知有錯卻不改,還刻意迴避與我們方法的相似性。”這位學者叫高健揚,目前是蘇黎世聯邦理工學院的博士後。他在新加坡南洋理工大學讀博期間,曾發表過一個叫 RaBitQ 的向量量化演算法。01. “Google主動找我們幫忙偵錯程式碼”高健揚說,早在2025年1月,Google論文的第二作者就主動聯絡過他,請他幫忙偵錯自己基於RaBitQ程式碼翻譯的Python版本,還詳細描述了復現步驟和報錯資訊。“這說明他們對我們方法的技術細節非常瞭解。”高健揚說。但2025年4月Google論文正式發佈後,高健揚發現,論文中對RaBitQ的描述嚴重失實:把RaBitQ的核心技術說成別的東西,反而忽略了自己最關鍵的設計,在沒有證據的情況下,說RaBitQ的理論保證“不如他們的”實驗對比故意設定了不公平的條件02. 溝通一年對方只是“最小限度讓步”發現問題後,高健揚團隊從2025年5月開始與Google論文作者郵件溝通。對方第二作者表示已把意見轉告給全體作者。但當高健揚要求修正論文中的事實錯誤後,對方就不再回覆了。2025年11月,高健揚發現這篇論文被AI頂會ICLR 2026接收,裡面的錯誤內容一字未改。他聯絡了會議主席,沒得到回應。今年3月,Google通過官方管道大規模推廣這篇論文,高健揚再次給全體作者發郵件。這次對方回覆了——但只同意修正理論描述和實驗條件,明確拒絕討論方法論的相似性,而且承諾只在會議結束後才改。03. “核心像一道菜的完整食譜”高健揚用一個比喻來解釋兩者的相似性:一位廚師率先公開發佈了一道菜的完整食譜。另一位廚師後來做了一道菜,用了幾乎一樣的關鍵步驟,卻在介紹中把前者說成“做法不同、效果較差”的另一道菜,對兩者的聯絡隻字不提。讀者在不知情的情況下,根本無法做出公正判斷。但Google作者在最終版本中,不但沒有補充討論,反而把原本正文中對RaBitQ的不完整描述移到了附錄。04. “小型團隊很難與Google抗衡”為什麼不繼續通過學術管道解決,而是選擇公開?他們先後聯絡了論文作者、會議主席、倫理委員會,也提交了正式投訴,並在公開評審平台發佈了評論。“但我們是一個小型高校團隊,對方是Google研究院。在資源、影響力和話語權上,完全不對等。”Google論文在社交媒體上的相關瀏覽短時間內達到數千萬次——這是任何高校實驗室都不可能做到的。05. 如果不更正,會有什麼後果?龍程認為,如果不修正,至少帶來三個問題:扭曲學術史:後來的研究者會誤判技術源頭,在錯誤的基礎上繼續研究。打擊原創:一個經過嚴格理論推導的高品質方法,被重新包裝後以千萬級曝光推向公眾,原創者卻得不到應有的認可。誤導產業:向量量化是工業界高度關注的方向,不精準的方法歸屬會讓從業者選錯技術路線。06. 接下來怎麼辦?高健揚和龍程表示,他們會在學術平台發佈詳細的技術報告,系統梳理兩者的真實關係。同時繼續通過正式管道向Google研究申訴理事會反映。“我們的目標從來不是製造對立,而是讓學術記錄精準地反映各方法之間的真實關係。”這場爭議裡,有一個細節值得所有人留意:Google論文的問題,歸根結底不是演算法好壞,而是如何精準描述自己的工作、如何恰當地引用前人的貢獻——這恰恰是學術寫作中最基礎、也最容易出錯的環節。 (科研轉運站)
Google第八代TPU詳解:聯手博通與聯發科挑戰輝達!
當地時間2026年4月22日,在拉斯維加斯舉行的Google Cloud Next '26大會上,Google正式發佈了第八代張量處理器(TPU)。這是Google史上首次將AI訓練與推理任務拆分至兩款獨立晶片——專為模型訓練設計的TPU 8t與專為推理最佳化的TPU 8i,標誌著其AI硬體戰略的重大轉向。與此同時,Google宣佈其第七代TPU Ironwood正式向雲客戶開放,並預告了與輝達的深度合作——將在2026年下半年成為首家提供NVIDIA Vera Rubin NVL72超級電腦的雲服務商。為何拆分訓練與推理?Google做出這一戰略調整的根本原因,是AI計算負載的日益分化。GoogleAI與基礎設施高級副總裁兼首席技術官Amin Vahdat在官方部落格中指出:“隨著AI智能體的興起,我們確定業界將受益於針對訓練和推理需求分別進行專門最佳化的晶片。”具體而言,訓練任務追求極致的吞吐量與規模擴展能力,需要晶片具備最高的計算密度和記憶體頻寬,以在數周甚至數月內處理兆級參數。而推理任務則對延遲和並行更為敏感——當數百萬個AI智能體同時執行階段,響應速度至關重要,而對峰值算力的要求相對較低。Amin Vahdat在大會現場明確表示:“這兩款晶片都是從頭開始專門為訓練和推理設計的,而非彼此衍生產品。它們的規格、能力、互聯方式都因各自需求而專門設計。Alphabet首席執行長桑達爾·皮查伊則強調,這一新架構旨在以低成本提供大規模吞吐量和低延遲,滿足數百萬個AI智能體同時運行的需求。TPU 8t:大規模預訓練旗艦晶片TPU 8t由Google和博通共同設計,是Google為超大規模AI模型訓練打造的旗艦晶片。單個超級計算節點最多可整合9,600塊TPU 8t晶片,配備2 PB高頻寬記憶體,每Pod計算性能達121 exaflops(FP4精度),較上一代Ironwood提升約3倍,同等價格下性能提升2.8倍。通過JAX與Pathways框架,可將分佈式訓練擴展至單一叢集超過100萬塊晶片。在架構設計上,TPU 8t採用雙計算芯粒加單I/O芯粒的架構,配備8組12層堆疊的HBM3e高頻寬記憶體。晶片搭載了SparseCore專用加速器,專門處理大語言模型尋找過程中常見的不規則記憶體訪問問題;同時支援原生FP4浮點精度,矩陣運算單元算力吞吐直接翻倍,海量資料搬運功耗大幅下降。為匹配海量資料吞吐需求,Google全新研發了Virgo互聯架構,訓練場景資料中心網路頻寬最高提升至前代4倍。該架構採用高基數交換機減少層級,扁平化兩層無阻塞拓撲結構,單套網路可互聯13.4萬顆TPU 8t晶片,無阻塞二分頻寬高達47Pbps,晶片間互聯頻寬較上一代提升2倍。在儲存訪問方面,TPU 8t通過TPU直連RDMA和TPU直連儲存兩項技術,繞過CPU實現TPU與網路卡、高速儲存之間的直接記憶體訪問,儲存訪問速度提升10倍。此外,晶片還擁有一整套可靠性、可用性與可維護性能力,包括即時遙測監控、自動檢測並繞過故障鏈路、以及無需人工干預自動重構硬體拓撲的光路電路交換技術。TPU 8i:高並行推理專屬平台TPU 8i首次由Google和聯發科合作設計,專注於AI推理場景,旨在消除“等待室效應”——即使用者請求被有意排隊或延遲以實現硬體利用率最大化的情況。單個Pod可擴展至1,152塊晶片,提供11.6 exaflops FP8計算性能,較Ironwood同等價格下性能提升80%,每瓦性能較上一代提升117%。TPU 8i最顯著的特徵是搭載了384MB片上SRAM快取,容量是上一代Ironwood的三倍。這一設計的核心價值在於可將更大的KV Cache保留在晶片上,大幅減少長上下文解碼時晶片核心的空閒等待時間,實現更快的文字生成速度和更低的延遲。晶片還引入了全新的集合通訊加速引擎(CAE),專門加速自回歸解碼與思維鏈推理所需的規約與同步運算,多核心結果聚合幾乎零延遲,片上集合通訊延遲較前代降低5倍。單顆TPU 8i內建兩顆張量核心和一顆片上CAE,替代前代Ironwood的四顆稀疏計算核心。TPU 8i最大的架構創新在於放棄了TPU傳統的3D環形拓撲結構,轉而採用全新的Boardfly層級互聯拓撲。在MoE(混合專家模型)與推理模型時代,任意晶片都需要隨時互通Token資料,跳轉次數直接決定性能。對於8×8×16規模(1024晶片)的3D環形網路,最遠晶片通訊需要16跳;而Boardfly拓撲在同等規模下僅需7跳,網路直徑縮減56%。Boardfly採用分層設計:4顆晶片環形互聯構成基礎單元,8塊板卡通過銅纜全互聯構成本地算力組,36個算力組通過光開關互聯構成最高1024顆晶片的叢集。在這種結構下,任意兩枚晶片之間的通訊最多隻需經過7次跳轉,全對全通訊延遲改善最高50%,這對混合專家模型和頻繁的跨晶片令牌路由極為有利。TPU 8i配備288GB HBM高頻寬記憶體,結合384MB片上SRAM,確保模型的活躍工作集能夠完全保留在晶片內部運行,從根本上解決“記憶體牆”問題。基於2nm製程,2027年底量產兩款第八代TPU晶片均搭載了Google自研的Arm架構Axion CPU作為主控,徹底解決資料預處理延遲導致的主機算力瓶頸。晶片採用台積電2nm製程工藝製造,目標在2027年底量產,並由公司第四代液冷技術支援散熱。在軟體生態方面,第八代TPU支援JAX、PyTorch、Keras及vLLM等主流框架,原生PyTorch支援現已進入預覽階段,使用者可直接遷移模型而無需修改程式碼。Anthropic已承諾採用GoogleTPU的採用率正在持續攀升。Anthropic已承諾採用數GW等級的TPU算力,2027年上線規模將擴展至3.5吉瓦,成為第八代TPU的錨定客戶。此外,Citadel Securities已利用TPU打造量化研究軟體,美國能源部旗下17個國家實驗室全面採用基於TPU的AI協同科學家系統。分析師普遍認為,Google通過將TPU一拆為二,是對AI訓練與推理需求加速分化的直接回應,有助於大幅提升特定場景下的單位算力性價比,從而降低雲客戶部署成本。 (芯智訊)
剛剛,Google發佈第8代TPU,算力怪獸、性能爆表!
目錄為訓練而生的 TPU 8t專注代理式 AI 及推理需求的 TPU 8i與 Gemini 共同設計、支援廣泛開發框架最大化能源效率Google Cloud 的 TPU 以往都是採用單晶片兼具訓練及推理功能的設計,不過在 Google Cloud 年度盛會 Google Cloud Next '26 上,宣佈推出兩款差異化的第 8 代 TPU 產品,攜手 Google DeepMind 開發針對訓練的 TPU 8t 以及針對推理的 TPU 8i。Google強調通過針對 AI 兩大核心任務不同的執行需求進行最佳化設計,進一步將性能發揮到極致。同時 Google 也強調兩款晶片都能運行各類 AI 負載,只是在各自擅長的領域表現更強。為訓練而生的 TPU 8t▲用於訓練的 TPU 8t Pod 晶片總量雖未翻倍,但晶片互聯及叢集互聯頻寬大幅提升、FP4 性能顯著增強。TPU 8t 旨在處理大規模、計算密集型訓練任務,提供更高的計算吞吐量與可擴展頻寬,滿足 AI 模型訓練需求,單晶片配備 216GB HBM。Google 表示,基於 TPU 8t 的 Pod 相較上一代產品性能提升 3 倍,可將模型開發周期從數月縮短至數周,並儘可能提升能源效率。TPU 8t 可擴展至 9600 顆晶片與 2PB 的 HBM 記憶體,晶片間頻寬相較上一代提升兩倍,可實現高達 121 ExaFlops 的算力,讓超大型模型能夠使用統一的超大記憶體池。此外,TPU 8t 還整合了速度提升 10 倍的儲存訪問,通過 TPUDirect 讓資料繞過 CPU 直接進入 TPU,進一步提升計算效率。借助 Google 全新 Virgo 網路以及 JAX、Pathways 軟體,TPU 8t 可在包含百萬顆晶片的叢集中實現近乎線性的性能擴展。同時,TPU 8t 通過 RAS 功能保障可靠性,包括對數萬顆晶片即時監測、自動檢測並在不中斷作業的情況下繞過故障 ICI 連接,以及 OCS 光路交換任務等自主維護機制,將硬體故障對叢集及訓練的影響降至最低,力爭實現超過 97% 的有效吞吐量。專注代理式 AI 及推理需求的 TPU 8i▲由 TPU 8i 構成的推理 POD 規模更大,無論記憶體容量、頻寬還是推理性能均大幅提升。TPU 8i 是面向 AI 推理與代理式 AI 服務開發的晶片,擁有更高記憶體頻寬與極低的推理延遲。通過解決記憶體傳輸瓶頸、搭配 Axion CPU 架構、針對 MoE 混合專家模型最佳化及降低延遲等四項關鍵技術,為新一代代理式 AI 及 AI 推理需求實現最佳化設計,綜合使每美元效能提升 80%,企業可用相同成本服務兩倍的使用者。TPU 8i 搭載 288GB HBM 記憶體與 384MB 片上 SRAM,解決記憶體傳輸瓶頸,容量相較上一代提升 3 倍,幾乎不會出現等待記憶體傳輸的閒置情況。同時,TPU 8i 伺服器物理 CPU 數量相較上一代增加一倍,採用基於 Arm 指令集的 Google 定製 Axion 架構,通過非均勻記憶體架構(NUMA)隔離,進一步擴展性能。MoE 混合專家模型是代理式 AI 的發展趨勢,由多個小型專家模型組成,僅在需要時載入相關模型,執行混合任務時無需在多個模型間切換。Google 將 TPU 8i 的晶片互聯頻寬提升至 19.2TB/s,相較上一代翻倍,確保多顆 TPU 8i 組成的系統具備統一、低延遲特性,媲美大型單晶片。此外,通過片上 CAE(集體加速引擎)解除安裝全域操作,可將晶片延遲降低 5 倍,大幅縮短響應時間。與 Gemini 共同設計、支援廣泛開發框架▲無論是 TPU 8t 還是 TPU 8i,均可運行所有 AI 任務,架構則分別針對訓練與推理場景最佳化。兩款第 8 代 TPU 晶片均與 Gemini 協同設計,其中 Boardfly 拓撲結構為滿足當前最強推理模型的通訊需求而設計,TPU 8i 的 SRAM 容量則依據量產級推理模型的 KV 快取佔用空間確定,Virgo 網路架構的頻寬目標則根據兆參數訓練的平行性需求制定。同時,TPU 8t 與 TPU 8i 均搭配 Google 定製 Axion CPU 系統運行,實現系統級最佳化。兩款平台均原生支援 AX、MaxText、PyTorch、SGLang、vLLM 等常用框架,支援客戶無需虛擬化直接訪問硬體,同時開源了 MaxText 參考實現與用於強化學習的 Tunix 等相關資料。最大化能源效率:第4代液冷▲Google 強調從 CPU、TPU 到系統設計全程自主把控,實現能源效率最大化,圖為 TPU 8 系列採用的第 4 代液冷架構。面對 AI 資料中心因海量算力需求帶來的能源緊張問題,Google 表示,TPU 8t 與 TPU 8i 相較代號 Ironwood 的第 7 代 TPU,能源效率提升兩倍,最佳化覆蓋整體架構設計、整合可即時動態調節功耗的電源管理等方面。同時從晶片到資料中心實現全系統級能效最佳化,例如將網路連線與計算整合在同一晶片,降低 TPU 晶片資料傳輸能耗,並圍繞 TPU 協同設計資料中心架構,最終相較五年前每單位電力算力提升 6 倍。TPU 8t 與 TPU 8i 採用 Google 第 4 代液冷散熱架構,實現傳統風冷難以企及的高性能密度。加上從 CPU、TPU 到整機系統的全鏈路自主設計,達成傳統分體式主機與晶片方案無法實現的高效能表現。 (芯榜+)