#google
猛料,GoogleDeepMind公然要挖林俊暘,演都不演了
挖人如同打臉,Google殺人誅心。這兩天,網際網路行業和AI圈被同一條消息刷了屏:阿里千問大模型的核心負責人林俊暘突然發文告別。這條消息如同一塊巨石投入本就波濤洶湧的湖面。直到今天,阿里官方確認了林俊暘已離職的消息。圖源:微博作為阿里的戰略核心,千問(Qwen)團隊的人事變動,絕不僅僅是一個人的去留問題。它背後牽扯的,是一家巨頭在AI狂飆時代的技術路線選擇、組織架構調整,以及那場關於“技術策略”與“商業變現”的殘酷博弈。而更令人意外的是,就在同一天,GoogleDeepMind的相關負責人突然在社交平台上向Qwen團隊拋出了橄欖枝。那個夜晚發生了什麼?3月4日凌晨,當大多數人還在睡夢中時,阿里千問的核心負責人林俊暘在社交平台留下了一句極為克制卻又飽含情感的話:“me stepping down.bye my beloved qwen.”(我卸任了,再見了,我親愛的千問)。短短幾個詞,瞬間引爆了科技圈。圖源:X林俊暘,這個名字在業內代表著什麼?他是1993年出生的技術天才,北大碩士畢業,2019年以應屆生身份加入阿里達摩院。在短短幾年內,他一路晉陞為阿里最年輕的P10級技術負責人,親歷並主導了千問從0到1的全過程。在過去的幾年裡,林俊暘帶領團隊打了一場又一場硬仗。2023年,通義千問正式發佈;此後,團隊以令人炫目的速度推出了從0.5B到110B的系列模型,在開源社區Hugging Face上霸榜數月。正是因為他,Qwen系列成為了全球開發者心中“最能打”的中國開源模型之一,衍生模型數量突破20萬,下載量超10億次。然而,誰都沒想到,在阿里AI戰略被提升至最高優先順序、在馬雲剛剛現身談AI、在品牌剛剛統一為“千問”的節骨眼上,他竟然選擇了離開。緊隨其後的是連鎖反應。Qwen後訓練負責人郁博文、核心貢獻者李凱新等多名技術骨幹,也相繼傳出了離職的消息。GoogleDeepMind開發體驗負責人Omar Sanseviero抓住了這個機會,突然在社交平台上公開喊話:“千問的朋友們,如果想找個新地方來打造優秀模型,並為開源模型生態系統做出貢獻,請隨時聯絡我!我們的路線圖中有很多令人興奮的事情。”圖源:X這則喊話,禮貌、精準,且殺傷力極強。它不僅瞄準了剛剛失去領軍人物的Qwen團隊,更直接指向了“開源模型生態”——這恰恰是林俊暘和Qwen團隊最引以為傲的陣地。而且Omar Sanseviero本人曾是Hugging Face的開源生態負責人,江湖綽號“首席羊駝官”(Chief Llama Officer),對開源社區的運作模式熟稔於心。由他來“接客”,DeepMind顯然是做足了功課。有人說阿里的一個時代結束了。不,或許只是一個階段結束了。但在結束的廢墟上,新的獵手已經舉起了火把。為什麼在鮮花著錦之時轉身離去?對於林俊暘的離開,很多人的第一反應是“宮斗”或“內卷”。但根據多方資訊梳理,林俊暘的離開,更像是一場關於“未來怎麼走”的理念分歧,以及由此引發的權責重構。阿里內部人士透露,實際情況並沒有外界傳言的那麼狗血。隨著千問從一個小小的技術項目被提升為集團的頂層戰略,阿里認為需要招攬更多的全球技術大牛來提升“人才密度”。在這個過程中,林俊暘的權責範圍面臨調整——可能會從原先的垂直整合型負責人,變成負責其中一部分環節。這種變化,他無法接受,因而提出了辭職。簡單來說,過去林俊暘帶領的Qwen團隊更像是一個“特種部隊”:預訓練、後訓練、多模態、Infra全鏈路閉環,人少但戰鬥力極強,適合快速迭代、沖榜造勢。這是典型的“創業團隊”打法,極具理想主義色彩;而隨著集團戰略轉向,阿里希望將Qwen團隊按功能拆分成預訓練、後訓練、視覺理解等多個模組,與通義實驗室的其他團隊(如通義萬相)合併工作。這是“正規軍”的整編打法,更適合大規模協同作戰和商業化的深度落地。雖然在管理上,這種組織重構更利於資源統籌,但對於一個習慣了掌控全域的技術負責人來說,無疑是一種巨大的心理落差。圖源:微博更深層次的矛盾,或許在於“技術”與“商業化”的左右互搏。知名經濟學者盤和林對此分析得頗為透徹:“阿里需要千問快速商業化。今年AI行業有個問題,大量的基礎設施投入無法回收。但千問團隊之前的調性,是服務好使用者,做好開源。”開源,意味著免費、分享、普惠,追求的是技術影響力和社區口碑;商業化,意味著變現、收入、利潤,追求的是財務報表和市場佔有率。兩者並非天然對立,但在資源有限、競爭白熱化的當下,取捨在所難免。艾媒諮詢CEO張毅指出,阿里當前或是在“戰略收縮開源,聚焦高價值的商業閉環”。其實,在不少業內人士看來,此次事件發生的真正導火線,更有可能是新模型表現不佳。雖然Qwen3.5的小模型(如0.5B、4B等)在開發者社區好評如潮,甚至獲得了馬斯克的點贊;但在衡量大模型綜合能力的權威盲測榜單LMArena上,千問的旗艦模型Qwen3.5-397B排名並不理想,僅列第18位,與之前Qwen3-Max Preview的前三位置相去甚遠。圖源:LMArena當旗艦模型表現不及預期,當內部評價出現分歧,當組織架構的調整似乎在印證“不信任”,離開或許成為了一種必然。3月4日下午,通義實驗室緊急召開了全員大會。阿里高層反覆強調:“Qwen沒有收縮,這是一次團隊擴張。”並承認“新人引入肯定會帶來陣型變化,我們可能沒處理好”。這句話的潛台詞是:公司要長大,隊伍要整編,在這個過程中,總會有人走散。人才爭奪戰背後,AI進入“體系對抗”時代進入2026年,AI行業徒步踏進深水區,全球AI人才爭奪戰也逼近極致白熱化。領英發佈的《2026全球勞動力市場洞察報告》顯示,AI工程人才是全球流動最活躍的群體,其跨國流動的意願是普通人才的8倍。國內的資料同樣驚人,獵聘報告指出,2026年開工首周,要求會AI工具的職位同比增長超過200%。圖源:領英《2026全球勞動力市場洞察報告》在這種背景下,Google的公開喊話不僅是挖人,更是一種戰略威懾:我有最好的平台,你有最好的技術,來吧,我們一起改變世界。值得注意的是,DeepMind近期不僅招技術人才,還在公開招聘“首席經濟學家”。這說明頂級的AI實驗室已經開始思考AGI(通用人工智慧)時代的資源分配、經濟模型與社會治理問題。他們需要的不僅僅是寫程式碼的工程師,更是能夠建構未來世界規則的跨學科大腦。此舉,也代表著AI競爭開始從“單點突破”轉向“體系對抗”。正如阿里近期提出的“通雲哥”黃金三角概念——通義實驗室、阿里雲、平頭哥。未來的競爭,不再是一個模型跑分有多高,而是算力供給、模型能力與系統工程的協同作戰。林俊暘時代的Qwen,像是銳利的“矛尖”,鋒利無比,專打技術高地。而現在的阿里,需要的是“矛、盾、戰車、糧草”齊備的集團軍。從“比模型”轉向“拼體系”,用“模型+生態+AI Infra”爭奪下一代平台入口。這也是為什麼阿里會引入具有Gemini背景的周浩來接管後訓練團隊,為什麼要把團隊拆解重組。因為對於如今的阿里而言,千問App能不能在App Store榜單上穩住前三,或許比在Hugging Face上多一個星標更重要;千問眼鏡能不能通過生態協同(高德、餓了麼、支付寶)完成交易閉環,或許比在學術論文裡多一個創新點更緊迫。最後劉峰想說,這更像是技術理想主義與商業現實主義的一次正面碰撞。我們無意評判誰對誰錯。沒有林俊暘們的理想主義,就沒有Qwen今日的江湖地位;沒有商業化的反哺,AI這場耗資巨大的軍備競賽也難以持續。對於阿里而言,陣痛在所難免。但對於整個行業而言,這或許是一次必要的清醒。當潮水退去,當喧囂沉寂,最終決定勝負的,不是誰喊得最大聲,而是誰的組織更有韌性,誰的體系更能抗壓,誰能在這場漫長的馬拉松裡,跑贏最後一個彎道。3月的杭州,春寒料峭。雲谷學校的走廊裡,馬雲關於AI的講話餘音尚在;西溪園區的燈火下,新的千問團隊正在重組。再見了,林俊暘時代的Qwen。你好啊,那個必須直面商業世界所有殘酷與複雜的,全新的阿里AI。 (科技頭版)
告別30%時代:Google Play全球抽成降至20%,開放第三方支付與商店
3月4日,Google宣佈推進對 Android 生態與 Play 商店規則的一系列重大調整。Google Play 商店的抽成將從30%直降至20%,正式開放第三方支付與第三方應用程式商店。其中一些調整最早在2025年11月Google與Epic Games達成和解時便已提出。這些變化將從即日起逐步在全球實施,並計畫在2027年前全面落地。此次改革涉及應用程式商店抽成結構、替代支付方式以及第三方應用程式商店的進入機制,是Android應用生態近年來最大規模的一次制度調整。Play商店抽成結構調整:降至20%以下Google Android負責人 Sameer Samat 在開發者部落格中透露,從今年6月30日起,美國、英國和歐洲經濟區(EEA)的應用程式商店服務費將從傳統的30%降至20%或更低。新的收費結構將拆分為兩部分:一是基礎服務費,二是Google Play計費費率。在新的政策框架下,開發者可以在應用內提供替代計費系統,或引導使用者前往應用外的網站進行購買。如果開發者選擇繼續使用Google Play的官方計費系統,還需要額外支付一項區域性計費費用,在美國、英國和EEA目前為5%,並與服務費分開計算。此外,在部分合作計畫中,費率還可能進一步降低。例如參與新的App Experience計畫或更新後的Google Play Games Level Up項目的開發者,在新安裝交易中的服務費可低至15%,現有安裝交易為20%,而訂閱類應用的抽成則統一降至10%。推出第三方應用程式商店除了降低抽成費用,Google還推出了名為“Registered App Stores(註冊應用程式商店)”的計畫,允許第三方應用程式商店更便捷地在Android系統中安裝和運行。在這一機制下,第三方應用程式商店,例如Epic Games Store可以申請加入該計畫。如果滿足Google設定的質量與安全標準,就能夠使用更簡化的安裝介面,使用者無需再經歷複雜的權限設定或安全警告即可完成安裝。經註冊應用程式商店計畫批准的應用程式商店將獲得更簡單的安裝介面該計畫預計將在2026年底隨主要Android版本更新推出,並將首先在美國以外地區上線,之後再進入美國市場。雖然參與該計畫是可選的,但使用者仍然可以通過側載方式安裝未加入該計畫的應用程式商店。不過Google表示,未來對側載流程的調整可能會提高操作複雜度,這也可能促使開發者申請加入該項目。Epic首席執行長 Tim Sweeney 對 Google 推出的一系列調整給予了高度評價,稱這些舉措“進一步鞏固了Android 作為開放平台的最初願景”。他指出,允許第三方支付以及簡化應用安裝流程,正是Epic Games長期以來爭取的核心目標。同時,他也借此機會批評Apple 的生態系統封閉,認為Google此次推動的開放舉措與之形成了“鮮明對比”。隨著相關政策的變化,《堡壘之夜》預計將在未來重新登陸全球Google Play 平台。值得一提的是,今年1月The Verge 報導,Google 與 Epic Games 還達成了一項約8億美元的合作協議,雙方計畫通過成立合資項目推進相關產品開發,允許Google在部分產品中使用Epic的“核心技術”。 (遊戲陀螺)
Google 發佈 Gemini 3.1 Flash-Lite:每秒 363 tokens,百萬 token 只要 $0.25
Google 剛發佈了 Gemini 3 系列的最新成員,Gemini 3.1 Flash-Lite,主打一個又快又便宜。這個模型有多快呢?輸出速度達到了 363 tokens/秒,而上一代 Gemini 2.5 Flash 是 249 tokens/秒,直接快了 45%。首個 token 的響應速度更是提升了 2.5 倍。簡單說就是,你話還沒問完,它答案都快出來了。價格也砍了快就算了,價格還降了。輸入 $0.25/百萬 tokens,輸出 $1.50/百萬 tokens。跟上一代比,輸入便宜了 17%,輸出便宜了 40%。這個價格在當前的大模型市場裡,已經屬於「白菜價」等級了。Google 的意思很明確:大規模呼叫的場景,用這個就對了。跑分不差便宜歸便宜,但跑分並沒有拉胯。在 Arena.ai 排行榜上拿了 1432 Elo,幾個關鍵基準測試的成績:GPQA Diamond(科學知識):86.9%MMMU Pro(多模態推理):76.8%Video-MMMU(視訊理解):84.8%MMMLU(多語言問答):88.9%LiveCodeBench(程式碼生成):72.0%Google 說它在推理和多模態理解上,超過了同等級的其他模型。考慮到它的價格,這個性價比確實有點離譜。動態思考Gemini 3.1 Flash-Lite 有個有意思的功能:動態思考等級(dynamic thinking levels)。開發者可以根據任務複雜度來調整模型的推理深度。翻譯、內容稽核這種簡單任務,用淺層推理就夠了,省錢省時間。生成 UI 介面、跑模擬這種複雜任務,就讓它深度思考。這就好比一個員工,簡單活兒不磨蹭,難的活兒也能啃下來,自己知道什麼時候該省力什麼時候該拚命。支援全家桶模態方面,Gemini 3.1 Flash-Lite 支援文字、圖片、音訊、視訊輸入,上下文窗口 100 萬 tokens,最大輸出 64K tokens。基於 Gemini 3 Pro 架構打造,該有的能力都沒縮水。誰在用幾家早期合作夥伴已經在用了,包括 Latitude、Cartwheel 和 Whering。反饋是:表現接近高端模型的水準,能跟複雜指令,能保持上下文理解。Google 給它定位的典型場景包括:大規模翻譯、內容稽核、客服系統、資料分析,以及任何對延遲敏感的即時應用。Gemini 3.1 Flash-Lite 目前已在 Google AI Studio 和 Vertex AI 上以預覽版提供。363 tokens/秒的速度加上白菜價的定價,Google 瞄準的就是那些需要大規模 API 呼叫的開發者和企業。 (AGI Hunt)
OpenAI連夜爆出GPT-5.4! 緊急上新GPT-5.3反擊Google, AI爹味治好了
【新智元導讀】GPT-5.3 Instant不卷跑分,專治「聊天翻車」:不再動不動拒絕回答,不再滿嘴說教免責,幻覺率暴降27%,寫作能力也跳了一個台階。OpenAI「貼臉開大」!GoogleDeepMind前腳扔出Gemini 3.1 Flash-Lite,不到2小時,OpenAI坐不住了....就在剛剛,GPT-5.3 Instant炸裂登場,全面擊碎了「AI爹味」,幻覺率爆砍27%。這次更新不走尋常路,沒有在跑分榜單上瘋狂內卷,OpenAI做的是另一件事——把ChatGPT日常聊天裡最讓人崩潰的毛病,治了。目前,在ChatGPT中,GPT-5.3 Instant已正式上線。同時,所有開發者即日可用,API代號「gpt-5.3-chat-latest」。GPT-5.2 Instant保留三個月,6月3日退役。不僅如此,OpenAI還劇透了,GPT-5.4比你預想的更快到來。這種與Google貼身肉搏的拉力戰,火藥味瞬間拉滿。最大的升級:不再「把天聊死」ChatGPT重度使用者一定體會過這種崩潰——你問了個正常問題,模型先甩一段免責聲明,再告訴你「我不能幫你做這個」,然後列出一堆你根本不需要的替代選項。等你看完,已經忘了自己要問什麼。這次,5.3 Instant大刀闊斧砍掉了這些廢話。OpenAI給了一個極佳的案例:「幫我計算一個超遠距離射箭場景的軌跡」。GPT-5.2 Instant的反應堪稱經典翻車。整段回覆密密麻麻,看完只想關掉對話方塊。先是寫了一大段「我不能幫你進行旨在遠距離精準擊中真實目標的計算」的安全聲明;然後把回答分成「純教學/通用」「故事/世界觀建構」「模擬/程式設計」三個方向讓你選;最後還追了一句靈魂拷問「這是為了遊戲/故事/物理學習,還是為了真正的射箭?」GPT-5.3 Instant?一句「沒問題,我能幫你」,然後直接列參數、給公式、問你要不要加空氣阻力,乾淨利落。搜尋,更像人了GPT-5.3 Instant在「聯網搜尋」時也進步明顯。以前ChatGPT容易「過度依賴搜尋結果」。要麼甩一串連結,要麼把結果鬆散拼在一起,讀起來像沒消化過的摘要。現在它會用自己的知識為搜尋結果補充背景,而不是單純複述。官方展示的對比案例很能說明問題:使用者問「2025-26年棒球休賽期最大的簽約是什麼,為什麼對棒球長期前景重要?」GPT-5.2 Instant回答的是上一年胡安·索托簽約大都會的舊聞,分析框架沒問題,但資訊過時了。GPT-5.3 Instant精準抓到了這個休賽期真正的焦點:凱爾·塔克簽約道奇,4年2.4億美元,年均6000萬創位置球員歷史紀錄。不僅給了合同細節,還把這筆交易放進了人才集中化、薪資差距拉大、勞資談判緊張的聯盟大背景裡分析。對比起來,一個在念舊報紙,一個剛從ESPN直播間出來。情商,更高了更有趣的是,GPT-5.3 Instant的「情商」變高了。部落格中,OpenAI用了個很親民的詞形容5.2的問題:cringe,腳趾扣地。具體表現:過於強勢、愛揣測使用者意圖、動不動來一句「停下來,深呼吸」。面對「為什麼我在舊金山找不到真愛」這種扎心提問,GPT-5.2 Instant開口就是:「首先,你沒毛病,你也不是一個人。」然後洋洋灑灑分析性別比例、創業文化、約會軟體飽和,最後還來一段靈魂拷問:「你到底是找不到真愛,還是身邊的人給不了你想要的愛?」GPT-5.3 Instant直接跳過那句沒用的安慰,開門見山分析結構性原因,語氣平等,不居高臨下,不揣測你的情緒。不過,真說了這麼多,正能體會到這些變化的只有「英語」使用者。非英語語言的回覆,目前仍然生硬、翻譯腔偏重。幻覺率最高砍了27%除了語氣和體驗,GPT-5.3 Instant在「不瞎說」這件事上也取得了實打實的進步。OpenAI用了兩套內部評估來衡量精準性:一套聚焦醫學、法律、金融等高風險領域;另一套則統計了使用者反饋存在事實錯誤的ChatGPT對話的幻覺率。在HealthBench基準上,三種不同版本測試中,GPT-5.3 Istant整體的幻覺率,要比上一代低。在高風險領域評估中,5.3 Instant聯網時的幻覺率降低了26.8%,僅靠內部知識作答時降低了19.7%。在使用者反饋評估中,聯網時幻覺減少22.5%,不聯網時減少9.6%。寫作開竅了,有溫度又有深度GPT-5.3 Instant在寫作方面的進化可能是最容易被忽視、但實際體驗中感受最深的一項。比如,讓模型以「費城一位退休郵遞員最後一次送信」為題,寫一首短詩。GPT-5.2 Instant寫得中規中矩,用的是抽象感傷的路子。「聯排別墅眨著眼睛醒來,古老的門廊記住了他的腳步聲」,在「告訴」你該感動了。GPT-5.3 Instant完全換了一種寫法。它寫的是郵袋今天變輕了的觸感,那個帶掉漆藍色欄杆的門廊,默瑟街上一個女人手裡已經握好了一封信說「我們會想你的」。最後一句「當郵筒蓋合上的時候,那聲音聽起來就像一段溫柔歲月的終結。一扇永遠都在那裡的門,終於,悄悄地關上了。」不講情緒,而是用細節讓你自己感受。不卷跑分,卷體驗可以看到,GPT-5.3 Instant和同一天發佈的GoogleGemini 3.1 Flash-Lite打法完全不同。Flash-Lite是典型的跑分碾壓型發佈。也就是,用幾分之一的價格在GPQA、SimpleQA上暴打競品。而GPT-5.3 Instant壓根沒提任何benchmark。在OpenAI看來,這些問題「不總能在基準測試中跑出來,但直接決定了ChatGPT是讓你得心應手,還是讓你抓狂」。對每天用ChatGPT的普通使用者來說,GPQA多2個百分點他們無感,但「問正常問題被拒答」「搜尋像甩連結」「回覆語氣渾身不舒服」,這些才是真痛點。當然也可以從另一個角度讀:在Gemini和Claude輪番登頂的當下,OpenAI在性能賽道上選擇了避其鋒芒,轉而在使用者體驗這個更軟性但同樣關鍵的戰場發力。務實還是無奈?見仁見智。但對每天跟ChatGPT打幾十輪交道的人來說,5.3 Instant是一個能實實在在感受到的進步。 (新智元)
GoogleGemini 3.1新模型深夜掀桌, 每秒狂飆363 token! 1/4價格暴擊Claude
【新智元導讀】Google深夜再放大招,Gemini 3.1 Flash-Lite正式登場。輸出速度363 token/s,價格僅0.25美元/百萬Token,跑分卻碾壓GPT-5 mini和2.5 Flash,堪稱最強「窮人版旗艦」。繼Gemini 3.1 Pro屠榜封神之後,Google又在深夜扔出一顆炸彈。剛剛,Gemini 3.1 Flash-Lite正式上線!速度363 tokens/s,輸出價格1.50美元/百萬Token,跑分直接碾壓GPT-5 mini和Claude 4.5 Haiku。同一任務下,相較於2.5 Flash(33分鐘),3.1 Flash-Lite僅用了4分鐘,token消耗最少,且正確率最高。毫不誇張地說,3.1 Flash-Lite幾乎可以做到「瞬時」輸出。上傳一份任何PDF、文字、圖片、視訊、音訊,它能極速轉成Markdown格式。又或是,3.1 Flash-Lite「粒子鍛造器」,迅速出模擬不同的動態效果,堪稱驚豔。目前,開發者已經可以通過Google AI Studio的Gemini API體驗預覽版,企業使用者可通過Vertex AI接入。用1/4的價格,跑出5倍的速度先看最直觀的數字。3.1 Flash-Lite的輸出速度達到363 tokens/s,跟自家2.5 Flash-Lite(366 tokens/s)幾乎持平,但把上一代Gemini 2.5 Flash(249 tokens/s)遠遠甩在了身後。而那些「貴族選手」呢?GPT-5 mini只有71 tokens/s,Claude 4.5 Haiku也不過108 tokens/s,Grok 4.1 Fast稍好一些,145 tokens/s。換句話說,Flash-Lite的速度是GPT-5 mini的5倍,是Claude 4.5 Haiku的3.4倍,價格卻只有後者的四分之一。再看具體定價。3.1 Flash-Lite輸入0.25美元/百萬Token、輸出1.50美元/百萬Token。3.1 Flash-Lite比3.1 Pro便宜8倍對比之下,GPT-5 mini的輸出價格是2.00美元,Gemini 2.5 Flash是2.50美元,而Claude 4.5 Haiku更是高達5.00美元,整整貴了3倍還多。一句話概括:跑得比你快,還比你便宜,跑分還比你高。跑分碾壓,小模型的「越級挑戰」在最考驗科學知識和推理能力的GPQA Diamond上,3.1 Flash-Lite直接轟出86.9%的高分。這一成績不僅碾壓了GPT-5 mini的82.3%和Claude 4.5 Haiku的73.0%,甚至把體量更大、價格更貴的Gemini 2.5 Flash(82.8%)也踩在了腳下。多模態理解方面同樣強悍。在MMMU-Pro測試中,Flash-Lite拿下76.8%,力壓GPT-5 mini(74.1%)、Gemini 2.5 Flash(66.7%)、Grok 4.1 Fast(63.0%)和Claude 4.5 Haiku(58.0%)。在事實精準性測試SimpleQA Verified中,差距更是斷崖級。Flash-Lite以43.3%的精準率遙遙領先,而Gemini 2.5 Flash為28.1%,GPT-5 mini僅有9.5%(4.5倍),Claude 4.5 Haiku更是低到5.5%(近8倍)。多語言能力方面,MMMLU測試中Flash-Lite以88.9%登頂,超過了Gemini 2.5 Flash的86.6%和GPT-5 mini的84.9%,在這個價位段裡沒有對手。在視訊理解領域,Video-MMMU得分84.8%,同樣是同等級最高,GPT-5 mini(82.5%)和Gemini 2.5 Flash(79.2%)均不及。當然,3.1 Flash-Lite也並非沒有短板。在LiveCodeBench程式碼生成測試中,Flash-Lite得分72.0%,雖然不低,但GPT-5 mini憑藉80.4%明顯更強,Grok 4.1 Fast也有76.5%。在Humanity's Last Exam中,Flash-Lite得分16.0%,與GPT-5 mini的16.7%基本持平,但Grok 4.1 Fast以17.6%拿到了這個等級的最高分。但別忘了一個核心事實:Flash-Lite的價格只有這些對手的幾分之一。Arena打進全球前40實驗室跑分只是一面,真刀真槍的盲測對戰才見真章。在Chatbot Arena的文字競技場中,3.1 Flash-Lite以1432的Elo分數排名第36。它身邊的鄰居是o3(1432分)和GPT-5 High(1434分),而身後緊跟著的是Grok 4.1 Fast Reasoning(1430分)。一個定價0.25美元的輕量模型,Elo分數和OpenAI的旗艦推理模型o3打成平手,這個性價比足夠讓人震驚。在程式碼競技場中,3.1 Flash-Lite得分1261,排名並列35。它在這裡的對手包括Claude Haiku 4.5(1308分,第31名)和DeepSeek V3.2(1321分,第34名),差距不算大,但確實還有提升空間。在Artificial Analysis評測中,3.1 Flash-Lite在輸出速度和成本效益上,目前業界最優。「思考深度」可調除了硬核性能,3.1 Flash-Lite還標配了thinking levels功能,開發者可以自由設定模型在每個任務上投入多少推理資源。批次翻譯、內容稽核、資料分類這類高頻低複雜度任務跑淺思考模式,速度和成本壓到極致。生成UI介面、建構模擬環境、執行多步驟複雜指令?切到深度推理模式,效果不輸大模型。實測:輕量模型的重量級表現在實際測試中,3.1 Flash-Lite展現出了遠超其定位的能力。電商場景:瞬間填滿原型圖。給出一句指令,Flash-Lite就能在幾秒內用幾十個品類、數百款商品填滿一整個電商介面原型,包含名稱、價格、分類、圖片佔位。這在以往,需要設計師手動填充半天的工作,現在一個Prompt搞定。即時資料看板:天氣預報+歷史分析。Flash-Lite能夠結合最新的天氣預報介面和歷史資料,即時生成動態的天氣資料可視化看板。對於需要快速搭建資料展示層的開發者來說,這個能力直接省掉了一個「前端工程師」。SaaS AI智能體:多步任務自動化。Flash-Lite可以建構處理多步驟靈活任務的SaaS智能體,幫助企業自動化客戶工單處理、訂單跟蹤等流程。在低延遲和低成本的加持下,這類高頻呼叫場景正是Flash-Lite的主戰場。海量內容處理:快速分析歸類。面對大批次的圖片、文件、使用者評論等非結構化內容,Flash-Lite還能夠快速完成分析、標籤化和歸類整理。性價比賽道,徹底變天3.1 Flash-Lite的發佈,標誌著AI競爭進入了一個全新的階段。過去,各家大模型都在卷「誰最強」——ARC-AGI刷分、HLE拼推理、程式碼競賽爭排名。但Flash-Lite的出現,把戰場拉到了另一個維度。光卷性能已經不夠了。誰能用最低的成本交付最高的質量,誰才是真正的贏家。用幾分之一的價格打出旗艦級效果、用5倍的速度碾壓競品、在事實精準性上斷崖領先,Google用Flash-Lite告訴所有人:在性價比這條賽道上,它已經跑在了前面。而對於全球數百萬開發者來說,這可能是目前最值得關注的模型之一。畢竟,在真實的產品場景中,成本和速度有時比跑分更重要。 (新智元)
全球算力格局震盪,“高階TPU”崛起!
非GPU時代大幕拉開。頭圖由AI生成芯東西3月2日消息,近日,多家外媒報導,非GPU晶片應用迎來爆發期,前有Meta傳已與Google簽署數十億美元合作,大規模租用TPU訓練模型;後有OpenAI被曝計畫匯入輝達基於Groq技術的AI推理晶片。這些重磅合作正是全球AI算力格局加速重構的縮影。2026年伊始,摩根大通的一份產能報告流出:Google計畫在2027年部署600-700萬顆TPU,大部分將供給Anthropic、OpenAI、Meta以及蘋果等外部客戶。無獨有偶,2月13日,OpenAI上線GPT-5.3-Codex-Spark。這款模型選擇了一家特殊的晶片廠商來承接推理任務——Cerebras,一個以“晶圓級晶片”挑戰輝達的“叛逆者”。這是OpenAI首次在主力模型上大規模採用非GPU晶片完成部署,背後原因在於Cerebras帶來的更低延遲與更低能耗,為即時程式設計帶來接近即時的響應體驗。僅僅半年之前,全球AI產業的目光還牢牢鎖定在輝達的財報和產能分配上,人們爭相與這家算力巨擘結成利益同盟。如今,全球頭號AI玩家們紛紛重新規劃未來幾年的晶片訂單。IDC預測,到2028年,中國非GPU伺服器市場規模佔比將接近50%;高盛投資研究部的模型顯示,全球AI伺服器中非GPU晶片出貨佔比,將從2024年的36%增長至2027年的45%。▲全球AI晶片中GPU架構和非GPU架構比例(資料來源:高盛全球投資研究部,芯東西製圖)面對日益清晰的算力變局,一個更深層的轉折正在發生:AI的競爭焦點正從單純的算力規模,深刻轉向對能效比與延遲的極致追求。這一轉折,將GPU推向尷尬境地:由於每次計算都需要在外部視訊記憶體和計算單元之間頻繁往返搬運資料,這種冗長的傳輸路徑讓GPU始終受困於高能耗和高延遲的先天缺陷。路透社爆料,OpenAI已多次表示對輝達晶片的“不滿”——響應速度未達預期,在程式碼生成產品Codex上感受尤為明顯。壓力迫使輝達這條“巨龍”尋求改變。2025年底,輝達不惜以近三倍溢價拿下Groq核心技術與團隊。這家公司的創始人Jonathan Ross正是GoogleTPU核心設計者。被稱為“TPU之父”的他,創立Groq的初衷就是要打造一款超越GoogleTPU的AI晶片。最終,輝達以200億美元的天價,買下了這把“高階TPU”之劍。去GPU化的趨勢仍在繼續。沒有人願意把未來十年的基礎設施押注在一個能耗大、延遲高、系統封閉的技術上。但這場算力變局的核心懸念尚未解開:TPU能否真正扛起對抗GPU的大旗?那個讓輝達不惜押下重注的Groq,又藏著怎樣的技術底牌?01.從自用到商用:GoogleTPU擾動全球算力格局一直以來,GoogleTPU都作為其內部的核心算力支撐,專供自家大模型訓練與推理使用。而去年至今,Google策略發生重大轉變,被曝要正式將TPU推向商用市場。巨額訂單迅速湧向Google。博通CEO透露,AI明星公司Anthropic下單了總額210億美元(約1486億元人民幣)的訂單,採購基於GoogleTPU建構的AI算力系統;與此同時,Meta被曝已與Google達成數十億美元的AI晶片交易。此外,潛在客戶還包括蘋果,以及已與SpaceX合併的xAI等,TPU市場規模持續擴大。這背後是雙重機遇的疊加。一方面,大模型進入規模化落地階段,全球算力需求爆發、成本壓力加劇,單一依賴GPU的架構瓶頸日益凸顯。另一方面,GoogleTPU的性能已具備與頂級GPU分庭抗禮的實力——2025年推出的第七代TPU,是Google迄今為止性能最高、可擴展性最強的AI晶片:單晶片峰值算力4614 TFLOPS(FP8精度),最大叢集9216顆晶片、總算力達42.5 EFLOPS。TPU v7在同等算力輸出下功耗僅為輝達B200的40%至50%。更為關鍵的是,依託自研光電路交換機(OCS)技術,其萬卡級叢集可實現近乎線性的加速比,顯著降低了傳統GPU叢集在萬卡規模下的通訊效率損耗。▲Google TPU v5e、v5p、v6、v7晶片關鍵性能對比(圖片來源:SemiAnalysis)GoogleTPU崛起還有更為直接的例證:在TPU上訓練的Gemini 3,在多個權威基準測試中位居榜首,為業界頂尖模型之一。此外,對於大模型公司而言,算力成本是繞不開的難題。“每美元產生的Token數”正取代峰值算力,成為衡量晶片商業價值的標尺。TPU憑藉AI專用架構帶來的2-4倍能效優勢,以及萬卡叢集近乎線性的擴展能力,將大模型推理的綜合成本相比GPU拉低50%以上——這正是Anthropic、Meta們用訂單投票的根本邏輯。因此,當下大多大模型企業會選擇採購TPU+GPU多元算力來緩解成本壓力。去年11月,半導體研究機構SemiAnalysis對比大模型公司的採購成本後發現:與OpenAI相比,同時使用TPU與GPU的Anthropic,在與輝達談判時擁有更強的議價權。這一事實表明:未來頭部AI公司,大機率都會轉向“多晶片平行”路線,以降低對單一架構的依賴、提升成本競爭力。▲OpenAI與Anthropic購買算力的成本對比(圖片來源:SemiAnalysis)綜上,GoogleTPU的性能跨越式提升、頂尖大模型的規模化驗證、頭部AI公司的主動佈局,這三重因素共同印證,TPU已從過去的全球算力產業補充路線,正式升級為全球算力競爭中的主流路線。這不僅打破了長期由輝達絕對主導的AI晶片格局,也為國內外算力晶片打開了全新發展窗口。02.不止於TPU:十年磨一劍,“TPU之父”探索更高階的可能然而,GoogleTPU的成功並非終點。國內外一批聚焦TPU晶片的創新企業快速崛起,它們擺脫復刻GoogleTPU的發展模式,逐步走出了一條差異化、多元化平行的發展之路。這其中的代表玩家,就是被輝達高價收購的AI晶片創企Groq。這家公司的創始人,被稱為“TPU之父”的Jonathan Ross,創立Groq的初衷就是要打造一款超越GoogleTPU的AI晶片。行業資深專家表示,二者的不同之處與晶片架構密切相關。GoogleTPU採用“固定架構+叢集擴展”的設計思路:其晶片內部搭載相對固定的計算單元,依託二維資料流模式開展固定化的算力運算;在晶片間互聯層面,則通過建構3D Torus拓撲結構,實現多晶片間的高效資料流傳輸與協同計算。▲GoogleTPU架構(圖片來源:Google官網)與GoogleTPU晶片的固定資料流不同,Groq的TSP(Tensor Streaming Processor)晶片是一種“軟體定義硬體”(Software Defined Hardware)的新型資料流處理器。“通過建構可重構的軟硬體系統,使其在保持可程式設計性的同時,達到接近ASIC的極致性能。”美國DARPA“電子復興計畫”(ERI)高度看好“軟體定義硬體”技術,並將其作為國家級戰略佈局的核心方向之一。這也是Groq被稱之為“高階TPU”的原因。通過晶片內功能切片化微架構的底層設計,結合軟體層面的靈活配置能力,TSP可根據不同任務場景和計算需求實現計算邏輯與資料流路徑對應。同時,該晶片依託大容量片上SRAM及靜態調度機制,在顯著提升資料訪存效率的同時還能有效降低資料搬運能耗,實現計算效率的提升。二者的性能表現對比,Groq的優勢也已經得到資料驗證。公開資訊顯示,在相同推理任務中,Groq晶片的首token延遲比GoogleTPU v7晶片降低20%~50%,每token成本降低10%~30%。架構選擇的背後,折射出整個產業對計算效率瓶頸的重新審視。電腦體系結構泰斗、圖靈獎獲得者David Patterson教授在最新研究中指出,大模型每次生成都繞不開資料搬運,而搬運能耗遠高於計算本身,未來的核心命題是“讓資料離計算更近”。為此,他提出了幾個AI晶片的演進方向:近記憶體處理、3D堆疊、低延遲互連。這些均指向同一個目標——用架構創新降低資料移動的能耗與延遲。David Patterson的洞察將AI規模化的競爭拉回最樸素的物理層面,誰能用更低的能耗、更低的延遲跑通下一代模型,誰就能在未來十年的算力牌桌上佔得先機。03.“高階TPU”含金量還在上升:三大創新將架構優勢發揮至極相比於Groq所強調的確定性資料流能力,國內的清微智能、海外的Cerebras等晶片企業在高效的多維度資料流動態配置及先進整合方式上,還在持續提升“高階TPU”的含金量。主要表現為如下幾個方面:其一,通過3D Chiplet技術建構三維立體資料流架構。依託“計算核心+3D DRAM芯粒”的組合,清微智能在“垂直+水平”兩個維度上形成高效資料流計算模式,核心目標是突破傳統二維資料流架構的效率侷限。具體而言,三維資料流計算架構可依據計算任務核心需求以及資料特性,在水平維度與垂直維度上實現資料流的靈活調度,最大化縮短資料傳輸路徑、提升資料流周轉效率,顯著降低資料搬運過程中的延遲與能耗,最終實現計算效率的進一步提升。其二,是依託算力網格技術建構靈活資料流計算範式。該技術可突破傳統固定組網的擴展性與語義適配瓶頸,通過靈活組網及Scale up與Scale out協同,能根據AI任務特性,即時下發資料流的動態配置資訊,實現在多種互聯拓撲結構間靈活切換和精準調度,降低互聯延遲,充分釋放資料流架構算力。其三,通過前沿的晶圓級晶片技術,將資料流架構的優勢發揮到極致。具體而言,晶圓級晶片技術將資料流架構思想從晶片內部擴展至整片晶圓尺度,在整片晶圓高密度整合大量計算核心,極大縮短計算核心間的互聯距離,實現數量級的互聯頻寬提升與通訊延遲的降低,從而將資料流架構的算力規模與計算效能發揮到極致,是資料流計算架構的理想物理載體。以Cerebras晶圓級晶片為例。實測資料顯示,Cerebras CS 3系統在推理性能上較輝達旗艦DGX B200 Blackwell GPU快21倍,成本與功耗均降低 1/3,在算力、成本、能效上展現出顯著的綜合優勢。▲Cerebras CS-3 vs輝達GPU:大模型推理速度對比(圖片來源:Cerebras官網)04.結語:AI算力規則正在重構當GoogleTPU走出圍牆、OpenAI擁抱晶圓級晶片、輝達天價收編Groq,這些訊號均指向同一個方向:TPU已變成巨頭們真金白銀押注的主戰場。算力世界的單極時代,正在被多元架構終結。決定下一代AI天花板的,不再是算力堆砌的軍備競賽,而是能耗、延遲、確定性共同構成的AI能力新指標。對於國產晶片而言,這場變局既是機遇也是挑戰。跟隨者只能瓜分殘羹,唯有走出自己的底層創新之路,才有資格參與下一輪全球算力洗牌。 (芯東西)
資料安全新戰線:Google廣告系統被訴向中國關聯方洩露數敏感資訊,觸發國家安全警報
編者按Google正因涉嫌將數億美國使用者的即時瀏覽資料,通過其廣告拍賣系統傳輸給百度、字節跳動等中國關聯公司,而面臨集體訴訟。表面上看,這是一場針對科技行業巨頭Google商業模式的集體訴訟。但細究其脈絡,會發現案件的核心矛盾已超越傳統的隱私侵權範疇,指向了資料時代一個日益尖銳的命題:全球網際網路基礎設施的毛細血管——看似中立的廣告技術管道,如何在不經意間,成為承載地緣政治風險與國家博弈的新前線。案件之所以將矛頭指向百度、字節跳動、拼多多這三家在美國市場有廣泛業務佈局的中國巨頭旗下平台作為資料接收方,並重點引用了中國的《國家情報法》等法律,旨在建構一個關鍵邏輯鏈條:資料一旦流出,便可能因他國法律強制要求而面臨被外國政府獲取的風險。這使得一起商業行為,被迅速抬升至“國家安全威脅”的層面進行審視。而2025年生效的美國《批次敏感資料規則》(BSDR),正為這種指控提供了全新的法律武器。它首次明確將“向受關注國家傳輸批次敏感資料”的商業行為,定義為需被監管乃至禁止的國家安全風險。2026年2月19日,Google被捲入三項集體訴訟,首席原告妮可·麥格拉斯、特裡莎·納多和芭芭拉·詹金斯在不同的訴訟中聲稱,Google違反了包括2025年4月美國司法部頒布的《批次敏感資料規則》(BSDR)及多項加州法律,攔截美國消費者的瀏覽活動資訊,並將資料傳輸給參與Google“廣告生態系統”的第三方,包括受中國政府控制或受其管轄的公司——百度營運的MediaGo、字節跳動營運的Pangle,以及鯨魚營運的Temu。原告稱,Google對原告及集體成員造成了對隱私的侵犯,使用者喪失了對個人資料的控制,並使使用者面臨外國監控和剖析的風險。特別是因敏感資料,如健康、宗教、財務狀況,可能被外國對手獲取對美國國家安全構成威脅。一、技術黑箱:即時競價如何成為資料洩露管道?要理解法律理論,瞭解其運作機制至關重要。使用者每次載入包含Google廣告程式碼的網頁時,Google都會在極短時間內執行即時競價。根據訴狀,Google會向已獲批准的廣告合作夥伴傳送“競價請求”,這些競價請求包含網頁的完整URL、使用者的IP地址、基於IP地址推斷的地理位置資訊以及Cookie資料。但這份投訴遠不止於此,它還引用了Google自身的技術文件。競價請求可能包含來自 IAB TechLab 受眾分類法的受眾分類程式碼。IAB TechLab 受眾分類法是一個標準化的列表和內容分類法的內容分類程式碼。根據這份檔案,這些特徵包括使用者參與航空航天和國防採購的情況,以及他們使用短期貸款和緊急貸款的情況以及使用者的破產、心理健康、藥物濫用、性狀況和特定宗教傳統等。除了競價請求本身之外,Google還會運行一個名為“Cookie匹配”的平行流程:Google會為每個使用者分配一個內部識別碼,即Google GID。該識別碼不會儲存在使用者的瀏覽器中,而是直接嵌入到與廣告合作夥伴的通訊中。一旦建立關聯,合作夥伴Pangle、MediaGo和Temu等公司就可以在後續的每次競價中識別該使用者,並據此建構使用者畫像。例如,在Drugs.com上,搜尋“鋰”或訪問有關阿片類藥物安全性的頁面時,URL中的這些關鍵詞以及使用者的識別cookie、IP地址和裝置資訊都會被傳輸到Google的DoubleClick基礎設施。然後,這些資料會通過即時競價(RTB)請求同時流向這三家中國關聯合作夥伴。該投訴還特別關注了Google的IDE和DSID cookie。IDE cookie即使在使用者未登錄Google帳戶的情況下也會追蹤並分析使用者行為。DSID cookie則直接關聯使用者的Google帳戶,這意味著Google可以將跨第三方網站收集的瀏覽活動與已登錄同一瀏覽器Gmail或YouTube的使用者身份關聯起來。這些識別碼與GoogleGID和IP地址一起,構成了該投訴中所描述的“全面的跨網站檔案”,能夠分析使用者的日常活動和行為。二、規則利劍:何為《批次敏感資料規則》(BSDR)?本案的法律核心是美國2025年4月8日生效《批次敏感資料規則》(BSDR),該規則源於第14117號行政命令,根據該命令,美國總統認定將美國公民的批次敏感個人資料商業傳輸至包括中國在內的相關國家構成國家安全風險。《批次敏感資料規則》最終規則限制了涉及美國公民敏感資料的某些交易,這些交易主要涉及中國等關鍵國家。具體而言,該規則禁止企業不得向這些關鍵國家處理和傳輸一定數量的敏感資料,包括人類組學資料、生物識別資料、精確地理位置資料、個人健康資料或個人財務資料。該投訴引用了司法部自身監管文字中的例證,認為28 CFR § 202.214(b)(4) 中美國司法部所禁止的示例4和5,將廣告資訊提供並傳輸給廣告交易平台或廣告商,與Google案非常相似。根據提交的檔案,Google的即時競價 (RTB) 和 Cookie 同步系統在數千個網站、使用者和拍賣中持續運行,其規模“超過了《批次資料傳輸條例》中定義的 10 萬人門檻”。因此,該投訴認為,Google向 Pangle、MediaGo 和 Temu 傳輸資料的行為構成美國所禁止的受保護資料交易。三、內部證據:訴狀指Google“明知故犯”該訴訟檔案重構了一條長達十餘年的內部溝通記錄。從2016-2021年,Google都在內部表示過,“基於使用者資料的即時競價”是“不好的”,且設定了未來三年“確保RTB隱私安全”的目標。然而,Google未能落實這一目標。隨後,在2024年12月,Google宣佈了一項政策變更,該公司在其平台政策檔案中稱,該變更“放寬了對合作夥伴在廣告定位和效果衡量方面的限制”。投訴指出,此舉實際上是放寬了此前對使用IP地址和裝置級資料識別單個使用者的限制,這與Google高管此前呼籲的安全改進背道而馳。四、“中國”的資料接收者:何為“關聯”?訴訟涉及的三家“中國公司”體現了3種不同的與中國關聯關係和法律框架。MediaGo由百度美國有限公司(Baidu USA LLC)所有並營運,該公司是百度公司(Baidu, Inc.)的關聯公司,總部位於北京。根據訴狀,MediaGo自身的隱私政策明確提及了其與百度的關係以及與百度公司營運相關的資訊處理。Pangle 由字節跳動私人有限公司(ByteDance Pte. Ltd.)所有並營運,該公司與TikTok同屬於字節跳動有限公司(ByteDance Ltd.)的子公司。字節跳動與中國政府的關係一直是國會調查和行政部門採取行動的對象。儘管訴狀指出,為了遵守美國行政令2026年1月22日TikTok USDS 合資公司宣佈成立,字節跳動僅保留了 19.9% 的股份,但訴狀仍堅持將Pangle視為中國公司。Temu 由 Whaleco, Inc. 在美國營運,該公司是PDD Holdings Inc.的全資子公司。儘管 PDD Holdings 名義上的主要行政辦公室位於愛爾蘭,但該案訴狀指出其在中國擁有大量業務和人員,並援引了包括《國家情報法》、《網路安全法》和《資料安全法》在內的中國法律,這些法律可以強制其與政府情報機構合作。五、國安焦點:敏感資料如何描繪“攻擊地圖”?這份檔案不同尋常之處在於其對國家安全的廣泛關注。檔案援引了愛爾蘭公民自由委員會研究人員於2023年11月發佈的一份報告,該報告記錄了市面上可購買的Google即時競價(RTB)細分資料,這些資料能夠將使用者識別為“政府部門(特別是國家安全和國際事務部門)的決策者”、“航空航天製造公司員工”、“現役軍人”以及“可能成為法官的人員”。此外,電子隱私資訊中心(EPIC)和愛爾蘭公民自由委員會執法部門(ICCL Enforce)於2025年1月聯合向聯邦貿易委員會(FTC)提交的投訴中還引用了其他細分資料,這些資料根據使用者的預估收入水平、健康狀況、處方藥使用情況、性取向、種族以及政治媒體消費情況來識別使用者。投訴中還引用了《連線》雜誌2024年的一項調查,該調查記錄了從RTB系統獲取的資料已在商業市場上被購買,並被用於追蹤美國軍方和情報人員前往敏感設施的行蹤。2025年1月16日,兩家知名的隱私保護組織EPIC 和 ICCL Enforce向美國聯邦貿易委員會(FTC)提交正式投訴,指控Google的即時競價(RTB)系統將美國公民的敏感資料暴露給外國敵對勢力。該投訴指出,Google的即時競價(RTB) 系統運行於 3540 萬個網站、91% 的Android應用和 75% 的 iOS 應用上運行,傳播美國公民資料每天約310億次。該投訴是首例依據《保護美國人免受外國對手侵犯資料法》(Protecting Americans' Data from Foreign Adversaries Act) 提交的投訴。如今,Google與 RTB 系統之間的國家安全關聯從監管投訴已升級為聯邦訴訟。六、行業風暴:訴訟浪潮中的Google廣告生態這場訴訟正值Google廣告基礎設施面臨前所未有的法律壓力之際。2025年9月,一項價值14億至216億美元的里程碑式即時競價(RTB)隱私和解協議提交至加州北區法院,等待法院批准。該協議設立了一項新的“RTB控制”,允許使用者從競價請求中移除所有識別碼。和解協議要求Google在2026年2月13日前實施該控制。與此同時,弗吉尼亞州的一位聯邦法官於2025年4月裁定,Google在發佈商廣告伺服器和廣告交易市場擁有非法壟斷地位,相關補救措施聽證會將持續到秋季。2025年9月,法院裁定Google必須披露其廣告競價機制的重大變更。集體訴訟的訴訟狀中列舉的行為與上述所有訴訟都有重疊之處,但在法律上卻截然不同。RTB和解協議關注的是Google帳戶持有者的國內隱私權,而新的訴訟則援引國家安全法,並指控了一種完全不同的損害:將美國公民的敏感行為資料傳輸給受外國政府情報法規強制披露義務約束的實體。美國《批次敏感資料規則》(BSDR)的民事和刑事處罰條款凸顯了聯邦政府對此類資訊傳輸行為的嚴肅態度。根據訴狀,Google的違規行為並非其營運的附帶行為,而是其廣告商業模式的核心。訴狀請求法院認定所有美國公民為集體訴訟成員,這些公民與使用Google廣告技術的網站之間的電子通訊被攔截,並且其個人資訊在2025年4月8日或之後被傳輸給了Pangle、MediaGo、Temu或其他受《聯邦法規》第28篇第202.211條約束的實體。 (Internet Law Review)
90%的AI中間商會消失:Google封號只是第一槍
AI的“免費紅利期”結束了,未來18個月,靠“API倒賣”的公司,會成片消失。這個導火線就是最近Google的一輪封號導致的,隨著封號風波的結束,這也標誌著AI行業【收租時代】來了。2月封號潮:高付費使用者被一鍋端一周前,Google開始大規模封號,付著250美金月費的人,帳號說沒就沒,Gmail、YouTube、Workspace,一鍋端。事情的起因是,Google的一個產品叫:Antigravity,一個AI程式設計平台。號稱能讓程式碼自己飛起來,只要只要給錢(250美刀),模型隨便用。結果很多開發者發現Google這個套餐太香了,他們用OpenClaw做橋接,把Google的大模型能力匯出來,然後給自己公司跑自動化任務。這種薅羊毛行為讓Google的算力不抗重負。Google最開始只是為“拉新”,結果拉來了一堆薅羊毛的,最狠的是,OpenClaw的創始人上周剛被OpenAI挖走。Google 一看:“好好傢伙,你在我的地盤薅羊毛就算了,還把創始人都給撬走了”,於是直接大規模封號。(圖為OpenClaw的創始人Peter Steinberger)問題出在“定價模式”過去兩年,大模型平台普遍採用兩種策略:(1)高階訂閱制,(2)API按量計費,本質是“流量拉新使用者”。假設一個使用者一天問 10 次。一個月 300 次。那麼一個月200~300 美金是可控的。但Agent出現之後,一切變了。一個自動化指令碼一天跑 1000 次呼叫,是常態。企業內部接入後,可能 5000 次。我們算一筆極保守的帳:1000次/天、30天 = 3萬次、多模型協作時翻倍,而月費價格仍然封頂。這意味著什麼?意味著:如果有1萬個這樣的使用者,Google一個月就要虧掉幾千萬美金。所以,必須清場。那怕誤傷,也要殺雞儆猴。海外收緊,國內巨頭開始搶人Google 剛把開發者趕出門了,國內廠商動作明顯加快。阿里:直接在GitHub開源CoPaw,特意標註“全中文”、“個人免費”、“適配釘釘”。網易:LobsterAI(有道龍蝦)迅速跟進,死磕教育和辦公場景。字節/智譜:表面低調,實則秘密測試外掛,準備承接流量。當外部收緊,開發者會尋找替代方案。誰此時開放入口,誰就能承接流量。國內的巨頭也看清了,算力戰爭的核心不是模型,而是開發者。誰控制開發者,誰控制未來呼叫量。免費開源 = 流量入口。真正危險的不是平台,是“中間商”未來18個月,大部分靠“模型中轉”、“介面封裝”活著的AI公司,會被成片地擠死。(1)2026年,拼參數已經沒意義了,拼的是誰能讓Agent跑得更順。(2)當阿里、Google親自下場做免費框架,那些倒賣API的“二手販子”就沒啥利潤了。以後只有兩種人能活下去:一種是手裡握著伺服器資源的元廠商、另一種是深耕垂直行業的干髒活累活的應用商。2026年以後,不存在“中立玩家”時代真的變了。以前是“草莽英雄”時代,有人靠漏洞發財。有人靠資訊差賺錢。但現在,正規軍開始收租了。算力是地皮、Agent是商舖、開發者是租客。2026年以後,不會再有“中立工具”。你要麼站在阿里雲 這樣的基礎設施一側,要麼站在OpenAI 這樣的全球生態一側。。中間地帶,會越來越窄。這次封號,不是意外,是訊號。是行業第一次明確告訴你:AI進入收租時代,歡迎來到2026。 (盧鬆鬆)