#google
Google最新報告《The ROI of AI 2025》揭露:使用AI賺錢的企業越來越多
上個月美股的大空頭Michael Burry還在用AI泡沫論恐嚇市場,這個月Google直接甩出報告《The ROI of AI 2025》,三千多個企業高管的調研資料,挺超預期的。十分亮點且樂觀的資料74%的公司說他們至少在1個AI項目上賺回來了,注意,是已經賺到且回本了!更有意思的是那批"重倉型",就是把AI預算的一半以上都砸進智能體、且大規模部署的公司,已經88%說見到回報了,比平均水平高出14%。這批公司還有幾個特點:82%已經上線了超過10個AI智能體!78%用AI搞生產超過一年了。真金白銀往裡砸砸砸!關鍵資料概覽 圖:報告關鍵發現概覽(來源:Google Cloud《The ROI of AI 2025》第3頁)AI智能體是什麼?不是GPT、豆包那種聊天對話方塊。打個比方:聊天機器人像個百科全書,你得主動翻;AI智能體更像個實習生,你交代清楚了,它就一直run現在52%使用AI的公司都上了智能體,39%的公司甚至部署了10個以上。速度有沒有超出你的預期?賺錢最快的五大場景五大業務影響領域 圖:Gen AI對五大業務領域的影響(來源:第24頁)員工效率——70%的公司說有提升IT部門尤其明顯,70%提到IT流程和效率改善了,39%的公司說員工生產力至少翻了一倍。客戶體驗——63%的改善,比去年的60%還漲了點83%提到使用者參與度上去了,75%說滿意度提高。應該是客服場景,簡單問題AI先接著,複雜的再轉人工。營收增長——56%說業務有增長明確營收漲的公司裡,53%估計漲幅在6%-10%之間,31%說超過10%。營收增長資料 圖:Gen AI帶來的營收增長分佈(來源:第31頁)市場行銷——55%說有幫助寫文案、做素材、分析資料,這些AI確實拿手。零售和媒體行業最積極,都有59%說AI對行銷有用。安全防護——49%說到安全性提升77%提到識別威脅的能力變強,61%說處理問題的時間縮短了。讓AI去盯日誌找異常,比人眼強,畢竟它不會偷懶。不同行業的玩法不太一樣各行業上AI智能體,優先解決的問題不同:行業AI智能體使用情況 圖:各行業Top 3 AI智能體應用場景(來源:第16頁)零售和金融都把客戶服務排第一,分別是47%和57%。製造業最看重的是客服和行銷並列第一,都是56%。醫療行業反而把技術支援排最前面,49%。電信行業最關心安全,47%。說明AI不是萬能藥,得看你那兒最疼。預算的問題77%的公司說,AI技術成本降了之後,他們反而花得更多了。看來降價刺激消費,在那兒都一樣。現在平均26%的IT預算花在AI上。那些重倉型企業更誇張,39%的IT預算都給了AI。58%的公司說在撥新預算給AI。高管支援有多重要?報告裡說,有C級高管直接負責AI戰略的公司,78%見到了回報;但沒有C級高管親手抓的也有72%見到回報。高管支援與ROI關係 圖:C級高管支援與ROI的關係(來源:第43頁)坦白說,6個點的差距沒有特別震撼。可能真正的差異不在"有沒有領導重視",而在別的地方——預算夠不夠、團隊配不配合、選的場景對不對。不過有個趨勢值得注意:AI戰略和高管層強繫結的公司比例,從去年的69%漲到了今年的73%。越來越多公司把AI當成一把手工程來抓了。甲方選LLM的關鍵點重中之重的是資料隱私和安全,37%的公司說這是選AI供應商時最看重的。因為讓AI接入公司系統,它就能看到一堆敏感資料。萬一出漏子,輕則罰款,重則關門大吉。系統整合排第二,28%。成本排第三,27%。LLM供應商選擇因素 圖:選擇LLM供應商的Top 3考量因素(來源:第45頁)總結52%用AI的公司已經在搞智能體了,這不是小數字。如果你的企業還在觀望,可能得考慮一下你還追得上競爭對手嗎?那些賺到錢的公司有個共同點:不是淺嘗輒止,是重倉下注而且持續投入。試水可以,但光試水可能試不出什麼。最見效的場景集中在員工效率、客戶服務、行銷。如果要部署AI,可能從這些方面切入比較穩!當然這份報告是Google Cloud出的,它自己賣雲服務和AI,數字肯定往好了說。但三千多個高管的樣本,覆蓋全球20多個國家、七個行業,還是有點參考價值的。至於AI到底能不能幫你賺錢,還得自己擼起袖子加油幹了才知道。 (FinHub)
穩准狠!輝達反擊Google和OpenAI
打蛇打七吋這不,黃仁勳著急了,Google和OpenAI一唱一和給輝達挖坑才說完兩天時間,輝達現在就直接跟Groq合作要做TPU了!Groq跟Google的TPU技術相似,不過比Google的脈動陣列核心做得更徹底,直接限制資料不能調整各個方向傳播,單方向流水線架構。加上純一級快取高頻寬,依賴編譯器生成靜態計算圖。結果就是編譯器比Google TPU要更簡單更快。也是產品架構足夠簡單,所以才能最快速度量產商業化。但缺點是不能用來做AI大模型訓練。現在,輝達的反擊快准狠,直接拉到了Groq合作做TPU,也是很有意思!TPU這種AI晶片的核心是,編譯器和靜態計算圖技術,這個編譯器必須適配現在的AI開發生態,還不能太複雜,太複雜的話開發和維運周期太長,可用性低。之前專門解釋過這個事靜態計算圖是如何幫Google Tensor TPU超越輝達GPU性能的?輝達有市場必用的AI軟體框架CUDA,Groq的兩者張量流架構做到了最簡單,兩家高度互補!這兩家合作直接對Google的XLA和OpenAI的Triton直接釜底抽薪!讓兩家軟體優勢一夜之間還沒雄起,就殘血大半。為何Groq晶片性能那麼強?Groq的指令集架構(ISA)非常特殊,它利用了晶片的空間佈局,運算東西向水平移動,處理指令和資料的流動。資料在南北向讀取計算單元。無衝突設計:編譯器確保當MXM單元需要資料時,資料正好在那個時鐘周期通過"傳送帶"到達該位置。編譯器:Groq的真正大腦,架構中,編譯器承擔了所有繁重的工作。在NVIDIA架構中,硬體負責管理資料流(快取未命中,線程調度),計算出每個是在每個時刻的位置。晶片間互聯(C2C):為了讓幾百張卡像一張卡一樣工作,Groq晶片自帶了大量的Chip-to-Chip 引腳,晶片之間直接相連,不需要昂貴的InfiniBand 交換機或 NVLink交換機。對這一部分感興趣的讀者,可以留言點贊,後續再詳細講解。 (AI頓悟湧現時)
🎯你只知道台光電 台燿 欣興 尖點 富喬..這檔PCB「隱形冠軍」將成2026主力押寶大黑馬!Line@連結:https://lin.ee/mua8YUP🎯你知道現在的AI需求有多誇張?Google、AWS、Meta資料中心狂蓋,伺服器像不用錢一樣拉貨。PCB已經不是板子,是AI的高速公路。頻率越高、速度越快,路基就越重要。而這條路基,正在缺一種關鍵材料,缺到爆。最近我們看到2383台光電、6274台燿股價也領先表態創下歷史新高;其他像2368金像電、2313華通、8358金居、3037欣興、1815富喬、5498凱崴、8021尖點...這些PCB供應鏈,幾乎只要跟「高頻、高速」沾上邊的,都成了台股盤面上的焦點。但你不知道的是,這些CCL大廠現在正為了搶奪一種神祕的「特用樹脂」而爭破頭。這家藏在傳產化學標籤下的「AI隱形冠軍」,那就是【4722國精化】。🚀產能進入「大爆發」前夜:這不是轉型,這是重塑!國精化不再是你想的那家傳統化學廠,它正全面殺入AI電子材料核心區:👉HC材(AI專用樹脂):隨著輝達與CSP大廠追單,市場傳出擴產進度大幅提速!從2025到2026年,高階電子材料產線有望呈倍數式開出。👉PSMA樹脂(稀缺王牌):這種高頻CCL的關鍵材料,全球供貨商屈指可數。國精化聯手日本大廠JSR,正瞄準原本數倍大的供應缺口強勢布局!💰 法人眼中的「PE重評價」:獲利結構即將質變!市場法人最興奮的不是營收,而是「獲利純度」:毛利上修:隨著電子材料佔比拉升,整體毛利率有望脫離傳統化學的紅海,向20%以上的高標挑戰。本益比重新定價:當一家公司從「傳統化工」變身為「AI關鍵特化」,市場給出的評價將會完全不同!看看2383台光電、6274台燿股價已經在反映2026年的盛世,而作為「上游中的上游」供應商,4722國精化的轉型拐點,很可能就是下一個盤面焦點。🔴接下來我們會在粉絲團持續幫大家鎖定+追蹤,若還不知道該如何操作?那建議你務必要鎖定江江在Line @,將有更進一步的訊息給大家了解。https://lin.ee/mua8YUP🔴想了解還未起漲的市場主流,同步了解大盤多空轉折點及學習預測技術分析,江江YT節目都會持續追蹤+預告。https://reurl.cc/02drMk********************************************************有持股問題或想要飆股→請加入Line:https://lin.ee/mua8YUP江江的Youtube【點股成金】解盤:https://reurl.cc/02drMk*********************************************************(本公司所推薦分析之個別有價證券 無不當之財務利益關係以往之績效不保證未來獲利 投資人應獨立判斷 審慎評估並自負投資風險)
美國四大CSP資本開支展望:摩根大通預計2026年同比增長超50%,Google居首
本文將聚焦美國四大雲廠商(亞馬遜、微軟、Google及 Meta)的資本開支展望。即將收官的 2025 年,這些頭部廠商的開支規模無疑創下新高;而據摩根大通 12 月 15 日發佈的最新報告預測,2025 年的增長勢頭將延續至 2026 年,彼時增速預計達到 50% 以上(此前預期為 30%),意味著明年開支增量將超過 1500 億美元,再度刷新年度最大增幅紀錄。在展開未來展望前,我們先來看看摩根大通對2025 年情況的最新預測。根據近期行業預測及調研,美國四大雲服務提供商(CSPs)的資料中心資本開支在 2025 年末將保持強勁增長態勢 —— 所有廠商均持續加大 AI 基礎設施投資力度,共同推動整體增長。如上圖所示,美國四大雲服務提供商的資料中心資本開支 2025 年同比增速已上調至 65%(此前預期為 57%);從絕對金額來看,2025 年雲資料中心資本開支增量預計突破 1150 億美元(此前預期為 1000 億美元以上),為過去十年最高水平,不僅超越 2024 年 770 億美元的增量規模,更是遠超 2015-2023 年期間年均 100 億美元的增量均值。2025 年美國所有雲服務提供商資本開支均有望大幅擴張如圖下圖所示,美國四大雲服務提供商的資料中心合計資本開支 2025 年預計實現 65% 的強勁同比增長,其中 Meta 與Google領跑(同比增速 75% 以上),微軟與亞馬遜緊隨其後(同比增速 50% 以上);每家廠商的絕對開支增量均有望達到 200 億美元以上。美國四大雲服務提供商 2025 年資料中心資本開支的擴張,得到各廠商整體資本開支展望的支撐,具體包括:Meta 2025 年總資本開支展望為 700-720 億美元(此前預期 660-720 億美元,2024 年實際為 390 億美元);Google 2025 年總資本開支展望為 910-930 億美元(此前預期 850 億美元,2024 年實際為 530 億美元);亞馬遜 2025 年總資本開支約 1250 億美元(2024 年為 780 億美元)—— 據摩根大通測算;微軟 2025 年總資本開支約 1150 億美元(2024 年為 760 億美元)—— 據摩根大通測算。2026 年雲資料中心資本開支增長勢頭將延續2026 年資本開支增量有望突破 1500 億美元如下圖所示,摩根大通預計,美國四大雲服務提供商的資料中心資本開支趨勢將延續至 2026 年,這主要得益於各廠商高價 AI 相關裝置的部署熱潮。受此推動,2026 年增速預計升至 50% 以上(此前預期 30%);儘管這一增速較 2025 年預測值有所放緩,但絕對金額增量將再創新高,達到 1500 億美元以上(此前預期 800 億美元以上),遠超 2015-2023 年期間年均 100 億美元的增量水平。2026 年美國雲服務提供商資本開支有望再度實現兩位數大幅增長如下圖所示,美國四大雲服務提供商的資料中心合計資本開支 2026 年預計保持 50% 以上的強勁增速,其中 Meta 與Google仍居首位(同比增速 60% 以上),亞馬遜與微軟緊隨其後(同比增速 40% 以上);每家廠商的絕對開支增量均不低於 300 億美元。美國四大雲服務提供商 2026 年資料中心資本開支的擴張,得到各廠商整體資本開支展望的支撐,具體包括:Meta 2026 年總資本開支美元增量預計顯著高於 2025 年;Google 2026 年總資本開支預計大幅增長;亞馬遜 2026 年總資本開支約 1500 億美元(2025 年約 1250 億美元)—— 據摩根大通測算;微軟 2026 財年(截至 6 月底)總資本開支增速預計高於 2025 財年。 (傅里葉的貓)
蘋果2026年AI計畫曝光!聚焦點:基礎模型,團隊一半來自Google,復旦系華人帶隊!
臨近歲末,一度備受期待的 Apple Intelligence 並未如約而至。尤其進入下半年以來,一提到 AI,外界對於蘋果的表現總是一副“恨鐵不成鋼”的摸樣。題外話:當然,蘋果的銷量似乎並未受到多大影響。在大模型的上下文語境中,蘋果時代結束了?答案是否定的。其實,蘋果有很多做的調整和相當有價值進展,都在OpenAI、Google等頂流炸子雞的耀眼發佈中被掩蓋了。剛剛,海外媒體 AppleInsider 給出了一則相當詳實的報導,揭開了蘋果這一年在AI方面所作出的戰略調整和研究進展。 並仔細分析了2026年的蘋果這頭巨象的關鍵節點和聚焦方向,值得一看。“為系統級AI產品讓路”的組織拆解據 AppleInsider 報導,自 2025 年起,蘋果內部 AI 組織發生了 3 項關鍵變化:Siri 歸位:原本相對獨立的 Siri 團隊,被整合進 Vision Pro 與作業系統軟體團隊硬體分流:機器人等偏實體形態的 AI 項目,正式劃歸硬體組織基礎模型聚焦:原由 AI 高級副總裁 John Giannandrea 統籌的大團隊被“瘦身”,聚焦蘋果基礎模型的研發。其實,早從今年3月起,Giannandrea 對 Siri 的管轄權就已經交到了其他高管手中,只不過到了 12 月 1 日,蘋果才正式官宣了他的卸任和明年的退休。所以,這實質上是宣告:蘋果AI業務從大型綜合 AI 組織轉向更聚焦基礎模型方向的調整,同時為系統級 AI 能力重新編組資源。更關鍵的一點在於:這套架構調整在 Giannandrea 不再直接負責 Siri 產品化之後仍在持續推進,說明它並非針對個人,而是蘋果已經確定的一條長期路線。新的權力結構: AI正式併入軟體主線蘋果在 2018 年從Google引入 John Giannandrea,擔任 AI 與機器學習高級副總裁。他是“儘可能在裝置端完成計算”這一理念的主要推動者,核心邏輯是:讓技術更貼近資料本身。隨著時間推移,他的職責不斷膨脹:最初只負責 Siri、AI 和機器學習,隨後擴展到 Apple Car 項目,最終還包括後來成立的機器人團隊。2025 年,蘋果開始對 AI 團隊進行重組:機器人業務被劃歸硬體負責人麾下Siri 團隊被併入 Vision Pro 軟體體系這使得 Giannandrea 原本的團隊,得以專注於 Apple Foundation Models 的開發。重組之後,蘋果 AI 的權力線條變得更加清晰:另一位前Google高管 Amar Subramanya 被蘋果任命為 AI 副總裁直接向軟體工程高級副總裁 Craig Federighi 匯報負責蘋果基礎模型、機器學習研究,以及 AI 安全等核心領域搜尋與知識圖譜相關事務,則被認為將更多由 Eddy Cue 所在的服務體系統籌從這樣的安排可以看出,蘋果AI 不再是一個“平行探索部門”,而是被正式併入軟體主線,服務於系統能力本身。猜測的2026 蘋果高管架構,來源:theinformation2026聚集點:基礎模型,團隊一半來自Google值得一提的是,新上任的 Amar Subramanya 同樣來自Google,在端側 AI 的理念上與 Giannandrea 非常相近。他將以“AI 副總裁”這一新頭銜,向 Craig Federighi 匯報工作,這一職位名稱本身就反映了團隊新的聚焦方向。他的團隊主要負責 Apple Foundation Models 的研發。此前團隊中的部分成員已被分流至其他部門,而搜尋與知識圖譜相關工作,預計將由 Eddy Cue 接手。蘋果基礎模型團隊目前由 Zhifeng Chen 領導,核心成員還包括前Google AI 研究員 Li Xiao、Christopher Fifty 和 Jun Xu。《The Information》的一份報導稱,Chen 團隊中超過一半成員來自Google,且許多人是在過去兩到四年內加入蘋果的。不過也有觀點認為,隨著 Giannandrea 的離任,這些前Google員工中可能會有人選擇離開。ps:這裡,小編也特意為大家介紹一下帶隊者 Zhifeng Chen(沒錯,又是華人!!!)Zhifeng Chen 現在是蘋果基礎模型團隊的新負責人,接替已經離開去 Meta 的前負責人 Ruoming Pang,負責編排和領導這支核心 AI 模型團隊。資料顯示,Chen 本科就讀於復旦大學電腦科學專業本科畢業。之後前往美國深造,在 普林斯頓大學攻讀碩士,隨後在伊利諾伊大學香檳分校(UIUC)獲得博士學位。這兩所都屬於全球知名的電腦科學教育重鎮。在加入蘋果之前,Chen 曾在 Google 工作近 20 年(約 2005 年起)。在 Google 的時間裡,他長期擔任Distinguished Engineer(傑出工程師)等級,主要工作集中在機器學習系統、可擴展大規模計算架構和核心 AI 平台技術上。他的技術履歷包括:深度參與 TensorFlow 的建構和發展。幫助過 Google 內部的多項大型系統工程,包括大規模機器學習應用、底層分佈式系統等。擅長可擴展機器學習系統、演算法、3D 感知、語音識別與合成等領域的工程與研究實踐。據報導:Pang 離職後,蘋果將基礎模型團隊的負責人交給了 Zhifeng Chen。他領導的這支團隊被視為蘋果推進 Apple Intelligence、尤其是 2026 年新版 Siri 所依賴的基礎模型研發中樞。“AI團隊只剩幾十人”,傳言而已不過市面上有一些傳言,比如“蘋果的 AI 團隊大幅縮水”,這顯然就是一個誤讀了,更多屬於來自外部的推測。事實上,僅從蘋果近幾年公開論文的作者名單,就能識別出數百名活躍的 AI 研究與工程貢獻者。這與“只剩幾十人”的傳聞明顯不符。蘋果官網上的論文發佈十分活躍更重要的是,蘋果並沒有放棄模型研發,而是明確選擇了一條不同於主流雲廠商的路線。2026蘋果的目標節點:新一代 Siri按照目前披露的資訊,不管是戰略結構調成還是AI組織的重構,蘋果內部的目標節點都指向了 2026 年初的系統級更新。屆時,蘋果計畫推出基於大型語言模型(LLM)的新版 Siri,其核心突破並不在“更會聊天”,而在於更能做事:通過“應用意圖(App Intents)”框架Siri 將能理解複雜任務目標並調度裝置端與雲端資源實現真正的跨應用操作與自動化流程這將標誌著 Apple Intelligence 從“功能試水”,進入系統級智能的成熟階段。蘋果的模型策略:端雲協同,而不是 All in 雲端從現有研究和產品佈局來看,蘋果的基礎模型策略可以概括為四個字:端雲協同。一端,是運行在本地裝置上的高效端側模型另一端,是支撐 Private Cloud Compute 的伺服器端模型兩者共同構成 Apple Intelligence 的技術底座。這其實是蘋果釋放的一個非常明確的訊號:它並沒有加入單純追逐雲端生成式 AI 的競賽,而是在做一件更“蘋果”的事情——把 AI 深度嵌入作業系統、裝置與使用者日常行為之中。具體而言,就是依舊不會追逐“更大的參數規模”,而是為了在隱私、延遲、可控性和系統整合度之間取得平衡。而這,也是蘋果一貫最在意的事情。此外,業界推測,關於雲端計算模型,蘋果預計還將公佈多項合作計畫,包括將第三方模型引入私有雲端運算。例如,定製的 Gemini 模型可以接收裝置上蘋果模型傳遞的資料,並利用這些資料執行網路搜尋。慢,但很難複製這條路看起來並不好走。業界猜測,2026 年新版 Siri 和 Apple Intelligence 的亮相或許不會太早。但隨著逐步落地,蘋果在 AI 領域的佈局,很可能會成為最系統、也最耐用的一種形態。這也是蘋果一貫的的發布風格:慢,但很難複製。最終,時間會證明蘋果這個巨無霸的走向,但在此之前,沒有理由低估這頭已經“為AI瘦身”的巨象。 (51CTO技術堆疊)
Google2025「復仇爽文」大結局!從至暗時刻到王者歸來
【新智元導讀】年初被唱衰,年底卻直接封神:2025年的Google,把AI圈寫成了一本爽點密集的復仇小說!Gemini 3、Nano Banana、諾獎、晶片、智能體齊上陣:矽谷AI鐵王座還是Google的!回顧2025年,對於Google來說,可謂是一部跌宕起伏的「復仇爽文」。如果說年初外界還在唱衰這家巨頭「大象難轉身」,那麼到了年底,Google用實力上演了一出從被打落神壇,到揚眉吐氣、重回巔峰的好戲。尤其是年底這波Gemini 3和Nano Banana的組合拳,簡直是降維打擊!不僅穩穩佔據了LMArena的榜首,更是在推理和多模態能力上打得對手OpenAI一個措手不及。Google在向世界宣告:矽谷的AI鐵王座,依然姓Google。就在剛剛,GoogleAI掌門人們:首席科學家Jeff Dean、DeepMind CEO Demis Hassabis以及負責技術與社會的SVP James Manyika三位重量級人物聯名發佈了Google2025年度總結。而且也給AI這一年定了一個基調:這一年,是屬於AI智能體、深度推理與科學探索的大成之年。Google這一年把「科研」變成「現實」,在8大領域實現了全面突圍。以下是Google這一年「秀肌肉」的高光時刻:模型層面的「碾壓」:Gemini 3重新定義天花板Google今年的策略非常狠:「下一代的Flash模型要比上一代的Pro模型更強」。從3月發佈的Gemini 2.5到11月震驚業界的Gemini 3,Google徹底解決了推理能力的瓶頸。Gemini 3不僅在「人類終極考試」這種變態難度的基準測試中拿下了突破性高分,更通過Gemini 3 Flash實現了性能與成本的完美平衡。現在的Google模型,既能深思熟慮(DeepThink),又能快如閃電。開發者的「新紀元」:Google Antigravity如果說以前的Copilot只是幫你補全程式碼,那麼Google今年推出的Google Antigravity則是徹底顛覆了軟體開發。這不是工具,而是真正的「Agent(智能體)」。配合非同步程式設計Agent Jules,現在的開發者擁有的不再是一個助手,而是一支隨叫隨到的專家團隊。創意工具的「爆發」:Nano Banana 與Veo在生成式媒體領域,Google今年簡直是「玩嗨了」。Nano Banana Pro和Veo 3.1的出現,讓圖像編輯和視訊生成進入了專業級時代。無論是通過Nano Banana進行原生的圖像修改,還是用MusicAI Sandbox輔助音樂創作,Google正在把頂級創意能力下放給每一個人。科學界的「諾獎收割機」這或許才是Google真正的護城河!2025年,AlphaFold團隊不僅迎來了5周年,更見證了Hassabis等人憑藉它斬獲諾貝爾獎的榮耀。不僅如此,Google員工Michel Devoret亦在今年榮獲諾貝爾物理學獎。從AlphaFold到能解決數學奧賽金牌題目的DeepThink,再到AI科學家,Google證明了AI不僅僅是聊天機器人,更是解開宇宙奧秘的鑰匙。硬核基建:Ironwood與AlphaChip當別人還在搶GPU的時候,Google已經用AI來設計AI晶片了。今年推出的Ironwood TPU專為推理時代打造,而這背後功臣正是AlphaChip設計方法。軟硬一體的實力,讓Google在能效和算力上擁有了難以複製的優勢。具身智能:AI擁有了身體Google不僅讓AI思考,還讓它「動」了起來。Gemini Robotics 1.5和Genie 3的發佈,標誌著通用世界模型的新前沿。AI智能體正在走出螢幕,進入物理世界和虛擬環境,開始真正地理解和操縱世界。全球影響力:預測未來,拯救生命在應用層面,Google的格局打開了。最新的Weather Next 2模型能以驚人的精度預測天氣,洪水預報覆蓋了全球20億人。從NotebookLM的深度研究功能到Pixel 10的AI體驗,Google正在把「黑科技」變成每個人手中的「水電煤」。還有GoogleEarth AI,最先進的地理空間AI模型。安全與責任:走得快,更要走得穩在狂飆突進的同時,Google依然保持了克制。Gemini 3被稱為Google迄今為止最安全的模型,通過了最全面的紅隊測試。隨著模型能力持續增強,不斷升級工具鏈、資源體系與安全框架,以預見並降低潛在風險。Gemini 3正是這一理念的實踐典範:作為Google迄今最安全的模型,它經歷了公司AI模型中最為全面的安全評估體系。更著眼長遠,探索通往通用人工智慧的負責任路徑,著重提升風險應對能力、完善主動風險評估機制,並與更廣泛的人工智慧社群開展協作。2024年是鋪墊的草蛇灰線,2025年才是一切的爆發。這份涵蓋了從底層晶片、核心模型到頂層應用、科學探索的成績單,我們不得不承認:那個熟悉的、令對手窒息的Google,回來了!看來,2026年,好戲才剛剛開始。Google2025年AI年度回顧一月新年伊始,Google在Gemini、Android、GoogleTV和教育工具上推出了一系列更新。推出了由Gemini驅動的更強大的Android助手:提升手機端的AI體驗,讓助手更懂你的需求。公佈了針對三星GalaxyS25系列及更多裝置的Android系統更新:通過系統底層最佳化,讓新裝置更好地運行AI功能。發佈了面向2025年的全新Google教育工具:推出了一系列新功能,旨在助力教師教學與學生學習。在CES上展示了Google TV的最新功能和改進:利用AI技術提升內容推薦精準度,改善家庭娛樂體驗。在Gemini應用中推出了Gemini 2.0 Flash版本供使用者嘗鮮:以更快的速度和更低的延遲,讓使用者體驗新一代模型的響應能力。二月本月重點展示了AI如何在求職和科學研究等領域帶來實質性改變。宣佈Gemini 2.0模型正式向所有使用者開放:全面放開存取權,讓每個人都能使用Google最新的基礎模型。Gemini Code Assist程式設計助手現在免費提供:降低開發者門檻,利用AI免費輔助編寫和偵錯程式碼。推出了一項新實驗功能,利用AI幫助人們探索更多職業發展的可能性:通過分析使用者技能與興趣,智能推薦潛在的職業路徑。發佈了一款專為科學家設計的新型AI系統:該系統能輔助科學家提出假設、設計實驗並規劃研究路線。iOS使用者現在可以在瀏覽網頁時使用Lens搜尋螢幕上的內容:打破應用壁壘,在蘋果裝置上也能體驗「所見即搜」的便捷。三月搜尋中的AI模式(AI Mode)首次亮相,同時發佈了Gemini 2.5和Gemma 3。發佈了當時Google最智能的AI模型Gemini 2.5:在推理能力和多模態理解上取得了顯著突破。推出了Gemma 3,這是可在單個GPU或TPU上運行的最強模型:為開源社區和端側開發提供了極其強大的性能支援。擴展了AI Overviews功能,並正式引入了「AI模式」:在搜尋中處理更複雜的查詢,提供深度解答而非簡單連結。Gemini應用上線了多項新功能,供使用者免費試用:包括更豐富的檔案分析能力和互動方式。推出了利用Gemini進行協作和創意創作的全新方式:在Workspace等工具中深度整合,提升團隊協作效率。四月硬體與雲端算力的大幅升級,為AI時代奠定基石。發佈首款專為「推理時代」打造的TPU Ironwood:在Google Cloud Next大會上亮相,大幅提升AI推理效率。推出了Google Vids的全新AI視訊生成功能:Workspace使用者可利用AI快速生成工作匯報視訊。發佈AI驅動的網路安全防禦系統:利用大模型即時檢測並防禦複雜的網路攻擊。CloudAssist雲端助手能力升級:幫助企業使用者更智能地管理雲資源和排查故障。發佈了Imagen 3的圖像生成增強版:在生成圖片的細節和文字渲染能力上達到新高度。五月Google I/O開發者大會召開,發佈了AI電影製作工具Flow和Veo 3。回顧Google I/O 2025,展示從研究到現實的跨越:總結了AI技術如何全面落地到Google的產品生態中。推出了由Veo 3驅動的AI電影製作工具Flow:為創作者提供好萊塢等級的AI視訊生成和編輯能力。推出了Google AI Ultra訂閱服務:整合了Google最頂尖的模型和功能,一站式滿足專業使用者需求。在購物中引入AI模式,支援虛擬試衣:利用生成式AI讓使用者在購買前看到衣物穿在自己身上的效果。搜尋中的AI進一步進化,轉向提供智能服務:不僅僅是尋找資訊,而是直接幫使用者完成任務。六月開發工具與移動作業系統的智能化革新。發佈Gemini CLI,打造開源AI智能體工具:讓開發者能在命令列中直接呼叫Gemini建構智能體。正式發佈Android 16作業系統:系統底層深度整合AI,提升流暢度與個性化體驗。推出了SearchLive即時互動功能:支援使用者與搜尋引擎進行即時的語音對話和多模態互動。宣佈擴展Gemini 2.5模型家族:推出了針對不同側重領域(如程式碼、數學)的微調版本。展示了Gemini 2.5在高級音訊對話上的能力:實現了更自然、更具情感的語音互動體驗。七月AI功能深入日常,讓相簿和郵件變得更「聰明」。在Gemini中上線了照片轉視訊功能:利用AI將靜態照片瞬間轉化為生動的視訊片段。宣佈搜尋將迎來更高級的AI能力:增強對長尾問題和模糊需求的理解能力。利用搜尋中的AI模式提供學習新途徑:為學生提供定製化的學習計畫和知識點解析。Gmail推出「管理訂閱」新功能:智能識別並一鍵清理不需要的郵件訂閱,淨化收件箱。為Pixel使用者推送了驚喜功能更新(PixelDrop):通過軟體更新為舊款Pixel手機帶來了最新的AI特性。八月硬體盛宴,Pixel 10系列攜手全新AI體驗登場。正式發佈Pixel 10系列手機:搭載最新TPU晶片,是首款為「全天候AI」設計的終端裝置。Gemini圖像編輯功能迎來重大升級:引入更精準的局部重繪和風格遷移能力。宣佈向大學生免費提供GoogleAI工具:投入資金與資源,普及AI教育,賦能下一代創新者。在Gemini應用中上線DeepThink功能:讓模型在回答覆雜問題前進行更深度的邏輯推理。推出了全新的AI驅動航班搜尋工具FlightDeals:智能預測票價趨勢,幫使用者鎖定最佳出行時機。九月Chrome瀏覽器重構,AI開始接管瀏覽器體驗。揭秘Chrome瀏覽器全新AI功能背後的技術:解釋了端側小模型如何讓瀏覽器更快、更安全。利用AI重新構想Chrome瀏覽器:推出智能標籤頁管理、網頁摘要和寫作輔助等功能。介紹了通過SearchLive獲取即時幫助的方式:展示了在旅行、維修等場景下視訊通話式搜尋的威力。Android更新帶來更智能的寫作與分享:輸入法不僅能糾錯,還能根據語境自動補全長句。最新PixelDrop包含Material 3 Expressive升級:UI設計語言進化,帶來更靈動、更具表現力的互動動畫。十月具身智能與醫療AI取得突破,Gemini學會操作電腦。推出了Gemini 2.5 ComputerUse模型:模型現在可以像人一樣查看螢幕、移動游標、點選按鈕,執行複雜操作。發佈Veo 3.1模型並提升Flow功能:視訊生成的連貫性和時長進一步提升,支援更細粒度的控制。發佈專為Gemini建構的GoogleHome裝置:智能音箱和攝影機具備了更強的本地AI處理能力。分享Gemma模型幫助發現癌症治療新路徑:展示了開放模型在生物醫學領域的巨大科研價值。宣佈Nano Banana 模型應用更廣:這款輕量級圖像模型被整合到搜尋、NotebookLM和相簿中,提供極速體驗。十一月年度重磅,Gemini 3橫空出世,開啟智能新紀元。宣佈Gemini 3的誕生:Google迄今為止最強大的AI模型,具備前所未有的多模態推理能力。推出了更專業的Nano Banana Pro模型:在保持速度的同時,大幅提升了圖像生成的藝術質量和逼真度。面向開發者開放Gemini 3:API同步上線,邀請全球開發者共同建構基於新模型的下一代應用。Gemini 3為Gemini應用帶來新功能:普通使用者也能立即體驗到新模型帶來的更聰明、更人性化的對話。Google地圖導航功能通過Gemini獲強力升級:提供更直觀的實景導航和基於語境的地點推薦。十二月(December)以速度極快的Gemini 3 Flash和年度熱搜收官。推出了專為速度打造的Gemini 3 Flash:在保持高智商的同時,將響應延遲降至極低,適合即時應用。Gemini 3 Flash開始在全球搜尋中推出:讓每一次搜尋都能獲得瞬間生成的AI智能摘要。發佈了2025年度熱搜報告:回顧全年搜尋趨勢,展現AI如何重塑人們獲取資訊的方式。Android 16新更新幫助使用者組織資訊:利用端側AI自動整理手機中的通知、檔案和照片。將最先進的Gemini翻譯能力引入Google翻譯:實現了同聲傳譯等級的即時翻譯效果,打破語言障礙。 (新智元)
Google DeepMind 通用機器人路線圖:VLM → VLA + Agent,“能幹活”的機器人跑起來了
Google DeepMind 的機器人團隊強調,他們做的不是預先編好動作、只會後空翻表演的機器人,而是面向現實世界的 開放式通用機器人。這類機器人需要能夠 理解人類自然語言指令,並且可以 靈活組合執行幾乎不限種類的任務,而不是只會重複固定指令碼。來源:AI工業(採用 AI 工具整理)相比四年前,實驗室形態也發生了明顯變化:依託 更加魯棒的視覺主幹網路(visual backbone),模型對光照、背景、雜亂環境的敏感度大幅下降,視覺泛化問題被解決了很大一部分,不再需要用隱私屏去“淨化”場景。來源:AI工業(採用 AI 工具整理)最近幾年的核心進展,是把機器人系統 直接建構在大模型之上。團隊使用大規模 視覺–語言模型(VLM)作為通用世界知識的底座,在此基礎上疊加控制能力,建構出視覺–語言–動作模型(VLA/VALA)。在這樣的模型中,機器人在世界中的 物理動作也被視為一種序列 token,與視覺 token 和語言 token 放在同一序列中建模。這使得模型能夠在統一框架下處理“看到了什麼、理解成什麼、接下來該做什麼動作”,從而在 新場景、新物體、新指令上表現出更強的動作泛化(action generalization)能力。來源:AI工業(採用 AI 工具整理)在任務層面,系統已經從早期只會做“拿起、放下、拉開拉鏈”等短視野任務,邁向可以完成“行李打包、垃圾整理”等 長視野任務。通過在 VLA 上方加入一個 Agent 層,系統可以把很多短動作 編排成完整的長鏈條行為。例如“幫使用者打包去倫敦的行李”時,Agent 會先 查詢當地天氣,再 推理需要準備那些物品,然後呼叫 VLA 驅動機器人執行具體收納,形成 “上層推理規劃 + 底層物理執行” 的分層架構。在Gemini 1.5中,團隊又加入了 “思考(thinking)元件”:模型在執行動作之前,會 先顯式輸出自己對即將執行動作的“想法”和推理過程,然後才真正下發動作指令。本質上,這是把語言模型中的 鏈式思考(Chain-of-Thought)機制遷移到機器人控制上。實驗結果顯示,顯式輸出“思考過程”可以顯著提升機器人在新任務上的泛化能力和成功率,同時也大幅提升了系統的 可解釋性。代表性案例:Aloha 午餐盒、桌面操作與衣物分揀來源:AI工業(採用 AI 工具整理)在具體實驗中,團隊用 Aloha 機器人演示了一個高難度的 “午餐盒打包”長視野任務。機器人幾乎 完全依賴視覺伺服(visual servoing),以 毫米級精度抓住自封袋的一小段邊緣,把面包準確塞進狹窄空間,在出錯時根據視覺反饋不斷調整和重試。支撐這些端到端策略的資料主要來自遠端操作(tele-operation),研究人員以第一人稱視角“軀體化”地操控機器人完成任務。機器人則從這些 人類演示資料 中學習“什麼算做對”,最終得到真正端到端的視覺–動作控制策略。他們還展示了結合 語言控制與通用桌面操作 的場景:桌面上有不同顏色的積木和托盤,上面疊加了Gemini 語言互動層,使用者可以直接說出指令,機器人一邊執行一邊用語言反饋自己的動作。更關鍵的是,場景中加入了 完全未見過的新物體(例如剛買來的梨形小容器、減壓球),系統依然可以理解諸如“打開綠色梨形容器,把粉色軟團放進去,再蓋上”的複雜指令,展現出對 新物體、新組合的開放式泛化能力。在另一個衣物分揀的人形機器人示例中,模型在每個時間步同時輸出 “思考文字 + 接下來要做的動作”,將 思考與行動統一在一個端到端閉環模型中,既提升了表現,也增強了 可偵錯性和可解釋性。技術路線已成型,瓶頸轉向物理互動資料來源:AI工業(採用 AI 工具整理)團隊整體的判斷是:儘管當前機器人仍然 偏慢、動作有些笨拙,成功率也並非完美,但與幾年前相比,已經出現了“質變級”的進步。現在的系統能夠 理解語義、形成有上下文的場景理解,並對複雜的物理任務進行分解與推理。他們認為目前的很多成果,已經是在搭建 未來通用家用機器人的基礎模組,而不是將來會被完全推翻的臨時方案。在這種情況下,真正的核心瓶頸,已經從“模型結構設計”轉移到了“資料匱乏”:機器人要學會通用操作能力,需要海量的 真實世界物理互動資料,而這類資料的規模遠遠比不上網際網路的文字和圖像。未來一個重要方向,是充分利用人類在網際網路上發佈的 大量手工操作視訊,從這些人類示範中大規模學習,從而緩解實體機器人採集資料成本高、速度慢的問題。總體來看,通用機器人操作仍然是一個高度非結構化、開放式的難題,但在團隊看來,如果能跨過“物理互動資料”的門檻,當前這些“幫忙疊衣服、打包午餐”的演示,很可能就是一場真正“機器人革命”的前夜。 (AI工業)
馬斯克笑瘋了!Google無人車街頭“裝死”,一場大停電,暴露無人駕駛致命傷
Waymo搞砸了,馬斯克笑瘋了。剛剛過去的周六,隨著變電站的一聲爆燃,舊金山陷入黑暗。平時從容優雅的Waymo無人車,在失去紅綠燈指引後徹底癱瘓,成了造成交通擁堵的罪魁禍首。當人類司機依靠默契在路口交替通行時,這些身價不菲的AI卻集體“腦死亡”,閃爍的雙跳燈彷彿在向世界宣告系統的崩潰。而最大的羞辱,來自對手。就在Waymo狼狽宣佈全線停運時,埃隆·馬斯克在X上發出了一記“殺人誅心”的補刀:“特斯拉Robotaxi未受影響。”隨後,特斯拉官方帳號更是直接甩出視訊,展示自家車輛在黑暗中穿梭自如。01 “全城靜止”:Waymo遭遇“大腦過載”周六原本是舊金山最繁忙的周末時光,購物者、遊客和接駁的網約車塞滿了街頭。下午1點09分,一道火光從舊金山第8街和米申街(Mission Street)交界處的太平洋燃氣與電力公司(PG&E)變電站升起。隨後,大面積停電像病毒一樣迅速蔓延開來。從富人聚集的普雷西迪奧(Presidio)到充滿文藝氣息的列治文區(Richmond),再到市中心的繁華地帶,燈火輝煌的櫥窗瞬間熄滅,原本井然有序的交通訊號燈,集體變成了黑洞洞的鐵盒子。據統計,這場事故最初影響了約13萬名客戶,幾乎佔到這座城市近三分之一的電力使用者。然而,最詭異的場景出現在了馬路上。當司機們開始小心翼翼地遵循“無訊號燈即為四方停車”的潛規則互相博弈時,Google母公司Alphabet旗下的Waymo自動駕駛計程車卻在車流中“石化”了。“它們就那樣停在馬路中央,一動不動。”舊金山居民馬特·斯庫菲爾德(Matt Schoolfield)目睹了這一幕。他看到至少三輛Waymo在特克大道(Turk Boulevard)附近徹底罷工,閃著雙跳燈,像是迷失在森林裡的金屬困獸。乘客的體驗則更加糟糕。乘客米歇爾·裡瓦(Michele Riva)當時正坐在Waymo車內準備回家。就在距離目的地僅剩一分鐘車程的擁擠路口,訊號燈滅了。“由於沒有紅綠燈,過馬路的人非常多,場面極其混亂。”裡瓦回憶道。面對這種高精地圖裡從未描述過的“混沌狀態”,他的Waymo選擇了最保守、也最讓乘客崩潰的策略:原地當機。(圖片由AI生成)無論後方的車輛如何鳴笛,無論路邊的路人如何圍觀,這輛耗資幾十萬美元、整合了頂級雷射感測器和強大算力的自動駕駛汽車,在長達數分鐘的時間裡完全不知道該往那兒走。最終,Waymo認輸了。(圖片由AI生成)周六晚間,Waymo官方宣佈:臨時暫停舊金山灣區的所有無人駕駛叫車服務。 Waymo發言人蘇珊娜·菲利恩(Suzanne Philion)在周日下午的一份聲明中無奈解釋:“雖然設計層面上Waymo自動駕駛程序可以將不工作的訊號燈視為’四方停車’,但由於停電規模巨大,導致車輛需要更長時間來確認交叉路口的狀態。這確實加劇了交通摩擦。”簡單來說,當系統發現現實世界與它依賴的高精地圖和預設邏輯產生巨大偏差時,為安全主動選擇了“停運”。02 馬斯克“補刀”:特斯拉的“勝利”?就在Waymo忙著收拾爛攤子,把癱瘓在街頭的車輛拖回倉庫時,遠在德克薩斯州的馬斯克出手了。他在自家社交平台X上輕飄飄地發了一句:“特斯拉Robotaxi(機器人計程車)未受舊金山停電事件的影響。”特斯拉官方AI帳號跟進發佈了一段視訊,展示特斯拉汽車在斷電的舊金山街頭穿梭自如,並配文:“FSD(全自動駕駛系統)經過了數十億英里的真實世界資料訓練,其中包括電力中斷場景。”這一記“背刺”,也直接戳中了自動駕駛行業最核心的技術路徑之爭。——視覺神經網路vs高精地圖(圖片由AI生成)長期以來,Waymo堅定踐行著“高精地圖+雷射雷達”這一技術路徑。它的自動駕駛汽車高度依賴釐米級地圖和預設交通規則。一旦訊號燈滅了、規則模糊了,機器就會陷入邏輯死循環。(圖片由AI生成)而特斯拉堅持的是“純視覺(Pure Vision)+端到端神經網路”。馬斯克的邏輯是:人是怎麼開車的?人類不需要雷射雷達,也不需要預設地圖,靠的是眼睛看和大腦判斷。如果人類能處理停電,那模仿人類大腦的神經網路也能處理。(圖片由AI生成)——“溫室裡的花朵” vs “野路子的生存法則”一位獨立博主在社交媒體X上評論道:“Waymo專注地圖和秩序,特斯拉則押注於混亂——這一次,混亂贏了。當燈光熄滅時,區別不再是紙面上的,而是真實存在的交通狀況。”“當你在數十億英里的真實世界里程上訓練你的AI,而不是在充滿完美資料的模擬中嬌慣它時,就會發生這種情況,"X平台上的另一篇帖子也認為,基於混亂訓練的系統能更好應對停電等現實世界問題。但馬斯克真的贏了嗎?這裡存在一個不可忽視的“技術性細節”:Waymo當時是真正的“無人駕駛”,而特斯拉在舊金山部署的所謂機器人計程車服務,駕駛座依然坐著一名時刻準備接管的人類安全員。(圖片由AI生成)由於特斯拉尚未獲得加州政府的無人駕駛商業營運許可,其目前提供的服務本質上是“受監督的FSD”。換句話說,當特斯拉穿過那些黑暗路口時,到底是AI的功勞,還是安全員的功勞,外界不得而知。03 專家警告與信任危機:我們是否對AI過於樂觀?儘管Waymo已經於周日逐步恢復了服務,但這次“大罷工”引發的餘震遠未平息。MIT運輸研究中心科學家、自動駕駛專家布萊恩·雷默(Bryan Reimer)直言不諱地指出,這次事件揭露了現有技術的一個致命缺陷。“在技術設計和開發中,顯然漏掉了一些東西。這說明它並不是許多人願意接納的那種穩健解決方案。”(圖片由AI生成)雷默認為,停電是完全可預測的城市突發事件。如果自動駕駛車輛在訊號燈熄滅時只會停在路中間造成交通擁堵,那麼這種技術在關鍵時刻反而是社會的累贅。“自動駕駛開發商應該為‘混亂擁堵’負責,就像人類駕駛員在黑夜中違章駕駛要負責一樣。” 雷默補充道。這也並不是自動駕駛第一次在舊金山吃癟。此前,Waymo曾被爆出集體開進死胡同、被消防車水帶困住,甚至在抗議活動中被焚燒。美國汽車協會(AAA)今年早些時候的一項調查顯示,約三分之二的美國駕駛員表示對自動駕駛車輛感到“恐懼”。對於普通市民來說,自動駕駛不應該是只在實驗室裡、在完美的陽光和完美的紅綠燈下運行的精密儀器,它應該是能夠在狂風暴雨、電網癱瘓的複雜現實中安全帶你回家的可靠工具。舊金山這次大停電也像一面照妖鏡,照出了目前最先進的自動駕駛技術在面對“黑天鵝事件”時依舊脆弱不堪。04 Waymo VS. 特斯拉:誰才是真正的未來?這次Waymo的“當機”和馬斯克的“嘲諷”,反映出自動駕駛行業的分水嶺。(圖片由AI生成)· Waymo代表的“秩序派”: 它們極其安全,但也極其僵化。它們像是在軌道上運行的精密火車,一旦軌道毀壞(地圖失效),它們就失去了方向。· 特斯拉代表的“進化派”:它們更像是在叢林裡生存的獵豹。適應性極強,但也面臨更高的安全風險和監管門檻。目前來看,Waymo雖然在“無人化”上走得更遠,但在“智能化抗災”上還有很長的路要走。而馬斯克雖然拿下了輿論戰的勝利,但如果特斯拉不能真正實現“無人駕駛”,那這種勝利也只是公關層面的“口嗨”。未來的自動駕駛,必須是人類直覺與機器精準度的結合體。正如雷默教授所說,在可預見的未來,我們需要人機智能的融合,而不是盲目追求完全的機器主宰。05 結語舊金山的燈亮了,Waymo也恢復了營運,但這驚魂一刻留下的陰影卻揮之不去。這次停電給所有科技巨頭敲響了警鐘:自動駕駛不應只是晴天裡的“錦上添花”,更必須是暴風雨中的“雪中送炭”。如果一項技術無法在最黑暗的時刻帶你回家,那麼它就不配接管我們的城市。 (網易科技)