Google掀桌:深度研究智能體進入自動駕駛時代

OpenAI剛用Deep Research搶了先手,Google直接掀桌!DeepMind祭出研究智能體雙殺,Max版質量評分從66.1%暴拉到93.3%,知識工作自動化的軍備競賽正式進入貼身肉搏。

在AI智能體上,Google這次又放出了個大招。

4月末,GoogleDeepMind一口氣甩出兩款AI研究智能體

  • Deep Research(標準版):追求速度和低延遲,適合即時互動
  • Deep Research Max(增強版):追求最大詳盡度,用擴展test-timecompute非同步跑後台大任務

兩個智能體都基於剛發佈的Gemini 3.1 Pro

GoogleCEO Pichai也親自下場站台。

Max版在三個權威基準測試中都拿到了SOTA得分:

  • DeepSearchQA:93.3%,綜合網頁研究能力
  • BrowseComp:85.9%,在網頁上定位難找事實
  • Humanity's Last Exam(HLE):54.6%,人類最難學科專家級題庫

這兩個智能體干的事情很直白:你給一個研究課題,它自己去網上扒資料、分析資料、生成帶圖表的完整報告。

標準版處理日常研究任務,Max版專攻重度場景:盡職調查、競品分析、市場研報,那種過去要一個分析師團隊干兩天的活。

Max版在DeepSearchQA基準上達到93.3%。

什麼概念?

去年12月同一項測試,成績是66.1%。

四個月,漲了27個百分點!

Humanity's Last Exam上也從46.4%拉到54.6%,直接刷新紀錄。

有使用者表示日常版本的標準版即可代替日常的文獻研讀。

知識工作的自動駕駛時代

一個值得玩味的趨勢正在成型:AI研究工具正在從「輔助搜尋」進化成「自主研究」。

過去的AI搜尋是你問一句、它答一段。

現在的研究智能體是你丟一個課題,它自己跑幾十輪搜尋-分析-驗證循環,最後交一份成品報告。

區別就像導航軟體和自動駕駛的距離。

Google、OpenAI、Anthropic三家同時押注這個方向。

Anthropic的Claude在程式碼智能體上猛攻,OpenAI用Deep Research搶佔研究場景,Google現在帶著93.3%的成績單殺回來。

Pichai親自在發佈會上強調93.3%這個數字。他說這是通過增加計算資源達到的。

意味著,只需花更多的電,就能得到更準的答案。

計算資源成了新的入場券。小公司買不起。獨立顧問付不起。只有大企業才付得起。

這不是工具升級。這是商業模式的代際替換。

從「摘要機器」升級成企業工作流底座

去年12月,Google通過Interactions API向開發者開放了Gemini Deep Research智能體,讓開發者能用上Google最前沿的自主研究能力。

今天,Google把它推到下一個台階。

Deep ResearchDeep Research Max兩款智能體都由Google最強的模型Gemini 3.1 Pro驅動。

Deep Research已經不再是一個聰明的「摘要機器」了。

它現在是金融、生命科學、市場調研等企業級工作流的底層基礎設施

它的報告本身有獨立價值,但更重要的是——它是更複雜的AI智能體工作流的第一步:深度上下文收集。

一次API呼叫,開發者就能觸發一次徹底的研究工作流——史上第一次,把公開網頁資料和你自己的專有資料流融合在一起,輸出一份專業級的、帶完整引用的分析報告。

兩款智能體,匹配不同場景

Google設計了兩款智能體,對應從直接面向使用者到大規模離線處理的不同需求。

Deep Research(標準版)速度和效率而生。

它取代了去年12月的預覽版本,顯著降低了延遲和成本,同時把質量拉得更高。

適用場景:需要低延遲的互動式使用者介面。

Deep Research Max(增強版)為最大詳盡度和最高品質而生。

Max利用擴展的test-timecompute(測試時計算),反覆推理、檢索、精煉最終報告。

打通私有資料+原生圖表

Deep Research現在可以檢索:

  • 公開網頁
  • 任意遠端MCP伺服器
  • 使用者上傳的檔案
  • 連接的檔案儲存
  • 或以上任意子集的組合。

這套能力是專門為專業人士每天面對的複雜受限資料宇宙設計的。

MCP協議支援(最關鍵的一項)

你可以通過MCP協議,把Deep Research安全地連接到你自訂的資料和專業資料流——比如金融資料供應商、市場資料供應商

Deep Research支援任意工具定義。

這讓它從一個網頁檢索器升級成了能在任意專業資料倉儲裡自主導航的智能智能體。

過去分析師吃飯的傢伙(彭博、FactSet、S&PGlobal終端),現在AI可以直接接入、自主查詢、綜合分析。

原生圖表與資訊圖

Gemini API裡的Deep Research第一次——不再只生成文字,還原生生成高品質的圖表和資訊圖

底層實現用HTML或Nano Banana。

動態可視化複雜資料集,直接嵌入分析報告中。

過去一個分析師用Tableau/PowerPoint做2小時的圖表,Deep Research Max直接在報告裡原生生成。

不用切換工具,不用再折騰對齊。

重磅合作夥伴

為了讓這項技術在低容錯率的專業領域真正落地,Google正在和金融、生命科學等行業的初創公司和企業密切合作。

比如——

Google正在與以下三家公司合作設計MCP伺服器:

  • FactSet(華爾街分析師標配終端)
  • S&PGlobal(標普全球評級與資料)
  • PitchBook(私募股權與風險投資資料庫)

讓共享客戶可以把金融資料接入Deep Research驅動的工作流,以閃電般的速度調取這些公司各自的海量資料宇宙,實現生產力的階躍式提升。

延伸解讀:FactSet+S&P+PitchBook=全球投行、PE、諮詢公司研究素材的三大上游供應商。它們主動把自己的資料接入Google的AI——意味著分析師過去賴以生存的資料訂閱護城河徹底消失。

過去你因為能用上這些資料而值錢,現在任何一個企業訂閱了Deep Research都能用上。

如何使用

即日起,Deep Research和Deep Research Max在Gemini API付費層開啟公開預覽

開發者可以訪問Google官方開發者文件,通過Interactions API開始建構。

Deep Research和Deep Research Max很快也會通過GoogleCloud開放給初創公司和企業。

Google做好了一個能替代分析師的AI,現在所有企業都可以用API呼叫它。 (新智元)