#AI平台
【CES 2026】這不是顯示卡,是一座 2噸重的AI工廠
美東時間1月5日周一,輝達在CES展會推出新一代Rubin AI平台,標誌著其在人工智慧(AI)晶片領域保持年度更新節奏。黃仁勳在展會上宣佈Vera Rubin已全面投產,該平台重量近2噸,通過六款新晶片的整合設計,在推理成本和訓練效率上實現大幅躍升,實現每秒千億等級的 AI 運算,堪稱一座真正的人工智慧工廠。輝達還宣佈開源其首個推理 VLA (視覺-語言-動作) 模型Alpamayo 1。該模型旨在打造能在意外情況下"思考"解決方案的車輛,採用 100 億參數架構,使用視訊輸入生成軌跡和推理過程。黃仁勳稱,首款搭載輝達技術的汽車將第一季度在美上路,第二季度在歐洲上路,下半年在亞洲上路。輝達還發佈了多個開源模型、資料和工具,如用於代理AI的輝達Nemotron家族、用於物理AI的Cosmos平台、用於機器人的輝達Isaac GR00T以及用於生物醫學的輝達Clara。01 輝達發佈新一代Rubin平台,性能提升5倍,已全面投產擬下半年發貨美東時間5日周一,輝達CEO黃仁勳在拉斯維加斯表示,六款Rubin晶片已從合作製造方處回廠,並已通過部分關鍵測試,正按計畫推進。他指出"AI競賽已經開始,所有人都在努力達到下一個水平"。輝達強調,基於Rubin的系統運行成本將低於Blackwell版本,因為它們用更少元件即可實現相同結果。微軟和其他大型雲端運算提供商將成為下半年首批部署新硬體的客戶。微軟的下一代Fairwater AI超級工廠將配備輝達Vera Rubin NVL72機架級系統,規模可擴展至數十萬顆輝達Vera Rubin超級晶片。CoreWeave也將是首批提供Rubin系統的供應商之一。該平台的推出正值華爾街部分人士擔憂輝達面臨競爭加劇,並懷疑AI領域的支出能否維持當前速度。但輝達保持長期看漲預測,認為總市場規模可達數兆美元。性能提升5倍,推理token生成成本降低至多10倍據輝達公告,Rubin平台的訓練性能是前代Blackwell的3.5倍,運行AI軟體的性能則提升5倍。與Blackwell平台相比,Rubin可將推理token生成成本降低至多10倍,訓練混合專家模型(MoE)所需GPU數量減少4倍。新平台配備的Vera CPU擁有88個核心,性能是其替代產品的兩倍。這款CPU專為代理推理設計,是大規模AI工廠中能效最高的處理器,採用88個定製Olympus核心、完整Armv9.2相容性和超快NVLink-C2C連接。Rubin GPU配備第三代Transformer引擎,具備硬體加速自適應壓縮功能,可提供50 petaflops的NVFP4計算能力用於AI推理。每個GPU提供3.6TB/s的頻寬,而Vera Rubin NVL72機架則提供260TB/s頻寬。晶片測試進展順利,廣泛生態系統支援黃仁勳披露,全部六款Rubin晶片已從製造合作夥伴處返回,並已通過顯示其可按計畫部署的關鍵測試。這一表態表明輝達正維持其作為AI加速器領先製造商的優勢地位。該平台包含五大創新技術:第六代NVLink互連技術、Transformer引擎、機密計算、RAS引擎以及Vera CPU。其中第三代機密計算技術使Vera Rubin NVL72成為首個提供跨CPU、GPU和NVLink域資料安全保護的機架級平台。第二代RAS引擎橫跨GPU、CPU和NVLink,具備即時健康檢查、容錯和主動維護功能,以最大化系統生產力。機架採用模組化、無線纜托盤設計,組裝和維護速度比Blackwell快18倍。輝達表示,包括亞馬遜的AWS、Google雲、微軟和甲骨文雲在2026年將率先部署基於Vera Rubin的實例,雲合作夥伴CoreWeave、Lambda、Nebius和Nscale也將跟進。OpenAI CEO Sam Altman表示:“智能隨計算擴展。當我們增加更多計算時,模型變得更強大,能解決更難的問題,為人們帶來更大影響。輝達Rubin平台幫助我們持續擴展這一進展。”Anthropic聯合創始人兼CEO Dario Amodei稱,輝達“Rubin平台的效率提升代表了能夠實現更長記憶、更好推理和更可靠輸出的基礎設施進步”。Meta CEO祖克柏表示,輝達的“Rubin平台有望帶來性能和效率的階躍式變化,這是將最先進模型部署給數十億人所需要的”。輝達還稱,思科、戴爾、惠普企業、聯想和超微預計將推出基於Rubin產品的各類伺服器。包括Anthropic、Cohere、Meta、Mistral AI、OpenAI和xAI等AI實驗室正期待利用Rubin平台訓練更大型、更強大的模型。評論稱,輝達今年比往年更早披露新產品的細節,這是該司保持行業依賴其硬體的舉措之一。因為輝達通常在每年春季加州聖何塞舉行的GTC活動上深入介紹產品細節。02 物理AI的ChatGPT時刻!輝達“內驅”無人駕駛汽車將至,將於一季度在美國上路黃仁勳還宣佈開源其首個推理 VLA (視覺-語言-動作) 模型Alpamayo 1,使汽車能夠在真實世界中進行"推理",這標誌著輝達在無人駕駛領域邁出關鍵一步。這一舉措旨在加速安全的自動駕駛技術開發。該模型通過類人思維方式處理複雜駕駛場景,為解決自動駕駛長尾問題提供新路徑。黃仁勳表示,首款搭載輝達技術的汽車將於第一季度在美國上路,第二季度在歐洲上路,下半年在亞洲上路。輝達免費開放Alpamayo模型,允許潛在使用者自行對模型進行重新訓練。該模型旨在打造能在意外情況下"思考"解決方案的車輛,例如交通訊號燈故障等場景。車載電腦將分析來自攝影機和其他感測器的輸入,將其分解為步驟並提出解決方案。這一開源舉措獲得了行業廣泛支援。包括捷豹路虎(JLR)、Lucid、Uber以及加州大學伯克利分校DeepDrive深度學習自動駕駛產業聯盟(BDD)在內,多家移動出行領軍企業和研究機構表示,將利用Alpamayo開發基於推理的自動駕駛技術堆疊,推動L4級自動駕駛部署。首個開源推理VLA模型發佈輝達此次發佈的Alpamayo家族整合了三大基礎支柱:開源模型、模擬框架和資料集,建構了一個完整的開放生態系統供任何汽車開發者或研究團隊使用。Alpamayo 1是業界首個為自動駕駛研究社區設計的思維鏈推理VLA模型,現已在Hugging Face平台發佈。該模型採用100億參數架構,使用視訊輸入生成軌跡及推理軌跡,展示每個決策背後的邏輯。開發者可以將Alpamayo 1改編為更小的執行階段模型用於車輛開發,或將其作為自動駕駛開發工具的基礎,例如基於推理的評估器和自動標註系統。黃仁勳表示:“物理AI的ChatGPT時刻已到來——機器開始理解、推理並在真實世界中行動。無人計程車是首批受益者。Alpamayo為自動駕駛汽車帶來推理能力,使其能夠思考罕見場景,在複雜環境中安全駕駛,並解釋其駕駛決策——這是安全、可擴展自動駕駛的基礎。”輝達強調,Alpamayo模型並非直接在車內運行,而是作為大規模教師模型,供開發者微調並提取到其完整自動駕駛技術堆疊的骨幹中。未來該家族的模型將具有更大的參數規模、更詳細的推理能力、更多的輸入輸出靈活性以及商業使用選項。推理VLA技術原理解析推理VLA是一種統一的AI模型,將視覺感知、語言理解和動作生成與逐步推理整合在一起。這類模型整合了明確的AI推理功能,在傳統視覺-語言-動作模型的基礎上建構。AI推理是AI逐步解決複雜問題並生成類似於人類思維過程推理痕跡的能力。這些系統對一系列網際網路規模的任務進行預訓練,包括語言生成和視覺連接,以發展通用知識和感知基礎。與將視覺輸入直接對應到動作的標準VLA模型不同,推理VLA模型將複雜的任務分解成可管理的子問題,並以可解釋的形式闡明其推理過程。這使模型能夠更準確地解決問題或執行任務,還能對模型正在進行的操作提供一定程度的反思。建構推理VLA模型需要三種基本AI功能:視覺感知、語言理解以及動作和決策制定。視覺感知處理來自攝影機、毫米波雷達或雷射雷達等感知感測器的即時資料;語言理解通過自然語言處理解釋命令、上下文提示和對話輸入;動作和決策制定則使用融合的感官和語言資訊來計畫、選擇和安全地執行任務,同時生成可解釋的推理痕跡。在自動駕駛場景中,推理VLA可以對交通狀況進行逐步推理。例如,接近一個十字路口時,系統可能會進行如此推理:"我看到一個停止標誌,左邊有車輛駛來,還有行人正在過馬路。我應該減速,完全停下來,等待行人通過人行橫道,安全時再繼續前進。"完整開放生態系統支援開發除Alpamayo 1模型外,輝達還發佈了配套的模擬工具和資料集,建構完整的開發生態系統。AlpaSim是一個完全開放原始碼的端到端模擬框架,用於高保真自動駕駛開發,現已在GitHub平台發佈。它提供真實的感測器建模、可配置的交通動態和可擴展的閉環測試環境,實現快速驗證和策略最佳化。輝達還提供了面向自動駕駛最多樣化的大規模開放資料集,包含超過1700小時的駕駛資料,涵蓋最廣泛的地理位置和條件範圍,覆蓋罕見且複雜的真實世界邊緣案例,這對於推進推理架構至關重要。這些資料集可在Hugging Face平台獲取。這些工具共同為基於推理的自動駕駛技術堆疊建立了一個自我強化的開發循環。開發者可以利用這些資源在專有車隊資料上微調模型,將其整合到基於輝達DRIVE AGX Thor加速計算建構的輝達DRIVE Hyperion架構中,並在商業部署前通過模擬驗證性能。03 跨行業AI模型全面開放本周一,輝達還發佈了推動各行業AI發展的多個新開源模型、資料和工具。這些模型涵蓋用於代理AI的輝達Nemotron家族、用於物理AI的輝達Cosmos平台、用於機器人的輝達Isaac GR00T以及用於生物醫學的輝達Clara。輝達還提供了開源訓練框架和全球最大的開放多模態資料集合之一,包括10兆語言訓練標記、50萬個機器人軌跡、45.5萬個蛋白質結構和100TB的車輛感測器資料。輝達代理式AI基礎模型Nemotron發佈了語音、多模態檢索增強生成(RAG)和安全相關的新模型。Nemotron Speech包含業界領先的開源模型,為即時字幕和語音AI應用提供即時、低延遲語音識別。Nemotron RAG包含新的嵌入和重排序視覺語言模型,提供高度精準的多語言和多模態資料洞察。在物理AI和機器人領域,輝達發佈了Cosmos開放世界基礎模型,為加速物理AI開發和驗證帶來類人推理和世界生成能力。Isaac GR00T N1.6是一個開放推理VLA模型,專為人形機器人打造,實現全身控制,並使用輝達Cosmos Reason實現更好的推理和上下文理解。輝達稱,博世(Bosch)、CodeRabbit、CrowdStrike、Cohesity、Fortinet、Franka Robotics、Humanoid、Palantir、Salesforce、ServiceNow、日立和Uber等科技業的領頭羊正在採用並基於輝達的開源模型技術進行開發。輝達的開源模型、資料和框架現已在GitHub和Hugging Face平台發佈,並可通過一系列雲、推理和AI基礎設施平台以及build.nvidia.com獲取。這些模型中的許多還以輝達NIM微服務的形式提供,可在從邊緣到雲端的任何輝達加速基礎設施上進行安全、可擴展的部署。 (華爾街見聞)
【CES 2026】黃仁勳:Vera Rubin 已進入生產,NVIDIA 押注 2026 下半年新一代 AI 平台
一、“已在生產、按期交付”:這次 NVIDIA 在強調什麼黃仁勳在拉斯維加斯 CES 的台上,把一句話說得很直白:Rubin 平台“在生產中”,而且客戶很快就能開始試用,並把時間窗錨定到 2026 年下半年。這種表述的價值,不在於多了一個新名字,而在於它等於在公開場合給路線圖打了一個“里程碑戳”。原因也不難理解。上一代 Blackwell 曾出現過工程與量產節奏上的波折,市場對“下一代是否會再被拖慢”天然敏感。Wired 提到,“full production”這類表述本身並沒有統一、嚴格的行業定義,但分析師往往會把它當成對投資者的訊號:項目在關鍵節點上沒有掉鏈子。與此同時,外部需求確實在推著 NVIDIA 必須更早、更明確地給出交付預期。Bloomberg 的報導強調了“客戶將很快能夠試用”的說法,背後反映的是雲廠商、AI 資料中心營運商對下一代平台匯入節奏的迫切。二、Rubin 不是一顆晶片:NVIDIA 把“六件套”當作產品在 NVIDIA 的敘事裡,Rubin 不再是“某一顆 GPU”,而是一個極端協同設計的六晶片平台。官方新聞稿與 NVIDIA 博文把這套組合列得很清楚:Vera CPU、Rubin GPU、NVLink 6 Switch、ConnectX-9 SuperNIC、BlueField-4 DPU、Spectrum-6 Ethernet Switch。這一套“六件套”的指向,是把資料中心裡原本分散的計算、互連、網路、安全與加速部件,做成可重複交付、可規模化部署的系統工程。你買到的不是“更快的卡”,而是更接近“可直接拼裝成 AI 工廠”的平台底座。Wired 也把這種轉變描述為:NVIDIA 正在把自己從晶片供應商進一步推向“AI 系統提供商”。對讀者來說,理解這裡的關鍵,是不要被命名繞暈:Vera 是 CPU,Rubin 是 GPU,它們與 NVLink、網路卡、DPU、交換晶片一起,被 NVIDIA 當成一個“從機櫃到機房”的系統方案賣給合作夥伴,再由合作夥伴賣給終端客戶。三、性能與成本口徑:那些是官方宣稱,那些需要謹慎理解CES 的舞台天然需要“高能句”。The Verge 總結了 NVIDIA 在演講中最吸睛的幾組口徑:Rubin GPU 的訓練性能相對 Blackwell 可達 5 倍;在某些 “mixture of experts(MoE)” 模型上,整套 Vera Rubin 架構能用約四分之一的 GPU完成訓練,同時把 token 成本降到約七分之一。Wired 則提到 NVIDIA 的另一種表達方式:AI 運行成本可降到 Blackwell 的十分之一量級,並同樣強調“用更少的晶片訓練更大的模型”。這些話可以引用,但不能照單全收。原因不是懷疑其真假,而是它們幾乎都隱含了前提:比較基線是什麼(Blackwell 的那種配置:單卡、HGX、還是 NVL 機櫃級系統);工作負載是什麼(訓練、推理、還是特定 MoE 架構/特定精度);系統瓶頸在那裡(算力、視訊記憶體頻寬、互連、網路、儲存、軟體棧成熟度)。換句話說,這些“倍數級提升”是 NVIDIA 在“整機視角”下給出的系統宣稱,而不是一顆晶片的裸性能。NVIDIA 自己在新聞稿裡也把重點放在“極端協同設計”“降低訓練時間與 token 成本”這種系統指標上。更值得寫清楚的一點是:這些指標的意義,正從“更快”轉向“更便宜”。當大模型應用開始從訓練走向海量推理、從實驗走向規模化部署,客戶最關心的不再只是峰值吞吐,而是每個 token 的成本、每瓦性能、以及在真實資料中心裡“擴起來是否順”。這也是為什麼 NVIDIA 在 CES 上把“成本口徑”放到了和“性能口徑”同等的位置。四、從機櫃到“AI工廠”:NVL72 這類系統化交付意味著什麼如果說“六件套”是概念,那麼 Vera Rubin NVL72 就是把概念變成交付形態的樣板。NVIDIA 的產品頁把 NVL72 定義為機櫃級 AI 超級電腦:72 塊 Rubin GPU + 36 顆 Vera CPU,並配套 ConnectX-9、BlueField-4、NVLink 6,以及面向外部擴展的 InfiniBand 與乙太網路方案。機櫃級方案最大的好處,是把資料中心的複雜度從“現場工程”變成“工廠化裝配”。Barron’s 提到,Rubin 的伺服器系統會更模組化、減少線纜,目標是讓裝配與維護更快。這類變化看似“工程細節”,但對大規模部署來說極其關鍵:裝得更快,意味著新機房上線周期更短;維護更像換模組,意味著停機時間更可控;系統化交付越成熟,越容易複製到更多機房與更多地區。更“硬核”的細節也在浮出水面。CRN 報導中引用了 NVIDIA 對 NVL72 的參數描述:整櫃 HBM4 容量可達 20.7TB,並給出了 LPDDR5x 容量、HBM4 頻寬與互連頻寬等指標,用來強化“系統頻寬”是這一代的核心敘事。Tom’s Hardware 則進一步提到 Rubin GPU 的封裝與 HBM4 配置(如每個封裝的 HBM4 容量與頻寬口徑),同樣指向“為了喂飽算力,視訊記憶體與頻寬在同步升級”。當 NVL72 變成主打形態,NVIDIA 其實在把競爭拉到更高維度:不是你能不能做出一顆晶片,而是你能不能把晶片、互連、網路、安全、軟體一起打包成“可落地、可維運、可擴張”的資料中心機器。五、競爭線:自研晶片、供應鏈與“按期交付”的資本市場含義NVIDIA 當然不是唯一想吃下 AI 資料中心的人。雲廠商在推進自研晶片,晶片創業公司與傳統半導體公司也在尋找突破口。Wired 在報導裡提到,在這種競爭壓力下,NVIDIA 更需要向外界證明兩件事:一是路線圖清晰,二是交付節奏可靠。因此,“已在生產、下半年交付”不僅是工程進度的匯報,也是資本市場溝通的一部分——它把不確定性從“會不會來”收斂到“什麼時候規模化、以什麼形態規模化”。Bloomberg Law 的轉述提到,黃仁勳表示六顆晶片已從製造夥伴處返回,並通過了一些里程碑測試,暗示項目正沿著預定軌道推進。但真正決定 Rubin 能不能延續 NVIDIA 的優勢,仍然取決於更具體、也更難在發佈會上講清的變數:供應鏈與產能爬坡:先進製程、先進封裝與高頻寬記憶體的任何一個環節都可能成為節奏瓶頸;軟體棧與生態遷移:平台化交付意味著客戶不僅換硬體,還要評估相容性與維運體系;Wired 提到 NVIDIA 與 Red Hat 等合作,也可被視為在補齊“平台落地”的軟體側能力。客戶匯入速度:報導提及微軟與 CoreWeave 等潛在早期採用者與資料中心計畫,這類客戶的匯入節奏往往會成為“新平台能否滾起來”的風向標。 (視界的剖析)
Google Gemini 3:這代“最強大腦”,到底強在那?
2025年11月19日,Gemini 3發佈。Sundar Pichai在Google官方部落格上寫道:Gemini 3是我們目前最智能的模型,目標是讓使用者把任何想法變成現實。這一次,Google不是單獨發佈一個模型,而是第一次把推理能力、多模態理解和智能體能力打包整合,形成一整套AI平台。Gemini 3 發佈即上線:整合到搜尋的AI Mode、登陸Gemini App和AI Studio,企業可在 Antigravity 部署智能體,開發者能使用Deep Think模式。覆蓋規模達到20億搜尋使用者,背後是Google一年近千億美元的AI投資。那麼,Gemini 3到底強在那?通過復盤發佈會、技術演示 和CEO訪談,我們提煉出三個維度:執行能力 - 從回答問題到完成工作分發效率 - 從獨立產品到系統嵌入生態護城河 - 從工具升級到平台重構這才是這場發佈的真正含義。第一節|任務執行:從回答問題到完成工作Gemini 3 在發佈當天就創造了一個紀錄:以1501分登頂LMArena排行榜(全球AI模型競技場),成為首個突破1500分的模型。(Gemini 3 Pro:多數基準測試中都處於領先水平)在人類的最後考試這個包含博士級難題的基準測試中,得分37.5%,相比上一代的21.6%接近翻倍。在GPQA Diamond(衡量博士級推理能力)上達到91.9%,在數學推理的MathArena Apex上取得23.4%的最新最高分。但這些數字背後,真正重要的是什麼?1、從基準測試到真實任務DeepMind CEO Demis Hassabis在訪談中強調,Gemini 3最大的進步在於推理能力。它能夠同時進行多步驟的思考,而以前的模型常常會思路中斷、失去條理。這種能力的提升,在實際應用中意味著什麼?在Gemini Agent的演示中,你可以直接說去整理我的收件箱,它會自動掃描郵件內容、按重要性分類、標記需要回覆的事項、起草回覆建議、將相似郵件歸類整理。整個過程不需要你逐步指導,不需要你監督每一步。或者在氛圍編碼場景中,Hassabis提到模型跨越了實用性門檻。在技術演示中,你只需一次性輸入幫我做一個《饑荒》風格的2D遊戲,能在世界中行走和收集材料進行製作,Gemini 3就能自動生成符合風格的畫面、角色控制系統、材料收集機制、完整的製作介面和可直接運行的程式碼。2、從對話到任務執行的轉變這種多步驟推理能力帶來的,是AI工作方式的根本性改變。設想一個日常場景:你對 AI 說,幫我寫一封感謝郵件,要提到昨天會議的三個要點,附上相關的兩張圖片和會議紀要連結。Gemini 3 的設計目標,是讓你只說一次,它自動分解步驟:調取會議記錄提煉核心要點從文件庫檢索圖片生成分享連結組織成郵件語氣輸出完整草稿用Google Labs 副總裁 Josh Woodward 的話說,他們的目標不是那種機械的一問一答,而是更自然、更智能的對話。更值得注意的是,團隊現在關注的新指標是:AI能幫助你在一天中完成了多少任務。不是回答了多少問題,不是生成了多好的內容,而是完成了多少任務。這個指標的轉變,折射出Google對AI能力邊界的重新定義。過去,你是指揮官,AI是士兵,你下一個命令,它執行一個動作。現在,你是老闆,AI是助理,你說一個目標,它自己想辦法完成。從1501 的模型跑分,到收件箱整理的實際演示,再到完成任務數的指標轉變,Gemini 3 的強,不在於它更聰明,而在於它能幹事。Google再次要證明的,不是模型跑分更高,而是 AI 能真正幫你把事做完。第二節|分發效率:發佈當天覆蓋數十億使用者Gemini 3 創造了另一個記錄:Google首次在發佈當天,就把新模型直接整合到搜尋的AI Mode中。這意味著什麼?搜尋的AI Overviews已經覆蓋20億月活使用者,Gemini App月活超過6.5億,1300萬開發者在使用生成模型,70%的雲客戶在使用AI服務。發佈當天,Gemini 3就開始服務這個規模的使用者群。這是完全不同的分發路徑。1、從零到數十億的時間差當前,大多數 AI 公司採用的是“獨立產品”模式,使用者需要主動訪問特定網站或應用、註冊帳號、學習使用介面。無論是ChatGPT、Claude還是其他 AI 產品,都需要使用者主動改變使用習慣。Gemini 3 的路徑完全不同。使用者不需要下載新應用,不需要註冊帳號,不需要學習新介面,只需要像往常一樣打開搜尋或文件,AI 能力就在那裡。Josh Woodward 談到,Google新產品功能之所以讓人興奮,是因為 AI 的融入是無縫的,使用者無需改變任何習慣就能獲得幫助。2、嵌入的具體形態這種分發效率的背後,是Google把Gemini 3嵌入到使用者每天都在用的入口裡:在搜尋中,你搜尋“RNA聚合酶是如何工作的”,AI Mode會即時生成帶有互動式可視化的沉浸式佈局。不是給你一堆連結,而是直接用程式碼生成可互動的科學動畫。在Gmail中,Gemini直接在郵件介面幫你起草回覆、理解上下文、生成建議,不用切換應用,不用複製貼上。在Android系統裡,它接替Google Assistant,用語音幫你跨應用完成任務。比如:你說幫我找到上周和張總的會議紀要,然後發給李經理,它會自動搜尋、找到檔案、打開郵件、完成傳送。在Docs中,它根據文件內容快速總結、補全材料、生成圖表,就在你正在編輯的文件裡。Google能做到這一點,因為這些產品已經在使用者的手機和工作流裡。Gemini 3不需要獲取新使用者,只需要讓現有工具變得更智能。AI 的終局不是一個超級應用,而是一套嵌入式能力。模型只是底層技術,真正的護城河,是那些使用者每天都要用的入口。第三節|生態護城河:只有Google能走的路前兩節展示了Gemini 3能做什麼和如何快速到達使用者。但還有一個更關鍵的問題:為什麼是Google能做到這些?答案是 Sundar Pichai 所說的差異化的全端式方法。從晶片到資料中心,從模型到產品,從使用者到開發者,Google控制了整條鏈路。1、別人需要的,Google已經有了對比很明顯:目前 OpenAI 和 Anthropic 仍然需要說服使用者下載產品、向雲服務商租用算力、與其他平台談整合。Google的使用者已經在用Gmail和搜尋,自己生產TPU晶片,產品矩陣已經覆蓋工作和生活的各個場景。這不是能花錢買到的,也不是能快速建立的。2、不可複製的三層優勢這種全端控制帶來的優勢,體現在三個層面:第一層是算力自主。OpenAI 2025年前9個月算力支出超過86億美元,Anthropic向Azure購買300億美元算力,都需要向雲服務商租用。Google自研TPU,成本和性能自己掌控,這直接決定了能否在發佈當天服務數十億使用者。第二層是資料閉環。搜尋每天數十億次查詢,Gmail數百億封郵件,YouTube數十億次觀看,這些資料既是訓練素材,也是持續最佳化的反饋。其他公司要麼花錢買資料,要麼面對版權訴訟。第三層是產品矩陣。Gemini 3可以在搜尋中測試理解能力,在Gmail中測試生成能力,在Android中測試智能體能力,每個產品都是真實的能力驗證場。這三層優勢疊加,形成了一個其他AI公司無法複製的閉環:自主算力讓大規模部署成為可能,海量資料讓持續最佳化成為現實,產品矩陣讓能力驗證貫穿全鏈路。Demis Hassabis 把 DeepMind 稱為Google的引擎室,為整個Google生態提供AI動力。而Sundar把Gemini稱為推動智能、智能體和個性化前沿的引擎,這意味著Google不是在做一個更好的 AI 工具,而是在重構計算的底層邏輯。當 AI 成為所有數字服務的新介面層,要做的不是一個產品,而是重構整個生態。這就是 Gemini 3真正強的地方:它是唯一一個在發佈當天就讓數十億人用上的 AI。而這,是其他 AI 公司都很難做到的。結語|三個維度,一個答案回到標題的問題:Gemini 3到底強在那?第一,強在能幹事。1501 Elo登頂排行榜,但更重要的是能完成整件事,而不只是回答一個問題。第二,強在能快速到達。發佈當天覆蓋數十億使用者,因為它嵌入了Gmail、搜尋、Android這些使用者每天都在用的工具。第三,強在生態護城河。從自研TPU到產品矩陣,Google控制了從晶片到使用者的整條鏈路。這三個維度合在一起,構成了Gemini 3 真正的強:不只是跑分更高,而是使用方式被改變了。AI 不再是一個你偶爾打開的對話方塊,而是嵌入在你每天工作流裡的執行系統。從獨立APP到嵌入式能力的轉變,正在成為 AI 應用的新共識。同期,阿里巴巴也將千問接入旗下搜尋產品夸克等。“對話方塊”到“生活入口”,這或許就是 AI 的下一站。 (AI深度研究員)
AppLovin:AI 驅動的廣告“基礎設施”——護城河、做空澄清與未來空間
APPLOVIN在季度內實現近 77% 的收入增長、高達 81% 的調整後 EBITDA 利潤率,並產生 7.68 億美元的自由現金流時,市場本應歡呼。但最近由於頻繁被做空,需要進行詳細說明一下。2025 年Q2,AppLovin 交出了一份堪稱“印鈔機”的財報,資料全面創下歷史新高。同時,公司果斷剝離了遊戲業務,全力聚焦於輕資產、高利潤的 AI 廣告平台主業。然而,與其強勁基本面形成鮮明對比的,是近期多家做空機構的狙擊以及 SEC(美國證券交易委員會)已介入調查的陰雲。AppLovin 究竟是 AI 驅動的下一個廣告巨頭,還是一個建立在灰色資料上的“紙牌屋”?本文將在我們 20 頁深度研究的基礎上,結合其最新財報與戰略動作,系統性拆解 AppLovin 的商業模式與“動態護城河”,正面回應做空疑雲,並評估其在 Meta 和 The Trade Desk 夾擊下的真實未來空間。一、 拆解 AppLovin:從“遊戲公司”到“AI 平台”的進化許多人對 AppLovin 的印象還停留在它是一家移動遊戲公司。這不假,但已是過去時。今年 6 月 30 日,公司宣佈完成向 Tripledot 出售旗下移動遊戲業務,徹底轉型為一家純粹的“AI + 程序化廣告”平台。理解 AppLovin 的核心,必須理解它的“鐵三角”業務:1. MAX(供給側:開發者的變現聚合器)對於應用開發者而言,MAX 是一個“超級變現中台”。它通過統一的即時競價(In-App Bidding),聚合了全球幾乎所有的廣告需求方。開發者只需接入 MAX 的 SDK,就能確保自己的每一個廣告位都能以最高的價格(eCPM)賣出,實現填充率和收益的最大化。2. AppDiscovery(需求側:廣告主的投放平台)對於廣告主(例如,希望獲取使用者的電商、遊戲或金融 App)而言,AppDiscovery 是一個精準的“獲客引擎”。它幫助廣告主在高頻的即時競價中,精準預測使用者的生命周期價值(LTV),從而實現廣告投放 ROI 的最大化。3. AXON(核心大腦:統一的 AI 引擎)AXON 是連接上述兩端的“統一大腦”。這是一個基於深度學習和強化學習的 AI 模型。它的獨特之處在於,其訓練資料來源源不斷地來自 MAX 平台。AppLovin 的核心機密:資料與AI的閉環飛輪這三部分構成了一個強大的閉環飛輪,這也是 AppLovin 的核心競爭力:(啟動) 開發者為了更高的收入,將自己的 App 接入 MAX 平台。(資料) MAX 匯聚了海量的、高品質的第一方使用者行為和變現資料(使用者在A應用看了什麼廣告、點選了什麼、最終是否付費)。(訓練) 這些資料被用來喂養和訓練 AXON 引擎,使其對使用者 LTV 的預測越來越準。(提效) “更聰明”的 AXON 賦能給 AppDiscovery 平台,廣告主的投放 ROI 顯著提升。(提價) 因為 ROI 提升,廣告主願意支付更高的出價(Bid)來競逐流量。(反哺) 更高的出價意味著開發者的廣告收入(eCPM)更高。(加速) 更高的收入吸引了更多開發者和流量接入 MAX。這個循環一旦啟動,就會像滾雪球一樣自我加速。更多的資料讓 AI 更智能,更智能的 AI 帶來更高的效率和收入,更高的收入又反過來吸引更多的資料。二、 Q2 財報為證:81% 利潤率的“奇蹟”2025 年第二季度的財報,就是這個飛輪效應的完美體現。收入: 12.59 億美元,同比增長 77%。調整後 EBITDA: 10.18 億美元,同比增長 99%。調整後 EBITDA 利潤率: 驚人的 81%!自由現金流: 7.68 億美元。出售遊戲業務(重資產、低利潤率)並聚焦平台業務(輕資產、高利潤率)的戰略決策,被這份財報證明是極其正確的。這 81% 的利潤率,清晰地展示了“AI 引擎 + 雙邊平台飛輪”所能達到的恐怖盈利能力。同時,AppLovin 宣佈自 10 月起以“推薦制”上線全新的 Axon Ads Manager(自助投放平台),並計畫在 2026 年上半年全球放量。這是其從服務大客戶走向服務中小廣告主的關鍵一步,意圖極大拓寬需求側的覆蓋面。三、 AppLovin 的“動態護城河”AppLovin 的護城河不在於某個單一技術,而在於上述飛輪所建構的三個動態壁壘:1. 技術與資料的雙重壁壘程序化廣告的核心是 ROI。AXON 引擎的性能優勢,是建立在 MAX 平台匯聚的海量、獨家、第一方行為與變現資料之上的。這種“資料—模型—預算”的正反饋,使得後來者極難在短時間內複製同等規模的高品質訓練資料,也就無法訓練出同等效率的 AI 模型,自然也無法在投放效果上構成威脅。2. 供需一體化的規模經濟與市場上的獨立 DSP(如 TTD,偏需求側)或 SSP(偏供給側)不同,AppLovin 借助 MAX 和 AppDiscovery 打通了供給與需求兩端。更重要的是,它使用統一的大腦(AXON)對兩端進行全域最佳化。這好比一個同時控制“商品生產”和“商城銷售”的智能中樞,其最佳化效率和利潤空間遠非“只管生產”或“只管銷售”的單邊平台可比。Q2 高達 81% 的調整後 EBITDA 利潤率,就是這種一體化規模經濟的直接體現。3. 產品“下沉”與生態擴張即將推出的 Axon Ads Manager 自助平台,是其護城河的“擴張”手段。它將 AppLovin 強大的 AI 能力“產品化”、“工具化”,降低了使用門檻。這將使其強大的 ROI 提升能力,從原先集中的遊戲領域,快速“外溢”到電商、金融科技(FinTech)甚至 CTV(聯網電視)等新垂類,打開中小廣告主的長尾市場增量。四、 烏雲壓頂:如何看待做空與 SEC 調查?近期,AppLovin 正面臨嚴峻的外部挑戰。多家媒體與賣空機構指控 AppLovin 在資料收集、裝置指紋辨識以及平台條款方面存在不當甚至違規行為。路透社等媒體證實,SEC 已就此展開調查。受此影響,公司股價一度出現劇烈波動。公司方面強烈否認了所有不當行為,並已聘請頂級律所 Quinn Emanuel 開展獨立調查以證清白。我們應該如何客觀看待這一風險?首先,必須明確:調查並非定罪。在正式結論出爐前,一切指控都只是指控。投資者應將此視為一個關鍵的外生變數,保持動態跟蹤。其次,這是對 AppLovin 合規與溝通能力的一次“壓力測試”。短期看,這無疑會壓制市場情緒和估值。中期看,這可能是一次“去偽存真”的契機。如果 AppLovin 最終能夠通過獨立調查和監管稽核,形成一套可審計、可驗證的 SDK 合規路徑、使用者同意訊號(Consent)管理與合作夥伴條款證據鏈,那麼這將極大地提昇平台的“可託付度”,反而會變相加固其護城河,清除掉那些真正遊走在灰色地帶的競爭對手。當然,風險是真實存在的。如果調查結論對公司不利,其核心的 AXON 資料來源和模型效果可能受到衝擊。因此,在塵埃落定前,保持對監管動態的最高關注是必要的。五、 坐標與對比:Meta、TTD 與 AppLovin在兆規模的數字廣告市場,AppLovin 處在什麼位置?我們將其與兩大巨頭進行對比(基於 Q2’25 資料):Meta (Facebook/Instagram)體量: 收入 475 億美元,淨利 183 億美元。模式: 絕對的王者。其廣告系統已全面 AI 化,但核心優勢在於其封閉的社交生態系統(FB/IG/WA)和海量的第一方關係資料。差異: Meta 的 AI 強在“演算法 + 場景”的深度一體化(如短影片推薦)。但對於生態外的第三方開發者,其可定製性和透明度天然受限。The Trade Desk (TTD)體量: 收入 6.94 億美元,淨利 9000 萬美元。模式: 開放網際網路(Open Internet)和 CTV 領域的獨立 DSP(需求側平台)龍頭。差異: TTD 強在連接廣告主與海量的開放網際網路/CTV 供應側,但在移動應用內(In-App)生態,它缺少 AppLovin 那種“供需閉環 + 一方訓練資料”的強力模型飛輪。AppLovin體量: 收入 12.59 億美元,調整後 EBITDA 10.18 億美元。模式: 移動應用內生態的**“供需一體化 AI 基礎設施”**。差異: AppLovin 的體量遠小於 Meta,絕對營收也低於 TTD,但其**盈利質量(81% 利潤率)**鶴立雞群。定位: 如果說 Meta 是“封閉的帝國”,TTD 是“開放的買方代表”,那麼 AppLovin 則是面向所有第三方開發者的“AI 廣告基礎設施”。它以 MAX + AXON 的形式,為開發者提供了一個“可插拔”的、能立竿見影提升變現性能的解決方案。AppLovin 在非社交場景的 App(如遊戲、工具、電商)的變現與獲客上,形成了自己的結構性優勢,與 Meta、TTD 形成了“錯位競爭”。六、 未來增長的三台發動機展望未來,AppLovin 的增長空間主要來自三方面:1. Axon Ads Manager 全球放量(自助化)2026 年 H1 在全球開放的自助投放平台,是其增長的第一台發動機。這將使其服務能力從少數大客戶指數級擴展到全球海量的中小廣告主(SMBs),極大提升投放廣度與複利係數。2. 垂直領域擴張(多元化)將 AXON 在遊戲領域被驗證的超強 ROI 提升能力,複製到電商、金融科技、工具乃至 CTV 等預算池更大的賽道,是其第二台發動機。這將拓展其 TAM(總潛在市場),並降低對單一遊戲賽道的依賴。3. 飛輪的持續自強化(內生增長)這是最核心的第三台發動機。MAX 市場份額的提升 → 一方資料的增厚 → AXON 模型的迭代 → 廣告主 ROI 和開發者 eCPM 的改善 → 現金流的增強 → 更多的研發和併購投入 → 進一步強化飛輪。這是一個“技術-現金流-份額”的自強化循環。結語:高收益、高風險的“基礎設施”AppLovin 的護城河,不是某項單一技術,而是由 MAX(供給)× AppDiscovery(需求)× AXON(大腦)三者構成的動態飛輪。資料網路效應、演算法性能優勢以及由此帶來的強大現金流再投入能力,共同推動了平台在 ROI 和 eCPM 上的持續精進。這使其在輕資產、高利潤的商業模式上,跑通了一個近乎完美的範式。然而,短期內,SEC 的監管調查是懸在其頭上的“達摩克利斯之劍”,也是最大的不確定性。投資者必須正視這一風險。中長期看,如果 AppLovin 能夠成功“渡劫”,證明其合規性,那麼憑藉其自助化平台(Axon Ads Manager)的全球落地和向多垂直領域的擴張,這家 AI 驅動的廣告“基礎設施”公司,其天花板或許才剛剛打開。我們將持續跟蹤其合規進展與新產品的全球落地情況。 (老王說事)
OpenAI 的「作業系統」野心與全球AI 平台之戰
2025 年10 月,舊金山的DevDay 大會再次把OpenAI 推上了全球科技舞台的聚光燈。有別於以往強調模型能力的更新,這一次,OpenAI 把策略重心放在了「平台化」上。它不再滿足於做一個聊天機器人,而是要把ChatGPT 打造成未來的“操作系統”,一個能承載應用、交易和服務的超級入口。從聊天工具到“應用平台”在大會上,OpenAI 公佈了幾組關鍵數據:全球已有超過400 萬開發者在其平台上建立應用,ChatGPT 的周活躍用戶突破8 億,而API 峰值吞吐量達到每分鐘60 億tokens。這些數字不僅證明了ChatGPT 的用戶粘性,也為它的生態擴展提供了堅實基礎。最引人注目的,是「Apps in ChatGPT」 框架的推出。使用者無需跳出對話框,就能直接呼叫Booking、Coursera、Canva、Spotify 等服務。這意味著ChatGPT 正在從“問答入口”變成一個“應用整合中心”,未來甚至可能在對話中直接完成購買和付款。這一動作與先前的GPT Store 一脈相承。過去,開發者可以創建自己的GPT 模型,但用戶體驗仍然割裂;而現在,服務被直接「裝進」ChatGPT,用戶在一個視窗中就能完成學習、設計、訂票甚至購物。對開發者而言,這不僅是流量入口,更是潛在的商業化管道。AgentKit:智能體的“管線”如果說Apps in ChatGPT 是前端的使用者體驗升級,那麼AgentKit 就是後端的開發者工具革新。透過視覺化的拖曳與組態,開發者無需寫一行程式碼,就能快速搭建客服機器人、銷售助手,甚至是跨部門的業務流程智能體。更重要的是,AgentKit 內建了評估與最佳化機制,支援自動化的prompt 調優、第三方模型存取和強化回饋調試。這意味著智能體不再是“一次性產物”,而是可以持續迭代和優化的“活系統”。在OpenAI 的設想中,未來企業可能會像搭建網站一樣,大量建造和部署智能體。模型矩陣:從Codex 到GPT-5 Pro在模型層面,OpenAI 也帶來了多項更新。 Codex 正式版不僅支援Slack 整合,還加入了語音互動能力,讓「說一句話就能產生程式碼」成為現實。 GPT-5 Pro 則面向高階場景,支援40 萬tokens 的上下文窗口,專為科研、法律、長檔案處理等複雜任務而生。同時,輕量級的gpt-realtime-mini 則瞄準即時語音互動場景,強調低延遲和低成本。此外,視訊生成模型Sora 2 的亮相,也讓OpenAI 在多模態方向上更進一步。無論是電商廣告、教育影片或遊戲內容,Sora 2 都展現了AI 在創意產業中的巨大潛力。美國與歐洲巨頭的反擊然而,OpenAI 並不是孤軍奮戰。蘋果、Google、Meta、微軟等科技巨頭,早已在加緊建置自己的AI 平台。蘋果透過軟硬體一體化,逐步限制對macOS 底層的訪問,強化系統安全與封閉性。 Google 依託Gemini 模型,把AI 深度嵌入搜尋、Gmail 和Workspace,試圖讓使用者在日常辦公室和資訊檢索中離不開它。 Meta 在社群和虛擬世界中加速佈局,推出AI 助理並強化生成式內容,目標是讓使用者在社群網路和元宇宙中自然使用AI。微軟則憑藉著與OpenAI 的深度綁定,已經把Copilot 融入Office、Windows 和Az​​ure,形成了「生產力+ 雲端」的雙重護城河。中國大模型公司的崛起如果說美國的競爭是圍繞著「平台化」展開,那麼中國的大模型公司則更強調「產業落地」與「場景驅動」。阿里巴巴的通義千問正在電商、物流、金融等領域全面滲透,淘寶的智慧導購、菜鳥的智慧調度、螞蟻的風控系統,都在逐步形成一個由AI 驅動的商業閉環。騰訊的混元大模型則依託微信生態,深入公眾號、視頻號和小程序,推動廣告投放和內容分發的智能化。百度的文心一言在搜尋、Apollo 自動駕駛和智慧雲端中不斷迭代,試圖透過「搜尋+ 自動駕駛+ 雲」的組合來建立生態壁壘。位元組跳動則憑藉著抖音和TikTok 的全球流量優勢,把大模型應用在內容分發、廣告創意和虛擬主播上,直接推動內容產業的商業化。華為則選擇了另一條路徑,依託昇騰晶片和盤古大模型,重點服務政企、能源和製造業,強調自主可控與產業級落地。全球格局:三股力量的博弈從全球視野來看,AI 平台的競爭正在形成三股力量:美國模式:以OpenAI、微軟、Google為代表,強調平台化與生態整合;中國模式:以阿里、騰訊、百度、位元組、華為代表,更強調產業落地與場景驅動;企業級模式:以IBM、Anthropic 為代表,聚焦B 端市場,強調安全、合規與可控制性。未來的競爭,不僅是技術和模型的比拚,更是生態、使用者習慣和商業模式的全面較量。結語:操作系統之爭的下一幕可以預見,未來幾年,AI 平台的競爭將不再只是技術層面的較量,而是生態、商業模式和使用者習慣的全面博弈。 OpenAI 的野心在於成為「對話即操作系統」的開創者,但它能否在中美巨頭的夾擊中突圍,還需要時間驗證。對於企業而言,現在正是觀察和試點的最佳時機;對於投資人,值得關注的是誰能率先跑通商業閉環;而對於開發者,選擇哪個平台投入精力,可能決定未來數年的發展軌跡。未來的作業系統之爭,已經不再是桌面與行動的延續,而是AI 驅動下的新一輪全球生態重構。
1000億美元!華人幹出全球第四大AI獨角獸
年化收入已達37億美元。又一家千億美元估值AI獨角獸即將誕生!智東西8月20日報導,昨日,AI資料分析平台Databricks宣佈,該公司已經簽署了K輪融資的條款清單,預計將在現有投資者的支援下很快完成,這輪融資對Databricks的估值已經超過了1000億美元(約合人民幣7179.1億元),估值與8個月前的620億美元(約合人民幣4451.0億元)相比,上漲了超61%。▲Databricks官宣新融資(圖源:Databricks官網)據TechCrunch援引知情人士的消息稱,Databricks最新一輪融資規模約為10億美元(約合人民幣71.8億元),投資方包括a16z、Thrive Capital等,並且獲得了“瘋狂的超額認購”。成立於2013年的Databricks,主要提供統一的資料與AI平台服務,幫助企業整合和處理大規模資料,用於資料工程、資料科學、機器學習與AI應用,也能為電商、金融、醫療等領域的企業提供資料服務。其創始團隊中還有華人,聯合創始人兼首席架構師為Reynold Xin(辛湜)。作為獨特的“湖倉一體”資料庫架構開創者,Databricks是資料智能領域的代表性企業,也是AI時代重要的資料基礎設施提供商。截至目前,有超過60%的財富500強企業採用了Databricks的資料智能平台來管理資料,並將其與AI結合。Crunchbase的資料顯示,Databricks目前是全球估值排名第八的獨角獸企業。完成K輪融資後,Databricks有望成為僅次於OpenAI、字節跳動、xAI,估值排名全球第四的AI獨角獸企業。值得一提的是,輝達也是Databricks的投資方之一,曾領投Databricks的I輪融資,規模為5億美元,但並未參與本輪融資。Databricks稱,本輪融資中獲得的資金,將被用於加速Databricks的AI戰略,這包括進一步擴大企業級智能體服務Agent Bricks、投資面向AI Agent最佳化的新資料庫Lakebase,並支援未來的AI領域收購,深化AI研究。01.成立12年估值1000億刀客戶規模已突破1.5萬Databricks的創始團隊由七位加州大學伯克利分校的教授和研究生組成,自2013年成立以來,陸續吸引了大約80家投資者的關注。該公司的創始人大部分為加州大學伯克利分校AMPLab成員,共同打造了開源分散式運算框架Apache Spark,還創下資料排序速度的世界紀錄。後來,他們決定將相關技術商業化運作,Databricks應運而生。▲Databricks七位創始人(圖源:福布斯)據The Information報導,早期投資者稱,Databricks的創始人們對如何賺錢幾乎沒有直覺,董事會原本打算在外部聘請有經驗的領導者擔任CEO,但發現時任Databricks工程副總裁的Ali Ghodsi在員工中很有聲望。接任CEO後,投資者對教授出身的Ghodsi還是有些遲疑。Ghodsi加緊研讀商業書籍,惡補了企業管理的方法。如今,他以親力親為地方式管理這家企業,高強度工作,風格強硬,並憑藉這種方式帶領Databricks快速發展,也獲得了客戶的信賴。▲Ali Ghodsi(圖源:Databricks)Adobe的首席資料官Bin Mu曾如此評價Ghodsi:“如果我遇到一個大問題,他會在接下來的一個小時內解決這個問題。”Databricks的創始人團隊中還有華人身影。其聯合創始人兼首席架構師為Reynold Xin(辛湜),他高中畢業後前往加拿大多倫多大學就讀本科,後續在加州大學伯克利分校AMPLab完成博士學業,畢業後直接參與Databricks的創立。▲辛湜(圖源:Linkedin)“湖倉一體”架構是Databricks最重要的護城河之一。這一技術起源於DataBricks團隊創業前打造的Apache Spark項目,將資料倉儲的結構化資料儲存功能,與資料湖的非結構化和半結構化資料儲存能力融合,從而提升資料處理的效率與可靠性。在AI時代,湖倉一體架構的價值愈發凸顯。AI訓練、推理過程中都需要使用到大量的結構化、半結構化和非結構化資料,湖倉一體架構能對這些資料統一儲存管理,支援即時資料攝入、處理和分析,還能彈性伸縮,從而降低儲存和計算成本。湖倉一體架構也具備向量化檢索、與機器學習框架(如PyTorch)整合等AI原生設計,可簡化AI資料處理的流程。2022年,OpenAI推出ChatGPT並引發全球AI熱潮後,Databricks聯合創始人兼CEO Ghodsi看到了AI對資料分析領域的巨大潛力,決定加大對AI技術的投資。當時,Databricks預計2022財年至2025財年期間的總現金消耗成本為15億美元。2023年,Databricks還斥資13億美元收購了大模型創企MosaicML,此次收購幫助 Databricks在2024年3月份發佈了一個開源模型,但並未推出後續版本,轉而使用開源模型。Databricks的一體化資料智能平台提供AutoML(自動化模型訓練)、Mosaic AI(模型部署)、AI Playground(無程式碼互動測試)、Unity Catalog Agent工具管理、MLflow整合等AI服務,支援從資料管理、訓練、部署到監控的AI開發全流程,可整合大模型、工具鏈,與資料平台無縫融合。2024年時,Ghodsi稱,截至當年11月,包括Mosaic在內的生成式AI產品收入同比增長了300%。02.連發多款AI Agent服務年化收入達到37億美元在去年年底拿下100億美元的巨額融資後,Databricks在AI領域的動作不斷,推出多款新產品與服務,還在收購市場斬獲一家AI創企。Agent是近期Databricks投資、發展AI技術的主線。今年5月,Databricks宣佈收購無伺服器Postgres資料庫(一種開放原始碼的對象關係型資料庫)公司Neon。Neon使用AI Agent來驅動資料庫的配置,其平台上八成的資料庫均由AI自動打造。這筆交易的規模達到10億美元,Databricks可借此進一步消除傳統資料庫的彈性伸縮瓶頸,為AI Agent提供“AI優先”的底層資料庫功能。收購Neon後不久,Databricks在今年6月推出了兩款Agent服務。其中,Agent Bricks可用於自動化建立AI Agent,使用者只需提供對任務的簡單描述,並通過Databricks的資料庫向Agent提供企業資料,就能完成Agent建立。Agent Bricks已經針對常見的行業用例進行了最佳化,比如結構化資訊提取、知識輔助、自訂文字轉換和多智能體系統等,企業可以用其完成對電子郵件、法律文書等內容的處理。Databricks還推出了Lakebase,這是一款用於AI應用和Agent的新型完全託管Postgres資料庫。Lakebase由Databricks此前收購的Neon提供技術支撐,與Databricks的資料湖倉平台Lakehouse深度整合,把業務資料和分析資料融合在一起,既能用來運行大規模分析,又能支援即時應用,滿足了AI Agent對快速查詢資料的需求。這兩項服務起到了互補的作用,Agent Bricks顯著簡化了企業打造Agent的流程,而Lakebase能為這些Agent提供合適的資料庫。雖然都仍處在預覽階段,不過其易用性、生態整合度、相容性等獲得了市場的認可。各類AI服務的推出,也成為Databricks的新增長點。今年6月,Databricks高管在一場投資者活動上稱,該公司的年化收入會在7月份達到37億美元(約合人民幣265.6億元),同比增長50%。同時,Databricks的客戶數量已經達到了15000多家。03.外部力量大力推動本輪融資但還面臨多方競爭Databricks已經成為矽谷當今最炙手可熱的投資標的之一,累計融資額近200億美元。收穫新一輪融資後,Ghodsi接受了CNBC的採訪,他稱在Figma完成IPO並股價飆升後,“我的手機被投資者轟炸了”,這輪融資“肯定有來自外部的大力推動”。這也顯示出,投資方希望在Databricks這家同樣炙手可熱的AI企業IPO之前,分得一杯羹。在去年12月底官宣的J輪融資中,Databricks獲得了100億美元的巨額融資,創下當年度的融資紀錄,目前並不缺乏營運資金。Ghodsi稱,目前投資者最關心的問題就是,Databricks的Agentic AI服務能否真正地自動化工作流程,有沒有給企業帶來價值?Ghodsi對此的回應是,這些服務仍處在早期階段,目前更注重解決企業的日常任務。Databricks的本輪融資,印證了市場對此類新型AI資料基礎設施公司的濃厚興趣,不過,Databricks仍需面對來自Snowflake、甲骨文等對手的競爭。成立時間與Databricks相仿的Snowflake,被普遍認為是前者的主要競爭對手之一。Snowflake源自雲資料倉儲(Data Warehouse),主打結構化資料分析、易用性與企業級安全性。Databricks的Lakehouse則強調對結構化與非結構化資料的處理能力及AI/ML能力。在AI時代,兩家公司的業務重合度不斷提升,都推出了資料Agent服務,在收購上也選擇了相同的方向——Snowflake於今年收購了Postgres資料庫創企Crunchy Data,與Databricks收購的Neon類似。Snowflake目前的市值約為642億美元,低於Databricks目前的估值。▲Snowflake股價變動(圖源:雅虎財經)甲骨文這樣的老牌資料庫企業,也在加緊佈局AI相關的資料產品。甲骨文於2024年推出了生成式AI Agent服務,提供檢索增強生成(RAG)等功能。今年3月,該公司進一步推出AI Agent Studio,作為企業建立、擴展、部署和管理AI Agent和Agent團隊的綜合平台,也能為Agent接入企業的自有資料。諸如微軟Azure、Google雲、AWS等大型雲基礎設施公司也是這一市場中的重要參與者,並相繼推出了AI相關的資料服務。諮詢公司IDC的報告顯示,2025年,在全球資料平台軟體提供商中,Databricks在能力維度排名全球第一,與Google、甲骨文、Snowflake等共同處於領導者範疇,但在規模上略小於Google和Snowflake。04.結語:Databricks接近自由現金流盈利,下一步會是IPO嗎?多家分析機構指出,Databricks雖然仍在虧損,但在營運效率和成本控制上已有顯著改善,並有望在2025年實現自由現金流盈利。隨著美股IPO市場回暖以及AI相關股票的驚人漲幅,投資者對Databricks潛在IPO的表現普遍看好——而近期一輪由投資者力推完成的融資,便成為最好的佐證。不過,Databricks目前尚未提交IPO申請,其高管對相關事項的表述也較為模糊,僅透露有IPO意向,但未明確時間。 (智東西)