打出“Android+Gemini”組合拳,AndroidXR平台成技術融合起點。
Google的AndroidXR全家桶,迎來重磅更新!
智東西12月9日報導,今天凌晨,Google在AndroidXR特別直播活動中重磅發佈了AndroidXR生態的多項全新進展:首款AndroidXR頭顯三星Galaxy XR上線三大新功能;與中國創企XREAL合作的有線XR眼鏡Project Aura確認將於2026年發佈;AI眼鏡原型機首次用上GoogleNano Banana圖像編輯能力;同時,面向AndroidXR開發者的整套SDK與API全面升級。
Google正以“Android+Gemini”的組合拳,加速推進AndroidXR平台的進化。
Google副總裁、AndroidXR主管Shahram Izadi和三星執行副總裁、XR負責人Kihwan Kim共同主持了這場發佈會。在開場時,二人介紹,AndroidXR生態是一個完整的“裝置光譜”。光譜的一端,是功能強大的頭顯,用於較短時間、更沉浸式的計算任務,比如觀看3D電影、玩遊戲和處理工作。另一端則是輕量級的AI眼鏡,可全天佩戴,快速獲取資訊。而中間則是融合了兩者的裝置,比如有線和無線的XR眼鏡。
在XR頭顯領域,AndroidXR進一步補齊了互動體驗。如今,Galaxy XR可以通過PC Connect直連電腦,全新的“Likeness”功能酷似Vision Pro的Persona功能,讓使用者的虛擬形像在XR世界裡更逼真了。Galaxy XR還將在明年新增系統自動空間化功能,讓每個視訊、網頁都能提供沉浸式互動體驗。
XR眼鏡則將頭顯所能提供的體驗輕量化。Project Aura的更多細節在這場發佈會曝光,其採用的光學透視功能讓使用者能兼顧顯示與虛擬世界,還可以與PC等裝置直連,Gemini也融入了Project Aura,支援螢幕問答功能。
AI眼鏡方面,除了Nano Banana修圖的功能演示外,Google並未帶來太多驚喜。不過,AndroidXR開發者在AI眼鏡領域的工具包迎來多項升級:適用於AI眼鏡的全新設計語言與UI元件發佈,AI眼鏡模擬器發佈,運動追蹤和地理空間等工具和功能也同步上線,讓開發者更方便地為AI眼鏡打造專屬應用。
從XR頭顯到XR眼鏡再到AI眼鏡,Google用AndroidXR一統多形態擴展現實裝置的戰略,已經日漸清晰。
Android生態主席Sameer Samat稱,隨著Gemini和Android的融合,未來的裝置都將變得更為智能,向通用助手的方向轉變。這將從根本上改變我們與技術互動的方式,AndroidXR平台就是上述技術開始融合的起點。
AndroidXR是業界首個用於擴展現實裝置的統一平台,由Google、三星和高通在Android的基礎上建構,這意味著Google生態裡所有的應用都可用於AndroidXR。
今年10月,Google和三星聯手推出了Galaxy XR,這是首款由AndroidXR驅動的裝置,具備高解析度、多模態AI輸入,並內建由Gemini驅動的AI功能。比如,使用者可以在XR世界裡沉浸式體驗Google地圖裡的街景,然後召喚出Gemini詢問更多資訊。
AndroidXR生態也在不斷擴展,發佈僅一個月後,Google Play商店中現在已有超過60款為XR打造的應用和遊戲。今天,Galaxy XR擴展了一系列新功能。
全新的PC Connect功能讓使用者可以直接從筆記本拉取一個窗口,呈現在XR裝置上。這一功能可用於辦公、創作和娛樂,GoogleXR的產品經理演示了在XR螢幕上玩《城市:天際線2》的體驗。
Galaxy XR還推出了“Likeness”,讓使用者能在各類視訊會議軟體中,呈現自己更為逼真的XR虛擬形象。這一功能與蘋果Vision Pro的“Persona”頗為類似。
上述兩項新功能,以及沉浸式的旅行模式功能於今天即刻推出,Galaxy XR還將在明年新增系統自動空間化(System autospatialization)功能,允許使用者在多個應用中將普通的2D內容轉換為3D內容。
這一過程完全是在頭顯上運行的,所以幾乎適用於任何應用,能讓每個遊戲、每個YouTube視訊甚至是整個網頁都變成沉浸式的。
除了Galaxy XR之外,Google也在建構AndroidXR的裝置生態。他們與國內XR眼鏡創企XREAL合作的Project Aura,將提供AndroidXR生態中全新的有線XR眼鏡體驗。
戴上Project Aura後,映入眼簾的首先是通過透明鏡片看到的周圍真實世界。這被稱為光學透視,讓使用者用自己的眼睛看世界。
Project Aura將虛擬體驗投射到使用者的視野中,並允許使用者像使用AndroidXR頭顯一樣用手勢互動。Project Aura通過一個有線連接的小型計算模組供電,該模組包含主要計算單元和電池,還可以兼作觸控板,這讓眼鏡本身保持相對輕便舒適。
這款XR眼鏡也可以與PC等裝置直接連接。在連接PC時,使用者可以直接通過電腦的鍵盤和觸控板與之互動。
Gemini也融入了Project Aura,它可以看到螢幕上的內容,甚至是電腦視窗裡的內容。使用者可以通過鏡腿上的按鈕觸發Gemini,並直接向其提問與畫面內容有關的問題。
這款XR眼鏡的正式產品名尚未公開,Google稱其將於2026年正式發佈。
在AI眼鏡領域,Google此前已經在I/O大會上展示了原型機。在與三星的合作中,Google正與Warby Parker和Gentle Monster兩大眼鏡品牌,合作打造兩種類型的眼鏡。
一類裝置是無顯示AI眼鏡,將配備內建揚聲器、攝影機和麥克風,使用者可以聽音樂、打電話、拍照,或是與Gemini對話等等。另一種是帶有螢幕的AI眼鏡,也就是I/O大會上的同款產品。
GoogleXR高級總監Juston Payne演示了後者的原型機。這款眼鏡支援視覺問答、即時翻譯等有顯示AI眼鏡的常見功能。
讓人眼前一亮的是,Google的Nano Banana圖像編輯模型,這回也融入了AI眼鏡。Payne用眼鏡給現場人員拍了張照片,然後在畫面中P上了一個戴著墨鏡的Android機器人形象,全程靠語音互動實現。不過,Google用小字標註稱,P圖的延遲是模擬的。
Google還官宣了一系列AndroidXR開發者SDK和API更新。GoogleAndroid開發者產品管理副總裁Matthew MaCullough稱,AndroidXR使用了開發者從建構自適應應用時就已熟悉的API和工具,換句話說,為Android開發,就是在為XR開發。
AndroidXR SDK的開發者預覽版3於今天發佈,此版本擁有更高的穩定性和一系列新功能,面向AI眼鏡的更新成為一大重點。
在面向XR頭顯的開發工具包中,AndroidXR增加了用於建構豐富3D場景的新功能,例如具有柔性頭部鎖定和過渡效果的空間動畫。此外,適配現有UI變得更加容易了。Material 3元件如今可以自動轉化為XR元素。
為了增強AI眼鏡的使用體驗,AndroidXR為Jetpack XR SDK 引入兩個全新、專門建構的庫:
一個是Jetpack Projected API,這一API讓開發者能將現有的移動端App直接遷移到AndroidXR平台上,並支援從移動端App訪問螢幕、攝影機等XR裝置元件。
Jetpack Compose Glimmer則是一套全新的設計語言和UI元件,用於打造有顯示AI眼鏡的互動體驗。其UI元件針對AI眼鏡的輸入方式和樣式要求進行了最佳化,能做到清晰、易讀,且最大限度地減少干擾。
AndroidStudio中引入了AI眼鏡模擬器,可以模擬眼鏡特有的互動方式,例如觸摸板和語音輸入。
AndroidXR還擴展了Jetpack XR的ARCore,以支援AI眼鏡的更多功能。首批新功能是運動追蹤和地理空間,能夠幫助開發者建立實用的導航體驗,適配AI眼鏡等全天候佩戴裝置。
通過與Firebase的合作,Gemini Live API現在能更好地支援AI眼鏡,提供智能互動體驗。
Uber已經打造了一套基於AndroidXR AI眼鏡的演示案例。使用者可以在落地機場後,借助AI眼鏡上直接看到接機行程資訊,獲取機場內部導航,並識別車牌號,更便捷地完成打車。
對於XREAL的Project Aura等裝置,AndroidXR推出了AndroidStudio中的XR眼鏡模擬器。這款工具可提供精準的內容可視化,同時匹配真實裝置的視場(FoV)、解析度和DPI,加速開發。
AndroidXR平台去年年底發佈預覽版,並於2025年正式發佈。1年時間裡,該平台已經在頭顯、XR眼鏡與AI眼鏡領域有了快速進展。
與此前自研Google Glass的模式不同,在硬體層面,Google選擇與三星、XREAL等廠商合作,自己則專注於AndroidXR平台本身,以統一的平台、統一的能力和統一的開發體系,構築一個龐大的XR生態。
對於產業鏈而言,在AndroidXR的帶動下,XR裝置擁有了統一的作業系統平台,某種程度上緩解了XR裝置此前的生態碎片化問題。未來,AndroidXR能否持續推動XR的應用和內容生態繁榮,值得持續關注。 (智東西)