大厂开始发力,初创公司慌不慌
文/VR陀螺 万里
昨夜,谷歌举办了名为《The Android Show | XR Edition》的线上发布会。
本次发布会时长30分钟,没有硬件新品,核心聚焦在XR头显软件更新、AI眼镜能力展示以及新的Android XR SDK。
在这之前,不少人都对谷歌的XR产品线感觉到混乱,原因在于Android XR系统涵盖了头显与眼镜,但是两类产品的能力有着较大区别。本次发布会,谷歌再次对各类产品捋了一遍:
XR是眼镜与头显的总称。Galaxy XR归属于XR头显;XREAL与谷歌联合开发的Project Aura定义为有线XR眼镜;对于智能眼镜,则分为了AI眼镜和显示AI眼镜(Display AI Glasses)两大类。(不知道是否是因为Google Glasses的挫折,谷歌现在已经不倾向使用AR眼镜等词汇。)
01
XR头显多项功能更新
展示安卓版“Persona”
发布会开始,谷歌简单介绍了Galaxy XR的最新动态。这是一款由三星、谷歌与高通三方联合开发的头显设备,产品发布于今年10月。发布会期间提到了一项数据:设备上线一个月,商店里面已经有超过60款专为XR打造的应用和游戏,其中包括知名VR桌游《Demeo》。
一个多月过去,Galaxy XR推出了以下几项更新:
PC Connect:可将电脑屏幕画面投屏到头显端,以获得大屏的观影以及游戏体验,应用将会在今日推出测试版;
旅行模式:方便用户在飞机等移动使用场景下使用头显;
Likeness:这是一个Android版Persona,用户需要在手机端预先录入脸部信息。根据演示视频,Likeness看起来十分逼真,不过如果与Persona对比,Likeness似乎更像是一个常规的2D图片而非真实的3D模型。
System autospatialization:这是一项系统级实时2D窗口转3D功能,比如头显中打开了YouTube等窗口,它可以将2D窗口转化为3D效果,该功能将会在明年正式推出。
02
Project Aura实机演示
预告多项AI眼镜合作
Project Aura是一款由XREAL与谷歌联合开发的有线XR眼镜。Project Aura已经是老面孔了,曾在今年谷歌I/O等活动有所亮相,设备支持70°大FoV显示,搭载了由XREAL自研的X1S空间计算芯片,产品计划在2026年面向市场。
本场发布会中,Project Aura首度进行了上手演示,并透露了更多细节。Project Aura配备了一个外置计算单元,从图片中可以看到,它的外观有点类似于智能手机,承担了计算以及供电的角色,主机正上方应该是一个触控板。此外,Project Aura正前方有3颗摄像头,用于实现空间定位以及手势交互。
其他方面,Project Aura具备与Galaxy XR类似的能力,如窗口多开,眼镜可通过镜腿唤起Gemini,并让AI识别当前屏幕内容等。
除XREAL外,谷歌还与Gentle Monster和Warby Parker等品牌达成了AI眼镜相关合作,产品预计会在明年推出。(这其实也不是新闻了,谷歌之前活动中曾多次提及)
Warby Parker 联合创始人Neil Blumenthal在发布会中表示,“我们期待有一天所有眼镜都能智能化......而那一天比我们想象的要来的更快。”
除了与第三方厂商合作外,谷歌也在开发自家的AI眼镜,发布会展示了一款谷歌AI眼镜原型设备,它的典型场景如下:调用Gemini的多模态能力识别眼前的食物;拍照并基于Nano Banana模型进行图片再创作;跨语言对话翻译;查找周边美食等。
03
眼镜SDK发布,Uber正在开发眼镜应用
Android XR之于开发者,具备一个得天独厚的优势,大部分原生安卓应用无需特别移植即可直接在XR头显以及有线XR眼镜等设备运行。当应用包含富媒体通知等体验时,它也可以很容易移植到AI眼镜端。
去年12月,谷歌曾对外推出了Android XR SDK开发者预览版,当时SDK重点聚焦于XR头显,本次发布会期间,谷歌进一步发布了SDK开发者预览版3,并首次介绍了智能眼镜的配套能力。以下是主要更新。
1、AI眼镜
Jetpack XR SDK中为AI眼镜引入两个新的专用库:
Jetpack Projected——旨在连接移动设备和AI眼镜,其功能可让您访问眼镜上的传感器、扬声器和显示屏;
Jetpack Compose Glimmer——用于在AI眼镜上打造和设计增强体验的全新设计语言和UI组件。
Android Studio引入AI眼镜模拟器,开发者可以在上面更直观查看眼镜特有的交互方式,如触摸板和语音输入。
Jetpack XR ARCore能力支持AI眼镜,可用于构建运动追踪、地理空间等视觉定位服务。
Gemini Live API让开发者能够使用Gemini的能力并构建多模态AI体验。
Android XR AI眼镜的首批第三方应用即将来袭,谷歌透露,目前Uber正在利用Android XR SDK为其打车APP构建AI眼镜应用。当旅客下机后,AI眼镜上面会显示行程状态、接送地点等信息;此外,眼镜可以识别车牌信息,或者与司机进行电话沟通。AI眼镜的加入,能够让打车这一过程变得更加顺滑。
2、XR头显
SDK主要更新如下:
Jetpack SceneCore现在支持通过URI动态加载glTF模型,并改进了材质支持,可在运行时创建新的PBR材质;
Jetpack Compose for XR增加了用于跟随行为的UserSubspace组件、可以使用空间动画来实现平滑过渡效果等;
在Material Design for XR中,新组件可以通过重写自动进行空间自适应;
ARCore for Jetpack XR新增了感知功能,包括支持68个混合变形值的面部追踪;
Android Studio中引入了针对Project Aura 等设备等设备的模拟器。
结语
从新品的角度来看,本次The Android Show活动并没有太多让人眼前一亮的地方。很多产品也属于“预热”、“预热”再“预热”。
不过,另外一方面,我们可以看到谷歌在XR赛道其实正在逐步加大力度,比如头显以及AI眼镜品类全面铺开,并且稳步在系统功能以及SDK相关底层建设上稳步推进中。
拆开来看,对于XR头显,Galaxy XR处处落后Vision Pro半拍,今天发布的新功能也已经见怪不怪。
然而,对于AI眼镜,Android XR平台却显得势不可挡,因为它是目前市场上“最正规的正规军”,它具备了目前最强的手机、眼镜跨终端生态能力,Gemini体验也很强。目前市场属于“矮子里挑高个”,谷歌起点就很高。
随着谷歌的进一步发力,毫无疑问的是明年AI眼镜市场的热度会再上一个阶梯,而Android XR也可能会成为更多硬件初创公司的首要选择。









