Meta展示可用于AR眼镜的AI场景重建技术

IP归属:广东

编译/VR陀螺

近日,Meta AI发布了一段视频,演示了AR眼镜如何基于Reality Labs Research的SceneScript模型识别现实世界对象并生成场景布局。

图源:X

据悉,SceneScript可以使用端到端机器学习直接推断房间的几何形状,而不是使用硬编码规则将原始视觉数据转换为房间建筑元素的近似值。SceneScript的一个优势是它的可扩展性。只需向环境数据集中表示门的场景语言添加一些附加参数,就可以训练网络准确预测物理环境中门打开或关闭的程度。

此外,SceneScript可以准确预测对象的位置,并进一步将这些对象分解为其组成部分。例如,沙发可以在SceneScript语言中表示为一组几何形状,包括垫子、腿和扶手。设计师可以使用这种细节级别来创建真正适合各种物理环境的AR内容。

图源:Meta

该方法可以生成类似于矢量图形的完整、清晰的几何形状,并使得物理场景表示的内存需求减少到只有几个字节,这意味着用户在AR眼镜上也可以轻松编辑生成的场景物体。

虽然用户目前还无法在Quest 3或Ray-Ban Meta智能眼镜上使用SceneScript,但Meta的研究为即将推出的AR眼镜提供了新的视角。对于AR眼镜来说,深度传感器会增加重量,因此基于视觉处理的点云技术更适合轻量级产品,可交互的分级识别也将带来更加身临其境的AR体验。

图源:Meta

Meta相信SceneScript代表了真正的AR眼镜之路上的一个重要里程碑:连接物理世界和数字世界。具体看来,SceneScript可以解锁MR头显和未来AR眼镜的关键用例,例如生成为视障人士提供逐步导航所需的地图。

同时,由于SceneScript还提供了LLMs 推理物理空间所需的能力,这使得其有成为下一代数字助理的潜力。用户可以向数字助理提出问题,例如“这张桌子适合我的卧室吗?”或者,“粉刷这个房间需要多少罐油漆?”,无需通过实际测量便可以在1秒内得到答案。

来源:ai.metamixed-news

陀螺科技现已开放专栏入驻,详情请见入驻指南: https://www.tuoluo.cn/article/detail-27547.html

VR陀螺专栏: https://www.tuoluo.cn/columns/author1286744/

本文网址: https://www.tuoluo.cn/article/detail-10111869.html

免责声明:
1、本文版权归原作者所有,仅代表作者本人观点,不代表陀螺科技观点或立场。
2、如发现文章、图片等侵权行为,侵权责任将由作者本人承担。

相关文章