Meta 发布新的视觉分割与对象识别流程以协助 AR/VR 开发

IP归属:广东

编译/VR陀螺

当地时间4月5日,Meta在其推特表示:现已发布通用 Segment Anything 模型 (SAM) 与 Segment Anything 1-Billion 掩码数据集 (SA-1B),以支持广泛的应用程序并促进对计算机基础模型的进一步研究。

图源:Meta

理想情况下,Meta表示“该模型将提供更多能力来增强 AR 体验,也将应用于 AI 和 VR 创作过程。预计由提示工程等技术实现的可组合系统设计将比专门为一组固定任务训练的系统能够实现更广泛的应用程序,且 SAM 可以成为 AR/VR 、内容创作以及更通用的人工智能系统等领域的强大组件 。”

AR 体验发展的一个关键要素是实体识别,有效的 AR 系统能够识别周围世界中的不同对象,以便在屏幕上提供额外的功能洞察力。 对于 Meta 而言,该模型可以帮助构建其 Project Aria 智能眼镜项目。

据 The Information 消息,去年6月 Meta 为了削减成本 ,推迟了其 AR 眼镜发布。同时,Meta 选择放弃其即将上市的第一代 AR 可穿戴设备,转而专注于其第二代 AR 设备,目前尚未确定发布日期。

来源:socialmediatoday

陀螺科技现已开放专栏入驻,详情请见入驻指南: https://www.tuoluo.cn/article/detail-27547.html

VR陀螺专栏: https://www.tuoluo.cn/columns/author1286744/

本文网址: https://www.tuoluo.cn/article/detail-10106393.html

免责声明:
1、本文版权归原作者所有,仅代表作者本人观点,不代表陀螺科技观点或立场。
2、如发现文章、图片等侵权行为,侵权责任将由作者本人承担。

相关文章