Meta首席科学家:情境AI将成为未来人机交互的核心

IP归属:广东

编译/VR陀螺

《Boz To The Future》是一档由Meta Reality Labs打造的播客节目,该节目由Meta首席技术官Andrew Bosworth主持,旨在探讨Meta Reality Labs正在瞄准的元宇宙、VR/AR以及AI等领域。

《Boz To The Future》于近日发布了其最新一期节目,该节目旨在纪念Meta基础人工智能研究团队 (FAIR) 成立10周年,Meta首席科学家Michael Abrash出席了活动并谈到了AI与VR/AR融合的愿景。

借助上下文AI(永不疲倦、随时可用的主动助手),AR眼镜和VR头显可以帮助您实现目标,增强您的感知、记忆和认知,让您的生活几乎神奇地变得更轻松、更高效。

这在以前是不可能的,因为以前从来没有任何设备能够从你的角度看待你的生活。我相信这最终可能是AR/VR革命最重要的方向。正如图形用户界面 (GUI) 是我们今天与数字世界交互的方式一样,情境AI将成为未来的人机界面,它将比GUI更具变革性,因为它直接触及数字世界的核心。帮助我们按照自己想要的方式生活。

在过去的几年里,奇迹发生了。大型语言模型 (LLM) 出现了,它具有处理理解用户目标所需的多模态推理的潜力,并帮助他们根据上下文和历史实现这些目标。

关键在于,大型语言模型有可能在视觉、音频、语音、眼动跟踪、手部跟踪、肌电图和其他上下文输入、你的历史记录以及广泛的世界知识之间进行推理,然后采取行动帮助你实现目标,并在需要时对你进行引导或消除歧义。

LLM需要更上一层楼才能发挥潜力,而FAIR正是实现这一目标的理想团队。从整体上看,FAIR的人工智能研究与Reality Labs的AR/VR研究的融合汇集了创建上下文人工智能界面所需的所有元素,这将充分实现Meta的未来愿景。

除播客外,Meta的博客文章还透露,Meta正计划于明年将多模态人工智能引入Ray-Ban Meta,并为其视频和多模态感知研究提供Ego-Exo4D基础数据集。不过从长远来看,当前只是一个开始,因为未来完整的情境人工智能系统需要的各种技术现在还不存在。

来源:Meta

陀螺科技现已开放专栏入驻,详情请见入驻指南: https://www.tuoluo.cn/article/detail-27547.html

VR陀螺专栏: https://www.tuoluo.cn/columns/author1286744/

本文网址: https://www.tuoluo.cn/article/detail-10110692.html

免责声明:
1、本文版权归原作者所有,仅代表作者本人观点,不代表陀螺科技观点或立场。
2、如发现文章、图片等侵权行为,侵权责任将由作者本人承担。

相关文章