[映维网]苹果最新AR专利可用多设备辅助实现更稳定虚拟对象定位


(映维网 2020年04月08日)随着AR技术的兴起 , 越来越多设备开始支持这种数字增强功能 。 但有时候 , 设备无法精确地使用计算机生成内容来增强物理环境 。 例如 , 设备会在不合适的位置显示虚拟对象 。
针对这种情况 , 苹果希望利用多设备的图像来进行定位和映射 , 从而提高虚拟对象显示位置的精确性 。
名为“Localization And Mapping Using Images From Multiple Devices”的专利申请指出 , 所述映射和定位方法由包含显示屏、摄像头传感器和运动传感器的第一电子设备执行 。 所述方法包括:通过摄像头获取第一图像数据;使用运动传感器获取运动数据;接收与第二电子设备对应的信息;使用第一图像数据、运动数据 , 以及与第二电子设备对应的信息生成第一电子设备的第一姿态表示;以及在显示器中显示虚拟对象 。 其中 , 虚拟对象的显示是基于第一电子设备的第一姿态表示 。

[映维网]苹果最新AR专利可用多设备辅助实现更稳定虚拟对象定位
本文插图

例如在上面的专利图中 , 电子设备200A和电子设备200B用于增强用户的物理环境视图 。 电子设备200a和电子设备200b显示由各自摄像传感器所捕获的物理环境图像 。 除了显示诸如立方体202a和202b等物理对象的图像之外 , 电子设备200a和电子设备200b同时可以显示虚拟对象 , 从而增强用户的物理环境视图 。
针对这种情况 , 电子设备200a和电子设备200b可以相对于物理环境确定自己的姿态(如位置和方向) 。
电子设备200a可以使用例如视觉惯性里程计等SLAM技术来启动关于物理环境的映射和定位过程 。 但为了提高电子设备200a的位置估计精度 , 系统需要更多的数据 , 特别是关于物理环境中的显著特征的三维位置数据 。
所以 , 除了利用电子设备200a产生的数据之外 , 苹果指出可以使用第二设备(如电子设备200b)产生的数据 。
在一些实施例中 , 电子设备200a接收由电子设备200b捕获的图像数据和/或电子设备200b的相应姿势估计 。 在一些实施例中 , 电子设备200a使用接收到的图像数据和/或电子设备200b的相应姿态估计来生成电子设备200a的姿态估计 , 亦即在现有的姿态估计基础进行优化精细 。
通过增加用于估计设备姿态的数据量 , 我们能够减少与姿态估计相关的误差 , 从而在执行计算机内容生成技术时提供更优的用户体验 。 相关专利:Localization And Mapping Using Images From Multiple Devices
【[映维网]苹果最新AR专利可用多设备辅助实现更稳定虚拟对象定位】名为“Localization And Mapping Using Images From Multiple Devices”的专利申请最初在2019年8月提交 , 并在日前由美国专利商标局公布 。


    推荐阅读