新专利显示苹果眼镜可以使用来自iPhone的AR 3D地图数据

VR和AR头显生产者必须面对的问题之一就是需要知道头显在环境中的位置 。 这一点对于增强现实应用尤为重要 , 因为将数字物体叠加在真实世界场景上的观看系统必须确保物体在用户视野中的定位是绝对正确的 。 头显有多种不同的方式来追踪它们的位置 , 包括加速度计和指向环境中的摄像头来追踪附近的物品 。
然而 , 在有多人使用头戴式视觉系统的情况下 , 或者目前可观察到的多个使用ARKit应用的iPhone用户 , 每个设备通常会处理自己的坐标追踪系统 。 设备在使用过程中一般不会相互共享坐标 , 一般都是相互独立工作 。
苹果Glass智能眼镜或苹果生产的VR或AR头显可以利用其他硬件 , 通过共享本地环境的数据来确定它的位置和运动三维空间 。 在美国专利和商标局周二授予的一项名为 "同步增强现实坐标系统的方法和设备 "的专利中 , 苹果提出了一种方法 , 通过同步数据 , 让所有设备共享本地位置数据 。
【新专利显示苹果眼镜可以使用来自iPhone的AR 3D地图数据】这个想法最初是由一台电子设备将 "特征集 "中的多个项目交给第二台设备 , 比如iPhone或基站向AR头显传输数据 。 这个特征集可以包括3D空间中的参考位置、每个设备的坐标 , 在某些版本中 , 还包括3D空间的地图和其中的兴趣点 , 可以用来放置虚拟物体 。
第二台设备可以将这些数据作为用户进行AR体验的起点 , 而不需要事先绘制区域本身 。 第二台设备仍然可以收集自己的数据 , 并更新它所接收到的特征集 , 同时将数据传回给第一台设备 , 告诉它更新后的位置和任何其他相关数据 。 数据的来回交接可以允许创建其他功能 , 例如第一台设备根据第二台设备的新位置提供一个区域的最新3D地图 。
虽然该系统在AR和VR中有着明显的应用 , 比如引导游客参观博物馆 , 但这个想法也有其他的使用方式 , 而且不一定是在一个更大的系统中 。 从专利的描述方式来看 , 它可能会以另一种方式帮助增强苹果传闻中的智能眼镜Apple Glass 。
由于包括3D地图信息在内的数据在设备之间传输 , 可能由iPhone或其他设备生成 , 然后传递给Apple Glass本身 。 理论上 , 这将减少Apple Glass上所需的处理量和传感器 , 使其能够以一种更不笨重、更有吸引力的形式被制造出来 。
苹果每周都会提交大量的专利申请 , 但虽然申请的存在表明了苹果研发工作感兴趣的领域 , 但并不能保证未来的产品或服务中存在某种功能 。
新专利显示苹果眼镜可以使用来自iPhone的AR 3D地图数据文章插图
新专利显示苹果眼镜可以使用来自iPhone的AR 3D地图数据文章插图


    推荐阅读