青亭网|WWDC20:ARKit 4发布,苹果生态大一统,芯片才是王道


本来想等等ARKit更新 , 但WWDC20的主Keynote没有机会看到 , 苹果却低调在官网进行了更新 。 毕竟当前ARKit 3.5已经强大到一个新的层级 , 去年发布AR开发三件套已足够领先 。
可预见的是 , 接下来ARKit在移动AR新特性引入会变缓 , 而更多探索应该留给开发者们去尝试 。 同时 , ARKit接下来也会围绕AR/VR硬件展开 , 例如iPad Pro中新加入的LiDAR 。

青亭网|WWDC20:ARKit 4发布,苹果生态大一统,芯片才是王道
本文插图

在主Keynote中 , ARKit相关信息也仅仅在iPad OS 14中小小露面 , 其中还包括一个“AR video textures”的功能 。
同时 , 今天也是历史性的一天 , 因为苹果还发布了适用于全系Mac电脑的基于ARM架构的自研芯片 , 并计划在2年内逐步取代Intel芯片 。 这无疑是今天的重头戏 , 为打通苹果软硬件生态提供无尽可能 , 同时也是PC史上一次重要的变革 。
ARKit 4发布 , 小幅更新
实际上 , 在2020款iPad Pro发布时苹果就为其搭载的LiDAR推送了ARKit 3.5更新 , 该更新充分利用了LiDAR激光雷达的特性 , 加入场景几何(识别并区分场景内不同的物体)、即时AR体验、改进动作捕捉和人体遮挡等新功能 。
ARKit 4的主要特性也是围绕LiDAR来展开 , 如无意外 , LiDAR模组在未来苹果AR体验(尤其是穿戴式设备上)中将占据主导地位 。 ARKit 4的主要更新如下:深度API、位置锚定、脸部追踪支持更多设备 。

青亭网|WWDC20:ARKit 4发布,苹果生态大一统,芯片才是王道
本文插图

深度API:该功能基于LiDAR数据 , 通过LiDAR对每个像素的深度信息进行分析 , 并与场景几何的3D网格数据结合使用 , 让虚拟物体与显示物体的融合更逼真、自然 。 同时 , 还可进一步提升AR测距应用的准确性 。 该特性仅支持iPad Pro 2020款设备 , 后续具备LiDAR的设备(据悉iPhone 12最大号的那一款也会配备LiDAR)也会支持 。 位置锚定:可将AR虚拟物体放在现实中特定位置 , 例如一个著名景区 , 通过位置锚定即可为AR虚拟物体加上经纬度、海拔等信息 , 从而与地理位置永久性的融合 。 该功能跟ARKit 2中的持久性体验(基于保存与加载地图特性)不同 , ARKit 2持久性体验基于视觉部分 , 非永久固定 , 没有结合地图的GPS数据 。 仅支持iPhone Xs、iPhone Xs Max、iPhone XR以及更新的iPhone 11系列机型 , 同时目前仅支持部分地区 , 因此对于苹果地图扩展能力也是一个考验 。 脸部追踪扩展:将面部追踪功能扩展到更多设备上 , 让更多设备支持AR照片和视频的玩法 。 其中 , 新款iPhone SE仅支持单用户追踪 , 而具备原深感相机TureDepth的设备可同时识别追踪三个人脸信息 , 共同实现Memoji、Snapchat等基于前置镜头的AR玩法 。 该功能仅支持使用A12 Bionic及更新芯片的设备 , 实际上就是为新款iPhone SE提供了前置AR能力 , 因为此前AR人脸追踪仅支持具备原深感相机的设备 。
由此可见 , ARKit 4在重大功能迭代方面的确表现并没有之前亮眼 , 因此我们对于后续功能和体验上的优化我们也更为期待 。
Mac专用芯片诞生
当然 , WWDC 2020的主Keynote实在是信息点满满 , 在精心剪辑的前提下还保持近1个小时50分钟的高密度输出 。 其中新功能包括:苹果版的小程序App Clips、电话悬浮窗口、iPad OS的书写识别、Apple Watch睡眠追踪等等 , 整体亮点不多 , 大部分可看作健全生态体验 。
接下来讲一下本次发布会的一大重点 , 即:自研Mac专用芯片 。
实际上 , 前不久彭博的报道中也提到了有关苹果AR/VR项目 , 其中提到了一个苹果内部对于VR产品的分歧 , 其中一个就是一体式和分体式之争 。 Mike Rockwell主导分体式方案 , 产品设计采用轻量化头显+计算模块 , 类似Magic Leap 1 。 其中计算模块配备了“极强”性能的芯片 , 而这部分开发工作得到苹果芯片等部门支持 。


推荐阅读