『』新iPad Pro“三摄”看似没用,它却是苹果的未来

『』新iPad Pro“三摄”看似没用,它却是苹果的未来
文章图片

文章图片

3月18日晚 , 苹果官网火速更新iPad Pro , 和前代相比 , 这一次iPad Pro的最大变化不是A12Z处理器 , 而是背后的“火疖子”——从单摄像头提升到了双摄 , 同时增加了ToF模组 , 苹果称之为激光雷达扫描仪(LiDAR) 。
『』新iPad Pro“三摄”看似没用,它却是苹果的未来
文章图片

文章图片

在苹果的介绍中 , 这款激光雷达扫描仪采用了直接飞行时间(dToF)来进行测距 。而ToF技术 , 我们在这两年的安卓手机上已经见过很多 。早在2018年 , OPPO R17 Pro和vivo NEX双屏版都搭载了ToF影像系统 , 而到了2019年 , 华为、三星等旗舰也上马了ToF 。
『』新iPad Pro“三摄”看似没用,它却是苹果的未来
文章图片

文章图片

在上次我们的iPad Pro解析文章中 , 重点做了A12Z的分析 , 指出这是为了配合苹果“AR+低价”战略推出的更新产品之后 , 就有热心的读者朋友在下面评论 , 希望能讲一下苹果的LiDAR 。
『』新iPad Pro“三摄”看似没用,它却是苹果的未来
文章图片

文章图片

说到底 , 苹果押宝的LiDAR和dToF , 与我们平常见到的安卓方案又有什么不同?在这篇文章中 , 让我们一一道来 。
神秘的dToF
我们先来快速复习一下ToF的概念:ToF , 全名“Time-of-Flight”(飞行时间测距法) , 是3D深度摄像头的其中一种方案 。但和Face ID结构光提供点阵的方案不同 , ToF投射的是一整个面 , 根据红外线的反射时间来计算深度信息 , 并且 , ToF的测量范围达数米 , 不容易被强光所影响 。
『』新iPad Pro“三摄”看似没用,它却是苹果的未来
文章图片

文章图片

当然 , ToF也带来了一些缺点 , 譬如分辨率低、模组复杂、价格昂贵等问题 , 它不适合分辨率要求高的前置摄像头(虽然有些厂商也上马了ToF的面部识别) , 主要应用在后置摄像头上 。例如人的动作识别、建筑识别这种需要一定距离进行测绘的 , 都是ToF比结构光更有优势的地方 。
那么回到当下的问题 , 苹果和安卓的ToF分别有什么不同呢?
在现在的安卓大部分机型内 , 都采用的一种名为iToF的(indirect time of flight , 间接ToF)技术 。所谓间接ToF , 并不是直接测量光发射返回的时间 , 而是根据相位偏移来间接计算距离 。
『』新iPad Pro“三摄”看似没用,它却是苹果的未来
文章图片

文章图片

【『』新iPad Pro“三摄”看似没用,它却是苹果的未来】众所周知 , 光具有波粒二象性 , 也就是说我们可以通过发射光和返回光的相位偏差 , 和收发的时间进行函数运算 , 来获得具体的距离 。例如激光发射器可以发射850nm的调制红外光 , 反射回来滤片过滤之后接收的自然也就是调制红外光 。
『』新iPad Pro“三摄”看似没用,它却是苹果的未来
文章图片

文章图片

具体计算方法比较复杂 , 这里就不进行阐述 , 但基本的测量指标只有几个基本要件:光发射的振幅、频率 , 而反射回来的光要经过四个快门的判定 , 以此来得出时延、衰减后的振幅以及强度偏移(环境光) , 最后就可以计算出相位偏移 , 而加上环境光影响的强度偏移 , 可以得出距离 。


推荐阅读