给你讲明白!苹果刚刚发布的手机激光雷达到底有什么用?
今天凌晨的苹果发布会上 , iPhone 12 正式面世 。 与基本机型相比 , iPhone 12 Pro 和 iPhone 12 Pro Max 的后置摄像头除了多一枚长焦镜头 , 还增加了一颗 LiDAR , 激光雷达扫描仪 。
这颗激光雷达是什么?它能为你的手机带来什么新体验?
文章插图
在这块圆形黑色区域之下 , LiDAR 主要由两部分组成:发射端和接收端 。 垂直腔面发射激光器(VCSEL)作为发射端 , 向物体发射一束红外光 , 经反射被 CMOS 图像传感器接收 , 光束经历的这一段时间被称为飞行时间(ToF) 。
文章插图
飞行时间又分为直接飞行时间(dToF)和间接飞行时间(iToF) 。 前者向目标发射一个光脉冲信号 , 直接测量光子从出发到返回的用时;后者发射一连串经过调制的光波 , 通过检测来回光波间的相位差测量飞行时间 。
文章插图
已知光速 , 通过简单的计算我们就能得到与目标物体之间的距离 。 这样的测距原理与雷达类似 , 不过 , LiDAR 基于的是脉冲激光 , 比雷达利用的无线电波波长更短、频率更高 , 可以得到分辨率更高的图像 , 精度可达厘米甚至毫米级别 。
文章插图
因此 , LiDAR 也被应用在地图测绘、自动驾驶、文物保护等领域 。 而到了手机 , 它又能做些什么呢?
这不是苹果第一次在它的产品里引入激光雷达 。 早在今年 3 月 , 2020 款 iPad Pro 就配备了 LiDAR 扫描功能 , 采用直接飞行时间技术(dToF) , 相比 iToF , 功耗较低且不易受环境光的干扰 , 可以做到大范围测量 。
使用时 , 发射器投射出 9 * 64 大小的矩阵光束 , 捕捉并绘制最远 5 米范围内的位置深度图 。 改变 , 首先发生在你拍摄的照片里 。
文章插图
一张出色的浅景深照片 , 是通过调大相机光圈并对焦在距离相机较近的地方实现的 。 今天 , 通过多个摄像头和机器学习算法的帮助 , 用手机也能轻而易举拍出这种背景虚化的效果 。
首先 , 神经网络和机器学习技术可以让手机知道我们在拍什么 , 以及目标距离我们有多远 。 对于普通人来说 , 从一张照片中判断物体层次和远近关系是一件非常容易的事 , 但对于机器 , 则需要大量的资源来学习 , 比如颜色分布、明暗程度和物体尺寸 。
文章插图
就像上面这张照片 , 曝光度均匀且主题明显 , 机器很容易分析出距离镜头较近的点以及距离镜头较远的点 。
可一旦照片中有更复杂的关系 , 事情就变得棘手了 。
人类或者动物的毛发、丰富的色彩、以及与背景颜色接近的衣服等 , 都很容易被机器误判为背景 , 尤其是主体的边缘区域 , 呈现出不自然的模糊效果 。
LiDAR 的加入能带来更精准的深度信息 , 以便于让 iPhone 理解物体之间的前后关系 , 通过算法绘制出一张空间位图 , 并将照片做切片处理 。 iPhone 会在几纳秒内根据深度信息图将照片切分成多份 , 距离越远的图层 , 模糊程度越高 , 制作出一张以假乱真的浅景深人像照片 。
文章插图
同时 , 在低光照条件下 , iPhone 的对焦速度也将大幅提升 , 并且可以在黑暗中准确找到画面中的人物 , 为夜间模式下的人像照片打下基础 。
推荐阅读
- 给你的iPhone12全方位保护:6款手机保护壳横评
- 不送充电器耳机,苹果一年能省17亿?库克的小算盘打得真好
- 马斯克刚成全球首富,行业又爆重磅新闻!百度要造汽车了,合作方是它!传与苹果合作造车,韩国汽车巨头股价暴涨
- Satechi推出新款铝制苹果键盘与iPad支架配件
- 研究称iPhone 12国行128GB物料成本提高了21%:苹果加倍转嫁给消费者
- 用户|元旦当天苹果应用消费额超过5.4亿美元 刷新单日消费记录
- 苹果创始人乔布斯的传奇人生:造就了苹果的巅峰,其实没那么完美
- 一则消息传来,苹果iPhone12再现问题,“果粉”有点慌
- 苹果两款新iPad齐曝光:性能提高、入门款更轻薄、售价便宜
- Facebook向客户发邮件:对苹果隐私新规“别无选择”