果核Group 12:没人比我更懂「手机摄影」,iPhone( 三 )


接着是弱光的DeepFusion , 也就是深度融合 , 即通过多帧的合成 , 让画面在弱光环境中还原被摄物体的细节 。 它更像是一种分区域不同的进行高级锐化 , 让这个画面更加具有质感 。 而这一次一个重要改变是 , 在iPhone12ProMax上所有摄像头全部支持了深度融合 。
果核Group 12:没人比我更懂「手机摄影」,iPhone
文章图片
(苹果官方样张)
当然 , 还有iPhone最拿手的智能HDR , 来到了最新的HDR3 。 我们以往对于HDR技术的认知还停留在光线的分区域明亮上 , 比如说让画面中黑的地方亮 , 亮的更加暗 。
但是对于在在智能HDR3中 , iPhone是直接细分场景的 , 它是在了解到你在什么场景中拍摄 , 在进行真正的光线调整 。 如果是人像 , 它会识别你的面部 , 而且会对你的面部进行区域划分 。
除此以外它会识别各种自然场景 , 像是识别天空以后 , 让天空更纯净 , 识别土地以后 , 让土地裂纹更有质感 。 所以可想而知智能HDR3成为提升画面质感的关键武器 。
果核Group 12:没人比我更懂「手机摄影」,iPhone
文章图片
(苹果官方样张)
当然 , 以上都是「过去」 , 这一次是完善和改进 。 而接下来要说的是:
「新开始」 。
从现在开始 , iPhone12全部支持影片杜比视界拍摄 。 而这也是首个可拍摄杜比视界的摄像头系统 。 简单来说 , 杜比视界有两个大优势:
1.绝佳的色彩 。 因为色彩直接从8位升级到了10位 , 可不要小看仅仅只有2位的变化 , 影视行业的同学应该了解 , 这个2位变化是指数位 , 实际上的色彩数量是一大步的飞跃 , 让iPhone直接可以捕捉7亿色彩 , 是以往的60倍 。 也就是说 , 我们以后使用iPhone12系列拍摄的视频 , 会有更加细腻真实的色彩 。
2.更好的动态范围 。
果核Group 12:没人比我更懂「手机摄影」,iPhone
文章图片
需要说明的是 , 这种技术在以往是需要专业的团队才能完成的 , 需要非常多的后期步骤 。 但是现在iPhone12系列可以做到直接边拍摄边直接进行杜比视界的调色 , 是实时的、逐帧的 。
例如 , iPhone12Pro会拍摄两帧不同曝光值的画面 , 再用我们定制的图像信号处理器进行分析 , 创建一张代表每帧画面色调值的直方图 。 然后 , 根据这张直方图生成杜比视界视频元数据 。
不仅是拍摄 , iPhone12系列还配备了杜比视界的编辑能力 , 让你可以实时进行杜比视频的内容剪辑 。 这非常重要 , 因为这意味着对于杜比这项技术 , 苹果已经完成了一个闭环 。 而iPhone已经成为了一个集拍摄、剪辑、分享、观看于一体的设备 。
显然 , 以上这些需要非常强大的图像处理能力和计算能力 。
所以 , 这也是为什么只有iPhone擅长上述所有 , 因为iPhone12拥有地表最强手机处理器——A14仿生芯片 。
果核Group 12:没人比我更懂「手机摄影」,iPhone
文章图片
(苹果官方样张)
这其实不是它第一次登场 , 但在这里你只需要知道 , 为什么iPhone可以在计算摄影上如此迅猛 , 这才核心奥义 。
最可怕的是 , iPhone摄影另辟蹊径了
激光雷达是一个非常有野心的尝试 。 在苹果全系产品线上 , 都在使用激光雷达 , 它第一次出现是在最新的iPadPro上 。 简单来说 , 雷达可以让我们知道周围环境的「立体关系」 。
也就是说我们的手机在以前 , 只能在二维的空间对画面进行判断 , 但是在三维的空间上 , 束手无策 。 但是现在有了雷达以后 , 我们就可以在三维空间获取信息 。
听起来似乎很玄学 , 的确在今天的iPhone12之前 , 激光雷达对于用户的实际使用场景非常少 。 但是苹果很巧妙的把这一功能应用在iPhone12的摄影上 , 而这也成为了iPhone的独门绝技 。


推荐阅读