从黑白,到彩色,再到3D,视觉技术一直在追赶人类的眼睛( 三 )


而手机的背后 , 现在已经有ToF的相机在华为上广泛使用 。 iPad , 以及未来即将发布的iPhone上也会有3D相机 , 可以用来帮助设备去和空间做交互 。 它可以看到五米甚至十米远 , 可以通过视觉帮助定位手机 。
比如 , 将虚拟世界的画面与真实世界的画面融合 , 就意味着是AR 。 也可以用来做定位 , 做SLAM等很多有意思的应用 。
更进一步 , 几年以后 , 当我们每个人手里都有一个3D相机的时候 , 每个人都在不断的拍摄和记录真实世界的每一个角落 。 这就好像我们玩游戏开地图一样 , 这个世界本来全都黑暗的 , 每个人拍个照片就进入了一个角落 , 而把这些角落拼接在一起 , 我们就将整个真实世界数字化了 。
在这之后 , 我们可以去体验一个“虚拟的真实世界” , 电影《头号玩家》的那些体验 , 其实在不远的将来可能就会成为现实 。
3D视觉与2D视觉的本质区别在于什么?
举一个例子 , 现在去银行里开户 , 我们不需要去柜台 , 一个自动柜员机会帮助你解决所有流程 。 首先需要解决的就是你到底是不是“这个人” , 2D的场景可能用一张照片 , 然后用照片对着摄像头就很容易攻破这个系统 。
如果要判断这个是不是“真人” , 2D的解决方案是让用户摇头、点头、眨眼等等 。 在进行健康码验证的时候 , 屏幕闪烁不同的颜色 , 有些需要你报一串数字等等 。 这是一个非常复杂的、用户体验不佳的 , 并且很长的过程 。 它需要几秒 , 甚至几十秒的时间 , 把这些的数据传到云端 , 用一个很复杂的模型来去判断 。
从黑白,到彩色,再到3D,视觉技术一直在追赶人类的眼睛
本文插图
银行智慧柜员机
现在 , 通过端上的3D相机可以直接拍到人的立体信息 , 可以拍到很多立体细节 , 这些细节可以帮助我们在端上用一个几美金的芯片 , 跑一个非常轻的算法就能实现这样的功能 。 也就是说 , 我们可以把很多复杂的 , 需要云端处理的问题 , 搬到了一个摄像头里面 。
可能有人会问 , 加了3D相机 , 是不是增加了额外的成本?其实从“云”到“端”上的转变、迁移 , 解决了两个非常关键的问题——
在IoT的时代 , 设备会越来越多 。 目前 , 世界上正在运行的IoT设备有数十亿个 , 在五到十年之内会增长到数百亿个 , 我们预计50年以后会有400亿以上的IoT设备 。
当这些IoT设备不断采集图像、视频时 , 按照现在的架构 , 把所有的任务交给云端 , 面临的第一个问题就是带宽够不够?第二个问题就是电够不够?
由于5G的出现可能带宽的问题会得到解决 , 但是如果不改变架构 , 每年仅通讯和云端这部分计算IoT , 就要用掉未来全世界20%的电力 , 同时会产生环境等额外一系列问题 。
所以我们需要把这个问题简化 , 不能把所有问题都扔到云端 。 我们有更好的带宽 , 更好的算力 , 但这不代表我们可以滥用这些东西 。
我们需要在端上做好感知 , 用更高密度的数据进行理解 。 更重要的问题是——我们可以通过技术解决功能 , 可以让生活变得更便捷 。
但是 , 人能不能接受这种方式?这不一定 , 我们希望有机器人一类更便捷的方式服务我们 , 但是并不希望有机器的摄像头 , 一天到晚盯着自己 , 个人的隐私安全是一件非常重要的事情 。
如果这个问题不解决 , 必然会导致人们不用这个技术 , 那么它就毫无价值 。 所以我们必须把图像数据封装在端上 , 当数据采集完成后 , 在端上进行算法处理 , 通过加密再发出去 。
如果黑客攻破这个数据的话 , 这将是一个毫无意义的向量 , 从物理上不再需要担心数据安全的问题 。 这也是技术服务于人 , 服务于社会的最根本的前提 。
我们讲了那么多加密、信息安全技术 , 现在调转一下画风 , 讲一个猪的故事 。


推荐阅读