谷歌利用众包照片为AR/VR提供地标3D建模
(映维网2020年08月13日)一直以来 , 将现实地点转换为3D模型对人类艺术家而言都是巨大的挑战 , 尤其是需要实现照片级真实感的时候 。
【谷歌利用众包照片为AR/VR提供地标3D建模】但谷歌研究人员已经构思出一种替代方案 , 其可以同时地自动化3D建模过程并改进结果 , 利用一个包含众包地点照片的神经网络来令人信服地在3D中复刻相关地标和照明 。
文章图片
名为神经辐射场(NergularRadianceFields , NeRF)的技术可通过确定光线的终止位置而从2D图像中提取3D深度数据 , 然后就能够创建看似合理的地标3D纹理模型 。
谷歌的NeRF-in-Wild(NeRF-W)系统则更进一步 。 首先 , 它使用“in-the-wildphotocollections”作为输入 , 并扩展了计算机从多个角度查看地标的能力 。 接下来 , 系统评估图像以寻找结构 , 分离出摄影图形和环境变化 , 如图像曝光、场景照明、后处理和天气条件 , 以及镜头到镜头的对象差异 。 然后 , 它将重新创建场景 , 将静态元素(结构几何和纹理)与提供体三维辐射的瞬态元素混合 。
因此 , 可以从多个角度流畅地查看NeRF-W的3D地标模型 , 而且看起来不会抖动或出现伪影 。 同时 , 照明系统使用检测到的变化来为场景照明和阴影提供辐射指导 。
另外 , NeRF-W可以将图像到图像对象的差异视为一个不确定域 , 然后消除或弱化差异 。 标准的NeRF系统则允许差异显示为云状遮挡伪影 , 因为它在图像摄取过程中不会将它们与结构分离 。
相关论文:NeRFintheWild:NeuralRadianceFieldsforUnconstrainedPhotoCollections
当然 , 谷歌不是唯一一家研究将照片用作3D建模输入的公司 。 例如 , 英特尔的研究人员正在使用多张照片和一个递归编解码器网络来插值未捕捉到的角度 , 从而生成现实世界地点的合成版本 。 尽管英特尔的系统在像素级清晰度和时间平滑度方面似乎优于包括标准NeRF在内的众多替代产品 , 但它似乎没有提供NeRF-W的可变照明功能 , 同时没有注重使用随机来源的照片来重现真实世界的位置 。
推荐阅读
- 传《GTA5》将登陆谷歌云游戏平台Stadia
- 谷歌|毫不客气!谷歌对澳大利亚发表强硬公开信
- 为什么教师普遍讨厌培训?这三点说得明白:利用假期、质量差
- 微软|微软用“手机投屏”,在谷歌生态里凿开了一个口子
- |谷歌做手写数字分类准确率才41.27%?对,不过是用量子计算做的
- 年纪|专骗年纪大的!利用支付宝花呗支付实施诈骗
- 电费|747笔订单、4万元的电费未支付!男子利用漏洞盗窃电费
- 学生利用AI撰写博客,甚至一度登上社交新闻网站首页
- 紫侠|塔里木盆地旁有个大湖,水量超过青海湖18倍,想要利用却很难
- [苹果 谷歌 堡垒之夜 Epic]|《堡垒之夜》开发商将苹果谷歌都告了!但两起反垄断案有啥区别