[]2D变3D,视角随意换,且不用3D建模,谷歌伯克利神还原高清立体感
十三 鱼羊 发自 凹非寺 量子位 报道 | 公众号 QbitAI
看到这张恐龙化石的动态图片 , 你肯定会认为是用视频截出来的吧?
文章图片
文章图片
然而真相却是——完全由静态图片生成!
没错 , 而且还是不用3D建模的那种 。
这就是来自伯克利大学和谷歌的最新研究:NeRF , 只需要输入少量静态图片 , 就能做到多视角的逼真3D效果 。
文章图片
文章图片
还需要专门说明的是 , 这项研究的代码和数据 , 也都已经开源 。
你有想法 , 尽情一试~静态图片 , 合成逼真3D效果
我们先来看下NeRF , 在合成数据集(synthetic dataset)上的效果 。
可以看到 , 这些生成的对象 , 无论旋转到哪个角度 , 光照、阴影甚至物体表面上的细节 , 都十分逼真 。
就仿佛是拿了一台录影设备 , 绕着物体一周录了视频一样 。
正所谓没有对比就没有伤害 , 下面便是NeRF分别与SRN、LLFF和Neural Volumes三个方法的效果比较 。
文章图片
文章图片
【[]2D变3D,视角随意换,且不用3D建模,谷歌伯克利神还原高清立体感】不难看出 , 作为对比的三种方法 , 或多或少的在不同角度出现了模糊的情况 。
而NeRF可谓是做到了360度无死角高清效果 。
接下来是NeRF的视点相关 (View-Dependent)结果 。
通过固定摄像机的视点 , 改变被查询的观看方向 , 将视点相关的外观编码在NeRF表示中可视化 。
文章图片
文章图片
文章图片
文章图片
NeRF还能够在复杂的遮挡下 , 展现场景中详细的几何体 。
文章图片
文章图片
还可以在现实场景中 , 插入虚拟对象 , 并且无论是“近大远小” , 还是遮挡效果 , 都比较逼真 。
文章图片
文章图片
当然 , 360度捕捉真实场景也不在话下 。
文章图片
文章图片
神经辐射场(neural radiance field)方法
这样出色的效果 , 是如何实现的呢?
首先 , 是将场景的体积表示优化为向量函数 , 该函数由位置和视图方向组成的连续5D坐标定义 。具体而言 , 是沿相机射线采样5D坐标 , 来合成图像 。
文章图片
文章图片
而后 , 将这样的场景表示参数化为一个完全连接深度网络(MLP) , 该网络将通过5D坐标信息 , 输出对应的颜色和体积密度值 。
推荐阅读
- 【人像】轻薄小巧的全新iPhone SE发布 年轻人买iPhone也不用换肾了
- [用户461430234816244]手机总是提醒更新系统, 用不用每次都更新? 维修师傅如是说
- #外观#李现代言的荣耀30,被iPhoneSE2截胡?怎么选不用我说了吧!
- 「自行车」用放大镜升级单车,再也不用回头看
- 「动物」科普丨被水生生物吃掉的塑料,给环境研究带来新视角
- #轻度玩机#李现代言的荣耀30,被iPhoneSE2截胡?怎么选不用我说了吧!
- ##苹果用户不用羡慕 Android 的长截图,5 款 iOS 长截图应用横评
- 『』一加手机8系列5399元起售,刘作虎称做高端市场不用冲
- 努比亚:努比亚Play官宣:配5100mAh电池,2天不用充电
- 「互联网的一些事」家里没网络就不用上网课了?不,美国这个学区搞了个 WiFi 校车