CSDN|一秒带你穿越!AI 修复百年前北京影像,路边摊、剃头匠太真实了( 二 )


CSDN|一秒带你穿越!AI 修复百年前北京影像,路边摊、剃头匠太真实了
本文插图
Partialconv损失再多也不怕:Partialconvs模型是N厂在2018年提出的(参https://github.com/NVIDIA/partialconv)Partialconv其实是PIX2PIX的2.0版本 , 即使图像丢失了大面积的像素 , 也能通过该模型将损失进行修复 。 其效果图如下:
CSDN|一秒带你穿越!AI 修复百年前北京影像,路边摊、剃头匠太真实了
本文插图
DAIN让视频丝般顺滑:DAIN就是我们本次视频UP主大谷 , 所直接用到的AI技术之一(论文地址:https://sites.google.com/view/wenbobao/dain , Github地址:https://github.com/baowenbo/DAIN) , 我们知道百年前的视频拍摄设备每秒拍摄的帧数还非常少 , 视频显得断断续续的 , DAIN的全称是Depth-Aware Video FrameInterpolation , 即深度感知视频帧插值 , 工作目标就是原始帧之间合成不存在的帧 , DAIN可以把30fps的进一步插帧到480fps , 这已经超过了很多手机的慢动作录像帧率 , 从而提高视步的流畅度 。
CSDN|一秒带你穿越!AI 修复百年前北京影像,路边摊、剃头匠太真实了
本文插图
DAIN模型中上海交大的Bao Wenbo博士等研究人员 , 提出了一种通过探索深度信息来检测遮挡 , 生成新帧的方法 。 具体来说 , 作者开发了一个深度感知光流投影层来合成中间流 , 中间流对较远的对象进行采样 。 学习分层功能以从相邻像素收集上下文信息 。最为良心的一点是Bao Wenbo博士还提供给Windows系统用户一个现成的exe绿色安装包(https://drive.google.com/file/d/1uuDkF4j4H1AI1ot88XdqzwMdvAPhxKN8/view) , 可以让编程小白也能直接使用大神级的模型 。DeepReminder老视频修复的终极杀器:DeepReminder是上文所述interactive-deep-colorization的动态视频版本 , 它提出了一种使用深度卷积网络 , 半自动地重新录制老式视频 。 DeepReminder是基于时间卷积和源参考注意机制的 , 这些机制是在视频上通过基于实例的恶化模拟训练的 , 这允许我们自动去噪 , 提高对比度和锐度 , 并基于手动创建的参考颜色帧添加颜色 。CSDN|一秒带你穿越!AI 修复百年前北京影像,路边摊、剃头匠太真实了
本文插图
其效果如下:CSDN|一秒带你穿越!AI 修复百年前北京影像,路边摊、剃头匠太真实了
本文插图
随着AI的发展 , 熟悉各种模型的人员往往可以将各种技术与模型综合使用 , 从而达到意料不到的好效果 。 AI修复老照片的视频是这种综合应用的重要里程碑 , 虽没提出什么新的模型 , 但是修复的视频不但带我们领略了历史的风貌 , 为我们展示了AI模型大融合所展示的威力 。CSDN|一秒带你穿越!AI 修复百年前北京影像,路边摊、剃头匠太真实了
本文插图
【CSDN|一秒带你穿越!AI 修复百年前北京影像,路边摊、剃头匠太真实了】
你点的每个“在看” , 我都认真当成了喜欢


推荐阅读