DeepTech深科技|挑战Deepfake中科大斩获亚军,与第一名仅差0.0005( 二 )


大多数 Deepfake 视频的窜改痕迹非常微弱、并且只集中在局部区域 , 因此模型首先要捕捉到这些细微的篡改痕迹;其次 , 在应对实际情况时 , 包括光照、人脸转向等不同场景的变化 , 要求模型还能实现细节捕捉 。
相较于密码学 , 或者互联网通信这样的领域 , Deepfake 检测依旧处于很初步的阶段 , “哪种方法效果好 , 就向哪个方向去靠近 , 没有完整的理论体系 。 ” 周文柏形容 , “我们可能抓住了问题比较本质的角度 , 所以取得了比较好的效果 。 但是现在认为的这套理论也不一定正确 。 ”
目前的 Deepfake 检测只能判断视频是真还是假 , 在接下来的研究中 , 周文柏和同事想实现对视频的伪造做出解释 。 此外 , 还希望更多地利用视频帧与帧之间的信息作为检测依据 。
目前已经有一些方法在利用这种帧与帧之间的关联进行检测 , 但是利用还不充分 , 这就导致视频的检测结果往往差于图像 。 “但视频有一个持续的特征 , 有可能比图像包含更多的信息 , 所以视频检测还具有非常大的研究空间 。 ” 此外 , 利用生物信号来检测 , 也是值得研究的方向 。
信息和人工智能安全研究团队 , 多项技术已经应用 在此次 Deepfake 检测比赛中凭借普通的算力支撑 , 获得了第二名 , 显示了中科大团队在人工智能安全领域的实力 。 这只是团队的成果之一 。 俞能海、张卫明教授团队来自中科大信息处理中心 , 他们研制的多项技术已在实际中运用 。
DeepTech深科技|挑战Deepfake中科大斩获亚军,与第一名仅差0.0005
本文插图

图 | 俞能海(左)、张卫明(右)(来源:中科大官网)
其中 , “摄屏溯源水印” 技术已在中电科、国家电网、中国电子、中国金融期货交易所等多家单位应用 , 并在 2019 年国家网络安全宣传周获得 “网络安全创新产品优秀奖” (第一名)和最具投资价值奖 。
电子时代的信息形式发生了改变 。 在很多时候 , 电脑屏幕上的内容被手机随手拍摄 , 就可以轻易流传出去 , 并且因为没有物理痕迹 , 难以查证 。
中科大团队开发出的 “数字水印” 就是在电子屏幕上以人眼看不见的方式打上水印 。 这样 , 被摄屏的照片就会留下标记 , 也就是水印中所提供的信息 。 用特殊的工具从图片中提取信息 , 就可以得知拍摄发生的时间、地点、以及机器识别码 。 通过这样的信息 , 就能在物理世界中进行泄密溯源和追踪 。
DeepTech深科技|挑战Deepfake中科大斩获亚军,与第一名仅差0.0005
本文插图

图 | 数字水印技术(来源:受访者)
在人工智能安全领域 , 团队也一直在与阿里巴巴进行合作 。 像淘宝、天猫等平台的信息发布审核中 , 需要过滤掉危险和有害的信息 。 可能存在的风险是 , 攻击者利用人工智能技术躲过信息审核 。 团队在做的事情就是利用人工智能技术进行防御 。
深度学习技术目前一直存在无法消除的漏洞 , 于是带来了相应的研究主题:对抗性攻击 。
基于深度学习的计算机视觉技术尽管发展很快 , 却存在着致命的弱点 。 举例来说 , 一张可以被模型识别的图片 , 如果被加入一些噪声信息 , 尽管人眼看不出变化 , 但模型就无法准确识别了 。
除了网络上的信息安全可能受这项技术影响 , 这项也已经被美国写入 “算法战” 中 。 无人机侦测的目的是把军事目标识别出来 , 然后传递给指挥部 。 利用对抗技术 , 将噪音以物理形式添加在武器装备上 , 就可以干扰无人机侦测 , 形成错误的作战指令 。
在 Facebook Deepfake 比赛获奖之后 , 团队也接到了许多相关的合作需求 , 华为、浙江省广电等企业希望能够运用人工智能技术 , 以避免手机拍摄的媒体素材、或者电台公开的素材被恶意窜改 。
这属于对于 Deepfake 的主动防御 。 中科大提供的解决方案就是基于 “对抗性攻击” , 在媒体素材上增加噪音 , 不影响媒体视频本身的质量 , 但是却会对算法形成明显干扰 , 从而无法进行窜改 。


推荐阅读