DeepFakes深度造假,如何识破“AI换脸术”?


DeepFakes深度造假,如何识破“AI换脸术”?

文章插图
5月17日 我们正处在一个越来越容易制造虚假信息的时代 。深度造假(Deepfakes)、扩散模型、生成对抗网络(GAN)以及其他AI技术被居心不良者用于伪造照片和视频 , 或者创建从未发生过的事件的一些照片或视频 。
虽然AI生成的图像和信息有许多积极的应用 , 但它们也可能被用于邪恶的目的 。而有了无缝操纵和扭曲现实的能力 , 居心不良者可以利用AI欺骗公众 , 传播错误信息 。
以下简要探讨深度造假的威胁 , 并介绍一些检测AI生成信息的技巧 。生成式AI这个领域正在迅速发展 , 所以必须寻找到新的技术和对策 。
AI可以生成哪些信息?
虽然罗马教皇穿着羽绒服、美国前总统唐纳德·特朗普拒捕及乌克兰总统泽连斯基呼吁投降等这些事件并没有真实发生 , 但有关他们的图片和视频已经在社交媒体上流传 。
这些就是用AI系统创建的图像和视频 。如今 , 有几种深度学习技术可以制造虚假信息:
· Deepfakes:Deepfakes使用两个深度神经网络来学习演员和目标人物的面部特征 。然后将目标的面部映射到演员的脸上 。有了这样的算法 , Deepfakes已经变得更加真实以及非常有说服力 。
· 扩散模型:这些是在大量图像和字幕数据集上训练的神经网络 。通过找到连接文本和图像的模型 , 这些模型可以从文本描述中生成令人信服的图像 。DALL-E2、Midtravel和Stable Diffusion是流行的扩散模型的三个例子 。
· 生成对抗网络(GAN):生成对抗网络(GAN)是一种深度学习系统 , 可以从零开始创建逼真的图像 , 例如人脸和风景 。
AI生成信息的潜在危害
DeepFakes深度造假,如何识破“AI换脸术”?

文章插图
由Midjourney生成的美国前总统唐纳德·特朗普拒捕的虚假图像
Deepfakes已经推出几年的时间 , 但在过去几年里 , 这种技术取得了令人印象深刻的进展 。通过与其他生成式AI技术(如语音合成器和大型语言模型)相结合 , 其生成的内容可能成为真正的威胁 。
虽然我们仍处于可以分辨AI生成的信息的阶段 , 但需要注意它们会如何影响公众舆论:
· 错误信息的传播:图片和视频在社交媒体上传播得非常快 。当事实核查人员或AI生成信息的目标做出回应时 , 可能已经造成了损害 。特别是当Deepfakes的创造者可以将它们与逼真的AI生成的声音结合起来时 , 它们会变得非常有说服力 。
· 曼德拉效应:很多人都记得上世纪80年代纳尔逊·曼德拉在南非监狱里去世的传闻 。实际上 , 他于1990年从监狱获释 , 后来成为南非总统 。但是 , 即使事实是显而易见的 , 虚假的故事已经在许多人的脑海中根深蒂固 。这就是众所周知的“曼德拉效应” , 还有许多其他的真实例子 。而有了Deepfakes , 这样的问题可能会更频繁地出现 。
· 社会工程:Deepfakes和生成式AI使制作令人信服的电子邮件、视频、网站等以及进行网络钓鱼变得更加容易 。居心不良者可以使用这些AI模型来创建逼真的化身 , 制作专业电子邮件 , 并创建听起来像真人的语音信息 。他们可以利用这些数据欺骗受害者泄露隐私信息 , 向网络攻击者汇款 , 或者实施其他有害的活动 。例如 , 去年一家假冒的律师事务所使用生成式AI通过DMCA通知勒索受害者 。
· 信任流失:Deepfakes的兴起将使人们更难信任他们所看到的任何东西 , 判断真假将变得越来越困难 。一方面 , 居心不良者会试图用生成式AI扭曲真相;而在另一方面 , 他们可能会否认真实的证据 , 并声称真实的文件和视频是由AI生成的 。
如何分辨出那些AI生成的信息?
虽然研究人员不断创造新的技术和工具来检测Deepfakes和其他AI系统生成的图像和视频 。但这是一场猫捉老鼠的游戏 , 因为随着技术的进步 , 原有的检测技术就会过时 。目前有一些关键的方法可以帮助检测深度造假视频、GAN人脸和扩散模型生成的图像:
DeepFakes深度造假,如何识破“AI换脸术”?

文章插图
生成对抗网络(GAN)表面具有清晰可见的伪影


推荐阅读