『』CVPR2020 | 对抗伪装:如何让AI怀疑人生
本文插图
本文介绍的是CVPR2020论文《Adversarial Camouflage: Hiding Physical-World Attacks with Natural Styles》 , 作者是来自澳大利亚Swinbourne大学的段然杰 。 作者 | 段然杰编辑 | 丛 末
本文插图
论文地址:https://arxiv.org/abs/2003.08757开源地址:https://github.com/RjDuan/AdvCam-Hide-Adv-with-Natural-Styles
想象一下 , 有一天你坐在自动驾驶汽车行驶在街道上 , 右前方有个stop的牌子 , 除了有点旧 , 看起来并没有什么异样 , 你没有留心太多 , 继续专注手头的工作 , 可是车并没有停下来…
如果你是广大炼丹师的一员 , 你一定听说过对抗样本 , 对抗样本作为神经网络出其不意的bug , 近年引起很多关注 , 在你的印象中 , ta可能是这样子的:
本文插图
Figure 1. FGSM [1]
这是最初提出的对抗样本的形态[1] , 与原图相比 (左一) , 对抗样本(右一) 仅仅增加了非常小的干扰 , 就使神经网络将熊猫识别为gibbon (长臂猿) 。 为了凸显计算机视觉系统在人眼看来“普通图片”上截然不同的决策原理 , 在后续一系列的研究中 , 研究者们都限制对抗样本只能进行微小 (Lp-norm-bounded) 的修改 , 以维持改变的不可察觉性 。
但是, 由于现实环境的多种因素 (例如光照、拍摄距离等) , 这种小量的干扰不易被相机等设备捕捉到 , 从而只能在数字世界里发挥作用 。 当然 , 也有一些工作将对抗样本带到现实世界中 , 并产生威胁 , 例如Brown等人在2017年提出的adversarial patch [2]:
本文插图
Figure 2. Adversarial patch [2]
以及应用于交通标志的“对抗贴纸“ [3]:
本文插图
Figure 4. RP2 [3]
但是 , 这些工作将对抗样本带到现实世界中同时 , 过大的干扰形成的诡异图案也变得容易被人察觉 。 所以, 有没办法能让对抗样本在现实世界中也做到不可察觉呢?
本文介绍一篇CVPR 2020的工作:对抗伪装(adversarial camouflage: hiding physical-world attacks with naturalstyles) 。 在该项工作中 , 来自澳大利亚Swinbourne大学、墨尔本大学、以及上海交通大学的研究者们通过一个结合了风格迁移和对抗攻击的框架(AdvCam)可以将对抗样本的风格进行个性化伪装 。 攻击者可以随意选择自己喜欢的风格和攻击区域进行攻击并伪装 。 从此 , 对抗攻击变得更有意思了呢…
例如 , 下面几张图片 , 你看出来哪里变了么?
手枪 or厕纸?
本文插图
汽车or 交通灯?
本文插图
刀鞘 or 钱包?
本文插图
小猎狗 or 熊皮?
本文插图
Figure5.
【『』CVPR2020 | 对抗伪装:如何让AI怀疑人生】不同于之前的工作 , 通过限定L-p norm要求对抗样本尽可能与原图差别不大 , 本文作者通过融合风格迁移方法定义了一种新颖的范式来实现对抗样本的不可察觉性:
推荐阅读
- 原呵呵|围观!华为正计划推出豪华智能手表来对抗Apple Watch
- 搜狐科技|虎牙斗鱼的合并迷局:对抗头条、走QQ音乐集团模式?
- 中国联通电信这一年:共建5G省千亿 能否对抗中移动?|5G大迈进
- 『』为对抗中国品牌 LG电视生产线转至印尼 预计提高50%产能
- 三星对抗台积电!三星5纳米芯片代工生产线动工明年投产
- 中国中国移动牵手中国广电合建5G网 欲合力对抗电信联通?
- 互联网分析师于斌从快手起诉抖音到双方互诉,短视频“江湖”对抗加剧
- 界面新闻对抗特斯拉,通用汽车开发“超巡航”半自主驾驶系统
- 病毒美国:测试“免疫战士”T细胞对抗新冠病毒能力
- 华为美国限制华为芯片,华为手机已具备对抗能力,美国零件仅占1%