『』CVPR2020 | 对抗伪装:如何让AI怀疑人生( 二 )


『』CVPR2020 | 对抗伪装:如何让AI怀疑人生
本文插图

作为攻击者 , 在确定了攻击目标的周边环境后 , 攻击者可以通过自定义风格将攻击后的物体进行伪装 。 例如 , 对交通指示牌的攻击可以随意伪装成:泥点、褪色或者雪渍等自然常见的样子:
『』CVPR2020 | 对抗伪装:如何让AI怀疑人生
本文插图

Figure6
在真实物理世界里 , 这种伪装方式可以让对抗攻击以各种形态伪装在各种角落里 。
比如 , 随意悬挂的一个交通指示牌 , 其实是一个“理发店”(what??):
『』CVPR2020 | 对抗伪装:如何让AI怀疑人生
本文插图

再比如 , “树皮”也可以被识别为街道标识:
『』CVPR2020 | 对抗伪装:如何让AI怀疑人生
本文插图

作者还展示了这种伪装的另一个用途:保护个人隐私 。 例如在各种监控设备的场景下 , 用户个人可以用定制具有对抗效果的T恤用于避免被深度学习加持监控设备追踪:
『』CVPR2020 | 对抗伪装:如何让AI怀疑人生
本文插图

Figure7.
当用户身穿这件经过特殊设计的T恤的图片被传到网上后 , 也可以防止被google image search识别, 该方法也可以防止具有隐私内容的图片被AI工具自动抓取等 。 趣味性和安全性两不误!下图是Google Image Search的结果:斗牛犬!
『』CVPR2020 | 对抗伪装:如何让AI怀疑人生
本文插图

Figure8.
Reference:
[1] ChristianSzegedy, Wojciech Zaremba, Ilya Sutskever, Joan Bruna, Dumitru Erhan, IanGoodfellow, and Rob Fergus. Intriguing properties of neural networks. In ICLR,2013.
[2] TomB Brown, Dandelion Mane, Aurko Roy, Mart ′ ′?n Abadi, and Justin Gilmer.Adversarial patch. In NIPS Workshop, 2017
[3] IvanEvtimov, Kevin Eykholt, Earlence Fernandes, Tadayoshi Kohno, Bo Li, AtulPrakash, Amir Rahmati, and Dawn Song. Robust physical-world attacks on deeplearning models. In CVPR, 2018.


推荐阅读