全球计算机视觉顶会CVPR 2020论文出炉:腾讯优图17篇论文入选( 四 )


全球计算机视觉顶会CVPR 2020论文出炉:腾讯优图17篇论文入选

----全球计算机视觉顶会CVPR 2020论文出炉:腾讯优图17篇论文入选//----

  8、概念归因的卷积神经网络的全局解释

  Towards Global Explanations of Convolutional Neural Networks with Concept Attribution

  本文由腾讯优图实验室和香港中文大学合作完成 。 卷积神经网络(CNN)的广泛应用 , 使得解释其行为变得越来越重要 。 其中 , 全局解释因其有助于理解整个样本类别的模型预测 , 最近引起了极大关注 。 但是 , 现有方法绝大多数都依赖于模型的局部逼近和对单个样本预测的独立研究 , 这使得它们无法反映出卷积神经网络的真实推理过程 。 联合团队提出了一种创新的两阶段框架 , 即对可解释性的攻击(AfI) , 以更忠实地解释卷积神经网络 。 AfI根据用户定义的概念的重要性来解释模型决策 。 它首先进行特征遮挡分析 , 该过程类似于攻击模型以得出不同特征的重要性的过程 , 于是有能力学习全局解释 。 然后 , 通过语义任务将特征重要性映射到概念重要性 , 下图展示了AfI的框架结构 。 实验结果证实了AfI的有效性及其相比于现有方案的优越性 。 本文中还演示了其在提供卷积神经网络理解方面的用例 , 例如基础模型预测和模型认知中的偏差 。

全球计算机视觉顶会CVPR 2020论文出炉:腾讯优图17篇论文入选。


全球计算机视觉顶会CVPR 2020论文出炉:腾讯优图17篇论文入选

----全球计算机视觉顶会CVPR 2020论文出炉:腾讯优图17篇论文入选//----

  9、基于注意力机制提高对抗可迁移性

  Boosting the Transferability of Adversarial Samples via Attention

  本文由腾讯优图实验室和香港中文大学合作完成 。 深度学习模型的广泛部署使得在实践中评估模型的鲁棒性成为必需 , 尤其是对于安防领域和安全敏感领域例如自动驾驶和医疗诊断 。 攻击是一种重要的衡量模型鲁棒性的方式 , 其中针对深度网络图像分类器生成对抗图像是最基本和公认的任务之一 。 最近 , 针对图像分类器的基于迁移的黑盒攻击引起了越来越多的兴趣 。 这种攻击方式 , 攻击者需要基于本地代理模型来制作对抗性图像 , 而没有来自远端实际目标的反馈信息 。 在这种具有挑战性的设置下 , 由于对所使用的本地模型的过度拟合 , 合成的对抗性样本通常无法获得良好的成绩 。 因此 , 文章中提出了一种新颖的机制来减轻过度拟合的问题 , 从而增强黑盒攻击的可迁移性 。 不同的网络架构例如VGG16 , ResNet , Inception在识别图片时会有相似的图像注意力 , 比如都倾向于注意猫脸来识别猫 。 基于此 , 通过模型提取特征的注意力梯度来规范对抗性示例的搜索 。 这种基于注意力规约的对抗样本搜索使得联合团队可以优先考虑攻击可能被各种体系结构共同关注的关键特征 , 从而促进结果对抗实例的可迁移性 。 在ImageNet分类器上进行的大量实验证实了文章中策略的有效性 , 进一步在白盒和黑盒两种条件下对比了最新方法 , 该攻击策略都表现出了一致的优越性 。 下图呈现了我们的基于注意力机制的模型攻击框架 。


推荐阅读