本论文探究了对抗攻击的可预测性和可逆性,提出了使用分类结果集来逆转分类器中对抗攻击效果的方法,并分析了最新对抗攻击方法对此的影响。
Jun, 2022
本文提出了一个有效的图像增强方法,通过深度图像恢复网络来将离散的对抗噪声样本转换回自然图像流形,从而提高对抗性的鲁棒性,同时提高图像质量和保持干净图像上的性能表现。
Jan, 2019
本文提出了一种新的解释对抗扰动的方法,即通过模拟分类器实际使用的有效输入信号,应用特殊训练的自编码器作为防御机制,称为 S2SNets。该方法在白盒和灰盒场景下实现了可比较的鲁棒性,并且分析了 AlexNet、VGG 16、ResNet 50 和 Inception v3 在对抗空间中的关系。
Mar, 2018
通过梯度方法可以发现虚假的区域,该文认为这些区域不是弱点而是优势,提出了一种通过检测这些区域的方法来成功检测出对抗攻击的方法,在攻击者完全了解检测机制的情况下,实现了前所未有的准确性。
Oct, 2019
通过在预先训练好的外部模型上找到敌对样本,我们将有害的攻击过程转化为有用的防御机制,并且我们的防御方法比先前的方法更为强大和经济。
Nov, 2019
本文探索了在图像取证应用程序中,攻击是否具有传递性,并证明在大多数情况下攻击是不可传递的,至少当攻击者不完全了解目标检测器时,可以简化适当的对策设计。
Nov, 2018
本文通过研究表明,图像分类网络对于对抗性攻击的脆弱性与其性能之间是一种互相联系的关系,因为网络中最容易受攻击的输入图像方向也是它们用于实现其分类性能的方向。此外,这种关系对于构建既精确又具有抵抗对抗攻击能力的神经网络具有深远的影响。
Jul, 2018
该研究提供了实证和理论证据表明对抗鲁棒性和图像损坏鲁棒性研究项目之间存在紧密联系,从而建议未来的对抗性防御应该考虑评估它们的方法对分布转移的鲁棒性。
本论文提出了一种新颖的双层优化算法,该算法可以在自然图像环境下找到对抗扰动鲁棒的点,有效提高图像识别的鲁棒性。
Dec, 2021
本文研究了对抗训练的对抗攻击容忍性与隐私攻击容忍性之间的关系,通过对 CIFAR-10 数据集进行三种不同类型的模型反演攻击,揭示了对抗训练模型输入空间存在的问题。
Jun, 2019