通过提出 “Targeted DeepFool” 算法,该研究通过在深度神经网络上训练特定的攻击样本来应对对抗攻击,以提高图像质量的完整性和准确性。
Oct, 2023
本文提出了一种基于几何学思想、利用决策边界低平滑性的攻击方法 SparseFool,能快速计算稀疏扰动,并且经过充分的评估,发现该方法能在高维数据中高效地尺度化,对视觉效果具有一定的可转移性,同时对稀疏加性扰动具有较好的鲁棒性,与对抗训练相比仅能有微小的改进。
Nov, 2018
该研究提出了 qFool 算法,它是一种基于决策的攻击算法,可以使用少量的查询生成对抗样本。该算法可以在减少查询数量的同时,在低频子空间中限制对抗扰动,从而使其更具计算效率。最终,该算法在商业图像识别系统中获得了欺骗效果的证明。
Mar, 2019
本文提出了一种新的数据独立方法,可生成用于对象识别训练的多个 CNN 的图像无关扰动,这些扰动显示出令人惊讶的可转移性和印迹性能,并没有要求攻击者访问训练数据。
Jul, 2017
研究表明,即使没有内部知识,对深度卷积神经网络进行黑盒攻击并制造对抗性样本是可行的,这暴露了深度神经网络的弱点,为设计安全的网络提供了检验。
Dec, 2016
本文提出了 EdgeFool 这种对抗图像增强滤波器,通过训练具有多任务损失函数的完全卷积神经网络生成增强图像细节变换的修改来实现误分类。在 ImageNet 和 Private-Places365 上使用三个分类器(ResNet-50,ResNet-18 和 AlexNet)评估 EdgeFool,并将其与六种对抗方法(DeepFool,SparseFool,Carlini-Wagner,SemanticAdv,Non-targeted 和 Private Fast Gradient Sign Methods)进行比较。
Oct, 2019
本文提出了一种名为 “deep defense” 的训练方法来解决深度神经网络易受到对抗样本攻击的问题,通过将对抗扰动的正则化器与分类目标相结合,得到的模型能够直接且准确地学习抵御潜在的攻击,实验证明该方法在不同数据集上对比对抗 / Parseval 正则化方法有更好的效果。
Feb, 2018
本研究使用对抗扰动来增强 Deepfake 图像,欺骗普通 Deepfake 检测器。我们使用 Fast Gradient Sign Method 和 Carlini 和 Wagner L2 范数攻击在黑盒和白盒设置中创建对抗性扰动。我们还探讨了两种深度伪造检测器的改进:1. 李普希茨正则化;2. 深度图像先验(DIP)。
Mar, 2020
该研究提出了新型生成模型,用于制造近似自然图像但又能欺骗先前训练好的模型的略微扰动的对抗性样本。通过在具有挑战性的高分辨率数据集上的实验,它证明了这种扰动具有高弄虚率和较小的扰动规模,并且比当前的迭代方法更快。
Dec, 2017
本文提出了一种对抗性噪声网络攻击方法,有效地误导了深度神经网络,同时也改变了网络决策的解释算法,并引入一种控制条件测试神经网络解释算法准确性的方法,以促进更健壮的神经网络解释工具发展。
Dec, 2018