本文提出了一种增强的基于对抗样本攻击方式,并探索了不依赖于网络输出数量的决策性基于修补程序的攻击方法,使用称为 DevoPatch 的差分进化算法。实验证明 DevoPatch 优于现有方法,在给定查询预算内攻击成功率更高。
Jul, 2023
本文提出了一种基于可学习掩模和差分进化算法的预处理方法,通过裁剪模型特定区域以提高泛化性和对抗迁移性,可以进一步提高现有方法的攻击成功率,同时提供了在 Imagenet 数据集上的实验支持。
Jun, 2023
通过将输入图像分成多个块,对每个块进行去噪并重构图像来提高深度神经网络对抗攻击的鲁棒性,在灰盒测试方案下,该方法比现有技术提高了 19.7% 的准确度,并且在黑盒测试方案下具有可比拟的表现,在白盒测试方案下取得 34.4% 的准确率,这是最近研究中没有出现的。
Feb, 2018
本研究提出了一种基于扩散贴片攻击方法(DPAttack)的物体检测对抗攻击,通过对小部分像素进行扰动,成功地欺骗了大多数物体检测器,并在 Alibaba-Tsinghua 对抗性目标检测挑战中获得了第二名。
Oct, 2020
本文提出了一种基于黑盒技术的新型对抗样本攻击方法,针对原始图像最小化 l0 距离。实验证明,该攻击方法优于或与现有技术相当。同时,我们可引入部件约束来提高分类器对稀疏和不可察觉的对抗性操纵的鲁棒性。
Sep, 2019
我们分析了攻击技术并提出了一种强大的防御方法,通过利用对象的形状、纹理和位置,成功降低了 20% 以上的模型置信度。利用修复预处理技术,有效地恢复了原始的置信水平,展示了强大防御在减轻这些威胁中的重要性。我们的修复防御方法在仿真像素化的基于补丁的物理对抗攻击中显著提高了模型的韧性,实现了高精度和可靠的定位,尽管受到了对抗性攻击。这项工作推动了对抗挑战中对象检测和分类网络的韧性和可靠性的发展,并为关键应用提供了强大的基础。
Mar, 2024
PatchAttack 是一种基于纹理字典和增强学习的有效的图像对抗攻击方法,可以在图像中超级位置化小型纹理贴片从而成功诱导图像分类错误,即使在针对性攻击的情况下仅更改 3%至 10%的图像。
Apr, 2020
通过黑盒对抗攻击策略产生的对抗性补丁可以在输入图像的任意位置进行对抗攻击。
May, 2024
本文提出了一种生成难以察觉的对抗性贴片的方法,通过利用多尺度生成器和辨别器粗粒度到细粒度地生成对抗贴片,并在对抗训练中使其保持一致性,从而在白盒设置中展示强大的攻击能力和在黑盒设置中的卓越可转移性。与其他对抗性贴片相比,我们的对抗性贴片具有最小的被检测风险并可以逃避人类观察,这得到了显著实验结果的支持。
Jun, 2021
本文介绍了一种针对具有高度内类变异的待攻击目标,即人体,生成对抗贴片的方法,并且通过实验表明,我们的系统能显著降低人体检测器的准确性,同时还在实际场景中能够进行攻击。
Apr, 2019