Eigenpatches -- 从主成分得到的对抗性 Patch
本文介绍了一种针对具有高度内类变异的待攻击目标,即人体,生成对抗贴片的方法,并且通过实验表明,我们的系统能显著降低人体检测器的准确性,同时还在实际场景中能够进行攻击。
Apr, 2019
该研究关注深度神经网络的安全性问题,着重研究针对目标检测算法的对抗攻击方法,通过生成特定的对抗补丁实现攻击,提出的两种算法均可有效地、通用地攻击最新的目标检测模型。此外,参加了阿里巴巴的天池对抗挑战,并在 1701 对抗团队中获得了前七名。
Oct, 2020
该研究提出一种基于生成对抗网络(GAN)图像流形和物理世界的无梯度攻击方法,用于生成自然物理的对抗贴片以欺骗对目标物体检测器的分类。结果表明,该方法在数字和物理场景下均有效。
Mar, 2023
本文讨论了攻击复杂本地特征提取算法和模型的方法,以达到两个不同的目标:(1) 强迫不匹配的图像区域匹配,以及 (2) 阻止原本匹配的区域匹配。最后,我们讨论了不同补丁生成方法的性能和缺点。
Jun, 2024
研究者正在研究深度神经网络的易受攻击性,并提出了一种新的基于相机的攻击方法,该方法引入了摄像头补丁以执行潜在的隐秘攻击,并提出了一个对抗相机补丁来解决多补丁复杂性的问题。
Dec, 2023
本文提出了一种生成难以察觉的对抗性贴片的方法,通过利用多尺度生成器和辨别器粗粒度到细粒度地生成对抗贴片,并在对抗训练中使其保持一致性,从而在白盒设置中展示强大的攻击能力和在黑盒设置中的卓越可转移性。与其他对抗性贴片相比,我们的对抗性贴片具有最小的被检测风险并可以逃避人类观察,这得到了显著实验结果的支持。
Jun, 2021
提出了一种可通过物理方式应用于图像中的明显但具有对抗性的矩形贴片,并利用对抗训练的方式来增强深度神经网络对对抗贴片的鲁棒性,这种训练不会降低网络的分类准确率。
May, 2020
该研究使用动态对抗性贴片攻击实际场景下的对象检测器,并通过生成考虑目标物品与分类之间的语义距离的贴片方法进行优化,成功地在广阔的视角范围内将 YOLOv2 对象检测器误导了 90%,并在不同汽车模型之间成功误导检测器 71%。
Oct, 2020
提出了一种新颖的方法,名为 MVPatch,旨在提高对抗性贴片的转移性和隐蔽性,避免易于识别和传输性差的问题。该方法通过使用集成攻击损失函数来降低多个对象检测器的对象置信度分数,从而增强对抗性贴片的转移性,同时使用 CSS 损失函数实现轻量级的视觉相似度测量算法,使得生成的对抗性贴片具有更加自然和隐蔽的外观。广泛的实验表明,与类似算法相比,所提出的 MVPatch 算法在数字和实际领域中都实现了更强的攻击转移性,并展现出更加自然的外观。这些发现强调了所提出的 MVPatch 攻击算法的显著隐蔽性和转移性。
Dec, 2023