本文提出了DPatch,一种黑盒子对现代计算机视觉系统(如Faster R-CNN和YOLO)的基于敌对的黑盒贴片攻击。与原始的敌对贴片只操纵图像级分类器不同,DPatch同时攻击边界框回归和对象分类以禁用它们的预测,具有非常高的转移性且实践性强。
Jun, 2018
本文旨在通过在物体外部背景区域添加微小的扰动来探索单镜头模块(SSM)的漏洞,试图削弱单阶段或两阶段目标检测器中广泛使用的SSM的性能,结果表明,即使是在物体边界框之外添加微小的扰动也会严重破坏检测性能。
Sep, 2018
本文研究了对神经网络的对抗样本跨任务迁移性的攻击,超越了现有攻击的限制,并针对计算机视觉中的多种任务提出了一种新的攻击方法。
Nov, 2019
该研究使用动态对抗性贴片攻击实际场景下的对象检测器,并通过生成考虑目标物品与分类之间的语义距离的贴片方法进行优化,成功地在广阔的视角范围内将YOLOv2对象检测器误导了90%,并在不同汽车模型之间成功误导检测器71%。
Oct, 2020
该研究关注深度神经网络的安全性问题,着重研究针对目标检测算法的对抗攻击方法,通过生成特定的对抗补丁实现攻击,提出的两种算法均可有效地、通用地攻击最新的目标检测模型。此外,参加了阿里巴巴的天池对抗挑战,并在1701对抗团队中获得了前七名。
该研究提出一种基于生成对抗网络(GAN)图像流形和物理世界的无梯度攻击方法,用于生成自然物理的对抗贴片以欺骗对目标物体检测器的分类。结果表明,该方法在数字和物理场景下均有效。
Mar, 2023
本文提出了一种基于可学习掩模和差分进化算法的预处理方法,通过裁剪模型特定区域以提高泛化性和对抗迁移性,可以进一步提高现有方法的攻击成功率,同时提供了在Imagenet数据集上的实验支持。
Jun, 2023
利用本文提出的“定位和修复”机制来处理图像输入,通过协同训练“定位”和“修复”模块,实现对各种对抗性贴片攻击的防御。
Jul, 2023
研究者正在研究深度神经网络的易受攻击性,并提出了一种新的基于相机的攻击方法,该方法引入了摄像头补丁以执行潜在的隐秘攻击,并提出了一个对抗相机补丁来解决多补丁复杂性的问题。
Dec, 2023
我们分析了攻击技术并提出了一种强大的防御方法,通过利用对象的形状、纹理和位置,成功降低了20%以上的模型置信度。利用修复预处理技术,有效地恢复了原始的置信水平,展示了强大防御在减轻这些威胁中的重要性。我们的修复防御方法在仿真像素化的基于补丁的物理对抗攻击中显著提高了模型的韧性,实现了高精度和可靠的定位,尽管受到了对抗性攻击。这项工作推动了对抗挑战中对象检测和分类网络的韧性和可靠性的发展,并为关键应用提供了强大的基础。
Mar, 2024