DPAttack:一种针对通用物体检测的扩散贴片攻击
本文提出了 DPatch,一种黑盒子对现代计算机视觉系统(如 Faster R-CNN 和 YOLO)的基于敌对的黑盒贴片攻击。与原始的敌对贴片只操纵图像级分类器不同,DPatch 同时攻击边界框回归和对象分类以禁用它们的预测,具有非常高的转移性且实践性强。
Jun, 2018
该研究关注深度神经网络的安全性问题,着重研究针对目标检测算法的对抗攻击方法,通过生成特定的对抗补丁实现攻击,提出的两种算法均可有效地、通用地攻击最新的目标检测模型。此外,参加了阿里巴巴的天池对抗挑战,并在 1701 对抗团队中获得了前七名。
Oct, 2020
研究者正在研究深度神经网络的易受攻击性,并提出了一种新的基于相机的攻击方法,该方法引入了摄像头补丁以执行潜在的隐秘攻击,并提出了一个对抗相机补丁来解决多补丁复杂性的问题。
Dec, 2023
提出一种新的补丁攻击方法 RPAttack,它可以成功攻击 YOLO 和 Faster R-CNN 等常规物体检测器,而仅修改 0.32%的像素,并实现 100%的错过检测率。
Mar, 2021
我们分析了攻击技术并提出了一种强大的防御方法,通过利用对象的形状、纹理和位置,成功降低了 20% 以上的模型置信度。利用修复预处理技术,有效地恢复了原始的置信水平,展示了强大防御在减轻这些威胁中的重要性。我们的修复防御方法在仿真像素化的基于补丁的物理对抗攻击中显著提高了模型的韧性,实现了高精度和可靠的定位,尽管受到了对抗性攻击。这项工作推动了对抗挑战中对象检测和分类网络的韧性和可靠性的发展,并为关键应用提供了强大的基础。
Mar, 2024
该研究使用动态对抗性贴片攻击实际场景下的对象检测器,并通过生成考虑目标物品与分类之间的语义距离的贴片方法进行优化,成功地在广阔的视角范围内将 YOLOv2 对象检测器误导了 90%,并在不同汽车模型之间成功误导检测器 71%。
Oct, 2020
提出了一种创新的模型 NutNet,用于检测对抗性贴片,在高泛化性、鲁棒性和效率方面表现优异。通过对六个检测器进行实验,包括 YOLOv2-v4,SSD,Faster RCNN 和 DETR 在数字和物理领域上,结果显示我们的方法可以有效防御 HA 和 AA,仅损失 0.4% 的干净性能。与四种基准防御方法进行对比,我们的方法展示了比 HA 和 AA 现有方法分别高 2.4 倍和 4.7 倍的平均防御性能。此外,NutNet 仅增加了 8% 的推理时间,可以满足检测系统的实时要求。NutNet 的演示可在 https://sites.google.com/view/nutnet 上找到。
Jun, 2024
通过像素级别的操作产生黑盒攻击算法,并通过放大因子和项目核来处理像素的梯度溢出,将该方法用于梯度攻击算法的所有类别中,显著提高了对防御模型和一般模型的攻击成功率。
Jul, 2020
本文提出了一种物理性的对抗攻击方法,能够通过拼贴一个合理设计的补丁扰乱 YOLOv3 检测器的识别结果,避免误判或漏检目标,从而在不需要修改场景中的物体的情况下,对目标检测系统进行攻击。
Jun, 2019
提出一种基于扩散模型的新型自然对抗贴片生成方法,通过从模型中预训练的自然图片中抽样生成高质量的自然对抗贴片,达到了更好的质量和更自然的对抗贴片的生成效果。
Jul, 2023