本文提出了 DPatch,一种黑盒子对现代计算机视觉系统(如 Faster R-CNN 和 YOLO)的基于敌对的黑盒贴片攻击。与原始的敌对贴片只操纵图像级分类器不同,DPatch 同时攻击边界框回归和对象分类以禁用它们的预测,具有非常高的转移性且实践性强。
Jun, 2018
该研究使用动态对抗性贴片攻击实际场景下的对象检测器,并通过生成考虑目标物品与分类之间的语义距离的贴片方法进行优化,成功地在广阔的视角范围内将 YOLOv2 对象检测器误导了 90%,并在不同汽车模型之间成功误导检测器 71%。
Oct, 2020
该研究关注深度神经网络的安全性问题,着重研究针对目标检测算法的对抗攻击方法,通过生成特定的对抗补丁实现攻击,提出的两种算法均可有效地、通用地攻击最新的目标检测模型。此外,参加了阿里巴巴的天池对抗挑战,并在 1701 对抗团队中获得了前七名。
本研究提出了一种基于扩散贴片攻击方法(DPAttack)的物体检测对抗攻击,通过对小部分像素进行扰动,成功地欺骗了大多数物体检测器,并在 Alibaba-Tsinghua 对抗性目标检测挑战中获得了第二名。
我们分析了攻击技术并提出了一种强大的防御方法,通过利用对象的形状、纹理和位置,成功降低了 20% 以上的模型置信度。利用修复预处理技术,有效地恢复了原始的置信水平,展示了强大防御在减轻这些威胁中的重要性。我们的修复防御方法在仿真像素化的基于补丁的物理对抗攻击中显著提高了模型的韧性,实现了高精度和可靠的定位,尽管受到了对抗性攻击。这项工作推动了对抗挑战中对象检测和分类网络的韧性和可靠性的发展,并为关键应用提供了强大的基础。
Mar, 2024
本文提出了一种物理性的对抗攻击方法,能够通过拼贴一个合理设计的补丁扰乱 YOLOv3 检测器的识别结果,避免误判或漏检目标,从而在不需要修改场景中的物体的情况下,对目标检测系统进行攻击。
Jun, 2019
该研究提出一种基于生成对抗网络(GAN)图像流形和物理世界的无梯度攻击方法,用于生成自然物理的对抗贴片以欺骗对目标物体检测器的分类。结果表明,该方法在数字和物理场景下均有效。
Mar, 2023
本文介绍了一种针对具有高度内类变异的待攻击目标,即人体,生成对抗贴片的方法,并且通过实验表明,我们的系统能显著降低人体检测器的准确性,同时还在实际场景中能够进行攻击。
Apr, 2019
提出了一种由声音信号触发的物理对抗性贴片 TPatch,其具有声物质注入攻击引入的设计失真,可以在正常情况下保持良性,但可以通过触发来启动隐藏、创造或改变攻击。通过基于内容的伪装方法和攻击韧性增强方法,我们提出了避免引起人类驾驶员怀疑并使攻击在真实世界中实用和强韧的方法。使用三种对象检测器(YOLO V3/V5 和 Faster R-CNN)和八种图像分类器对 TPatch 进行评估,这既在模拟环境中也在真实世界中表明了 TPatch 的有效性。我们还讨论了传感器、算法和系统级别的可能防御方法。
Dec, 2023
本文提出了一种跨模态物理攻击方法,在物理世界中通过统一的对抗性贴片欺骗可见光和红外物体探测器,在考虑到不同成像机制的情况下,通过设计新型的边界受限形状优化和考虑得分的迭代评估,成功地减少了多模式传感器的预测得分。
Jul, 2023