X-Detect:可解释的零售目标检测中的对抗补丁检测
本文提出了 DPatch,一种黑盒子对现代计算机视觉系统(如 Faster R-CNN 和 YOLO)的基于敌对的黑盒贴片攻击。与原始的敌对贴片只操纵图像级分类器不同,DPatch 同时攻击边界框回归和对象分类以禁用它们的预测,具有非常高的转移性且实践性强。
Jun, 2018
该研究使用动态对抗性贴片攻击实际场景下的对象检测器,并通过生成考虑目标物品与分类之间的语义距离的贴片方法进行优化,成功地在广阔的视角范围内将 YOLOv2 对象检测器误导了 90%,并在不同汽车模型之间成功误导检测器 71%。
Oct, 2020
该研究关注深度神经网络的安全性问题,着重研究针对目标检测算法的对抗攻击方法,通过生成特定的对抗补丁实现攻击,提出的两种算法均可有效地、通用地攻击最新的目标检测模型。此外,参加了阿里巴巴的天池对抗挑战,并在 1701 对抗团队中获得了前七名。
Oct, 2020
该论文提出了 DetectorGuard 作为第一个用于构建具有证明鲁棒性的对象检测器来对抗本地化补丁攻击的通用框架,并介绍了一种称为对象解释策略的方法来构建高性能的鲁棒对象检测器。
Feb, 2021
本文介绍一种名为 Ad-YOLO 的有效的插件式防御方案,它可以有效地解决面对物理世界中的侵袭攻击的问题,能够直接检测目标对象和敌对补丁的存在。经实验测试,Ad-YOLO 比 YOLOv2 在面对攻击时表现出更好的鲁棒性和稳定性。
Mar, 2021
本文提出了一种物理性的对抗攻击方法,能够通过拼贴一个合理设计的补丁扰乱 YOLOv3 检测器的识别结果,避免误判或漏检目标,从而在不需要修改场景中的物体的情况下,对目标检测系统进行攻击。
Jun, 2019
研究者正在研究深度神经网络的易受攻击性,并提出了一种新的基于相机的攻击方法,该方法引入了摄像头补丁以执行潜在的隐秘攻击,并提出了一个对抗相机补丁来解决多补丁复杂性的问题。
Dec, 2023
通过将能量引入到对抗补丁生成过程中,本文介绍了如何最小化 “人” 类别的总能量,以生成针对多个目标模型输出的对抗补丁。通过采用对抗训练,将动态优化的集成模型构建为在生成的对抗补丁能够有效攻击所有目标模型的平衡点上调整被攻击目标模型的权重参数,实现了更强的攻击潜力。
Dec, 2023
我们分析了攻击技术并提出了一种强大的防御方法,通过利用对象的形状、纹理和位置,成功降低了 20% 以上的模型置信度。利用修复预处理技术,有效地恢复了原始的置信水平,展示了强大防御在减轻这些威胁中的重要性。我们的修复防御方法在仿真像素化的基于补丁的物理对抗攻击中显著提高了模型的韧性,实现了高精度和可靠的定位,尽管受到了对抗性攻击。这项工作推动了对抗挑战中对象检测和分类网络的韧性和可靠性的发展,并为关键应用提供了强大的基础。
Mar, 2024
本研究提出了一种基于扩散贴片攻击方法(DPAttack)的物体检测对抗攻击,通过对小部分像素进行扰动,成功地欺骗了大多数物体检测器,并在 Alibaba-Tsinghua 对抗性目标检测挑战中获得了第二名。
Oct, 2020