用于逃避物体检测模型的动态对抗贴片
通过将能量引入到对抗补丁生成过程中,本文介绍了如何最小化 “人” 类别的总能量,以生成针对多个目标模型输出的对抗补丁。通过采用对抗训练,将动态优化的集成模型构建为在生成的对抗补丁能够有效攻击所有目标模型的平衡点上调整被攻击目标模型的权重参数,实现了更强的攻击潜力。
Dec, 2023
本文提出了 DPatch,一种黑盒子对现代计算机视觉系统(如 Faster R-CNN 和 YOLO)的基于敌对的黑盒贴片攻击。与原始的敌对贴片只操纵图像级分类器不同,DPatch 同时攻击边界框回归和对象分类以禁用它们的预测,具有非常高的转移性且实践性强。
Jun, 2018
本文提出了一种物理性的对抗攻击方法,能够通过拼贴一个合理设计的补丁扰乱 YOLOv3 检测器的识别结果,避免误判或漏检目标,从而在不需要修改场景中的物体的情况下,对目标检测系统进行攻击。
Jun, 2019
该研究关注深度神经网络的安全性问题,着重研究针对目标检测算法的对抗攻击方法,通过生成特定的对抗补丁实现攻击,提出的两种算法均可有效地、通用地攻击最新的目标检测模型。此外,参加了阿里巴巴的天池对抗挑战,并在 1701 对抗团队中获得了前七名。
Oct, 2020
研究者正在研究深度神经网络的易受攻击性,并提出了一种新的基于相机的攻击方法,该方法引入了摄像头补丁以执行潜在的隐秘攻击,并提出了一个对抗相机补丁来解决多补丁复杂性的问题。
Dec, 2023
本文介绍一种名为 Ad-YOLO 的有效的插件式防御方案,它可以有效地解决面对物理世界中的侵袭攻击的问题,能够直接检测目标对象和敌对补丁的存在。经实验测试,Ad-YOLO 比 YOLOv2 在面对攻击时表现出更好的鲁棒性和稳定性。
Mar, 2021
本文介绍了一种针对具有高度内类变异的待攻击目标,即人体,生成对抗贴片的方法,并且通过实验表明,我们的系统能显著降低人体检测器的准确性,同时还在实际场景中能够进行攻击。
Apr, 2019
通过在另一辆移动车辆上动态显示对抗性修补程序的屏幕,该研究介绍了一种攻击机制,旨在挑战自动驾驶系统的韧性。这种操纵对决策制定过程的方法对于交叉路口和变道等关键的多车辆交互非常重要,这对安全和高效的自动驾驶系统具有重大影响。
Dec, 2023
本研究提出了一种基于扩散贴片攻击方法(DPAttack)的物体检测对抗攻击,通过对小部分像素进行扰动,成功地欺骗了大多数物体检测器,并在 Alibaba-Tsinghua 对抗性目标检测挑战中获得了第二名。
Oct, 2020
我们分析了攻击技术并提出了一种强大的防御方法,通过利用对象的形状、纹理和位置,成功降低了 20% 以上的模型置信度。利用修复预处理技术,有效地恢复了原始的置信水平,展示了强大防御在减轻这些威胁中的重要性。我们的修复防御方法在仿真像素化的基于补丁的物理对抗攻击中显著提高了模型的韧性,实现了高精度和可靠的定位,尽管受到了对抗性攻击。这项工作推动了对抗挑战中对象检测和分类网络的韧性和可靠性的发展,并为关键应用提供了强大的基础。
Mar, 2024