该研究使用动态对抗性贴片攻击实际场景下的对象检测器,并通过生成考虑目标物品与分类之间的语义距离的贴片方法进行优化,成功地在广阔的视角范围内将 YOLOv2 对象检测器误导了 90%,并在不同汽车模型之间成功误导检测器 71%。
Oct, 2020
本文介绍一种名为 Ad-YOLO 的有效的插件式防御方案,它可以有效地解决面对物理世界中的侵袭攻击的问题,能够直接检测目标对象和敌对补丁的存在。经实验测试,Ad-YOLO 比 YOLOv2 在面对攻击时表现出更好的鲁棒性和稳定性。
Mar, 2021
本文提出了 DPatch,一种黑盒子对现代计算机视觉系统(如 Faster R-CNN 和 YOLO)的基于敌对的黑盒贴片攻击。与原始的敌对贴片只操纵图像级分类器不同,DPatch 同时攻击边界框回归和对象分类以禁用它们的预测,具有非常高的转移性且实践性强。
Jun, 2018
研究者正在研究深度神经网络的易受攻击性,并提出了一种新的基于相机的攻击方法,该方法引入了摄像头补丁以执行潜在的隐秘攻击,并提出了一个对抗相机补丁来解决多补丁复杂性的问题。
Dec, 2023
本文提出了一种跨模态物理攻击方法,在物理世界中通过统一的对抗性贴片欺骗可见光和红外物体探测器,在考虑到不同成像机制的情况下,通过设计新型的边界受限形状优化和考虑得分的迭代评估,成功地减少了多模式传感器的预测得分。
Jul, 2023
该研究关注深度神经网络的安全性问题,着重研究针对目标检测算法的对抗攻击方法,通过生成特定的对抗补丁实现攻击,提出的两种算法均可有效地、通用地攻击最新的目标检测模型。此外,参加了阿里巴巴的天池对抗挑战,并在 1701 对抗团队中获得了前七名。
我们分析了攻击技术并提出了一种强大的防御方法,通过利用对象的形状、纹理和位置,成功降低了 20% 以上的模型置信度。利用修复预处理技术,有效地恢复了原始的置信水平,展示了强大防御在减轻这些威胁中的重要性。我们的修复防御方法在仿真像素化的基于补丁的物理对抗攻击中显著提高了模型的韧性,实现了高精度和可靠的定位,尽管受到了对抗性攻击。这项工作推动了对抗挑战中对象检测和分类网络的韧性和可靠性的发展,并为关键应用提供了强大的基础。
Mar, 2024
通过将能量引入到对抗补丁生成过程中,本文介绍了如何最小化 “人” 类别的总能量,以生成针对多个目标模型输出的对抗补丁。通过采用对抗训练,将动态优化的集成模型构建为在生成的对抗补丁能够有效攻击所有目标模型的平衡点上调整被攻击目标模型的权重参数,实现了更强的攻击潜力。
对物理深度学习算法模型的物理攻击,提出了 Disappearance Attack 和 Creation Attack 进行检测,结果表明存在风险,攻击模型具有可迁移性
Jul, 2018
本文提出了一种无接触、半透明的物理贴片,通过在摄像头镜头上放置一个精心构造的图案,欺骗了最先进的目标检测器。我们的贴片的主要目标是隐藏所选目标类别的所有实例,并确保其他类别的检测受到保护。实验表明,我们的贴片能够防止检测所有停车标志实例的 42.27%,同时保持了其他类别的高检测率(近 80%)。
Dec, 2020