在 Carla 模拟器中对车辆检测器实施物理对抗攻击
本文提出了一个基于 CARLA 模拟器的即时级数据生成流水线,生成了 DCI 数据集,并对三种检测模型和三种物理对抗攻击进行了广泛的实验,发现 Yolo v6 具有最强的鲁棒性,只有 6.59%的平均 AP 下降率,而 ASA 是最有效的攻击算法,平均 AP 下降率为 14.51%,是其他算法的两倍。
Apr, 2023
在本研究中,我们使用 CARLA 模拟器提出了一种创新的即时级别数据生成流程,建立了 Discrete and Continuous Instant-level(DCI)数据集,通过该流程,我们对三个检测模型和三种物理对抗攻击进行了全面实验。我们的研究结果突出了在对抗条件下不同模型的表现,并指出了对抗攻击算法进展可能正在接近其 “限制”。该研究强调了对抗攻击在实际环境中的重要性,并将 DCI 数据集引入作为一个多功能的基准,为提高检测模型的鲁棒性提供了有价值的见解,并为未来在对抗攻击领域的研究提供指导。
Aug, 2023
为了攻击更多的实际场景中的目标检测器,本文利用全覆盖的伪装攻击(FCA)在全车 3D 曲面内渲染非平面伪装纹理,然后将其转换为真实场景。实验表明,这种攻击不仅在不同的测试环境、不同的车辆和目标检测器中都比现有方法更优秀,而且具有一般性。
Sep, 2021
本研究使用 CARLA 模拟器生成综合数据集,使其具有逼真的对抗性示例攻击,并使用处理和转换效果与真实世界图像相同的模拟攻击来说明其与现实的相关性。
Jul, 2022
本研究基于对已有测试结果的分析,设计一种算法,可以产生压缩后的贴纸状实体对检测器进行攻击,从而证明当前最新的物体检测算法仍然容易受到物理对抗样本的影响。
Dec, 2017
本文提出了一种生成通用三维对抗目标的方法,用以干扰自动驾驶系统中激光雷达探测器,这一方法成功率高达 80%,并开展了一些防御研究,旨在建立更安全可靠的自动驾驶系统。
Apr, 2020
对物理深度学习算法模型的物理攻击,提出了 Disappearance Attack 和 Creation Attack 进行检测,结果表明存在风险,攻击模型具有可迁移性
Jul, 2018
提出了 Adversarial Texture 技术,应用于制作物理世界中可以欺骗人物探测器的衣着。使用 Toroidal-Cropping-based Expandable Generative Attack(TC-EGA)方法进行生成。
Mar, 2022
本文系统研究了对最先进目标检测框架的对抗攻击,证明了其有效性,在不同环境下针对多种检测模型具有广泛的适应性,同时研究了使用印刷海报和可穿戴衣服进行的物理攻击,并用不同的度量方法对这些攻击的性能进行详细的分析。
Oct, 2019