对抗检测:实时攻击目标检测
利用‘偷现,解密后’的攻击方式,在黑盒情况下生成幽灵对象的可行性研究,证明了该攻击可以成功地利用 AI 服务的潜在漏洞,给 AI 安全带来了重大威胁。
Apr, 2024
本研究从模型鲁棒性的角度出发,对目标检测模型和对抗攻击进行了系统分析,提出了一种多任务学习的视角和不对称的任务损失,并进一步开发了一种基于多种攻击源提高检测模型鲁棒性的对抗训练方法,实验证明了其有效性。
Jul, 2019
本文提出了一种高效的基于注意力机制的防御方法,利用对抗通道注意力快速识别和追踪浅层网络中的恶意对象,并在多帧情景中遮蔽它们的对抗影响。该方法提升了现有超激活技术在现实世界的对抗攻击中的效果,并引入了一个高效的多帧防御框架,通过广泛实验评估了其防御性能和计算成本。
Nov, 2023
本文系统研究了对最先进目标检测框架的对抗攻击,证明了其有效性,在不同环境下针对多种检测模型具有广泛的适应性,同时研究了使用印刷海报和可穿戴衣服进行的物理攻击,并用不同的度量方法对这些攻击的性能进行详细的分析。
Oct, 2019
该研究考察了基于相机的 3D 物体检测方法在不同对抗条件下的鲁棒性,并发现了提高鲁棒性的关键因素,包括准确的深度估计、鸟瞰图表示法、多帧输入等,为今后设计具有改进的鲁棒性的基于相机的物体检测模块提供指导。
Jan, 2023
在这篇论文中,我们提出了一种适应被攻击对象不同大小的可变大小后门触发器,克服了视点和被攻击对象之间距离引起的干扰。此外,我们提出了一种名为恶意对抗训练的后门训练方法,使后门对象检测器能够学习带有物理噪声的触发器特征。实验结果显示,这种强健性后门攻击能够提高在现实世界中的攻击成功率。
Sep, 2023
本篇文章提出了四种物体检测中的后门攻击: Object Generation 攻击;Regional Misclassification 攻击;Global Misclassification 攻击和 Object Disappearance 攻击。此外,作者还提出了一个名为 Detector Cleanse 的基于熵的运行时检测框架,以识别任何 deployed 物体检测器的污染测试样本。
May, 2022
该研究使用动态对抗性贴片攻击实际场景下的对象检测器,并通过生成考虑目标物品与分类之间的语义距离的贴片方法进行优化,成功地在广阔的视角范围内将 YOLOv2 对象检测器误导了 90%,并在不同汽车模型之间成功误导检测器 71%。
Oct, 2020
本文提出了一种生成通用三维对抗目标的方法,用以干扰自动驾驶系统中激光雷达探测器,这一方法成功率高达 80%,并开展了一些防御研究,旨在建立更安全可靠的自动驾驶系统。
Apr, 2020
本文揭示了基于 LiDAR 的自动驾驶检测系统的潜在漏洞,并通过 LiDAR-Adv 的优化方法生成逃避 LiDAR 检测系统的对抗性物体,并在百度 Apollo 自动驾驶平台上测试和 3D 打印这些物体以证明实际世界中的存在性。
Jul, 2019