BadFusion: 针对 3D 目标检测的 2D 定向后门攻击
本篇文章提出了四种物体检测中的后门攻击: Object Generation 攻击;Regional Misclassification 攻击;Global Misclassification 攻击和 Object Disappearance 攻击。此外,作者还提出了一个名为 Detector Cleanse 的基于熵的运行时检测框架,以识别任何 deployed 物体检测器的污染测试样本。
May, 2022
本研究发现在使用第三方资源训练深度神经网络时容易出现后门威胁,尤其对目标检测等关键应用程序造成威胁。通过无目标特点的简单而有效的毒药后门攻击,我们成功地将后门嵌入目标模型,这可以使模型无法检测到任何与我们的触发模式带有标记的物体。我们在基准数据集上进行了广泛的实验,表明这种方法在数字和现实世界的应用都非常有效,并且对潜在防御手段具有抵御力。
Nov, 2022
在这篇论文中,我们提出了一种适应被攻击对象不同大小的可变大小后门触发器,克服了视点和被攻击对象之间距离引起的干扰。此外,我们提出了一种名为恶意对抗训练的后门训练方法,使后门对象检测器能够学习带有物理噪声的触发器特征。实验结果显示,这种强健性后门攻击能够提高在现实世界中的攻击成功率。
Sep, 2023
在该研究中,我们提出了一种有效的基于掩码的不可见后门攻击目标检测技术,并针对目标消失、目标错误分类和目标生成三种攻击场景进行了全面的实验,以确定有效的防御方法。
Mar, 2024
通过对深度学习物体检测算法进行攻击,我们提出了一种简单而有效的后门攻击方法,特别针对物体消失攻击和物体生成攻击,实验证明我们的攻击方法在两个基准物体检测数据集上的攻击成功率超过 92%,而污染率仅为 5%。
Jul, 2023
本文第一次证明了现有的目标检测器在数字触发器和实际场景中普遍存在的后门漏洞问题,提出了真实世界物理攻击场景下的攻击方法,并具体研究了三种流行的目标检测算法的鲁棒性与可行性。
Jan, 2022
本文介绍一种用于自动驾驶系统的基于深度学习的车道检测的动态场景适应后门攻击方法,通过各种形状的污点或污染激活后门,以适应不同的驾驶观察视点和环境条件的变化;通过元学习框架生成适应不同环境条件的元触发器,用于初始化后门植入的触发器模式,以应对动态环境,实验证明攻击的有效性。
May, 2024
本研究评估了 LiDAR - 相机融合模型在 3D 物体检测中的对抗鲁棒性。我们介绍了一种攻击技术,在汽车上简单添加一定数量的物理限制的对抗点后,可以使车辆在融合模型中无法检测到。实验结果表明,即使在图像数据通道没有变化的情况下,通过操纵 LiDAR 数据通道,融合模型仍然可以被欺骗。这一发现引发了自动驾驶领域的安全担忧。此外,我们还研究了对抗点数量、前方近处车辆与搭载 LiDAR 的车辆之间的距离以及不同角度因素对攻击成功率的影响。我们相信我们的研究可以增进对多传感器鲁棒性的理解,为增强自动驾驶的安全性提供见解和指导。
Dec, 2023
该论文提出一种基于黑盒模型的反向工程优化算法,用于检测深度神经网络中嵌入的恶意后门攻击,并通过检测结果进行有效的可靠预测,实验表明其可以有效地应对多种后门攻击。
Mar, 2021
自动驾驶车辆要准确检测常见和罕见类别的物体以确保安全导航,因此出现了长尾三维物体检测(LT3D)的问题。本文研究了 RGB-LiDAR 融合的简单的后期融合框架,通过集成独立训练的 RGB 和 LiDAR 检测器,利用大规模单模数据集显著提高了罕见类别的检测性能,在几个关键组件方面进行了探讨,包括训练二维或三维 RGB 检测器、在三维空间中匹配 RGB 和 LiDAR 检测结果或在二维图像平面中匹配、以及如何概率地融合匹配的检测结果。大量实验结果显示,二维 RGB 检测器的识别准确性优于三维 RGB 检测器,基于二维图像平面的匹配可以减轻深度估计误差,使用概率校准的方法将分数融合可以达到最先进的 LT3D 性能。我们的后期融合方法在 nuScenes LT3D 基准测试中取得了 51.4 mAP 的成绩,相比之前的工作提高了 5.9 mAP。
Dec, 2023