FROD: 强健的免费物体检测
本研究从模型鲁棒性的角度出发,对目标检测模型和对抗攻击进行了系统分析,提出了一种多任务学习的视角和不对称的任务损失,并进一步开发了一种基于多种攻击源提高检测模型鲁棒性的对抗训练方法,实验证明了其有效性。
Jul, 2019
本文介绍了一种基于对抗神经网络(Adversarial Neural Network)的 Robust Detector,采用了 Adversarial Image Discriminator 和 Consistent Features with Reconstruction 等方法,大大提高了在 PASCAL VOC 和 MS-COCO 数据集上物体检测模型在对抗干扰下的鲁棒性。
Jul, 2022
本文提出一种基于对抗预训练的简单而有效的配方,用于提高目标检测器的对抗鲁棒性,并探索不同的现代目标检测器提高对抗鲁棒性的潜力,为该领域设定了一个新的里程碑和加深了人们对鲁棒目标检测的理解。
May, 2023
本文提出了一种基于敌对样本的选择性、动态并且与检测器演化相关的数据扩增方法,该方法适用于目标检测模型,能够大幅提高模型的鲁棒性和检测精度。与基于模型无关的自动增广方法相比,在不同的检测模型中,该方法表现更加广泛和稳健。
Mar, 2021
该研究考察了基于相机的 3D 物体检测方法在不同对抗条件下的鲁棒性,并发现了提高鲁棒性的关键因素,包括准确的深度估计、鸟瞰图表示法、多帧输入等,为今后设计具有改进的鲁棒性的基于相机的物体检测模块提供指导。
Jan, 2023
本文提出了一种新的针对 FCN-based 显著对象检测模型的对抗攻击防御框架,其采用一些新的通用噪声来破坏对抗扰动,然后学习使用引入的噪声预测输入图像的显著性地图。实验结果表明我们的提出的方法显著地提高了一系列数据集上最先进模型的性能。
May, 2019
本研究提出了第一种实时在线攻击物体检测模型的方法,通过构造虚假物品边界框等三种攻击方式对物体检测模型进行攻击,成功率高达 90%,适用于动态环境中,并提供了演示视频。
Sep, 2022
在这篇论文中,我们提出了一种适应被攻击对象不同大小的可变大小后门触发器,克服了视点和被攻击对象之间距离引起的干扰。此外,我们提出了一种名为恶意对抗训练的后门训练方法,使后门对象检测器能够学习带有物理噪声的触发器特征。实验结果显示,这种强健性后门攻击能够提高在现实世界中的攻击成功率。
Sep, 2023
本篇文章提出了四种物体检测中的后门攻击: Object Generation 攻击;Regional Misclassification 攻击;Global Misclassification 攻击和 Object Disappearance 攻击。此外,作者还提出了一个名为 Detector Cleanse 的基于熵的运行时检测框架,以识别任何 deployed 物体检测器的污染测试样本。
May, 2022