面向通用可控的目标检测攻击
本文旨在通过在物体外部背景区域添加微小的扰动来探索单镜头模块(SSM)的漏洞,试图削弱单阶段或两阶段目标检测器中广泛使用的SSM的性能,结果表明,即使是在物体边界框之外添加微小的扰动也会严重破坏检测性能。
Sep, 2018
本研究从模型鲁棒性的角度出发,对目标检测模型和对抗攻击进行了系统分析,提出了一种多任务学习的视角和不对称的任务损失,并进一步开发了一种基于多种攻击源提高检测模型鲁棒性的对抗训练方法,实验证明了其有效性。
Jul, 2019
本文系统研究了对最先进目标检测框架的对抗攻击,证明了其有效性,在不同环境下针对多种检测模型具有广泛的适应性,同时研究了使用印刷海报和可穿戴衣服进行的物理攻击,并用不同的度量方法对这些攻击的性能进行详细的分析。
Oct, 2019
该研究关注深度神经网络的安全性问题,着重研究针对目标检测算法的对抗攻击方法,通过生成特定的对抗补丁实现攻击,提出的两种算法均可有效地、通用地攻击最新的目标检测模型。此外,参加了阿里巴巴的天池对抗挑战,并在1701对抗团队中获得了前七名。
Oct, 2020
本篇文章提出了四种物体检测中的后门攻击: Object Generation攻击;Regional Misclassification攻击;Global Misclassification攻击和Object Disappearance攻击。此外,作者还提出了一个名为Detector Cleanse的基于熵的运行时检测框架,以识别任何 deployed 物体检测器的污染测试样本。
May, 2022
本文提出一种基于对抗预训练的简单而有效的配方,用于提高目标检测器的对抗鲁棒性,并探索不同的现代目标检测器提高对抗鲁棒性的潜力,为该领域设定了一个新的里程碑和加深了人们对鲁棒目标检测的理解。
May, 2023
现有的目标检测器在处理训练和真实世界数据之间的领域转变方面面临挑战,尤其是在雾天和夜晚等低能见度条件下。我们提出了一种名为Adversarial Defense Teacher(ADT)的简单而有效的框架,通过利用对抗性防御来提高教学质量,并通过Zoom-in Zoom-out策略解决低能见度条件下的小目标问题。我们的结果表明,ADT在Foggy Cityscapes上达到了54.5%的mAP,超过了先前的最先进技术2.6%的mAP。
Mar, 2024
本研究针对目标检测领域中对抗样本的脆弱性这一问题进行了深入的调查与评估,填补了现有文献中的空白。论文提出了一种全面的对抗攻击分类法,并系统评估了现有的攻击方法与模型的鲁棒性,为提高目标检测系统的安全性提供了关键见解和研究挑战。
Aug, 2024
本研究针对目标检测中的领域转移问题,提出了一种名为对抗攻击教师法(AAT)的新框架,旨在提高伪标签的质量。通过对教师模型施加对抗攻击,生成更可靠的伪标签,显著改善了伪标签的偏差和有限自信性,最终在多个数据集上实现了优异的性能,达到Clipart1k数据集的52.6 mAP,领先之前的最先进水平6.7%。
Aug, 2024