本篇研究提出一种基于对象共现和它们相对位置和大小作为上下文信息的上下文感知攻击方法,可成功针对黑盒对象检测器生成有针对性的误分类攻击,并在 PASCAL VOC 数据集上实现高达 20% 以上的性能提升。
Dec, 2021
本文提出了一种物理性的对抗攻击方法,能够通过拼贴一个合理设计的补丁扰乱 YOLOv3 检测器的识别结果,避免误判或漏检目标,从而在不需要修改场景中的物体的情况下,对目标检测系统进行攻击。
Jun, 2019
该研究使用动态对抗性贴片攻击实际场景下的对象检测器,并通过生成考虑目标物品与分类之间的语义距离的贴片方法进行优化,成功地在广阔的视角范围内将 YOLOv2 对象检测器误导了 90%,并在不同汽车模型之间成功误导检测器 71%。
Oct, 2020
通过使用零查询方案、设计新的数据结构、利用及定义的概念、实现线索较弱的检测来生成背景一致的对抗性攻击,能够有效地规避自然多物体场景中的黑盒目标检测器,并提高攻击成功率。
Mar, 2022
本文旨在通过空间上下文信息表征对语义分割中的对抗样本进行防御,发现空间一致性信息可以被潜在地利用来检测对抗样本,本文所考虑的攻击型对抗样本在模型之间几乎不能传递,这些观察结果为研究如何应对和理解 DNNs 的弱点提供了新的视角。
Oct, 2018
本研究基于特殊遮盖的 MS COCO 数据集,对目前最先进的 Faster R-CNN 和 YOLO 目标检测器的准确性进行评估和比较,以衡量它们的预测有多少依赖于编码在对象类别级别上的上下文信息。研究结果表明,当前检测器通常不会在类别级别上建立强的依赖关系,但是当它们这样做时,它们的方式往往相似,表明对象类别的上下文依赖性是一个独立的属性,这具有传递知识的相关性。
Sep, 2018
研究对象检测中上下文限制效果有限的原因,提出了一种基于区域的上下文重新评分方法,该方法采用动态上下文选择来消除噪声并强调信息上下文,实验表明该方法在性能评估方面显著优于外观检测器和传统上下文模型。
Sep, 2016
本研究提出了一种基于上下文一致性规则学习的深度神经网络攻击检测方法,通过建立了一组自动编码器来检测违反上下文一致性规则的对抗扰动,实验证明该方法可以有效检测各种对抗攻击。
Jul, 2020
该论文提出了 DetectorGuard 作为第一个用于构建具有证明鲁棒性的对象检测器来对抗本地化补丁攻击的通用框架,并介绍了一种称为对象解释策略的方法来构建高性能的鲁棒对象检测器。
Feb, 2021
这篇论文提出了一种针对无人机物体检测中的敌对补丁攻击的新型模型无关防御机制,将对抗性补丁防御问题形式化为遮挡消除任务,通过中性化感兴趣对象上的对抗性补丁来改善无人机物体检测的可靠性。
May, 2024