关于使用对抗性贴纸攻击目标检测器的注记
对物理深度学习算法模型的物理攻击,提出了 Disappearance Attack 和 Creation Attack 进行检测,结果表明存在风险,攻击模型具有可迁移性
Jul, 2018
本文主要研究了利用对摄像头物理操纵的方式实施对深度神经网络的物理对抗攻击,并提出了一种迭代的攻击方法,可以使攻击不易被察觉,实现了针对 ImageNet 分类器的 49.6% 的攻击成功率。
Mar, 2019
该论文提出了一种以非刚性变形为特点的新型物理对抗样本,名为 “对抗 T 恤”,用于欺骗人物探测器,并展示了这种方法在数字和物理世界中的攻击成功率。
Oct, 2019
该研究关注深度神经网络的安全性问题,着重研究针对目标检测算法的对抗攻击方法,通过生成特定的对抗补丁实现攻击,提出的两种算法均可有效地、通用地攻击最新的目标检测模型。此外,参加了阿里巴巴的天池对抗挑战,并在 1701 对抗团队中获得了前七名。
Oct, 2020
该研究使用动态对抗性贴片攻击实际场景下的对象检测器,并通过生成考虑目标物品与分类之间的语义距离的贴片方法进行优化,成功地在广阔的视角范围内将 YOLOv2 对象检测器误导了 90%,并在不同汽车模型之间成功误导检测器 71%。
Oct, 2020
本文提出了一种物理性的对抗攻击方法,能够通过拼贴一个合理设计的补丁扰乱 YOLOv3 检测器的识别结果,避免误判或漏检目标,从而在不需要修改场景中的物体的情况下,对目标检测系统进行攻击。
Jun, 2019
该研究证明了构建对 Faster RCNN 和 YOLO 这两种检测器具有迷惑性的对抗性例子的存在,这意味着对检测器的攻击不仅仅局限于分类器,并且可能会潜在威胁到智能车辆行驶的道路安全。
Dec, 2017
该研究介绍了一种通用的攻击算法,RP2,用于在不同的物理条件下产生强大的视觉对抗扰动,以及一种用于评估物理对抗性的两阶段评估方法,通过黑白贴纸形式的扰动对真实的红绿灯进行攻击,在实验室测试和场地测试结果分别达到 100% 和 84.8% 的目标分类器的误分率。
Jul, 2017
对于深度神经网络 (DNNs) 的安全性问题,本文重点关注于物理对抗攻击,总结了 150 篇现有的物理对抗攻击的论文,详细分析了物理对抗攻击的特征、媒介、方法及其效果,并探讨了当前的挑战和未来方向。
Sep, 2022
本文提出了一种利用光影对深度学习图像分类系统进行物理攻击的方法,通过实验发现选择不同的光影模式可以使得 2D 和 3D 物体的分类精度大幅降低。
Oct, 2018