利用本文提出的 “定位和修复” 机制来处理图像输入,通过协同训练 “定位” 和 “修复” 模块,实现对各种对抗性贴片攻击的防御。
Jul, 2023
本文分析了 375 个生成的对抗补丁,并计算了其主成分,结果表明这些成分的线性组合可以成功地欺骗目标检测器。
Jun, 2023
提出了一种在现实世界中创建通用、强健和有目标的对抗图像贴片的方法,这些贴片可以被添加到场景中以攻击任何情况的图像分类器。
Dec, 2017
本文通过构建一个新的算法实现了对基于深度学习的三种拼接定位工具(EXIF-SC、SpliceRadar、Noiseprint)进行对抗样本攻击的可行性,并发现这些攻击是具备可迁移性的,可以降低它们的定位性能。
Apr, 2020
提出了一种可通过物理方式应用于图像中的明显但具有对抗性的矩形贴片,并利用对抗训练的方式来增强深度神经网络对对抗贴片的鲁棒性,这种训练不会降低网络的分类准确率。
May, 2020
该研究关注深度神经网络的安全性问题,着重研究针对目标检测算法的对抗攻击方法,通过生成特定的对抗补丁实现攻击,提出的两种算法均可有效地、通用地攻击最新的目标检测模型。此外,参加了阿里巴巴的天池对抗挑战,并在 1701 对抗团队中获得了前七名。
Oct, 2020
我们提出了一种防御机制,利用聚类技术 DBSCAN 来分离异常图像片段,并通过三阶段流程对敌对噪声进行定位和减轻,进而中和其效果。该防御机制在多个模型和数据集上验证,证明其在对抗性贴片攻击中的有效性,显著提高了准确性。
Feb, 2024
本文介绍了对抗补丁攻击的认证和经验性防御措施,其中首次提出了认证防御措施,并实验了不同补丁形状的测试,获得了出人意料的良好的鲁棒性转移。
Mar, 2020
本文介绍了一种针对具有高度内类变异的待攻击目标,即人体,生成对抗贴片的方法,并且通过实验表明,我们的系统能显著降低人体检测器的准确性,同时还在实际场景中能够进行攻击。
Apr, 2019
提出了一种名为 PAD 的新颖的对抗贴纸定位和去除方法,该方法不需要先前知识或额外训练,提供了针对各种对抗贴纸的无关补丁防御,与任何预训练的物体检测器兼容。
Apr, 2024