提出了一种在现实世界中创建通用、强健和有目标的对抗图像贴片的方法,这些贴片可以被添加到场景中以攻击任何情况的图像分类器。
Dec, 2017
提出了一种名为 PAD 的新颖的对抗贴纸定位和去除方法,该方法不需要先前知识或额外训练,提供了针对各种对抗贴纸的无关补丁防御,与任何预训练的物体检测器兼容。
Apr, 2024
使用 meta adversarial training (MAT) 针对基于图像的反攻击 (adversarial attacks) 进行训练,该模型能够显著提高模型对于通用补丁 (universal patch) 的鲁棒性,并且在图像分类和交通信号灯检测方面具有广泛的应用。
Jan, 2021
提出了一种可通过物理方式应用于图像中的明显但具有对抗性的矩形贴片,并利用对抗训练的方式来增强深度神经网络对对抗贴片的鲁棒性,这种训练不会降低网络的分类准确率。
May, 2020
本研究总结了最近在通用对抗攻击领域里取得的进展,讨论了攻击和防御方面的挑战以及通用对抗攻击存在的原因,旨在成为一项动态研究,不定期更新其内容,包括图像、音频、视频和文本等多个领域,欢迎该领域的作者联系我们,以纳入您的新发现。
Mar, 2021
该研究关注深度神经网络的安全性问题,着重研究针对目标检测算法的对抗攻击方法,通过生成特定的对抗补丁实现攻击,提出的两种算法均可有效地、通用地攻击最新的目标检测模型。此外,参加了阿里巴巴的天池对抗挑战,并在 1701 对抗团队中获得了前七名。
Oct, 2020
提出了一种由声音信号触发的物理对抗性贴片 TPatch,其具有声物质注入攻击引入的设计失真,可以在正常情况下保持良性,但可以通过触发来启动隐藏、创造或改变攻击。通过基于内容的伪装方法和攻击韧性增强方法,我们提出了避免引起人类驾驶员怀疑并使攻击在真实世界中实用和强韧的方法。使用三种对象检测器(YOLO V3/V5 和 Faster R-CNN)和八种图像分类器对 TPatch 进行评估,这既在模拟环境中也在真实世界中表明了 TPatch 的有效性。我们还讨论了传感器、算法和系统级别的可能防御方法。
Dec, 2023
深度神经网络容易受到各种类型的对抗性样本的攻击,并且现有的对抗性修补方法通常生成的修补具有无意义的噪声或图案,本研究旨在生成真实视觉效果的对抗性修补以欺骗深度神经网络。通过在真实图像的邻域内限制修补的位置,优化位置的不相关性,并采用总变差损失和伽马变换以保留信息,生成的对抗性修补具有卓越的攻击性能,并且可以伪装成物理世界中的涂鸦或标志来欺骗深度模型,给深度神经网络应用带来重大威胁。
本文提出了一种生成难以察觉的对抗性贴片的方法,通过利用多尺度生成器和辨别器粗粒度到细粒度地生成对抗贴片,并在对抗训练中使其保持一致性,从而在白盒设置中展示强大的攻击能力和在黑盒设置中的卓越可转移性。与其他对抗性贴片相比,我们的对抗性贴片具有最小的被检测风险并可以逃避人类观察,这得到了显著实验结果的支持。
Jun, 2021
本文介绍了一个公开的基准数据集 APRICOT,它包含了 1000 多张带有标注的公共场所中的物理对抗贴片(adversarial patches)照片,用于对物体检测系统中的物理对抗攻击进行实验和研究,并提出了包括合成数据和无监督方法在内的一些防御策略。通过实验分析,作者们表明在非受控制的情况下,维护系统的抗干扰能力具有挑战性,但在一些特定的条件下,可以有效地检测出恶意贴片。
Dec, 2019