对抗性贴片
提出了一种可通过物理方式应用于图像中的明显但具有对抗性的矩形贴片,并利用对抗训练的方式来增强深度神经网络对对抗贴片的鲁棒性,这种训练不会降低网络的分类准确率。
May, 2020
PatchCleanser 是一种用于抵御基于物理世界中对受害对象打印和附加补丁的对抗性攻击的、在图片上执行的像素遮蔽的、适用于各种先进的图片分类器以实现高精度的、具有认证稳健性的防御方法。此方法可以证明在某些图像上永远预测正确的类别标签,同时较之前的工作显着提高了认证稳健性。
Aug, 2021
通过使用类似 GAN 的结构,本文提出了一种新的方法生成对抗补丁,该补丁克服了与视觉 Transformer 进行线性投影的贴片完美对齐的约束,使得该补丁能够在视野内的任何位置发动定向攻击,并且无论是在数字环境还是在真实世界的情况下都表现出普遍攻击的有效性。
Jul, 2023
本文提出了一种生成难以察觉的对抗性贴片的方法,通过利用多尺度生成器和辨别器粗粒度到细粒度地生成对抗贴片,并在对抗训练中使其保持一致性,从而在白盒设置中展示强大的攻击能力和在黑盒设置中的卓越可转移性。与其他对抗性贴片相比,我们的对抗性贴片具有最小的被检测风险并可以逃避人类观察,这得到了显著实验结果的支持。
Jun, 2021
本文介绍了一种针对具有高度内类变异的待攻击目标,即人体,生成对抗贴片的方法,并且通过实验表明,我们的系统能显著降低人体检测器的准确性,同时还在实际场景中能够进行攻击。
Apr, 2019
本文提出了一种跨模态物理攻击方法,在物理世界中通过统一的对抗性贴片欺骗可见光和红外物体探测器,在考虑到不同成像机制的情况下,通过设计新型的边界受限形状优化和考虑得分的迭代评估,成功地减少了多模式传感器的预测得分。
Jul, 2023
使用 meta adversarial training (MAT) 针对基于图像的反攻击 (adversarial attacks) 进行训练,该模型能够显著提高模型对于通用补丁 (universal patch) 的鲁棒性,并且在图像分类和交通信号灯检测方面具有广泛的应用。
Jan, 2021
本文提出了一种物理性的对抗攻击方法,能够通过拼贴一个合理设计的补丁扰乱 YOLOv3 检测器的识别结果,避免误判或漏检目标,从而在不需要修改场景中的物体的情况下,对目标检测系统进行攻击。
Jun, 2019