BB-Patch: 使用零阶优化的黑盒对抗性贴片攻击
该研究提出一种基于生成对抗网络(GAN)图像流形和物理世界的无梯度攻击方法,用于生成自然物理的对抗贴片以欺骗对目标物体检测器的分类。结果表明,该方法在数字和物理场景下均有效。
Mar, 2023
本文提出了一种增强的基于对抗样本攻击方式,并探索了不依赖于网络输出数量的决策性基于修补程序的攻击方法,使用称为 DevoPatch 的差分进化算法。实验证明 DevoPatch 优于现有方法,在给定查询预算内攻击成功率更高。
Jul, 2023
该研究论文介绍了如何在低失真路径上发起黑盒攻击,以提高攻击效率和敌对图像的感知质量,并在真实世界系统上进行了实验,验证了该方法在基准分类任务和生物识别及取证等关键应用中的有效性。
Feb, 2019
提出了一种可通过物理方式应用于图像中的明显但具有对抗性的矩形贴片,并利用对抗训练的方式来增强深度神经网络对对抗贴片的鲁棒性,这种训练不会降低网络的分类准确率。
May, 2020
深度神经网络被广泛用于各种下游任务,尤其是自动驾驶等安全关键场景,但深度网络常常受到对抗样本的威胁。对抗攻击可以分为白盒攻击和黑盒攻击,前者攻击者知道模型的参数和梯度,后者攻击者只能获取模型的输入和输出。攻击者的目的可以分为有目标攻击和非有目标攻击,黑盒设置是我们实践中会遇到的情况。
Aug, 2023
本文介绍了针对图像分类器的对抗性贴片攻击的问题,并提出一种名为 IBCD 的两阶段迭代黑盒认证防御方法,旨在提高构架无关的认证防御在黑盒攻击情境下的可行性并检验其有效性和效率。
May, 2023
本文提出了零阶优化的黑盒攻击方法,该方法不需要训练替代模型而直接估计目标 DNN 的梯度来生成对抗性例子,实验结果表明该攻击方法在 MNIST、CIFAR10 和 ImageNet 的数据集上与白盒攻击方法效果相当且明显优于现有的替代模型的黑盒攻击方法。
Aug, 2017
该研究介绍了一种利用黑盒攻击实现远程控制机器学习模型的方法,该攻击方式不需要了解模型内部或训练数据。研究表明该黑盒攻击策略可适用于许多机器学习技术,并且能够规避之前发现的防御策略。
Feb, 2016