本文提出一种新的局部对抗性攻击方法用来生成对抗性样本,进而通过在训练集中包含局部对抗性图像来提高分类器鲁棒性和对抗样本的识别率。在 MNIST 和 CIFAR-10 数据集上的评估结果表明,该训练算法可以降低自然图像的准确度损失,并提高抵抗对抗性输入的容忍度。
Sep, 2019
本研究提出了一种基于局部梯度平滑(LGS)的防御方法来对抗深度神经网络(DNNs)对于局部及可见对抗干扰的敏感性,并在 ImageNet 数据集上与数字水印,JPEG 压缩,TVM 和特征扩张等防御方法相比展示了 LGS 的有效性和鲁棒性。
Jul, 2018
提出了一种可通过物理方式应用于图像中的明显但具有对抗性的矩形贴片,并利用对抗训练的方式来增强深度神经网络对对抗贴片的鲁棒性,这种训练不会降低网络的分类准确率。
May, 2020
本文提出了一种生成难以察觉的对抗性贴片的方法,通过利用多尺度生成器和辨别器粗粒度到细粒度地生成对抗贴片,并在对抗训练中使其保持一致性,从而在白盒设置中展示强大的攻击能力和在黑盒设置中的卓越可转移性。与其他对抗性贴片相比,我们的对抗性贴片具有最小的被检测风险并可以逃避人类观察,这得到了显著实验结果的支持。
Jun, 2021
该研究提出一种基于生成对抗网络(GAN)图像流形和物理世界的无梯度攻击方法,用于生成自然物理的对抗贴片以欺骗对目标物体检测器的分类。结果表明,该方法在数字和物理场景下均有效。
Mar, 2023
本文提出了一种新类的对抗样本 ——“语义对抗样本”,即通过对图像进行任意扰动来欺骗模型,但修改后的图像在语义上代表的仍是原始图像,通过构建约束优化问题和基于人类认知系统的形状偏置特性的对抗变换,生成对抗图像的颜色转移极大影响了 Deep neural networks 模型精度。
Mar, 2018
使用多尺度生成器和辨别器以及最小最大训练,在一个图像中生成对抗性但难以察觉的贴片,该方法在白盒和黑盒设置中均表现出强大的攻击能力,并保持物理世界中的攻击能力。
Sep, 2020
本文提出了一种对现有数字图像篡改定位算法进行真实世界应用安全性评估的对抗性攻击方案,通过基于优化和梯度的敌对示例的白盒和黑盒攻击来揭示这种篡改定位器的可靠性,从而准确预测篡改区域并保持高视觉质量的同时,大大降低了定位精度。
Sep, 2023
该文章提出了一种直接部署到标准深度神经网络模型中的简单方法,通过引入两个经典图像处理技术,标量量化和平滑空间滤波,将图像中的扰动降低到最小,使用图像熵作为度量标准,可以有效地检测出对基于多种攻击技术的先进深度学习模型的 20,000 多个对抗样本,最终的实验结果表明,该检测方法可以取得 96.39%的高整体 F1 评分。
May, 2017
通过使用生成对抗网络在潜在空间中注入对抗性扰动,避免了基于边缘的先验条件并确保了与基于像素的对抗性攻击方法相比视觉上真实的高度,实现了在 MNIST,CIFAR10,Fashion-MNIST,CIFAR100 和 Stanford Dogs 数据集上生成对抗攻击的有效性。
Apr, 2023