对云端图像分类器服务攻击的对抗样本可迁移性研究
本篇研究论文主要探讨了如何有效防御基于图像分类的深度神经网络攻击。通过研究两种最常见的防御方法,我们发现这些方法对于三种最高危物理攻击的防御效果较差。因此我们提出了一种新的抽象对抗模型,矩形遮挡攻击,并且开发了两种计算结果的对抗样本的方法。最后,我们通过新的模型进行对抗训练,证明了这一方法是一种高效的通用防御策略。
Sep, 2019
通过引入秘密嵌入和透明对抗性示例作为一种更简单的评估鲁棒性的方法,本文在实际部署的 Google Cloud Vision API 和 Microsoft Azure 的 Computer Vision API 等场景下评估其恶意攻击的成功率,结果表明这种方法非常容易使人产生视觉上的欺骗,并能成功逃避现有的最先进 API,为当前研究提供一种补充的鲁棒性评估方法。
May, 2021
对机器学习模型的黑盒攻击是可能的,即使它们的结构不同。通过生成对抗性样本,并利用受害者模型标记合成训练集,攻击者可以训练出自己的替代模型,并将对抗性样本转移到受害者模型中实施攻击,该方法可以使用新的技术使攻击过程更加有效率,在 Amazon 和 Google 等公司的商业机器学习分类系统中展示了攻击的有效性。
May, 2016
本文介绍了对基于卷积神经网络(CNN)的图像分类模型进行对抗攻击的概念,并探讨了一种被称为 FGSM(快速梯度符号方法)的著名对抗攻击方法对图像分类模型性能的负面影响。对三种预训练图像分类器 CNN 结构(ResNet-101,AlexNet 和 RegNetY 400MF)使用 ImageNet 数据集中的随机选择图像进行了模拟 FGSM 攻击,并计算了在攻击存在与不存在时分类器的准确性,以展示攻击对模型性能的有害影响。最后,提出了一种基于修改的防御蒸馏方法来防御 FGSM 攻击,并给出了详尽的实验结果用于验证所提出方案。
Dec, 2023
本文介绍了对卷积神经网络 (CNN) 图像分类模型进行对抗攻击的概念,并对两种广为人知的对抗攻击 —— 快速梯度符号方法 (FGSM) 和对抗性贴片攻击进行了讨论和分析,分别在 ResNet-34、GoogleNet 和 DenseNet-161 三种预先训练的强大图像分类器体系结构上启动这两种攻击,并在公开可访问的 ImageNet 数据集上计算模型在有无攻击的情况下的分类精度,分析了攻击对图像分类任务的影响。
Jul, 2023
本文旨在综述目前关于点云分类中的对抗攻击和防御技术的进展,包括对对抗攻击的原理和特点、最近几年的对抗攻击示例生成方法的总结和分析以及防御策略的分类(包括输入变换、数据优化和深度模型修改)。最后,本文阐述了这一领域中几个具有挑战性的问题和未来的研究方向。
Jul, 2023
本文提出了一种训练方法来防止黑盒学习系统受到对抗性示例的攻击,该方法通过在输出类集中增加一个 NULL 标签并训练分类器将对抗性示例分类为 NULL 来阻止其可转让性。实验表明该方法能够有效抵御对抗性示例的攻击,同时在干净数据上保持准确度。
Mar, 2017
本文以 Fast Gradient Sign Method 为基础,对面部图像数据集进行扰动,测试不同黑盒攻击算法的鲁棒性,并重点研究修改单个最佳像素或所有像素的攻击方法。研究结果表明,所有像素攻击方法能使分类器置信度平均下降至 84%,且 81.6%的误分类率,但这些图像始终可以被人类识别。该研究可为防御性对抗攻击、自适应噪声降低技术等方面的 DNNs 训练和研究提供宝贵的参考。
Jan, 2020
本论文通过对点云模型的对抗攻击提出了全新的统一公式,此方法可以攻击分类模型的功能,考虑到攻击点的感知能力,并确保最小程度上的点操作,实验证明此方法在合成数据和真实数据上均取得了超过 89% 和 90% 的攻击成功率,并仅操作了总点数约 4%。
Aug, 2020
本文针对深度卷积神经网络在人脸识别中容易受到可转移性对抗攻击的问题进行了研究,提出了基于 DFANet 的特征级对抗样本生成方法,通过控制 dropout 提高替代模型的多样性并获得集成的效果,该方法在多种模型、训练数据库和网络架构下的实验表明可以显著提高现有攻击方法的可转移性,最终应用于 LFW 数据库成功生成了新的对抗人脸对并攻击了四个商业 API,本文数据集可用于深度人脸识别的鲁棒性和防御研究。
Apr, 2020