一种基于掩码的对抗性防御方案
深度神经网络中的对抗样本会引起弱可靠性和潜在安全问题。为了解决对抗鲁棒性和模型压缩之间的问题,我们提出了一种基于对抗损失的二阶信息的新对抗剪枝方法,称为 MAD。通过在三个公共数据集上进行的广泛实验,我们证明了 MAD 有效地剪枝了对抗训练的网络,而不会失去其对抗鲁棒性,并显示出比以前的对抗剪枝方法更好的性能。
Apr, 2022
本文提出了一种基于实践观察的新的防御方法,旨在强化深度神经网络的结构,提高其预测稳定性,从而更难受到针对性攻击,并在多种攻击实验中证明了该方法的有效性,相比其他防御方法具有更好的表现,而且在训练过程中的开销几乎可以忽略不计。
Jul, 2017
本文提出了一种名为 “deep defense” 的训练方法来解决深度神经网络易受到对抗样本攻击的问题,通过将对抗扰动的正则化器与分类目标相结合,得到的模型能够直接且准确地学习抵御潜在的攻击,实验证明该方法在不同数据集上对比对抗 / Parseval 正则化方法有更好的效果。
Feb, 2018
本研究提出一种名为 DeepCloak 的防御性机制,通过识别和删除深度神经网络模型中多余的特征,限制攻击者生成对抗样本所需使用的维度,增强模型的抗干扰性能。实验结果表明,DeepCloak 能够提高最先进的深度神经网络模型对抗样本的性能。
Feb, 2017
本文提出了一种利用 Moving Target Defense(MTD)的元防御策略来提高深度神经网络(DNNs)在视觉分类任务中的鲁棒性,其中通过将策略交互组成 Bayesian Stackelberg Game(BSG)来确定选取哪个训练好的神经网络,实验证明 MTDeep 可以有效降低 MNIST、FashionMNIST 和 ImageNet 等数据集中被扰动图像的错误分类率,同时保持对于合法测试图像的高分类准确率,并且 MTDeep 能够与任何现有的防御机制一起使用。
May, 2017
本文介绍了一种在各种威胁模型下生成鲁棒分类器的方法,该方法利用了随机生成建模的最新进展,并利用条件分布采样。通过在被攻击的图像上添加高斯独立同分布噪声,然后进行预训练扩散过程,该方法表现出了可观的鲁棒性。该鲁棒性在 CIFAR-10 数据集上经过了广泛的实验验证,表明我们的方法在各种威胁模型下优于主要的防御方法。
Jul, 2022
UnMask 是一种基于鲁棒特征对齐的对抗性检测和防御框架,能够保护深度学习模型免受对抗性攻击,并在灰盒攻击设置下检测到高达 96.75% 的攻击,并以 93%的准确度正确分类出当前最强攻击之一的 PGD 制造的对抗性图像
Feb, 2020
提出了一种新的对抗样本解决方案,该方案通过随机破坏样本中的特征,阻止攻击者构建有影响力的对抗样本,从而显著提高深度神经网络对抗样本的鲁棒性,同时保持高分类准确性。
Oct, 2016
本文提出一种名为 M2AT 的方法来提高卷积神经网络(CNN)对抗攻击的鲁棒性,该方法包括掩蔽和混合对抗训练(M2AT)两个过程,其通过制造多样的对抗样本来缓解模型准确性与鲁棒性的平衡问题,并在 CIFAR-10 数据集上得到了比之前方法更好的对抗攻击鲁棒性。
Feb, 2023
通过将输入图像分成多个块,对每个块进行去噪并重构图像来提高深度神经网络对抗攻击的鲁棒性,在灰盒测试方案下,该方法比现有技术提高了 19.7% 的准确度,并且在黑盒测试方案下具有可比拟的表现,在白盒测试方案下取得 34.4% 的准确率,这是最近研究中没有出现的。
Feb, 2018