多扰动模型联合的对抗鲁棒性
针对对抗样本的防御,如对抗训练,通常针对单个干扰类型(例如小的 l∞- 噪声),对于其它类型的干扰,这些防御没有保障,甚至会增加模型的脆弱性。我们的目标是了解这种鲁棒性取舍背后的原因,并训练同时对多种扰动类型具有鲁棒性的模型。
Apr, 2019
本文提出了一种网络权重初始化的方法,使其能够在更高噪声水平下学习,同时评估了在 MNIST 和 CIFAR10 数据集上增强对抗噪声对学习范围的影响,并通过对简单多维伯努利分布的理论结果进行研究,提出了一些关于 MNIST 数据集可行扰动范围的见解。
Mar, 2020
通过对敌对学习及攻击的深入探究,我们发现在敌对性训练的模型中,用微小的随机噪声扰动部分攻击样本能够破坏其误导性预测,为此我们提出了一种有效的防御方法,是通过制造更加有效的防御扰动方法,利用敌对训练降低了地面真实的局部 Lipschitzness,同时攻击所有类别,将误导的预测转换为正确的预测,这种方法在经验实验证明有效。
Jun, 2021
提出了一种使用单独的学习类条件数据分布来执行分析合成的新型鲁棒性分类模型,其在 MNIST 数据集上对 L0,L2 和 L 无穷小扰动都具备最先进的鲁棒性,攻击结果在正常类和对抗类之间呈现明显的感知边界。
May, 2018
对 ReLu 神经网络进行梯度自由攻击可以提供对抗性攻击下的网络鲁棒性评估,相比于之前的最先进方法,可以更紧确地估计网络鲁棒性
Mar, 2019
本文提出两个方法以提高 PGD 攻击的效率,进而结合现有方法构成一个全新的攻击集合,用于测试对抗鲁棒性,并在 50 多个模型上进行了测试,发现一些已经被攻破的防御机制。
Mar, 2020
该研究提出了一种基于梯度的迭代攻击方法来评估在语义图像分割领域中防御对抗扰动的模型的鲁棒性,并发现只有使用对抗样本进行训练才能获得鲁棒性,并分析了鲁棒性和准确性之间的权衡。
Jun, 2023
本文提出了一种基于几何特性的极值范数对抗训练(E-AT)方法,不同于其他方法的是,它有效地提供了一种多范数的鲁棒性,且其训练时间仅为其他多范数对抗训练方法的三分之一,E-AT 方法在 ImageNet 的单个 epoch 和 CIFAR-10 的三个 epoch 的训练下,只需要一种 $l_p$ 对抗模型就可以将其传播到多种 $l_p$ 威胁模型并显著提高多个 $l_p$ 鲁棒模型在 CIFAR-10 上的最新技术水平。
May, 2021