通过潜在对抗扰动实现可靠的快速对抗训练
本研究通过对鲁棒性模型的分析,发现相对于输入层抗攻击性较强的特征层是高度容易受到小幅度形变攻击的。在此基础上,我们提出了一种名为 LAT 的新技术,通过对已经进行对抗性训练的模型进行微调,以保证其特征层的鲁棒性。研究表明此方法对 MNIST、CIFAR-10 和 CIFAR-100 数据集的前沿对抗准确度有轻微提升。
May, 2019
本文介绍了一种新型的正则化方法,该正则化方法鼓励在训练数据附近的损失行为呈线性,从而惩罚梯度混淆并鼓励鲁棒性。通过在 CIFAR-10 和 ImageNet 上的大量实验,我们展示了使用我们的正则化方法训练的模型避免了梯度混淆,并且比对抗训练能够更快地训练。使用这种正则化方法,我们在 ImageNet 上取得了 47% 的对抗准确率和 8/255 的和 CIFAR-10 同样的表现。
Jul, 2019
利用潜在对抗训练(LAT)来防御弱点,减少依赖生成激发输入的方法;通过对图像分类、文本分类和文本生成任务进行实验,LAT 通常在干净数据上提高了鲁棒性和性能,对于开发人员未明确识别的失效模式具备潜在应用前景。
Mar, 2024
通过使用生成对抗网络在潜在空间中注入对抗性扰动,避免了基于边缘的先验条件并确保了与基于像素的对抗性攻击方法相比视觉上真实的高度,实现了在 MNIST,CIFAR10,Fashion-MNIST,CIFAR100 和 Stanford Dogs 数据集上生成对抗攻击的有效性。
Apr, 2023
本论文研究了一种泛用的对抗训练算法的泛化性能,并考虑了线性回归模型和两层神经网络(使用平方损失)在低维和高维情况下的表现,其中,我们发现数据内插会防止对抗性鲁棒估算器的一致性,因此,我们引入 L1 惩罚,在高维对抗学习中,证明了它可以导致一致的对抗性鲁棒估计。
Aug, 2020
通过全局流形的视角考虑深度神经网络对抗攻击的模型鲁棒性问题,提出了一种新的对抗训练方法 ATLD,该方法在不受监督的情况下,利用了本地和全局潜在信息,通过对抗游戏生成潜在流形对抗性实例,保留了流形的局部和全局信息,具有良好的鲁棒性,实验结果表明该方法在多个数据集上显著优于现有技术。
Jul, 2021
该研究论文主要讨论了深度学习模型在计算机视觉等领域中的应用,以及由于鲁棒性不足而面临的对抗攻击问题,提出了单步对抗性训练方法及其存在的问题,并针对该问题提出了多步鲁棒性训练方法,并通过实验证明该方法得到的模型具有较强的鲁棒性。
Apr, 2020
本文提出了一种名为 LVAT 的新的规则化方法,将扰动注入潜在空间以生成理解性更强的对抗样本,并在图像分类任务的超视觉和半监督学习情景中使用 SVHN 和 CIFAR-10 数据集验证其性能,证明其优于其他现有方法及 VAT。
Nov, 2020