本文提出了一种技术,能够将深度学习分类器的防御性能从较小的前馈神经网络拓展到更广泛的网络结构,同时采用非线性随机投影的方式进行训练,并通过级联模型进一步提高分类器的鲁棒性能。在MNIST和CIFAR数据集上进行实验,证明了该方法在可证明的抗干扰错误率上有着明显的提升。
May, 2018
本文研究对抗样本攻击机器学习模型并提出一种新的攻击方法,证明最先进的对抗训练方法无法同时获得对$\ell_2$和$\ell_\infty$范数的健壮性,提出可能的解决方案及其局限性。
May, 2019
本论文提出了一种名为 Interpolated Adversarial Training 的对抗性训练方法,它采用最近提出的基于插值的训练方法来提高对抗鲁棒性,并以 CIFAR-10 数据集为例进行了实验证明,相较传统对抗性训练方法,该方法可以在保持对抗鲁棒性的同时取得更好的泛化性能与更低的标准测试误差。
Jun, 2019
本文介绍了一种新型的正则化方法,该正则化方法鼓励在训练数据附近的损失行为呈线性,从而惩罚梯度混淆并鼓励鲁棒性。通过在 CIFAR-10 和 ImageNet 上的大量实验,我们展示了使用我们的正则化方法训练的模型避免了梯度混淆,并且比对抗训练能够更快地训练。使用这种正则化方法,我们在 ImageNet 上取得了 47% 的对抗准确率和 8/255的和 CIFAR-10 同样的表现。
Jul, 2019
本研究提出了一种基于PGD-based的方法,该方法融合多种扰动模型来提高深度学习系统的鲁棒性,并在MNIST和CIFAR10数据集上进行了测试。
Sep, 2019
本研究将对抗训练引入自监督学习中,提出了一种通用的具有强健性的预训练模型,可以在提高最终模型的强健性和节省计算成本方面,对后续的微调任务有两种作用。我们进行了大量实验,证明了所提出的框架与传统的对抗训练基线相比,在CIFAR-10数据集上可以获得大幅的性能提升。同时,我们发现不同的自监督预训练模型具有不同的对抗性漏洞,并提出了一种集成策略来提高其强健性。
Mar, 2020
本文通过半无限优化和非凸对偶理论的研究,证明对抗性训练等价于在扰动分布上的统计问题,并对此进行完整的表征。我们提出一种基于Langevin Monte Carlo的混合方法,可以缓解鲁棒性与标准性能之间的平衡问题,并取得了MNIST和CIFAR-10等领域最先进的结果。
Oct, 2021
本篇论文阐述了对于神经网络存在攻击的情况下,如何通过对抗训练和小样本训练方法,提高模型的鲁棒性。
Dec, 2021
对抗性示例的存在揭示了深度神经网络的基本弱点。我们的主要贡献是一种通用方法,使分类器具有显着的鲁棒性,而其自然准确性的降低仅仅是微小或可忽略的。
Oct, 2023
通过推导「对抗鲁棒性的扩展规律」,本文旨在回答计算能力能在多大程度上推动对抗鲁棒性的进展,并发现了一些值得未来研究探索的方向,同时还提供了一个基于「timm」的基准测试框架供进一步的高效鲁棒深度学习分析。
Dec, 2023