对抗性鲁棒性的压缩训练
该研究提出了一种新的策略,即特征压缩,用于检测对深度神经网络模型的对抗性攻击,通过减小搜索空间,该方法显著提高了攻击检测的准确性和少量误报率,并结合其他防御方法,可对抗最先进的攻击。
Apr, 2017
本文提出了一种名为 “deep defense” 的训练方法来解决深度神经网络易受到对抗样本攻击的问题,通过将对抗扰动的正则化器与分类目标相结合,得到的模型能够直接且准确地学习抵御潜在的攻击,实验证明该方法在不同数据集上对比对抗 / Parseval 正则化方法有更好的效果。
Feb, 2018
本文首次提出了一种自我监督的对抗训练机制,在输入空间中防御对抗性攻击,并提供极大的鲁棒性,可以作为即插即用的解决方案来保护各种视觉系统,包括分类、分割和检测,同时极大降低了未知攻击的成功率。
Jun, 2020
本文提出了一种并发对抗训练和权重修剪的框架,可以在保持对抗鲁棒性的情况下实现模型压缩,同时解决对抗训练的困境,并进一步研究了关于传统设置下的权重修剪的两个假设。
Mar, 2019
本文通过半无限优化和非凸对偶理论的研究,证明对抗性训练等价于在扰动分布上的统计问题,并对此进行完整的表征。我们提出一种基于 Langevin Monte Carlo 的混合方法,可以缓解鲁棒性与标准性能之间的平衡问题,并取得了 MNIST 和 CIFAR-10 等领域最先进的结果。
Oct, 2021
通过稳健优化方法探究神经网络对抗攻击的鲁棒性,设计出对抗攻击和训练模型的可靠方法,提出对于一阶对手的安全保证,并得到针对广泛对抗攻击的高鲁棒性网络模型。
Jun, 2017
利用目标样本的样式和内容信息以及其类边界信息创建对抗性扰动,将其应用于多任务目标并进行深度监督,提取多尺度特征知识以创建最大分离对手,随后提出最大间隔对抗训练方法,最小化源图像与其对手之间的距离,并最大化对手和目标图像之间的距离,证明与最先进的防御相比,我们提出的对抗训练方法表现出强大的鲁棒性,对自然出现的损坏和数据分布变化具有良好的泛化能力,并保留了模型在干净样本上的准确性。
Jul, 2020
该研究提出了一个确定深度学习模型标签更改是否合理的框架,并且定义了一个自适应的鲁棒性损失,使用导出的经验公式,开发了相应的数据增强框架和评估方法,证明了其对确定性标签下的一阶最近邻分类的维持一致性,并提供了实证评估结果。
Jun, 2021
通过研究对抗训练提高分类器鲁棒性的机制,本研究表明这些机制可以有效地通过简单的正则化方法(包括标签平滑和对数挤压)及高斯噪声注入来模仿,并且在不使用对抗性示例的情况下,我们能够达到强大的对抗性鲁棒性 -- 通常超过对抗性训练所能达到的水平。
Oct, 2019