通过稳健优化方法探究神经网络对抗攻击的鲁棒性,设计出对抗攻击和训练模型的可靠方法,提出对于一阶对手的安全保证,并得到针对广泛对抗攻击的高鲁棒性网络模型。
Jun, 2017
本文提出一种基于局部Lipschitz常数估计问题的鲁棒性分析的理论,使用极值理论来高效评估,得到了一个新的鲁棒性指标CLEVER,该指标不依赖于攻击方法且适用于任何神经网络分类器。
Jan, 2018
本文提出了一种技术,能够将深度学习分类器的防御性能从较小的前馈神经网络拓展到更广泛的网络结构,同时采用非线性随机投影的方式进行训练,并通过级联模型进一步提高分类器的鲁棒性能。在MNIST和CIFAR数据集上进行实验,证明了该方法在可证明的抗干扰错误率上有着明显的提升。
May, 2018
本文提出了一种新的半定松弛办法,用于证明针对任意ReLU网络的鲁棒性,显示该松弛法比先前的松弛法更严格,并在三个不同的训练对象对我们的建议松弛法不感兴趣。
Nov, 2018
本文提出了一种基于直接优化的攻击方案,针对ReLU网络进行优化,相比Carlini-Wagner攻击方案,在18个实验中除了一个实验外均有提升,并提高了最多9%。
在神经网络的研究中,我们开发了一种新的梯度基础的对抗攻击方法,相较于已有的攻击方法,它更可靠,可以适应广泛的对抗标准,并且在提高效率的同时,不需要进行超参数调整,这将对神经网络的鲁棒性评估做出有益的贡献。
Jul, 2019
本文提出两个方法以提高PGD攻击的效率,进而结合现有方法构成一个全新的攻击集合,用于测试对抗鲁棒性,并在50多个模型上进行了测试,发现一些已经被攻破的防御机制。
Mar, 2020
本文提出了一种网络权重初始化的方法,使其能够在更高噪声水平下学习,同时评估了在MNIST和CIFAR10数据集上增强对抗噪声对学习范围的影响,并通过对简单多维伯努利分布的理论结果进行研究,提出了一些关于MNIST数据集可行扰动范围的见解。
本篇研究通过分类对抗性攻击和防御方法,提出三类半定界数理优化问题,即对抗(再)训练、正则化方法和认证防御,并调查了最近的研究成果和挑战以及展望未来的发展。
Jul, 2020
通过实证研究,我们发现过参数化神经网络相对于低参数网络在对抗性攻击方面更具鲁棒性。
Jun, 2024