本论文分析了深层网络的一个有趣现象,即它们对于对抗性扰动的不稳定性,并提出了一个分析分类器鲁棒性的理论框架,并且为对抗性扰动的鲁棒性建立了一个上限。具体而言,我们建立了分类器对于对抗性扰动的鲁棒性的一个通用上限并用一些线性和二次分类器的例子说明了所获得的上限。我们的结果表明,在涉及小区分能力的任务中,所有选定的分类器将不会对于对抗性扰动产生鲁棒性,即使达到了较高的准确率。
Feb, 2015
本研究介绍了新型攻击算法,证明了防御蒸馏并不能显著提升神经网络的强度,提供了高置信度的对抗性样本用于简单的可迁移性测试,该测试可以用于破解防御蒸馏。
Aug, 2016
通过稳健优化方法探究神经网络对抗攻击的鲁棒性,设计出对抗攻击和训练模型的可靠方法,提出对于一阶对手的安全保证,并得到针对广泛对抗攻击的高鲁棒性网络模型。
Jun, 2017
本文研究了基于深度神经网络的分类模型中稀疏性与鲁棒性之间的关系,并理论和实证分析表明,适当的模型稀疏化可以提高非线性 DNN 的鲁棒性,但过度稀疏化会使模型更难抵抗对抗性样本攻击。
Oct, 2018
研究的问题是通过压缩来探究神经元网络的鲁棒性并揭示其中的关键特性,其中低秩结构通过核范数正则化促进并结合稀疏性使神经网络显示出显著的鲁棒性。
Jan, 2019
本文提出了一种概率健壮性的概念,并介绍了一个基于抽象解释和重要性采样的算法,以检查神经网络是否具有概率健壮性。
Feb, 2019
针对当前神经网络抵御对抗攻击的能力较弱的情况,提出了一种新的损失函数,从而提高了19种不同状态下的神经网络的抗攻击能力。同时发现目前不良攻击行为只能诱发少量不同类别的误分类,过于自信或不自信都会影响对模型鲁棒性的准确评估。
May, 2021
本文提出了一种学习算法,旨在解决对抗性示例对机器学习模型的攻击,并尝试通过设计新的算法和理论分析来提高其鲁棒性和性能。
Jun, 2023
通过分析正常和对抗攻击样本的深度神经网络表示之间的差异,研究了对抗攻击的鲁棒性和现有防御机制的普适性,并揭示了L2和Linfinity范数之间的显著差异。
Aug, 2023
探讨深度学习中模型压缩方法对对抗鲁棒性的影响,发现压缩不会导致模型损失鲁棒性,而对压缩模型进行对抗微调可以显著提高鲁棒性性能并改善计算效率。
Mar, 2024