通过向非关键神经元注入噪音来提升DNN的对抗性强度和效率
该研究提出了一种基于Frobenius规范化Jacobian矩阵的网络后处理方法,以提高深度神经网络的鲁棒性,从而改善其对抗攻击的表现,同时对网络准确性的影响也很小。
Mar, 2018
本文研究了基于深度神经网络的分类模型中稀疏性与鲁棒性之间的关系,并理论和实证分析表明,适当的模型稀疏化可以提高非线性 DNN 的鲁棒性,但过度稀疏化会使模型更难抵抗对抗性样本攻击。
Oct, 2018
本文提出了一种Parametric-Noise Injection (PNI)技术,使用可训练的高斯噪声注入到神经网络的不同层中,解决min-max优化问题,通过对抗训练来提高网络的鲁棒性,实验表明该方法能有效提高对抗攻击下的网络鲁棒性。
Nov, 2018
本文提出了一种网络权重初始化的方法,使其能够在更高噪声水平下学习,同时评估了在MNIST和CIFAR10数据集上增强对抗噪声对学习范围的影响,并通过对简单多维伯努利分布的理论结果进行研究,提出了一些关于MNIST数据集可行扰动范围的见解。
Mar, 2020
本文提出一种新的随机神经网络,学习一种非同向噪声分布并优化学习理论上的鲁棒性,从而实现对各种白盒和黑盒攻击的强鲁棒性,相较于现有替代方案更为简单且训练速度更快。
Oct, 2020
本文针对深度神经网络(DNN)易受到对抗攻击的问题,通过对网络结构的宽度和深度进行综合研究,发现更高的模型容量并不一定有助于对抗攻击抵抗力的提高,最后一个阶段降低容量实际上可以提高对抗攻击的鲁棒性,同样的参数预算下,存在一种最佳的结构以提高对抗攻击的鲁棒性,并提供了理论分析,这些架构可帮助进行设计更具对抗攻击鲁棒性的DNN。
Oct, 2021
本研究提出了一种名为Robustness Critical Fine-Tuning (RiFT)的新方法,其核心思想是通过在非鲁棒性关键模块上进行微调,利用冗余容量来提高泛化能力而不损害对抗性鲁棒性。实验证明,该方法可以在不损害对抗鲁棒性的同时,显著改善泛化能力和超出分布鲁棒性约1.5%。
Aug, 2023
通过分析正常和对抗攻击样本的深度神经网络表示之间的差异,研究了对抗攻击的鲁棒性和现有防御机制的普适性,并揭示了L2和Linfinity范数之间的显著差异。
Aug, 2023
使用近似乘法器探索深度神经网络针对对抗攻击的鲁棒性改善,将准确的乘法器替换为近似乘法器在DNN层模型中,探索了DNN在可行时间内针对各种对抗攻击的鲁棒性,结果显示在无攻击情况下由于近似乘法产生了最高7%的准确度下降,而在攻击时,鲁棒准确度提高了最多10%
Apr, 2024
本研究针对对抗训练所引发的计算开销问题,提出了一种巧妙设计的神经网络第一层作为隐式对抗噪声过滤器。结果表明,该方法在多种数据集上展现出比现有鲁棒架构更高的对抗准确率,并与对抗训练架构竞争,显著提升了模型的鲁棒性和去噪能力。
Aug, 2024