对于基础模型在受挫折性输入下的修剪版本的影响进行了研究,发现在提升普适性、压缩和更快的推断时间方面,模型压缩虽然具有其独特的优势,但不会削弱对抗性鲁棒性。
Aug, 2023
探讨深度学习中模型压缩方法对对抗鲁棒性的影响,发现压缩不会导致模型损失鲁棒性,而对压缩模型进行对抗微调可以显著提高鲁棒性性能并改善计算效率。
Mar, 2024
增加模型容量是增强深度学习网络对抗性鲁棒性的已知方法之一,而剪枝和量化等压缩技术则可以减小网络的大小同时保持准确性。本研究总结了现有证据并讨论了观察到的效果可能的解释。
Nov, 2023
通过稳健优化方法探究神经网络对抗攻击的鲁棒性,设计出对抗攻击和训练模型的可靠方法,提出对于一阶对手的安全保证,并得到针对广泛对抗攻击的高鲁棒性网络模型。
Jun, 2017
本文研究了网络剪枝策略的扩展,力图在保留网络的鲁棒性的同时设计更紧凑的神经网络,并基于对现有策略的缺陷进行改进,最终在 CIFAR-10 数据集上取得了不俗的成绩。
Jun, 2019
该研究通过运用自蒸馏和信息瓶颈方案,提出新的神经网络剪枝框架,使其可以在保持鲁棒性的情况下压缩其大小并提高训练效率。
Oct, 2022
研究了深度学习算法中存在的对抗性攻击问题,提供了一种新的对抗性训练算法,通过将最小 - 最大问题解释为最优控制问题进行优化,从而大幅度提高训练时间,并通过实验证明了该算法的稳定性和收敛性。
May, 2020
本文研究了基于深度神经网络的分类模型中稀疏性与鲁棒性之间的关系,并理论和实证分析表明,适当的模型稀疏化可以提高非线性 DNN 的鲁棒性,但过度稀疏化会使模型更难抵抗对抗性样本攻击。
Oct, 2018
本篇研究通过分类对抗性攻击和防御方法,提出三类半定界数理优化问题,即对抗 (再) 训练、正则化方法和认证防御,并调查了最近的研究成果和挑战以及展望未来的发展。
Jul, 2020
通过综合考虑模型重塑和输入扰动,本研究首次探讨了实际模型优化的深度学习系统中的多因素对抗攻击问题,并开发了一种名为 “梯度抑制” 的防御技术,能够有效减轻对软硬件导向深度学习的对抗攻击。
Feb, 2018