通过稳健优化方法探究神经网络对抗攻击的鲁棒性,设计出对抗攻击和训练模型的可靠方法,提出对于一阶对手的安全保证,并得到针对广泛对抗攻击的高鲁棒性网络模型。
Jun, 2017
本文提出了一种名为 “deep defense” 的训练方法来解决深度神经网络易受到对抗样本攻击的问题,通过将对抗扰动的正则化器与分类目标相结合,得到的模型能够直接且准确地学习抵御潜在的攻击,实验证明该方法在不同数据集上对比对抗 / Parseval 正则化方法有更好的效果。
Feb, 2018
通过对深度学习模型的鲁棒性进行实验评估,我们的研究旨在揭示模型修改对深度学习模型的可靠性和安全性在安全和保密关键应用中的重要性。
May, 2024
该研究论文综述了深度学习模型对抗鲁棒性的研究主题和基本原则,包括攻击、防御、验证和新应用。
Feb, 2022
本文提出了一种基于实践观察的新的防御方法,旨在强化深度神经网络的结构,提高其预测稳定性,从而更难受到针对性攻击,并在多种攻击实验中证明了该方法的有效性,相比其他防御方法具有更好的表现,而且在训练过程中的开销几乎可以忽略不计。
Jul, 2017
文章讨论了不同类型的威胁模型下的敌对攻击,以及近期对抗这些攻击的有效方法和挑战,以提高深度学习算法的鲁棒性。
Sep, 2018
本研究旨在建立一个全面、严谨、连贯的标准来评估对抗性鲁棒性,通过两个鲁棒性曲线作为公正的评估标准来进行大规模实验,全面掌握攻击与防御方法的表现并得出重要结论和未来研究的启示。
Dec, 2019
提出了一种基于深度学习的方法来检测最易受到对抗攻击的样本,并且通过不同的模型和攻击方法进行评估。理解样本易受攻击性对未来研究中的样本选择任务具有重要意义。
Jan, 2023
深度学习模型对抗攻击和防御的鲁棒性的综合实验研究表明,模型复杂度和鲁棒性之间存在显著关系,并且应用防御策略可以显著减少攻击效果。
本文研究了对抗训练的对抗攻击容忍性与隐私攻击容忍性之间的关系,通过对 CIFAR-10 数据集进行三种不同类型的模型反演攻击,揭示了对抗训练模型输入空间存在的问题。
Jun, 2019