该研究论文综述了深度学习模型对抗鲁棒性的研究主题和基本原则,包括攻击、防御、验证和新应用。
Feb, 2022
通过稳健优化方法探究神经网络对抗攻击的鲁棒性,设计出对抗攻击和训练模型的可靠方法,提出对于一阶对手的安全保证,并得到针对广泛对抗攻击的高鲁棒性网络模型。
Jun, 2017
该研究提出了一种测试方法以识别弱攻击和防御评估,为了增强透明和信心,将攻击单元测试作为未来强度评估的重要组成部分。
Jun, 2022
近年来,对神经网络的稳健性评估引起了极大关注,深度学习的稳健性问题特别突出,研究人员致力于在图像识别任务中评估稳健性,在此综述中,我们对神经网络评估中敌对稳健性和扰动稳健性进行了详细研究,分析当前研究和标准,提供了图像识别中稳健性评估的广泛概述,分析了概念、度量标准和评估方法,研究了用于度量图像扰动程度的扰动度量和范围表示,以及特定于分类模型稳健性条件的稳健度量,还讨论了现有方法的优势和局限性,并提供了一些未来研究的潜在方向。
Apr, 2024
该研究提出了一种定量指标来评估神经网络模型的内在稳健性,并通过损失可视化的方式解释了对抗攻击和防御机制。该指标具有快速生成、结构和参数规模无关、可靠性高的优点,并提供了一种相对于不同测试设置不变的评估方法。
May, 2019
本文提出了一种名为 “deep defense” 的训练方法来解决深度神经网络易受到对抗样本攻击的问题,通过将对抗扰动的正则化器与分类目标相结合,得到的模型能够直接且准确地学习抵御潜在的攻击,实验证明该方法在不同数据集上对比对抗 / Parseval 正则化方法有更好的效果。
Feb, 2018
文章讨论了不同类型的威胁模型下的敌对攻击,以及近期对抗这些攻击的有效方法和挑战,以提高深度学习算法的鲁棒性。
Sep, 2018
该论文提出了一种基于生成对抗网络 (GAN) 框架下的新防御机制来对抗黑盒攻击,在经验上表现良好并能与利用梯度下降的集成对抗训练和对抗训练等最先进的方法媲美。
本篇研究通过分类对抗性攻击和防御方法,提出三类半定界数理优化问题,即对抗 (再) 训练、正则化方法和认证防御,并调查了最近的研究成果和挑战以及展望未来的发展。
Jul, 2020
通过利用深度卷积神经网络生成对抗性样本,然后比较不同的生成技术在产生图像质量和测试机器学习模型鲁棒性方面的差异,最后在跨模型对抗迁移上进行了大规模实验,研究结果表明对抗性样本在相似的网络拓扑间是可传递的,并且更好的机器学习模型更不容易受到对抗性样本的攻击。
Oct, 2016