面向对抗攻击具有抵抗能力的深度学习模型
提出了一个使用鲁棒性优化(RO)增加人工神经网络(ANN)本地稳定性的通用框架。该算法是通过替代最小化-最大化过程实现的,该网络的损失是在每个参数更新时生成的扰动样本上最小化的。实验结果表明,该方法提高了网络对现有敌对示例的鲁棒性,同时使生成新的敌对示例更加困难,而且该算法还提高了网络在原始测试数据上的准确性。
Nov, 2015
本文研究了针对对抗性样本的最新的防御方法和评估对抗性鲁棒性的方法,提出了“对抗风险”作为实现模型鲁棒性的目标,并将常用的攻击和评估度量框架化为真正的对抗风险的可行替代目标,指出模型可能会优化该替代目标而不是对抗风险,发展了识别混淆模型和设计透明模型的工具和启发式方法,并通过重新调整梯度自由优化技术为对抗攻击来证明这在实践中是一个重大问题,这被用于将几个最近提出的防御的准确性降低到接近零。我们希望我们的公式和结果能够帮助研究者开发更强大的防御措施。
Feb, 2018
该论文提出了一种基于生成对抗网络(GAN)框架下的新防御机制来对抗黑盒攻击,在经验上表现良好并能与利用梯度下降的集成对抗训练和对抗训练等最先进的方法媲美。
May, 2019
通过分析决策空间中的模型鲁棒性,提出一种反馈学习方法,以了解模型的学习情况,促进纠正缺陷的重新训练过程。根据一组基于距离的准则进行的评估表明,我们的方法可以显著提高模型的准确性和对各种逃逸攻击的鲁棒性,同时观察到跨类不平等的存在,并提出通过改变不同类别中生成的示例的比例来弥补它。
Sep, 2019
深度学习领域的对抗攻击和防御是目前研究的活跃领域。本文针对防御方法进行分类,提出了不同的分类方法:通过增加特征向量的类内紧凑性和类间分隔性来提高对抗鲁棒性,减小或移除非鲁棒图像特征来提高对抗鲁棒性。通过这种重新构架话题的方式,提供了新的视角,深入探讨使网络变得更加强健的潜在因素,启发了更多的解决方案。此外,文献中有一些关于对抗防御成本问题和鲁棒性与准确性之间的权衡的论述,但我们提出的分类方法可以解决这些问题。本文提出了几项挑战,以此推动深度学习研究的进一步发展。
Oct, 2019
本篇研究通过分类对抗性攻击和防御方法,提出三类半定界数理优化问题,即对抗(再)训练、正则化方法和认证防御,并调查了最近的研究成果和挑战以及展望未来的发展。
Jul, 2020
本文提出了一种用于评估内部最大值的解决方法——FOSC,以量化评估在内部最大化期间找到的对抗性例子的收敛质量,结果表明,在训练后期使用收敛质量更好的对抗性例子是确保更好的稳健性所必需的,而在训练初期,高收敛质量的对抗性例子则并不是必需的,甚至可能导致差的鲁棒性,因此,我们提出了一种渐进式的动态训练策略,逐步提高生成的对抗性例子的收敛质量,从而显著提高了对抗训练的鲁棒性。
Dec, 2021
通过分析正常和对抗攻击样本的深度神经网络表示之间的差异,研究了对抗攻击的鲁棒性和现有防御机制的普适性,并揭示了L2和Linfinity范数之间的显著差异。
Aug, 2023