本研究通过使用多个强健度和成功率等措施,在 306 个模型对之间全面测试了 18 个 ImageNet 模型,并揭示了若干新的见解:(1)在分类错误的对数下,经验 L2 和 L∞扭曲度量呈线性比例律;(2)模型架构比模型尺寸更重要;(3)对于相似的网络架构,略微增加网络深度可在 L∞扭曲度上提高强健性;(4)存在具有高度敌对可转性的模型,而从一个模型制造的大多数敌对示例仅可以在同一家族内转移。
Aug, 2018
该研究提供了实证和理论证据表明对抗鲁棒性和图像损坏鲁棒性研究项目之间存在紧密联系,从而建议未来的对抗性防御应该考虑评估它们的方法对分布转移的鲁棒性。
Jan, 2019
本研究旨在建立一个全面、严谨、连贯的标准来评估对抗性鲁棒性,通过两个鲁棒性曲线作为公正的评估标准来进行大规模实验,全面掌握攻击与防御方法的表现并得出重要结论和未来研究的启示。
Dec, 2019
本文研究在简单自然数据模型中,对抗鲁棒学习的样本复杂度可以显著大于标准学习,这个差距是信息理论的,且与训练算法或模型家族无关。作者做了一些实验来证实这个结果。我们可以假设训练鲁棒分类器的困难,至少部分来自这种固有的更大的样本复杂度。
Apr, 2018
通过稳健优化方法探究神经网络对抗攻击的鲁棒性,设计出对抗攻击和训练模型的可靠方法,提出对于一阶对手的安全保证,并得到针对广泛对抗攻击的高鲁棒性网络模型。
Jun, 2017
该研究提出了一个确定深度学习模型标签更改是否合理的框架,并且定义了一个自适应的鲁棒性损失,使用导出的经验公式,开发了相应的数据增强框架和评估方法,证明了其对确定性标签下的一阶最近邻分类的维持一致性,并提供了实证评估结果。
Jun, 2021
该研究论文综述了深度学习模型对抗鲁棒性的研究主题和基本原则,包括攻击、防御、验证和新应用。
Feb, 2022
本文研究深度学习中的对抗样本问题,认为过度自信的模型更容易受到对抗样本的攻击,通过将鲁棒性与非校准模型置信度结合, 提供一种不需要数据增强的前进路径,探究对抗样本现象的成因并阐述了测试准确度与真实泛化性能之间的区别以及过拟合与随机效应的关系。
Feb, 2018
本文通过经验研究,在对抗训练的模型中发现了分类的精度和稳健性存在类间差异,包括在通常的训练模型中也存在差异。同时,本文还探讨了解决这种类间差异的可能技术和方法。
Oct, 2020
该论文提出了一种基于生成对抗网络 (GAN) 框架下的新防御机制来对抗黑盒攻击,在经验上表现良好并能与利用梯度下降的集成对抗训练和对抗训练等最先进的方法媲美。
May, 2019