- CVPR带有 Dropout 调度的单步对抗训练
该研究论文主要讨论了深度学习模型在计算机视觉等领域中的应用,以及由于鲁棒性不足而面临的对抗攻击问题,提出了单步对抗性训练方法及其存在的问题,并针对该问题提出了多步鲁棒性训练方法,并通过实验证明该方法得到的模型具有较强的鲁棒性。
- ICLR在对抗性环境下重新审视集成:提高自然精度
为了提高深度学习模型在实际应用中对小型对抗扰动的抵抗力和非恶意输入的准确性,我们考虑了一些集成方法,关键洞见在于训练模型以抵御小型攻击的模型在集成时可以承受更大的攻击,并且可以通过这个概念来优化自然准确性。我们考虑了两种方案,一种是从几个随 - 对抗鲁棒模型的好奇案例:更多的数据可以帮助,双下降,还是伤害泛化能力
本文研究对抗训练在分类问题的应用,发现更多的训练数据可能会损害对抗准确性模型的泛化能力,特别在存在强对抗时更加明显,给出了针对线性和二维分类问题的实验支持。
- 关于对抗性样本防御的自适应攻击
本文探讨了 13 种已在相关会议上发表的对抗性防御方法对抗自适应攻击方法的实验结果,发现这些方法在实际运用中并不完善,因此提出了一种可行的自适应攻击方法,希望能够为研究更为健壮的防御模型提供指导。
- 单步对抗训练正则化方法
该论文提出了三种新的正则化方法,用于单步对抗训练,以解决模型的伪鲁棒性问题,并在机器学习、计算机视觉等领域取得与经过复杂多步训练的模型相当的性能。
- ICLRMACER: 通过最大化认证半径实现免攻击和可扩展的强健训练
本文提出 MACER 算法,学习鲁棒模型而无需使用对抗训练,适用于现代深度神经网络的广泛数据集,并比所有现有的可证明的 L2 防御性能更好。
- 使用卷积神经网络学习表征进行 Cover 歌曲识别
本文提出了一种基于卷积神经网络的新型架构,用于解决音乐信息检索中的 Cover Song Identification 问题,随着分类策略的应用,该网络可训练出对节奏变化具有鲁棒性的模型,实验证明该方法在解决 cover song iden - 通过对抗数据集中控制方差分析泛化能力的多样化数据集
本文提出将现象特定的 “对抗” 数据集用于训练 NLI 和其他类型的模型,表明了原始训练数据中的 “盲区”,并演示了用两个推理现象对该方法进行扩展来推动模型学习和推广目标现象的能力,从而建立更好的挑战数据集以创建更强大且更具鲁棒性的模型。
- EMNLP对抗性词语替换的可验证鲁棒性
本文利用 Interval Bound Propagation(IBP)训练了第一个能够抵御包括词语替换在内的 label-preserving 转换攻击的 NLP 模型,该模型在情感分析与自然语言推理任务上取得了 75% 的对抗准确率,远 - AAAI通用对抗训练
本文研究的是生成通用对抗扰动和抵御这类扰动的有效方法,提出了一种简单的基于优化的通用攻击方法来降低各种网络的 ImageNet 上的准确性,并提出了一种通用对抗性训练来生成抗干扰的分类器。
- ECCV灰盒对抗训练
本文介绍了对抗性训练及其在构建鲁棒模型方面的应用,提出了新型白盒和黑盒攻击,即灰盒对抗攻击,提出了一种新颖的模型鲁棒性评估方法,并提出了一种新型的对抗性训练:灰盒对抗训练,其使用模型的中间版本来引导敌手生成更加有效的对抗样本,实验证明此方面 - ICML具有贝叶斯数据重新加权的强健概率建模
本研究提出了一种方法,通过将每个观察的可能性变为一种权重,从数据中推断连续变量和权重,以检测和减轻大量概率模型的不匹配性,并明确不同类型的不匹配性对模型的影响与表现,这有助于提高模型的鲁棒性和预测准确性。
- 对抗样本的统一梯度正则化方法族
本文提出了一种统一框架来构建抵御对抗样本的强大机器学习模型,并通过梯度正则化方法有效地对代价函数的梯度进行惩罚,从而达到鲁棒性的目的。实验证明,该方法在两个基准数据集上达到了最佳精度。