通过提出综合强健的(HR)训练程序,理论和实验证明了其在对抗错误损失方面具有 SOTA 性能,并克服了在敌对训练中普遍存在的过度拟合问题。
Mar, 2023
通过比较差异数据集,本研究阐述了敌对训练中稳健过度拟合的成因,并提出了一种名为最小化损失约束敌对训练 (MLCAT) 的算法,利用一些本不应考虑的数据,避免过度拟合问题,并且增强对抗鲁棒性。
Jun, 2022
本研究发现,在单步对抗训练中,数据结构与训练动态之间的相互作用对于灾难性过拟合现象具有重要作用,这为理解构建强健模型的一般动态提供了新的洞见。
提出了一种使用二次近似的拟合函数的新型规则化器,并通过迭代计算逼近最坏情况二次损失,从而在具有良好的鲁棒性的同时避免了梯度混淆和降低了训练时间。实验证明,该模型产生的人类可解释性特征优于其他几何正则化技术,并且这些鲁棒特征可用于提供人性化的模型预测解释。
Sep, 2020
本文通过实验研究快速对抗训练的行为并显示其成功的关键在于从过度拟合弱攻击中恢复。我们进一步扩展了这一发现以改善快速对抗训练,展示了与强对抗训练相比更优异的鲁棒性准确性以及更短的训练时间。
Jun, 2020
本文提出了一种通过优化辅助一致性规则损失来避免鲁棒过度拟合的有效正则化技术,在 Adversarial training 过程中使用数据扩增来强制攻击后的预测分布相似。实验结果表明,这种简单的方法可以显著提高各种 AT 方法的测试准确性,并对模型作出更具实际意义的泛化。
Mar, 2021
本文提出了一个名为 A2 的高效自动攻击者,它能够在训练过程中实时生成最优扰动,并证实其强制扰动能够有效提高不同数据集上各种对抗训练方法的鲁棒性。
Oct, 2022
本篇论文阐述了对于神经网络存在攻击的情况下,如何通过对抗训练和小样本训练方法,提高模型的鲁棒性。
Dec, 2021
通过引入一种名为 “忘却以减轻过拟合(FOMO)” 的新型学习范式,交替进行随机遗忘权重子集和重新初始化权重的调节,以及强调学习可泛化特征的学习阶段,FOMO 成功缓解了强健过拟合问题,显著减小了最佳和最后的强健测试准确率之间的差距,并提高了最先进的鲁棒性,在标准准确性和鲁棒准确性之间提供了更好的权衡正。此外,FOMO 对 AutoAttacks 具有鲁棒性,并在许多实际情境中提高了泛化能力。
Feb, 2024
该研究论文探讨了对抗训练中的鲁棒性过拟合现象及其与扰动诱导分布的泛化困难性之间的相关性,提供了一个新的上界,其中称为 “局部离散性” 的扰动算子发挥了重要作用。
Nov, 2023