通过曲率正则化实现对抗鲁棒的数据集精炼
本文研究了对抗训练对分类景观和决策边界几何形态的影响,展示了对抗训练导致的输入空间曲率减少及网络更“线性”行为的结果。我们提出一个直接最小化损失面曲率的新的规则化方法,并提供了理论上的证据表明大鲁棒性与小曲率之间存在强关联。
Nov, 2018
本文研究知识蒸馏过程中,如何将教师神经网络的鲁棒性传递给学生神经网络,并提出一种称为 Adversarially Robust Distillation (ARD) 的方法。实验证明,采用 ARD 的学生模型在鲁棒性上的表现明显优于采用相同结构的敌对训练网络,并在标准鲁棒性基准测试中超越了当前最先进的方法。
May, 2019
提出了一种使用二次近似的拟合函数的新型规则化器,并通过迭代计算逼近最坏情况二次损失,从而在具有良好的鲁棒性的同时避免了梯度混淆和降低了训练时间。实验证明,该模型产生的人类可解释性特征优于其他几何正则化技术,并且这些鲁棒特征可用于提供人性化的模型预测解释。
Sep, 2020
本文提出了一种通过优化辅助一致性规则损失来避免鲁棒过度拟合的有效正则化技术,在 Adversarial training 过程中使用数据扩增来强制攻击后的预测分布相似。实验结果表明,这种简单的方法可以显著提高各种 AT 方法的测试准确性,并对模型作出更具实际意义的泛化。
Mar, 2021
本研究使用了知识蒸馏的概念来提高小模型的鲁棒性,旨在改善在存储或计算资源非常有限的情况下对小型模型的有效性。通过使用Robust Soft Label Adversarial Distillation(RSLAD)来训练鲁棒的小学生模型,完全利用了由Robust(对抗训练)大教师模型产生的鲁棒软标签来引导学生的学习。该方法在提高小型模型对AutoAttack等最先进攻击的鲁棒性方面表现出优异的效果,并为对抗鲁棒性蒸馏的Robust Soft标签的重要性提供了一组理解。
Aug, 2021
使用间接梯度蒸馏模块(IGDM)通过匹配学生的输入梯度和教师的输入梯度来改善对抗性模型的性能,实验证明 IGDM 与现有的蒸馏方法无缝集成,显著提高了所有蒸馏方法的性能。
Dec, 2023
用单层优化的对抗性框架,从大型原始数据集中提取关键信息以合成更小的精简数据集并保持效果,可以在最小的GPU内存消耗下获得高测试准确率并在跨架构泛化中表现出优越性。
Dec, 2023
通过结合聚类和风险度量的最小化算法,实现数据集精炼,具备对子群体的有效泛化和稳健性,为解决合成数据集在面对低人口密度地区样本时表现优秀的问题提供了理论依据和数值实验验证。
Feb, 2024
数据集蒸馏是一种高级技术,旨在将数据集压缩为较小的对应物,同时保持强大的训练性能。本研究引入了一个全面的基准,用于评估统一方式下研究到目前为止最广泛的蒸馏数据集的对抗鲁棒性。通过结合更广泛的数据集蒸馏方法、包括TESLA和SRe2L等最新进展,多样化的对抗攻击方法,以及对ImageNet-1K等更广泛和更全面的数据集的评估,我们的基准在之前的努力基础上显著扩展。此外,我们评估了这些蒸馏数据集对抗性攻击算法(如PGD和AutoAttack)的鲁棒性,并从频率视角探索了它们的弹性。我们还发现,将蒸馏数据融入原始数据集的训练批次可以提高其鲁棒性。
Mar, 2024