CVPRMar, 2024

重温长尾分布下的对抗训练

TL;DR深度神经网络在对抗攻击中易受攻击,现有的对抗训练方法在平衡数据集上表现良好,但实际情况中长尾分布的数据样本下该方法的有效性存疑。本文研究了长尾分布下的对抗训练,发现仅利用平衡 Softmax 损失函数可以在降低训练开销的同时达到与之前方法相当的性能;此外,通过数据增强技术,我们发现长尾分布下的对抗训练不仅可以减轻过拟合问题,而且可以显著提高鲁棒性;我们还发现增加训练样本的多样性是提高鲁棒性的原因。在 CIFAR-10-LT 上的 AutoAttack 中,与 RoBal 相比,平衡 Softmax 损失函数与数据增强的组合能够使模型的鲁棒性提高 6.66%。