Mar, 2024
重新审视随机参数扰动以有效地提升泛化能力
Revisiting Random Weight Perturbation for Efficiently Improving
Generalization
TL;DR通过对随机权重扰动的目标进行最小化以提高泛化能力的研究表明,改进深度神经网络(DNNs)的泛化能力是机器学习中的一个基本挑战。通过两个分支方法提出了分别由锋利度感知最小化(SAM)和随机权重扰动(RWP)引导的方法,通过对最差情况邻域损失进行最小化来改进泛化能力。然而,RWP在计算上具有优势,并在数学基础上与AWP密切相关,但其实证效果始终落后于AWP。本文重访RWP的使用方式,并从两个角度提出改进策略:i)泛化和收敛性之间的权衡,ii)随机扰动生成。通过大量实验评估,我们证明了我们增强的RWP方法在提升泛化能力方面具有更高的效率,特别是在大规模问题上,并且在性能方面与SAM相当,甚至更优越。