Jun, 2023

分布式鲁棒优化下的随机重新加权梯度下降

TL;DR本研究提出了一种基于 $f$-divergences 的分布式鲁棒最优化重加权梯度下降技术,通过数据点的重要性加权来提高深度神经网络的性能,该方案具有简单和高效等特点,可用于任何受欢迎的优化算法,并可在诸如分类、噪声标签、领域适应和表格表示学习等各种任务中提高性能。该方法在 DomainBed 和 Tabular 基准测试中的表现比 SOTA 提高了 0.7% 和 1.44%,对 GLUE 基准测试中的 BERT 表现提升了 1.94%,对 ImageNet-1K 中的 ViT 表现提升了 0.9%,证明了该方法的有效性和潜力。