Sep, 2024

增加批量大小和学习率加速随机梯度下降

TL;DR本研究解决了小批量随机梯度下降(SGD)在批量大小和学习率设置上的不足,以减少深度神经网络训练中的经验损失。提出了四种调度器的理论分析,发现使用批量大小和学习率同时增加的调度器能够更快地减小经验损失的全梯度范数,具有显著的加速效果。