BriefGPT.xyz
Sep, 2024
增加批量大小和学习率加速随机梯度下降
Increasing Both Batch Size and Learning Rate Accelerates Stochastic Gradient Descent
HTML
PDF
Hikaru Umeda, Hideaki Iiduka
TL;DR
本研究解决了小批量随机梯度下降(SGD)在批量大小和学习率设置上的不足,以减少深度神经网络训练中的经验损失。提出了四种调度器的理论分析,发现使用批量大小和学习率同时增加的调度器能够更快地减小经验损失的全梯度范数,具有显著的加速效果。
Abstract
The performance of mini-batch
Stochastic Gradient Descent
(SGD) strongly depends on setting the
Batch Size
and
Learning Rate
to minimize t
→