Feb, 2024

AdaBatchGrad: 组合自适应批量大小和自适应步长

TL;DR这篇论文介绍了一种新颖的随机梯度下降法(SGD)的改进方法,称为AdaBatchGrad。该方法通过集成自适应步长和可调整批大小,提高了SGD的收敛性和稳定性。通过实验证明,引入自适应步长和批大小大大提高了正常SGD的性能,使得AdaBatchGrad方法在非精确测试中表现更好。