该研究提出了一种名为 AutoLRS 的自适应学习率优化方法,使用贝叶斯优化自动调整神经网络中的学习率,能够显著提高训练的效率和准确性。
May, 2021
本文提出了一种有效的 LR 调试算法,其中包括自适应的预热和预定义的衰减,通过高斯过程平滑的在线检查方法可以有效地训练具有大批次大小的神经网络。
Jul, 2021
本文介绍了一种名为 “循环学习率” 的新方法,它可以消除实验找到全局学习率的最佳值和时间表的需要,从而在分类准确度方面取得了提高。此外,本文还描述了一种估算 “合理边界” 的简单方法。该方法可以应用于训练神经网络,并且已在多个数据集和网络结构上进行了实验。
Jun, 2015
学习率调度与优化算法的收敛性分析、学习率预热和调度优化方法的研究。
Oct, 2023
本文基于 LRBench 系统对 13 种学习率函数以及相应的学习率策略进行研究,提出了一组评估和选择学习率策略的度量标准,包括分类置信度、方差、成本和鲁棒性,表明 LRBench 辅助用户选择好的学习率策略,避免训练深度神经网络时出现不良策略。
Aug, 2019
本文针对深度学习中的非凸随机优化问题,提出了适当的学习率,并使用自适应学习率优化算法(如 Adam 和 AMSGrad),可以近似问题的固定点,同时保证这些算法可以近似凸随机优化问题的全局最小值,在文本和图像分类的实验中,采用不同的学习率优化算法,结果表明使用恒定学习率性能比衰减学习率的性能更佳。
Feb, 2020
本文提出了一种优化方法以训练深度神经网络,该方法使用适应性学习率,以增加函数曲率低点的学习率。这可以加快网络浅层的学习,快速退出高误差低曲率鞍点,提高标准算法的准确性并减少所需的训练时间。
Oct, 2015
本研究提出一种新的学习率自适应算法来解决 Hypergradient 优化算法在处理大规模数据集和验证集上的表现问题,实验证明该算法在速度和精度上都能超越现有的优化算法。
Oct, 2022
本文从超参数优化的角度研究了适应特定任务的学习率进度的拟合问题,并通过介绍超梯度的梯度结构,提出了 MARTHE 算法,它能够使用优化轨迹中的过去信息来模拟未来的行为,从而插值最近的两种技术,从而产生更加稳定、泛化能力更强的学习率进度。
Oct, 2019
我们提出了一种具有鲁棒性、适用于批量和随机梯度下降的学习率的非线性更新规则,该方法可实现基于梯度观察的学习率逐步降低,最终达到高效收敛。
Mar, 2018