通过引入层次循环神经网络优化算法和基于元学习的小任务集,实现了一个新的学习梯度下降优化器,解决了在更大的问题上扩展能力不足和泛化能力受限问题,并在ImageNet数据集上通过数千步为Inception V3和ResNet V2架构进行了优化。
Mar, 2017
本文分析了当学习模型(例如神经网络)本身是优化器时所发生的学习优化类型,称之为mesa-optimization。我们认为,mesa-optimization的可能性对于先进机器学习系统的安全性和透明度提出了两个重要问题。第一,什么情况下学习模型会成为优化器,包括不应成为优化器的情况?第二,当学习模型是优化器时,它的目标将是什么,它将如何不同于它所训练的损失函数,如何进行对齐?本文对这两个主要问题进行了深入分析,并提供了未来研究的主题概述。
Jun, 2019
本文证明了优化器比较对超参数调整协议的敏感性,提出探究搜索空间是解释当前文献中最新动态排名的最重要因素之一,并展示实验结果证明了目前广泛使用的自适应梯度方法永远不会劣于动量或梯度下降。
Oct, 2019
本文讲述了利用神经网络参数化的层次优化器提供自动正则化的能力,从而可以训练多种问题的通用学习优化器,可适应超参数和架构的变化,且适用于自我训练等需要解决分布问题的任务。
Sep, 2020
本研究采用了训练技巧来改善L2O模型的实际表现。我们提出了一种渐进式训练方案来缓解L2O模型中截断偏差和梯度爆炸之间的困境,并利用离策略模仿学习来引导L2O学习。结果表明,即使是最简单的L2O模型也可以通过这种改进的训练技巧在许多任务上胜过最新的复杂L2O模型。
Oct, 2020
为了解决学习优化器广泛采用上的一些问题,研究提出了一种混合更新的优化策略,结合了手动设计的优化器,它稳定了训练过程,提高了测试性能,经过17项任务验证证明了它的优越性。
May, 2023
深度学习中优化的关键问题是通过学习优化器来加速优化过程,但其稳定性、泛化性仍存在问题。本研究通过分析网络架构对优化轨迹和参数更新分布的影响,研究并对比手动设计和学习优化器的优缺点,提出了关键见解。
Dec, 2023
通过识别经典算法服从的关键原则并将其用于优化学习(L2O)中,我们提供了一个综合设计流程,以数据、架构和学习策略为考虑因素,从而实现经典优化与L2O之间的协同,形成了学习优化算法的理念。通过设计一种新的增强学习BFGS算法并提供数值实验证明其在多种测试环境中的适应性,我们展示了这些新原则的成功。
May, 2024
本研究针对现有学习型优化器在广泛应用中的不足,提出了一种新的方法,通过专门化优化器来适应特定的训练环境。结果表明,该专门优化器在图像分类任务中显著优于传统优化方法及现有一般学习优化器,且具备良好的泛化能力,对模型初始化与未见数据集的表现尤为突出。
Aug, 2024
本研究解决了现有学习优化器在普适性上的不足,通过针对特定训练环境专门设计优化器,提出了一种新的优化技术,该技术能够根据基础优化器提供的更新方向,学习层特定的线性组合。在图像分类任务中,这种专门化优化器显著优于传统的优化方法,如Adam,并且在模型初始化、未见数据集和超出元训练范围的训练时长方面表现出强大的泛化能力。