学习优化器的简单守卫
通过识别经典算法服从的关键原则并将其用于优化学习(L2O)中,我们提供了一个综合设计流程,以数据、架构和学习策略为考虑因素,从而实现经典优化与 L2O 之间的协同,形成了学习优化算法的理念。通过设计一种新的增强学习 BFGS 算法并提供数值实验证明其在多种测试环境中的适应性,我们展示了这些新原则的成功。
May, 2024
本研究采用了训练技巧来改善 L2O 模型的实际表现。我们提出了一种渐进式训练方案来缓解 L2O 模型中截断偏差和梯度爆炸之间的困境,并利用离策略模仿学习来引导 L2O 学习。结果表明,即使是最简单的 L2O 模型也可以通过这种改进的训练技巧在许多任务上胜过最新的复杂 L2O 模型。
Oct, 2020
该论文研究了学习优化(L2O)在新领域中的迁移性问题,并提出了一种元训练的 L2O 优化器解决方案,可以快速适应新任务。在经典任务上的实验证明了该方案的可行性。
Feb, 2023
本文是第一篇关于连续优化问题的、全面的学习优化(L2O)综述和基准论文。我们对现有方案和研究方向进行分类,并对若干最具代表性的优化问题进行了基准测试。同时,我们在 Open-L2O 包中发布了我们的实现和数据,以进行可重复的研究和公平的基准测试。
Mar, 2021
通过引入自动学习范式,我们介绍了一种新的自动优化多目标优化问题的学习方法,并提出了一种多梯度学习优化(ML2O)方法,通过自动学习多个梯度以更新方向。通过引入新的守卫机制,我们提出了一种守卫多梯度学习优化(GML2O)方法,并证明了 GML2O 生成的迭代序列收敛到一个 Pareto 临界点。实验结果表明,我们学习的优化器在训练多任务学习神经网络方面胜过手动设计竞争对手。
Nov, 2023
介绍了一种数据驱动的方法,利用统计学习理论的泛化保证来分析连续优化算法的性能。研究经典优化器和学习优化器来解决参数优化问题的族群。建立了经典优化器的泛化保证,利用样本收敛界限,以及学习优化器的泛化保证,利用 Probably Approximately Correct (PAC)-Bayes 框架。通过使用基于梯度的算法直接最小化 PAC-Bayes 上界来训练学习优化器。在信号处理、控制和元学习的数值实验中展示了我们的框架能够在固定迭代预算的情况下为经典和学习优化器提供强大的泛化保证。对于经典优化器而言,我们的界限比最坏情况保证的界限要严格得多。对于学习优化器而言,我们的上界优于观察到的非学习对应的实际结果。
Apr, 2024