优化器合并
通过提出一种名为 PDHG-Net 的 FOM 展开神经网络并结合学习优化的方法,以及两阶段的 L2O 方法,我们在解决大规模 LP 问题方面取得了显著加速并获得多项式级神经元数的近似最优解。
Jun, 2024
通过识别经典算法服从的关键原则并将其用于优化学习(L2O)中,我们提供了一个综合设计流程,以数据、架构和学习策略为考虑因素,从而实现经典优化与 L2O 之间的协同,形成了学习优化算法的理念。通过设计一种新的增强学习 BFGS 算法并提供数值实验证明其在多种测试环境中的适应性,我们展示了这些新原则的成功。
May, 2024
学习优化(L2O)介于传统优化和机器学习的交叉点,利用机器学习的能力增强传统优化技术,通过考虑实际应用的前提和优化问题的结构,提供了一个综合指南,加速优化算法并适应更加真实的应用。
May, 2024
机器学习模型通过训练来预测双重解估计,并从中构建原始估计,以形成双重可行解对。通过采用来自实际增广 Lagrangian 方法的技术,该训练方案可以改进,从而学习高度准确的有约束优化求解器,适用于凸和非凸问题。
Mar, 2024
本文聚焦于改进高维昂贵黑匣子优化的学习优化框架,并提出一种基于廉价代理函数和进化算法机制的新框架 B2Opt,相比黑匣子优化基准测试,B2Opt 能够实现 3 到百万倍的性能提升。
Apr, 2023
该论文研究了学习优化(L2O)在新领域中的迁移性问题,并提出了一种元训练的 L2O 优化器解决方案,可以快速适应新任务。在经典任务上的实验证明了该方案的可行性。
Feb, 2023
该论文证明了引入符号回归到 Learning to Optimize (L2O) 中的概念可以避免可扩展性和可解释问题,提出了一种基于符号回归的 L2O 模型并证明了其有效性。
Mar, 2022
该论文研究了利用神经网络在 robust combinatorial optimization 中解决 minimax optimization 问题的新方法 Learning for Robust Combinatorial Optimization (LRCO),并通过在车载边缘计算中解决任务分配问题进行模拟,证明了 LRCO 能够大大减少最坏情况的成本和提高鲁棒性,同时具有非常低的运行时复杂度。
Dec, 2021