Neur2BiLO: 神经双层最优化
本文提出了使用图神经网络解决双层背包问题的深度学习方法,该方法通过训练模型来预测领导者的解决方案,从而将层次优化问题转化为单层优化问题,我们的模型找到的可行解比精确算法快了约 500 倍,并且在训练大小不同的问题上表现良好。
Nov, 2022
本篇研究提出 Differentiating through Bilevel Optimization Programming (BiGrad) 模型,旨在将 Bi-level Programming 加入到神经网络中,通过类别估计算法以降低计算复杂度并支持对于连续变量的处理。实验结果表明,该模型成功地将传统单层方法扩展到了 Bi-level Programming
Feb, 2023
我们介绍了一种新的功能性观点,用于机器学习领域的双层优化问题,其中内部目标函数在函数空间上最小化。我们提出了可扩展和高效的算法来解决这个功能性双层优化问题,并且通过在仪器回归和强化学习任务上展示了我们方法的优点。
Mar, 2024
本篇论文提供了多方面的双层优化算法收敛速度分析,包括问题和算法两个方面,提出了更加高效可扩展的算法设计,并最终提出了新的随机双层优化算法降低了实践中的复杂度并提高其效率。
Jul, 2021
探讨了基于梯度的算法对二层次优化的隐含偏差,阐明了冷启动和热启动的两种标准方法,并阐述了这些和其他算法选择(如超梯度逼近)对收敛解决方案或长期行为的影响。此外,还表明了热启动 BLO 获得的内部解可以编码关于外部目标的大量信息,即使外部参数是低维的。
Dec, 2022
研究了分散设置下非凸强凸双层优化问题,在确定性和随机双层优化问题上设计了分散算法。分析了算法的收敛速度,包括在代理间观察到数据异构性的情况。通过对合成和真实数据的数值实验表明,所提出的方法是有效的。
Jun, 2022
该论文从两个方面揭示双层优化的收敛率:提出首个双层加速优化器 AccBiO 并给出无梯度边界假设的复杂度上限,同时得出更紧的下限。此外,论文还证明在某些情况下,双层优化比极大极小问题更具有挑战性。关键词包括双层优化、收敛率、下限复杂度、AccBiO 和二次型条件数。
Feb, 2021
我们的论文研究了具有耦合约束的双层优化问题,并开发了一种名为 BLOCC 的(完全)一阶算法,实现对这一具有挑战性但较少被探索的场景的解决。我们为所提算法建立了严格的收敛理论,并通过使用塞维利亚城市的真实数据,对 SVM 中的超参数选择和交通网络的基础设施规划这两个知名的实际应用进行了有效性验证。
Jun, 2024