本篇论文提供了多方面的双层优化算法收敛速度分析,包括问题和算法两个方面,提出了更加高效可扩展的算法设计,并最终提出了新的随机双层优化算法降低了实践中的复杂度并提高其效率。
Jul, 2021
研究了分散设置下非凸强凸双层优化问题,在确定性和随机双层优化问题上设计了分散算法。分析了算法的收敛速度,包括在代理间观察到数据异构性的情况。通过对合成和真实数据的数值实验表明,所提出的方法是有效的。
Jun, 2022
该论文从两个方面揭示双层优化的收敛率:提出首个双层加速优化器 AccBiO 并给出无梯度边界假设的复杂度上限,同时得出更紧的下限。此外,论文还证明在某些情况下,双层优化比极大极小问题更具有挑战性。关键词包括双层优化、收敛率、下限复杂度、AccBiO 和二次型条件数。
Feb, 2021
本文提出了一种使用 Bregman 距离、具有低计算复杂度的增强型双层优化方法 BiO-BreD 和 SBiO-BreD,以解决双层优化问题,该问题的外部子问题非凸且可能非光滑,内部子问题强凸。通过数据超清理任务和超表征学习任务,证明了所提出的算法优于相关的双层优化方法。
本文针对双层 (随机) 优化问题,探讨了梯度下降方法的算法稳定性与泛化误差之间的基本联系,并在一般性情形下给出了稳定性界限的分析,通过实验证明了迭代次数对泛化误差的影响。
Oct, 2022
在本论文中,我们提出了一种新的快速自适应双层框架 (BiAdam) 来解决随机双层优化问题,其中外层问题可能是非凸的,内层问题是强凸的。使用统一自适应矩阵,包括多种自适应学习率,并可灵活使用动量和方差减少技术。同时,我们提出了 BiAdam 算法和 VR-BiAdam 算法,这两种算法的采样复杂度分别为 O(1 /epsilon ^ 4)和 O(1 /epsilon ^ 3)。实验证明了我们算法的高效性。
Jun, 2021
设计了一种名为 BO-REP 的新的双层优化算法,用于解决具有潜在无界平滑性的神经网络在双层优化问题中的挑战。证明了在随机环境下,该算法需要大约 1/ε^4 次迭代来找到一个 ε- 稳定点,结果与有界平滑度设置和没有均方平滑性的随机梯度的最新复杂度结果相匹配。实验证明了所提出算法在超表征学习、超参数优化和文本分类任务中的有效性。
Jan, 2024
通过使用与规则化 RL 相关的固定点方程,我们以全一阶信息表征超梯度,从而回避了对低级凸性的假设,并提出了基于模型和无模型的双层强化学习算法,都被证明具有收敛速度 O (ε^(-1))。
May, 2024
提出了一种推广后的交替优化方法(GALET)用于双层优化问题,可以适用于具有非凸下层目标函数的问题,并具有与一阶梯度下降相同的收敛速度。
Jun, 2023
本篇研究提出 Differentiating through Bilevel Optimization Programming (BiGrad) 模型,旨在将 Bi-level Programming 加入到神经网络中,通过类别估计算法以降低计算复杂度并支持对于连续变量的处理。实验结果表明,该模型成功地将传统单层方法扩展到了 Bi-level Programming
Feb, 2023