BiAdam:快速自适应双层优化方法
本篇论文提供了多方面的双层优化算法收敛速度分析,包括问题和算法两个方面,提出了更加高效可扩展的算法设计,并最终提出了新的随机双层优化算法降低了实践中的复杂度并提高其效率。
Jul, 2021
本论文提出了两种新的双层优化算法,第一种采用基于动量的递归迭代算法,第二种采用嵌套循环中的递归梯度估计以减少方差。我们表明,两种算法都实现了 Ω(ε^ -1.5)计算量的复杂度,超越了所有现有算法一个数量级。本文的实验证明了我们算法在超参数优化应用中的优越性能。
Jun, 2021
本文研究非凸强凸双层优化问题,提供了两种基于近似隐式导数和迭代导数的算法以及一种名为 stocBiO 的新型算法,并对它们进行了收敛性分析和比较,实验表明这些优化算法在元学习、超参数优化等方面表现出良好效果。
Oct, 2020
该论文从两个方面揭示双层优化的收敛率:提出首个双层加速优化器 AccBiO 并给出无梯度边界假设的复杂度上限,同时得出更紧的下限。此外,论文还证明在某些情况下,双层优化比极大极小问题更具有挑战性。关键词包括双层优化、收敛率、下限复杂度、AccBiO 和二次型条件数。
Feb, 2021
设计了一种名为 BO-REP 的新的双层优化算法,用于解决具有潜在无界平滑性的神经网络在双层优化问题中的挑战。证明了在随机环境下,该算法需要大约 1/ε^4 次迭代来找到一个 ε- 稳定点,结果与有界平滑度设置和没有均方平滑性的随机梯度的最新复杂度结果相匹配。实验证明了所提出算法在超表征学习、超参数优化和文本分类任务中的有效性。
Jan, 2024
提出了一种异步分布式双层优化 (ADBO) 算法,旨在解决中心化和同步分布式双层优化遇到的难题,可处理具有非凸上下层目标函数的双层优化问题,理论上收敛,并且迭代复杂度上界是 O (1/ε²);通过实验研究验证了 ADBO 的有效性和高效性。
Dec, 2022
我们提出了一类基于镜像下降的高效自适应双层优化方法,用于求解非凸双层优化问题,其中上层问题可能是非凸的且具有非光滑正则化,而下层问题也是非凸的但满足 Polyak-Lojasiewicz 条件。我们提出了一种基于镜像下降的高效自适应投影梯度方法来解决确定性双层问题,并证明其在寻找非凸双层问题的 ε- 稳定解时具有已知最好的梯度复杂度 O (ε^(-1))。为了解决随机双层问题,我们提出了一种基于镜像下降和方差约减技术的高效自适应随机投影梯度方法,并证明其在寻找 ε- 稳定解时具有已知最好的梯度复杂度 O (ε^(-3/2))。由于 Polyak-Lojasiewicz 条件放宽了强凸性,我们的算法可以用于非凸强凸双层优化问题。从理论上讲,我们在一些温和条件下提供了有用的收敛性分析框架,并证明了我们的方法具有较快的收敛速度 O (1/T),其中 T 表示迭代次数。
Nov, 2023
本篇研究提出 Differentiating through Bilevel Optimization Programming (BiGrad) 模型,旨在将 Bi-level Programming 加入到神经网络中,通过类别估计算法以降低计算复杂度并支持对于连续变量的处理。实验结果表明,该模型成功地将传统单层方法扩展到了 Bi-level Programming
Feb, 2023
本文提出了一种改进的双层模型,该模型利用自动差分算法优化了双层模型的公式,并在数据超级清理和超级表示学习等两个任务中进行了理论和实验评估,结果显示新模型的性能优于当前双层模型。
Sep, 2020
本文提出了一种使用 Bregman 距离、具有低计算复杂度的增强型双层优化方法 BiO-BreD 和 SBiO-BreD,以解决双层优化问题,该问题的外部子问题非凸且可能非光滑,内部子问题强凸。通过数据超清理任务和超表征学习任务,证明了所提出的算法优于相关的双层优化方法。
Jul, 2021