无黑塞矩阵逆的双层优化全单循环算法
在这篇论文中,我们考虑了分散网络中的双层优化问题,提出了一种针对具有强凸下层问题的分散式双层优化的新型单循环算法。我们的算法完全是单循环算法,在逼近超梯度时不需要进行复杂的矩阵向量乘法。此外,与现有的分散式双层优化和联邦双层优化方法不同的是,我们的算法不需要任何梯度异质性假设。我们的分析结果显示,该算法达到了迄今为止双层优化算法的最佳收敛速度。
Nov, 2023
针对一类具有上下级变量耦合的约束双层优化问题,本研究提出了一种新的方法和算法。通过设计平滑的近端 Lagrangian 值函数来处理约束的下层问题,并将原始问题转化为具有平滑约束的等价优化问题,从而实现了一种适用于机器学习应用的基于近端 Lagrangian 值函数的非 Hessian 梯度算法。此外,还针对 LV-HBA 进行了收敛性分析,不需要对下层问题进行传统的强凸性假设,并且能够处理非单例情况。实证结果验证了该算法在实际性能上的优越性。
Jan, 2024
本文提出了一种新颖的基于罚函数方法的二层优化问题算法,避免了计算 Hessian 逆矩阵的过程,并可轻松处理限制性二层问题。本方法证明收敛性并在大规模深度神经网络二层问题中表现优异,应用于数据去噪、few-shot 学习和训练数据污染问题,结果表明在准确性、运行时间和收敛速度方面均优于基于自动微分和近似求逆的以前提出的方法。
Nov, 2019
本文提出了一种新的 Hessian/Jacobian-free 双层优化器 FdeHBO,通过每次迭代使用 O (1) 个样本和仅一阶梯度信息,在非凸 - 强凸随机双层优化中实现了 O (ε^(-1.5)) 样本复杂度,达到 ε- 精确的稳定点。
Dec, 2023
本研究提出一种全一阶随机逼近方法用于解决双层无约束随机优化问题,该方法具有收敛性及优异的实际性能,并且可以使用动量辅助的梯度估计器进一步提高收敛速度。
Jan, 2023
通过利用非光滑隐函数定理,提出一种新的双层约束双目标函数优化的超梯度方法,并基于双动量方法和自适应步长方法提出了一种单循环单时间尺度算法,经证明它可以返回一个(δ,ε)- 稳定点,迭代次数约为 O (d2^2ε^-4),在两个应用上的实验证明了该方法的有效性。
Jun, 2024
设计了一种名为 BO-REP 的新的双层优化算法,用于解决具有潜在无界平滑性的神经网络在双层优化问题中的挑战。证明了在随机环境下,该算法需要大约 1/ε^4 次迭代来找到一个 ε- 稳定点,结果与有界平滑度设置和没有均方平滑性的随机梯度的最新复杂度结果相匹配。实验证明了所提出算法在超表征学习、超参数优化和文本分类任务中的有效性。
Jan, 2024
通过 Lanczos 方法构建低维近似 Krylov 子空间,解决偏导数求逆问题,提高双层优化问题的效率,并在合成问题和深度学习任务中展示了收敛速度和效率。
Apr, 2024