通过学习优化加速多块约束优化
本文提出一种新的随机交替方向乘子法(ADMM)算法,其在线性化ADMM公式上逐步逼近全梯度。实验证明,该算法在凸优化问题上的收敛速度得到提高,速度显著快于现有的随机和批量ADMM算法。
Aug, 2013
本文提出了一种新的针对大规模优化和学习问题的方法,称为可扩展随机ADMM (SCAS-ADMM),可以在不需要存储历史梯度的情况下,在一般凸问题上达到与最佳随机方法 SA-ADMM 和批处理 ADMM 相同的收敛速度。实验结果表明,SCAS-ADMM 能够在实际应用中达到最先进的性能。
Feb, 2015
本文提出了一种新的方法来加速ADMM的收敛速度,通过自动决定每次迭代中需要的约束惩罚来加速收敛速度,并且还提出了一种方法,可以自适应地确定更新惩罚所需的最大迭代次数。这种方法可以有效地引导分布式优化的自适应动态网络拓扑,其在合成和真实数据,以及计算机视觉的应用方面得到了证明。
Jun, 2015
提出快速近端改进增广拉格朗日方法Fast PALM和快速近端交替方向乘子方法Fast PL-ADMM-PS用于解决凸规划问题,成果表明与传统方法相比,算法具有更好的收敛速度和迭代复杂度.
Nov, 2015
本研究提出了一种自适应调节罚项参数的方法,使得交替方向乘子法(ADMM)得以快速收敛,从而提高了其可靠性和自动化水平。结果表明,这种自适应 ADMM( AADMM)算法可以相对缓解ADMM算法在惩罚因子调节方面存在的问题,并同时保持收敛速度较快。
May, 2016
本文针对解决计算机视觉和机器学习应用中涉及到的非可微目标函数和约束的优化问题所采用的交替方向乘子法,提出了一种自适应的松弛ADMM(ARADMM)方法,旨在通过自动调节关键算法参数,实现最佳性能而无需用户监管。通过对ARADMM进行详细的收敛性分析,并在几个应用实例上展示了其快速实际收敛性能。
Apr, 2017
提出了一种基于ADMM的AutoML框架,可以将优化问题分解为易于处理的子问题,并整合黑箱约束以及优化目标函数。在UCI ML和OpenML数据集上的实验表明,相比其他的AutoML方法,该框架具有更大的灵活性、更高的效果和独特的能力。
May, 2019
本文提出了一种基于上下文自适应ADMM的参数调节方法CA-ADMM,通过提取QP问题的时空依赖,动态调节参数rho,达到了加速优化过程的效果。
Nov, 2022
本文概述了分布式优化技术的历史发展轨迹,从20世纪60年代Dantzig、Wolfe和Benders开创的基于对偶的方法追溯到增广拉格朗日交替方向不精确牛顿(ALADIN)算法的出现。该文重点介绍了凸问题的拉格朗日松弛和分解策略,改进了诸如交替方向乘子法(ADMM)之类的方法。2000年代末期,分布式优化在机器学习和图像等领域重新引起了人们的兴趣,ADMM方法表现出了实际的有效性和统一潜力。本文还强调了近端中心方法的出现及其在不同领域的应用。此外,本文着重介绍了ALADIN的独特特点,该算法在非凸场景下无需引入辅助变量即可提供收敛性保证,与传统的增广技术有所区别。总之,这项工作总结了分布式优化的历史轨迹,并强调了ALADIN在应对非凸优化挑战方面的有希望前景。
Aug, 2023
机器学习模型通过训练来预测双重解估计,并从中构建原始估计,以形成双重可行解对。通过采用来自实际增广Lagrangian方法的技术,该训练方案可以改进,从而学习高度准确的有约束优化求解器,适用于凸和非凸问题。
Mar, 2024