我们提出了一个分布式优化的离散时间模型,适用于具有动态有向图的连续时间分布式学习,并消除了对链接进行随机权重设计的需求,通过共识算法、矩阵扰动理论和 Lyapunov 理论,我们证明了梯度跟踪步长和离散时间步长的收敛性和动态稳定性,该工作在链接删除或数据丢失的情况下改善了现有随机权重无向网络的性能,而无需重新运行耗时和计算复杂的算法。该提出的优化框架在分布式分类和学习中具有应用价值。
Nov, 2023
本文研究了通过节点之间的交流来进行分布式优化的问题,提出了一种基于广播的算法,即 subgradient-push algorithm, 计算其收敛速率.
Mar, 2013
本文研究了分布式优化中最近提出的 subgradient-push 方法在时变有向图上的收敛速度,并证明在强凸函数和具有 Lipschitz 梯度的情况下,即使只有随机梯度样本可用,其收敛速度为 O ((ln t)/t),这比先前已知的(一般)凸函数的 O ((ln t)/√t) 更快。
Jun, 2014
该研究开发了两种分布式算法(Prox-DGD 和 DGD-ATC)的异步版本,用于解决无向网络上的共识优化问题,并且与其他算法相比,我们的算法可以使用与延迟无关的步长来收敛到它们的同步对应算法的固定点集。该研究还在部分异步和完全异步情况下,为强凸和弱凸问题建立了收敛保证,并展示了两种异步方法的收敛速度能够适应实际异步程度而不受最坏情况的限制。数值实验表明我们的异步算法具有很强的实际性能。
Dec, 2023
本文介绍了一种新的框架用于多智能体系统中分布式约束非凸优化算法的收敛分析,该算法由局部随机梯度下降和 GOSSIP 步骤组成,不需要 GOSSIP 矩阵双随机性,证明了算法收敛于 Karush-Kuhn-Tucker 点集,并适用于在自然广播场景中节省网络能量。
Jul, 2011
该研究分析分布式非凸优化问题,针对多智能体网络模型,利用一些技术假设证明分布式推送算法在目标函数的临界点处收敛,并利用扰动动力学证明扰动过程的几乎肯定收敛性。
Dec, 2015
本文研究了在网络中分布式汇聚优化问题,提出了结合重球和 Nesterov 加速方法的分布式汇聚梯度跟踪的两个新算法 DAGT-HB 和 DAGT-NES,分析这两个算法在目标函数光滑,强凸且参数选择在一定范围内时,能以全局 R 线性收敛速度收敛到最优解,通过最优放置问题的数值实验验证了算法的有效性和优越性。
Apr, 2023
该论文在两个设置中确定了强凸和光滑分布式优化的最优收敛速率:中央集权和去中心化通信。对于中央集权算法,作者表明分布式 Nesterov 加速梯度下降算法是最优的。对于基于流言蜚语 (gossip) 的去中心化算法,作者提供了第一个最优算法 MSDA 方法,并通过最小二乘回归和分类的逻辑回归问题验证了其效率。
Feb, 2017
提出一种基于截断矩阵幂迭代的 DAG 学习方法,通过增加高阶多项式系数以逼近 DAG 约束条件。实验结果表明,该方法在各种设置下的性能优于现有的 DAG 学习方法。
Aug, 2022
提出了一种动态随机近端梯度共识(DySPGC)算法,旨在解决在具有随机时间变化的多智能体网络上解决凸随机优化问题,该算法对于静态和某些随机时间变化的网络均有效,并且能够收敛到全局最优解。
Nov, 2015