具梯度跟踪和方差缩减的网络分布式优化通信效率提高
本文研究了分布式网络中去中心化优化的问题,尤其是基于双重平均子梯度的分布式算法及其收敛速度与网络大小和拓扑结构的关系,同时探讨了算法收敛和网络结构限制之间的关系,并证明了我们算法所需的迭代次数与网络谱隙成反比例关系。
May, 2010
本论文研究了用于最小化凸函数平均值的分布式优化算法,应用于统计机器学习的经验风险最小化问题。我们设计了一种分布式随机方差减少梯度算法,其在条件数方面同时增强了最佳并行运行时间、通信量和所有分布式一阶方法的通信轮数。此外,当条件数相对于每个机器中的数据大小不太大时,我们的方法及其加速扩展还可以优于现有的分布式算法,此外,还证明了广泛分布的课程的有关通信轮数的下限。我们证明了我们的加速分布式随机方差减少梯度算法实现了这一下限,从而它使用最少的通信轮数。
Jul, 2015
该论文在两个设置中确定了强凸和光滑分布式优化的最优收敛速率:中央集权和去中心化通信。对于中央集权算法,作者表明分布式 Nesterov 加速梯度下降算法是最优的。对于基于流言蜚语 (gossip) 的去中心化算法,作者提供了第一个最优算法 MSDA 方法,并通过最小二乘回归和分类的逻辑回归问题验证了其效率。
Feb, 2017
本文提出一种名为 GTVR 的随机分散算法框架,其基于本地方差缩减和全局梯度跟踪的技术,用于解决大规模,有可能无法集中处理私有数据的优化问题。我们在本文中重点研究了 GTVR 并介绍了两种算法 GT-SAGA 和 GT-SVRG,证明它们在解决光滑问题上呈现出线性收敛,并实现了在网络独立下的线性速度提升。
Dec, 2019
提出了一种灵活的梯度跟踪方法,用于解决非独立同分布情况下网络上的分布式随机优化问题,利用设计良好的李亚普诺夫函数,导出了计算和通信复杂度,以实现在光滑和强凸目标函数上的任意精度。
Jun, 2023
本文提出了一种名为 local SGDA 的算法来缓解分布式学习中的通信开销,可在广泛的分布式 minmax 优化问题下实现可证明的收敛性和更少的通信次数。
Feb, 2021
本文提出了一种基于分布式随机算法的方差约简方法,以解决在多代理网络中进行大规模非凸有限和优化问题,提出了 GT-VR 算法,并证明了其收敛性和效率优于一些现有的一阶方法。
Jun, 2021