BriefGPT.xyz
Oct, 2012
一种快速的分布式近端梯度法
A Fast Distributed Proximal-Gradient Method
HTML
PDF
Annie I. Chen, Asuman Ozdaglar
TL;DR
该研究提出了一种基于分布式近端梯度方法来优化平均凸函数的方法,每个凸函数都是网络中各个代理的本地目标函数。该方法通过交换估计值来实现每个代理迭代更新全局最小值的目标,并使用Nesterov-type加速技术和多个通信步骤进行迭代,表明这种方法的收敛速率为1/k(其中k是代理之间的通信轮数),这比现有的分布式方法的收敛速度更快。数值实验也验证了该方法的卓越收敛速度。
Abstract
We present a distributed
proximal-gradient method
for optimizing the average of convex functions, each of which is the private local objective of an agent in a network with
time-varying topology
. The local object
→