非凸分散学习的统一细化收敛分析
这篇论文介绍了一种统一的收敛性分析方法,涵盖了许多分散式随机梯度下降方法,具有计算成本低、数据本地性和沟通效率等优点,并包括本地随机梯度下降更新和自适应网络拓扑上的同步和成对传递更新,我们推导了光滑(凸和非凸)问题的通用收敛率,并在不同的数据分布和 iid 数据设置下进行了插值。
Mar, 2020
本文研究了节点网络上的去中心化在线随机非凸优化。通过将梯度跟踪技术集成到去中心化随机梯度下降中,我们证明了该算法具有一定的优势,并分析了其有效性和性能。同时,对于满足 Polyak-Lojasiewics 条件的全局非凸函数,我们确定了 GT-DSGD 的线性收敛性,并且在几乎每条路径上具有最优的全局亚线性收敛速度。
Aug, 2020
本文提出了一种适用于任意连接通信网络和任何光滑(可能是非凸的)代价函数的分布式原始 - 对偶随机梯度下降(SGD)算法,证明了该算法实现了常数参数的输出线性收敛到全局最优的邻域并展示了实验结果与基线集中式 SGD 和最近提出的分布式 SGD 算法的比较效率。
Jun, 2020
本文介绍了一种新的框架用于多智能体系统中分布式约束非凸优化算法的收敛分析,该算法由局部随机梯度下降和 GOSSIP 步骤组成,不需要 GOSSIP 矩阵双随机性,证明了算法收敛于 Karush-Kuhn-Tucker 点集,并适用于在自然广播场景中节省网络能量。
Jul, 2011
本文研究了 SGD 变体在平滑非凸情况下的表现,并提出了一种通用的假设模型来精确建模随机梯度的二阶矩,并给出了所有满足统一假设的方法的单一收敛分析。此外,作者提出了两种新的通用算法框架来处理分布式 / 联邦非凸优化问题,并说明这些方法均满足他们的统一假设,因此这个统一的收敛分析也包括了许多利用压缩通讯的分布式方法。最后,文章提供了一种在 PL 条件下获得更快线性收敛速度的统一分析。
Jun, 2020
提出了一种动态随机近端梯度共识(DySPGC)算法,旨在解决在具有随机时间变化的多智能体网络上解决凸随机优化问题,该算法对于静态和某些随机时间变化的网络均有效,并且能够收敛到全局最优解。
Nov, 2015
本文旨在研究在异构样本上进行非凸优化的联邦分布式学习,具体而言,我们将分析分布式方法相对于均匀样本中的隐含方差减少特性在异构样本中的应用,并证明其在广义的非凸和条件下的收敛性与最优性.
Oct, 2019
本文研究了分布式网络中去中心化优化的问题,尤其是基于双重平均子梯度的分布式算法及其收敛速度与网络大小和拓扑结构的关系,同时探讨了算法收敛和网络结构限制之间的关系,并证明了我们算法所需的迭代次数与网络谱隙成反比例关系。
May, 2010