带量化预处理器的通信高效分布式优化
本论文研究了用于最小化凸函数平均值的分布式优化算法,应用于统计机器学习的经验风险最小化问题。我们设计了一种分布式随机方差减少梯度算法,其在条件数方面同时增强了最佳并行运行时间、通信量和所有分布式一阶方法的通信轮数。此外,当条件数相对于每个机器中的数据大小不太大时,我们的方法及其加速扩展还可以优于现有的分布式算法,此外,还证明了广泛分布的课程的有关通信轮数的下限。我们证明了我们的加速分布式随机方差减少梯度算法实现了这一下限,从而它使用最少的通信轮数。
Jul, 2015
研究了分布式优化问题,在量化梯度、降低方差的基础上,提出新的缩短收敛时间的方法,实现了对于任意量化梯度的线性收敛,解决了弱凸和非凸问题,并在实验中验证了其效率优于传统方法。
Apr, 2019
提出了一种新的基于随机压缩算子的一阶随机算法和方差约简技术,能够在去除了通信中数据量的一定压缩的前提下,快速地在分散的装置上完成模型的机器学习训练并收敛于最优解。
Nov, 2020
针对在代理网络中要通过本地计算和通信协作优化个体目标函数和的求和,我们使用平均算法开发了分布式次梯度方法,同时也考虑了时间变化和量化信息的影响并给出了收敛率的保证。
Mar, 2008
本文提出了一种新的去中心化一阶方法解决在多代理网络上的非光滑和随机优化问题,其中主要贡献为提出了基于去中心化通讯滑动算法的去中心化原始 - 对偶算法,以解决在去中心化优化中通讯瓶颈。
Jan, 2017
本文提出了两种基于加速的前后向算法的分散优化新算法以解决存储在网络节点上的光滑强凸函数之和的最小化问题,并显示它们是最优的算法,具有复杂性的保证。
Jun, 2020
研究去中心化共识优化中量化对优化带来的影响,并提出了一种基于梯度下降的算法,证明算法在标准强凸和平滑假设下可实现消失的均值解误差,并通过模拟结果验证了理论收敛速度与实际结果的紧密一致性。
Jun, 2018
本文提出了一种名为 QuanTimed-DSGD 的新型分布式渐进优化算法,通过调整每个节点在算法每一步中本地计算梯度的截止时间和节点间交换量化本地模型的机制来解决分布式计算中经常遇到的滞后和通信效率低的问题,数值评估结果表明该算法与最先进的分布式优化方法相比,运行时间可提速至多 3 倍。
Jul, 2019
该论文在两个设置中确定了强凸和光滑分布式优化的最优收敛速率:中央集权和去中心化通信。对于中央集权算法,作者表明分布式 Nesterov 加速梯度下降算法是最优的。对于基于流言蜚语 (gossip) 的去中心化算法,作者提供了第一个最优算法 MSDA 方法,并通过最小二乘回归和分类的逻辑回归问题验证了其效率。
Feb, 2017