异构数据本地 GD 初步分析
本文旨在研究在异构样本上进行非凸优化的联邦分布式学习,具体而言,我们将分析分布式方法相对于均匀样本中的隐含方差减少特性在异构样本中的应用,并证明其在广义的非凸和条件下的收敛性与最优性.
Oct, 2019
本研究探讨了在分布式环境中使用固定步数和随机计算两种策略来实现平均操作符的固定点,以适应联邦学习等需要,经过收敛性分析和实验证明了我们方法的优势。
Apr, 2020
本文提出了一种名为 local SGDA 的算法来缓解分布式学习中的通信开销,可在广泛的分布式 minmax 优化问题下实现可证明的收敛性和更少的通信次数。
Feb, 2021
本文利用现有的一阶数据异质性假设,为本地 SGD 提供了新的下界,显示了这些假设不足以证明本地更新步骤的有效性。此外,在相同的假设下,我们证明了加速小批量 SGD 的极小 - 极大优化性质,完全解决了几个问题类的分布式优化。我们的结果强调了需要更好的数据异质性模型,以了解本地 SGD 在实践中的有效性。为此,我们考虑了高阶平滑性和异质性假设,并提供了新的上界,暗示了当数据异质性较低时,本地 SGD 优于小批量 SGD。
May, 2024
该论文提出了一种统一框架,用于在凸性和强凸性条件下分析本地 SGD 方法,适用于监督机器学习模型的分布式 / 联邦训练。作为该框架的应用,作者开发了多个新型优化器,特别是开发了第一个线性收敛的本地 SGD 方法,不需要任何数据同质性或其他强假设。
Nov, 2020
本文研究异构分布共享的随机梯度下降优化问题,通过对比 Local SGD 和 Minibatch SGD,得到加速的 Minibatch SGD 是解决高异质性问题的最优方法,并提出了第一个比 Minibatch SGD 更好的 Local SGD 的上界解。
Jun, 2020
本文研究了节点网络上的去中心化在线随机非凸优化。通过将梯度跟踪技术集成到去中心化随机梯度下降中,我们证明了该算法具有一定的优势,并分析了其有效性和性能。同时,对于满足 Polyak-Lojasiewics 条件的全局非凸函数,我们确定了 GT-DSGD 的线性收敛性,并且在几乎每条路径上具有最优的全局亚线性收敛速度。
Aug, 2020
本篇论文以三个方向推动本地方法的理论基础:(1)建立 FedAvg 的尖锐界限;(2)提出了 FedAvg 的有原则的加速方法 FedAc;(3)研究了扩展经典平滑设置的 Federated Composite Optimization 问题。
Jan, 2024
这篇论文解释了之前理论预测与实际表现矛盾的问题,发现数据异质性对于 FedAvg 算法的收敛效率影响要小于之前理论预测,通过引入新的指标(即平均漂移值)重新理论分析 FedAvg 算法,发现其在实际应用中的表现能够和同构的数据集一样并获得了成功。
Jun, 2022