提出了一种新的基于随机压缩算子的一阶随机算法和方差约简技术,能够在去除了通信中数据量的一定压缩的前提下,快速地在分散的装置上完成模型的机器学习训练并收敛于最优解。
Nov, 2020
本文研究了利用通信压缩的分布式随机优化算法的性能上限,并提出了 NEOLITHIC 算法,该算法在温和条件下实现所建立的理论下限。
May, 2023
研究了分布式方法在凸学习与优化中所需要的通信效率的根本限制,在不同信息假设和函数类型条件下找到了现有算法已达到最坏复杂度的情况,同时也指出了仍有改进的余地,说明了当本地目标函数没有相似之处时(由于统计数据相似或其他原因),即使设备具有无限计算能力,也可能需要多次通信往返。
Jun, 2015
通过定期压缩通信的算法,分析其收敛性并探讨其与局部计算的关系,提出了一种本地梯度追踪方案,以缓解数据异质性,实现了更快的收敛速度和更好的算法效果。
Jul, 2020
提出基于压缩辅助的联邦学习问题,通过将其分解为子问题并基于协作博弈来有效分配无线资源,从而优化了 IoT 设备和服务器之间的通信,通过积极控制参与学习的设备数量,既可避免训练发散又能保持通信效率。
Jun, 2022
本文探讨了在分布式优化中,无偏压缩是否降低了总通讯成本,最终给出了条件和理论分析支持独立无偏压缩可以将总通讯成本降低到 O (根号下 min {n,kappa})。
分布式优化和学习,尤其是在联邦学习的现代框架中,通信对于慢速和昂贵的问题至关重要。我们介绍了一种名为 LoCoDL 的通信高效算法,它利用了本地训练和压缩这两种常用且有效的技术,通过降低通信频率和发送短的比特流而不是完整的浮点数向量。LoCoDL 适用于包括广泛使用的稀疏化和量化方法在内的大类无偏压缩器。在具有强凸函数的一般异构情况下,LoCoDL 可以从本地训练和压缩中获益,并且在功能条件数和模型维度方面具有双重加速的通信复杂度。实践中证实,LoCoDL 优于现有算法。
Mar, 2024
研究了在分布式学习中,如何在总通信次数亚线性的情况下通过镜像下降与随机稀疏化 / 量化迭代相结合的算法来实现线性模型的最优误差学习,从而探讨了高维环境下分布式学习的可行性。
Feb, 2019
研究了通信高效算法用于强凸平滑函数最小化问题,设计了预处理梯度下降算法和牛顿方法的通信高效分布式变体,并且实验证明这些方法具有快速收敛和降低的通信复杂度。
Feb, 2021
该论文提出了一种针对大规模机器学习的分布式梯度方法的统一分析框架,通过非渐进界限来推导了几种优化算法的收敛速率和信息交换,并得到了步长的显式表达式,表征了异步度和压缩精度如何影响迭代和通信复杂性保证,数值结果证实了限制信息交换下不同梯度压缩算法的收敛性能,以及快速收敛确实是可能的。
Jun, 2018