压缩分布的最小二乘回归:收敛速度与联邦学习应用
提出一种基于平均加速正则梯度下降的算法,通过细化初值和 Hessian 矩阵的假设,最优地优化回归问题,并证明其在偏差与方差之间具有最优性、大数据时初始化影响可达到 O(1/n2)以及对于维度 d 的依赖程度为 O(d/n)。
Feb, 2016
研究表明,用于分布式学习的偏置压缩算子可以显著提高通信效率并达到线性收敛率,其性能优于其无偏压缩器。它们可用于随机梯度下降和分布式随机梯度下降,并且存在许多具有良好理论保证和实际性能的新偏置压缩器可供选择。
Feb, 2020
本文探讨了在大规模联邦学习中由于通信过载而引起的压缩问题,提出了一种可减少噪声并提高拜占庭攻击鲁棒性的压缩梯度差分方法,并提供了理论证明和数值实验结果。
Apr, 2021
该论文提出了一种针对大规模机器学习的分布式梯度方法的统一分析框架,通过非渐进界限来推导了几种优化算法的收敛速率和信息交换,并得到了步长的显式表达式,表征了异步度和压缩精度如何影响迭代和通信复杂性保证,数值结果证实了限制信息交换下不同梯度压缩算法的收敛性能,以及快速收敛确实是可能的。
Jun, 2018
研究了分布式优化问题,在量化梯度、降低方差的基础上,提出新的缩短收敛时间的方法,实现了对于任意量化梯度的线性收敛,解决了弱凸和非凸问题,并在实验中验证了其效率优于传统方法。
Apr, 2019
本文探究噪声线性模型下单次训练中的随机梯度下降算法,证明了其收敛性和泛化误差的多项式收敛率,解释了结果在再生核希尔伯特空间框架下的意义,同时将分析应用于超出监督学习的场景。
Jun, 2020
本文研究了在联邦学习中使用压缩和聚合方案来产生特定误差分布的方法,分析了基于分层量化实现准确误差分布的不同聚合方案,并提供了利用所提出的压缩方案在差分隐私应用中免费获得压缩的不同方法。我们的通用压缩方法可以恢复和改进具有高斯扰动的标准联邦学习方案,如 Langevin 动力学和随机平滑。
Oct, 2023
通过使用压缩技术来减少通信成本,我们研究了在压缩向量所需的比特数和压缩误差之间的基本权衡,为最坏情况和平均情况提供了紧密的下界。我们引入了一种高效的压缩算子和一种简单的压缩算子,它们都能达到最低下界,并在实验中取得了很好的效果。
Oct, 2020