具容错机制和高通信效率的分布式学习模型
本文提出了一种新的构造方法,可以将任何收缩压缩器转化为感应无偏压缩器,从而大大减少了内存要求,提高了通信复杂性保证和使用的方法,特别是在对合同收缩压缩器进行处理时,相对错误反馈(EF)有更好的理论和实践效果。
Jun, 2020
本文针对分布式学习中的安全问题,提出了基于中位数和截尾均值运算的两种鲁棒性分布式梯度下降算法,并证明了这些算法在强凸、非强凸和光滑非凸损失函数下均能达到次优统计误差率,并且进一步提出了一种基于中位数的分布式算法,可在一轮通信下达到与鲁棒性分布式梯度下降算法相同的最优误差率,实现更好的通信效率。
Mar, 2018
通过压缩和收敛速率,提出了两种新的拜占庭容错化方法,并证明了它们在非凸和 Polyak-Lojasiewicz 平滑优化问题中具有更好的收敛速率、异构情况下更小的邻域大小以及在过参数化时更能容忍拜占庭节点;同时还开发了带有压缩和误差反馈的第一种拜占庭容错化方法,并推导了这些方法在非凸和 Polyak-Lojasiewicz 平滑情况下的收敛速率,并通过数值实验证明了理论发现。
Oct, 2023
本文探讨了在大规模联邦学习中由于通信过载而引起的压缩问题,提出了一种可减少噪声并提高拜占庭攻击鲁棒性的压缩梯度差分方法,并提供了理论证明和数值实验结果。
Apr, 2021
本文研究边缘联邦学习中的随机凸和非凸优化问题,以解决处理重尾数据时现有算法的不足,并同时保持拜占庭鲁棒性,通信效率和最佳统计误差率。我们提出了两种算法,分别是具有拜占庭鲁棒性的分布式梯度下降算法,以及结合梯度压缩技术的通信开销较小的算法。理论分析表明,我们的算法在存在拜占庭设备的情况下实现了最优的统计误差率。最后,我们在合成和现实世界数据集上进行了广泛的实验,以验证算法的有效性。
Mar, 2023
提出了一种基于 Nesterov 的动量的分布式压缩的 SGD 方法,通过两种方式压缩梯度并将梯度分块,每个梯度块都以 1 位格式进行压缩和传输,并实现了近 32 倍的通信降低,实验表明该方法与精度相同的动量 SGD 收敛速度相同,并在分布式 ResNet 训练中达到与全精度梯度动量 SGD 相同的测试精度,而时间缩短了 46%。
May, 2019
提出了一种具有客户端抽样和对拜占庭工作者的可证明容错性的分布式方法。通过梯度剪裁控制递归方差减少中的随机梯度差异来限制拜占庭工作者可能造成的潜在危害,并且结合通信压缩来提高通信效率。在相当一般的假设下,证明了该方法的收敛速度与现有的理论结果相匹配。
Nov, 2023
本文提出了一种安全的梯度下降算法,针对在训练模型时存在被攻击的情况,使模型可以容错地处理最多 $q/m=O (1)$ 的拜占庭式错误的工人,同时使用过滤程序来聚合合格梯度,从而收敛于真实的梯度函数,并在其技术前沿建立了一种新的矩阵集中不等式。
Apr, 2018
我们提出了一种分布式的二阶优化算法,该算法具有通信效率和对其工作机的拜占庭故障的强鲁棒性,并通过使用一种简单的基于阈值的规则来过滤工作机来进一步压缩本地信息,由此建立了改进的收敛保证.
Jun, 2020
本文研究在对抗性场景下,如何以拜占庭容错的方式进行分布式统计机器学习,以解决联邦学习中受到威胁的问题。我们提出了一种基于梯度汇聚的方法,在容忍拜占庭故障的同时,实现了参数的准确估计,算法的时间复杂度为 $O ((Nd/m) logN)$,通信成本为 $O (md logN)$。此外,我们还将该方法应用于线性回归问题。
May, 2017