Zeno:基于疑惑容错的分布式随机梯度下降算法
提出了 Zeno++,这是一种新的、强大的异步随机梯度下降算法,可容忍工作节点的拜占庭失败,相比之前的工作,Zeno++取消了一些对工作节点到服务器通信的不切实际限制,允许匿名工作节点的完全异步更新,任意陈旧的工作节点更新以及无限多的拜占庭工作节点,并证明在拜占庭失败的情况下,Zeno++ 收敛于非凸问题,实验结果表明 Zeno++ 胜过了现有的方法。
Mar, 2019
本文提出了一种新的利普希茨坐标中值方法(LICM-SGD)来降低拜占庭攻击对分布式学习中基于随机梯度下降(SGD)的分布式算法的影响。该算法不需要关于攻击者数量和利普希茨常数的任何信息,在实现中具有吸引力,并且在多分类逻辑回归和卷积神经网络的训练中的MNIST和CIFAR-10数据集上,该算法始终表现出色,并且具有更快的运行时间。
Sep, 2019
本文针对分布式网络下存在Byzantine攻击的有限和优化学习问题,提出了一种基于几何中位数的抗攻击分布式学习方法Byrd-SAGA,通过减小随机梯度的方差来实现对抗攻击的鲁棒性和线性快速收敛性。实验结果表明,相较于分布式SGD方法,该方法具备更强的抗攻击性和更快的收敛速度。
Dec, 2019
研究了在分布式随机梯度下降的标杆攻击下,通过采用异构数据模型和基于多项式时间的离群值过滤程序进行梯度的鲁棒均值估计,提出了一种新的矩阵集中结果,并且发现了在平稳强凸和非凸目标下,我们的算法可以达到和贝叶斯自由设置中的 SGF 相同的收敛速度,并且可以容忍达到 1/4 的标杆式工作者。
May, 2020
本文提出了一种在恶意/拜占庭客户端存在的情况下使用本地迭代的随机梯度下降(SGD)算法来解决联邦学习的问题,通过使用高维鲁棒均值估计算法来过滤出异常向量并得出收敛结果和分析。
Jun, 2020
本文研究对抗鲁棒的分布式随机优化,并提出了一种新算法 SafeguardSGD,它可以确定性地避开鞍点并找到非凸目标的近似局部最小值。该算法基于一种新的集中过滤技术,可证明其样本和时间复杂性边界与之前的最佳理论边界相匹配,同时它也是第一种能够抵御两种最近提出的拜占庭攻击的方法。该算法在训练深度神经网络方面的表现优于所有先前的方法。
Dec, 2020
本文提出了一个Robust Gradient Classification Framework(RGCF)用于在分布式随机梯度下降中实现拜占庭容错。该框架包括一个模式识别过滤器,我们通过仅使用梯度的方向训练它,使其能够将单个梯度分类为拜占庭式的。此解决方案不需要估计拜占庭式工作者的数量;其运行时间不依赖于工作者的数量,并且可以扩展到具有大量工作者的训练实例而不会丧失性能。
Jan, 2023