在线多智能体去中心化拜占庭容错梯度估计
本文研究了多智能体网络中的有弹性、协作状态估计问题,在存在拜占庭故障的情况下,提出了一种计算效率高且能够抵御故障的算法,该算法通过坐标轴方向的修剪均值对消息进行聚合,并得出了在几乎一定的情况下,好的代理最终能够学习到真实参数这一结论。
Oct, 2018
该研究探讨了分布式网络中拜占庭鲁棒随机优化问题,其中每个代理定期与其邻居通信以交换本地模型,然后通过随机梯度下降(SGD)更新其本地模型。通过引入两种方差减小方法(SAGA 和 LSVRG),该方法在消除了随机梯度噪声的负面影响后,实现了线性收敛速度和随机梯度噪声独立的学习误差,对基于总变异(TV)范数正则化和随机子梯度更新的方法具有最优的学习误差表现,并在广泛的拜占庭攻击实验中得到了验证。
Aug, 2023
本文研究在对抗性场景下,如何以拜占庭容错的方式进行分布式统计机器学习,以解决联邦学习中受到威胁的问题。我们提出了一种基于梯度汇聚的方法,在容忍拜占庭故障的同时,实现了参数的准确估计,算法的时间复杂度为 $O ((Nd/m) logN)$,通信成本为 $O (md logN)$。此外,我们还将该方法应用于线性回归问题。
May, 2017
我们设计了一个适用于高维问题的新方法,可以在任意数量的拜占庭攻击者下进行高效分布式学习,并采用半验证的均值估计方法实现,通过从工作机上传的梯度向量估计均值值的分量以及通过辅助数据集估计子空间内的分量,最终以我们的新方法作为分布式学习聚合器。理论分析表明,该新方法具有极小极大统计速率,并且与之前的方法相比,在维度依赖性方面得到了显着改进。
Jul, 2023
提出了一种基于总变差正则化的适应于拜占庭攻击的随机子梯度优化算法,在去除拜占庭代理的情况下达到了最优解附近,并且在数值模拟实验中表现出优越的性能.
May, 2020
本文提出了一种安全的梯度下降算法,针对在训练模型时存在被攻击的情况,使模型可以容错地处理最多 $q/m=O (1)$ 的拜占庭式错误的工人,同时使用过滤程序来聚合合格梯度,从而收敛于真实的梯度函数,并在其技术前沿建立了一种新的矩阵集中不等式。
Apr, 2018
本文针对分布式网络下存在 Byzantine 攻击的有限和优化学习问题,提出了一种基于几何中位数的抗攻击分布式学习方法 Byrd-SAGA,通过减小随机梯度的方差来实现对抗攻击的鲁棒性和线性快速收敛性。实验结果表明,相较于分布式 SGD 方法,该方法具备更强的抗攻击性和更快的收敛速度。
Dec, 2019
研究了在分布式随机梯度下降的标杆攻击下,通过采用异构数据模型和基于多项式时间的离群值过滤程序进行梯度的鲁棒均值估计,提出了一种新的矩阵集中结果,并且发现了在平稳强凸和非凸目标下,我们的算法可以达到和贝叶斯自由设置中的 SGF 相同的收敛速度,并且可以容忍达到 1/4 的标杆式工作者。
May, 2020
提出了一种具有客户端抽样和对拜占庭工作者的可证明容错性的分布式方法。通过梯度剪裁控制递归方差减少中的随机梯度差异来限制拜占庭工作者可能造成的潜在危害,并且结合通信压缩来提高通信效率。在相当一般的假设下,证明了该方法的收敛速度与现有的理论结果相匹配。
Nov, 2023