Sep, 2019
分布式学习中的拜占庭鲁棒随机梯度下降:一种基于Lipschitz的逐坐标中位数方法
Byzantine-Resilient Stochastic Gradient Descent for Distributed
Learning: A Lipschitz-Inspired Coordinate-wise Median Approach
TL;DR本文提出了一种新的利普希茨坐标中值方法(LICM-SGD)来降低拜占庭攻击对分布式学习中基于随机梯度下降(SGD)的分布式算法的影响。该算法不需要关于攻击者数量和利普希茨常数的任何信息,在实现中具有吸引力,并且在多分类逻辑回归和卷积神经网络的训练中的MNIST和CIFAR-10数据集上,该算法始终表现出色,并且具有更快的运行时间。