ICMLMar, 2018
DRACO:通过冗余梯度进行拜占庭错误容错的分布式训练
DRACO: Byzantine-resilient Distributed Training via Redundant Gradients
Lingjiao Chen, Hongyi Wang, Zachary Charles, Dimitris Papailiopoulos
TL;DR通过编码理论,我们提出了 DRACO,一个可伸缩的分布式训练框架,用于解决分布式模型训练中的拜占庭系统故障和对抗计算节点等问题,DRACO 具有问题无关的鲁棒性保证,并且训练的模型与无对手的设置中训练的模型相同。