Jul, 2019
DETOX: 基于冗余的框架用于更快速且更健壮的梯度聚合
DETOX: A Redundancy-based Framework for Faster and More Robust Gradient Aggregation
Shashank Rajput, Hongyi Wang, Zachary Charles, Dimitris Papailiopoulos
TL;DRDETOX 是一种分布式训练框架,通过算法冗余和鲁棒聚合相结合的方式提高了其可靠性,实现了对于拜占庭错误的容错性,且在多种机器学习任务中表现出比其他拜占庭容错方法更高的准确度和速度改进。