May, 2024
通过裁剪梯度提升分布式学习的鲁棒性
Boosting Robustness by Clipping Gradients in Distributed Learning
Youssef Allouah, Rachid Guerraoui, Nirupam Gupta, Ahmed Jellouli, Geovani Rizk...
TL;DR通过引入新的方案,即自适应鲁棒剪裁 (ARC),在模型初始化时限制工作人员梯度,从而改善鲁棒分布式梯度下降 (Robust-DGD) 的学习性能,特别是在可容忍的错误工作人员比例接近失效点时,该改进因子更为突出。