Aug, 2023

具有随机梯度噪声独立学习误差的拜占庭鲁棒型分散式随机优化

TL;DR该研究探讨了分布式网络中拜占庭鲁棒随机优化问题,其中每个代理定期与其邻居通信以交换本地模型,然后通过随机梯度下降(SGD)更新其本地模型。通过引入两种方差减小方法(SAGA 和 LSVRG),该方法在消除了随机梯度噪声的负面影响后,实现了线性收敛速度和随机梯度噪声独立的学习误差,对基于总变异(TV)范数正则化和随机子梯度更新的方法具有最优的学习误差表现,并在广泛的拜占庭攻击实验中得到了验证。