Oct, 2021

在分布式 SGD 中结合差分隐私和拜占庭容错

TL;DR本文研究了在标准参数服务器架构下,分布式 SGD 算法能否在部分节点受到 Byzantine 攻击,另一部分节点提供加噪的信息以保证 DP 的情况下,学习一个准确的模型。研究发现,在保证 DP 的情况下,现有的对于分布式 SGD 在 Byzantine 错误下的收敛性结果是无效的;通过重新调整学习算法,本文提供了关键性见解,基于 BR 的理论提供了近似收敛保证。