Jul, 2023

拜占庭容错的分布式在线学习:驯服恶意环境中的对手

TL;DR本研究旨在研究分布式在线学习在拜占庭攻击下的表现。通过使用一类最先进的强健合并规则,我们证明,即使在存在 byzantine 参与者和对抗性环境下,分布式在线梯度下降也只能实现线性对抗性后悔界限,并且我们可以将线性对抗性后悔的常数控制在合理水平。有趣的是,当环境不是完全对抗性时,我们展示了亚线性随机后悔的可能性,采用了一种拜占庭式强健分布式在线动量算法来实现。