In Byzantine robust distributed or federated learning, a central server wants
to train a machine learning model over data distributed across multiple
workers. However, a fraction of these workers may deviate from the prescribed
algorithm and send arbitrary messages. While this problem
机器学习中的数据污染和故障工作者问题对鲁棒性的重要性进行了研究,通过考虑具有分布式特征的机器学习环境中的 Byzantine ML 问题,证明了解决方法在更弱的数据污染威胁模型下依然是最优的。同时,研究了一种一般的数据污染模型,其中一些工作者具有完全污染的本地数据,而其他工作者只有部分污染的本地数据。