Apr, 2024

去中心化学习中的隐私保护、抗干扰聚合

TL;DR分布式学习是机器学习中一种新颖的范例,通过在客户端之间分发训练数据而不进行集中聚合来提升可扩展性和效率。本文提出了三种基于秘密共享的抗丢失模型的隐私保护方法,通过在多个数据集上进行实验评估了这些方法的效率、性能和准确性。实验结果表明,我们的方法在保护隐私和抵御客户端丢失的场景中表现显著优于传统方法,尤其适用于大型模型、较高的丢失率和复杂的客户端网络。