Sep, 2024

联邦学习中的个性化微调以减轻对抗性客户端的影响

TL;DR本研究针对联邦学习中客户端数据分布存在异质性的问题,该问题导致模型在某些客户端的数据上表现不佳。研究提出了一种个性化微调的方法,分析了对抗性客户端对全合作性能的影响,结果表明通过减少合作水平可显著提高个性化模型的表现,尤其是在存在对抗性客户端的情况下。