Nov, 2023

异质数据上的一致性机制联邦学习:收敛性的新视角

TL;DR在本文中,我们提出了一种名为 FedCOME 的共识机制,通过在服务器端对客户端的梯度进行微调,保证了每轮训练后每个客户端的风险减少;我们还设计了一种新的客户端采样策略,将共识机制推广到部分参与的联邦学习场景,有效地减少了未被选中的客户端的风险。通过在四个基准数据集上进行广泛实验证明了 FedCOME 在效果、效率和公平性方面优于其他最先进的方法。