Jun, 2023

具有泛化保证的协变量移位下的联邦学习

TL;DR本文提出了一种新的全局模型训练范式 FTW-ERM,利用提高密度比匹配方法来处理联邦学习中的客户端内部和客户端间的协变量移位,并提出了与经典 ERM 在 FL 中相同隐私保证水平的低通信效率的 FITW-ERM 变体。理论上表明,在某些情况下,FTW-ERM 比经典 ERM 具有更小的泛化误差。实验结果表明,在具有挑战性的不平衡联邦设置中,FTW-ERM 优于现有联邦学习基线,因为数据分布在客户端之间存在移位。