Jun, 2023

具有泛化保证的协变量移位下的联邦学习

TL;DR本文提出了一种新的全局模型训练范式FTW-ERM,利用提高密度比匹配方法来处理联邦学习中的客户端内部和客户端间的协变量移位,并提出了与经典ERM在FL中相同隐私保证水平的低通信效率的FITW-ERM变体。理论上表明,在某些情况下,FTW-ERM比经典ERM具有更小的泛化误差。实验结果表明,在具有挑战性的不平衡联邦设置中,FTW-ERM优于现有联邦学习基线,因为数据分布在客户端之间存在移位。