ECCVOct, 2022

通过分布变换解决联邦学习中的异质性

TL;DR本文提出了一种新的框架 DisTrans,通过训练和测试时间的分布变换以及双输入通道模型结构来优化每个客户端的分布式偏移和模型,从而在面对不同程度的数据异质性时,提高联邦学习(FL)性能,评估结果表明,DisTrans 在多个基准数据集上的表现超越了其他现有方法。