Jul, 2023

UPFL:面向新客户的无监督个性化联邦学习

TL;DR在个性化联邦学习领域,当一个联邦模型已经训练和部署,并且有一个未标记的新客户端加入时,为新客户端提供个性化模型是一个极具挑战性的任务。本文针对这一挑战,将自适应风险最小化技术扩展到无监督个性化联邦学习设置中,并提出我们的方法FedTTA。我们通过使用代理正则化和熵提前停止调整来改进FedTTA,进而提出了两种简单而有效的优化策略。此外,我们还针对FedTTA设计了一种专门的知识蒸馏损失,以解决设备异构性问题。针对十一个基准测试,通过对五个数据集进行大量实验,证明了我们提出的FedTTA及其变种的有效性。