Dec, 2023

FedSDD:面向联邦学习模型聚合的可扩展和多样性增强蒸馏

TL;DR我们提出了一种可扩展和多样性增强的联邦蒸馏方案FedSDD,通过将教师模型构建成由少量聚合(全局)模型组成的集合而不是所有客户模型,以增强可伸缩性,并从一组具有增强多样性的聚合模型构建集合,从而提高了整体和主要全局模型的性能,FedSDD在基准数据集上表现优于其他联邦学习方法,包括FedAvg和FedDF。