Feb, 2024

FedSiKD: 应对非i.i.d和约束的联邦学习中的客户相似性和知识蒸馏

TL;DRFedSiKD是一种相似性基于联邦学习框架,利用知识蒸馏技术解决非独立同分布数据和设备约束等问题,提高优化效率、加速学习过程并有效地在教师和学生模型之间传递知识。对HAR和MNIST数据集,FedSiKD相较于现有算法具有更高的准确性,并在前五轮迭代中分别提升了17%和20%的准确率,展现了其早期学习的能力。代码已公开并托管在GitHub上。