Feb, 2024

FedSiKD: 应对非 i.i.d 和约束的联邦学习中的客户相似性和知识蒸馏

TL;DRFedSiKD 是一种相似性基于联邦学习框架,利用知识蒸馏技术解决非独立同分布数据和设备约束等问题,提高优化效率、加速学习过程并有效地在教师和学生模型之间传递知识。对 HAR 和 MNIST 数据集,FedSiKD 相较于现有算法具有更高的准确性,并在前五轮迭代中分别提升了 17% 和 20% 的准确率,展现了其早期学习的能力。代码已公开并托管在 GitHub 上。