Apr, 2024
FedDistill: 全局模型蒸馏以消除非独立同分布联邦学习中的局部模型偏差
FedDistill: Global Model Distillation for Local Model De-Biasing in
Non-IID Federated Learning
TL;DRFedDistill是一个增强全局模型与本地模型之间知识传输的框架,专注于解决非均衡类分布的问题,通过群体蒸馏并将全局模型分解为特征提取器和分类器,确保本地模型不会忘记低频类别,而是更擅长准确识别和分类,通过全面实验验证了FedDistill在准确度和收敛速度上超越了现有基线模型。