Apr, 2024

FedDistill: 全局模型蒸馏以消除非独立同分布联邦学习中的局部模型偏差

TL;DRFedDistill 是一个增强全局模型与本地模型之间知识传输的框架,专注于解决非均衡类分布的问题,通过群体蒸馏并将全局模型分解为特征提取器和分类器,确保本地模型不会忘记低频类别,而是更擅长准确识别和分类,通过全面实验验证了 FedDistill 在准确度和收敛速度上超越了现有基线模型。