通过在客户端引入额外的私有弱学习器与本地模型组成集成模型,FedBalance 方法能够通过融合两个模型的对数几率来纠正本地模型之间的优化偏差,从而改进本地模型的优化方向,提高少数类别的分类错误处罚并降低多数类别的注意力,从而得到更好的全局模型。
Nov, 2023
本文介绍了一种新的联邦学习算法,FedDC,旨在通过本地漂移重构和修正来解决客户端数据分布异质性的问题,实验结果证明 FedDC 在各种图像分类任务上具有加速收敛和更好的性能。
Mar, 2022
本文提出了一种全局 - 本地遗忘补偿(GLFC)模型,以解决联邦学习中的灾难性遗忘问题,包括本地遗忘和全局遗忘,并考虑到了隐私和类别不平衡等问题。
本文研究联邦学习中的标签分布偏斜问题,通过引入 FedLC 方法实现了基于标签分布偏差较小的联邦优化,实验证明该方法可以提高全局模型的准确性和性能。
Sep, 2022
通过生成改进的本地模型来减轻分布不同的客户机之间的客户漂移,并增强模型的泛化性能。
Feb, 2024
本文研究了分布式概念漂移下的联邦学习,提出了两种新的聚类算法以适应数据异质性和时间变化的漂移,并且通过实验验证表明它们的准确性显著优于现有的基线算法,接近理想算法。
Jun, 2022
采用新的真实数据分布,提出一种名为 FedIIC 的隐私保护框架,该框架通过类内对比学习和共享全局样本的类间对比学习进行特征提取器的校准来缓解训练造成的偏差,并使用考虑难度的逻辑调整构造 softmax 交叉熵损失以确保所有类别的平衡决策边界。在公共可用数据集上的实验表明,FedIIC 在处理两种耦合问题的同时,具有更优越的性能。
FedSiKD 是一种相似性基于联邦学习框架,利用知识蒸馏技术解决非独立同分布数据和设备约束等问题,提高优化效率、加速学习过程并有效地在教师和学生模型之间传递知识。对 HAR 和 MNIST 数据集,FedSiKD 相较于现有算法具有更高的准确性,并在前五轮迭代中分别提升了 17% 和 20% 的准确率,展现了其早期学习的能力。代码已公开并托管在 GitHub 上。
该论文提出一种名为 FedGKD 的新方法,通过融合历史全局模型的知识进行本地训练,解决异构联邦学习中的客户端漂移问题,并在各种计算机视觉和自然语言处理数据集上进行广泛的实验和评估,达到了优于其他五种方法的结果。
Jun, 2021
提出了一种新的联邦学习模型训练方法 FLex&Chill,通过 Logit Chilling 方法利用非独立同分布数据特征,从实验中观察到全球联邦学习模型收敛时间提高了 6 倍,推断准确率提高了 3.37%。
Jan, 2024