我们的论文提出了一种信息论的泛化框架来解决联邦学习中的分布不一致问题,并通过引入加权聚合方法和客户端选择策略来增强泛化能力。
Oct, 2023
本文提出了一种名为 Global-Regularized Personalization (GRP-FED)的方法,利用全局和本地模型各自的优势来有效处理分散客户端的长尾数据不均衡问题,实验结果表明,GRP-FED 在 MIT-BIH 和 CIFAR-10 数据集上表现出更好的性能和更好地解决了客户端不平衡问题。
Aug, 2021
本文提出了一种叫做 FedAlign 的基于局部学习广泛性而非接近约束的数据异构性联邦学习解决方案,其可在不引入大量计算和内存开销的情况下实现与最先进的 FL 方法相当的精度。
Nov, 2021
本文介绍了一种新的联邦学习算法,FedDC,旨在通过本地漂移重构和修正来解决客户端数据分布异质性的问题,实验结果证明 FedDC 在各种图像分类任务上具有加速收敛和更好的性能。
Mar, 2022
FedDr + 是一种新的算法,通过使用点回归损失进行本地模型对齐,冻结分类器以实现特征对齐,并采用特征蒸馏机制保留有关未见 / 缺失类别的信息,从而有效地整合个体客户端的知识,提高全局和个性化联邦学习的性能。
Jun, 2024
采用新的真实数据分布,提出一种名为 FedIIC 的隐私保护框架,该框架通过类内对比学习和共享全局样本的类间对比学习进行特征提取器的校准来缓解训练造成的偏差,并使用考虑难度的逻辑调整构造 softmax 交叉熵损失以确保所有类别的平衡决策边界。在公共可用数据集上的实验表明,FedIIC 在处理两种耦合问题的同时,具有更优越的性能。
Jun, 2022
通过减少客户端之间的异质性,本研究提出了一种传递知识的方法,利用客户端专用生成器为每个客户端生成样本,以减少与其他客户端模型的冲突,从而构建出具有良好泛化能力的全局模型。
Aug, 2023
通过引入类原型相似度蒸馏算法 (FedCSD) 解决联邦学习中的客户端漂移和灾难性遗忘问题,实验证明它在各种异构环境下优于现有的联邦学习方法。
该论文提出了一种新颖的 FL 算法(FedIns)来处理 FL 框架中的内部客户数据异质性,并通过在 FL 框架中实现实例自适应推理来减少内部客户和跨客户之间的异质性,实验证明 FedIns 在 Tiny-ImageNet 上比现有 FL 算法表现更好(多于 6.64% 的性能提升,且通信成本不到 15%),代码和模型将在公开发布。
本文提出了 FedReg 算法来解决分布式学习中的灾难性遗忘问题,通过在本地训练阶段使用生成的伪数据作为正则化器,以保护用户隐私并提高算法的收敛速度。