FedProto: 跨异构客户端的联邦原型学习
该论文提出了一种基于原型的联邦学习框架,通过在典型的联邦学习进程的最后全局迭代中进行少量更改就能够实现更好的推理性能,从而在两个基准数据集上实现了更高的准确性和相对高效的通信。
Mar, 2023
在分布式机器学习技术中,联邦学习(FL)要求客户端在边缘服务器上协同训练共享模型,而不泄露其本地数据。本文引入了一种基于原型的正则化策略来解决数据分布的异质性,并通过实验结果表明,在 MNIST 和 Fashion-MNIST 上与最流行的基准 FedAvg 相比,我们的方法分别取得了 3.3% 和 8.9% 的平均测试准确率提升,而且在异质设置下具有快速收敛速度。
Jul, 2023
本文提出了一种名为 FedNH 的新方法,通过组合类原型的均匀性和语义来改善在分类设置中的数据不均衡问题。实验证明了该方法对于局部模型的个性化和概括性都有显著的提高。
Dec, 2022
提出了一种名为 Federated Multi-Level Prototypes (FedMLP) 的新型联邦学习框架,以应对异构数据分布和动态任务的联邦学习需求,并引入原型和语义原型来缓解概念漂移问题。
Dec, 2023
通过减少客户端之间的异质性,本研究提出了一种传递知识的方法,利用客户端专用生成器为每个客户端生成样本,以减少与其他客户端模型的冲突,从而构建出具有良好泛化能力的全局模型。
Aug, 2023
该论文提出了一种名为 Dynafed 的解决方案,通过收集和利用全局模型轨迹的动态知识来帮助聚合偏斜客户端数据,从而解决了 Federated Learning 在异构数据上局部最优的问题,同时不会影响数据隐私。
Nov, 2022
本文提出了一种叫做 FedAlign 的基于局部学习广泛性而非接近约束的数据异构性联邦学习解决方案,其可在不引入大量计算和内存开销的情况下实现与最先进的 FL 方法相当的精度。
Nov, 2021
通过使用自适应边际增强对比学习(ACL)学习 Server 端的可训练全局原型(TGP),FedTGP 方法在维持原型增值的同时保留语义含义,实验证明在保持通信和隐私优势的基础上最高可提升 9.08% 的准确性,该方法超过了现有最先进方法。
Jan, 2024