FedHeN: 异构网络中的联邦学习
提出了一个新的标准联邦学习 (FL) 框架,该框架通过采用图形超网络进行参数共享,适应了异构客户端架构的需求,并在标准基准测试中表现显着优于现有解决方案。
Jan, 2022
本文提出使用自注意力机制的神经网络模型(如 Transformer),替代传统的卷积神经网络模型,以改进联邦学习中的模型性能和稳定性,尤其当处理异构数据的时候,可以大大降低模型遗忘和加快模型学习收敛速度。
Jun, 2021
异构联邦学习领域中,关键挑战是在具有不同数据分布、模型结构、任务目标、计算能力和通信资源的多个客户端之间高效协作训练模型。本文首先概述了异构联邦学习的基本概念,并从数据、模型、任务、设备和通信五个方面总结了在联邦学习中的研究挑战。此外,我们探讨了现有最先进的方法如何应对异构联邦学习的异质性,并将这些方法在数据级别、模型级别和架构级别进行分类和回顾。随后,本文详细讨论了在异构联邦学习环境中的隐私保护策略。最后,本文讨论了目前存在的开放问题和未来研究方向,旨在推动异构联邦学习的进一步发展。
May, 2024
本文提出了一个应对标签异质性的框架,该框架通过简单的 α 加权联邦聚合计算分数获得了最多 16.7% 的平均确定性准确性提高,并在树莓派 2 上进行了实验以演示其设备内功能。
Nov, 2020
本文提出了一种基于超网络的个性化联邦学习方法 pFedHN,该方法可以协同训练多个客户端的个性化模型,在考虑数据分布差异和减少通信成本的同时实现有效的参数共享,并在多个个性化联邦学习挑战中得到了很好的表现。
Mar, 2021
本文提出了一种新颖的三层体系结构,用于优化边缘计算环境下的联邦学习。所提出的体系结构解决了客户数据异质性和计算约束所带来的挑战。它引入了一个可扩展的、隐私保护的框架,提高了分布式机器学习的效率。通过实验,本文证明了该体系结构比传统的联邦学习模型更有效地处理非独立同分布的数据集。此外,本文还强调了这种创新方法提高模型准确性、减少通信开销和促进联邦学习技术更广泛应用的潜力。
Mar, 2024
通过使用一种叫作 Fog learning 的新学习范式,从边缘设备到云服务器中智能地分布机器学习模型的训练,来增强联邦学习的三个重要维度:网络、异构性和邻近性,并考虑由各种接近程度异构设备组成的多层混合学习框架,通过设备到设备(D2D)通信进行协作学习,使其从联邦学习中用于参数传输的星型网络拓扑迁移到更分布式的规模。
Jun, 2020
本文介绍了一个同时考虑全球模型改进和系统异构性及数据异构性的多设备上深神经网络的高效部署的联邦学习框架 FedSup,该框架结合了数据异构性和超网络训练中的不同步骤来减少通信成本和提高训练效率,通过在标准基准测试上验证,确保了数据和模型的异构性和鲁棒性。
Jun, 2022