用于解决联邦学习中数据隐私问题导致的设备端数据无法被中心服务器使用的问题,本文提出了一种基于估计方案的设备选择算法,以最小化类别不平衡来提高联邦学习全局模型的收敛性能。
Nov, 2020
本研究提出了一种新颖的集群型联邦学习框架,使得具有非独立同分布数据的分布式边缘设备能够自主地以分布式方式形成若干个集群,并在每个集群内实现联邦学习训练。通过引入联邦学习和损失协同的分布式聚类方法,本研究克服了联邦学习中的两个挑战,并证明所提出的集群型联邦学习算法与现有基准相比,可以将聚类迭代次数减少多达 99%。
Nov, 2023
联邦学习是机器学习领域中迅速发展的领域,允许数据在多个分散设备上进行训练。客户端选择是整个系统性能的关键因素。本调查综述了联邦学习中最先进的客户端选择技术,包括它们的优点、局限性以及需解决的挑战和开放问题。我们涵盖了传统的选择技术,例如随机选择,其中选择所有或部分随机的客户端进行训练。我们还涵盖了面向性能和面向资源的选择,适用于资源受限和异构网络。我们还讨论了客户端选择在模型安全增强中的使用。最后,我们讨论了动态约束和异构网络中的客户端选择相关的开放问题和挑战。
本文提出了一种自适应训练算法 AdaFL,该算法通过注意力机制和动态分数方法来平衡性能稳定性和通信效率,实验结果表明相对于 FedAvg 算法,AdaFL 算法在模型精度、性能稳定性和通信效率三个方面都有很大的提高。
Aug, 2021
物联网网络和数据处理技术的发展对分布式学习方法中的联邦学习具有巨大潜力,本论文通过两个实例展示了联邦学习在物联网网络中实现高效和保护隐私的机器学习的潜力,并通过模拟研究了隐私和准确性之间的权衡关系。
Dec, 2023
本文介绍了自适应联邦学习方法,可根据选择的本地设备和每轮训练中的本地迭代次数,最小化学习时间和能耗成本,并分析了总成本与控制变量之间的关系及其上限。作者开发了一种基于低成本采样的算法来学习收敛相关的未知参数,并通过模拟和实验验证了解决方案,证明其在不同数据集、机器学习模型和异构系统设置方案中都能实现接近最优的性能。
Dec, 2020
本文提出了一种叫做 FedAlign 的基于局部学习广泛性而非接近约束的数据异构性联邦学习解决方案,其可在不引入大量计算和内存开销的情况下实现与最先进的 FL 方法相当的精度。
Nov, 2021
本文介绍了一个集成了聚类式联邦学习和模型压缩优势的新型层次式联邦学习框架,包括自适应聚类算法和局部聚合压缩算法。仿真结果证实,我们提出的算法不仅保持了可比较的预测准确性,还显著降低了相对于现有联邦学习机制的能源消耗。
May, 2024
本文介绍了一种 On-Demand-FL 的客户端部署方法,使用容器化技术来利用物联网和移动设备作为志愿者,使用 Kubernetes 进行协调。在移动数据挑战(MDC)数据集和 Localfed 框架上进行的实验说明了所提出方法的相关性以及在需要时实现客户端的即时部署的效率,能减少废弃回合并提供更多可用的数据。
Nov, 2022
我们提出了一种异步高效去中心化联邦学习框架,即 AEDFL,它在异构环境中具有三个独特的贡献:首先,我们提出了一种异步的 FL 系统模型,并使用高效的模型聚合方法来改进 FL 的收敛性;其次,我们提出了一种动态过期感知的模型更新方法,以实现更高的准确性;第三,我们提出了一种自适应的稀疏训练方法,以降低通信和计算成本,同时准确性下降不显著。通过在四个公共数据集和四个模型上进行广泛的实验,证明了 AEDFL 在准确性(高达 16.3%)、效率(高达 92.9%)和计算成本(高达 42.3%)方面的优势。