面向边缘 IoT 网络的生命周期扩展联邦学习客户端选择
本篇论文中,我们介绍了一种基于移动边缘计算,利用分布式客户端数据和计算资源进行高性能机器学习模型训练的框架,该框架扩展了联邦学习的分布式学习框架,以实现与实际基于蜂窝网络的异构客户端的协作;我们的新FL协议(FedCS)通过解决具有资源限制的客户端选择问题来提高训练效率,在公开可用的大规模图像数据集上进行实验,实验结果表明,与原始FL协议相比,FedCS能够在显著缩短的时间内完成训练。
Apr, 2018
这篇论文介绍了一种完全分布式的联邦学习算法,该算法的优点在于避免了数据披露并具有扩展性商用前景,可以在包括物联网设备在内的网络中使用。
Dec, 2019
提出了一种叫做联邦学习的分散式学习结构,该结构可以在物联网设备中实现机器学习,通过处理来自不同客户端的数据,以预测未来事件。此方法可解决传统机器学习中遇到的通信开销、隐私泄露和安全性等问题,同时也避免了中央服务器的使用。本文讨论了在客户端资源有限的情况下实施联邦学习的挑战和应用。
Feb, 2020
本文提出了一种新的框架,叫做联合边缘智能(FEI),以评估物联网网络的能量成本和边缘服务器的本地数据处理能力,从而使边缘服务器适时地请求足够训练令人满意的模型所需的数据。同时,本文引入了映射函数来评估边缘服务器的计算负载,最后采用基于ADMM的方法来优化物联网网络的能量成本和边缘服务器的平均计算资源利用率。该文证明,所提出的算法不会泄露任何数据,也不会泄漏物联网网络的拓扑信息。仿真结果表明,FEI框架可以在有限的牺牲模型收敛性能的情况下,显著提高物联网网络和边缘服务器的资源效率。
Nov, 2020
该论文提出了一种名为LESSON的方法,它通过选择不同频率上传模型的客户端来解决异质客户端设置下的延迟问题,加速收敛速度并避免模型过度拟合。模拟结果表明,LESSON 的收敛速度比 FedAvg 和 FedCS 更快,模型准确性比 FedCS 更高。
Oct, 2022
本文通过在大量物联网和边缘设备网络上系统地进行广泛实验,重点关注异构情况,以探究在设备上实施联合学习的可行性,并呈现了其现实世界的特征,包括学习性能和操作成本,为研究人员和从业者提供有价值的见解,促进联邦学习的实用性,并帮助改进现有的联邦学习系统设计。
May, 2023
通过对资源受限物联网环境中实施联邦学习的挑战和解决方案的综合调研,从客户端和服务器两个层面上,关注有限的客户端资源、异构客户端数据的存在、服务器容量和高通信成本等问题,并评估它们在各种场景中的有效性。此外,基于应用位置(即物联网客户端和联邦学习服务器),本文还提出了新的评估指标,以允许研究人员在资源受限的物联网设备上评估其解决方案。
Aug, 2023
本研究针对联邦边缘学习(FEL)中,传统资源分配方案无法满足复杂应用场景下越来越高的计算和通信需求的问题,提出了联合资源优化的新思路。通过系统回顾FEL中不同资源的联合分配策略,研究显示这种方法能有效提升系统效率、减少延迟和增强资源利用率,同时有助于隐私保护。这项工作为联邦学习系统的资源管理提供了理论支持,并为实际应用场景的最优部署提供了创新思路。
Oct, 2024