合作设备的联邦学习: 大规模物联网网络的共识方法
提出了一种叫做联邦学习的分散式学习结构,该结构可以在物联网设备中实现机器学习,通过处理来自不同客户端的数据,以预测未来事件。此方法可解决传统机器学习中遇到的通信开销、隐私泄露和安全性等问题,同时也避免了中央服务器的使用。本文讨论了在客户端资源有限的情况下实施联邦学习的挑战和应用。
Feb, 2020
该研究探讨了基于设备对设备(D2D)网络的联邦学习,在分布式随机梯度下降算法实现中,利用随机线性编码和空中计算的数字和模拟传输方案进行通信效率的改进,并且在假设凸性和连通性的情况下提供了收敛性结果。
Jan, 2021
本文提出了一种称为高压缩联邦学习的压缩方案,可应用于大规模物联网网络中的协作学习,以减少通信成本并提高学习过程的适应性,并探索了物联网设备数量与FL模型收敛水平之间的关系。
Apr, 2022
本文通过在大量物联网和边缘设备网络上系统地进行广泛实验,重点关注异构情况,以探究在设备上实施联合学习的可行性,并呈现了其现实世界的特征,包括学习性能和操作成本,为研究人员和从业者提供有价值的见解,促进联邦学习的实用性,并帮助改进现有的联邦学习系统设计。
May, 2023
通过对资源受限物联网环境中实施联邦学习的挑战和解决方案的综合调研,从客户端和服务器两个层面上,关注有限的客户端资源、异构客户端数据的存在、服务器容量和高通信成本等问题,并评估它们在各种场景中的有效性。此外,基于应用位置(即物联网客户端和联邦学习服务器),本文还提出了新的评估指标,以允许研究人员在资源受限的物联网设备上评估其解决方案。
Aug, 2023
在技术时代,数据是一种越来越重要的资源。本文介绍了使用树莓派开发的联邦学习(FL)解决方案原型,通过测试其性能和可用性证明了这些技术的可行性,尽管在许多情况下它们没有达到传统方法的性能水平。
Nov, 2023
在工业物联网中,由于隐私和安全问题,很难将大量数据集中到一起训练深度学习模型,因此联邦学习,一种保护数据隐私的分布式机器学习范式,在物联网中得到广泛应用。然而,在实际的联邦学习中,数据分布通常在设备之间存在较大差异,数据的异构性将对模型的性能产生不利影响。此外,物联网中的联邦学习通常涉及大量设备的训练,而云服务器的通信资源有限成为训练的瓶颈。为了解决上述问题,本文将集中式联邦学习与分散式联邦学习相结合,设计了一种半分散式边缘云设备层次化联邦学习框架,可以缓解数据异构性的影响,并且能够在物联网中大规模部署。为了解决数据异构性的影响,我们在每个环状集群中使用了增量次梯度优化算法来改善环状集群模型的泛化能力。我们的大量实验证明,我们的方法可以有效缓解数据异构性的影响,并减轻云服务器中的通信瓶颈。
Mar, 2024
本文解决了联合学习中非独立同分布数据集的问题,主要是在参与者数据异构性导致训练全球模型性能下降。通过利用移动物联网节点的地理特征,本文提出了一种新颖的聚类与分组方法,确保每个联合学习组的数据集接近独立同分布。实验结果表明,我们的方法在设备中断数量和每组设备数量均衡性方面相较基准算法显著提高了性能。
Oct, 2024