提出了一种处理异构用户设备数据的联邦学习算法,同时结合对微波资源分配问题的优化,实现了收敛速率和能耗之间的平衡,并用Tensorflow实验验证了该算法的理论分析和优化表现。
Oct, 2019
该研究探讨了基于设备对设备(D2D)网络的联邦学习,在分布式随机梯度下降算法实现中,利用随机线性编码和空中计算的数字和模拟传输方案进行通信效率的改进,并且在假设凸性和连通性的情况下提供了收敛性结果。
Jan, 2021
本篇文章提出了FedAdapt,这是一种联邦学习框架,通过层次化的离线和强化学习优化,将深度神经网络中的特定层进行远程卸载,以解决物联网设备执行效率、设备计算异构性和网络带宽变化等方面的挑战,实验证明,相比传统的联邦学习,FedAdapt可以将典型物联网设备的训练时间缩短一半以上,可以将极端滞后的训练时间和总体训练时间缩短高达57%,在不损失准确性的情况下还可以将训练时间缩短多达40%。
Jul, 2021
本文对联邦学习进行了拓展,提出了并行连续学习(PSL),利用PSL的框架,实现了从三个方面的拓展:网络(通过设备之间的设备对设备通信进行分散合作),异构性(考虑到训练设备之间的数量、数据来源和性能差异),以及接近度(设备之间不同的距离和不同的访问点)。PSL实现了模型的分散和本地模型凝聚作为联邦学习方法的一部分,并提出了网络感知动态模型跟踪以优化模型学习和资源效率之间的权衡。
Feb, 2022
提出一种名为FedGS的框架,通过构建数据依赖图、限制采样次数等方法稳定了全局模型更新,解决了联邦学习中由于客户端可用性不稳定带来的模型偏差问题。实验结果验证了FedGS在实现公平客户端采样以及提升模型性能方面的优势。
Nov, 2022
本文通过在大量物联网和边缘设备网络上系统地进行广泛实验,重点关注异构情况,以探究在设备上实施联合学习的可行性,并呈现了其现实世界的特征,包括学习性能和操作成本,为研究人员和从业者提供有价值的见解,促进联邦学习的实用性,并帮助改进现有的联邦学习系统设计。
May, 2023
随着越来越多的物联网设备在现场部署,将神经网络的训练卸载到中央服务器变得越来越不可行,本文调查了联合学习在克服异构性挑战方面的应用和益处。
Jul, 2023
通过智能设备采样和设备之间的数据卸载,优化联邦学习的训练准确性以及数据处理和设备通信资源的消耗。通过图卷积网络学习网络属性、采样节点和设备之间的数据卸载之间的关系,该方法优于现有的文献中的设备采样方法。
Nov, 2023
提出了一种新的独立客户抽样策略,旨在最小化联合系统和数据异构设计中的FL的墙钟训练时间,同时考虑通信和计算中的数据和系统异构。通过实验结果表明,在实际无线网络环境下,所提出的独立抽样方案在各种训练模型和数据集下显著优于当前最佳的抽样方案。
Feb, 2024
设计适应性客户采样算法以最小化墙钟收敛时间,从而解决系统和统计异质性对联合学习过程的影响。
Apr, 2024