使用下行设备选择的联邦学习
本文研究了联合学习中带宽受限的广播通道对性能的影响,提出了数字和模拟两种下行传输方法,并证明了模拟方法的收敛性更好,尤其在数据分布不均和设备能够更好地估计全局模型时性能更优。
Aug, 2020
本文研究边缘设备协作学习中的无线联邦学习,其中利用无线接入点作为参数服务器,使用 “over-the-air” 聚合方案实现全局模型的积极性和设备间的协作,通过使用接收波束成形方案来补偿缺乏完美信道状态信息带来的破坏效应,证明该算法在具有足够天线数量的情况下可以改善其性能。
Oct, 2020
本研究探讨了在带宽受限的无线通道中,通过设计新的调度和资源分配策略,决定在每次迭代中要传输哪些设备的本地模型更新,并考虑到局部模型更新的重要性,实现联邦学习算法的收敛性和长期性能的优化。
Jan, 2020
本文对联邦学习进行了拓展,提出了并行连续学习 (PSL),利用 PSL 的框架,实现了从三个方面的拓展:网络(通过设备之间的设备对设备通信进行分散合作),异构性(考虑到训练设备之间的数量、数据来源和性能差异),以及接近度(设备之间不同的距离和不同的访问点)。PSL 实现了模型的分散和本地模型凝聚作为联邦学习方法的一部分,并提出了网络感知动态模型跟踪以优化模型学习和资源效率之间的权衡。
Feb, 2022
本文提出了一种基于聚类的两层联邦学习算法,使用可扩展的聚类无线聚合方案实现算法的上行传输,使用适用于带宽受限的广播方案进行下行传输,展示了在干扰环境下该方法的高精度学习表现并导出该方法的收敛界。
Nov, 2022
本文探讨了物理层设计问题中基于联邦学习的最新进展,相比于集中化学习,联邦学习在通信开销方面更有效,但在学习准确性方面略有损失,同时探讨了模型、数据和硬件复杂性方面的设计挑战和可能的解决方案。
Feb, 2021
用于解决联邦学习中数据隐私问题导致的设备端数据无法被中心服务器使用的问题,本文提出了一种基于估计方案的设备选择算法,以最小化类别不平衡来提高联邦学习全局模型的收敛性能。
Nov, 2020
通过智能设备采样和设备之间的数据卸载,优化联邦学习的训练准确性以及数据处理和设备通信资源的消耗。通过图卷积网络学习网络属性、采样节点和设备之间的数据卸载之间的关系,该方法优于现有的文献中的设备采样方法。
Nov, 2023
本文研究了在无线网络边缘的联邦机器学习,其中有限功率的无线设备,每个设备具有自己的数据集,并利用远程参数服务器(PS)建立联合模型。文章提出了各种技术来实现分布式随机梯度下降(DSGD),其中包括数字 DSGD(D-DSGD)和压缩模拟 DSGD(CA-DSGD)算法,并通过实验数据表明 CA-DSGD 算法收敛速度更快,达到更高的精度。
Jul, 2019
本研究考虑了一种基于无线边缘网络的多对一联合学习架构,并提出了基于 SGD 的带限制坐标下降算法以适应无线通信资源。研究者还通过联合优化功率分配和学习速率以减少通信误差,并发现跨不同子载波的最佳功率分配应同时考虑梯度值和信道条件。最后,他们提出了一些可行的分布式解决方案来对该问题进行优化。
Feb, 2021