本文提出了一种更高效的混合联邦与集中学习(HFCL)方法来解决客户端计算资源不足的情况,该方法可以将数据集分别发送给有足够计算资源的客户端和参数服务器,从而在减少通信开销和提高学习准确率方面都具有更好的性能表现。
May, 2021
本文探讨了物理层设计问题中基于联邦学习的最新进展,相比于集中化学习,联邦学习在通信开销方面更有效,但在学习准确性方面略有损失,同时探讨了模型、数据和硬件复杂性方面的设计挑战和可能的解决方案。
Feb, 2021
去中心化联邦学习解决方案的综述,包括现有的方法和未来的研究方向。
Aug, 2023
本文提出了一种名为 FedCLG 的新算法,它可以在类似于混合 FL 的情形下防止部分参与的限制,同时保护客户隐私并实现模型聚合。数值实验表明,该算法胜过现有方法。
Apr, 2023
分层联邦学习是一种扩展传统联邦学习过程以实现更高效的模型聚合的方法,可用于智能农业和智能能源管理等应用中,以提高性能并降低成本。
本文讨论联邦学习的最新进展和挑战,并提出了一系列开放性问题和挑战。
Dec, 2019
在高度普及的边缘场景中,缺乏中央控制器和预定的设备连接导致了复杂的网络结构,我们提出了一种通信高效的分散式联邦学习(DFL)算法来解决由数据和不同训练历史引起的异构学习难题,研究结果表明,与竞争方法相比,我们的解决方案能够训练出更好的本地模型并且在通信效率上更为优越。
Dec, 2023
通过综合研究当前对聚类型联邦学习方法,本文提出了一个四层框架(HCFL),并针对每一层中当前聚类方法面临的挑战提出了一个增强聚类方法 HCFL+,通过广泛的数值评估展示了我们的聚类框架和改进组件的有效性。
Oct, 2023
本文研究车联网应用中的联邦学习与集中式学习的可行性,探讨了基于图像数据集的目标检测,分析了数据标注、模型训练的挑战,以及数据速率、可靠性、隐私和资源管理等通信方面的问题,并为联邦学习在车联网领域中的未来研究方向提供了展望。
Jun, 2020
本文提出了一种轻量级框架,使客户端通过融合多个预训练模型生成的表示而不是从头开始训练大规模模型来共同学习;我们设计了一种基于原型的对比学习(FedPCL)方法,以原型为共享信息进行知识传递,从而提高各个客户端利用现有模型的能力并保持通信效率。
Sep, 2022