本文主要研究了在高度移动设备上的分层联邦学习(HFL),证明了 HFL 在边缘级异构数据中移动性能够提高收敛速度以及模型准确性的优势。
Jan, 2024
研究使用梯度稀疏化和周期性平均的分层联邦学习框架,来在异构蜂窝网络中实现协作机器学习任务。结果表明,该方案可以显着降低通信延迟且不会减少模型精度。
Sep, 2019
本文提出名为 HeteroFL 的新型联邦学习框架,旨在解决具有非常不同计算和通信能力的异构客户端的问题,并通过几种策略增强 FL 训练。通过在三个数据集上进行五个计算复杂性级别的三种模型架构的广泛实证评估,通过自适应分配子网络来提高 FL 训练的计算和通信效率。
Oct, 2020
随着越来越多的物联网设备在现场部署,将神经网络的训练卸载到中央服务器变得越来越不可行,本文调查了联合学习在克服异构性挑战方面的应用和益处。
Jul, 2023
使用分层分割联邦学习算法,结合边缘和云端阶段的模型聚合来降低计算和通信开销,实现提高隐私保护并优化移动边缘计算中的内容传递速度和移动服务质量。
本研究提出一种新方法来解决联邦学习中的问题,并在本文所述的公开基准数据集(如 Femnist)以及自己收集的数据集(即流量分类)上验证了该方法的有效性,结果表明这种方法在极端情况下具有显著的优势。
Nov, 2020
本文提出了一种名为分层联邦学习(H-FL)的新框架,通过运行时分布重构策略,利用中介将客户端重新分配并重新安排客户端的本地训练,设计了一种压缩校正机制,同时不牺牲模型性能,降低通信开销,引入局部训练的差分隐私,注入适量的噪声到完整模型的一部分中,从而提供隐私保障,在真实的图像识别任务的不同数据集上实验结果表明,我们的 H-FL 框架实现了最先进的性能。
Jun, 2021
机器学习的未来在于边缘计算,用于数据收集和训练,联邦学习是实现这一目标的一种方法。本文提出了一种新的聚合框架,用于解决联邦优化中的计算异构性问题,包括异构数据和本地更新,并从理论和实验的角度进行了广泛的分析。
在车辆自组织网络中,引入了一种基于多跳聚类的分层联邦学习框架来解决有限的通信资源、高车辆移动性和数据分布统计多样性等问题,并通过使用平均相对速度和 FL 模型参数的余弦相似度的加权组合作为聚类度量来确保收敛性,在处理非独立同分布数据的情况下,最小化簇头变更的同时处理复杂性。此框架还包括一种管理聚类头的平滑过渡机制以及向指定簇头传递最新的 FL 模型参数的新机制,同时考虑合并簇头的选项以减少数量和相关开销,并通过广泛的仿真实验,证明了相对于之前提出的聚类算法和非聚类车辆自组织网络,该分层联邦学习系统在提高准确性和收敛时间方面显著改进,并且维持了可接受的分组开销水平。
异构联邦学习领域中,关键挑战是在具有不同数据分布、模型结构、任务目标、计算能力和通信资源的多个客户端之间高效协作训练模型。本文首先概述了异构联邦学习的基本概念,并从数据、模型、任务、设备和通信五个方面总结了在联邦学习中的研究挑战。此外,我们探讨了现有最先进的方法如何应对异构联邦学习的异质性,并将这些方法在数据级别、模型级别和架构级别进行分类和回顾。随后,本文详细讨论了在异构联邦学习环境中的隐私保护策略。最后,本文讨论了目前存在的开放问题和未来研究方向,旨在推动异构联邦学习的进一步发展。
May, 2024