带异构标签和模型的资源受限联邦学习
提出了一种叫做联邦学习的分散式学习结构,该结构可以在物联网设备中实现机器学习,通过处理来自不同客户端的数据,以预测未来事件。此方法可解决传统机器学习中遇到的通信开销、隐私泄露和安全性等问题,同时也避免了中央服务器的使用。本文讨论了在客户端资源有限的情况下实施联邦学习的挑战和应用。
Feb, 2020
本文提出名为HeteroFL的新型联邦学习框架,旨在解决具有非常不同计算和通信能力的异构客户端的问题,并通过几种策略增强FL训练。通过在三个数据集上进行五个计算复杂性级别的三种模型架构的广泛实证评估,通过自适应分配子网络来提高FL训练的计算和通信效率。
Oct, 2020
本文提出了一种基于设备采样和设备到设备卸载组合优化的联邦学习优化算法,通过优化采样节点和数据卸载配置来最大化FedL训练的准确性,有效提高了训练模型的准确性和资源利用率。
Jan, 2021
本文探讨了如何应对异构设备和用户的挑战,提出了一种新型的聚合算法FedDist,该算法能够考虑到客户端的差异性而不影响泛化能力,并在人类活动识别普适领域上通过对比测试发现其表现更好。
Oct, 2021
本文提出了第一个针对不同客户的异构和相关可用性的FedAvg类FL算法的收敛分析,发现相关性如何不利地影响算法的收敛速率,并且介绍了一种新的算法CA-Fed,在最大化收敛速度和最小化模型偏差之间寻求平衡,同时忽略了可用性低和相关性大的客户。实验结果表明,CA-Fed在合成数据集和实际数据集上比AdaFed和F3AST等现有算法具有更高的时间平均准确性和更低的标准差。
Jan, 2023
pFedKnow是一个SemiFL框架,它通过神经网络剪枝技术生成轻量级的个性化客户端模型以降低通信成本,并将预训练的大型模型作为先验知识来指导个性化客户端模型的聚合,以进一步提高框架性能。
Mar, 2023
本文通过在大量物联网和边缘设备网络上系统地进行广泛实验,重点关注异构情况,以探究在设备上实施联合学习的可行性,并呈现了其现实世界的特征,包括学习性能和操作成本,为研究人员和从业者提供有价值的见解,促进联邦学习的实用性,并帮助改进现有的联邦学习系统设计。
May, 2023
机器学习的未来在于边缘计算,用于数据收集和训练,联邦学习是实现这一目标的一种方法。本文提出了一种新的聚合框架,用于解决联邦优化中的计算异构性问题,包括异构数据和本地更新,并从理论和实验的角度进行了广泛的分析。
Jul, 2023
通过对资源受限物联网环境中实施联邦学习的挑战和解决方案的综合调研,从客户端和服务器两个层面上,关注有限的客户端资源、异构客户端数据的存在、服务器容量和高通信成本等问题,并评估它们在各种场景中的有效性。此外,基于应用位置(即物联网客户端和联邦学习服务器),本文还提出了新的评估指标,以允许研究人员在资源受限的物联网设备上评估其解决方案。
Aug, 2023