本文提出了一种称为 EvoFed 的新方法,通过将进化策略(ES)与分布式学习(FL)相结合,解决了传统 FL 中高通信成本的问题。EvoFed 通过基于适应度的信息共享,在节点之间传递一种基于距离的相似度度量,从而大幅减少了通信负载。在实验中,EvoFed 在各种实际环境中展现出与 FedAvg 相当的性能,同时显著降低了通信需求。
Nov, 2023
此论文使用多目标进化算法优化神经网络模型的结构,以同时减少通信成本和全局模型测试误差,提高联邦学习的学习性能和效率。
Dec, 2018
调查分析了通信高效的联合学习方法,定义了通信效率的度量方法并提供了系统全面的分类和评述,讨论了提高联合学习系统通信效率的未来研究方向。
May, 2024
物联网网络和数据处理技术的发展对分布式学习方法中的联邦学习具有巨大潜力,本论文通过两个实例展示了联邦学习在物联网网络中实现高效和保护隐私的机器学习的潜力,并通过模拟研究了隐私和准确性之间的权衡关系。
Dec, 2023
本文提出了一种无线边缘私有联邦学习方案 PFELS,通过奇异值稀疏化降低通信通信和能源消耗,提高交付速度,保证客户端级别的差分隐私,实现共享全局模型过程中的隐私安全保障。实验结果表明,与现有技术相比,PFELS 在保持同等差分隐私保障的同时能提高准确率和节省通信和能源成本。
Apr, 2023
本文详细阐述了联邦学习的体系结构、应用问题、算法设计原则和安全问题,提出了一种更加通用的算法设计框架、攻击场景和防御方法,致力于将联邦学习与真实世界应用相集成并实现高性能、隐私保护和安全性。
Feb, 2023
Federated Learning 的通信成本问题在该论文中通过动态权重聚类和服务器端知识蒸馏的组合方法 FedCompress 得到解决,从而实现了降低通信成本并获得高度可泛化模型的学习。
Jan, 2024
本文探讨联邦学习中的机器学习算法以及通过结构化更新和草图更新的方式来降低通信成本,实验结果表明这两种方法可以将通信成本降低两个数量级。
Oct, 2016
FeDEQ 是一种先驱性的联邦学习框架,利用深度均衡学习和一致性优化有效地在边缘节点之间利用紧凑的共享数据表示,允许派生个性化模型,并通过采用交替方向法解(ADMM)一致性优化的新型分布式算法,理论上证明了其收敛性。实验结果表明,与最先进的个性化方法相比,FeDEQ 在通信大小上使用的模型可小 4 倍,并且在训练时内存占用更少 1.5 倍,性能可媲美。
Sep, 2023
本研究通过动态采样和 Top-K 选择性掩蔽这两种方法,提高了联邦学习的通信效率,并在公共数据集上进行实验,证明了该方法的有效性。
Mar, 2020