本文提出了一种监测模式以及一种新的比率损失函数,用于检测和减轻联邦学习中的类别失衡问题,并展示了其在保护客户隐私的同时在相对效率和精度方面的优越性。
Aug, 2020
本文系统地回顾和筛选了422篇文献,研究了联邦学习框架,揭示了当前研究的局限性,并提出了未来研究的方向。
May, 2022
机器学习的未来在于边缘计算,用于数据收集和训练,联邦学习是实现这一目标的一种方法。本文提出了一种新的聚合框架,用于解决联邦优化中的计算异构性问题,包括异构数据和本地更新,并从理论和实验的角度进行了广泛的分析。
Jul, 2023
EdgeFL是一种去中心化、轻量化的边缘FL框架,通过采用边缘模型训练和聚合方法来克服集中式聚合和FL部署可扩展性的限制,提供了更好的性能、更新延迟和分类准确性。
Sep, 2023
通过使用基础模型蒸馏进行联邦训练,提高轻量级客户模型在异构数据环境下的性能,并降低推理成本。
Nov, 2023
在高度普及的边缘场景中,缺乏中央控制器和预定的设备连接导致了复杂的网络结构,我们提出了一种通信高效的分散式联邦学习(DFL)算法来解决由数据和不同训练历史引起的异构学习难题,研究结果表明,与竞争方法相比,我们的解决方案能够训练出更好的本地模型并且在通信效率上更为优越。
Dec, 2023
联邦学习是一种机器学习方法,可以在持有本地数据样本的多个分散边缘设备之间进行协作模型训练,而无需交换这些样本。本报告探讨了非独立非同分布的数据与异构数据带来的问题,并探索了目前设计用于解决这些挑战的算法。
Jan, 2024
在大规模FL环境中,本研究旨在研究客户端选择算法的开销,并提出一种高效的数据分布摘要计算算法来减少开销。评估结果显示,我们的解决方案在数据摘要时间上能够实现30倍的降低,聚类时间上能够实现360倍的降低。
Jun, 2024
本研究针对联邦学习系统中动态引入新客户端所面临的挑战,探讨了数据异质性和不同数据分布对模型训练和系统效率的影响。提出了有效的客户端选择策略,并以光学质量检测图像为例提供了实用的解决方案,强调了新客户端集成在提升数据多样性和学习性能方面的重要性。
Aug, 2024
本研究探讨了联邦学习系统中新客户端的整合问题,识别了数据异质性和分布差异对模型训练和系统稳定性的影响。作者提出了一系列有效的客户端选择策略,以提升系统的可扩展性和稳定性,最终促进联邦学习在生产环境中的应用。