联邦边缘学习:设计问题和挑战
通过动态调度和资源分配算法解决异构数据和时间变化目标函数下,在长期能量限制条件下,流式数据随机生成和资源可用性的固有随机性,并通过仿真结果验证了所提出方案相对于基准方案的学习性能和能效的提高。
May, 2024
该研究论文展望了联邦学习的发展,并阐述了五个与算法基础、个性化、硬件和安全限制、终身学习以及非标准化数据相关的方向。该研究可为边缘设备的大规模联邦系统提供实用观察。
Feb, 2022
基于群集数据共享的联邦边缘学习 (FEEL) 是为 6G 超连接而出现的分布式机器学习范式,通过保护数据隐私,利用物联网设备的数据。为了解决 FEEL 中的统计不平衡问题,我们引入了一个集群数据共享框架,通过辅助多播来选择性地从集群头部共享部分数据给可信合作伙伴,以缓解数据异质性。所提出的框架在有限的通信环境中,能够在非独立和非齐分布的数据集上实现更快的收敛速度和更高的模型准确性。
Jun, 2024
通过网络设计和资源编排的两个方面讨论了实现可扩展无线联邦学习的挑战和解决方案,并提出了三种面向任务的学习算法来提高算法的可扩展性,实现对无线联邦学习的计算高效资源分配。
Oct, 2023
本文介绍了联邦学习技术与移动边缘计算的应用,讨论了在大规模和复杂的移动边缘网络中实现联邦学习所面临的挑战以及现有解决方案,探讨了联邦学习在移动边缘网络优化中的应用,以及未来的研究方向与挑战,包括保护隐私与安全。
Sep, 2019
提出了一种叫做联邦学习的分散式学习结构,该结构可以在物联网设备中实现机器学习,通过处理来自不同客户端的数据,以预测未来事件。此方法可解决传统机器学习中遇到的通信开销、隐私泄露和安全性等问题,同时也避免了中央服务器的使用。本文讨论了在客户端资源有限的情况下实施联邦学习的挑战和应用。
Feb, 2020
在高度普及的边缘场景中,缺乏中央控制器和预定的设备连接导致了复杂的网络结构,我们提出了一种通信高效的分散式联邦学习(DFL)算法来解决由数据和不同训练历史引起的异构学习难题,研究结果表明,与竞争方法相比,我们的解决方案能够训练出更好的本地模型并且在通信效率上更为优越。
Dec, 2023
本文探讨了能够满足数据隐私保护的联邦边缘学习框架 (FEEL)。通过在边缘设备上进行本地模型训练并与全局模型在服务器上进行协调,实现了边缘设备上的学习算法。为了减少设备的能耗,在保证学习性能的基础上,我们提出了一些节能策略,并且根据设备的信道状态和计算能力分配带宽和安排时间表。与传统的速率最大化设计相比,我们的优化策略为弱信道和计算能力较差的设备分配更多的带宽,以确保 FEEL 中模型的同步更新。同时,为了提高学习性能,我们也设计出一个移动策略以给予更好信道和计算能力的设备更高的优先级。实验结果表明,我们提出的策略在节能方面有显著的提升。
Jul, 2019
本文通过在大量物联网和边缘设备网络上系统地进行广泛实验,重点关注异构情况,以探究在设备上实施联合学习的可行性,并呈现了其现实世界的特征,包括学习性能和操作成本,为研究人员和从业者提供有价值的见解,促进联邦学习的实用性,并帮助改进现有的联邦学习系统设计。
May, 2023
在本文中,我们提出了一种基于 Lyapunov 优化框架的算法,用于设计一种动态调度策略,以最大化定期生成训练数据的用户集的时间平均数据重要性,并满足能源消耗和延迟约束,特别是在训练数据的生成具有强烈时间相关性的情况下明显优于其他方法的联邦边缘学习系统。
May, 2023