EdgeFL:一种轻量级分布式联邦学习框架
本文介绍了一种名为 EasyFL 的低代码平台,可用于支持联邦学习方法。该平台不仅易于使用,而且具有模块化设计和简单的 API,可用于加速实验和部署。EasyFL 提供了多个功能,如模拟、全面跟踪、分布式培训优化和无缝部署,从而使联邦学习方法被更广泛地使用,并帮助提高研究人员的生产力。
May, 2021
通过将人工智能(AI)与边缘计算相结合,边缘智能利用终端设备和边缘服务器的计算和通信能力,在数据产生的地方进行处理,从而实现人工智能的大规模和高效部署。其中一项关键技术是隐私保护的机器学习范式 Federated Learning(FL),该范式使数据所有者能够在无需将原始数据传输到第三方服务器的情况下训练模型。然而,FL 网络预计涉及成千上万个异构分布式设备,因此通信效率仍然是一个关键瓶颈。为了减少节点故障和设备退出,提出了一种分层联邦学习(HFL)框架,其中指定的集群领导者通过中间模型聚合支持数据所有者。因此,基于改进的边缘服务器资源利用,本文可以有效弥补缓存容量的限制。为了减轻软点击对用户体验质量(QoE)的影响,作者将用户 QoE 建模为综合系统成本。为解决这个公式化问题,作者提出了一种具有联邦深度强化学习(DRL)和联邦学习(FL)的分散式缓存算法,其中多个代理独立学习并做出决策。
Mar, 2024
在高度普及的边缘场景中,缺乏中央控制器和预定的设备连接导致了复杂的网络结构,我们提出了一种通信高效的分散式联邦学习(DFL)算法来解决由数据和不同训练历史引起的异构学习难题,研究结果表明,与竞争方法相比,我们的解决方案能够训练出更好的本地模型并且在通信效率上更为优越。
Dec, 2023
FLEdge 是一个针对边缘计算系统中 FL 工作负载的基准测试,通过系统地研究硬件异构、训练期间的能量效率以及不同差分隐私级别对 FL 系统的训练效果的影响,检验了客户端退货率对最先进的 FL 策略的影响,发现在老 GPU 加速嵌入式设备上训练现代的 FL 工作负载比在现代服务器级别的 GPU 上训练要节省能源高达 3 倍。
Jun, 2023
本文研究了在边缘网络上进行 FEEL 的挑战和权衡,提出了一种数据感知调度的通用框架作为未来研究方向的指南,并讨论了数据评估的主要轴和要求以及一些可利用的技术和指标。
Aug, 2020
本论文探讨了利用 Flower 框架在各种智能手机和嵌入式设备上进行设备内联合学习的系统成本,并讨论了如何利用此定量数据来设计更有效的联邦学习算法。
Apr, 2021
该研究论文展望了联邦学习的发展,并阐述了五个与算法基础、个性化、硬件和安全限制、终身学习以及非标准化数据相关的方向。该研究可为边缘设备的大规模联邦系统提供实用观察。
Feb, 2022
提出了一种新的基于 EECC 的 FL 框架 ——Agglomerative Federated Learning (FedAgg),它实现了具有实时访问的终端 - 边缘 - 云协同的设备级扩展,通过 Bridge Sample Based Online Distillation Protocol (BSBODP) 来递归地组织计算节点,实现每对父 - 子计算节点之间的知识传递和提取,提高了性能并满足了 FL 的隐私约束和 EECC 的灵活性要求。实验证明,FedAgg 相比最先进的方法,在准确率上平均提高了 4.53%,并在收敛速度上有显著的改进。
Dec, 2023