分层和分散的联邦学习
在高度普及的边缘场景中,缺乏中央控制器和预定的设备连接导致了复杂的网络结构,我们提出了一种通信高效的分散式联邦学习(DFL)算法来解决由数据和不同训练历史引起的异构学习难题,研究结果表明,与竞争方法相比,我们的解决方案能够训练出更好的本地模型并且在通信效率上更为优越。
Dec, 2023
本文提供了关于联邦学习的概述,并重点关注医疗保健领域。通过中央协调器服务器共享全局深度学习模型,解决了隐私保护需求并探讨了联邦学习遇到的挑战和未来发展方向,其中使用多方计算、同态加密、差分隐私和随机梯度下降等多种隐私方法。
May, 2022
本文提出了一种名为分层联邦学习(H-FL)的新框架,通过运行时分布重构策略,利用中介将客户端重新分配并重新安排客户端的本地训练,设计了一种压缩校正机制,同时不牺牲模型性能,降低通信开销,引入局部训练的差分隐私,注入适量的噪声到完整模型的一部分中,从而提供隐私保障,在真实的图像识别任务的不同数据集上实验结果表明,我们的 H-FL 框架实现了最先进的性能。
Jun, 2021
通过将人工智能(AI)与边缘计算相结合,边缘智能利用终端设备和边缘服务器的计算和通信能力,在数据产生的地方进行处理,从而实现人工智能的大规模和高效部署。其中一项关键技术是隐私保护的机器学习范式 Federated Learning(FL),该范式使数据所有者能够在无需将原始数据传输到第三方服务器的情况下训练模型。然而,FL 网络预计涉及成千上万个异构分布式设备,因此通信效率仍然是一个关键瓶颈。为了减少节点故障和设备退出,提出了一种分层联邦学习(HFL)框架,其中指定的集群领导者通过中间模型聚合支持数据所有者。因此,基于改进的边缘服务器资源利用,本文可以有效弥补缓存容量的限制。为了减轻软点击对用户体验质量(QoE)的影响,作者将用户 QoE 建模为综合系统成本。为解决这个公式化问题,作者提出了一种具有联邦深度强化学习(DRL)和联邦学习(FL)的分散式缓存算法,其中多个代理独立学习并做出决策。
Mar, 2024
提出一种混合联邦和集中式学习(HFCL)框架,采用先进的数据传输方法并在计算资源不足时使用集中式学习方法,以有效地训练学习模型,并在所有客户端合作的同时提高学习准确度。
Nov, 2020
在机器学习系统中,通过联邦学习作为一个安全的分布式机器学习方法,有效提升隐私安全;它利用区块链技术将机器学习模型转移到边缘服务器,通过这种机制保证了集中式和分散式系统的高效处理和数据存储需求,强调可伸缩性、隐私考虑和成本有效的通信。本文对最近的联邦学习应用进行了分析和比较,以评估其效率、准确性和隐私保护。然而,鉴于联邦学习复杂且不断演化的特点,明确需要进一步研究来解决知识间的差距并有效应对该领域面临的挑战。在本文中,我们将最近的文献分为以下几个类别:隐私保护、资源分配、案例研究分析和应用,此外,在每个章节的末尾,我们还对参考文献中提出的开放领域和未来方向进行了总结,为研究人员提供了领域演进的深入视角。
Oct, 2023
本文提出一种基于去中心化的分布式联邦学习(DFL)概念,旨在实现 IoT 智能应用的隐私保护与训练效率。文章首先介绍了 DFL 的基础,其次提出了一个包含匹配理论解决方案的 DFL 框架,最后展望了未来研究方向。
Aug, 2020
机器学习的未来在于边缘计算,用于数据收集和训练,联邦学习是实现这一目标的一种方法。本文提出了一种新的聚合框架,用于解决联邦优化中的计算异构性问题,包括异构数据和本地更新,并从理论和实验的角度进行了广泛的分析。
Jul, 2023