去中心化联邦学习:调查与展望
我们提出了一种无服务器的去中心化联邦互联模型学习(DFML)框架,通过相互学习和循环改变监督和蒸馏信号的量,有效处理模型和数据异构性,并在各种条件下,在收敛速度和全局准确性上优于流行基准。
Feb, 2024
在高度普及的边缘场景中,缺乏中央控制器和预定的设备连接导致了复杂的网络结构,我们提出了一种通信高效的分散式联邦学习(DFL)算法来解决由数据和不同训练历史引起的异构学习难题,研究结果表明,与竞争方法相比,我们的解决方案能够训练出更好的本地模型并且在通信效率上更为优越。
Dec, 2023
分布式机器学习模式中的分布式学习是指许多客户端与中央服务器协同工作,以学习模型而无需共享自己的训练数据。本文介绍了一种采用随机梯度下降算法的分散式联邦学习(DFL)模型,作为一种更可伸缩的方法,以改善带有任意拓扑结构的代理网络中的学习性能。针对客户端和并行服务器之间的通信,提出了三种 DFL 调度策略,并在完全分散的 SGD 实现中对收敛性、准确性和损失进行了测试。实验结果表明所提出的调度策略对收敛速度和最终全局模型均有影响。
Nov, 2023
提出了基于区块链的分布式联邦学习(BDFL),利用区块链进行分散化模型验证和审计,包括审核委员会、激励机制、信誉模型和动态网络更新协议。评估结果表明,BDFL 在存在 30%恶意客户端的系统中,通过信誉机制实现了快速模型收敛和高准确性。
Oct, 2023
集中式联邦学习(CFL)在平滑非凸目标上总是比分散式联邦学习(DFL)更好地推广,部分参与在 CFL 中优于全参与,并且 DFL 需要避免性能崩溃的拓扑要求。我们在联邦学习的常见设置上进行了大量实验,验证了我们的理论分析在实际情境中的有效性。
Oct, 2023
本文详细阐述了联邦学习的体系结构、应用问题、算法设计原则和安全问题,提出了一种更加通用的算法设计框架、攻击场景和防御方法,致力于将联邦学习与真实世界应用相集成并实现高性能、隐私保护和安全性。
Feb, 2023
本文提供了关于联邦学习的概述,并重点关注医疗保健领域。通过中央协调器服务器共享全局深度学习模型,解决了隐私保护需求并探讨了联邦学习遇到的挑战和未来发展方向,其中使用多方计算、同态加密、差分隐私和随机梯度下降等多种隐私方法。
May, 2022
本文是一项关于贝叶斯联邦学习(BFL)的问题与应用的调查研究,旨在解决分布式基础设施、通信、计算和隐私保护等问题,讨论客户端、服务端和基于 FL 的 BFL 方法,并提出了 BFL 研究的未来发展方向。
Apr, 2023