去中心化联邦学习解决方案的综述,包括现有的方法和未来的研究方向。
Aug, 2023
本文介绍了垂直联合学习的状态和即将面临的挑战,它是在分散的数据上训练机器学习模型的一种方法,可保护数据隐私。
Dec, 2022
分层联邦学习是一种扩展传统联邦学习过程以实现更高效的模型聚合的方法,可用于智能农业和智能能源管理等应用中,以提高性能并降低成本。
Apr, 2023
本文综述性地介绍了分散化联合学习的定义、方法、挑战、变体、技术和研究方向。通过在客户端之间建立直接通信的去中心化网络结构,分散化联合学习能够省略中心服务器,降低通信开销并实现较高的学习效率和隐私保护。
Jun, 2023
在机器学习系统中,通过联邦学习作为一个安全的分布式机器学习方法,有效提升隐私安全;它利用区块链技术将机器学习模型转移到边缘服务器,通过这种机制保证了集中式和分散式系统的高效处理和数据存储需求,强调可伸缩性、隐私考虑和成本有效的通信。本文对最近的联邦学习应用进行了分析和比较,以评估其效率、准确性和隐私保护。然而,鉴于联邦学习复杂且不断演化的特点,明确需要进一步研究来解决知识间的差距并有效应对该领域面临的挑战。在本文中,我们将最近的文献分为以下几个类别:隐私保护、资源分配、案例研究分析和应用,此外,在每个章节的末尾,我们还对参考文献中提出的开放领域和未来方向进行了总结,为研究人员提供了领域演进的深入视角。
Oct, 2023
本文研究了基于区块链的去中心化联邦学习框架,该框架能够防止恶意客户端破坏学习过程,提供自我激励和可靠的学习环境,并将模型聚合过程完全分散化,同时解决了独特的技术问题,并提供了实验结果。
Sep, 2020
我们提出了一种无服务器的去中心化联邦互联模型学习(DFML)框架,通过相互学习和循环改变监督和蒸馏信号的量,有效处理模型和数据异构性,并在各种条件下,在收敛速度和全局准确性上优于流行基准。
Feb, 2024
本文详细阐述了联邦学习的体系结构、应用问题、算法设计原则和安全问题,提出了一种更加通用的算法设计框架、攻击场景和防御方法,致力于将联邦学习与真实世界应用相集成并实现高性能、隐私保护和安全性。
Feb, 2023
在高度普及的边缘场景中,缺乏中央控制器和预定的设备连接导致了复杂的网络结构,我们提出了一种通信高效的分散式联邦学习(DFL)算法来解决由数据和不同训练历史引起的异构学习难题,研究结果表明,与竞争方法相比,我们的解决方案能够训练出更好的本地模型并且在通信效率上更为优越。
Dec, 2023
本文讨论联邦学习的最新进展和挑战,并提出了一系列开放性问题和挑战。
Dec, 2019