确保高效联邦学习的模型初始化技术综合研究
本文详细阐述了联邦学习的体系结构、应用问题、算法设计原则和安全问题,提出了一种更加通用的算法设计框架、攻击场景和防御方法,致力于将联邦学习与真实世界应用相集成并实现高性能、隐私保护和安全性。
Feb, 2023
本文讨论分布式数据的非 IID 性质及其对联邦学习的训练造成的影响,同时对联邦学习与典型集中式梯度下降技术的不同之处进行比较,并在实践中演示样品数量和输出标签分布对联邦学习的影响。此外,本文证明了在模型大小不太大的情况下使用联邦学习框架具有成本优势。
Feb, 2022
在机器学习系统中,通过联邦学习作为一个安全的分布式机器学习方法,有效提升隐私安全;它利用区块链技术将机器学习模型转移到边缘服务器,通过这种机制保证了集中式和分散式系统的高效处理和数据存储需求,强调可伸缩性、隐私考虑和成本有效的通信。本文对最近的联邦学习应用进行了分析和比较,以评估其效率、准确性和隐私保护。然而,鉴于联邦学习复杂且不断演化的特点,明确需要进一步研究来解决知识间的差距并有效应对该领域面临的挑战。在本文中,我们将最近的文献分为以下几个类别:隐私保护、资源分配、案例研究分析和应用,此外,在每个章节的末尾,我们还对参考文献中提出的开放领域和未来方向进行了总结,为研究人员提供了领域演进的深入视角。
Oct, 2023
本文提供了一种简洁的介绍联邦学习的概念,并使用一个唯一的分类法来涵盖针对联邦学习的威胁模型和两个主要的攻击方法:1) 污染攻击和 2) 推理攻击,探讨了向更强大的隐私保护方向发展的有前途的未来研究方向.
Mar, 2020
联邦学习是一种机器学习方法,可以在持有本地数据样本的多个分散边缘设备之间进行协作模型训练,而无需交换这些样本。本报告探讨了非独立非同分布的数据与异构数据带来的问题,并探索了目前设计用于解决这些挑战的算法。
Jan, 2024
我们提出了一种协作预训练方法,CoPreFL,它通过设计一个预训练模型,能够为任何下游联邦学习任务提供良好的初始化,通过元学习算法在分布式场景中模拟下游任务,以适应任何未预料到的联邦学习任务,平衡平均性能和公平性,从而提高了平均性能和更公正的预测。
Feb, 2024
通过使用基础模型的巨大预训练知识作为以医学图像分割任务为例的 FL 模型初始化的指导教师,本研究首次尝试将基础模型作为 FL 初始化的教师,评估其对 FL 模型性能的影响,尤其是在非独立同分布数据场景中。经验评估结果表明,在胸部 X 光肺分割任务中,FL 模型初始化指导下的 FL 不仅能实现更快的收敛,而且在复杂数据情境中也能提高性能,为 FL 中的模型初始化提供了新的视角。
Nov, 2023