联邦学习的进展和开放问题
介绍谷歌于 2016 年首次提出的联邦学习,多个设备在中央服务器的监督下协作学习机器学习模型,可保证本地数据的隐私性和安全性,同时存在攻击风险,就此探讨了联邦学习的机会和挑战所在。
Jan, 2021
本文提供了关于联邦学习的概述,并重点关注医疗保健领域。通过中央协调器服务器共享全局深度学习模型,解决了隐私保护需求并探讨了联邦学习遇到的挑战和未来发展方向,其中使用多方计算、同态加密、差分隐私和随机梯度下降等多种隐私方法。
May, 2022
本文详细阐述了联邦学习的体系结构、应用问题、算法设计原则和安全问题,提出了一种更加通用的算法设计框架、攻击场景和防御方法,致力于将联邦学习与真实世界应用相集成并实现高性能、隐私保护和安全性。
Feb, 2023
IBM Federated Learning 提供了联邦学习的基础设施和协调,可以设计和运行联邦学习作业,从而将范围从集中式扩展到联邦机器学习,从而在最初阶段将学习曲线降至最低,同时也提供了在不同计算环境下部署和设计自定义融合算法的灵活性。
Jul, 2020
在机器学习系统中,通过联邦学习作为一个安全的分布式机器学习方法,有效提升隐私安全;它利用区块链技术将机器学习模型转移到边缘服务器,通过这种机制保证了集中式和分散式系统的高效处理和数据存储需求,强调可伸缩性、隐私考虑和成本有效的通信。本文对最近的联邦学习应用进行了分析和比较,以评估其效率、准确性和隐私保护。然而,鉴于联邦学习复杂且不断演化的特点,明确需要进一步研究来解决知识间的差距并有效应对该领域面临的挑战。在本文中,我们将最近的文献分为以下几个类别:隐私保护、资源分配、案例研究分析和应用,此外,在每个章节的末尾,我们还对参考文献中提出的开放领域和未来方向进行了总结,为研究人员提供了领域演进的深入视角。
Oct, 2023
该论文提出了一种基于原型的联邦学习框架,通过在典型的联邦学习进程的最后全局迭代中进行少量更改就能够实现更好的推理性能,从而在两个基准数据集上实现了更高的准确性和相对高效的通信。
Mar, 2023
联邦学习(FL)是一种新颖的分布式机器学习范式,通过消除数据共享要求,使参与者能够协同训练中央模型并保护隐私。联邦学习涉及多个参与者,并要求第三方汇总全局信息以指导目标参与者的更新。为解决此问题,联邦迁移学习(FTL)吸引了众多研究者的关注。本综述聚焦于对当前联邦迁移学习进展的分类和综述,并概述相关解决方案和应用。
Mar, 2024
本文讨论分布式数据的非 IID 性质及其对联邦学习的训练造成的影响,同时对联邦学习与典型集中式梯度下降技术的不同之处进行比较,并在实践中演示样品数量和输出标签分布对联邦学习的影响。此外,本文证明了在模型大小不太大的情况下使用联邦学习框架具有成本优势。
Feb, 2022
该研究论文展望了联邦学习的发展,并阐述了五个与算法基础、个性化、硬件和安全限制、终身学习以及非标准化数据相关的方向。该研究可为边缘设备的大规模联邦系统提供实用观察。
Feb, 2022