介绍谷歌于 2016 年首次提出的联邦学习,多个设备在中央服务器的监督下协作学习机器学习模型,可保证本地数据的隐私性和安全性,同时存在攻击风险,就此探讨了联邦学习的机会和挑战所在。
Jan, 2021
本文讨论联邦学习的最新进展和挑战,并提出了一系列开放性问题和挑战。
Dec, 2019
本文提供了关于联邦学习的概述,并重点关注医疗保健领域。通过中央协调器服务器共享全局深度学习模型,解决了隐私保护需求并探讨了联邦学习遇到的挑战和未来发展方向,其中使用多方计算、同态加密、差分隐私和随机梯度下降等多种隐私方法。
May, 2022
本文介绍联邦学习的独特特征和挑战,提供当前方法的概述,并概述了与各种研究社区相关的几个未来方向。
Aug, 2019
通过在全球范围内部署跨领域联邦学习来遵守新的法律要求和隐私保护政策,越来越多的公司开始实施此方法。该研究分析了跨领域联邦学习的可持续性,并提出了一种综合性的定量成本与二氧化碳排放估计方法。同时,提出了一个使用跨领域联邦学习和分析的数据与应用程序管理系统,以使 IT 公司更具可持续性和成本效益。
Dec, 2023
该研究论文展望了联邦学习的发展,并阐述了五个与算法基础、个性化、硬件和安全限制、终身学习以及非标准化数据相关的方向。该研究可为边缘设备的大规模联邦系统提供实用观察。
Feb, 2022
联邦学习(FL)是一种新颖的分布式机器学习范式,通过消除数据共享要求,使参与者能够协同训练中央模型并保护隐私。联邦学习涉及多个参与者,并要求第三方汇总全局信息以指导目标参与者的更新。为解决此问题,联邦迁移学习(FTL)吸引了众多研究者的关注。本综述聚焦于对当前联邦迁移学习进展的分类和综述,并概述相关解决方案和应用。
Mar, 2024
提出一种基于多智能体强化学习的新颖机制来优化跨领域联邦学习的激励机制,从历史潜在博弈中学习最优的数据贡献策略,以有效改进组织的长期收益。
Feb, 2023
去中心化联邦学习解决方案的综述,包括现有的方法和未来的研究方向。
Aug, 2023
本文详细阐述了联邦学习的体系结构、应用问题、算法设计原则和安全问题,提出了一种更加通用的算法设计框架、攻击场景和防御方法,致力于将联邦学习与真实世界应用相集成并实现高性能、隐私保护和安全性。