May, 2024
联邦生成模型的系统回顾
A Systematic Review of Federated Generative Models
Ashkan Vedadi Gargary, Emiliano De Cristofaro
TL;DR综述了 2019 年至 2024 年间的涉及联邦学习和生成模型的研究,系统比较了近 100 篇论文的方法和隐私问题,强调了最新的进展和未解决的挑战,为未来的研究提供了洞见。
Abstract
federated learning (FL) has emerged as a solution for distributed systems
that allow clients to train models on their data and only share models instead
of local data. →
发现论文,激发创造
联邦学习的进展:模型、方法和隐私
本文详细阐述了联邦学习的体系结构、应用问题、算法设计原则和安全问题,提出了一种更加通用的算法设计框架、攻击场景和防御方法,致力于将联邦学习与真实世界应用相集成并实现高性能、隐私保护和安全性。
Feb, 2023
个性化生成网络的异构联邦学习
通过减少客户端之间的异质性,本研究提出了一种传递知识的方法,利用客户端专用生成器为每个客户端生成样本,以减少与其他客户端模型的冲突,从而构建出具有良好泛化能力的全局模型。
Aug, 2023
联邦学习:应用、挑战和未来方向
本文提供了关于联邦学习的概述,并重点关注医疗保健领域。通过中央协调器服务器共享全局深度学习模型,解决了隐私保护需求并探讨了联邦学习遇到的挑战和未来发展方向,其中使用多方计算、同态加密、差分隐私和随机梯度下降等多种隐私方法。
May, 2022
PFL-GAN:当客户异质性遇到生成模型于个性化联邦学习
最近发展的生成学习模型伴随着对基于生成对抗网络的联邦学习(FL)的增加兴趣。在 FL 的背景下,GAN 能够捕捉基本的客户数据结构,并能够重新生成类似于原始数据分布但不会泄露私有原始数据的样本。我们提出了一种针对 FL 中的客户异质性的新型 GAN 共享和聚合策略,即个性化 FL(PFL)。所提出的 PFL-GAN 在不同场景下解决了客户异质性问题。通过在几个知名数据集上进行严格实验的经验证明,PFL-GAN 的有效性。
Aug, 2023
GPT-FL: 基于生成式预训练模型的联邦学习
本文提出了一个基于生成式预训练模型辅助联邦学习框架的 GPT-FL 方法,在提高通信效率和客户抽样效率的同时,优化梯度多样性来增强模型收敛速度和提高模型测试准确性。
Jun, 2023