通过减少客户端之间的异质性,本研究提出了一种传递知识的方法,利用客户端专用生成器为每个客户端生成样本,以减少与其他客户端模型的冲突,从而构建出具有良好泛化能力的全局模型。
Aug, 2023
综述了 2019 年至 2024 年间的涉及联邦学习和生成模型的研究,系统比较了近 100 篇论文的方法和隐私问题,强调了最新的进展和未解决的挑战,为未来的研究提供了洞见。
May, 2024
通过联邦生成一致性(FedCOG)方法,生成与原始数据集补充相符的数据以减少数据异质性,并通过知识蒸馏模型训练来提高性能。
Dec, 2023
本文介绍了基于联邦学习技术实现艺术智能生成内容的方法,解决了中心化训练带来的隐私问题,并成功应用于 AIGC 的微调中, 可以有效减少通信成本和训练延迟。
Jul, 2023
我们提出了一种新型的个性化联邦学习框架 pFedPG,通过在服务器上学习部署个性化提示生成器,生成适应本地数据分布的特定于客户端的视觉提示,以实现从大规模模型中获取强大表示能力同时为异构客户端实现高效个性化模型优化。
本文提出了一种叫做 FedAlign 的基于局部学习广泛性而非接近约束的数据异构性联邦学习解决方案,其可在不引入大量计算和内存开销的情况下实现与最先进的 FL 方法相当的精度。
Nov, 2021
本文提出了一种新的联邦生成学习框架,通过在客户端和服务器之间传输与分布式训练数据相关的提示,对信息进行编码和传输,从而综合提高联邦学习的效率和数据隐私性。
Jun, 2023
本文提出了一个基于生成式预训练模型辅助联邦学习框架的 GPT-FL 方法,在提高通信效率和客户抽样效率的同时,优化梯度多样性来增强模型收敛速度和提高模型测试准确性。
最近发展的生成学习模型伴随着对基于生成对抗网络的联邦学习(FL)的增加兴趣。在 FL 的背景下,GAN 能够捕捉基本的客户数据结构,并能够重新生成类似于原始数据分布但不会泄露私有原始数据的样本。我们提出了一种针对 FL 中的客户异质性的新型 GAN 共享和聚合策略,即个性化 FL(PFL)。所提出的 PFL-GAN 在不同场景下解决了客户异质性问题。通过在几个知名数据集上进行严格实验的经验证明,PFL-GAN 的有效性。
该研究提出了一种名为 Synthetic Data Aided Federated Learning (SDA-FL) 的新框架,通过共享人工合成数据来解决客户端数据的不独立和同分布性问题,从而提高本地模型的一致性并改善全局聚合效果。
Jun, 2022