提出了一种名为 MULTI-FLGAN 的新型体系结构,旨在解决非独立同分布数据集的 GAN 稳定性问题、低质量图像及模式崩溃问题,并在 20 个客户端上与基线 FLGAN 相比,稳定性和性能均提升了四倍。
Jun, 2022
最近发展的生成学习模型伴随着对基于生成对抗网络的联邦学习(FL)的增加兴趣。在 FL 的背景下,GAN 能够捕捉基本的客户数据结构,并能够重新生成类似于原始数据分布但不会泄露私有原始数据的样本。我们提出了一种针对 FL 中的客户异质性的新型 GAN 共享和聚合策略,即个性化 FL(PFL)。所提出的 PFL-GAN 在不同场景下解决了客户异质性问题。通过在几个知名数据集上进行严格实验的经验证明,PFL-GAN 的有效性。
Aug, 2023
提出了一种名为 PS-FedGAN 的新型联邦学习(FL)框架,通过对 GAN 进行部分共享模型,加强 GAN 的发布和训练机制,从而解决客户端数据的异构性问题,并在降低通信成本的基础上加强隐私保护。
May, 2023
该研究提出了一种名为 Synthetic Data Aided Federated Learning (SDA-FL) 的新框架,通过共享人工合成数据来解决客户端数据的不独立和同分布性问题,从而提高本地模型的一致性并改善全局聚合效果。
本研究提出了一种新的 UFed-GAN 框架,用于在资源受限和缺少标签的环境中的联合学习,该框架可以捕捉用户端数据分布,同时保护隐私。实验结果表明,UFed-GAN 在解决计算资源有限、数据缺少标签和保护隐私方面具有巨大潜力。
综述了 2019 年至 2024 年间的涉及联邦学习和生成模型的研究,系统比较了近 100 篇论文的方法和隐私问题,强调了最新的进展和未解决的挑战,为未来的研究提供了洞见。
May, 2024
本文介绍了基于联邦学习技术实现艺术智能生成内容的方法,解决了中心化训练带来的隐私问题,并成功应用于 AIGC 的微调中, 可以有效减少通信成本和训练延迟。
Jul, 2023
通过减少客户端之间的异质性,本研究提出了一种传递知识的方法,利用客户端专用生成器为每个客户端生成样本,以减少与其他客户端模型的冲突,从而构建出具有良好泛化能力的全局模型。
采用新的真实数据分布,提出一种名为 FedIIC 的隐私保护框架,该框架通过类内对比学习和共享全局样本的类间对比学习进行特征提取器的校准来缓解训练造成的偏差,并使用考虑难度的逻辑调整构造 softmax 交叉熵损失以确保所有类别的平衡决策边界。在公共可用数据集上的实验表明,FedIIC 在处理两种耦合问题的同时,具有更优越的性能。
本文提出一种新颖的无数据的联邦类增量学习框架,使用扩散模型生成稳定、高质量的图像,通过设计新的平衡采样器、信息论的基于熵的采样过滤技术以及与基于特征的正则化项整合的知识蒸馏,来减轻灾难性遗忘和改善基于联邦学习的智能模型的准确性。