PS-FedGAN: 基于部分共享生成对抗网络的高效联邦学习框架,用于数据隐私保护
最近发展的生成学习模型伴随着对基于生成对抗网络的联邦学习(FL)的增加兴趣。在 FL 的背景下,GAN 能够捕捉基本的客户数据结构,并能够重新生成类似于原始数据分布但不会泄露私有原始数据的样本。我们提出了一种针对 FL 中的客户异质性的新型 GAN 共享和聚合策略,即个性化 FL(PFL)。所提出的 PFL-GAN 在不同场景下解决了客户异质性问题。通过在几个知名数据集上进行严格实验的经验证明,PFL-GAN 的有效性。
Aug, 2023
该研究提出了一种名为 Synthetic Data Aided Federated Learning (SDA-FL) 的新框架,通过共享人工合成数据来解决客户端数据的不独立和同分布性问题,从而提高本地模型的一致性并改善全局聚合效果。
Jun, 2022
本研究提出了一种新的 UFed-GAN 框架,用于在资源受限和缺少标签的环境中的联合学习,该框架可以捕捉用户端数据分布,同时保护隐私。实验结果表明,UFed-GAN 在解决计算资源有限、数据缺少标签和保护隐私方面具有巨大潜力。
Aug, 2023
本文提出了一种 GraphGANFed 框架,该框架将图形卷积神经网络(GCN)、生成对抗网络(GAN)和联邦学习(FL)作为整体系统来生成新的分子,而不共享本地数据集,实现了数据隐私的保护,并且在三个基准数据集上进行了广泛的模拟,证明了 GraphGANFed 的可行性和有效性。
Apr, 2023
FLIGAN 使用生成对抗网络应对分布式学习中数据不完整的问题,通过生成合成数据提高数据集的鲁棒性和完整性,从而在高类别不平衡的场景下实现模型准确性的最多 20% 的提升。
Mar, 2024
本文提出了一种名为 Federated Generative Adversarial Network (FedGAN) 的算法,用于训练分布式非独立同分布数据源的 GAN,并基于周期性同步本地生成器和辨别器以及平均和广播生成器和辨别器参数的中介。我们证明了 FedGAN 在标准假设下,使用随机近似和通信高效的随机梯度下降法,使用相等和两个时间尺度更新生成器和辨别器收敛。我们在玩具示例(2D 系统、混合高斯和瑞士拳击手数据集)、图像数据集(MNIST、CIFAR-10 和 CelebA)以及时间序列数据集(家庭电力消耗和电动汽车充电会话)上实验了 FedGAN。我们展示了 FedGAN 收敛并且具有类似于一般分布式 GAN 的性能,同时可以减少通信复杂性。此外,我们还展示了它对通信减少的鲁棒性。
Jun, 2020
提出了一个隐私保护图像分布共享方案,并通过 GAN 进行图像分布共享,以避免分类器共享而对模型性能几乎没有影响,进一步应用特征提取器来提高模型效用和独立训练,实验证明该方案在安全性和性能上优于其他现有防御方法。
Dec, 2023
本文提出了 FedGP 框架,它使用生成对抗网络在联邦学习环境下进行隐私保护数据发布,实现了高质量的标记数据样本的生成,并在实验中证明了该方法可以显著降低模型反演攻击的风险。
Oct, 2019
综述了 2019 年至 2024 年间的涉及联邦学习和生成模型的研究,系统比较了近 100 篇论文的方法和隐私问题,强调了最新的进展和未解决的挑战,为未来的研究提供了洞见。
May, 2024
本文介绍了一种名为 PFA 的新框架,旨在以联邦方式实现更好的个性化结果。PFA 利用神经网络的稀疏性生成隐私保护表示,并使用这些表示来高效识别具有相似数据分布的客户端,从而进行分组并在联邦模型上进行群体式联邦学习来完成自适应过程。该框架能够保障客户端隐私,并在多个 FL 数据集上通过实验证明了其有效性和优越性。
Mar, 2021