基于 GAN 数据合成的联合学习用于非独立同分布客户端
本文提出了基于差分隐私均值共享的联邦学习算法 FedDPMS,该算法使用变分自编码器在保护隐私的前提下,增强本地数据集合成多样化的数据以避免数据异构性对于联邦学习的负面影响,实验表明 FedDPMS 算法比其他面向异构数据的联邦学习算法性能更佳,特别适用于深度图像分类任务。
Jun, 2022
提出了一种名为 PS-FedGAN 的新型联邦学习(FL)框架,通过对 GAN 进行部分共享模型,加强 GAN 的发布和训练机制,从而解决客户端数据的异构性问题,并在降低通信成本的基础上加强隐私保护。
May, 2023
通过生成合成数据来处理非独立和不同分布的数据之间的困难,从而提出了一种硬特征匹配数据合成方法以及一个数据增强的联邦学习框架来缓解数据异质性, 理论分析和模拟结果验证了提出的方法在解决非独立数据挑战方面的有效性。
Aug, 2023
FLIGAN 使用生成对抗网络应对分布式学习中数据不完整的问题,通过生成合成数据提高数据集的鲁棒性和完整性,从而在高类别不平衡的场景下实现模型准确性的最多 20% 的提升。
Mar, 2024
通过减少客户端之间的异质性,本研究提出了一种传递知识的方法,利用客户端专用生成器为每个客户端生成样本,以减少与其他客户端模型的冲突,从而构建出具有良好泛化能力的全局模型。
Aug, 2023
最近发展的生成学习模型伴随着对基于生成对抗网络的联邦学习(FL)的增加兴趣。在 FL 的背景下,GAN 能够捕捉基本的客户数据结构,并能够重新生成类似于原始数据分布但不会泄露私有原始数据的样本。我们提出了一种针对 FL 中的客户异质性的新型 GAN 共享和聚合策略,即个性化 FL(PFL)。所提出的 PFL-GAN 在不同场景下解决了客户异质性问题。通过在几个知名数据集上进行严格实验的经验证明,PFL-GAN 的有效性。
Aug, 2023
在资源受限环境中,通过介绍聚类正则化和全局更新频率适应的控制算法,我们提出了一种新的训练模型系统,用于解决联合学习中的数据非独立同分布和模型收敛性问题,该系统在减少训练时间和通信成本的同时提高了准确性。
Jul, 2023
提出了一种名为 MULTI-FLGAN 的新型体系结构,旨在解决非独立同分布数据集的 GAN 稳定性问题、低质量图像及模式崩溃问题,并在 20 个客户端上与基线 FLGAN 相比,稳定性和性能均提升了四倍。
Jun, 2022