联邦生成隐私
本文提出了一种名为 Federated Generative Adversarial Network (FedGAN) 的算法,用于训练分布式非独立同分布数据源的 GAN,并基于周期性同步本地生成器和辨别器以及平均和广播生成器和辨别器参数的中介。我们证明了 FedGAN 在标准假设下,使用随机近似和通信高效的随机梯度下降法,使用相等和两个时间尺度更新生成器和辨别器收敛。我们在玩具示例(2D 系统、混合高斯和瑞士拳击手数据集)、图像数据集(MNIST、CIFAR-10 和 CelebA)以及时间序列数据集(家庭电力消耗和电动汽车充电会话)上实验了 FedGAN。我们展示了 FedGAN 收敛并且具有类似于一般分布式 GAN 的性能,同时可以减少通信复杂性。此外,我们还展示了它对通信减少的鲁棒性。
Jun, 2020
该研究提出了一种端到端的工作流程,用于自动化隐私保护技术,通过使用差分隐私随机梯度下降(DP-SGD)算法训练的深度学习模型替换实际数据的部分以回答查询,以平衡联邦查询处理中的隐私和准确性。
Jan, 2024
本文提出了一种名为 FedGen 的通用联邦学习框架,它允许客户端以协作的方式在没有训练分布的先验知识的情况下,识别和区分虚假和不变特征,与目前的联邦学习方法相比,FedGen 能够实现显著更好的泛化效果。
Nov, 2022
本文第一次探索了一种恶意攻击来破坏联邦学习中的用户级别隐私泄漏,并提出一种结合了 GAN 和多任务鉴别器的框架,该框架在客户端标识上具有新颖的识别,使生成器能够恢复用户指定的私有数据。
Dec, 2018
本文探讨了如何避免在联邦学习框架下,通过梯度信息泄露用户隐私的问题,并提出了一种名为生成梯度泄露的新型隐私泄露方法。作者为了解决这个问题,探讨了各种无梯度优化方法,并相对于梯度优化方法实现了更好的高质量图像重建效果。
Mar, 2022
本文研究在联邦学习中,使用差分隐私和社区驱动方法来保障本地数据隐私,识别了一个安全漏洞并设计了两种攻击模式,Adversarial Mode 和 Backdoor Mode,实验结果表明这些攻击是有效的。
May, 2023
本文介绍了一种名为 GRNN 的新方法,该方法利用了生成对抗网络(GAN)来恢复共享梯度中的隐私信息。结果表明,这种方法在图像分类任务中表现出更好的稳定性、更强的鲁棒性和更高的准确性,同时无需全局 FL 模型的收敛要求,具有非常多的实用价值。
May, 2021
本文提出一种个性化图形联邦学习(PGFL)框架,通过分布式连接的服务器和它们的边缘设备协作学习设备或集群特定的模型,同时维护每个个体设备的隐私,通过利用不同模型之间的相似性,即使在数据分布和不成比例的数据集的情况下也提供更相关的体验。在此基础上,我们研究了一个变量 PGFL 实现,利用差分隐私,特别是零集中差分隐私,其中一个噪声序列扰乱模型的交换。我们的数学分析表明,所提出的支持隐私保护的 PGFL 算法在线性时间内收敛于每个集群的最优集群特定解。同时,我们的分析表明,利用集群之间的相似性会导致另一种输出,其与原始解的距离被限制,这个限制可以通过修改算法的超参数来调整。最后,我们还通过使用合成数据和 MNIST 数据集进行回归和分类的数值实验来检验所提出的 PGFL 算法的性能。
Jun, 2023