差分隐私数据生成模型
本文通过在学习过程中添加特别设计的梯度噪声来实现差分隐私的生成对抗网络(DPGAN),以解决 GAN 在应用于私人或敏感数据时可能泄露关键信息的问题,并提供隐私保障的严格证明和全面的实证证据。
Feb, 2018
本文提出了一种隐私保护的生成模型,通过变分自编码器 (VAE) 的信息提取和数据生成能力,生成符合差分隐私要求的合成数据来防御成员推理攻击,并进行了实验验证。
Feb, 2022
利用不同隐私保护方法在深度神经网络上进行私密训练,以实现维度较高的数据生成,并提出统一的方法以提供系统性的派生方法,满足不同用例的需求,探讨不同方法之间的优势、限制和内在相关性以启发未来研究,并提出前进的潜在途径以推动隐私保护学习领域的发展。
Sep, 2023
本文探讨了使用具有随机性生成模型的方法来实现隐私保护数据生成,通过将深度模型的连续模数限制在适当的范围内以获得隐私保护,并实验证明了其有效性。
Apr, 2023
通过引入一种新的剪辑和扰动策略,基于 Renyi 差分隐私监管机制,提出了一种差分隐私条件生成式对抗网络(DP-CGAN)训练框架,用于在保持培训数据隐私的同时提高模型性能,实验结果表明 DP-CGAN 可以通过单一的差分隐私 epsilon 参数在 MNIST 数据集上生成视觉和实验上有前途的结果。
Jan, 2020
本篇论文提出了一种基于不同 ially private 框架和卷积自编码器以及卷积生成对抗网络生成合成数据的方法,以应对使用医疗记录数据所面临的隐私困难,该方法能够捕捉到原始数据中存在的时间信息和特征相关性,并在有监督和无监督情况下使用公开可用的标准医疗数据集,优于现有的同类方法。
Dec, 2020
本文提出利用变分自动编码器生成数据的潜在表示形式并将其与小型生成滤波器相结合,以实现在保护用户隐私的同时提高机器学习模型的效果。通过对 MNIST,UCI-Adult 和 CelebA 等数据集进行实验,结果显示了该方法具有很高的准确性。
Apr, 2019
研究训练以潜在空间作为输入的 LDM 的方法,与传统的 Diffusion Models 相比,通过使用预训练的自动编码器将高维像素空间降为低维潜在空间,大大提高了训练效率,并使用隐私保护的方式对不同维度的注意力模型进行训练以减少可调参数,最终的实验结果表明该方法在生成高质量合成图像时表现突出。
May, 2023
本文研究了协作深度学习的隐私问题以及差分隐私技术的应用,结果发现目前的方法都无法保护参与者的训练数据隐私,因为我们提出了一种基于生成对抗网络的攻击方法。
Feb, 2017
本文提出了一个名为 dp-GAN 的数据发布框架,采用差分隐私的方式对原始数据进行训练,从而可以生成任意数量的合成数据来进行各种分析任务,该框架具有理论上的隐私保证,保留了所发布模型的可接受效用,并且采用多重优化策略实现了实用的训练可扩展性和稳定性。
Jan, 2018