DP-RDM:无需微调将扩散模型应用于私有领域
本文提出了一个名为 dp-GAN 的数据发布框架,采用差分隐私的方式对原始数据进行训练,从而可以生成任意数量的合成数据来进行各种分析任务,该框架具有理论上的隐私保证,保留了所发布模型的可接受效用,并且采用多重优化策略实现了实用的训练可扩展性和稳定性。
Jan, 2018
本文提出一种学习差分隐私概率模型(DPPM),用于生成具有差分隐私保证的高分辨率图像,通过训练模型以适合训练数据的分布并在过程中执行随机响应机制,然后进行哈密顿动力学采样以及由训练概率模型预测的差分隐私运动方向,以获得保护隐私信息的图像,相比其他最先进的差分隐私生成方法,我们的方法可以生成高达256x256具有显着视觉质量和数据实用性的图像,大量实验表明我们的方法的有效性。
May, 2023
研究训练以潜在空间作为输入的LDM的方法,与传统的Diffusion Models相比,通过使用预训练的自动编码器将高维像素空间降为低维潜在空间,大大提高了训练效率,并使用隐私保护的方式对不同维度的注意力模型进行训练以减少可调参数,最终的实验结果表明该方法在生成高质量合成图像时表现突出。
May, 2023
数据隐私保护是研究者们越来越关注的问题之一。扩散模型(DMs),尤其是严格的差分隐私,可以潜在地生成既具有高度隐私性又具有视觉质量的图像。然而,在保护特定数据属性的隐私方面存在挑战,目前的模型在这方面通常表现不佳。为了解决这些挑战,我们引入了PAC隐私保护扩散模型,该模型利用扩散原理并确保可能近似正确(PAC)隐私。我们通过将一个私有分类器引导集成到Langevin采样过程中来增强隐私保护。此外,鉴于测量模型隐私存在的差距,我们开发了一种新的度量标准来衡量隐私水平。我们的模型通过这个新的度量标准进行评估,并通过PAC上界的高斯矩阵计算,在基准测试中显示出优于现有领先的私有生成模型的隐私保护性能。
Dec, 2023
我们提出了一种名为Aug-PE的增强版PE算法,应用于文本的复杂情境,通过API访问大型语言模型,生成差分隐私的合成文本,实验证明Aug-PE可以产生具有竞争性效用的差分隐私合成文本,从而便捷地在隐私保护的语言模型应用中提供更可访问的路线。
Mar, 2024
在此篇文章中,我们提出了一种为私有扩散模型优化参数效率的微调策略,通过减少可训练参数的数量来增强隐私-效用平衡,从而在DP合成方面取得了最先进的性能,在广泛研究的数据集上明显超过了先前的基准(如CelebA-64数据集上的小隐私预算下,仅有0.47M个可训练参数,在先前最先进结果上实现了超过35%的改进)。
Jun, 2024
通过对视觉编码器的操作,提出了名为Prompt-Independent Defense(PID)的简单而有效的方法,以保护数据免受Latent Diffusion Models(LDMs)的侵害,并显著减少计算资源的需求。
Jun, 2024
本研究解决了在隐私敏感领域训练生成模型时数据受限的问题。通过引入DP-SAD方法,结合随机对抗蒸馏训练私有扩散模型,显著提高了生成图像的质量。研究表明,该方法有效提升了生成模型的隐私保护和图像质量,具有较大的应用潜力。
Aug, 2024
本研究针对扩散模型在差分隐私条件下生成合成文本的能力进行了深入探讨。通过广泛的实验,我们发现之前关于LLM的合成私密文本生成的假设未能满足,从而可能导致差分隐私的保证受到影响。此外,我们的研究结果表明,完全开源的LLM在隐私保护方面优于扩散模型,为未来的研究提供了重要参考。
Oct, 2024
本研究针对当前梯度重建方法在高分辨率图像重建中存在的计算复杂性和先验知识需求问题,提出了两种创新方法,最小化对扩散模型生成过程的修改,无需先验知识。研究还系统分析了差分隐私噪声对重建图像质量的影响,并通过广泛实验验证了所提方法的有效性,开辟了使用条件扩散模型进行隐私风险审计的新方向。
Nov, 2024