扩散模型的差分隐私微调
研究训练以潜在空间作为输入的LDM的方法,与传统的Diffusion Models相比,通过使用预训练的自动编码器将高维像素空间降为低维潜在空间,大大提高了训练效率,并使用隐私保护的方式对不同维度的注意力模型进行训练以减少可调参数,最终的实验结果表明该方法在生成高质量合成图像时表现突出。
May, 2023
基于离散扩散模型的数据生成方法的隐私保护能力在理论上进行了开拓性研究,重点研究了每个数据点的潜在隐私泄露,并通过数据预处理减少离散扩散模型生成的合成数据的隐私风险。同时,实验证实了理论研究结果对合成数据和真实世界数据的适用性。
Oct, 2023
数据隐私保护是研究者们越来越关注的问题之一。扩散模型(DMs),尤其是严格的差分隐私,可以潜在地生成既具有高度隐私性又具有视觉质量的图像。然而,在保护特定数据属性的隐私方面存在挑战,目前的模型在这方面通常表现不佳。为了解决这些挑战,我们引入了PAC隐私保护扩散模型,该模型利用扩散原理并确保可能近似正确(PAC)隐私。我们通过将一个私有分类器引导集成到Langevin采样过程中来增强隐私保护。此外,鉴于测量模型隐私存在的差距,我们开发了一种新的度量标准来衡量隐私水平。我们的模型通过这个新的度量标准进行评估,并通过PAC上界的高斯矩阵计算,在基准测试中显示出优于现有领先的私有生成模型的隐私保护性能。
Dec, 2023
通过使用有限的公共数据,我们提出了一种新颖的差分隐私持续预训练策略,可以显著减轻差分隐私优化器的性能下降问题,并在ImageNet-21k上实现41.5%的差分隐私准确率(ε=8),以及在下游任务Places365和iNaturalist-2021上分别达到55.7%和60.0%的非差分隐私准确率,与当前最先进的标准预训练方法相媲美并且明显优于现有的差分隐私预训练模型。
Feb, 2024
扩散模型存在隐私风险,其中Shake-to-Leak( S2L) 是一种新的风险,通过操纵数据以微调预训练模型,可以增强现有的隐私风险,尤其在扩散模型下还比过去认识的更严重。
Mar, 2024
发展首个具有可证明的隐私保证并能生成高质量图像样本的差分隐私检索增强生成算法,通过在文本提示中引入从私有检索数据集检索的样本,无需在检索数据集上微调,利用先进的生成模型生成高质量图像样本,并提供隐私保证。
Mar, 2024
使用差分隐私和加噪声的方法对机器学习模型进行训练,通过对模型的权重添加噪声来实现隐私和效用的平衡,并通过实验证明了该方法的有效性,为在实际场景中部署差分隐私模型提供了一种实用的替代方案。
Jun, 2024
本研究解决了在隐私敏感领域训练生成模型时数据受限的问题。通过引入DP-SAD方法,结合随机对抗蒸馏训练私有扩散模型,显著提高了生成图像的质量。研究表明,该方法有效提升了生成模型的隐私保护和图像质量,具有较大的应用潜力。
Aug, 2024
本研究针对当前梯度重建方法在高分辨率图像重建中存在的计算复杂性和先验知识需求问题,提出了两种创新方法,最小化对扩散模型生成过程的修改,无需先验知识。研究还系统分析了差分隐私噪声对重建图像质量的影响,并通过广泛实验验证了所提方法的有效性,开辟了使用条件扩散模型进行隐私风险审计的新方向。
Nov, 2024