利用不同隐私保护方法在深度神经网络上进行私密训练,以实现维度较高的数据生成,并提出统一的方法以提供系统性的派生方法,满足不同用例的需求,探讨不同方法之间的优势、限制和内在相关性以启发未来研究,并提出前进的潜在途径以推动隐私保护学习领域的发展。
Sep, 2023
本文研究了使用敏感数据集生成新的差分隐私数据集作为替代方法,通过使用预先训练好的生成式语言模型并在敏感数据上进行私有调优,然后利用该模型可以产生差分隐私合成数据集,同时展示了训练目标及少调参数可提高合成数据的质量并与直接使用差分隐私训练下游分类器性能竞争力几乎相同,还可用于调整同一模型等级的分类器。
Jun, 2023
我们采用差分隐私的框架研究了敏感数据分析的方法,通过将均匀采样步骤替换为私有分布估计器,我们改进了 Boedihardjo 等人工作的算法,并提供了离散和连续分布的计算保证,适用于多种统计任务。
May, 2024
本文提出了一种隐私保护的生成模型发布技术,使用差分隐私的 $k$-means 算法将数据划分为 $k$ 个簇类,再由 $k$ 个基于神经网络的生成模型分别学习各自簇类的生成分布,从而合成具有隐私保护的合成数据集。实验结果证明该方法能够生成具有较高逼真度的合成样本,并且支持对生成数据的任意数量计数查询。
Sep, 2017
本文通过在学习过程中添加特别设计的梯度噪声来实现差分隐私的生成对抗网络(DPGAN),以解决 GAN 在应用于私人或敏感数据时可能泄露关键信息的问题,并提供隐私保障的严格证明和全面的实证证据。
Feb, 2018
本文探讨了使用具有随机性生成模型的方法来实现隐私保护数据生成,通过将深度模型的连续模数限制在适当的范围内以获得隐私保护,并实验证明了其有效性。
Apr, 2023
本篇论文提出了一种基于不同 ially private 框架和卷积自编码器以及卷积生成对抗网络生成合成数据的方法,以应对使用医疗记录数据所面临的隐私困难,该方法能够捕捉到原始数据中存在的时间信息和特征相关性,并在有监督和无监督情况下使用公开可用的标准医疗数据集,优于现有的同类方法。
Dec, 2020
优化生成模型的质量和隐私之间的平衡,通过引入关注机制学习可逆的表格表示和差分隐私扩散模型来合成高质量的表格数据。
Aug, 2023
本文讨论隐私问题在数据驱动产品和服务中引起的关注,提出了一种利用差分隐私的生成式语言模型的简单、实用和有效方法,以生成有用的合成文本同时缓解隐私问题。经过广泛的实证分析,我们证明了我们的方法产生的合成数据在实用性上与其非私有对应物相当竞争,同时提供了强大的保护措施以防止潜在的隐私泄漏。
Oct, 2022
本文提出了一个名为 dp-GAN 的数据发布框架,采用差分隐私的方式对原始数据进行训练,从而可以生成任意数量的合成数据来进行各种分析任务,该框架具有理论上的隐私保证,保留了所发布模型的可接受效用,并且采用多重优化策略实现了实用的训练可扩展性和稳定性。
Jan, 2018