使用全局差分隐私的方法,通过训练生成式语言模型并从中采样数据来保护数据分享者的隐私,并通过新的匹配损失设计自然语言提示,得出高质量的文本数据集,这些数据集不仅不会泄露原始数据的信息,而且还适合训练用于分析真实世界数据的模型,同样证明基于私有合成数据训练分类器的性能优于直接基于真实数据使用 DP-SGD 进行训练。
Oct, 2022
通过微调基于公共语料库的模型来实现高质量和隐私保护的语言模型,提高私有领域的模型性能,让其成为可能。
Sep, 2020
本研究提出了一种称为 Just Fine-tune Twice(JFT)的新框架,用于保护最先进的大型 Transformer 模型的选择性差分隐私,并研究了系统性的方法来处理敏感标记的缺失,实现了良好的实用性和隐私保证。
Apr, 2022
该研究综述了近年来在自然语言处理(NLP)领域中,如何在保护敏感数据的隐私同时实现良好性能的关键挑战。为了保护数据隐私, 差分隐私(DP)成为了隐私数据分析的有效技术。本文着重探讨了在 DP 深度学习模型中的自然语言处理 (DP-NLP) 的最新研究进展,并阐述了一些挑战和未来方向。
Jan, 2023
通过研究选择性分类器在差分隐私约束下的效果,探讨深度学习模型的可靠性及隐私泄漏问题,发现最近的一种基于现成的深度学习模型生成检查点的方法在差分隐私下更为合适,使用差分隐私不仅会降低模型的效能,而且在隐私预算降低时需要付出相当大的覆盖成本。
May, 2023
本文提出了使用联邦平均算法实现用户级差分隐私,以及在保持较高的实用性的同时进行隐私保护的方法。通过在用户分区数据上训练深层网络并进行隐私账户记录,我们证明即使在拥有大量用户的数据集上,实现差分隐私也只会以微不足道的精度损失为代价而非减少实用性。
Oct, 2017
对自然语言生成任务中使用大型语言模型进行用户级差分隐私保护的设计选择进行系统评估,重点研究两种实现用户级差分隐私保证的机制,即群体隐私和用户级 DP-SGD,包括数据选择策略和参数调优,以实现最佳的隐私 - 效用平衡。
Jun, 2024
本文介绍了两种隐私保护正则化方法,以实现公用性和隐私的联合优化,通过广泛评估,展示了这些方法的优势,例如略有优越的公用性 - 隐私权衡、更快的训练以及确保少数群体的平等待遇。
Mar, 2021
本文研究了使用敏感数据集生成新的差分隐私数据集作为替代方法,通过使用预先训练好的生成式语言模型并在敏感数据上进行私有调优,然后利用该模型可以产生差分隐私合成数据集,同时展示了训练目标及少调参数可提高合成数据的质量并与直接使用差分隐私训练下游分类器性能竞争力几乎相同,还可用于调整同一模型等级的分类器。
Jun, 2023
研究取得了基于 BERT 和 XtremeDistil 架构的神经模型,在五个典型的 NLP 任务中使用不同隐私保护策略在七个下游数据集上的表现,并发现每个任务和隐私方案都需要特殊处理以实现足够的性能。
Dec, 2021