大型语言模型的差分隐私下一个令牌预测
本研究调查了差分隐私 (Differential Privacy) 在自然语言处理领域中混合专家模型 (Mixture of Experts models) 训练中的整合。通过对大规模语言模型 (Large Language Models) 在数十亿参数上进行训练,利用海量数据集,使其具备了强大的语言能力和新兴的能力,但这一增长带来了重大的计算和隐私问题。我们的研究通过探索具备计算效率的 MoE 模型及 DP 的应用来解决这些问题。我们首次尝试在 DP 的约束下训练 MoE 模型,解决了其架构以及 DP 整合的复杂性所带来的独特挑战。我们的初步实验研究表明,MoE 模型可以通过 DP 有效训练,并与非隐私对照组有竞争力的性能。本次研究旨在为隐私保护的 MoE 模型领域提供有价值的洞察力,为该领域进一步的研究奠定基础,并为未来的发展提供引导。
Feb, 2024
使用预训练的语言模型以及非标准化超参数和 fine-tuning 目标结合 DP 优化技术,可在中等规模的语料库上获得胜过强基线和同一隐私预算下的 DP-trained 模型的 NLP 模型。我们还提出了一种内存节省技术来解决在大型 Transformers 上运行 DP-SGD 的计算难题,该技术可以使得 clip 在 DP-SGD 中运行而无需对模型中的任何线性层实例化每个样本的梯度,成本与非隐私的训练相当,并且有适度的运行时间开销。
Oct, 2021
通过提出一种新的基于语言模型的最优差分隐私(LMO-DP)机制,我们可以在强隐私环境下使用亚优差分隐私机制来准确微调大规模语言模型,并提出了一种离线最优噪声搜索方法来降低噪声幅度。通过大大优于高斯机制的性能,在 SST-2 数据集上,对具有 300M 参数的 RoBERTa-large 进行微调可以实现 92.20% 的准确率(给定 ε=0.3,δ=10^-10),类似的结果也在 GPT-2 的文本生成任务中发现。此外,基于我们的了解,LMO-DP 是第一个具有良好差分隐私保证的准确微调 Llama-2 的解决方案。
May, 2024
通过利用已公开训练的编码器从私有数据中提取特征并生成代表嵌入空间中每个私有类的差异化隐私原型,DPPL 提供了高效预测和强隐私保证,即使在纯差分隐私概念下,也能在高隐私和低数据环境以及私有训练数据不平衡时表现出优秀性能。
Jun, 2024
该研究提出了一种新方法,使用差分隐私的大型语言模型开发隐私保护的大规模推荐系统,其方法可以通过在一个查询生成任务中微调预训练的 LLM 模型,生成私有的合成查询以供下游非私有推荐训练使用,同时不会增加任何额外的隐私成本,其在有效的深度检索模型上进行了安全训练的能力得到了验证,并观察到与直接 DP 训练检索模型的方法相比,在不损害查询级隐私保障的前提下显著提高了检索质量。
May, 2023
DP-NMT 是一个开源框架,旨在提供一个平台给研究人员以 DP-SGD 算法为基础开发隐私保护的神经机器翻译系统,通过整合多种模型、数据集和评估指标,解决了目前存在的 DP-SGD 实现细节不清晰、代码不透明和可复现性不足的问题。
Nov, 2023
本文介绍了 SubMix,这是一种防止语言模型泄漏私有语料库信息的实用协议,其通过对预测结果进行一定程度的差分隐私处理,限制了个人用户的信息泄露,并保证了语言模型的效用。SubMix 是第一个可以在公开发布成千上万次基于 GPT-2 等大型 transformer 模型的预测结果时仍能维护隐私的协议。
Jan, 2022
通过使用基于 Edgeworth 会计师的有限样本隐私保证 DP 框架,我们提出了一种针对 LLM 的 DP 细调框架 ewtune,该框架直接降低了噪声的影响,且在自然语言理解任务上将最新的 LLMs 性能提高了 1.1%。
Oct, 2022
对自然语言生成任务中使用大型语言模型进行用户级差分隐私保护的设计选择进行系统评估,重点研究两种实现用户级差分隐私保证的机制,即群体隐私和用户级 DP-SGD,包括数据选择策略和参数调优,以实现最佳的隐私 - 效用平衡。
Jun, 2024