大语言模型中的差分隐私解码
本文提出了使用联邦平均算法实现用户级差分隐私,以及在保持较高的实用性的同时进行隐私保护的方法。通过在用户分区数据上训练深层网络并进行隐私账户记录,我们证明即使在拥有大量用户的数据集上,实现差分隐私也只会以微不足道的精度损失为代价而非减少实用性。
Oct, 2017
使用预训练的语言模型以及非标准化超参数和fine-tuning目标结合DP优化技术,可在中等规模的语料库上获得胜过强基线和同一隐私预算下的DP-trained模型的NLP模型。我们还提出了一种内存节省技术来解决在大型Transformers上运行DP-SGD的计算难题,该技术可以使得clip在DP-SGD中运行而无需对模型中的任何线性层实例化每个样本的梯度,成本与非隐私的训练相当,并且有适度的运行时间开销。
Oct, 2021
本篇研究提供了更简单、更稀疏、更快速的算法来实现大规模预训练语言模型的差分隐私微调,在许多标准 NLP 任务上实现了最先进的隐私与实用性平衡。我们提出了一个元框架来解决这个问题,并在该领域中取得了最好的实用效果、隐私性、私有训练的计算和存储成本。
Oct, 2021
通过使用基于Edgeworth会计师的有限样本隐私保证DP框架,我们提出了一种针对LLM的DP细调框架ewtune,该框架直接降低了噪声的影响,且在自然语言理解任务上将最新的LLMs性能提高了1.1%。
Oct, 2022
使用大型语言模型,本研究探索了替代标记符的可行性,以保护用户隐私,分析了不同方法的实验结果,在下游语言建模任务中实现了与原始数据训练相媲美的性能。
Sep, 2023
利用特定域数据对大型语言模型进行微调时,存在个人身份信息敏感度的问题。为了解决这一挑战,我们引入了隐私保护语言模型(PPLM),通过有效注入特定领域知识来保护数据隐私。我们的工作提供了模型设计理论分析,并详细介绍了诸如语料库整理、基于惩罚性失真的训练损失和基于指令的微调等技术。在各种数据集和场景下的广泛实验证实了我们方法的有效性。特别是,正负样本指令微调成为一种有潜力的方法,可以在增强模型知识的同时保护私人数据。我们的工作突显了大型语言模型作为强大隐私保护学习器的潜力。
Oct, 2023
给出了当前针对大型语言模型(LLMs)的隐私攻击的全面分析,并对其进行了分类,同时提供了用于对抗这些隐私攻击的重要防御策略,并指出了LLMs发展中可能出现的新的隐私问题和未来的研究方向。
Oct, 2023
在我们的研究中,我们揭示了Differential Privacy(DP)技术在处理Large Language Models(LLMs)的隐私和泛化之间的权衡中,DP训练模型的损失平面的平坦程度起到了关键作用。我们进一步提出了一个全面的框架来强制执行适当的权重平坦度,从而大幅提高模型的泛化能力并保持竞争性的隐私保护。
Mar, 2024
利用用户级差分隐私(DP)进行训练大型语言模型(LLMs)的实用和可扩展算法研究,以可证明地保护每个用户贡献的所有示例;通过实验在固定计算预算下验证结果,发现当需要较高的隐私保证或计算预算较大时,用户级抽样和用户级梯度剪切(ULS)通常能提供更好的结果。
Jul, 2024