本文提出了使用联邦平均算法实现用户级差分隐私,以及在保持较高的实用性的同时进行隐私保护的方法。通过在用户分区数据上训练深层网络并进行隐私账户记录,我们证明即使在拥有大量用户的数据集上,实现差分隐私也只会以微不足道的精度损失为代价而非减少实用性。
Oct, 2017
通过微调基于公共语料库的模型来实现高质量和隐私保护的语言模型,提高私有领域的模型性能,让其成为可能。
Sep, 2020
本篇研究提供了更简单、更稀疏、更快速的算法来实现大规模预训练语言模型的差分隐私微调,在许多标准 NLP 任务上实现了最先进的隐私与实用性平衡。我们提出了一个元框架来解决这个问题,并在该领域中取得了最好的实用效果、隐私性、私有训练的计算和存储成本。
Oct, 2021
本文提出了一种简单易行、计算轻量化的扰动机制,保证了模型的隐私性,在不影响模型实用性的情况下,可应用于所有LLM模型,解决了LLM在隐私保护与重新训练之间的折中问题。
May, 2022
通过使用基于Edgeworth会计师的有限样本隐私保证DP框架,我们提出了一种针对LLM的DP细调框架ewtune,该框架直接降低了噪声的影响,且在自然语言理解任务上将最新的LLMs性能提高了1.1%。
Oct, 2022
研究表明,通过对用户数据进行细调的大型语言模型(LLMs)存在用户推测攻击的隐私风险,攻击者可以通过仅需少量用户样本和黑盒访问细调后的LLMs来推断用户的数据是否被用于细调,通过限制单个用户的细调样本数量可以减少攻击效果,但也会降低细调数据总量。
Oct, 2023
DP-ZO是一种维护训练数据隐私的方法,通过对零阶优化中步长的隐私化来对大型语言模型进行微调,可在保守的隐私预算下提供强大的隐私-效用权衡,且在SQuAD的1000个训练样本上,对OPT-66B的微调仅导致1.86%的性能降低。
Jan, 2024
通过使用合成指令替代真实指令进行数据注释和模型微调,通过定义差分隐私生成合成指令,匹配合成指令和真实指令的分布来实现所需效用,结果表明,使用合成指令进行监督微调的模型优于开源模型。
Feb, 2024
对自然语言生成任务中使用大型语言模型进行用户级差分隐私保护的设计选择进行系统评估,重点研究两种实现用户级差分隐私保证的机制,即群体隐私和用户级 DP-SGD,包括数据选择策略和参数调优,以实现最佳的隐私-效用平衡。
Jun, 2024
本研究解决了语言模型在微调过程中面临的隐私保护不足问题。提出的ANADP算法通过根据模型参数的重要性自适应分配加性噪声,优化了差分隐私的效果。实验结果表明,ANADP在满足隐私要求的同时,缩小了常规微调与传统差分隐私微调之间的性能差距。
Oct, 2024