大规模差分隐私 BERT
使用预训练的语言模型以及非标准化超参数和 fine-tuning 目标结合 DP 优化技术,可在中等规模的语料库上获得胜过强基线和同一隐私预算下的 DP-trained 模型的 NLP 模型。我们还提出了一种内存节省技术来解决在大型 Transformers 上运行 DP-SGD 的计算难题,该技术可以使得 clip 在 DP-SGD 中运行而无需对模型中的任何线性层实例化每个样本的梯度,成本与非隐私的训练相当,并且有适度的运行时间开销。
Oct, 2021
本篇研究提供了更简单、更稀疏、更快速的算法来实现大规模预训练语言模型的差分隐私微调,在许多标准 NLP 任务上实现了最先进的隐私与实用性平衡。我们提出了一个元框架来解决这个问题,并在该领域中取得了最好的实用效果、隐私性、私有训练的计算和存储成本。
Oct, 2021
差分隐私随机梯度下降(DP-SGD)是在差分隐私下训练机器学习模型的标准算法,其主要缺点是效用下降和显著的计算成本,我们通过综合实证研究量化了差分隐私下训练深度学习模型的计算成本,并对旨在降低成本的方法进行了基准测试,其中包括更高效的 DP-SGD 实现和使用低精度进行训练,最后我们还研究了使用多达 80 个 GPU 的扩展行为。
Jun, 2024
研究取得了基于 BERT 和 XtremeDistil 架构的神经模型,在五个典型的 NLP 任务中使用不同隐私保护策略在七个下游数据集上的表现,并发现每个任务和隐私方案都需要特殊处理以实现足够的性能。
Dec, 2021
本文主要研究采用差分隐私保护方法进行深度学习的训练,并在调优超参数以及利用一些技巧来提高信号传播和收敛速度的基础上,在图像分类任务中获得了新的最高精度,证明了采用过参数化模型的 DP-SGD 方法也可以实现更好的性能,这是在私有和非私有图像分类之间精度差距缩小的一个重要步骤。
Apr, 2022
本文提出了一种新的 Book-Keeping(BK)技术,用于实现现有的 DP 优化器,以降低计算成本,并在视觉和语言任务方面进行广泛实验,取得了 SOTA 精度。
Sep, 2022
通过对公共 LLM 输出分布周围的集合投影,并对投影分布进行平均和抽样,PMixED 提供了基于模型预测的差分隐私保护方法,比样本级隐私更可靠,并在大规模数据集上胜过 DP-SGD。
Mar, 2024
通过提出一种新的基于语言模型的最优差分隐私(LMO-DP)机制,我们可以在强隐私环境下使用亚优差分隐私机制来准确微调大规模语言模型,并提出了一种离线最优噪声搜索方法来降低噪声幅度。通过大大优于高斯机制的性能,在 SST-2 数据集上,对具有 300M 参数的 RoBERTa-large 进行微调可以实现 92.20% 的准确率(给定 ε=0.3,δ=10^-10),类似的结果也在 GPT-2 的文本生成任务中发现。此外,基于我们的了解,LMO-DP 是第一个具有良好差分隐私保证的准确微调 Llama-2 的解决方案。
May, 2024
使用差分隐私的 Follow-The-Regularized-Leader(DP-FTRL)是一种比 DP-SGD 更加灵活的模型训练方法,在隐私、准确性和计算方面表现都很好,特别适用于联邦学习等实际场景,同时也不需要使用任何隐私扩展。
Feb, 2021
DP-ZO 是一种维护训练数据隐私的方法,通过对零阶优化中步长的隐私化来对大型语言模型进行微调,可在保守的隐私预算下提供强大的隐私 - 效用权衡,且在 SQuAD 的 1000 个训练样本上,对 OPT-66B 的微调仅导致 1.86% 的性能降低。
Jan, 2024