May, 2024

LMO-DP: 为巨型语言模型优化差分隐私微调的随机化机制

TL;DR通过提出一种新的基于语言模型的最优差分隐私(LMO-DP)机制,我们可以在强隐私环境下使用亚优差分隐私机制来准确微调大规模语言模型,并提出了一种离线最优噪声搜索方法来降低噪声幅度。通过大大优于高斯机制的性能,在SST-2数据集上,对具有300M参数的RoBERTa-large进行微调可以实现92.20%的准确率(给定ε=0.3,δ=10^-10),类似的结果也在GPT-2的文本生成任务中发现。此外,基于我们的了解,LMO-DP是第一个具有良好差分隐私保证的准确微调Llama-2的解决方案。