Oct, 2024
差分隐私学习需要更好的模型初始化和自我蒸馏
Differentially Private Learning Needs Better Model Initialization and
Self-Distillation
TL;DR本研究解决了差分隐私随机梯度下降(DPSGD)在训练语言模型时引发的效用、多样性和语言质量下降的问题。提出了一种三阶段的方法DPRefine,通过小型预训练语言模型的数据合成进行初始化,在私有数据上进行差分隐私微调,并进行自我蒸馏以改善输出。研究表明,DPRefine在降语言错误方面有效,减少了常见的语法和拼写错误,并在所有数据集中78.4%的案例中被优选,展现了其在隐私保护语言模型部署中的潜力。