Jan, 2024

大型语言模型的私人微调与零阶优化

TL;DRDP-ZO是一种维护训练数据隐私的方法,通过对零阶优化中步长的隐私化来对大型语言模型进行微调,可在保守的隐私预算下提供强大的隐私-效用权衡,且在SQuAD的1000个训练样本上,对OPT-66B的微调仅导致1.86%的性能降低。