Sep, 2023
探索差分隐私预训练和参数高效微调在表格变换器中的优势
Exploring the Benefits of Differentially Private Pre-training and Parameter-Efficient Fine-tuning for Table Transformers
Xilong Wang, Chia-Mu Yu, Pin-Yu Chen
TL;DR我们研究了在转移学习场景中将差分隐私预训练和微调应用于 TabTransformers 的各种参数有效微调方法(包括 Adapter、LoRA 和 Prompt Tuning),并通过在 ACSIncome 数据集上进行广泛实验,证明这些方法在下游任务的准确性和可训练参数数量方面优于传统方法,从而在参数效率、隐私性和准确性之间实现了改善的权衡。