Oct, 2023
探索微调语言模型中的记忆化
Exploring Memorization in Fine-tuned Language Models
Shenglai Zeng, Yaxin Li, Jie Ren, Yiding Liu, Han Xu...
TL;DR本文研究了 LLMs 在 pre-training 和 fine-tuning 阶段的记忆化行为及其对隐私和版权的影响,并通过对不同任务的实验验证了 fine-tuned 记忆化在任务间的差异性,进一步提出了多任务 fine-tuning 作为缓解记忆化问题的潜在策略。