Oct, 2023

探索微调语言模型中的记忆化

TL;DR本文研究了 LLMs 在 pre-training 和 fine-tuning 阶段的记忆化行为及其对隐私和版权的影响,并通过对不同任务的实验验证了 fine-tuned 记忆化在任务间的差异性,进一步提出了多任务 fine-tuning 作为缓解记忆化问题的潜在策略。