Oct, 2024

减轻语言模型中的记忆化

TL;DR本研究解决了语言模型在推断时可能导致逐字复述训练数据的问题。我们提出了多种新的减轻记忆化的方法,尤其是基于“非学习”方法的BalancedSubnet,能够有效去除语言模型中的记忆信息,同时保持目标任务的性能。研究结果表明,该方法在提高效率的同时,解决了隐私或敏感数据引发的安全隐患。