Oct, 2024

仅使用遗忘数据进行损失调整的LLM遗忘

TL;DR本研究解决了大型语言模型(LLM)在隐私泄露、偏见、安全性和法规演变等领域的伦理使用问题。我们提出了一种新的“仅使用遗忘数据损失调整”(FLAT)方法,消除了对保留数据或参考模型的依赖,通过优化响应和遗忘数据之间的差异,显著提高了模型的遗忘性能,同时保持高效能。实验结果证明,该方法在多个任务中表现优异,确保了模型能力的最大保留。