Jun, 2024

逆转遗忘 - 保留目标:基于逻辑差异的高效 LLM 最佳模型即时舍弃框架

TL;DR通过介绍一种新的遗忘框架 Unlearning from Logit Difference(ULD),该方法通过计算目标模型与助理模型之间的逻辑差异来实现忘记目标文档和保留其他知识的目标,从而解决了 LLM 遗忘方法中的两个挑战问题(退化输出和灾难性遗忘),大幅提高了训练效率。