Jun, 2024
逆转遗忘 - 保留目标:基于逻辑差异的高效 LLM 最佳模型即时舍弃框架
Reversing the Forget-Retain Objectives: An Efficient LLM Unlearning Framework from Logit Difference
Jiabao Ji, Yujian Liu, Yang Zhang, Gaowen Liu, Ramana Rao Kompella...
TL;DR通过介绍一种新的遗忘框架 Unlearning from Logit Difference(ULD),该方法通过计算目标模型与助理模型之间的逻辑差异来实现忘记目标文档和保留其他知识的目标,从而解决了 LLM 遗忘方法中的两个挑战问题(退化输出和灾难性遗忘),大幅提高了训练效率。