Jun, 2024
逆转遗忘-保留目标:基于逻辑差异的高效LLM最佳模型即时舍弃框架
Reversing the Forget-Retain Objectives: An Efficient LLM Unlearning
Framework from Logit Difference
TL;DR通过介绍一种新的遗忘框架Unlearning from Logit Difference(ULD),该方法通过计算目标模型与助理模型之间的逻辑差异来实现忘记目标文档和保留其他知识的目标,从而解决了LLM遗忘方法中的两个挑战问题(退化输出和灾难性遗忘),大幅提高了训练效率。