Jun, 2024

基于逆KL散度的知识蒸馏方法:在大型语言模型中消除个人信息

TL;DR透过RKLD算法,我们在实验中达到了显著的遗忘质量并有效地维护了模型的实用性。