Aug, 2024

面向大型语言模型的鲁棒且成本高效的知识遗忘

TL;DR本研究解决了大型语言模型在处理敏感数据时面临的隐私和版权风险,提出了有效的知识遗忘框架。通过设计反向铰链损失和基于Fisher加权的低秩近似初始化方法,显著提高了模型遗忘能力的效率与知识保留,同时降低了计算成本。