Sep, 2024

先删除再修正:一种无需训练的参数编辑方法用于成本有效的图学习遗忘

TL;DR本研究解决了现有图学习遗忘技术需要在剩余数据上进行额外训练,导致高昂计算成本的问题。提出了一种两阶段的无训练方法“先删除再修正”(ETR),通过战略性地编辑模型参数以消除未学习样本的影响,从而有效实现图学习遗忘,并在模型性能上进行了增强。实验结果表明,ETR在模型实用性、学习遗忘效率和有效性方面都表现出色,成为解决实际图学习遗忘挑战的有前景方案。