Feb, 2025

异构联邦持续学习中的准确遗忘

TL;DR本文研究了联邦持续学习中的遗忘问题,提出在存在与数据或任务不相关甚至对立的情况下,准确遗忘某些信息有助于提高学习效果。通过引入"准确遗忘"的概念,并基于生成重放的方法,本文实现了以概率框架定量评估先前知识的可信度,实验结果表明该方法优于基准模型。