Jan, 2024

具有新类增强式自蒸馏的联邦增量学习

TL;DR我们提出了一种新颖的联邦类增量学习方法(FCIL),命名为具有新类增强的自我蒸馏(FedNASD)。FedNASD 通过将当前模型推断的新类分数与历史模型的预测相结合,基于过去和现在的知识,它在客户端上进行自我蒸馏,旨在实现从历史模型到当前模型的有效知识转移。理论分析表明,在没有新类的情况下,FedNASD 等效地对旧类分数建模为条件概率。此外,它通过将新类的预测与当前模型相结合,以修正历史得分的条件概率,在不存在新类的情况下。经验实验表明,FedNASD 在降低平均遗忘率和提高全局准确性方面优于其他四种基准算法。