Sep, 2024
任务近期偏差反击:在无示例的类别增量学习中调整协方差
Task-recency bias strikes back: Adapting covariances in Exemplar-Free
Class Incremental Learning
TL;DR本研究解决了在无示例类别增量学习(EFCIL)中模型在序列任务训练时面临的两大关键问题:协方差矩阵未适应的变化和任务近期偏差。我们提出的AdaGauss方法通过任务间调整协方差矩阵和引入抗崩溃损失函数,有效缓解了这些问题,并在EFCIL基准测试中取得了最先进的结果。