Mar, 2021

在类增量学习中提取数据的因果效应

TL;DR本文提出了一个因果框架,解释了类增量学习中的灾难性遗忘的原因,并提出了一种新的蒸馏方法,该方法与现有的抗遗忘技术(例如数据回放和特征 / 标签蒸馏)正交。在这个框架下,我们发现特征 / 标签蒸馏虽然存储效率高,但其因果效应与端到端特征学习的优点不相符,而数据回放则能够保留此效应,因此我们建议使用基于 Colliding Effect 的因果蒸馏方法,在不损失回放存储的情况下,实现类增量学习中的遗忘效应的缓解。实验结果表明该方法能够显著提高目前各类增量学习方法的性能。