Sep, 2024
通过自蒸馏减少在线类别增量学习中的灾难性遗忘
Reducing Catastrophic Forgetting in Online Class Incremental Learning
Using Self-Distillation
TL;DR本研究针对连续学习中严重的灾难性遗忘问题,即模型在学习新任务时会遗忘以前的知识。论文提出通过自蒸馏获取可迁移知识,并优化记忆更新方法以优先存储易混淆样本,从而实现更高效的学习。实验结果表明,该方法在CIFAR10、CIFAR100和MiniimageNet数据集上的表现优于传统方法。