本文针对有界内存下的连续数据流的增量学习问题,提出分别利用增量状态下的数据统计信息对初始类别分类器权重进行简单高效的缩放,并将其与传统的基于数据平衡的算法开展对比实验,结果表明通过对分类器权重的缩放以及去除蒸馏项可以有效缓解数据不平衡问题。
Jan, 2020
提出一种新方法 “无需记忆学习 (LwM)”,通过信息保留惩罚方法 Attention Distillation Loss (L_AD) 来保存基础类的信息,同时逐步学习新类,实现在设备内存有限的情况下进行增量学习并取得更好的效果,实验证明在 iILSVRC-small 和 iCIFAR-100 数据集上,加入 L_AD 相较于现有的信息保留方法有更好的基础和增量学习准确度。
Nov, 2018
类渐进学习是从数据流中构建分类模型的目标。本文通过统计分析框架量化各个因素对增量性能的相对贡献,发现初始训练策略是影响平均增量准确性的主要因素,而 CIL 算法的选择对防止遗忘更为重要。基于此分析,我们提出了选择相应初始训练策略的实际建议,以促进增量学习的实际应用部署。
Aug, 2023
本文提出并验证了一种纠正新旧类别数据不平衡问题的方法,利用一个线性模型矫正了全连接层的弱分类偏见,在两个大型数据集 ImageNet 和 MS-Celeb-1M 上比现有算法表现更好。
May, 2019
提出了一种通过量化数据一致性并引入新的损失函数来改进数据回放及类别增量学习的方法。在实验证明比以前的方法有更好的性能。
Jan, 2024
研究人类和人工神经网(ANNs)学习机制之间的差异,指出后者的 Catastrophic Forgetting 是一个重要难题。作者提出了一种动态阈值移动算法,能够成功消除这种偏差,并在 CIFAR100 和 MNIST 数据集上展示了接近最优的结果,该算法利用增量学习、知识蒸馏等解决了这个问题。
Jul, 2018
通过分析类增量学习中灾难性遗忘的原因,我们提出了一个两阶段学习框架,其中包括一个固定编码器和一个逐步更新原型分类器。我们的方法不依赖于保留的旧类别样本,是一种非范例基于的 CIL 方法。在公共数据集上的实验证明,我们的方法在保留每类 5 个示例和 10 个阶段递增设置下,比最先进的范例基于方法在 CIFAR-100 上提高了 18.24%,在 ImageNet100 上提高了 9.37%。
本文提出了一种选择性正则化方法,使用偏心特征蒸馏方法来判断是否执行模式完成或模式分离,并调节如何转移到前一模型的权重以保持先前知识,该方法在 CIFAR-100,ImageNet-Subset 和 ImageNet-Full 数据集上超越了现有方法的性能。
May, 2023
通过 Margin Dampening 和 Cascaded Scaling Classifier 的创新方法,提出一种新的正则化方法和一种新的增量分类器,实现过去学习知识的保留和有效学习新的模式。该方法在多个基准测试中表现良好,并研究了各组成部分以及组合对最终结果的影响。
Feb, 2024
一项新的增量学习方法使用少量的示例集合来学习深层神经网络,解决了深度学习中的灾难性忘记问题,在 CIFAR-100 和 ImageNet(ILSVRC 2012)图像分类数据集上取得了最先进的成果。