参数高效的增量式学习的互补学习子网络
通过分析类增量学习中灾难性遗忘的原因,我们提出了一个两阶段学习框架,其中包括一个固定编码器和一个逐步更新原型分类器。我们的方法不依赖于保留的旧类别样本,是一种非范例基于的 CIL 方法。在公共数据集上的实验证明,我们的方法在保留每类 5 个示例和 10 个阶段递增设置下,比最先进的范例基于方法在 CIFAR-100 上提高了 18.24%,在 ImageNet100 上提高了 9.37%。
Aug, 2023
我们提出了一种新算法,通过使用我们的 Rehearsal-CutMix 方法在压缩过程中切割和混合之前类别样本的图像补丁与新图像,来增强先前类别知识的压缩。在 CIFAR 和 ImageNet 数据集上进行的大量实验证明,我们的方法在不同的增量学习评估协议下始终优于现有技术。
May, 2024
本研究针对类增量学习时可能出现的 “灾难性遗忘” 问题,提出了一种记忆资源高效利用的样本保存方案,并结合一种主副样本协作学习方案,以缓解样本来源、质量不同带来的问题。实验结果表明该方案在类增量学习中具有较好的性能表现。
Aug, 2020
无先例的课程增量学习中,使用冻结的特征提取器基于欧氏距离生成类原型并进行分类,然而,欧氏距离在非静态数据学习时表现亚优,特征分布异质。为了解决这个挑战,我们重新考虑适用于课程增量学习的各向异性马氏距离,并经验证明建模特征协方差关系要优于从正态分布中采样特征和训练线性分类器的先前方法,且我们的方法在多样本和少样本课程增量学习设置以及域增量学习设置上具有广泛适用性。有趣的是,在不更新主干网络的情况下,我们的方法在多个标准连续学习基准上取得了最先进的结果。
Sep, 2023
类渐进学习是从数据流中构建分类模型的目标。本文通过统计分析框架量化各个因素对增量性能的相对贡献,发现初始训练策略是影响平均增量准确性的主要因素,而 CIL 算法的选择对防止遗忘更为重要。基于此分析,我们提出了选择相应初始训练策略的实际建议,以促进增量学习的实际应用部署。
Aug, 2023
本文主要讨论了在有限内存情况下如何处理历史数据和新类别的增加,并提出了一种名为 MEMO 的基于共享泛化表示的基准,在保持代表性示例的同时,具有高效的内存管理和提取多样性特征的能力。
May, 2022
基于神经元动力学调整的自激活模型,用于训练模型从非稳态数据流中学习新类别而不忘记旧类别,通过引入监督机制来指导网络扩展,使其在推理时自动激活所需的神经元单元以检索知识,从而在不同的背景下实现强大的增量学习性能。
Jun, 2024
一项新的增量学习方法使用少量的示例集合来学习深层神经网络,解决了深度学习中的灾难性忘记问题,在 CIFAR-100 和 ImageNet(ILSVRC 2012)图像分类数据集上取得了最先进的成果。
Jul, 2018
在大规模的 ImageNet 数据集上,我们探索了一种从已经训练好的模型中增量学习的方法,通过二阶段训练方案,融合与增强,我们的方法比现有的方法在准确率上提高了 10%。
Apr, 2022