DER:动态可扩展表示用于类增量学习
本文提出了一种增量学习的方法,该方法保留以前学习类别的训练图像的特征描述符,而不是图像本身,采用了比大多数现有方法更少的低维特征嵌入,通过多层感知器学习特征适应以实现分类器旧类别和新类别的联合优化,并取得了与保留图像相比更低的内存占用和最先进的分类准确率。
Apr, 2020
该论文在构建一个统一的概念和实验框架中,研究了解决神经网络过度拟合的方法,描述了增量学习算法的六个重要属性,探讨了过去样本选择的效用,并提供了可重现性的开源存储库。
Nov, 2020
本文介绍了一种新的增量知识蒸馏策略来解决Data-Free Class-Incremental Learning(DFCIL)的问题,该策略通过修改交叉熵训练和重要性加权特征蒸馏,提高了DFCIL的准确率,并在公共课程增量基准测试中表现出优异的性能。
Jun, 2021
在大规模的ImageNet数据集上,我们探索了一种从已经训练好的模型中增量学习的方法,通过二阶段训练方案,融合与增强,我们的方法比现有的方法在准确率上提高了10%。
Apr, 2022
通过使用多层知识蒸馏等技术,原有的动态扩展架构被改进,被称作任务相关增量学习(TCIL),以改善现有的一些问题,比如任务冲突和遗忘问题,在 CIFAR100 和 ImageNet100 数据集上,实验证明 TCIL 显著提高了准确性。
Dec, 2022
通过采用动态网络算法和中心点增强方法,提出一种任务感知可扩展的框架(Task-aware Expandable,TaE),用于解决长尾类增量学习问题,并在CIFAR-100和ImageNet100数据集上进行实验证明其能取得最先进的性能。
Feb, 2024
我们提出了一种新算法,通过使用我们的Rehearsal-CutMix方法在压缩过程中切割和混合之前类别样本的图像补丁与新图像,来增强先前类别知识的压缩。在CIFAR和ImageNet数据集上进行的大量实验证明,我们的方法在不同的增量学习评估协议下始终优于现有技术。
May, 2024
本研究针对少样本类增量学习(FSCIL)中的知识保留和过拟合等问题,提出了一种新的表示学习方法。通过在更紧凑的特征空间内控制特征的扩散,研究表明,相对接近的不同类别可以更有效地实现表示的可转移性和可区分性,从而为FSCIL提供了新的视角和研究方向。
Oct, 2024
本研究解决了在旧数据因内存或隐私限制难以访问的情况下,图像分类增量学习中的致命遗忘问题。通过首次将任务特定批量归一化引入类增量学习,并通过新增“未知”类别预测任务ID,验证了任务增量学习方法向类增量学习的成功扩展,从而有效提升了模型的可塑性和稳定性。
Nov, 2024