自我维持表示扩展非样本类增量学习
本文提出了一种增量学习的方法,该方法保留以前学习类别的训练图像的特征描述符,而不是图像本身,采用了比大多数现有方法更少的低维特征嵌入,通过多层感知器学习特征适应以实现分类器旧类别和新类别的联合优化,并取得了与保留图像相比更低的内存占用和最先进的分类准确率。
Apr, 2020
本文提出了一种基于固定分类器和迭代记忆的新方法来解决神经网络在增量学习中遗忘以前知识和记忆的问题,并进行了公开数据集实验来验证其有效性和新颖性的内部特征表示。
Oct, 2020
提出了一种新颖的、两阶段的学习方法,利用动态可扩展表示进行更有效的概念建模,在三个类别的增量学习基准测试中,该方法始终表现出比其他方法更好很大的优势。
Mar, 2021
本论文提出了基于深度神经网络的一种新型增量学习方法,该方法基于知识蒸馏并采用一种规范的方式来有效地维护旧模型的表示,以适应新任务,克服了数据访问受限导致的灾难性遗忘问题,并在标准数据集上实现了显著的准确性改进。
Apr, 2022
提出了一种基于自监督学习的类增量学习框架CPPF,具有原型聚类模块、嵌入空间保留模块和多教师蒸馏模块,该方法在CIFAR100和ImageNet100数据集上实验证明了其对自监督类增量学习性能的提升。
Nov, 2023
提出了一种表示增强的分析学习方法,通过双流基础预训练和表示增强蒸馏过程来改善无示例约束下的渐进学习过程,解决现有基于分析学习的渐进学习中骨干网络冻结导致的表征不足问题。在不同数据集上的实验结果表明,该方法在无示例约束的渐进学习中优于现有方法,并且与基于回放的方法相比具有可比甚至更优越的性能。
Mar, 2024
我们提出了一种新算法,通过使用我们的Rehearsal-CutMix方法在压缩过程中切割和混合之前类别样本的图像补丁与新图像,来增强先前类别知识的压缩。在CIFAR和ImageNet数据集上进行的大量实验证明,我们的方法在不同的增量学习评估协议下始终优于现有技术。
May, 2024
本研究针对少样本类增量学习(FSCIL)中的知识保留和过拟合等问题,提出了一种新的表示学习方法。通过在更紧凑的特征空间内控制特征的扩散,研究表明,相对接近的不同类别可以更有效地实现表示的可转移性和可区分性,从而为FSCIL提供了新的视角和研究方向。
Oct, 2024
本研究针对深度神经网络在连续数据流学习中遭遇的灾难性遗忘问题,提出了一种新的非样本类增量学习方法。通过用合成的回顾特征替代类的原型,结合基于相似性特征补偿机制,显著提升了对旧类决策边界的保持能力。实验结果表明,该方法在多个数据集上实现了最先进的性能,并提高了非样本类增量学习的效率。
Nov, 2024