关于类别增量学习中的稳定性和可塑性两难问题
本文提出了一种增量学习的方法,该方法保留以前学习类别的训练图像的特征描述符,而不是图像本身,采用了比大多数现有方法更少的低维特征嵌入,通过多层感知器学习特征适应以实现分类器旧类别和新类别的联合优化,并取得了与保留图像相比更低的内存占用和最先进的分类准确率。
Apr, 2020
本文提出一种基于EM框架的领域感知的持续学习方法来应对在增量学习中类分布和域分布的变化问题,使用基于von Mises-Fisher混合模型的灵活类表示来捕获类内结构,采用内部平衡和交叉类数据的处理方式来设计双层平衡记忆,并结合蒸馏损失实现更好的稳定性和可塑性权衡。经过大量实验,表明该方法在三个基准数据集上均优于现有方法。
Apr, 2022
本文提出了基于蒸馏的目标,旨在维护先前类别的准确性并使模型学习新类别。通过利用特征空间的结构,我们讨论了跨空间聚类(CSC)和控制传递(CT)两个目标。我们的实验结果表明,在两个基准数据集上,我们的方法(CSCCT)一直表现出稳定的性能提升。
Aug, 2022
本文提出个体分类器与冻结特征提取器(ICE)框架及其三个变体,旨在缓解分类器漂移,以无存储旧类别样本的情况下,连续从数据流中学习新类别。在6个分类增量信息提取任务上的实验结果表明,与现有最先进方法相比,我们的解决方案(尤其是ICE-O)始终表现出显著的改进,提供了强有力的基线和未来研究的启示。
May, 2023
该论文提出了一种统一的解决方案,通过神经崩溃终局将分类增量学习、灾难性遗忘和数据不平衡与数据稀缺等问题融合在一起,并通过原型演化方案实现了对背景特征的平滑转变,从而在面临常规情况、长尾类增量学习和少样本类增量学习时实现了更好的学习能力。
Aug, 2023
FeTrIL框架的研究扩展至新颖的实验领域,通过对多个具有挑战性的数据集和增量设置进行各种过采样技术和动态优化策略的实证研究来研究其有效性,特别是探索过采样对特征可用性的影响以及不同的优化方法对增量学习结果的影响。通过在CIFAR100、Tiny-ImageNet和ImageNet-Subset上进行全面实验,FeTrIL在新旧类别的准确性平衡方面表现出卓越性能,相对于其他十种方法,其优越性能得到了肯定。研究揭示了过采样和优化对于类别增量学习的微妙影响,为特征空间操作在课堂增量学习中的更精细理解做出了贡献。本文的扩展研究为更适应和高效的EFCIL方法铺平了道路,承诺在不需要样本的情况下显著改善处理灾难性遗忘。
Mar, 2024
本研究针对少样本类增量学习(FSCIL)中的知识保留和过拟合等问题,提出了一种新的表示学习方法。通过在更紧凑的特征空间内控制特征的扩散,研究表明,相对接近的不同类别可以更有效地实现表示的可转移性和可区分性,从而为FSCIL提供了新的视角和研究方向。
Oct, 2024