使用预训练视觉转换器校准高阶统计量进行少样本类别增量学习
在 Few-Shot Class-Incremental Learning (FSCIL) 场景中,我们发现现有方法倾向于将新类别的样本错误地分类为基类别,导致新类别的性能表现较差。为了解决这一问题,我们提出了一种简单而有效的训练无关的校准策略(TEEN),通过将新类别的原型与加权基类别的原型相融合,以增强新类别的可区分性。在 FSCIL 标准基准测试中,TEEN 显示出出色的性能并在 few-shot learning 场景中持续改进。
Dec, 2023
本文介绍了一种名为 PriViLege 的新型 FSCIL 框架,通过预训练的视觉和语言转换模型以及提示函数和知识蒸馏,有效地解决了 FSCIL 中的遗忘和过拟合问题,并获得了明显优于现有方法的结果。
Apr, 2024
本文从方法学、性能、应用等多个角度全面分析了最新的 few-shot class-incremental learning(FSCIL)的进展,包括理论研究、性能评估和应用案例,针对当前存在的数据实时性差、忘记之前学习内容、过拟合等问题,提出了一种划分方法,将 FSCIL 分成了传统机器学习方法、元学习方法、特征和特征空间方法、重放方法和动态网络结构方法等五个子领域,并介绍了该领域在计算机视觉、自然语言处理和图像处理等多个方面的应用及未来的研究方向。
Apr, 2023
通过设计新的集成模型框架与数据增强,以解决在少样本类别增量学习中的过拟合问题,并应用多输入多输出的集成结构和空间感知的数据增强策略来改善特征提取器的多样性和减轻过拟合,同时整合自监督学习以进一步提高模型泛化能力,综合实验结果表明该方法在少样本类别增量学习中能够减轻过拟合问题,并且优于现有方法。
Jan, 2024
本研究提出了一种用于解决少样本增量学习中模型偏差问题的新方法,通过激发映射能力、分别进行双特征分类和自优化分类器等步骤,显著减轻了模型偏差问题,并在三个广泛使用的少样本增量学习基准数据集上取得了最先进的性能。
Feb, 2024
我们介绍了一种创新的 FSCIL 框架,利用语言正则化器和子空间正则化器,该框架不仅能够使模型拥抱有限数据的新类别,还能确保对基础类别的性能保持,通过在基础训练阶段利用视觉 - 语言模型提取的语义信息和在增量训练阶段促进模型对图像和文本语义之间微妙连接的学习。
May, 2024
通过引入 Redundant Feature Eliminator (RFE) 和 Spatial Noise Compensator (SNC) 两个新颖组件,实现了在有限数据上进行递增训练时对灾难性遗忘问题的减轻。实验结果表明,该方法在现有 3D FSCIL 基准和我们的数据集上明显优于现有的最先进方法。
Dec, 2023
Few-shot Class-Incremental Learning (FSCIL) is comprehensively reviewed, covering problem definition, challenges, general schemes, benchmark datasets, evaluation metrics, classification methods, object detection methods, and future research directions.
Aug, 2023
本研究介绍了一种在线少样本增量学习(O-FSCIL)方法,该方法通过使用预训练和元学习的特征提取器以及存储类别原型的可扩展显式内存,使机器学习系统能够仅使用少量标记示例来扩展其推理能力,同时不会忘记先前学习的类别。O-FSCIL 在 FSCIL CIFAR100 基准测试中获得了 68.62%的平均准确率,实现了最先进的结果。针对超低功耗平台,我们将 O-FSCIL 实现在 60 mW 的 GAP9 微控制器上,仅使用 12 mJ 的能量来展示在线学习能力。
Mar, 2024
本文提出了一种简单有效的学习方案,来解决 few-shot class-incremental learning 中平衡新任务的欠拟合和遗忘之前任务的挑战,并在 CUB200、CIFAR100 和 miniImagenet 数据集上展现了领先的性能。
May, 2023