开放集角度下的少样本类增量学习
本文提出了一种基于分离学习策略的持续演化分类器(CEC)框架,该框架在每个增量会话中只更新分类器,从而避免了表示的知识遗忘问题,并采用伪增量学习方法优化图参数来构建持续的上下文信息传递网络,以解决少样本类别增量学习(FSCIL)的课程先决问题,实验结果表明该方法在 CIFAR100、miniImageNet和Caltech-USCD Birds-200-2011(CUB200)等基准数据集上表现出 remarkable 的优势。
Apr, 2021
本研究提出基于元学习的LearnIng Multi-phase Incremental Tasks (LIMIT)方法,合成假的Few-shot Class-Incremental Learning任务来建立分类特征空间,并基于Transformer构建校准模块,实现新类别的适应和对旧类别的防遗忘,该方法在多个数据集上实现了最好表现。
Mar, 2022
本文研究了 few-shot class-incremental learning (FSCIL) 问题,提出了一种基于规范化原型分类器的简单方法,名为 NoNPC,该方法适用于增量式新类别的识别,具有与先进算法相当的性能表现。
Jun, 2022
本文从方法学、性能、应用等多个角度全面分析了最新的few-shot class-incremental learning(FSCIL)的进展,包括理论研究、性能评估和应用案例,针对当前存在的数据实时性差、忘记之前学习内容、过拟合等问题,提出了一种划分方法,将FSCIL分成了传统机器学习方法、元学习方法、特征和特征空间方法、重放方法和动态网络结构方法等五个子领域,并介绍了该领域在计算机视觉、自然语言处理和图像处理等多个方面的应用及未来的研究方向。
Apr, 2023
Few-shot Class-Incremental Learning (FSCIL) is comprehensively reviewed, covering problem definition, challenges, general schemes, benchmark datasets, evaluation metrics, classification methods, object detection methods, and future research directions.
Aug, 2023
我们介绍了一种创新的FSCIL框架,利用语言正则化器和子空间正则化器,该框架不仅能够使模型拥抱有限数据的新类别,还能确保对基础类别的性能保持,通过在基础训练阶段利用视觉-语言模型提取的语义信息和在增量训练阶段促进模型对图像和文本语义之间微妙连接的学习。
May, 2024
通过引入新的评估指标 general average accuracy (gAcc) 和使用基于 gAcc 的面积曲线 (AUC) 总体度量,以及利用远距离层级的中间特征来改善特征的泛化能力,本研究提出了一个基于 Transformer 的 few-shot class-incremental learning (FSCIL) 框架,能够在不使用复杂网络设计或繁琐训练过程的情况下,优化 novel-class 的性能。
Jul, 2024
本研究针对少样本类增量学习(FSCIL)中的知识保留和过拟合等问题,提出了一种新的表示学习方法。通过在更紧凑的特征空间内控制特征的扩散,研究表明,相对接近的不同类别可以更有效地实现表示的可转移性和可区分性,从而为FSCIL提供了新的视角和研究方向。
Oct, 2024
本文针对少样本类别增量学习(FSCIL)中的有限标注数据挑战,提出了一种基于协方差的空间正则化方法,以减少模型对新类的过拟合和旧类的遗忘。我们提出了一种协方差约束损失,强制模型学习相同协方差矩阵下的类分布,并通过扰动方法提高新类样本的分隔性。实验结果表明,该方法在FSCIL领域实现了新的最佳性能。
Nov, 2024