带有注意力吸引网络的增量式少样本学习
本研究致力于发展一种在少量标记数据情况下对未标记数据进行分类的方法并提出一种新型Prototypical Networks和一种使用未标记数据的元学习算法来解实际问题,经过对Omniglot、miniImageNet和ImageNet进行实验,验证了这些算法可以使预测结果得到显著改进。
Mar, 2018
该研究重点关注CNN模型在少数有标记样本的情况下如何对新类别进行增量式学习,并提出了基于神经气网络的知识表示和 TOpology-Preserving knowledge InCrementer (TOPIC)框架来解决这一问题,实验结果表明该方法在几个数据集上优于当前最先进的类增量学习方法。
Apr, 2020
本文提出一种新的few-shot学习方法,通过优化和快速适应查询样本的表示来改进few-shot分类,所提出的自适应注意力模型还能够解释分类模型所寻找的证据。在各种基准few-shot分类和精细识别数据集上,实验证明了所提出模型的分类结果达到了最先进水平。
Aug, 2020
本文提出了一种基于分离学习策略的持续演化分类器(CEC)框架,该框架在每个增量会话中只更新分类器,从而避免了表示的知识遗忘问题,并采用伪增量学习方法优化图参数来构建持续的上下文信息传递网络,以解决少样本类别增量学习(FSCIL)的课程先决问题,实验结果表明该方法在 CIFAR100、miniImageNet和Caltech-USCD Birds-200-2011(CUB200)等基准数据集上表现出 remarkable 的优势。
Apr, 2021
本研究探讨在图模型中实施分类增量学习的挑战性实际问题,提出了基于伪增量学习和分层注意力的图元学习框架,通过这些设计实验得出了该模型在图模型中表现出更好的增量学习效果。
Dec, 2021
本研究提出基于元学习的LearnIng Multi-phase Incremental Tasks (LIMIT)方法,合成假的Few-shot Class-Incremental Learning任务来建立分类特征空间,并基于Transformer构建校准模块,实现新类别的适应和对旧类别的防遗忘,该方法在多个数据集上实现了最好表现。
Mar, 2022
提出了一种称为 SoftNet 的 few-shot 类增量学习方法,能够通过联合学习模型权重和自适应非二进制软掩码,在保留先前学习知识的同时,学习逐渐学习每个类别的几个示例,以解决此类问题,并超越基准数据集上的现有方法。
Sep, 2022
为了解决少样本类别增量学习中的灾难性遗忘和过拟合问题,我们提出了利用先验知识(LwPK)的方法,通过引入一些后续增量类别的未标记数据来增强预训练模型的泛化能力。我们使用无标签的增量类别样本进行聚类以产生伪标签,并与标记的基类样本一起进行联合训练,有效地为新旧类别数据分配嵌入空间。实验结果表明,LwPK能够有效增强模型抵御灾难性遗忘的韧性,理论分析基于经验风险最小化和类别距离度量的操作原理得到了验证。LwPK的源代码公开地可在https://github.com/StevenJ308/LwPK获取。
Feb, 2024
我们提出了一个用于少样本类级增量学习(FSCIL)的绝招框架,这是一种具有挑战性的持续学习形式,涉及对有限样本的新任务的连续适应。我们的提出的绝招集合了八个关键而高度有影响力的技巧,改善了FSCIL的稳定性,适应性和整体性能,并建立了新的最先进技术,优于该领域的先前研究。
Mar, 2024