使用互补记忆系统进行开放词汇分类中的持续学习
提出 CLS-ER,一种双重记忆体验重放的方法,有助于在学习新知识的同时保留和补充先前的知识记忆,从而实现深度神经网络的持续学习。
Jan, 2022
本文发现,CLIP(Contrastive Language-Image Pretraining)模型在冻结状态下,在不进行任何微调(零次评估)的情况下提供惊人的持续学习表现。作者在多种设置(包括类增量、域增量和任务不可知的增量学习)和五个流行基准测试集上评估了 CLIP 模型,证明了其在大多数设置中优于现有模型;同时作者还通过改变简单提示模板的文本输入来研究 CLIP 模型性能的影响。作者鼓励在持续学习任务中使用这种强大而非常简单的基线方法进行未来的比较。
Oct, 2022
本文探讨了在开放领域中视觉语言模型的持续学习问题,介绍了一种名为 CoLeCLIP 的新方法,通过联合学习任务提示和跨领域类别词汇来解决开放领域持续学习中的挑战,实验证明 CoLeCLIP 在开放领域持续学习中超过了最先进的方法。
Mar, 2024
我们提出了一种叫做 PROOF 的模型,它通过训练任务特定的映射来解决 Vision-Language Models 在 Class-Incremental Learning 时候遗忘问题,并且通过融合多模态信息来提高模型的语义表示能力。在九个基准数据集上进行的实验表明,PROOF 达到了最先进的性能。
May, 2023
本文提出了一种新的无需回放的类增量学习方法,该方法通过学习两个互补学习子网络之间的协同作用,包括联合优化可塑性 CNN 特征提取器和解析前馈分类器来实现。该方法在训练期间不需要存储过去的数据,可以掌握新的课程,同时保持对以前学习过的课程的识别和知识保留。
Jun, 2023
本文提出了一种灵活的 Bookworm Continual Learning (BCL) 框架,其中未见过的类别可以通过语义模型进行推断,视觉模型可以持续更新。因此,BCL 推广了连续学习 (CL) 和零样本学习 (ZSL)。本文还提出了双向想象 (BImag) 框架,用于处理 BCL,其中过去和未来两类的特征都能被生成。作者发现将特征生成器信息与属性进行联合会损害连续学习能力,提出了两种变体(联合类属性调节和不对称生成)来减轻这个问题。
Jun, 2020
该研究提出了一种基于语义流形的加权最大间隔框架解决零样本学习中面临的挑战,包括有限标记数据、大量标签分类和开放集分类。在 Animal with Attributes 和 ImageNet 数据集上,模型表现得到了显著提高,类词汇量最高可达 310K。
Jan, 2023
本文定义了一个新问题:不断出现的少样本学习;提出了 Continual Meta-Learner 来解决此问题,并在 MiniImageNet 和 CIFAR100 两个图像数据集上进行了广泛实验,表明 CML 在少量样本学习任务的分类准确性方面实现了现有最先进水平并避免了灾难性遗忘。
Jul, 2022