DeeSIL: 深层 - 浅层增量学习
本文提出了一个名为 Deep Model Consolidation(DMC)的类增量学习范式,它通过利用公共可用的无标签辅助数据,将训练数据集中的已知类和未知类分别训练成不同的模型,然后通过新型的双重蒸馏训练目标结合两个模型,从而解决了增量学习中的 “灾难性遗忘” 问题,并在单头 IL 设置中,相比于现有技术,显著提升了图像分类和物体检测的性能。
Mar, 2019
本文从方法学、性能、应用等多个角度全面分析了最新的 few-shot class-incremental learning(FSCIL)的进展,包括理论研究、性能评估和应用案例,针对当前存在的数据实时性差、忘记之前学习内容、过拟合等问题,提出了一种划分方法,将 FSCIL 分成了传统机器学习方法、元学习方法、特征和特征空间方法、重放方法和动态网络结构方法等五个子领域,并介绍了该领域在计算机视觉、自然语言处理和图像处理等多个方面的应用及未来的研究方向。
Apr, 2023
通过分析类增量学习中灾难性遗忘的原因,我们提出了一个两阶段学习框架,其中包括一个固定编码器和一个逐步更新原型分类器。我们的方法不依赖于保留的旧类别样本,是一种非范例基于的 CIL 方法。在公共数据集上的实验证明,我们的方法在保留每类 5 个示例和 10 个阶段递增设置下,比最先进的范例基于方法在 CIFAR-100 上提高了 18.24%,在 ImageNet100 上提高了 9.37%。
Aug, 2023
在大规模的 ImageNet 数据集上,我们探索了一种从已经训练好的模型中增量学习的方法,通过二阶段训练方案,融合与增强,我们的方法比现有的方法在准确率上提高了 10%。
Apr, 2022
本文介绍一种新技术 Deep Incremental Boosting,它是从 AdaBoost 发展而来,并专门适用于 Deep Learning 方法,它可以缩短训练时间并提高泛化能力。作者借鉴了 Transfer of Learning 方法,以减少每个增量 Ensemble 成员的启动时间,我们展示了一系列在一些常见 Deep Learning 数据集上的实验,印证了一些初步结果,并讨论了 Deep Incremental Boosting 对传统 Ensemble 方法在 Deep Learning 方面带来的潜在改进。
Aug, 2017
本文提出了一个名为 CILIATE 的新框架,用于修复迭代学习(IL)中存在的数据集偏差和算法偏差问题,并在三个流行数据集上通过独特重要样本的识别和强制学习提高 iCaRL、BiC 和 WA 等方法的性能。
Apr, 2023
一项新的增量学习方法使用少量的示例集合来学习深层神经网络,解决了深度学习中的灾难性忘记问题,在 CIFAR-100 和 ImageNet(ILSVRC 2012)图像分类数据集上取得了最先进的成果。
Jul, 2018
通过使用简单的递增表示 (IR) 框架,使用数据增强覆盖合适的特征空间并使用单一的 L2 空间维护损失来防止模型遗忘,我们提出了一个用于非示例类增量学习 (efCIL) 的方法,实现在合并新类知识的同时保留先前学到的信息,而无需存储任何旧类示例 (样本)。在 CIFAR100、TinyImageNet 和 ImageNetSubset 数据集上广泛实验证明,我们提出的 IR 方法在性能上与其他方法相媲美,同时显著防止模型遗忘。
Mar, 2024
本文提出了一种名为 LEAST 的新的模型转移方法,通过减少权重适应、知识蒸馏和基于聚类的样本选择等步骤,实现了在小样本量下增量式学习的目标检测问题中的高效性能。
May, 2021