介绍一种将固定特征提取器和伪特征生成器相结合的方法,以改善稳定性和可塑性之间的平衡,并在三个具有挑战性的数据集上表现出优异的性能。
Nov, 2022
提出了一种新颖的、两阶段的学习方法,利用动态可扩展表示进行更有效的概念建模,在三个类别的增量学习基准测试中,该方法始终表现出比其他方法更好很大的优势。
Mar, 2021
本文提出了一种选择性正则化方法,使用偏心特征蒸馏方法来判断是否执行模式完成或模式分离,并调节如何转移到前一模型的权重以保持先前知识,该方法在 CIFAR-100,ImageNet-Subset 和 ImageNet-Full 数据集上超越了现有方法的性能。
May, 2023
该论文在构建一个统一的概念和实验框架中,研究了解决神经网络过度拟合的方法,描述了增量学习算法的六个重要属性,探讨了过去样本选择的效用,并提供了可重现性的开源存储库。
Nov, 2020
我们提出了一种新算法,通过使用我们的 Rehearsal-CutMix 方法在压缩过程中切割和混合之前类别样本的图像补丁与新图像,来增强先前类别知识的压缩。在 CIFAR 和 ImageNet 数据集上进行的大量实验证明,我们的方法在不同的增量学习评估协议下始终优于现有技术。
May, 2024
本论文全面调查了现有的针对图像分类的类增量学习方法,特别是在 13 种类增量方法上进行了广泛的实验评估,包括多个大规模图像分类数据集上的类增量方法比较,小范围和大范围域转移的研究,以及各种网络架构的比较。
Oct, 2020
本文章提出了一种基于模式连通性的损失地貌的方法,可以在不保留旧样本的情况下,实现更好的可塑性 - 稳定性权衡,该方法通过将两个独立优化的最优值连接起来实现一个有意义的平衡,我们在几个基准数据集上进行了评估,结果表明我们的简单方法可以提高模型性能。
Oct, 2021
在连续流数据的情景中,深度神经网络在解决多个分类任务时,面临着保持旧任务知识同时学习新任务的挑战。本研究分析了当前度量方法的局限性,发现了新任务引起的遗忘问题,并提出了一套考虑任务难度增加的新度量方法,实验证明这些度量方法能够提供有关模型在连续学习环境中平衡稳定性和可塑性的新见解。
Sep, 2023
在增量学习中,我们提出了一个具有累计参数平均的双学习者框架,适用于无例子的场景,并通过任务特定分类器提高预测性能。通过在 CIFAR-100 和 Tiny-ImageNet 上的实验证明,该方法在任务增量学习和类别增量学习中优于多种先进方法。
Oct, 2023
本文提出一种基于 EM 框架的领域感知的持续学习方法来应对在增量学习中类分布和域分布的变化问题,使用基于 von Mises-Fisher 混合模型的灵活类表示来捕获类内结构,采用内部平衡和交叉类数据的处理方式来设计双层平衡记忆,并结合蒸馏损失实现更好的稳定性和可塑性权衡。经过大量实验,表明该方法在三个基准数据集上均优于现有方法。
Apr, 2022