通过增加表示等级和特征丰富性来提高类增量学习的前向兼容性
通过使用简单的递增表示 (IR) 框架,使用数据增强覆盖合适的特征空间并使用单一的 L2 空间维护损失来防止模型遗忘,我们提出了一个用于非示例类增量学习 (efCIL) 的方法,实现在合并新类知识的同时保留先前学到的信息,而无需存储任何旧类示例 (样本)。在 CIFAR100、TinyImageNet 和 ImageNetSubset 数据集上广泛实验证明,我们提出的 IR 方法在性能上与其他方法相媲美,同时显著防止模型遗忘。
Mar, 2024
提出了一种名为 LRFR 的新型训练算法,通过在过去任务的特征表示矩阵的零空间中优化网络参数来保证稳定性,同时在训练各个任务时仅选择网络各层中的部分神经元来学习过去任务的特征表示矩阵以增加零空间维度,从而增强了网络参数设计时的可塑性,该方法在持续学习的基准数据集 CIFAR-100 和 TinyImageNet 上持续优于最先进的方法。
Dec, 2023
提出了一种表示增强的分析学习方法,通过双流基础预训练和表示增强蒸馏过程来改善无示例约束下的渐进学习过程,解决现有基于分析学习的渐进学习中骨干网络冻结导致的表征不足问题。在不同数据集上的实验结果表明,该方法在无示例约束的渐进学习中优于现有方法,并且与基于回放的方法相比具有可比甚至更优越的性能。
Mar, 2024
本文提出了一种基于关系指导的表征学习方法,用于解决数据自由的类增量学习(DFCIL)中出现的遗忘问题,并展示了其在三个数据集上实现了新的最优性能。
Mar, 2022
FeTrIL 框架的研究扩展至新颖的实验领域,通过对多个具有挑战性的数据集和增量设置进行各种过采样技术和动态优化策略的实证研究来研究其有效性,特别是探索过采样对特征可用性的影响以及不同的优化方法对增量学习结果的影响。通过在 CIFAR100、Tiny-ImageNet 和 ImageNet-Subset 上进行全面实验,FeTrIL 在新旧类别的准确性平衡方面表现出卓越性能,相对于其他十种方法,其优越性能得到了肯定。研究揭示了过采样和优化对于类别增量学习的微妙影响,为特征空间操作在课堂增量学习中的更精细理解做出了贡献。本文的扩展研究为更适应和高效的 EFCIL 方法铺平了道路,承诺在不需要样本的情况下显著改善处理灾难性遗忘。
Mar, 2024
我们在这篇论文中解决了光学遥感图像的土地覆盖分类领域中的逐类增量学习(CIL)问题。我们提出了一个新颖的 CIL 框架,通过受到重播存储器方法的启发并解决了其中的两个缺点。实验证明,我们的方法在 CIL 性能上表现出明显的改进。
Sep, 2023
本文提出了一种新的无需回放的类增量学习方法,该方法通过学习两个互补学习子网络之间的协同作用,包括联合优化可塑性 CNN 特征提取器和解析前馈分类器来实现。该方法在训练期间不需要存储过去的数据,可以掌握新的课程,同时保持对以前学习过的课程的识别和知识保留。
Jun, 2023
在大规模的 ImageNet 数据集上,我们探索了一种从已经训练好的模型中增量学习的方法,通过二阶段训练方案,融合与增强,我们的方法比现有的方法在准确率上提高了 10%。
Apr, 2022
提出了一种新颖的、两阶段的学习方法,利用动态可扩展表示进行更有效的概念建模,在三个类别的增量学习基准测试中,该方法始终表现出比其他方法更好很大的优势。
Mar, 2021
我们提出了一种新算法,通过使用我们的 Rehearsal-CutMix 方法在压缩过程中切割和混合之前类别样本的图像补丁与新图像,来增强先前类别知识的压缩。在 CIFAR 和 ImageNet 数据集上进行的大量实验证明,我们的方法在不同的增量学习评估协议下始终优于现有技术。
May, 2024