交叉空间聚类与控制迁移的类增量学习
本文提出了一种新颖的类别增量学习方法,通过引入基于对抗攻击的特征增强技术。通过使用先前学习的分类器来补充训练样本,而不仅仅在后续模型中起到知识蒸馏的教师作用。该方法在类别增量学习中利用以前的知识有独特视角,因为它使用其他类别的示例通过先前学习的分类器上的对抗攻击来增强任意目标类别的特征。该方法可以方便地融入现有的类别增量学习算法,无需进行任何架构修改。在标准基准测试中的广泛实验表明,我们的方法在各种情况下都显著优于现有的类别增量学习方法,特别是在存储示例数量很少的情况下具有极小的存储空间。
Apr, 2023
CO-transport for Class Incremental Learning (COIL) is proposed as a method for incremental learning that utilizes class-wise semantic relationships and prospective and retrospective transport to adapt to new tasks and resist forgetting, as validated in experiments on benchmark and real-world multimedia datasets.
Jul, 2021
提出了一种新型的、无需实际数据的分类增量学习框架,采用数据合成的方式生成虚拟数据大大缓解了灾难性遗忘现象,采用余弦归一化交叉熵损失、边际损失和领域对比损失来优化模型的分类性能,将该方法与现有方法进行比较实验,并在诊断心脏超声图像方面取得了很好的效果。
Jun, 2022
本文提出了一种选择性正则化方法,使用偏心特征蒸馏方法来判断是否执行模式完成或模式分离,并调节如何转移到前一模型的权重以保持先前知识,该方法在 CIFAR-100,ImageNet-Subset 和 ImageNet-Full 数据集上超越了现有方法的性能。
May, 2023
提出了一种新的无数据增量学习框架,通过学习类别的数据综合代替先前类别的数据存储,在引入新类别时更新网络;关键创新包括获取以往无法获取的类别的合成数据(称为 Continual Class-Specific Impression - CCSI)并有效利用这些数据来更新网络,同时采用多个损失函数来推广深度网络。
Jun, 2024
本文探讨了类增量学习中跨任务特征的学习对于基本重放策略性能的影响,提出了一个新的类增量学习遗忘度量,并通过实验结果发现未来类增量学习算法不仅要防止遗忘,还要提高跨任务特征质量和任务之间的知识转移,特别是在任务数据有限的情况下。
Jun, 2021
通过分析类增量学习中灾难性遗忘的原因,我们提出了一个两阶段学习框架,其中包括一个固定编码器和一个逐步更新原型分类器。我们的方法不依赖于保留的旧类别样本,是一种非范例基于的 CIL 方法。在公共数据集上的实验证明,我们的方法在保留每类 5 个示例和 10 个阶段递增设置下,比最先进的范例基于方法在 CIFAR-100 上提高了 18.24%,在 ImageNet100 上提高了 9.37%。
Aug, 2023
通过受海马体和新皮质概念学习理论启发,我们提出了一种新颖的框架来解决小样本类递增学习的问题,在两个对象分类数据集上评估了框架的性能,结果显示其具有类递增学习和小样本类递增学习的最新技术水平,并通过在机器人上演示表明我们的框架在有限的人类辅助下能够持续学习对大量家居物品进行分类。
Jul, 2023
本文提出了一个新的优化目标和基于梯度调整方法的动态训练偏差方法,以解决回放方法在在线连续学习过程中的动态训练偏差问题,并在实验中取得了更好的结果,以解决跨任务类别辨别问题。
May, 2023
本文介绍了一种用于持续学习的有监督对比学习框架,旨在通过保存少量的数据和适应的分类准则来解决在学习新任务时可能产生的灾难性遗忘问题,实验表明其表现优异。
May, 2023