单增量任务场景下的连续学习
研究了一种基于简单有效的调整网络(SAN)的增量学习方法,达到了接近最先进的性能,使用最小的架构大小,而不需要使用先前最先进方法中的内存实例,对 3D 点云对象(ModelNet40)和 2D 图像(CIFAR10,CIFAR100,MiniImageNet,MNIST,PermutedMNIST,notMNIST,SVHN 和 FashionMNIST)识别任务进行了研究,并为公平比较现有方法建立了强有力的基准结果。在 2D 和 3D 领域,我们还观察到 SAN 在任务增量设置中基本不受不同任务顺序的影响。
May, 2022
本文提出了一种选择性正则化方法,使用偏心特征蒸馏方法来判断是否执行模式完成或模式分离,并调节如何转移到前一模型的权重以保持先前知识,该方法在 CIFAR-100,ImageNet-Subset 和 ImageNet-Full 数据集上超越了现有方法的性能。
May, 2023
本论文提出了一种称之为强化连续学习的方法,该方法通过巧妙设计的强化学习策略为每个任务搜索最佳神经架构,不仅能够在防止灾难性遗忘方面有很好的性能,还能够适应新任务。在 MNIST 和 CIFAR-100 数据集的连续分类任务实验中,该方法优于现有的深度网络连续学习替代方案。
May, 2018
该论文在构建一个统一的概念和实验框架中,研究了解决神经网络过度拟合的方法,描述了增量学习算法的六个重要属性,探讨了过去样本选择的效用,并提供了可重现性的开源存储库。
Nov, 2020
本论文全面调查了现有的针对图像分类的类增量学习方法,特别是在 13 种类增量方法上进行了广泛的实验评估,包括多个大规模图像分类数据集上的类增量方法比较,小范围和大范围域转移的研究,以及各种网络架构的比较。
Oct, 2020
本文提出了一种新颖的深度学习方法,通过权重修正和仿射变换来解决在增量学习环境下的分类任务,适用于零样本和非零样本学习,并证明了该方法在多个数据集上的效果均超过现有方法。
Mar, 2021
通过使用多层知识蒸馏等技术,原有的动态扩展架构被改进,被称作任务相关增量学习(TCIL),以改善现有的一些问题,比如任务冲突和遗忘问题,在 CIFAR100 和 ImageNet100 数据集上,实验证明 TCIL 显著提高了准确性。
Dec, 2022
本文研究了 Continual Learning 中基于正则化的方法,通过理论推理和实验说明了这些方法在 class-incremental 场景下不能有效学习区分不同任务的类别,在多任务强化学习或用于 Continual Learning 的预训练模型中也存在重要后果。作者认为理解正则化策略的缺陷将有助于更有效地利用它们。
Dec, 2019
本研究旨在解决深度学习架构在面临新增任务时由于灾难性遗忘导致性能下降的问题,提出了一种知识蒸馏方法来保留以前学习过的类别信息,并同时学习新类别,本文在 Pascal VOC2012 数据集上进行了实验验证其有效性。
Jul, 2019
研究表明,使用简单的组件和一个平衡内部和外部任务学习的损失函数组合已经可以解决神经网络在新任务上学习所导致的经典遗忘现象。同时,报道了在类增量学习中,表示品质较差是另一个使经典遗忘现象出现的原因,并通过适当的正则化程序改进了性能。在这些发现的基础上,研究结果在 CIFAR-100 和 ImageNet 上均取得了国际领先的成果,方法简单易实现。
Feb, 2021