当今的连续学习算法有多高效?
本文提出了一个用于处理深度神经网络中的灾难性遗忘问题的概念简单、通用且有效的框架,通过优化神经结构和参数学习等两个组件,不仅可以直观有意义地演化神经结构,而且在实验证明了该方法具有很强的缓解灾难性遗忘问题的能力,此方法在连续学习的设置下,优于MNIST、CIFAR100和Visual Domain Decathlon数据集上的所有基线。
Mar, 2019
本文研究了基于任务增量分类的持续学习方法,提出了一种新的框架来确定持续学习者的稳定性与可塑性的权衡, 并通过三个基准测试以及综合实验比较了11种持续学习方法和4种基线的方法的强弱和影响。
Sep, 2019
通过研究任务增量设置和在线连续设置,本文提出了一些方法以解决神经网络的严重遗忘问题,并在不同的基准测试和学习序列上进行了评估,显示了连续学习技术现在的发展和应用面临的挑战。
Oct, 2019
本论文主要研究使用自监督预训练在图像分类任务上进行在线渐进学习的方法,发现相较于有监督的预训练,利用自监督预训练可以得到更好的特征表征,且采样数量较少时优势更为明显。在三种在线渐进学习算法中,自监督预训练在 ImageNet 数据集上取得了较有竞争力的实验效果,相对于之前的基于在线渐进学习的图像分类方法有了较大的提升。
Mar, 2021
本文研究了当计算资源受限时传统的Continual Learning方法的效率,并表明它们对于实际部署来说太过计算密集,推荐使用在存储器上均匀抽样作为最初基线。
Mar, 2023
本文提出了一种用于在线连续学习问题的简单算法,该算法采用kNN分类器和通用预先训练的特征提取器,可以在小的计算预算下紧凑存储和利用整个数据流,既能减少过往数据的灾难性遗忘,同时也能快速适应快速变化的数据流,同时在Continual LOCalization (CLOC) 和 Continual Google Landmarks V2 (CGLM)两个大规模OCL数据集上取得了最新的技术水平。
May, 2023
连续学习中,我们提出应该同时关注优化目标和优化方式,结合重放逼近联合目标和梯度投影优化方法,以减轻稳定性差距、增加学习效率和改善最终学习结果。
Nov, 2023
机器学习系统的持续学习能力受到灾难性遗忘的限制,本文提出一种新的概念性方法来解决持续分类中的问题,通过区分需要记忆的类别特定信息和总结泛化的类别无关知识,并且通过利用类别无关网络来执行分类,提高随时间推移过去任务的准确性,同时支持开放式分类和一次性泛化模型。
Dec, 2023