对象实例的持续学习
本文提出了一种更综合全面的衡量连续学习算法的方法,包括准确性、知识转移、内存占用和计算效率等多方面的度量,并将这些度量融合成一个评分,通过评估五种算法在 iCIFAR-100 数据集上的表现来证明这种方法的优越性。
Oct, 2018
机器学习系统的持续学习能力受到灾难性遗忘的限制,本文提出一种新的概念性方法来解决持续分类中的问题,通过区分需要记忆的类别特定信息和总结泛化的类别无关知识,并且通过利用类别无关网络来执行分类,提高随时间推移过去任务的准确性,同时支持开放式分类和一次性泛化模型。
Dec, 2023
本文研究了基于任务增量分类的持续学习方法,提出了一种新的框架来确定持续学习者的稳定性与可塑性的权衡, 并通过三个基准测试以及综合实验比较了 11 种持续学习方法和 4 种基线的方法的强弱和影响。
Sep, 2019
本文概述了第三届连续学习计算机视觉竞赛(CLVision)在 CVPR 2022 中举办的挑战的思想、设计选择、规则和结果,其中焦点是复杂的连续物体检测任务,挑战基于新的 EgoObjects 数据集,涵盖了 100k 个视频帧中的 1000 多个独特主要对象和 250 多个类别,以基准测试连续学习算法的信息视点类别 / 实例级对象理解。
Dec, 2022
本文介绍了一种用于持续学习的有监督对比学习框架,旨在通过保存少量的数据和适应的分类准则来解决在学习新任务时可能产生的灾难性遗忘问题,实验表明其表现优异。
May, 2023
本文介绍了一种连续学习的分类模型,可以防止神经网络在逐个学习任务时出现 catastrophic forgetting。作者通过扩展已有技术,并提出了一种新的变分下界方法,使得神经网络在连续学习中可以同时保持之前学到的知识。
Oct, 2018
本文提出三种不同的持续学习场景,探讨不同的评估方法以及其性能差异;通过研究表明,针对识别任务需要推断类别(即类别增量学习)的场景中,基于正则化的方法失败,需要回放以前经验的表示来解决此问题。
Apr, 2019
通过实验验证,本研究探讨了在连续学习过程中使用集成模型的优缺点,提出了一个计算简单、性能优良的算法来解决集成模型带来的高计算成本问题,并解决了连续学习中的遗忘问题。
Feb, 2022
本研究针对 Continual Learning 目的,介绍基于记忆方法存储先前数据分布以避免完全知识覆盖,在传统分布泛化时表现良好,但在控制实验中发现能学习虚假特征和相关性,从而严重影响了越界泛化,主要是出现在线性分类器中。
Jun, 2023
本文研究了 Continual Learning 中基于正则化的方法,通过理论推理和实验说明了这些方法在 class-incremental 场景下不能有效学习区分不同任务的类别,在多任务强化学习或用于 Continual Learning 的预训练模型中也存在重要后果。作者认为理解正则化策略的缺陷将有助于更有效地利用它们。
Dec, 2019