该研究实证分析了在连续学习过程中,引入极小的叙事性记忆在任务之间转移知识的有效性,并发现相较于特定的连续学习方法,该方法能利用极小的记忆显著提升泛化能力,对小样本问题有一定的启示。
Feb, 2019
本文研究了基于任务增量分类的持续学习方法,提出了一种新的框架来确定持续学习者的稳定性与可塑性的权衡, 并通过三个基准测试以及综合实验比较了11种持续学习方法和4种基线的方法的强弱和影响。
Sep, 2019
提出 Deep Online Replay with Discriminator Consistency (ORDisCo) 方法,使用条件生成式对抗网络和在线重放策略实现无标记的半监督连续学习(SSCL),稳定关键鉴别器参数以避免遗忘和显著提高性能。
Jan, 2021
该研究提出了一种用于半监督连续学习的元一致性框架,该框架采用超网络来学习基础网络的半监督辅助分类器生成对抗网络的权重,并整合了超网络中连续任务的知识,以在新集合上进行测试。
Oct, 2021
该研究提出了一种基于无监督学习方法的连续学习技术,可以在不需要人工标注的数据的情况下设法学习连续任务的特征表示,并通过使用LUMP技术来缓解灾难性遗忘问题。
本文提出了一种基于回归的连续学习框架,该框架能同时解决灾难性遗忘和噪声标签等问题,具体方法包括自我监督回归和基于集中度的随机图集合,实验结果表明,该方法能在噪声环境下有效地维护一个高纯度的缓冲区。
论文探索了半监督持续学习方法,该方法能从标记数据中预测未标记数据的梯度,进而将未标记数据应用到有监督持续学习中。实验结果表明,未标记图像可以增强持续学习模型对未见数据的预测能力并显著缓解灾难性遗忘。
Jan, 2022
本文提出了一种用于在线连续学习问题的简单算法,该算法采用kNN分类器和通用预先训练的特征提取器,可以在小的计算预算下紧凑存储和利用整个数据流,既能减少过往数据的灾难性遗忘,同时也能快速适应快速变化的数据流,同时在Continual LOCalization (CLOC) 和 Continual Google Landmarks V2 (CGLM)两个大规模OCL数据集上取得了最新的技术水平。
May, 2023
我们提出了一种名为动态子图蒸馏(DSGD)的新方法,它利用语义和结构信息,实现对无标签数据的稳定知识蒸馏,对分布偏差具有鲁棒性,并在半监督连续学习场景中减轻了灾难性遗忘问题。
Dec, 2023
我们提出并研究了一种现实的连续学习(CL)设置,其中学习算法在训练过程中具有每个时间步的限制计算预算。我们将此设置应用于稀疏标签率的大规模半监督连续学习场景中。我们提出了一种简单但非常有效的基准方法DietCL,该方法联合利用未标记数据和标记数据,巧妙地分配计算预算。在多个数据集上进行验证时,DietCL在限制预算的情况下明显优于所有现有的有监督CL算法以及更近期的连续半监督方法。我们的广泛分析和消融实验证明,DietCL在标签稀疏性、计算预算和其他各种消融条件下都是稳定的。
Apr, 2024