存在假相关性情况下的持续学习
本研究探讨了虚假特征对于连续学习算法的影响,发现连续学习算法通过选择无法概括的特征来解决任务。实验表明,连续学习算法面临两个相关问题:(1)虚假特征和(2)局部虚假特征。本文提供了一种不同的理解连续学习性能下降的方式,强调了(局部)虚假特征在算法性能中的影响。
Mar, 2022
在连续流数据的情景中,深度神经网络在解决多个分类任务时,面临着保持旧任务知识同时学习新任务的挑战。本研究分析了当前度量方法的局限性,发现了新任务引起的遗忘问题,并提出了一套考虑任务难度增加的新度量方法,实验证明这些度量方法能够提供有关模型在连续学习环境中平衡稳定性和可塑性的新见解。
Sep, 2023
CUBER 是一种用于关键层有积极相关性的老任务的前向知识传递和反向知识传递来提高连续学习中表现的方法,它可以在无数据回放的情况下实现积极的反向知识传递,并且在已有 CL 基准测试中表现优异。
Nov, 2022
该论文介绍了对于连续学习中的收敛性分析,提出了一种适应性方法用于非凸连续学习,该方法调整先前和当前任务的梯度的步长,以达到与 SGD 方法相同的收敛速度,并且在减轻每次迭代的灾难性遗忘项的情况下,改进了连续学习在几个图像分类任务中的性能。
Apr, 2024
本文探讨了基于少量标注数据的持续半监督学习问题,并设计了一种利用度量学习和一致性正则化的新方法,仅依赖 25% 的监督数据即可优于全监督训练下的 SOTA 方法。
Aug, 2021
本文提出了一种在在线学习任务中应对标签噪声和模糊数据流的方法,该方法使用标签噪声感知的多样化采样和半监督学习技术来平衡示例中的多样性和纯度,实验证明该方法显著优于现有的方法。
Mar, 2022
本文研究了在环境改变时如何使模型具有可持续发展能力,在理论层面上证明了增量学习的可行性,并提出了一种新的模型架构 ——Cooperation of Small Continual Learners (CoSCL),该模型使用一组独立的子网络来学习所有的任务,有助于提高模型的泛化能力和记忆稳定性,并取得了新的最优性能。
Jul, 2022
本文研究了基于任务增量分类的持续学习方法,提出了一种新的框架来确定持续学习者的稳定性与可塑性的权衡, 并通过三个基准测试以及综合实验比较了 11 种持续学习方法和 4 种基线的方法的强弱和影响。
Sep, 2019
本文提出了一种针对任务序列的基准测试,旨在从持续学习和迁移学习的角度探讨如何快速适应新任务和模型微调策略。同时,提出了一种简单而有效的学习器,通过选择性策略初始化新模型并从过去的任务检查点中获得最大利用信息的能力。
Jul, 2023
本论文提出一个连续的学习框架,旨在解决神经网络训练过程中遗忘的问题,并定义了一系列新的指标来实现对学习机的实时评估,研究表明既有重放机制又有正则化机制的在线学习方法都存在稳定性差距的问题。
May, 2022