通过对最优线性分类器表现的差异考虑 “表示忘却” 的概念,本研究重新审视了一些标准的连续学习基准,并观察到在没有任何明确控制忘却的情况下,模型表示通常会经历较小的表示忘却,并且有时可以与明确控制忘却的方法相当,尤其是在更长的任务序列中。我们还展示了表示忘却如何推动我们对于连续学习中模型容纳能力和损失函数影响的认识。基于这些结果,我们提出一个简单但是竞争力强的方法是,在构建旧样本的原型时,通过标准的有监督对比学习来不断地学习表示。
Mar, 2022
机器学习系统的持续学习能力受到灾难性遗忘的限制,本文提出一种新的概念性方法来解决持续分类中的问题,通过区分需要记忆的类别特定信息和总结泛化的类别无关知识,并且通过利用类别无关网络来执行分类,提高随时间推移过去任务的准确性,同时支持开放式分类和一次性泛化模型。
Dec, 2023
本篇研究论文介绍了记忆基础连续学习的特点和不足,并提出加强表示差异化的两种扰动方法,以改进连续学习的性能,最终基于大量实证研究结果成功验证了我们的结论。
Oct, 2022
在当前深度学习时代,为了在训练神经网络时使用随机梯度下降处理非平稳流数据时减轻遗忘现象,我们采用元学习范式来结合神经网络的强表示能力与简单统计模型对遗忘现象的抵抗能力,在我们的新颖元持续学习框架中,持续学习仅在统计模型中进行,而神经网络在原始数据和统计模型之间进行元学习,由于神经网络在持续学习过程中保持不变,它们免受遗忘现象的影响。该方法不仅实现了显著提高的性能,而且具有出色的可伸缩性,由于我们的方法与领域和模型无关,因此可以应用于各种问题,并与现有模型架构轻松集成。
May, 2024
本文针对连续学习中可能出现的遗忘和内存成本昂贵的问题,通过信息论的视角提出一种新的 Bit-Level Information Preserving (BLIP) 方法,通过参数量化更新模型参数,以保留先前任务对模型参数的信息增益来避免遗忘。经过大量实验,该方法在分类任务和强化学习任务中均表现出优异的效果,实现了几乎零遗忘,且仅需要恒定的内存开销。
May, 2021
本文研究神经网络在不断学习时如何学习和忘记其代表特征并引入了任务排除比较等新的分析技术。研究发现大部分特定任务的特征很快被遗忘,但回放和代表特征学习等方法可影响代表特征及其品质与学习绩效的紧密相关性。
Apr, 2023
这篇论文介绍了一种新的 Bayesian 衍生连续学习损失函数,该函数不仅仅依赖于早期任务的后验分布,而是通过改变似然项自适应地调整模型,并将先验和似然项结合在一个框架下。
Feb, 2019
持续学习在避免旧任务遗忘的同时,旨在不断学习新知识。本研究侧重于类增量设置下的文本分类,在探索持续学习的表示学习过程中,发现信息瓶颈的压缩效应导致了对类似类别的混淆。为了使模型学习到更充足的表示,我们提出了一种新颖的基于重放的持续文本分类方法 InfoCL。该方法利用快慢对比学习和当前 - 过去对比学习来进行互信息最大化,更好地恢复之前学到的表示。另外,InfoCL 还采用了对抗性记忆增强策略来缓解重放的过拟合问题。实验结果表明,InfoCL 有效地减轻了遗忘问题,并在三个文本分类任务上达到了最先进的性能。代码公开可用于此 https URL。
Oct, 2023
通过实验验证,本研究探讨了在连续学习过程中使用集成模型的优缺点,提出了一个计算简单、性能优良的算法来解决集成模型带来的高计算成本问题,并解决了连续学习中的遗忘问题。
Feb, 2022
本文介绍了一种连续学习的分类模型,可以防止神经网络在逐个学习任务时出现 catastrophic forgetting。作者通过扩展已有技术,并提出了一种新的变分下界方法,使得神经网络在连续学习中可以同时保持之前学到的知识。
Oct, 2018