提出 CLS-ER,一种双重记忆体验重放的方法,有助于在学习新知识的同时保留和补充先前的知识记忆,从而实现深度神经网络的持续学习。
Jan, 2022
我们提出了一个新的连续学习(CL)范式 Realistic Continual Learning(RealCL),其中任务之间的类分布是随机的,不同于结构化设置。同时,我们引入了一个名为 CLARE 的预训练模型解决方案,旨在在保留过去学习的同时整合新知识。通过广泛的实验证明了 CLARE 在各种 RealCL 场景中的有效性和优越性。
Apr, 2024
本文提出了一个新的永续学习框架 “理想永续学习器”(ICL),其通过构造保证避免了灾难性遗忘。我们证明了 ICL 统一了多种现有的永续学习方法,并为这些方法的优缺点提供了新的理论见解。最后,我们将 ICL 与现代研究领域中的经典主题和研究课题联系起来,以期激发未来的研究方向。
Apr, 2023
本文是对基于预训练模型的持续学习最新进展的综合调查,将现有方法分为三组进行分类,提供了它们的相似性、差异性、以及各自的优缺点的比较分析,并通过实证研究对比了各种最先进的方法,以凸显比较中公平性方面的关注点。
Jan, 2024
通过利用测试数据进行自我监督,以减少遗忘,并提出了基于梯度稀疏参数更新的简单但有效的学生 - 教师模型,进而显著改善了模型的性能和减少了遗忘。
Jun, 2024
这篇研究报告总结了 CVPR 2023 年的 CLVision 挑战赛,重点讨论了类增量学习中的数据重复问题,介绍了三个解决方案,实验证明基于模块集成的多版本策略对于利用数据流中的重复性进行持续学习是有效的。该报告强调了通过在数据流中利用重复性来促进创新策略设计的转变潜力。
May, 2024
本文提出了一个新的问题 ——Memory-Constrained Online Continual Learning (MC-OCL),我们通过 Batch-level Distillation(BLD)这种基于正则化的 CL 方法来解决这个问题,并在三个公开的基准测试中证明了我们的方法成功地解决了 MC-OCL 问题,同时实现了与需要更高存储开销的先前 distillation 方法相当的准确性。
Aug, 2020
借鉴大脑同时利用多种机制的方式,我们提出了 TriRE,一种新的持续学习范式,它包括保留每个任务最突出的神经元,修订和巩固当前和过去任务的提取知识,以及通过回溯和重新学习促进次要活跃神经元用于后续任务。在持续学习设置中,TriRE 显著减少了任务干扰,并超过了考虑独立评估的不同持续学习方法。
Oct, 2023
提出了一种统一的认知学习(CL)框架,它受灵长类动物大脑认知机制的启发,具有动态适应环境和任务的能力、自我学习能力,以及优秀驱逐劣质能力;并且经过了基于公开权威数据集的验证,可以丰富当前的学习框架并扩大应用范围。
Jun, 2021
本文提出一种基于模块化架构和任务驱动的先验知识的学习算法,能够有效地处理长时间序列任务,且在常规连续学习基准测试上表现出了竞争优势。
Dec, 2020