MoCL 是一种无需复习的模块化和组合的连续学习框架,通过不断向语言模型添加新模块并与现有模块组合,有效地促进知识传递。
Mar, 2024
MoCL-P 是一种轻量级的持续学习方法,通过任务表示引导模块组合和自适应修剪,同时解决避免灾难性遗忘、促进知识转移和保持参数效率等持续学习中的挑战,且在三个持续学习基准测试中达到了最优性能,提高了参数效率,展示了在资源受限的实际应用中的潜力。
Jun, 2024
本文提出了一种基于任务条件化超网络的新方法,使得连续学习的模型可以通过简单的关键特征记住特定任务的权重实现在记忆中的持久化,并在标准连续学习基准测试上达到了最先进的性能,同时揭示了该方法在迁移学习上的应用前景。
Jun, 2019
PICLE 是一种模块化的持续学习(CL)框架,使用概率建模加速搜索,在不同类型的转移中较好地表现,应用于两个基准测试套件表现优异。
Jun, 2023
基于固定的单头结构,通过消除任务标识选择任务特定的输出头,结合基于正则化的策略和辅助无标签数据集来提高模型一致性,以及可靠的样本选择策略,我们的无先验连续学习(PFCL)方法在三种学习情景中显著减少遗忘现象,且与有限个先前样本重新训练的方法相比,PFCL 取得了有竞争力的准确率。
Oct, 2023
CUBER 是一种用于关键层有积极相关性的老任务的前向知识传递和反向知识传递来提高连续学习中表现的方法,它可以在无数据回放的情况下实现积极的反向知识传递,并且在已有 CL 基准测试中表现优异。
Nov, 2022
本文提出了一种名为 CTR 的模型,通过使用预训练模型解决了连续学习中的灾难性遗忘和知识迁移的问题。实验结果表明 CTR 模型是有效的。
Dec, 2021
本研究针对机器学习中的不断学习提出了两个新的基准,该基准涉及来自六个图像数据集的多个异构任务,其目的是为了更好地评估当前最先进的 CL 策略,并显示出当前 CL 模型在真实世界场景中表现较差的能力,高水平遗忘并限制了课程任务顺序。
Mar, 2023
通过探索局部模块组合(LMC)的方法,使用结构性的学习和模块选择,LMC 可以为连续学习提供较好的解决方案。
Nov, 2021
本文提出了一个新的问题 ——Memory-Constrained Online Continual Learning (MC-OCL),我们通过 Batch-level Distillation(BLD)这种基于正则化的 CL 方法来解决这个问题,并在三个公开的基准测试中证明了我们的方法成功地解决了 MC-OCL 问题,同时实现了与需要更高存储开销的先前 distillation 方法相当的准确性。
Aug, 2020