在在线连续学习中处理跨任务类别歧视
本文介绍了一种用于持续学习的有监督对比学习框架,旨在通过保存少量的数据和适应的分类准则来解决在学习新任务时可能产生的灾难性遗忘问题,实验表明其表现优异。
May, 2023
本文探讨了类增量学习中跨任务特征的学习对于基本重放策略性能的影响,提出了一个新的类增量学习遗忘度量,并通过实验结果发现未来类增量学习算法不仅要防止遗忘,还要提高跨任务特征质量和任务之间的知识转移,特别是在任务数据有限的情况下。
Jun, 2021
通过对回放类增量学习中发现的精度不平衡现象进行研究,我们提出了一个能够预测遗忘率较高的旧类别并提高其精度的方法,该方法可以无缝地集成到现有的回放类增量学习方法中,并通过广泛的实验证明了其有效性。
Mar, 2024
研究表明,类增量学习 (CIL) 的问题可以分解为两个子问题:任务内预测 (WP) 和任务 ID 预测 (TP),其中 TP 与分布外检测 (OOD) 相关联。该研究的关键结论是,无论是否通过 CIL 算法显式或隐式定义 WP 和 TP 或 OOD 检测,优秀的 WP 和 TP 或 OOD 检测都对于良好的 CIL 表现是必要且充分的,其中 TIL 就是 WP。基于理论结果,还设计了新的 CIL 方法,其在 CIL 和 TIL 两个设置中性能均优于强基线。
Nov, 2022
本文提出了一种基于 Transformer 网络的多头模型,使用类特定的分类器来解决类不断增加的连续学习任务,同时支持不同类别数据的 Out-of-Distribution 检测,实验结果优于现有技术。
Aug, 2022
在线连续学习是解决从连续数据流中学习不断出现的新分类任务的问题,本文提出了 Collaborative Continual Learning (CCL) 和 Distillation Chain (DC) 两种方法,通过合作学习和知识蒸馏,大幅提高了模型的学习能力和性能。
Dec, 2023
持续学习在避免旧任务遗忘的同时,旨在不断学习新知识。本研究侧重于类增量设置下的文本分类,在探索持续学习的表示学习过程中,发现信息瓶颈的压缩效应导致了对类似类别的混淆。为了使模型学习到更充足的表示,我们提出了一种新颖的基于重放的持续文本分类方法 InfoCL。该方法利用快慢对比学习和当前 - 过去对比学习来进行互信息最大化,更好地恢复之前学到的表示。另外,InfoCL 还采用了对抗性记忆增强策略来缓解重放的过拟合问题。实验结果表明,InfoCL 有效地减轻了遗忘问题,并在三个文本分类任务上达到了最先进的性能。代码公开可用于此 https URL。
Oct, 2023
通过使用多层知识蒸馏等技术,原有的动态扩展架构被改进,被称作任务相关增量学习(TCIL),以改善现有的一些问题,比如任务冲突和遗忘问题,在 CIFAR100 和 ImageNet100 数据集上,实验证明 TCIL 显著提高了准确性。
Dec, 2022
本文提出了一种新的理论分析框架,给出了基于任务自由连续学习中访问样本与整个信息之间差异距离的归纳界限,并提出了使用动态组件扩展机制的新方法 - ODDL,以保证具有最佳性能的紧凑网络结构,同时提出了一种基于差异度量的样本选择方法,通过提高性能证明了该方法的卓越表现。
Oct, 2022