EMNLPOct, 2023

信息论视角下缓解连续文本分类中的灾难性遗忘

TL;DR持续学习在避免旧任务遗忘的同时,旨在不断学习新知识。本研究侧重于类增量设置下的文本分类,在探索持续学习的表示学习过程中,发现信息瓶颈的压缩效应导致了对类似类别的混淆。为了使模型学习到更充足的表示,我们提出了一种新颖的基于重放的持续文本分类方法 InfoCL。该方法利用快慢对比学习和当前 - 过去对比学习来进行互信息最大化,更好地恢复之前学到的表示。另外,InfoCL 还采用了对抗性记忆增强策略来缓解重放的过拟合问题。实验结果表明,InfoCL 有效地减轻了遗忘问题,并在三个文本分类任务上达到了最先进的性能。代码公开可用于此 https URL。