ICMLJun, 2024

带环境的条件语言学习

TL;DR语言模型可以通过适应原始文本学习到复杂的语言理解技能。我们在本文中提出了一种称为条件微调的简单改进方法,它在进行语言建模时进行了上下文的条件限制。我们证明一个上下文可以 “解释掉” 某些语料库统计信息并使模型避免学习它们。通过这种方式,条件微调实现了对语料库的选择性学习,学习了对下游任务有用的知识,同时避免学习无用的语料库统计信息,如主题偏差。这种选择性学习效果导致了更少的遗忘和更好的稳定可塑性权衡,在域微调中潜在受益于与语言模型的终身学习。