ACLMay, 2020

预训练模型的中间任务迁移学习在自然语言理解中的应用:何时和为何有效?

TL;DR对预训练模型 RoBERTa 进行 110 种中介 - 目标任务组合的大规模研究,发现需要高级推理和推理能力的中介任务最好。目标任务的表现与核心指代消解等高级能力密切相关,需要进一步研究广覆盖的评估基准。有证据表明,预训练过程中所学知识的遗忘可能限制了我们的分析,需要进一步研究这些情况下的迁移学习方法。