EMNLPOct, 2022

T5 模型在自然语言推理中的跨任务迁移学习

TL;DR本研究比较了顺序微调和多任务学习模型在两个相关任务上性能提升的情况,并在 FigLang2022 整合任务上测试了这些模型。结果表明,顺序微调在交叉任务知识转移方面表现优异,甚至达到最高得分。