Oct, 2022
T5模型在自然语言推理中的跨任务迁移学习
Effective Cross-Task Transfer Learning for Explainable Natural Language
Inference with T5
Irina Bigoulaeva, Rachneet Sachdeva, Harish Tayyar Madabushi, Aline Villavicencio, Iryna Gurevych
TL;DR本研究比较了顺序微调和多任务学习模型在两个相关任务上性能提升的情况,并在 FigLang2022 整合任务上测试了这些模型。结果表明,顺序微调在交叉任务知识转移方面表现优异,甚至达到最高得分。