Oct, 2022

中间任务训练对于域自适应和跨语言迁移学习的(无)效性

TL;DR本文分析了使用三种大型语言模型 BERT、RoBERTa 和 XLNet 在文本分类、情感分析、句子相似度三个自然语言处理任务上进行领域内和跨语言适应的迁移学习,并发现大多数任务直接进行微调而不进行中间任务训练可以获得更好的性能,而更广义的任务可能需要先进行中间任务训练。该工作有望成为 NLP 实践者进行迁移学习的指南。