ACLMay, 2022
使用多任务学习还是中间微调进行预训练编码器转移学习的决策
When to Use Multi-Task Learning vs Intermediate Fine-Tuning for Pre-Trained Encoder Transfer Learning
Orion Weller, Kevin Seppi, Matt Gardner
TL;DR本文研究比较了三种自然语言处理中的迁移学习方法,即 STILTs、MTL 以及 MTL-ALL 的表现。结果显示,MTL-ALL 的性能不如其他两种方法,而在目标任务比较少的情况下,性能较好的是采用 pairwise MTL 方法。