ACLMay, 2021

在语言相似度高的情况下适应单语模型:数据匮乏的问题

TL;DR本篇论文重点研究了如何使用尽可能少的数据实现零 - shot 迁移学习,并探讨了语言相似度在该过程中的影响。研究人员利用两种低语言资源语言重新训练了四个基于 BERT 的模型的词汇层,同时对模型的源语言进行了独立的 POS 标记任务的微调。研究结果发现,通过将新的词汇层和微调后的 Transformer 层相结合,即使在仅有 10MB 的数据的情况下,也能显著提高两种目标语言任务的性能。值得注意的是,在目标语言被包含在多语言模型中时,单语 BERT-based 模型在重新训练词汇层后的下游任务表现要高于多语 BERT。