Jul, 2022
多语言原型模型在自然语言理解任务中的跨语言可迁移性研究
On the cross-lingual transferability of multilingual prototypical models
across NLU tasks
TL;DR本文提出一种方案,使用几个样本训练的神经网络和多语言 Transformer 基础模型之间协同作用的跨语言转移,以改进跨语言学习的性能,实验结果表明,我们的方法能够显著提高跨低资源语言与高资源语言之间的转移学习性能,进一步的结果证明了 meta-learning 的能力。