ACLSep, 2021

IndicBART:用于 Indic 自然语言生成的预训练模型

TL;DR本文探讨了预训练的序列到序列模型在相关语言群中的应用,关注印欧语言。我们介绍了 IndicBART - 一种针对 11 种印欧语言和英语的多语言序列到序列预训练模型。通过利用印欧语言之间的拼写相似性,IndicBART 在类似印欧语言之间进行转移学习,获得了不错的性能表现。研究表明,即使相对较小的 IndicBART 模型在机器翻译和极端摘要等任务上也具有与大型预训练模型相媲美的性能,甚至在很低资源的情况下依然表现优异。模型参数共享,多语言训练等技术有助于提高 IndicBART 模型的性能水平。