Apr, 2023

基于转写的多语言大规模语言模型适应

TL;DR本文研究了利用大量转写大幅提高多语种预训练语言模型在少资源语言中的性能,并且发现使用 UROMAN 基于的转写方法可以在许多语言中提供强大的性能,特别是在对未见到的语言脚本和数据量有限的情况下。