May, 2023

通过词汇修剪实现高效的多语言语言模型压缩

TL;DR本文提出了一种叫做词汇修剪的方法,可将多语言语言模型压缩至任何语言,得到与原始模型同样的性能,同时比原始模型更小。我们在七种语言中评估了该方法,并表明该方法可以将最佳的单语言模型性能与多语言模型的优越性结合起来。