Apr, 2024

多语言语言模型的绩效驱动因素是什么?

TL;DR通过研究204种语言的多语言大型语言模型(MLLMs)在不同语言上的表现,考察了预训练数据大小、资源可用性、语言家族和脚本类型等因素对模型性能的影响,并发现对于已知语言来说,预训练数据大小是最重要的因素,而对于未知语言来说,脚本类型和语言家族至关重要。模型大小和结构并不显著改变最重要的特征,这些研究结果为当前MLLMs的优势和局限性提供了有价值的见解,并希望指导更有效、公平的多语言自然语言处理系统的开发。