Nov, 2023

MELA:多语言语言可接受性评估

TL;DR我们介绍了首个多语言语言可接受性基准 MELA,并在 48K 个样本中涵盖了 10 种语言,从不同的语言家族中选择。我们分析了经过精调的 XLM-R 的权重,探索了语言之间的转移困难,结果显示 ChatGPT 得益于上下文实例,但仍落后于精调的 XLM-R;而 GPT-4 在零 - shot 设置中与精调的 XLM-R 的性能相当。跨语言和多任务学习实验表明,在语言可接受度判断中,与语义任务不同,语言内的训练数据至关重要。我们还引入了冲突权重的概念,该概念可能是跨语言转移困难的潜在指标。