EMNLPOct, 2023

多语言语言模型中事实知识的跨语言一致性

TL;DR对多语言大规模预训练语言模型进行研究,发现不同语言之间的事实知识存在显著差异。为了确保具有不同语言背景的用户从同一模型中获得一致的反馈,我们提出了一种基于排名的一致性评估指标,并对模型层面和语言对层面的一致性决定因素进行了深入分析。研究结果表明,增加模型规模可以提高大多数语言的事实检测准确性,但无法改善跨语言一致性。通过在模型编辑中插入新的事实关联进行的案例研究显示,新的知识仅传递给与英语具有较高排名一致性得分的语言。