May, 2023

通过上下文学习提高多语言模型的跨语言可迁移性

TL;DR本论文提出了一种新的跨语言转移提示方法 In-CLT, 在源语言和目标语言结合的情况下构建演示例子,证明在多语言基准测试中,这种提示方法不仅可以提高跨语言传递的可行性,而且在推理任务中展现出了显著的性能提升,平均比以前的跨语言转移方法提高了 10 到 20 个百分点,而且还探讨了词汇相似性和预训练语料库之间在跨语言转移缺口方面的关系。