Jun, 2024

跨语言适应多语言预训练语言模型的三重方法

TL;DR研究了三种低资源跨语言方法,并在语境学习和微调下发现通过添加额外的主导语言监督信号,对 LLM 的跨语言转移有所改进;同时,发现将目标语言适应词汇重排可能对 ICL 有益,但随着微调而减弱;最后,继续以一种低资源语言进行预训练可提高其他相关低资源语言的模型性能。