Apr, 2024

多语言预训练和指导微调在跨语言知识对齐中的改进,但仅限于浅层

TL;DR通过跨语言知识对齐(cross-lingual knowledge alignment)的绩效(Performance)、一致性(Consistency)和传导度(Conductivity)来评估大型语言模型(LLMs)中多语言预训练和指令调整的影响,结果表明,尽管多语言预训练和指令调整对跨语言知识对齐有益,但训练策略需谨慎设计,整体来看,所有测试的 LLMs 的跨语言知识传导度仍不理想,多语言预训练和指令调整都无法大幅提高跨语言知识的传导度。