Jun, 2024

MEMLA: 用神经掩蔽低秩适应增强多语言知识编辑

TL;DR多语言知识编辑涉及通过神经元屏蔽、低秩适应等方法,在多语言语言模型中进行跨语言更新,以提高编辑精度和多跳推理能力。