BriefGPT.xyz
Ask
alpha
关键词
multilingual knowledge editing benchmark
搜索结果 - 1
MEMLA: 用神经掩蔽低秩适应增强多语言知识编辑
多语言知识编辑涉及通过神经元屏蔽、低秩适应等方法,在多语言语言模型中进行跨语言更新,以提高编辑精度和多跳推理能力。
PDF
19 days ago
Prev
Next