May, 2024

MEMoE:采用专家混合适配器增强模型编辑

TL;DRMOMoE 是一种模型编辑适配器,采用专家混合(MoE)架构和知识锚定路由策略,以高效地改变大型语言模型(LLMs)的行为,并确保不对其他输入产生负面影响。实验结果表明,MOMoE 方法在整体性能和泛化能力之间展现出卓越的平衡,优于批量编辑和连续批量编辑任务。