Apr, 2024

MING-MOE:稀疏低秩适配器专家混合增强大型语言模型中的医学多任务学习

TL;DRMING-MOE 是一种基于混合专家(MOE)的医学大型语言模型,通过 Mixture of Low-Rank Adaptation(MoLoRA)技术,在不需要特定任务注释的情况下处理复杂多样的医学任务,从而在超过 20 个医学任务上取得了最先进的性能,提高了推断效率。