BriefGPT.xyz
Ask
alpha
关键词
ming-moe
搜索结果 - 1
MING-MOE:稀疏低秩适配器专家混合增强大型语言模型中的医学多任务学习
MING-MOE 是一种基于混合专家(MOE)的医学大型语言模型,通过 Mixture of Low-Rank Adaptation(MoLoRA)技术,在不需要特定任务注释的情况下处理复杂多样的医学任务,从而在超过 20 个医学任务上取得
→
PDF
3 months ago
Prev
Next