Apr, 2024

MoE-TinyMed:用于微型医疗大型视觉语言模型的专家混合

TL;DRMixture of Expert Tuning (MoE-Tuning) 在资源有限的医疗环境中具有潜力,为此我们开发了 MoE-TinyMed,一个专为医疗应用设计、大大降低参数需求的模型,在 VQA-RAD、SLAKE 和 Path-VQA 数据集的评估中,MoE-TinyMed 以仅 3.6B 参数的性能超过 LLaVA-Med,此外,一个仅有 2B 参数的精简版本在 PathVQA 中超越了 LLaVA-Med 的表现,说明了其在资源有限的医疗环境中的有效性。