Jan, 2024

LLaVA-MoLE:稀疏的 LoRA 专家混合模型用于缓解指令微调 MLLMs 中的数据冲突

TL;DR在多领域图像 - 文本指导数据上进行指导微调是获取多功能多模态大型语言模型(MLLM)的关键,通过创建一组 MLP 层的 LoRA 专家,通过路由函数将每个令牌路由到最佳专家,以适应来自不同领域的令牌的自适应选择,从而解决了多领域指导数据的数据冲突问题,并在混合数据集上获得了持续的性能提升。