Mar, 2024

MoPE: 通过混合提示专家实现参数高效且可扩展的多模态融合

TL;DR通过分解原始提示,基于混合提示专家(MoPE)技术实现了适应性捕获数据集级别和实例级别特征,并借助多模态配对先验在每个实例上选择最有效的提示语,从而提高了多模态融合的表达能力和可扩展性。在专家路由方面引入了正则化项,导致不同专家专注于不同概念,实现了可解释的软提示。通过对三个多模态数据集进行广泛实验,证明了我们的方法在性能上达到了最先进的结果,甚至超过了微调,并且仅需占用可训练参数的 0.8%。