BriefGPT.xyz
Ask
alpha
关键词
mixture of prompt experts
搜索结果 - 1
MoPE: 通过混合提示专家实现参数高效且可扩展的多模态融合
通过分解原始提示,基于混合提示专家(MoPE)技术实现了适应性捕获数据集级别和实例级别特征,并借助多模态配对先验在每个实例上选择最有效的提示语,从而提高了多模态融合的表达能力和可扩展性。在专家路由方面引入了正则化项,导致不同专家专注于不同概
→
PDF
4 months ago
Prev
Next