混合提示专家用于可推广和可解释的问答
通过分解原始提示,基于混合提示专家(MoPE)技术实现了适应性捕获数据集级别和实例级别特征,并借助多模态配对先验在每个实例上选择最有效的提示语,从而提高了多模态融合的表达能力和可扩展性。在专家路由方面引入了正则化项,导致不同专家专注于不同概念,实现了可解释的软提示。通过对三个多模态数据集进行广泛实验,证明了我们的方法在性能上达到了最先进的结果,甚至超过了微调,并且仅需占用可训练参数的 0.8%。
Mar, 2024
在人工智能领域,深度多模态语义理解已经引起了越来越多的关注,挑战主要集中在收集和标注高质量的多模态数据,突显了几次学习的重要性。本文针对这一背景下的两个关键任务:少样本多模态讽刺检测(MSD)和多模态情感分析(MSA),提出了一种基于统一视觉语言模型(VLM)的创新多模态软提示框架:MoPE-BAF(Mixture-of-Prompt-Experts with Block-Aware Prompt Fusion)。我们设计了三个软提示专家:文本提示和图像提示,以提取模态特定特征,丰富单模态表示;同时,提出了多模态交互的统一提示。此外,我们将 Transformer 层重组为多个块,并在相邻块之间引入跨模态提示注意力,以平稳实现从单模态表示到多模态融合的过渡。在少样本设置下的 MSD 和 MSA 数据集上,我们提出的模型不仅仅在参数(150M)上超越了 8.2B 模型 InstructBLIP,而且在 VLMs 或任务特定方法中也大大优于其他广泛使用的提示方法。
Mar, 2024
通过逐步编辑单独原则的方式,我们的研究引入了 ConstitutionalExperts 方法,该方法可学习构成原则的提示,与其他最新的提示优化技术相比,我们的方法在六个基准数据集上取得了 10.9%(F1)的优势,并且混合专家模型可以改进所有技术,表明其广泛适用性。
Mar, 2024
本文介绍了一种使用 ExpertPrompting 技术的方法,通过 In-Context Learning 实现了定制化的指令,并将其用于训练基于 GPT-3.5 的 ExpertLLaMA 模型,实现了与 ChatGPT 相近的对话效果。
May, 2023
大型语言模型的多模态内容理解和推理能力取得了令人印象深刻的成果,我们提出了一种名为 POEM 的视觉分析系统,以促进对 LLMs 的多模态推理性能的有效提示工程。该系统支持用户通过多样化的示例和指导原则,循环迭代地设计和改进提示,以实现模型知识与人类洞察力的更好对齐和增强。通过两个案例研究和专家访谈验证了我们系统的有效性和高效性。
Jun, 2024
基于可编程的知识编辑,本研究提出了一种适用于多跳问题回答的框架(PokeMQA),通过解耦任务,使用分离的可训练范围探测器引导大型语言模型(LLMs)对知识增强的多跳问题进行分解,同时根据外部冲突信号调节 LLMs 的行为,从而在 MQA 的知识编辑方面表现出卓越的性能,以显著优势击败所有竞争对手,并始终产生可靠的推理过程。
Dec, 2023
使用语言模型作自然语言指导的条件,我们提出了自动提示工程师(APE),通过搜索竞选一组精心设计的自动生成的提示中的最佳提示来优化指令来解决 NLP 任务中的性能问题,并实现对模型的更好的指导和性能提升。在 24 个任务中,通过自动产生的新指令,我们的 APE 方法可使性能提高,并在 19 个任务中的性能甚至好于人类注释者生成的指令。通过大量定性和定量分析,我们证明了 APE 的有效性。
Nov, 2022
采用 Mixture-of-Expert 方法和 Transformer 模型,通过稀疏路由解决了领域差异性较大的生物医学问题的竞争参数问题,实现了最新的领先性能。
Apr, 2022