基于句法的混合提示模型用于少样本多模态情感分析
本研究提出多模态概率融合提示方法,结合语言模型提示和多模态提示提供不同的提示信号,以提高少样本情感分析中的准确性。实验结果表明该方法在三个数据集上均有效。
Nov, 2022
在人工智能领域,深度多模态语义理解已经引起了越来越多的关注,挑战主要集中在收集和标注高质量的多模态数据,突显了几次学习的重要性。本文针对这一背景下的两个关键任务:少样本多模态讽刺检测(MSD)和多模态情感分析(MSA),提出了一种基于统一视觉语言模型(VLM)的创新多模态软提示框架:MoPE-BAF(Mixture-of-Prompt-Experts with Block-Aware Prompt Fusion)。我们设计了三个软提示专家:文本提示和图像提示,以提取模态特定特征,丰富单模态表示;同时,提出了多模态交互的统一提示。此外,我们将 Transformer 层重组为多个块,并在相邻块之间引入跨模态提示注意力,以平稳实现从单模态表示到多模态融合的过渡。在少样本设置下的 MSD 和 MSA 数据集上,我们提出的模型不仅仅在参数(150M)上超越了 8.2B 模型 InstructBLIP,而且在 VLMs 或任务特定方法中也大大优于其他广泛使用的提示方法。
Mar, 2024
多模态情感分析研究中,提出了一种称为 DQPSA 的新框架,其包含了 Prompt 作为 Dual Query(PDQ)模块和基于能量的 Pairwise Expert(EPE)模块,通过提取 Prompt 感知的视觉信息、加强视觉信息与分析目标之间的相关性以及模型边界配对,实现了在三个广泛使用的基准测试中超过以往方法并达到了最新的最佳性能。
Dec, 2023
本文提出了一种自适应提示构建策略,利用 seq2seq-attention 结构获取输入序列的语义信息,并动态构建自适应提示,可以改善提示的质量,且通过预训练的提示有效地推广至其他领域。在 FewCLUE 数据集上的实验证明了该方法的有效性和超过先前最先进方法的表现。
May, 2022
我们提出了基于软对比学习的 Prompt (SCP) 模型对少样本情感分析进行研究,通过舆论模块引导模型进行从粗粒度到细粒度的情感预测,并考虑标签之间的相关性,与其他基准模型进行对比实验证明了 SCP 的巨大优势。
Dec, 2023
该研究旨在在零 - shot 设置中找到高质量的 prompt。我们的自动化方法使用位置、推理和释义技术生成多个与基本 prompt 类似的 prompt,然后使用新的度量标准对这些 prompt 进行排名。我们实验证明,排名靠前的 prompt 是高质量的,显著优于基本 prompt 和使用 few-shot learning 生成的 prompt,适用于句子级情感分类任务。
May, 2023
通过使用因果关系而非传统的似然方法,基于多模态情感分析(MSA)的多模式对比事实推断情感(MCIS)分析框架能够从具有有害偏见的观察中做出无偏决策,并有效地减轻数据集偏差的问题。
Mar, 2024
本文讨论了多模态情感分析的三个方面:跨模态交互学习、多模态交互中的长期依赖性学习和一元和跨模态线索的融合,发现学习跨模态交互对解决该问题很有益。在两个基准数据集(CMU-MOSI 和 CMU-MOSEI 语料库)上进行实验,取得了 83.9%和 81.1%的准确率,分别比当前最先进技术提高了 1.6%和 1.34%的绝对精度。
Feb, 2020
近年来,多模态自然语言处理引起了广泛关注,但我们需要更清晰地分析多语言环境下的多模态任务。本文通过一个简单的策划过程,将一份现有的文本 Twitter 情感数据集转化为多模态格式,从而填补了先前主要关注英语的情感分析研究的空白,并为研究界开辟了情感相关研究的新领域。此外,我们利用这个增强的数据集进行了基准实验,并报告了结果。值得注意的是,我们的评估结果显示,在单模态和多模态配置相比较时,使用一个经过情感调整的大型语言模型作为文本编码器表现出色。
Apr, 2024
提出了 CMGA,即跨模态门控注意力融合模型,用于多模态情感分析,证明其在 MOSI 和 MOSEI 两个基准数据集上具有优异的性能,并展示了模型内不同组件的作用。
Aug, 2022