情感维度识别中的递归跨模态注意力的多模态融合
本文提出了一种递归联合注意模型,结合长短期记忆模块,用于融合语音和面部表情进行基于回归的情感识别,结果表明该模型比现有技术表现更好。
Apr, 2023
该研究提出了一种名为条件注意融合的新型多模态融合策略,将长短期记忆循环神经网络应用为基础单模态模型,自动决定分配给不同情感模态的权重,获得了在情感价值预测方面优于多种常见融合策略的实验结果。
Sep, 2017
本文提出了一种基于 HCAM 方法的跨模态情绪识别模型,使用神经网络模型组合音频和文本数据,在 IEMOCAP、MELD 和 CMU-MOSI 三个数据集上达到了最先进的结果。
Apr, 2023
本文探讨了基于 CEMO 数据集的语音和文本预训练模型在情感识别上的融合策略,研究表明基于多模态融合的交叉关注机制实现了更好的表现。同时,实验也表明在 CEMO 上,音频编码包含的情感信息比文本更为丰富。
Jun, 2023
这篇论文提出了一种名为低秩匹配注意力方法的跨模态特征融合方法,可用于会话情感识别任务,并能够充分利用模态间的语义信息和模态内语境信息。实验证实该方法在诸多基准数据集上的表现均优于其他流行的跨模态融合方法。
Jun, 2023
通过使用多模态 Transformer 架构,全面利用视频中视觉和听觉模态之间的交互和内部依赖关系,以识别音频视觉表情和声音模式,该模型在 Affwild2 数据集上表现出优越性能。
Mar, 2024
本文提出了一种使用卷积注意网络学习语音和文本数据之间隐藏表示的新方法,较之之前的表现更好,能更好地识别出 CMU-MOSEI 数据集中包含的来自语音和文本数据的情感。
May, 2018
通过跨模态注意力来利用互补关系在多模态情感识别中引起了广泛关注。然而,模态之间也可能存在弱互补关系,可能会导致跨模态特征表示质量较差。为了解决这个问题,我们提出了一种基于不一致性感知的跨模态注意力方法(IACA),可以根据声音和视觉模态之间的强弱互补关系自适应地选择最相关的特征。具体而言,我们设计了一个两阶段的门控机制,可以自适应地选择适当的相关特征以处理弱互补关系。通过在具有挑战性的 Aff-Wild2 数据集上进行大量实验,展示了所提模型的鲁棒性。
May, 2024
该研究提出了使用贝叶斯注意力模块(BAM)来增强来自不同模态的预先训练模型的协同注意力融合,以有效融入外部情感相关知识以学习情感相关知识,实验证明该方法能够超过最先进方法至少 0.7 个百分点的准确度。
Feb, 2023