多模态情感分析中模态鲁棒性分析
多模态情感分析中的情感语义一致性是一个普遍存在的挑战,我们通过引入模态冲突的测试集评估传统的多模态情感分析模型和多模态大型语言模型的性能,发现传统模型在面对语义冲突数据时表现出显著的性能降低,并指出了多模态情感分析中多模态大型语言模型的缺点。我们的研究提出了一个新的挑战,并为情感分析系统的未来发展提供了宝贵的见解。
Jun, 2024
本文提出了一个多模态鲁棒性框架,以系统分析常见的多模态表示学习方法,并针对其中的鲁棒性缺陷提出了两种干预技术,能够在三个数据集上提高 1.5-4 倍的鲁棒性。同时,通过在可能存在的额外模态上更好地利用这些干预技术,本文的算法在 AudioSet 20K 上取得了 44.2mAP 的优异表现。
Apr, 2023
通过使用因果关系而非传统的似然方法,基于多模态情感分析(MSA)的多模式对比事实推断情感(MCIS)分析框架能够从具有有害偏见的观察中做出无偏决策,并有效地减轻数据集偏差的问题。
Mar, 2024
近年来,多模态自然语言处理引起了广泛关注,但我们需要更清晰地分析多语言环境下的多模态任务。本文通过一个简单的策划过程,将一份现有的文本 Twitter 情感数据集转化为多模态格式,从而填补了先前主要关注英语的情感分析研究的空白,并为研究界开辟了情感相关研究的新领域。此外,我们利用这个增强的数据集进行了基准实验,并报告了结果。值得注意的是,我们的评估结果显示,在单模态和多模态配置相比较时,使用一个经过情感调整的大型语言模型作为文本编码器表现出色。
Apr, 2024
本文主要研究了基于深度学习与多模态语料库的阿拉伯情感分析的数据集,通过使用最先进的 transformers 和特征提取工具来建立我们的阿拉伯多模态数据集,并使用 state-of-the-art 的 transformer-based model 验证我们的数据集,研究表明阿拉伯多模态情感分析非常有前途。
Jun, 2023
多模态模型容易受到单模态攻击和缺失条件的干扰,为了克服这些干扰,需要具备鲁棒的多模态表示。本文通过理论研究发现,较大的单模态表示边界和更可靠的模态融合是实现更高鲁棒性的重要组成部分。基于这一发现,引入了一种训练过程称为可证明鲁棒的多模态训练 (Certifiable Robust Multi-modal Training,CRMT),该方法可以明显提高鲁棒性的可信度和灵活性。
Feb, 2024
提出了一种简单而有效的框架 TRML,即利用多模态基础模型进行鲁棒多模态学习,通过生成虚拟模态替代丢失模态,并对生成和丢失模态之间的语义空间进行对齐,从而捕捉缺失模态的语义。在完整模态的情况下,我们的模型通过利用交叉模态语义空间的对齐来捕捉丢失模态的语义。实验证明我们的方法在三个多模态情感分析基准数据集 CMU-MOSI、CMU-MOSEI 和 MELD 上具有优势。
Jan, 2024
本研究通过卷积神经网络从文本、视觉等多个角度提取特征,实现了情感分析和情绪识别,并取得了 10% 的性能提升。同时,我们还探讨了在多模态情感分析研究中经常被忽视的若干重要问题,如讲话者无关模型和模态重要性等,从而为今后的研究提出了新的基准,并展示了在执行此类任务时需要考虑的不同方面分析。
Jul, 2017
提出了一种新颖的知识传递网络来在不同的感知模式之间进行翻译以重构缺失的音频模式,并且采用了跨模态注意机制以保留重构和观察到的模态的最大信息,用于情感预测。通过对三个公开数据集进行大量实验证明,相较于基线方法实现了显著的改进,并在完全多模态监督方面取得了与之前方法相当的结果。
Dec, 2023
提出一种简单且高效的多模态融合机制:线性融合(Linear Fusion),通过半监督学习的方式提高了多模态语义分割的性能,并使模型对现实世界中缺失模态的情况更加健壮。
Apr, 2023