无监督图注意力自编码器用于带属性网络的 K 均值丢失
本文主要研究了基于深度学习与多模态语料库的阿拉伯情感分析的数据集,通过使用最先进的 transformers 和特征提取工具来建立我们的阿拉伯多模态数据集,并使用 state-of-the-art 的 transformer-based model 验证我们的数据集,研究表明阿拉伯多模态情感分析非常有前途。
Jun, 2023
近年来,多模态自然语言处理引起了广泛关注,但我们需要更清晰地分析多语言环境下的多模态任务。本文通过一个简单的策划过程,将一份现有的文本 Twitter 情感数据集转化为多模态格式,从而填补了先前主要关注英语的情感分析研究的空白,并为研究界开辟了情感相关研究的新领域。此外,我们利用这个增强的数据集进行了基准实验,并报告了结果。值得注意的是,我们的评估结果显示,在单模态和多模态配置相比较时,使用一个经过情感调整的大型语言模型作为文本编码器表现出色。
Apr, 2024
本文研究利用深度学习方法,通过预训练单语词嵌入,将不同语种的词嵌入映射到共享嵌入空间中,从而进行多语情感分析。实验结果表明,我们的方法优于现有方法,其中 CNN 模型的分类准确率较目前最先进的基线高 2.1%。
Oct, 2017
通过利用多个信息源(如语言、视频和音频),多模态情感分析(MSA)证明了其有效性,但不同模态间可能存在情感不相关和冲突的信息,从而限制了进一步提高性能。为了缓解这个问题,我们提出了自适应语言引导的多模态 Transformer(ALMT),它通过自适应的超模态学习(AHL)模块,在不同尺度上利用语言特征的指导从视觉和音频特征中学习抑制不相关和冲突的表示。通过获取超模态表示,该模型可以通过多模态融合获得互补和联合表示,以实现有效的 MSA。在实践中,ALMT 在几个知名数据集(如 MOSI,MOSEI 和 CH-SIMS)上实现了最先进的性能,并通过大量割舍实验证明了我们的抑制不相关和冲突的机制的有效性和必要性。
Oct, 2023
提出了一种无监督多模态语言表示提取方法,利用卷积自编码器将单词级对齐的多模态序列映射到 2-D 矩阵中,证明其在情感分析和情绪识别领域可以达到接近最先进性能的结果。
Oct, 2021
通过使用因果关系而非传统的似然方法,基于多模态情感分析(MSA)的多模式对比事实推断情感(MCIS)分析框架能够从具有有害偏见的观察中做出无偏决策,并有效地减轻数据集偏差的问题。
Mar, 2024
本研究提出了一个利用基于多模态双重注意力变换器模型,结合图注意力与协同注意力,以提高跨语言情感识别性能,在 4 个公开数据集中获得了优秀表现的方法。该方法在高层次特征表示方面利用 Transformer 编码层来提高情感分类精度,并通过在各个阶段对特征表示进行细化以提供情感显著特征,既保留特定模态的情感信息又增强了跨模态和跨语言交互。
Jun, 2023
本文讨论了多模态情感分析的三个方面:跨模态交互学习、多模态交互中的长期依赖性学习和一元和跨模态线索的融合,发现学习跨模态交互对解决该问题很有益。在两个基准数据集(CMU-MOSI 和 CMU-MOSEI 语料库)上进行实验,取得了 83.9%和 81.1%的准确率,分别比当前最先进技术提高了 1.6%和 1.34%的绝对精度。
Feb, 2020
提出了 CMGA,即跨模态门控注意力融合模型,用于多模态情感分析,证明其在 MOSI 和 MOSEI 两个基准数据集上具有优异的性能,并展示了模型内不同组件的作用。
Aug, 2022
社交媒体的快速发展使得我们能够分析用户意见。尽管常用语言的情感分析已经取得了显著的进展,但由于资源限制,低资源语言像阿拉伯语等仍然很少有研究。本研究探讨了 SemEval-17 和阿拉伯语情感推文数据集上的推文文本的情感分析,并研究了四种预训练语言模型以及提出了两种集成语言模型。我们的发现包括单语言模型表现出更好的性能,集成模型优于基线,而多数投票集成模型胜过英语。
Mar, 2024