基于 Transformer 的对话情绪识别的神经网络
SemEval-2024 任务 10 旨在识别情绪并找到其在单语英文和印地英语混合对话中翻转的原因。该任务包括三个子任务:混合语言对话中的情绪识别,混合语言对话中的情绪翻转推理以及英语对话中的情绪翻转推理。参与者的任务是自动执行一个或多个子任务。数据集包括手动标注的关注情绪和情绪转变触发器的对话。共有 84 个参与者参与了该任务,其中最优系统的 F1 得分分别为 0.70、0.79 和 0.76。本文总结了来自 24 个团队及其系统描述的结果和发现。
Feb, 2024
本研究提出了一种基于遮蔽记忆网络和参与讲话者的转换器模型,用于在对话中的情感识别及情感变化推理,并介绍了可能触发情感变化的对话区域。该方法在第三子任务中相对任务基准模型提高了 5.9(F1 分数),故设计选择在该方法中具备重要意义。
Apr, 2024
本文研究了预训练语言模型 BERT 在情感识别中的能力。通过 BERT 的框架和两句话的结构,我们将其应用于连续对话情感预测任务中,并依赖于句子级上下文感知理解。实验表明,通过将连续对话映射到因果话语对中,该模型能更好地捕获回复话语的情感。该方法在 Friends 和 EmotionPush 的测试数据集中取得了 0.815 和 0.885 微型 F1 分数。
Aug, 2019
该研究报告介绍了 MasonTigers 团队参与 SemEval-2024 任务 10 的情感识别和理解逻辑翻转方面在单语英语和混合英语 - 印地语对话中的表现。通过开发准确的情感识别和推理方法,我们在每个子任务中获得了 0.78、0.79 的令人印象深刻的 F1 分数,并在第一和第三子任务中获得了第一名,第二子任务中获得了第二名。通过大量的实验和分析,我们提供了对我们系统在每个子任务中表现和贡献的深入见解。
Jun, 2024
我们参与了 Explainability of Cross-lingual Emotion Detection(EXALT)共享任务,在情感检测子任务的评估集上实现了 0.6046 的 F1 分数,超过基准模型 0.16 个 F1 分数,并在竞争系统中排名第二。我们通过使用 Fine-tuning、Zero-shot learning 和 Few-shot learning 方法在基于 Large Language Model(LLM)和非 LLM 的技术中,包括嵌入式的 BiLSTM 和 KNN 进行实验。此外,我们引入了两种新方法:多次迭代代理工作流和多二元分类器代理工作流。我们发现 LLM 方法对多语言情感检测提供了良好的性能。此外,将所有实验模型组合起来的集成模型比任何单一方法都有更高的 F1 分数。
May, 2024
本文探讨了识别会话中讲话者情感波动背后的推手或起因,即 Instigator based Emotion Flip Reasoning 任务,并提出了数据集 MELD-I 和新颖的神经架构 TGIF,实现了对话背景、讲话者动态和情感序列的捕捉和分类,结果表明相比于五个基准,F1 值提高了 4-12%。
Jun, 2023
我们提出了一种新颖的改进方法,用于将情绪方面引入预训练语言模型(如 BERT 和 RoBERTa)。通过对比学习更新预训练网络权重,使表现出类似情绪的文本片段在表示空间中靠近编码,而具有不同情绪内容的片段则被推开。我们的方法对 PLMs 进行了改进,即 BERTEmo 和 RoBERTaEmo,生成了情绪感知的文本表示,通过不同的聚类和检索指标进行评估。在情感分析和讽刺检测的下游任务中,它们比预训练模型表现得更好(F1 分数提高约 1%),且在少样本学习中观察到了更显著的性能提升。
Oct, 2023
本文采用基于转换器模型和双向 LSTM 网络的方法,结合心理语言学特征进行基于文本的情感检测,在两个基准数据集中表现出可比性,在六个统一情感数据集的迁移学习实验中表现出强大的跨领域泛化功能。
Dec, 2022
对几种预训练模型,fine-tuned 在情感词汇维度上,作者探究了模型大小、预训练数据、泛化能力、鲁棒性、公平性和效率等方面。结果发现,transformer-based architectures 在 SER 领域表现优越,特别是在情感预测方面。
Mar, 2022
通过深度学习模型,本研究提出了一种基于度量学习和 Siamese 网络架构的方法来进行情感识别对话任务,取得了 57.71 的宏 F1 得分,相较于相关研究有了显著的提升。
Apr, 2024