IITK 参加 SemEval-2024 任务 10: 说话人是谁?通过说话人嵌入改进对话中的情感识别和反转推理
SemEval-2024 任务 10 旨在识别情绪并找到其在单语英文和印地英语混合对话中翻转的原因。该任务包括三个子任务:混合语言对话中的情绪识别,混合语言对话中的情绪翻转推理以及英语对话中的情绪翻转推理。参与者的任务是自动执行一个或多个子任务。数据集包括手动标注的关注情绪和情绪转变触发器的对话。共有 84 个参与者参与了该任务,其中最优系统的 F1 得分分别为 0.70、0.79 和 0.76。本文总结了来自 24 个团队及其系统描述的结果和发现。
Feb, 2024
本文探讨了识别会话中讲话者情感波动背后的推手或起因,即 Instigator based Emotion Flip Reasoning 任务,并提出了数据集 MELD-I 和新颖的神经架构 TGIF,实现了对话背景、讲话者动态和情感序列的捕捉和分类,结果表明相比于五个基准,F1 值提高了 4-12%。
Jun, 2023
ISDS-NLP 团队在 SemEval 2024 任务 10 中提出了 EDiReF 方法,采用了掩码语言模型和因果语言模型两种不同的方法,研究了多语种设置下对情感进行预测的效果,并发现掩码语言模型在句子级情感分类方面的性能优于 Mistral 模型。
May, 2024
该研究报告介绍了 MasonTigers 团队参与 SemEval-2024 任务 10 的情感识别和理解逻辑翻转方面在单语英语和混合英语 - 印地语对话中的表现。通过开发准确的情感识别和推理方法,我们在每个子任务中获得了 0.78、0.79 的令人印象深刻的 F1 分数,并在第一和第三子任务中获得了第一名,第二子任务中获得了第二名。通过大量的实验和分析,我们提供了对我们系统在每个子任务中表现和贡献的深入见解。
Jun, 2024
本文提出一种在语音对话中进行情绪识别的方法,利用 Transformer 和注意力机制设计三个不同的蒙版模拟传统上下文建模、扩展内部说话人和跨说话人的交互作用,以达到更好的预测效果。实验证明我们的方法可以有效提高情绪识别的性能。
Dec, 2020
本文探讨了会话情感识别 (CER) 的问题,考虑到说话人的信息对于识别情感的影响,提出利用说话人鉴别任务 (SI) 辅助提升对话中话语的表示。实验结果表明,该方法能够有效提高 CER 的性能,达到了两个基准数据集的最优结果。
Mar, 2020
本文提出了一种探索语音信息中内部和外部说话者依赖关系的新型说话者建模方案,并使用 Speaker-Guided 编码器 - 解码器框架来预测情感标签,证明了其在情感识别中的优越性和有效性。
Jun, 2022
本篇论文介绍了一个简单而精准的方法 EmoBERTa,它可以通过将说话者的名字置于话语前,并在对话中插入分隔符,以学习预测当前说话者的情感状态。实验结果表明,EmoBERTa 可以在两个流行的情感识别数据集上达到新的最佳表现。
Aug, 2021
本文研究了预训练语言模型 BERT 在情感识别中的能力。通过 BERT 的框架和两句话的结构,我们将其应用于连续对话情感预测任务中,并依赖于句子级上下文感知理解。实验表明,通过将连续对话映射到因果话语对中,该模型能更好地捕获回复话语的情感。该方法在 Friends 和 EmotionPush 的测试数据集中取得了 0.815 和 0.885 微型 F1 分数。
Aug, 2019
本文以 SemEval-2023 任务 3 “对话中多模态情绪因果分析竞赛” 的参赛报告为基础,着重从对话中提取情绪 - 原因二元组。具体而言,我们的方法通过结合经过微调的 GPT-3.5 实现情绪分类和基于 BiLSTM 的神经网络实现原因检测。在子任务 1 的排名中,我们获得第二名,并通过最高加权平均比例 F1 分数 0.264 展示了我们方法的有效性。
Apr, 2024