EmotionX-HSU: 采用预训练的 BERT 进行情感分类
本文研究了预训练语言模型 BERT 在情感识别中的能力。通过 BERT 的框架和两句话的结构,我们将其应用于连续对话情感预测任务中,并依赖于句子级上下文感知理解。实验表明,通过将连续对话映射到因果话语对中,该模型能更好地捕获回复话语的情感。该方法在 Friends 和 EmotionPush 的测试数据集中取得了 0.815 和 0.885 微型 F1 分数。
Aug, 2019
本研究提出一种基于可迁移语言模型和动态最大池化的情感分类器,旨在通过应用自注意力机制和加权交叉熵损失,改善口语对话中的情境信息和类别不均衡问题,并通过后训练和微调机制,利用多种机器学习技术来提高模型性能,实验结果表明,该模型在 Friends 和 EmotionPush 数据集上表现优异,且在 EmotionX 2019 挑战中也取得了竞争性的表现。
Jun, 2019
本文提出了一种方法,通过将中性情绪加入到包含恐惧、悲伤、喜悦和愤怒四种情绪的基准数据集中,构建了一个平衡的数据集。在这个扩展数据集上,我们研究了支持向量机(SVM)和双向编码器表示转换器(BERT)在情感识别中的应用,并提出了一种将两种模型结合的新型集成模型。实验结果表明,该模型在推特情感识别中实现了 0.91 的准确率。
Aug, 2022
通过预先训练的表示来捕捉语音信号中的情绪模式,基础模型在语音情绪识别(SER)中显示出巨大的潜力。为了进一步提高在各种语言和领域中的 SER 性能,我们提出了一种新颖的双重方法。首先,我们收集了 EmoSet++,一个包含 37 个数据集、150,907 个样本和总时长为 119.5 小时的全面多语言、多文化语音情绪语料库。其次,我们引入了 ExHuBERT,这是 HuBERT 的增强版本,通过对 EmoSet++ 进行骨干扩展和微调来实现。我们复制了每个编码器层及其权重,然后冻结了第一个复制,并集成了一个额外的零初始化线性层和跳跃连接,以保留功能并确保其对后续微调的适应性。我们在未知数据集上的评估结果表明 ExHuBERT 的有效性,为各种 SER 任务设立了一个新的基准。模型和 EmoSet++ 的详细信息:链接至此 https:// 此处输入 URL。
Jun, 2024
本文介绍了 2019 年 EmotionX 挑战活动,该挑战活动在第七届自然语言处理社交媒体研讨会(SocialNLP)上进行。EmotionX 基于 EmotionLines 数据集,旨在预测口语和聊天式对话中的情感。在本次挑战活动中,有 36 个团队参加,其中 11 个团队成功提交了预测,并且得分最高的团队在口语和聊天式对话中的表现均达到了 81.5%和 79.5%。
Sep, 2019
使用深度学习技术和 BERT 文本嵌入方法,对来自资源匮乏语言的有限文本数据集进行情感识别的研究,通过介绍 SmallEnglishEmotions 数据集验证了这些方法在准确分类数据集中的优越性。
Feb, 2024
通过提出一种基于分层 Transformer 框架的情感识别方法,该方法结合了预训练语言模型和说话人嵌入,能在不同背景环境和不同说话人的情况下有效地捕捉言语的情感信息,实验结果表明该方法在三个对话数据集上分别取得了 1.98%、2.83%和 3.94%的 F1 宏平均分数提升。
Feb, 2020
本文采用基于转换器模型和双向 LSTM 网络的方法,结合心理语言学特征进行基于文本的情感检测,在两个基准数据集中表现出可比性,在六个统一情感数据集的迁移学习实验中表现出强大的跨领域泛化功能。
Dec, 2022
本文介绍了一种基于文本的情感检测语料库及其在多方对话文本上对情感分类的深度学习模型,该模型优于现有方法。该文首先提出了一个新的语料库,提供了 Friends 节目中对话连续发言中七种情感的标注。作者提出了四种基于序列卷积神经网络的模型,其中最好的模型在细粒度和粗粒度情感的准确性分别达到了 37.9% 和 54%。
Aug, 2017
该研究提出了一种基于情感感知的 Transformer 编码器,用于生成类人的同情回应,将语义和情感方面集成到输入话语中。在 Facebook AI 共情对话数据集的实验中,该模型相比现有方法生成的回应具有更高的 BLEU-4 得分,这表明情感智能的虚拟代理现在已成为现实,并且未来在所有人机接口中都将包括情感作为一种模态。
Apr, 2022