对比和生成使 BART 成为一个良好的对话情感识别器
本文提出了一种基于 BART 的神经响应生成模型,通过多任务学习生成和分类,并注重情感,在对生成响应的同时识别情感。自动评估和众包手动评估显示,该模型使生成的响应更富有情感意识。
May, 2021
本文研究了预训练语言模型 BERT 在情感识别中的能力。通过 BERT 的框架和两句话的结构,我们将其应用于连续对话情感预测任务中,并依赖于句子级上下文感知理解。实验表明,通过将连续对话映射到因果话语对中,该模型能更好地捕获回复话语的情感。该方法在 Friends 和 EmotionPush 的测试数据集中取得了 0.815 和 0.885 微型 F1 分数。
Aug, 2019
本文提出了一种多任务框架,该框架联合识别对话的情感并根据所识别的情感生成响应,我们利用基于 BERT 的网络来创建一种共情系统,并使用混合目标函数来训练端到端网络,包括分类和生成损失函数,实验结果表明,我们的多任务框架优于现有的最先进模型。
May, 2022
本文介绍了一种基于 BERT 的上下文对话编码器 DialogueBERT,通过五个自超监督学习预训练任务学习对话表述的特殊性,并整合了四个不同的输入嵌入来捕捉话语之间的关系,该模型在意图识别、情感识别和命名实体识别等三个下游对话理解任务中表现出优异性能。
Sep, 2021
在对话中进行情感识别(ERC)意味着检测每个话语背后的情感。有效生成话语的表示仍然是这项任务中的一个重大挑战。最近的研究提出了各种模型来解决这个问题,但是仍然难以区分类似的情感,如兴奋和幸福。为了缓解这个问题,我们提出了一种情感锚定对比学习(EACL)框架,能够为相似的情感生成更具区分性的话语表示。为了实现这一目标,我们利用标签编码作为锚点来指导话语表示的学习,并设计了一个辅助损失来确保相似情感的锚点有效分离。另外,还提出了一个额外的适应过程,将锚点适应为有效的分类器,以提高分类性能。通过广泛的实验,我们提出的 EACL 框架实现了最新的情感识别性能,并在类似情感上表现出卓越的性能。我们的代码可在此 https 网址获得。
Mar, 2024
本文提出了一种双重生成模型(Dual-Emp),通过集成前向对话模型、后向对话模型和表示情感共识的离散潜变量来实现情感共识的构建,同时利用来自开放域对话的非成对情感数据,产生了比人类注释更高效且成本更低的伪成对共情样本,进而在自动和人工评估中表现出优异的编织性和共情响应。
Sep, 2021
本文提出了一种基于监督原型对比学习和课程学习的方法,旨在解决情感识别中遇到的不平衡分类问题,其不需要大的批量比对。对应用该方法进行的三项基准测试的结果表明其取得了最佳效果,并且分析实验进一步证明了其有效性。
Oct, 2022
实现共情是朝向人性化对话系统的关键步骤。本文提出了一种新的情感相关增强的共情对话生成框架,完整地实现了情感相关的学习、利用和监督。实验结果表明我们的模型在共情感知和表达方面具有优势。
Nov, 2023
本文提出了一种通过语法约束、异步引入情感和话题关键词来增强生成回复多样性、提高逻辑和情感比较的模型,相对于现有方法极大改善了传统神经语言模型产生通用回答、缺乏逻辑和情感的问题。
Jun, 2018