情感神经响应生成
本文提出了一种端到端情感丰富的神经对话模型,采用 VAD 注意机制将情感嵌入到每个单词中,并通过采用情感注意机制考虑了否定语和强化语的影响。最后,采用具有情感的目标函数训练模型,以产生具有情感丰富性的输出响应,得到人类的联合评估与基于困惑度的评估都优于同等规模的基线模型。
Nov, 2018
本文提出了一种基于 LSTM 模型的扩展 Affect-LM,用于在生成对话文本时增加情感内容的控制因素,研究表明,通过 Affect-LM 生成的自然语言句子不会破坏语法正确性。Affect-LM 学习到了区分情感的单词表达方式,迷惑度实验表明在对话文本中增加情感信息可以提高语言模型的预测效果。
Apr, 2017
本文针对共情对话系统中,理解说话者的情感,并能产生合适的回复的技能进行了研究。我们提出了一种简单的技术,称为 “情感解码”,用于产生共情回应,该方法可以在每个解码步骤中有效地融合情感信号,并可以辅以辅助双重情感编码器进行增强。广泛的实证研究表明,相对于几种强大的主流方法,人类评估认为我们的模型更具共情能力。
Aug, 2021
本研究提出了一种基于情感上下文的语言建模方法,可以更有效地考虑语言生成过程中的情感内容。使用 Empathetic-Dialogues 语料库进行实验,相较于现有方法,本方法在困惑度指标上提高了 5 个百分点,并获得了更高的 BLEU 指标分数。
Nov, 2019
本研究探索大型语言模型 (LLMs) 在对话中识别人类情感方面的能力,重点关注开放领域闲聊对话和任务导向对话,并通过评估和比较 LLMs 在情感识别方面的性能,利用 IEMOCAP、EmoWOZ 和 DAIC-WOZ 三个不同数据集进行研究,从非零样本和少样本学习以及任务特定微调的角度探索 LLMs 的模型容量,并考虑了自动语音识别 (ASR) 错误对 LLM 预测的潜在影响。通过本研究,我们旨在阐明 LLMs 在对话中能够模拟人类情感识别能力的程度。
Sep, 2023
该研究提出了一种基于情感感知的 Transformer 编码器,用于生成类人的同情回应,将语义和情感方面集成到输入话语中。在 Facebook AI 共情对话数据集的实验中,该模型相比现有方法生成的回应具有更高的 BLEU-4 得分,这表明情感智能的虚拟代理现在已成为现实,并且未来在所有人机接口中都将包括情感作为一种模态。
Apr, 2022
本研究旨在通过深度学习和转移学习来提高情感计算中文段落情感识别精度。我们使用改进后的循环神经网络模型,并提出 Sent2affect 模型进行迁移学习。实验结果表明,我们的模型在 6 个基准数据集上表现出色,相对于传统机器学习方法有了显著提升。这些发现对情感计算的应用具有重要的启示意义。
Mar, 2018
本文提出了一个名为 REDAffectiveLM 的深度学习模型的新颖方法,以从短文档中检测读者的情感,通过使用基于 transformer 预训练语言模型的上下文特定表示和情感丰富的表示形式,以及双向 LSTM + 注意。在三个数据集上进行了实证评估,相对于基线模型,我们的模型表现持续超过,可以显着提高读者情感检测的性能。
Jan, 2023