通过引入情感方面的三种新方法,可以改善神经会话模型的自然语言处理能力,实现更加丰富、有趣和自然的情感化响应。
Sep, 2017
本文提出了一种端到端情感丰富的神经对话模型,采用 VAD 注意机制将情感嵌入到每个单词中,并通过采用情感注意机制考虑了否定语和强化语的影响。最后,采用具有情感的目标函数训练模型,以产生具有情感丰富性的输出响应,得到人类的联合评估与基于困惑度的评估都优于同等规模的基线模型。
Nov, 2018
使用人格特征为对话系统生成情感,通过模拟情绪转变过程来改善情感生成性能。
Apr, 2024
本文介绍了一种使用情感驱动的文本生成模型,其能够有效地生成带有情感色彩的、主题集中的且语法正确的句子,并集成了 GPT-2 等概率文本生成模型。该模型考虑了情感类别、强度和主题的灵活性,并在自动化评估和人类研究中优于其他情感文本生成模型。
Nov, 2020
本研究提出了一种基于情感上下文的语言建模方法,可以更有效地考虑语言生成过程中的情感内容。使用 Empathetic-Dialogues 语料库进行实验,相较于现有方法,本方法在困惑度指标上提高了 5 个百分点,并获得了更高的 BLEU 指标分数。
Nov, 2019
提出了一种情感对话生成模型,采用情感感知对话管理,包括情感状态跟踪和移情对话策略选择两个部分,动态管理不同信息可帮助模型生成更具移情效果的回复。
May, 2022
本文针对共情对话系统中,理解说话者的情感,并能产生合适的回复的技能进行了研究。我们提出了一种简单的技术,称为 “情感解码”,用于产生共情回应,该方法可以在每个解码步骤中有效地融合情感信号,并可以辅以辅助双重情感编码器进行增强。广泛的实证研究表明,相对于几种强大的主流方法,人类评估认为我们的模型更具共情能力。
Aug, 2021
本文提出了一种基于 LSTM 模型的扩展 Affect-LM,用于在生成对话文本时增加情感内容的控制因素,研究表明,通过 Affect-LM 生成的自然语言句子不会破坏语法正确性。Affect-LM 学习到了区分情感的单词表达方式,迷惑度实验表明在对话文本中增加情感信息可以提高语言模型的预测效果。
Apr, 2017
本文提出了一种多任务框架,该框架联合识别对话的情感并根据所识别的情感生成响应,我们利用基于 BERT 的网络来创建一种共情系统,并使用混合目标函数来训练端到端网络,包括分类和生成损失函数,实验结果表明,我们的多任务框架优于现有的最先进模型。
该研究提出了一种基于情感感知的 Transformer 编码器,用于生成类人的同情回应,将语义和情感方面集成到输入话语中。在 Facebook AI 共情对话数据集的实验中,该模型相比现有方法生成的回应具有更高的 BLEU-4 得分,这表明情感智能的虚拟代理现在已成为现实,并且未来在所有人机接口中都将包括情感作为一种模态。
Apr, 2022