MojiTalk: 大规模生成情感回应
本研究提出了一种基于情感上下文的语言建模方法,可以更有效地考虑语言生成过程中的情感内容。使用 Empathetic-Dialogues 语料库进行实验,相较于现有方法,本方法在困惑度指标上提高了 5 个百分点,并获得了更高的 BLEU 指标分数。
Nov, 2019
本文研究了在社交媒体情感分析任务中使用二进制表情符号和特定的话题标签作为远程监督的方法,通过扩展对更多嘈杂标签的监督,模型可以学习更丰富的表示,同时从一个包含 64 个常见表情的数据集中进行表情预测,使用单个预训练模型在 8 个基准数据集中取得了最先进的性能,并证实了我们的情感标签多样性相较于之前的远程监督方法有了更好的表现。
Aug, 2017
本文通过提出统一的端到端神经架构,实现对发帖的语义和情感的编码,以生成智能回复和恰当表达情感,实验证明在内容连贯性和情感适当性方面优于现有方法。
Jun, 2021
我们提出了一种通过由情感丰富的文本衍生出的嵌入来作为提示信息的系统,通过在基于 Transformer 的架构内多次集成发言者和提示信息的联合表示。我们的方法在合并情感语音和文本数据集上进行训练,并在每次训练迭代中变化提示信息,以增加模型的泛化能力。客观和主观评估结果表明,该条件合成系统能够准确地将提示中的情感转移到语音中。同时,保持了发言者身份的精确可追踪性以及整体的高话语质量和可理解性。
Jun, 2024
采用深度学习生成模型来生成机器人情感表情,通过几个手动设计的机器人身体表达生成一个新的符合上下文感知的表达。评估结果表明,生成的表情与手动设计的表情没有显著差异,且能达到不同目标情绪的效果。
May, 2022
本文提出了一种基于 H-LSTM 模型和 softmax 分类器的方法,以自动推荐相关的 Emoji 表情符号,以更好地传达情感信息。实验结果表明,该方法在情感识别任务上具有优秀的性能,能够更好地捕捉上下文信息和情感流动。
Dec, 2016
大型语言模型在培养有同理心的对话、构建和谐社会关系以及发展有帮助的人工智能方面具有至关重要的作用。本研究通过实证调查了大型语言模型在生成有同理心的回应方面的性能,并提出了三种改进方法:语义上下文学习、两阶段交互生成和与知识库的结合。广泛的实验证明,我们的方法能够显著改善大型语言模型的性能,在自动评估和人工评估方面达到最先进的水平。此外,我们还探索了 GPT-4 模型模拟人工评估者的可能性。
Oct, 2023
本篇论文提出利用基于 LSTM 的深度学习模型来检测文本对话中的情绪,讨论了利用语义和情感嵌入的半自动化技术来收集训练数据以及结合方案,该方法在真实场景下的表现优于传统机器学习基准线和其他现成的深度学习模型。
Jul, 2017