建模对话中的共情调和
提出了一个多维度的共情评估框架,该框架可以测量发言者表达意图以及听众感知到的共情,这两个维度之间存在相互关联,而感知到的共情与对话会话的满意程度有很高的相关性。为了自动测量对话中的共情,进行了不同的建模选项,包括使用预置的大型语言模型和基于序列到序列语言模型的分类器。经过广泛实验,表明使用序列到序列语言模型进行指导微调的分类器相对于之前的研究和竞争基准具有最好的性能。最后,对所提出的分类器的性能进行了全面的消融研究,并提出了将其作为自动对话共情评估指标的建议。
Feb, 2024
深入调查自然语言处理对同理心的影响,发现缺乏明确的同理心定义与过度强调情感同理心导致构建有效性与可重复性不足,提出需要以认知同理心为核心的定义来指导同理心在 NLP 研究领域的应用,并探寻该领域的被忽视的机遇。
Oct, 2022
通过人类交互动态的深度相互关联,人类关怀在促进亲社会行为方面起着关键作用,然而,利用自然语言处理方法对关怀进行建模仍然具有挑战性。从我们对提高语言模型中理解关怀的追求出发,我们提出了几种策略,包括在掩码语言模型中进行对比学习以及使用大型语言模型进行监督微调。尽管这些方法相对于以往的方法展示出了改进,但整体结果仍然不令人满意。为了更好地理解这一趋势,我们进行了分析,发现标注者之间存在低一致性。这种缺乏共识阻碍了训练,并强调了任务的主观性。我们还探讨了注释对文化的影响。为了研究这一点,我们精心收集了乌尔都语的故事对,并发现在解释标注者之间的关怀时主观性似乎与文化背景无关。我们对语言模型对关怀理解的系统探索所获得的见解表明,在任务制定和建模方面还有相当大的探索空间。
Jun, 2024
本研究建立了感同身受情感对话数据集,收集了受访者的特征、新闻文章引发的自我报告的同理心反应、对谈伙伴的他人报告,以及对话中表达的自我披露、情感和同理心等信息,旨在探讨不同形式的同理心与其他情感现象及人口统计学因素之间的关系,提供了预测这些特征的基线模型。
May, 2022
本研究通过五个评估维度研究人们在对话系统中尝试引入共情时所存在的关键点和未来机会,发现用户建模和对用户情感的检测和鉴别是需要进一步研究的核心问题;同时,处理多模式输入,显示更细腻的共情行为,以及包括其他对话系统特征也是需要关注的问题。
May, 2022
本文提出并评估了一种情感识别标注方案,通过构建自动分割和分类系统,通过调查语言和声学空间中的特征来识别通话中的共情。该系统在呼叫中心对话中表现出明显的优异性能。
May, 2017
大型语言模型在培养有同理心的对话、构建和谐社会关系以及发展有帮助的人工智能方面具有至关重要的作用。本研究通过实证调查了大型语言模型在生成有同理心的回应方面的性能,并提出了三种改进方法:语义上下文学习、两阶段交互生成和与知识库的结合。广泛的实验证明,我们的方法能够显著改善大型语言模型的性能,在自动评估和人工评估方面达到最先进的水平。此外,我们还探索了 GPT-4 模型模拟人工评估者的可能性。
Oct, 2023
本文提出了一个新任务,即基于角色的移情对话,并首次对角色对移情反应的影响进行了实证研究。作者提供了一份新的大规模多领域数据集,使用高效的 CoBERT 模型进行回答选择,实验证明,当 CoBERT 模型基于移情对话训练时,角色更有助于提高移情反应,从而为人类对话中的角色和移情之间建立了经验证据。
Apr, 2020
本文介绍了一种基于计算方法的框架来理解在线心理健康平台上的情感表达,通过收集和共享大量语料来训练 RoBERTa-based bi-encoder 模型,成功识别出含有改善情感的会话,揭示用户无法通过自我学习获得改善情感能力,为情感培训和反馈提供机会。
Sep, 2020
本文提出了一个新的共情对话生成指标和一个基于具有情感情境的 25k 个会话的新数据集 EmpatheticDialogues,实验表明使用我们的数据集的对话模型被人类评估员认为比仅在大规模互联网对话数据上训练的模型更具有移情能力,同时还通过实验比较了对情感回应进行的对话模型调整,利用现有模型或数据集而无需重新训练完整模型
Nov, 2018