医学叙事文章情感分类任务中风格特征分析
借助 LLMs 和大规模众包研究,我们实证检验并量化了故事叙述风格和共情之间的关系,引入了 HEART(人类共情和叙事分类系统)这一基于理论的新分类系统,证明了 LLMs 在从 HEART 中提取叙事要素方面的优势,并通过大规模众包研究收集到的情感判断数据集表明,通过 LLMs 提取的叙事要素,特别是情感的生动性和情节的音量,可以阐明叙事风格在培养对个人故事的共情中的路径。我们的工作表明,这样的模型可以用于引导以人为中心的社会和行为洞察的叙事分析。
May, 2024
本篇研究提出一种基于共情共鸣的个人故事相似度计算方法,通过对个人故事中的主要事件、情感轨迹和总体价值等三个特征进行操作来得出共情相似度得分,并使用 1500 个故事和 2000 对故事进行了数据集制作与模型的训练,最终证实了基于共情的相似度计算模型不仅在数据检索表现方面媲美基于词汇语义的模型,还能有效地促进人与人之间的情感共鸣与联系。
May, 2023
利用深度学习方法针对高级监督学习自动创建移情词汇评分,研究比较了几种不同的学习方法得出 Mixed-Level Feed Forward Network (MLFFN) 模型最佳,使用 MLFFN 模型创建了史无前例的移情词典,并使用 Signed Spectral Clustering 获得其结果的深入洞察。
Dec, 2019
本文提出了第一个公开可用的用于检测共情能力预测的标准,采用单项量表的方法可靠捕捉了作者对共情能力的评估,同时也是第一个区分多种共情形式的计算模型,实验表明 CNN 模型表现最佳。
Aug, 2018
大型语言模型在培养有同理心的对话、构建和谐社会关系以及发展有帮助的人工智能方面具有至关重要的作用。本研究通过实证调查了大型语言模型在生成有同理心的回应方面的性能,并提出了三种改进方法:语义上下文学习、两阶段交互生成和与知识库的结合。广泛的实验证明,我们的方法能够显著改善大型语言模型的性能,在自动评估和人工评估方面达到最先进的水平。此外,我们还探索了 GPT-4 模型模拟人工评估者的可能性。
Oct, 2023
本文介绍了一种基于计算方法的框架来理解在线心理健康平台上的情感表达,通过收集和共享大量语料来训练 RoBERTa-based bi-encoder 模型,成功识别出含有改善情感的会话,揭示用户无法通过自我学习获得改善情感能力,为情感培训和反馈提供机会。
Sep, 2020
提出了一种综合考虑语言和韵律话语历史的共情式对话语音合成模型,通过预训练的自监督学习模型、引入韵律特征模型等手段,实现对话语境的适当预测,取得了优秀的语音合成效果。
Jun, 2022
本文介绍在商业模型的同伴评审中捕捉情感和认知共情的注释方法,包括三种类型的评审组件,建议注释计划成功地引导注释器达成了大致一致的结果。我们训练了预测模型以检测注释的共情结构,并将其嵌入支持学生独立接收共情反馈的自适应写作支持系统中。我们还评估了我们的工具进行同伴学习锻炼,发现学生感知到共情技能的学习、反馈准确性和使用意愿的结果有所改善。最后,我们提供了 500 个带注释的同伴评审语料库和注释指南,以鼓励未来关于共情支持系统的设计和开发的研究。
May, 2021
深入调查自然语言处理对同理心的影响,发现缺乏明确的同理心定义与过度强调情感同理心导致构建有效性与可重复性不足,提出需要以认知同理心为核心的定义来指导同理心在 NLP 研究领域的应用,并探寻该领域的被忽视的机遇。
Oct, 2022
通过人类交互动态的深度相互关联,人类关怀在促进亲社会行为方面起着关键作用,然而,利用自然语言处理方法对关怀进行建模仍然具有挑战性。从我们对提高语言模型中理解关怀的追求出发,我们提出了几种策略,包括在掩码语言模型中进行对比学习以及使用大型语言模型进行监督微调。尽管这些方法相对于以往的方法展示出了改进,但整体结果仍然不令人满意。为了更好地理解这一趋势,我们进行了分析,发现标注者之间存在低一致性。这种缺乏共识阻碍了训练,并强调了任务的主观性。我们还探讨了注释对文化的影响。为了研究这一点,我们精心收集了乌尔都语的故事对,并发现在解释标注者之间的关怀时主观性似乎与文化背景无关。我们对语言模型对关怀理解的系统探索所获得的见解表明,在任务制定和建模方面还有相当大的探索空间。
Jun, 2024