建模个人叙述中的共情相似性
本文提出了第一个公开可用的用于检测共情能力预测的标准,采用单项量表的方法可靠捕捉了作者对共情能力的评估,同时也是第一个区分多种共情形式的计算模型,实验表明CNN模型表现最佳。
Aug, 2018
通过引入个人叙述语料库并使用 Labov 的社会语言学模型及机器学习方法进行标注,文章探讨了人们比较故事时依赖于行动和评价这两个方面,以此为基础帮助机器学习研究或表现个人叙述的方法。
May, 2020
本文介绍了一种基于计算方法的框架来理解在线心理健康平台上的情感表达,通过收集和共享大量语料来训练RoBERTa-based bi-encoder 模型,成功识别出含有改善情感的会话,揭示用户无法通过自我学习获得改善情感能力,为情感培训和反馈提供机会。
Sep, 2020
本研究建立了感同身受情感对话数据集,收集了受访者的特征、新闻文章引发的自我报告的同理心反应、对谈伙伴的他人报告,以及对话中表达的自我披露、情感和同理心等信息,旨在探讨不同形式的同理心与其他情感现象及人口统计学因素之间的关系,提供了预测这些特征的基线模型。
May, 2022
本研究通过五个评估维度研究人们在对话系统中尝试引入共情时所存在的关键点和未来机会,发现用户建模和对用户情感的检测和鉴别是需要进一步研究的核心问题;同时,处理多模式输入,显示更细腻的共情行为,以及包括其他对话系统特征也是需要关注的问题。
May, 2022
我们系统地收集并筛选了10个著名数据库中的801篇论文,并对选中的54篇论文进行了分析。我们将这些论文根据共情检测系统的输入模态(文本、视听、音频和生理信号)进行分组,并对模态特定的预处理和网络架构设计协议、常用数据集描述和可用性细节以及评估协议进行了研究。我们进一步讨论了基于情感计算的共情领域的潜在应用、部署挑战和研究空白,这可以促进新的研究方向。我们相信我们的工作是发展一个包含隐私保护和无偏见、具有文化、多样性和多语言性的共情系统的垫脚石,可以在实践中提高人类生活的整体福祉。
Oct, 2023
通过计算实验,我们向你介绍了一种基于评价理论的识别共情言语中对齐过程的新方法,并证明了这些评价和对齐可以被准确地识别。在超过9.2M的Reddit会话实验中,我们发现评价能够捕捉行为的有意义的分组,但大多数回应的对齐程度很小。然而,我们发现心理健康专业人士在共情对齐方面参与得更多。
May, 2024
该研究提出了一个多模态数据集,用于个人经历分享中的共情研究,其中包含41名参与者在与人工智能代理共享脆弱经历并阅读共情共鸣故事期间的53小时视频、音频和文本数据。该数据集是首个关于共情的纵向数据集,通过社交机器人在参与者家中一个月的使用中收集,在自然的共情叙事互动中参与者与AI代理进行交互。研究引入一项新的任务,基于个人经历预测个体对他人故事的共情,评估其在个人共享故事环境和他们阅读故事的反思中的效果。研究为未来在上下文化和纵向共情建模方面的改进铺平了道路,并为发展富有共情能力的AI系统和理解真实世界情境下人类共情的复杂性提供了宝贵资源。
May, 2024
借助LLMs和大规模众包研究,我们实证检验并量化了故事叙述风格和共情之间的关系,引入了HEART(人类共情和叙事分类系统)这一基于理论的新分类系统,证明了LLMs在从HEART中提取叙事要素方面的优势,并通过大规模众包研究收集到的情感判断数据集表明,通过LLMs提取的叙事要素,特别是情感的生动性和情节的音量,可以阐明叙事风格在培养对个人故事的共情中的路径。我们的工作表明,这样的模型可以用于引导以人为中心的社会和行为洞察的叙事分析。
May, 2024
通过人类交互动态的深度相互关联,人类关怀在促进亲社会行为方面起着关键作用,然而,利用自然语言处理方法对关怀进行建模仍然具有挑战性。从我们对提高语言模型中理解关怀的追求出发,我们提出了几种策略,包括在掩码语言模型中进行对比学习以及使用大型语言模型进行监督微调。尽管这些方法相对于以往的方法展示出了改进,但整体结果仍然不令人满意。为了更好地理解这一趋势,我们进行了分析,发现标注者之间存在低一致性。这种缺乏共识阻碍了训练,并强调了任务的主观性。我们还探讨了注释对文化的影响。为了研究这一点,我们精心收集了乌尔都语的故事对,并发现在解释标注者之间的关怀时主观性似乎与文化背景无关。我们对语言模型对关怀理解的系统探索所获得的见解表明,在任务制定和建模方面还有相当大的探索空间。
Jun, 2024