计算机说 “不”: 反对同情心对话人工智能的案例
通过发展具有同理心的聊天机器人,利用因果情绪信息,收集在线情境中产生情绪的原因来实现同情回应,即情感原因,我们利用咨询策略并在真实世界的在线数据集上验证了所提出的方法的有效性。
May, 2021
本文介绍一种数据驱动的 6 阶段方法,用于建立具有同情心的人工智能(EAI),该方法可从原始聊天日志数据中检测关键情感状态,识别常见的序列和情感调节策略,并将其推广以使其适用于干预系统,应用于 (严肃) 视频游戏之中。
Feb, 2023
研究调查了 745 名受访者,旨在了解不同应用中关于情感技能的期望和偏好。结果表明,在设计情感智能对话代理时,应根据应用的上下文和性质考虑适应性和情境感知。
Oct, 2023
该研究将情感智能技术整合进自动对话系统中,通过深度学习和自然语言处理技术创建了一个具有情感智能的对话生成模型。该模型能够实时检测和理解广泛的情绪和特定的疼痛信号,使系统能够提供共情互动。通过整合研究 “人工智能能检测疼痛并表达痛苦共情吗?” 的结果,增强了模型理解痛苦共情的微妙元素的能力,为情感智能对话系统设定了更高的标准。该项目旨在为将先进的情感智能能力整合到对话系统中提供理论理解和实际建议,从而提高用户体验和交互质量。
Apr, 2024
本研究提出了一种基于情感上下文的语言建模方法,可以更有效地考虑语言生成过程中的情感内容。使用 Empathetic-Dialogues 语料库进行实验,相较于现有方法,本方法在困惑度指标上提高了 5 个百分点,并获得了更高的 BLEU 指标分数。
Nov, 2019
通过基于规则的对话代理和深度学习分类器结合的方式,我们提出了一种数字教练配置方案,用于引导用户在自我附着治疗协议方面进行练习,并在虚拟疗法会话中达到高度参与度。在与 N=16 参与者进行的非临床试验中,我们发现与简单的规则基础框架相比,我们的平台在共情性,用户参与度和实用性方面都能得到更好的评价,并提供进一步改进设计和性能的指南。
Sep, 2022
本文通过提出统一的端到端神经架构,实现对发帖的语义和情感的编码,以生成智能回复和恰当表达情感,实验证明在内容连贯性和情感适当性方面优于现有方法。
Jun, 2021
本研究通过五个评估维度研究人们在对话系统中尝试引入共情时所存在的关键点和未来机会,发现用户建模和对用户情感的检测和鉴别是需要进一步研究的核心问题;同时,处理多模式输入,显示更细腻的共情行为,以及包括其他对话系统特征也是需要关注的问题。
May, 2022