本文提出了一种新颖的共情回应生成方法,该方法将自适应模块应用于常识知识选择,以确保生成的共情回应与说话者的情境一致,并使用所选知识来完善常识认知和共情表达以生成更一致和共情的回应。实验结果表明,与基准模型相比,我们的方法在自动和人类评估方面都显着优于基线模型,生成更一致和共情的回应。此外,案例研究强调了响应中知识选择的可解释性以及自适应模块在我们的模型中的有效性。
May, 2023
通过利用大型语言模型的能力,在对话和运用常识推理方面训练可调节的模型,我们提出了先知性常识推理这一创新范式,它能够弥补常识推理过程中的语境不匹配和无法预测未来对话主题的问题,显著提升对话代理的回应质量。
Nov, 2023
本研究针对 commonsense 在对话回应生成中的作用进行了实证研究,提出了一种新的对话数据集,并利用 ConceptNet 这个 commonsense 知识库,找到并整合了现有的真实对话数据集。通过使用这些数据集训练响应生成模型,该研究提出的自动评估方法显示出一定合理的评价效果。
Sep, 2021
本文提出了一种新的基于常识的共情反应生成方法,除了识别用户情感外,还考虑了对用户情况的认知理解,实验结果表明本方法在自动和人工评估中均优于基线模型,能够生成更具信息和共情性的响应。
通过利用外部知识,包括常识和情感词汇知识,显式理解和表达情感,以生成共情响应,并通过情感交叉注意力机制从情感上理解和表达情感交互。
Sep, 2020
本文研究了将常识知识有效地集成到对话模型中的影响,并在基于检索的情境下提出了 Tri-LSTM 模型,将消息和常识联合起来选择适当的响应,实验证明知识增强模型比无知识模型在自动评估中表现更好。
Sep, 2017
为解决对话中情感的动态性和共情生成中的常识知识冲突问题,我们提出了一种串行编码和情感 - 知识相互作用(SEEK)方法,使用细粒度编码策略和知情与情感的相互作用建模,从而在共情对话生成方面表现出色。
Oct, 2022
通过从语言模型中产生知识并将其作为额外输入用于回答问题,我们开发了一种生成知识提示方法,它不需要针对知识集成的任务特定监督,也不需要访问结构化的知识库,并在四个常识推理任务中提高了大规模、最先进模型的性能。这凸显了大规模语言模型作为提高常识推理的外部知识的灵活来源。
Oct, 2021
研究采用大型语言模型替代 fine-tuning 来实现可控制的混合对话,并在 PersuasionForGood 和 Emotional Support Conversations 两个任务中通过人类评估和自动度量标准显示了改进。
本文针对故事生成中存在的重复、逻辑冲突和长距离一致性缺乏等问题,提出了一种基于知识增强预训练模型的通用故事生成方法。通过利用外部知识库中的常识知识来生成合理的故事,并采用多任务学习的方法来捕捉合理故事中句子之间的因果关系和时间依赖关系,从而在逻辑和整体一致性方面比其他最先进的模型有更好的表现。
Jan, 2020