关键词knowledge-grounded dialogue generation
搜索结果 - 8
- COLING减轻知识驱动对话生成中的幻觉的因果观察
本文通过反事实推理方法分析了幻觉问题背后的因果关系,提出了一种可能的解决方案,即通过利用对话 - 知识交互来减轻幻觉,在不影响对话性能的同时适应不同的生成模型。希望我们的努力能够支持并呼吁更多重视开发轻量级技术以实现强大可靠的对话系统。
- ACL研究基于知识的对话中的内容规划以导航权衡
通过分析规划内容对于满足特定性和归属性这两个目标之间的权衡,我们在知识驱动的对话生成中设计了一个名为 PLEDGE 的框架,并发现规划机制会对自动评估产生积极影响,但在人类判断方面表现较差,需要进一步研究与校准自动评估指标的关系。
- EMNLP多层自适应对比学习在对话生成中的知识内化
通过使用外部知识补充上下文,知识感知对话生成旨在减轻文本退化问题,然而,模型经常无法以人类方式将这些信息内化为响应,而仅简单地将所提供的知识片段插入到通用响应中,导致生成的响应往往乏味、不连贯且缺乏互动性,这意味着退化问题仍未解决。在这项工 - Hexa: 知识驱动的自我改进对话系统
我们提出了一种自我改进的方法,通过引导提示和修改的损失函数来增强适当的自动生成响应的多样性,从而成功利用自我改进机制在生成中间和最终响应上并改善了知识驱动对话生成任务的性能。
- 知识图谱增强的语言模型用于基于知识的对话生成
提出了 SURGE 框架,用于生成上下文相关且基于知识图谱的对话,通过从知识图谱检索相关子图,并对其条件下的单词嵌入进行干扰以保持事实一致性并使用对比学习确保所生成的文本与检索到的子图具有高相似度,通过在 OpendialKG 和 KOMO - RT-KGD: 关系转换感知的知识驱动对话生成
本文提出了一种关系转移感知的知识引导对话生成模型(RT-KGD),该模型将对话级关系转移规律与轮级实体语义信息相结合,考虑了多轮上下文中的知识关系及 KG 中的关系转移规律。实验表明,该模型在自动和手动评估上均优于现有的基线模型。
- 预训练语言模型是否可应用于基础开放领域对话?
通过使用预训练语言模型,我们尝试研究知识相关对话生成的相关性,发现在使用仅包含少量知识对话的细调过程中,预训练语言模型可以超越需要外部知识的最先进的模型,在自动评估和人类判断方面表现更好。
- EMNLP基于预训练语言模型的知识驱动对话生成
我们使用预训练的语言模型来研究基于知识的对话生成,通过知识选择模块和无监督方法来优化知识选择和响应生成,实验结果表明,我们的模型在自动评估和人类判断方面都显著优于现有方法。