提出一种多参考知识对话模型 (KGC),为了提高知识选择与生成的多样性,建立了一个多重参考的 KGC 数据集,并提出了一系列测量现有 KGC 模型效力的指标,使用基于跨度的变分模型并以改进的证据下界目标进行优化,以学习一对多泛化关系,该方法在机器和人工评估中均表现出良好的效力。
Oct, 2022
我们使用预训练的语言模型来研究基于知识的对话生成,通过知识选择模块和无监督方法来优化知识选择和响应生成,实验结果表明,我们的模型在自动评估和人类判断方面都显著优于现有方法。
Oct, 2020
本文提出了一种新技术,即自动将人工生成的参考文本扩展为一组备选参考文本的技术,该技术通过从知识源中获取可信的文本响应并对其进行调整,以使其在当前对话情境中更加符合逻辑,说明其方法可以显著提高与人工系统输出评级的自动指标的相关性。
Jun, 2021
本文提出了一个可以双重增强知识的生成式语言模型,用于为多模态任务导向式对话系统生成适当的文本响应。实验证明,该模型优于现有竞争对手。
Jul, 2022
本文旨在通过多参考评估减少开放领域对话系统的自动评估的缺点,研究结果表明,使用多参考评估可以提高几种自动指标与人类判断之间的相关性,无论是对于系统输出的质量还是多样性。
Jul, 2019
该研究提出了一种通过对话上下文进行关系推理来指导神经响应生成的方法,并在多方对话中展示出优于基线模型的效果。
Mar, 2024
本文提出了一种多层对比学习模型,用于模拟回复的细粒度质量。通过设计一个排名感知校准网络和关键词知识推断组件,提高响应的相关性和多样性。实验结果表明,与基线模型相比,该模型能够生成更相关且多样化的回复。
Sep, 2020
基于对话文本和外部知识的知识驱动对话系统面临实际应用中各种噪声干扰,为提高系统鲁棒性,我们提出了一种基于实体对比学习的框架,通过引入两种类型的干扰样本,使得模型在真实应用中能够生成具有信息性的回应,实验证明该方法在三个基准数据集上实现了最新的性能提升,并在噪声和少样本场景下胜过其他模型。
Jan, 2024
利用多个参考文献训练神经文本生成模型的方法对机器翻译和图像字幕生成任务产生了显著的改进,其中一种算法先将现有的参考文献压缩成格点再遍历来生成伪参考文献。
Aug, 2018
通过无监督潜在变量推理方法联合推断对话结构并预训练多方对话感知模型,实现了优于基线的最新技术结果。
May, 2023