面向知识驱动对话的顺序潜知识选择
本文提出一种名为 Sequential Global Topic Attention(SGTA)的新方法,将所有对话中主题转换的全局信息柔和地利用起来,以更好地建模以及引导当前对话的回复生成,采用与混合内核函数建模的多变量偏态正态分布的潜在空间预测主题,并利用主题感知的先验 - 后验方法进行次要预测主题的选择,实验证明 SGTA 方法在预测和生成任务上优于竞争基准。
Oct, 2022
本文提出了一种生成式方法,名为 GenKS,用于在基于对话历史的语境下选择适当的知识片段,该方法通过序列到序列模型生成标识符来选择片段,捕捉片段之间的内部知识交互,并通过超链接机制显式地建模对话 - 知识交互,同时在三个基准数据集上进行实验并证明 GenKS 在知识选择和响应生成方面取得了最佳结果。
Apr, 2023
本论文基于当代最先进的语言模型构建了 Graph-Knowledge Selector(GKS)来解决对话系统中知识选择的问题,并考虑了知识之间的联系,明显优于 Ninth Dialog System Technology Challenges(DSTC9)中提出的几种最新技术模型。
Dec, 2021
本研究提出一种基于变分方法的分段生成模型,使用两个序列潜状态变量分别表示响应的结构和内容风格,以探索响应中的隐含知识表达模式,并在两个基准测试中获得较好的评估结果。
Apr, 2022
我们使用预训练的语言模型来研究基于知识的对话生成,通过知识选择模块和无监督方法来优化知识选择和响应生成,实验结果表明,我们的模型在自动评估和人类判断方面都显著优于现有方法。
Oct, 2020
GATE 是一种生成器无关的知识选择方法,它通过在不同的知识结构和可变的知识需求中选择与上下文相关的知识来为后续的响应生成模型准备知识,实验证明 GATE 的优越性,表明生成前的知识选择是一种轻量且有效的方式,可以促进 LLMs 生成更具信息量的响应。
Oct, 2023
本文提出了一种基于外部编码的对话状态跟踪方法,通过查询相关知识以基于对话上下文信息来预测对话状态,证明在一些场景下,我们的方法比基线表现更优秀,尤其是在少样本学习情况下。
Oct, 2022
本文提出了一种关系转移感知的知识引导对话生成模型(RT-KGD),该模型将对话级关系转移规律与轮级实体语义信息相结合,考虑了多轮上下文中的知识关系及 KG 中的关系转移规律。实验表明,该模型在自动和手动评估上均优于现有的基线模型。
Jul, 2022
本研究通过学习 MMD 数据集并实现基于知识库的多模态对话模型解决了多模态基于搜索的对话系统中的新挑战,该模型将编码的知识库表示附加到解码器输入中,从而在文本相似性测量方面获得了高于强基线的表现,其中三个 BLEU 点仅由于使用了来自知识库的附加信息。
Oct, 2018