通过顺序后验推理实现多样而忠实的基于知识的对话生成
论文提出了一种名为 `SKT` 的序列潜变量模型,该模型可提高多轮对话的知识选择准确性,并相应地改进了话语生成的绩效;实验结果表明,该模型在大规模对话评估中取得了最先进的表现。
Feb, 2020
本文介绍了一种基于后处理的知识注入技术,该技术从外部源中提取相关知识,并将其合并到对话响应中,实验表明使用这种方法可以在目标导向和基于知识的对话环境中实现更具吸引力和更丰富的对话响应。
Mar, 2022
本研究提出了一种基于预测 - 生成 - 转移的神经对话模型,并使用后验生成对抗网络的前向和反向判别器来进一步建模。 实验结果表明,这种方法有效地提高了生成响应信息量和连贯性,并证实了考虑两种评估角度的优势。
Mar, 2020
开发值得信赖的对话式信息搜索系统依赖于能够基于相关知识文本生成忠实准确响应的对话模型。我们通过引入一种新的奖励函数利用强化学习算法来克服数据偏见和冗余信息的两个主要挑战,并在两个对话式信息搜索数据集上的实证实验中展示了我们的方法可以与其他强大的监督学习基准相竞争。
Nov, 2023
我们使用预训练的语言模型来研究基于知识的对话生成,通过知识选择模块和无监督方法来优化知识选择和响应生成,实验结果表明,我们的模型在自动评估和人类判断方面都显著优于现有方法。
Oct, 2020
该论文尝试采用一个采用联合关注机制、根据对话上下文和额外知识信息的变分生成模型,生成多样和信息丰富的回复,解决了现有模型难以生成具有信息量的回复的问题。
Mar, 2019
本研究提出一种基于变分方法的分段生成模型,使用两个序列潜状态变量分别表示响应的结构和内容风格,以探索响应中的隐含知识表达模式,并在两个基准测试中获得较好的评估结果。
Apr, 2022
本文提出一种名为 Sequential Global Topic Attention(SGTA)的新方法,将所有对话中主题转换的全局信息柔和地利用起来,以更好地建模以及引导当前对话的回复生成,采用与混合内核函数建模的多变量偏态正态分布的潜在空间预测主题,并利用主题感知的先验 - 后验方法进行次要预测主题的选择,实验证明 SGTA 方法在预测和生成任务上优于竞争基准。
Oct, 2022
本文提出了一个基于生成对抗网络的两步框架,通过自编码学习语句的有意义表征,并学习将输入映射到响应表征上,最终将其解码为响应句子,经定量和定性评估证明相对于现有的最先进方法,该模型生成的响应更具流畅性、相关性和多样性。
Nov, 2019