本文针对神经网络模型生成内容不足的对话应用展开了研究,提出了一种全新的、基于数据和知识驱动的神经对话模型,该模型通过同时考虑历史对话和外部 “事实” 来生成更有用的回应,实验证明该方法在开放领域中具有广泛应用前景,相较于基线模型的 Seq2Seq 方法,能够显著提高输出的信息量。
Feb, 2017
通过从 Wikipedia 中检索知识来生成自然回复,我们的最佳对话模型在 Open-Domain 话题上进行了知识交流,同时我们的新基准允许在这一重要研究方向上进行进一步的改进。
Nov, 2018
本研究提出了一种基于上下文感知的知识预选择模型,使用动态双向注意力机制来提高知识的选择,进而生成更具信息量和流畅的自然回复。实验结果表明,该模型在准确度和流畅度上都优于当前最先进的方法。
Jun, 2019
通过序列到序列框架,一种简单的端到端的对话模型方法被提出,在特定的领域和大规模通用领域的数据集上表现出很好的对话效果,并可用于执行常识推理任务。
Jun, 2015
对多轮对话数据生成进行了系统综述,包括开放领域对话系统、任务导向对话系统和信息搜索对话系统,提出了一个概括对话数据生成系统主要原则的通用框架,并探讨了合成对话数据的评估指标和方法、当前领域的挑战以及未来研究的潜在方向。
May, 2024
本文介绍了一种通过模仿社交媒体上的非正式互动改善系统的原始会话能力的方法,并利用 Reddit 上的过滤评论数据作为 seq2seq 生成器的额外上下文,以提高开放域对话系统的能力。
Jun, 2022
本研究探讨了如何利用预训练语言模型生成会话摘要,并通过将生成的会话与真实数据集相结合来提高自动生成的会话总结的准确性。
Jun, 2021
本文探究了大规模预训练在知识引导对话中的应用。通过各种方法获取大型模型的知识,利用后验重加权和嘈杂训练策略进一步挖掘其价值,并在两个基准数据上进行了实验,结果表明其优于现有的最新方法。
Nov, 2022
通过生成式对话网络自动生成对话数据训练社交对话代理,通过自动生成会话,可以在可用的语言和知识数据的广度中受益;对于不带知识的对话,GCN 可以从种子数据泛化,产生新颖但不太相关但更吸引人的对话,对于知识基础的对话,则可以产生更注重知识、流畅和引人入胜的对话。
Jul, 2022
本文探讨通过利用已有的故事数据集,将背景故事加入人物角色,通过基于梯度的重写技术,使生成的响应流畅、差异最小,并与原始人物角色保持一致,实现对话模型人性化和丰富性的提高。