通过无监督联合建模的查询增强知识密集型对话
该研究介绍了 QAConv,这是一个新的基于对话的问题回答(QA)数据集,通过长、复杂、异步和涉及强领域知识的信息型对话提供了一个新的训练和评估测试平台来促进 QA 在对话研究中的应用。
May, 2021
本文提出一种名为 ORConvQA 的交互式检索问答方法,通过基于 Transformers 的检索器、排序器和阅读器,实现在大规模语料库中检索答案并提取答案以构建功能性的交互式检索系统,并创建了 OR-QuAC 数据集以促进 ORConvQA 的研究。实验证明可学习的检索器对 ORConvQA 至关重要,在所有系统组件中启用历史建模可以显著提高系统性能,排序器组件提供了正则化效果并有助于模型性能的提升。
May, 2020
本文介绍了一种基于后处理的知识注入技术,该技术从外部源中提取相关知识,并将其合并到对话响应中,实验表明使用这种方法可以在目标导向和基于知识的对话环境中实现更具吸引力和更丰富的对话响应。
Mar, 2022
本文探究了大规模预训练在知识引导对话中的应用。通过各种方法获取大型模型的知识,利用后验重加权和嘈杂训练策略进一步挖掘其价值,并在两个基准数据上进行了实验,结果表明其优于现有的最新方法。
Nov, 2022
CONVEX 是一种无监督方法,可以通过维护对话上下文使用到目前为止看到的实体和谓词并自动推断缺失或模棱两可的问题部分,回答知识图上的不完整问题。
Oct, 2019
本文提出了一种基于常识的关键词导向神经对话模型,通过外部常识知识图谱实现关键词的转移和响应检索,实现对话更快地到达目标关键词,自我对话和人类评估表明我们的模型产生的响应关键词转移更平稳,比竞争基线更快地到达目标关键词。
Dec, 2020
为了实现对话系统的智能回答,文中设计了 DRKQG,该系统能够根据上下文信息,在没有提前准备知识库的情况下通过搜索引擎检索相关知识,并利用生成模块同时考虑上下文信息和检索知识生成回答,实验结果表明,该模块在自动评估和人工评估两方面取得了优异的成绩。
Jul, 2022
我们使用预训练的语言模型来研究基于知识的对话生成,通过知识选择模块和无监督方法来优化知识选择和响应生成,实验结果表明,我们的模型在自动评估和人类判断方面都显著优于现有方法。
Oct, 2020
本文总结了我们在第九届对话系统技术挑战赛(DSTC 9)第一轨中的工作,我们提出了一种基于层次分类和序列嵌入的检索和生成方法,以实现针对任务导向对话中利用非结构化文本信息的回答生成。
Feb, 2021
本研究提出了一种基于强化学习的模型 CONQUER,能从包含噪声的问题改写中学习如何回答自然语言问题,并在新提出的基准测试集 ConvRef 上展示了显著的性能提升。
May, 2021