PAQA:面向主动开放式检索的问题回答
提出了一种基于澄清问题的开放领域问答方法,首先使用 InstructGPT 和手动修订生成澄清问题的数据集 CAMBIGNQ,然后设计了一系列任务和合适的评价指标,在模糊性检测和基于澄清问题的问答方面取得了 61.3 F1 和 40.5 F1 的成果。
May, 2023
本研究介绍了一项新的开放领域问题解答任务 AmbigQA,其中包括找到每个可能的答案,然后为每个答案重写问题以解决歧义问题。我们还构建了 AmbigNQ 数据集,该数据集涵盖了来自 NQ-open 的 14,042 个问题,并发现 NQ-open 中超过一半的问题存在不同源头的歧义,并且我们提出了一种强大的基础模型,表明我们的新任务和数据将支持未来的研究工作。
Apr, 2020
介绍可能会被问到的问题(PAQ)等资源,提出一种新的 QA-pair 检索程序(RePAQ),为 CBQA 模型的训练提供了更多的知识库,并表明利用 Retrieval 机制的效果要优于直接从文本语料库中提取答案的方法,但需要权衡速度和准确性。
Feb, 2021
通过利用来自维基百科的明确问题数据库,我们提出了一个新的用于回答含糊问题的最新方法,在含糊问题的多个答案的总结中,我们的方法在回收率指标上提高了 15%(相对改进),在评估从预测输出中消除模糊问题的指标上提高了 10%。从生成的问题数据库检索还可以在多样的篇章检索中取得巨大的改进。
Aug, 2023
在这篇论文中,我们展示了能够为低资源语言开发有效且成本低廉的 OpenQA 系统的关键要素,其中包括利用机器翻译标注数据的弱监督和目标语言中相关的非结构化知识源。我们以土耳其语为挑战性案例研究,通过 ColBERT-QA 对 SQuAD-TR 进行了调整来构建我们的 OpenQA 系统。在使用两个跨足两年的维基百科转储版本的基础上,我们与基于 BM25 和 DPR 的 QA 读取器模型相比,在 EM 得分上获得了 9-34% 的性能提升以及 F1 得分上的 13-33% 的性能提升。我们希望我们的结果可以鼓励研究人员在其他低资源语言中构建 OpenQA 系统,并将所有的代码、模型和数据集公开提供。
Jan, 2024
本文对 2016 至 2021 年所发表关于问答系统的各项研究进行了回顾与总结,发现多轮问答系统已取代了单轮问答系统的先前主导地位,这表明了其在提高人工智能对话系统方面的重要性,同时也描绘了开展更多进一步和有利的研究的未来研究方向。
Jun, 2021
本论文介绍了一种分解对话问答任务的方法,包括问题重写和问题回答。通过引入一种新的对话 QA 架构和一个问题重写模型,证明了这种方法在 TREC CAsT 2019 建议检索数据集上已经达到了最新的技术水平,并在 QuAC 数据集中优于我们的基准模型。这个问题重写模型在两个数据集上的性能接近于人类的表现,而对话 QA 任务的终端性能差距主要是由于回答中的错误导致的。
Apr, 2020
本文介绍了在开放领域信息寻求对话系统中提出澄清问题的任务,并提出了一个离线评估方法和一个命名为 Qulac 的数据集,以便评估模型的性能,其实验表明优质问题有助于提高信息检索的效率,并提出一个由三个部分构成的检索框架,该模型显著优于竞争基线。
Jul, 2019
我们提出了一个简单而有效的方法来处理对澄清问题的回答,并介绍了一个对用户提出的问题和回答进行有用性评估的分类器,将有用的问题或回答附加到对话历史中,并传递给基于 transformer 的查询重写模块,实验证明与非混合主动的基线相比有显著改进。此外,所提出的方法缓解了使用不实用的问题和回答时性能下降的问题。
Jan, 2024
本文探讨了自动收集弱标签数据集的方法,并展示了它们对神经检索模型的性能的影响。通过本文,我们发布了 MAUPQA 数据集,其中包含接近 400,000 个波兰语问题 - 段落对,以及 HerBERT-QA 神经检索器。
May, 2023