评估重述问题对于对话式问答的重要性
本论文介绍了一种分解对话问答任务的方法,包括问题重写和问题回答。通过引入一种新的对话 QA 架构和一个问题重写模型,证明了这种方法在 TREC CAsT 2019 建议检索数据集上已经达到了最新的技术水平,并在 QuAC 数据集中优于我们的基准模型。这个问题重写模型在两个数据集上的性能接近于人类的表现,而对话 QA 任务的终端性能差距主要是由于回答中的错误导致的。
Apr, 2020
使用强化学习训练重写模型,以 QA 反馈作为监督信号,能够有效提高抽取式和检索式问答中的性能,并且人工评估表明该方法能够生成更准确和详细的重写,优于人工注释。
Oct, 2022
本文针对 ARCChallenge 数据集的超越式难题提出了一种系统,该系统利用查询重写、背景知识和文本属于性,成功地提高了端到端 QA 任务的性能,并超越了几个强基线。
Sep, 2018
本文提出了一种名为 CONVSR 的新型框架,用于捕获并生成中间表示作为会话提示,以增强 QA 模型的能力以更好地解释不完整的问题,并讨论了如何利用该任务的优势设计更具吸引力和雄辩的对话代理程序。
Apr, 2023
本文探讨了问题改写在对话问答中的有效性,通过使用强化学习方法来集成 QR 和 CQA 任务,但是发现该方法与端到端基线效果相当,并分析了失败的原因并描述了在 CQA 中利用 QR 的难度。
Apr, 2022
提出使用问句重写作为预处理步骤来弥补人类在对话中提出的带上下文依赖但自动化系统无法理解的问题,使用人工标注的 CoQAR 语料库进行了实验,证明了该方法对于提高对话问答模型性能的有效性。
Jul, 2022
介绍一个新数据集,用于在对话上下文中重新提问问题,提供了对问题改写、网页检索和阅读理解的指标。通过组合先进的问题重写模型和开放域 QA 的竞争模型,该方法显示出了 QReCC 数据集的效力,并证明了该设置的困难性和大量改进的空间。
Oct, 2020
通过利用大型语言模型作为查询重写器,并结合精心设计的指令,我们定义了四个重写的关键属性,提出了基于大型语言模型的查询重写方法。我们还介绍了 LLMs 的重写能力的提炼,并采用 “先重写后编辑” 的方法来处理初始查询重写。实验结果在 QReCC 数据集上表明,信息丰富的查询重写可以显著提高检索性能,特别是在检索器稀疏的情况下。
Oct, 2023
本文通过在神经网络框架中密切模拟问题,引入句法信息来帮助编码问题,并将不同类型的问题和共享信息建模为适应性任务,并提出适应性模型,从而在 Stanford 问题回答数据集(SQuAD)上证明这些方法可帮助获得比竞争基准更好的结果。
Mar, 2017
我们提出了一个简单而有效的方法来处理对澄清问题的回答,并介绍了一个对用户提出的问题和回答进行有用性评估的分类器,将有用的问题或回答附加到对话历史中,并传递给基于 transformer 的查询重写模块,实验证明与非混合主动的基线相比有显著改进。此外,所提出的方法缓解了使用不实用的问题和回答时性能下降的问题。
Jan, 2024