关于问题重述系统对不同难度问题的鲁棒性研究
本文探讨了问题改写在对话问答中的有效性,通过使用强化学习方法来集成 QR 和 CQA 任务,但是发现该方法与端到端基线效果相当,并分析了失败的原因并描述了在 CQA 中利用 QR 的难度。
Apr, 2022
本论文介绍了一种分解对话问答任务的方法,包括问题重写和问题回答。通过引入一种新的对话 QA 架构和一个问题重写模型,证明了这种方法在 TREC CAsT 2019 建议检索数据集上已经达到了最新的技术水平,并在 QuAC 数据集中优于我们的基准模型。这个问题重写模型在两个数据集上的性能接近于人类的表现,而对话 QA 任务的终端性能差距主要是由于回答中的错误导致的。
Apr, 2020
使用强化学习训练重写模型,以 QA 反馈作为监督信号,能够有效提高抽取式和检索式问答中的性能,并且人工评估表明该方法能够生成更准确和详细的重写,优于人工注释。
Oct, 2022
提出使用问句重写作为预处理步骤来弥补人类在对话中提出的带上下文依赖但自动化系统无法理解的问题,使用人工标注的 CoQAR 语料库进行了实验,证明了该方法对于提高对话问答模型性能的有效性。
Jul, 2022
AdaQR 是一个框架,用于训练具有有限重写注释和完全没有段落标签的查询重写模型,通过从种子数据集中只使用~10% 的重写注释进行微调精简大型语言模型,然后利用这些模型为每个查询实例生成重写候选,并通过条件概率对这些候选进行检索者权重评估,这被用作优化重写器的奖励,进一步使用直接偏好优化 (DPO) 的过程进行优化,实验结果表明 AdaQR 不仅增强了具有有限注释要求的领域内重写器的功能,而且有效地适应了领域外数据集。
Jun, 2024
本文研究了基于神经语言模型、以及不同的信息提取和答案生成方式,在特定的搜索导向的对话人工智能任务中,如何通过代表问题上下文的不同重写模块,从背景知识库中提取信息,生成知识回答,最终取得了最佳表现,并在分析中强调了对话上下文的重要性。
Jan, 2022
CONQRR 使用强化学习训练了一个新的查询重写模型,使得原本用于非对话查询的信息检索引擎能够在对话的语境下得到有效的应用,并在最近的 CQA 数据集中实现了最新的成果,同时对于领域外的对话和零查询重写监督具有可靠性。
Dec, 2021
本文针对 ARCChallenge 数据集的超越式难题提出了一种系统,该系统利用查询重写、背景知识和文本属于性,成功地提高了端到端 QA 任务的性能,并超越了几个强基线。
Sep, 2018
本文研究了 “可控难度问题生成” 任务,重新定义了问题难度度量,并通过提出一个逐步重写的框架,根据抽取的推理链实现了逐渐增加问题难度的效果。我们还构建了一个自动数据集来测试我们的方法性能。
May, 2021
介绍一个新数据集,用于在对话上下文中重新提问问题,提供了对问题改写、网页检索和阅读理解的指标。通过组合先进的问题重写模型和开放域 QA 的竞争模型,该方法显示出了 QReCC 数据集的效力,并证明了该设置的困难性和大量改进的空间。
Oct, 2020