CoQAR: CoQA 上的问题重写
本论文介绍了一种分解对话问答任务的方法,包括问题重写和问题回答。通过引入一种新的对话 QA 架构和一个问题重写模型,证明了这种方法在 TREC CAsT 2019 建议检索数据集上已经达到了最新的技术水平,并在 QuAC 数据集中优于我们的基准模型。这个问题重写模型在两个数据集上的性能接近于人类的表现,而对话 QA 任务的终端性能差距主要是由于回答中的错误导致的。
Apr, 2020
使用强化学习训练重写模型,以 QA 反馈作为监督信号,能够有效提高抽取式和检索式问答中的性能,并且人工评估表明该方法能够生成更准确和详细的重写,优于人工注释。
Oct, 2022
本文探讨了问题改写在对话问答中的有效性,通过使用强化学习方法来集成 QR 和 CQA 任务,但是发现该方法与端到端基线效果相当,并分析了失败的原因并描述了在 CQA 中利用 QR 的难度。
Apr, 2022
该研究论文研究了对话式问答(CQA)中问题重写(QR)的鲁棒性,通过自动分类问题并度量其重写难度,进行人工评估,最终提出一种学习框架以增强 QR 系统对不同难度问题的鲁棒性,并在实验中验证了该框架的性能优于基准模型。
Nov, 2023
介绍一个新数据集,用于在对话上下文中重新提问问题,提供了对问题改写、网页检索和阅读理解的指标。通过组合先进的问题重写模型和开放域 QA 的竞争模型,该方法显示出了 QReCC 数据集的效力,并证明了该设置的困难性和大量改进的空间。
Oct, 2020
本文研究了基于神经语言模型、以及不同的信息提取和答案生成方式,在特定的搜索导向的对话人工智能任务中,如何通过代表问题上下文的不同重写模块,从背景知识库中提取信息,生成知识回答,最终取得了最佳表现,并在分析中强调了对话上下文的重要性。
Jan, 2022
本文针对 ARCChallenge 数据集的超越式难题提出了一种系统,该系统利用查询重写、背景知识和文本属于性,成功地提高了端到端 QA 任务的性能,并超越了几个强基线。
Sep, 2018
CONQRR 使用强化学习训练了一个新的查询重写模型,使得原本用于非对话查询的信息检索引擎能够在对话的语境下得到有效的应用,并在最近的 CQA 数据集中实现了最新的成果,同时对于领域外的对话和零查询重写监督具有可靠性。
Dec, 2021
AdaQR 是一个框架,用于训练具有有限重写注释和完全没有段落标签的查询重写模型,通过从种子数据集中只使用~10% 的重写注释进行微调精简大型语言模型,然后利用这些模型为每个查询实例生成重写候选,并通过条件概率对这些候选进行检索者权重评估,这被用作优化重写器的奖励,进一步使用直接偏好优化 (DPO) 的过程进行优化,实验结果表明 AdaQR 不仅增强了具有有限注释要求的领域内重写器的功能,而且有效地适应了领域外数据集。
Jun, 2024
本篇论文提出了一种建立对话式问答系统的新数据集 CoQA,包含来自七个不同领域的 8,000 个对话中 127,000 个具有答案的问题,分析表明,这些问题比现有的阅读理解数据集具有更多挑战性和难点,需要针对性的解决方案,评测结果显示目前最好的系统 F1 得分为 65.4%,仍然有大量的改进空间。
Aug, 2018