问句改写对话式问答有帮助吗?
本论文介绍了一种分解对话问答任务的方法,包括问题重写和问题回答。通过引入一种新的对话 QA 架构和一个问题重写模型,证明了这种方法在 TREC CAsT 2019 建议检索数据集上已经达到了最新的技术水平,并在 QuAC 数据集中优于我们的基准模型。这个问题重写模型在两个数据集上的性能接近于人类的表现,而对话 QA 任务的终端性能差距主要是由于回答中的错误导致的。
Apr, 2020
使用强化学习训练重写模型,以 QA 反馈作为监督信号,能够有效提高抽取式和检索式问答中的性能,并且人工评估表明该方法能够生成更准确和详细的重写,优于人工注释。
Oct, 2022
该研究论文研究了对话式问答(CQA)中问题重写(QR)的鲁棒性,通过自动分类问题并度量其重写难度,进行人工评估,最终提出一种学习框架以增强 QR 系统对不同难度问题的鲁棒性,并在实验中验证了该框架的性能优于基准模型。
Nov, 2023
CONQRR 使用强化学习训练了一个新的查询重写模型,使得原本用于非对话查询的信息检索引擎能够在对话的语境下得到有效的应用,并在最近的 CQA 数据集中实现了最新的成果,同时对于领域外的对话和零查询重写监督具有可靠性。
Dec, 2021
提出使用问句重写作为预处理步骤来弥补人类在对话中提出的带上下文依赖但自动化系统无法理解的问题,使用人工标注的 CoQAR 语料库进行了实验,证明了该方法对于提高对话问答模型性能的有效性。
Jul, 2022
本文研究了基于神经语言模型、以及不同的信息提取和答案生成方式,在特定的搜索导向的对话人工智能任务中,如何通过代表问题上下文的不同重写模块,从背景知识库中提取信息,生成知识回答,最终取得了最佳表现,并在分析中强调了对话上下文的重要性。
Jan, 2022
本文提出了一种名为 CONVSR 的新型框架,用于捕获并生成中间表示作为会话提示,以增强 QA 模型的能力以更好地解释不完整的问题,并讨论了如何利用该任务的优势设计更具吸引力和雄辩的对话代理程序。
Apr, 2023
AdaQR 是一个框架,用于训练具有有限重写注释和完全没有段落标签的查询重写模型,通过从种子数据集中只使用~10% 的重写注释进行微调精简大型语言模型,然后利用这些模型为每个查询实例生成重写候选,并通过条件概率对这些候选进行检索者权重评估,这被用作优化重写器的奖励,进一步使用直接偏好优化 (DPO) 的过程进行优化,实验结果表明 AdaQR 不仅增强了具有有限注释要求的领域内重写器的功能,而且有效地适应了领域外数据集。
Jun, 2024
介绍一个新数据集,用于在对话上下文中重新提问问题,提供了对问题改写、网页检索和阅读理解的指标。通过组合先进的问题重写模型和开放域 QA 的竞争模型,该方法显示出了 QReCC 数据集的效力,并证明了该设置的困难性和大量改进的空间。
Oct, 2020
本文介绍了一种称为 Active Question Answering 的基于强化学习的问题回答方法,通过探究黑盒 QA 系统并最大化回答质量来重新构筑问题,该方法在 Jeopardy! 等复杂问题数据集上表现出比其他基准模型更好的性能,并发现了与信息检索技术类似的策略。
May, 2017