- COLING可解释的多跳问题生成:一种无需中间问题标签的端到端方法
我们引入了一个逐步重写的端到端问题重写模型,通过逐步重写来增加问题的复杂性。实验结果证明我们的模型在生成复杂问题方面的有效性,并且生成的多跳问题对于训练问题回答模型也是有益的。
- ACL关于问题重述系统对不同难度问题的鲁棒性研究
该研究论文研究了对话式问答(CQA)中问题重写(QR)的鲁棒性,通过自动分类问题并度量其重写难度,进行人工评估,最终提出一种学习框架以增强 QR 系统对不同难度问题的鲁棒性,并在实验中验证了该框架的性能优于基准模型。
- QURG: 基于问题重写的上下文引导文本至 SQL 语义解析
QURG 提出了一种新型的问题重写引导方法,通过训练问题重写模型以便更好地理解当前问题和问题上下文间的关联,并设计了双流矩阵编码器来联合建模,从而最终实现了优化基于上下文的自然语言问题到 SQL 查询的性能表现。
- 保持问题对话式:使用结构化表示解决对话问答中的依赖性
本文提出了一种名为 CONVSR 的新型框架,用于捕获并生成中间表示作为会话提示,以增强 QA 模型的能力以更好地解释不完整的问题,并讨论了如何利用该任务的优势设计更具吸引力和雄辩的对话代理程序。
- CoQAR: CoQA 上的问题重写
提出使用问句重写作为预处理步骤来弥补人类在对话中提出的带上下文依赖但自动化系统无法理解的问题,使用人工标注的 CoQAR 语料库进行了实验,证明了该方法对于提高对话问答模型性能的有效性。
- ACL问句改写对话式问答有帮助吗?
本文探讨了问题改写在对话问答中的有效性,通过使用强化学习方法来集成 QR 和 CQA 任务,但是发现该方法与端到端基线效果相当,并分析了失败的原因并描述了在 CQA 中利用 QR 的难度。
- 从改写到记忆:面向对话问答模型的共同基础
作者介绍了一种名为 Common Ground 的新方法,用于解决问答模型在获取对话信息时的困难,并表明此方法相较于已有方法具有更高的效率和人类风格,从而提升了开放域对话问答的表现。
- 开放域问答系统能回答视觉知识问题吗?
本研究提出了一种基于文本的视觉问题解答系统,此系统无需额外外部知识,仅利用 BERT 模型进行重新提问,表现优异,且仅使用训练数据的 10%。
- 评估重述问题对于对话式问答的重要性
本文研究了基于神经语言模型、以及不同的信息提取和答案生成方式,在特定的搜索导向的对话人工智能任务中,如何通过代表问题上下文的不同重写模块,从背景知识库中提取信息,生成知识回答,最终取得了最佳表现,并在分析中强调了对话上下文的重要性。
- ACL通过问题重述使开放域问答变为对话
介绍一个新数据集,用于在对话上下文中重新提问问题,提供了对问题改写、网页检索和阅读理解的指标。通过组合先进的问题重写模型和开放域 QA 的竞争模型,该方法显示出了 QReCC 数据集的效力,并证明了该设置的困难性和大量改进的空间。
- WSDM面向会话问答的问题重写
本论文介绍了一种分解对话问答任务的方法,包括问题重写和问题回答。通过引入一种新的对话 QA 架构和一个问题重写模型,证明了这种方法在 TREC CAsT 2019 建议检索数据集上已经达到了最新的技术水平,并在 QuAC 数据集中优于我们的