SG-CQG 是一个用于回答无答案设置下如何生成与要求自然的对话的方法,它通过语义图和具有明确控制信号的分类器来解决 what-to-ask 和 how-to-ask 的挑战。同时,提出了新的评估指标 Conv-Distinct,并在实验中取得了最先进的表现。
May, 2023
人们对问题的追问是出于好奇心驱动,这反映出创造性的人类认知过程。我们引入了现实世界信息寻求型追问问题生成(FQG)任务,旨在生成追问问题,以深入理解初始问题和答案。通过收集 Reddit 论坛上提供对开放式问题的通俗解释的超过 3K 个真实世界(初始问题,答案,追问问题)元组,我们构建了 FOLLOWUPQG 数据集。与现有数据集不同,FOLLOWUPQG 中的问题使用了更多多样化的语用策略来寻求信息,并显示了更高级的认知技能(如应用和关联)。我们评估了当前的问题生成模型在生成追问问题方面的效果,探索如何基于分步演示生成特定类型的追问问题。我们的结果验证了 FOLLOWUPQG 作为一个富有挑战性的基准,因为模型生成的问题虽然足够,但在信息量和复杂性方面远离了人类提出的问题。
Sep, 2023
本文提出了一种名为 GapQA 的新方法,该方法可在具有部分信息的情况下,识别知识缺口并填补它,提高了多跳文本问答的准确性,并在 OpenBookQA 数据集上进行了测试。
Sep, 2019
提出了一个模型,用于生成在给定语境中识别有用的缺失信息的澄清问题,该模型通过学习区分全局和本地视图之间的差异,并训练模型识别有用信息并生成问题,实验证明该模型的表现优于基线模型。
Apr, 2021
本文提出一个 QAG 框架,通过生成不同的疑问句和隐式 / 显式答案,增强 QA 类型的多样性,该框架包括 QFS 基于答案生成器、迭代 QA 生成器和相关性感知排序器。
Jun, 2023
本文重点探索了如何以教育为目的改进自动化问题生成技术,通过了解教师如何构建问题并确认增强 NLP 模型的触点来提高其可用性。作者观察到教师在使用 NLP 系统来支持问题设计方面表现出极大的兴趣,但实践中仍未被广泛采用。因此,作者呼吁建立强调教师控制和可解释性的有效人 - NLP 协作的 QG 系统,提供过程支持,使用模块化设计,处理各种输入来源。
Apr, 2022
提出使用 GPT-3 等大型语言模型来进行问题生成并采用多个(伪)参考答案进行评估,以更全面地评估 QG 技术潜力的方法。实验结果表明,使用多个参考答案进行 QG 评估比使用单个参考答案更为有效,并且更能与人类评估相符合。
本研究提出一种基于知识驱动的 follow-up question 生成框架,结合知识选择模块和生成模型来提高开放域 follow-up question 的质量。实验证明,与 GPT 基线相比,该框架在客观评估和人类实验评估中都具有更好的性能。
May, 2022
本文提出了 “连续问题生成” 任务,使用动态多任务框架生成逻辑相关的问题 - 答案对,全面考虑准确性、覆盖范围和信息量,并使用求精法(reranking)提高提问质量,提升 NLP 相关任务的效果。
Nov, 2022
本论文针对问题回答和问题生成两个任务之间内在联系,提出一个联合训练框架,使用序列到序列模型和循环神经网络模型,通过概率相关性指导训练过程来提高两个任务的性能,实验证明该框架能够显著提高问题回答和问题生成两个任务的表现。
Jun, 2017