关键词驱动的多样化和具体化澄清问题生成
研究提出了一种名为 ClinQG4QA 的框架,该框架借助问答生成来合成新的临床背景下的 QA 对,提高 QA 模型的性能,同时还引入了 seq2seq-based 问题短语预测模块来扩大生成的多样性。该方法在实验中表现出了显著的精度提升(最高达 8%),而 QPP 模块对此有着重要作用。
Oct, 2020
我们提出了一种新的多样性评估度量,用于评估每个实例的前 K 个生成问题的多样性,并确保它们与事实相关。同时,我们引入了一个双模型框架,通过两种选择策略将外部自然问题与生成模型相结合,以生成多样化的问题。实验结果表明,我们的方法生成了高度多样化的问题,并改善了问题回答任务的性能。
Sep, 2023
本文提出了 “连续问题生成” 任务,使用动态多任务框架生成逻辑相关的问题 - 答案对,全面考虑准确性、覆盖范围和信息量,并使用求精法(reranking)提高提问质量,提升 NLP 相关任务的效果。
Nov, 2022
我们引入一个称为 “实体中心问题生成”(ECQG)的新任务,旨在从实体的角度生成问题。为了解决 ECQG,我们提出了一个连贯的基于 PLM 的框架 GenCONE,其中包含两个新颖的模块:内容聚焦和问题验证。我们还构建了一个大规模的开放领域数据集,以支持这个任务。我们的大量实验证明,GenCONE 在生成高质量问题方面显著且一致地优于各种基线方法,而两个模块在此过程中是有效且互补的。
Oct, 2023
通过收集并提出一个名为 CodeClarQA 的新数据集,研究人员证实使用澄清问题可以有效解决自然语言描述中模糊不清的部分,从而提高生成的可执行程序代码的准确性。
Dec, 2022
SG-CQG 是一个用于回答无答案设置下如何生成与要求自然的对话的方法,它通过语义图和具有明确控制信号的分类器来解决 what-to-ask 和 how-to-ask 的挑战。同时,提出了新的评估指标 Conv-Distinct,并在实验中取得了最先进的表现。
May, 2023
该研究使用多问题生成模型 (mQG) 从给定的上下文生成多样且可回答的问题,并通过 SQuAD2.0 fine-tuned 模型验证问题的可回答性,该模型在 FairytaleQA 数据集上训练和评估,并在 TellMeWhy 和 SQuAD1.1 数据集上进行了零 - shot 适应,显示出与强基线方法相比有希望的结果。
Oct, 2023
提出使用 GPT-3 等大型语言模型来进行问题生成并采用多个(伪)参考答案进行评估,以更全面地评估 QG 技术潜力的方法。实验结果表明,使用多个参考答案进行 QG 评估比使用单个参考答案更为有效,并且更能与人类评估相符合。
May, 2023
提出了一个模型,用于生成在给定语境中识别有用的缺失信息的澄清问题,该模型通过学习区分全局和本地视图之间的差异,并训练模型识别有用信息并生成问题,实验证明该模型的表现优于基线模型。
Apr, 2021
该研究提出了一种基于知识图谱的问答生成系统(KBQG),通过识别结构化知识图中最相关的关系,以更细的粒度建模用户偏好,进而生成个性化的解决方案,从而实现更准确的推荐。在真实数据集的实验中,该系统的表现优于现有的对话型推荐系统。
May, 2021