自动从长答案生成问题的研究
本文介绍了一种多语言的问答生成模型 AutoQG 及其 Python 包 lmqg,模型基于预训练的 encoder-decoder 语言模型,在 8 种语言上 fine-tune,并提供了一个 web 界面和易于使用的代码,方便从业者使用和定制。
May, 2023
本文旨在通过运用多阶段关注机制和序列到序列模型,在长文档的背景下产生更真实的问题,结果表明在 SQuAD、MS MARCO 和 NewsQA 三个问答数据集上,该方法优于现有方法。
Oct, 2019
本文旨在建立三种不同的 QAG 方法的基线,利用序列到序列语言模型进行微调。实验证明,一种端到端的 QAG 模型,它在训练和推理时计算量都很轻,通常是稳健的,并且胜过其他复杂的方法。然而,这取决于底层生成模型的不同。最后,我们的分析表明,仅基于生成的问答对微调的 QA 模型可以与人类标注数据上训练的监督 QA 模型具有竞争力。
May, 2023
本研究提出一种算法,利用数据集转换技术从长的 Trivia 问题转化为类似于日常人类交流的较短问题的方式,自动生成自然问题(NQ)数据集中的问题,同时使用神经分类器检测并去除不合法的问题,从而生成高质量的数据集,提高了 QA 表现,该算法在低资源环境下使用,扩展了 QA 系统的规模,同时保持了训练数据的质量。
Oct, 2022
通过使用大型语言模型的长期上下文能力,我们利用整本书籍创建合成阅读理解数据。我们提出了一个全面的自动化数据生成流程,包括问题生成、回答和模型评分。我们还发现将答案在模型之间进行相对比较,并使用 Bradley-Terry 模型进行排名,与绝对评分器相比,提供了一种更一致和区分性更强的评分机制。同时,我们展示了不同模型族的大型语言模型在评分方面的适度一致性。通过人工策划的 NarrativeQA 数据集验证了我们的方法,并且我们的评估器与人类判断达到了很好的一致性,甚至在数据集中发现了错误。使用我们的自动化评估方法,我们展示了与无上下文(参数化知识)和基于检索的方法相比,使用整本书籍作为上下文可以获得更优秀的阅读理解性能。
May, 2024
本文提出了一种名为 ACS-QG 的问题生成系统,使用信息抽取、神经网络生成器和质量控制器自动生成高质量、多样化的问题 - 答案对,该系统超越了现有神经网络问题生成模型,并能从较少的数据中生成 280 万个高质量的问题 - 答案对。
Jan, 2020
本文介绍了 ParaQG, 一种基于序列到序列技术的 Web 服务,通过交互式界面,从句子和段落中生成问题,并利用多种分组和过滤技术使生成问题的过程用户友好化。
Sep, 2019
该论文探讨了长篇问答任务中关于评估和数据集构建所面临的挑战,在提出新模型的同时指出该任务中 ROUGE-L 评估不具信息性,且训练集和验证集存在显著重复。给出了缓解这些问题的建议。
Mar, 2021
Question generation is a natural language generation task that can be achieved with a single Transformer-based unidirectional language model, which outperforms QG baselines and produces high-quality questions that are relevant to their context paragraph and easy to answer, utilizing transfer learning without relying on auxiliary data.
May, 2020
通过使用自动化问题生成的方法,我们实现了针对每个学生的定制问题,研究了针对离散数学的逻辑等价问题的自动问题生成方法,并证实了该方法在教育中自动化问题生成方面的实用性。
May, 2024