大型语言模型的有效问题回答生成的明确多样性条件
本文提出一个 QAG 框架,通过生成不同的疑问句和隐式 / 显式答案,增强 QA 类型的多样性,该框架包括 QFS 基于答案生成器、迭代 QA 生成器和相关性感知排序器。
Jun, 2023
该研究使用多问题生成模型 (mQG) 从给定的上下文生成多样且可回答的问题,并通过 SQuAD2.0 fine-tuned 模型验证问题的可回答性,该模型在 FairytaleQA 数据集上训练和评估,并在 TellMeWhy 和 SQuAD1.1 数据集上进行了零 - shot 适应,显示出与强基线方法相比有希望的结果。
Oct, 2023
本文旨在建立三种不同的 QAG 方法的基线,利用序列到序列语言模型进行微调。实验证明,一种端到端的 QAG 模型,它在训练和推理时计算量都很轻,通常是稳健的,并且胜过其他复杂的方法。然而,这取决于底层生成模型的不同。最后,我们的分析表明,仅基于生成的问答对微调的 QA 模型可以与人类标注数据上训练的监督 QA 模型具有竞争力。
May, 2023
本文介绍了一种多语言的问答生成模型 AutoQG 及其 Python 包 lmqg,模型基于预训练的 encoder-decoder 语言模型,在 8 种语言上 fine-tune,并提供了一个 web 界面和易于使用的代码,方便从业者使用和定制。
May, 2023
介绍了一种基于信息论度量的多项选择问答和生成框架(MQAG),其用自动生成的多项式问题的答案分布来计算摘要和原文件之间的期望 KL 散度,以评估摘要的信息一致性。实验表明,MQAG 在大多数任务上优于现有的评估方法。
Jan, 2023
我们提出了一种新的多样性评估度量,用于评估每个实例的前 K 个生成问题的多样性,并确保它们与事实相关。同时,我们引入了一个双模型框架,通过两种选择策略将外部自然问题与生成模型相结合,以生成多样化的问题。实验结果表明,我们的方法生成了高度多样化的问题,并改善了问题回答任务的性能。
Sep, 2023
本研究提出了一种基于语义加强的奖励机制和基于 QA 的评估方法,用于解决问题生成中的语义漂移问题,并解决传统评价指标不足的问题,同时提出了两种合成 QA 对的方法,有效的用于半监督 QA 学习中。
Sep, 2019
通过使用同义词替换的方法,该研究提出了一种简单但有效的数据增强方法,以缓解问题生成模型的生成偏差并改善阅读理解模型在低重叠词汇样本上的性能下降问题。
Sep, 2021
提出了一种基于想象力的知识增强框架(IAG)和适用于问题回答的想象力丰富上下文方法(IMcQA),通过模拟人类补偿知识缺陷的能力,实现了在回答问题时仅依靠想象而不依赖外部资源。在三个数据集上的实验结果表明,IMcQA 在开放领域和封闭书籍设置中,以及分布内性能和分布外推广方面都具有显著优势。
Mar, 2024