对比学习实现的闭卷问题生成
我们提出了一个采用粗到细方法提取相关知识和回答问题的两阶段闭书问题回答框架,实验结果显示我们的方法明显优于先前的闭书 QA 方法并与利用外部知识源的开书方法相当。
Oct, 2022
本文旨在建立三种不同的 QAG 方法的基线,利用序列到序列语言模型进行微调。实验证明,一种端到端的 QAG 模型,它在训练和推理时计算量都很轻,通常是稳健的,并且胜过其他复杂的方法。然而,这取决于底层生成模型的不同。最后,我们的分析表明,仅基于生成的问答对微调的 QA 模型可以与人类标注数据上训练的监督 QA 模型具有竞争力。
May, 2023
本文提出了 “连续问题生成” 任务,使用动态多任务框架生成逻辑相关的问题 - 答案对,全面考虑准确性、覆盖范围和信息量,并使用求精法(reranking)提高提问质量,提升 NLP 相关任务的效果。
Nov, 2022
本文提出一种基于无监督学习的问句生成方法,使用自由可得的新闻标题数据通过句法分析、命名实体识别和语义角色标注启发式技术转换成合适的问题,然后与原始新闻文章一起训练一个端到端的神经问句生成模型;通过在多项数据集上的实验证明,该方法生成的人工智能数据集用于训练问答模型,其性能远超过基于无监督学习的问答模型的现有成果。
Sep, 2021
该研究使用多问题生成模型 (mQG) 从给定的上下文生成多样且可回答的问题,并通过 SQuAD2.0 fine-tuned 模型验证问题的可回答性,该模型在 FairytaleQA 数据集上训练和评估,并在 TellMeWhy 和 SQuAD1.1 数据集上进行了零 - shot 适应,显示出与强基线方法相比有希望的结果。
Oct, 2023
通过使用对比可视化问题生成(ConVQG)方法,我们成功地提出了一种生成基于图像、文本约束以及知识的对比问题的方法,实验证明 ConVQG 在相关性、图像相关性和知识丰富性等方面优于现有方法,并通过人类评估显示对 ConVQG 问题的偏好。
Feb, 2024
本研究提出了一种基于语义加强的奖励机制和基于 QA 的评估方法,用于解决问题生成中的语义漂移问题,并解决传统评价指标不足的问题,同时提出了两种合成 QA 对的方法,有效的用于半监督 QA 学习中。
Sep, 2019
本论文针对问题回答和问题生成两个任务之间内在联系,提出一个联合训练框架,使用序列到序列模型和循环神经网络模型,通过概率相关性指导训练过程来提高两个任务的性能,实验证明该框架能够显著提高问题回答和问题生成两个任务的表现。
Jun, 2017
本篇文章提出了基于强化学习 (Graph2Seq) 模型的问题生成方法,该模型利用双向门控图神经网络作为 encoder 嵌入文章,并混合应用交叉熵损失和 RL 损失来确保生成语法和语义合理的文本。此外,文章还介绍了一种有效的深度对齐网络,将答案信息融合到文章中。该模型的端到端训练在标准 SQuAD 基准测试中取得了明显的最优成绩,超过了现有方法。
Aug, 2019