Syn-QG: 用于问题生成的句法和浅语义规则
本文介绍了ParaQG, 一种基于序列到序列技术的Web服务,通过交互式界面,从句子和段落中生成问题,并利用多种分组和过滤技术使生成问题的过程用户友好化。
Sep, 2019
本研究提出了一种基于语义加强的奖励机制和基于QA的评估方法,用于解决问题生成中的语义漂移问题,并解决传统评价指标不足的问题,同时提出了两种合成QA对的方法,有效的用于半监督QA学习中。
Sep, 2019
Question generation is a natural language generation task that can be achieved with a single Transformer-based unidirectional language model, which outperforms QG baselines and produces high-quality questions that are relevant to their context paragraph and easy to answer, utilizing transfer learning without relying on auxiliary data.
May, 2020
本研究旨在解决在知识图谱子图上生成自然语言问题时,信息量不足和语义漂移的问题,提出了一种名为KTG的知识增强的、类型约束和语法引导的KBQG模型,并设计了一种奖励函数来提高生成的丰富性和句法正确性,实验证明该模型在两个广泛使用的基准数据集SimpleQuestion和PathQuestion上优于现有方法。
Oct, 2020
本文提出一种基于无监督学习的问句生成方法,使用自由可得的新闻标题数据通过句法分析、命名实体识别和语义角色标注启发式技术转换成合适的问题,然后与原始新闻文章一起训练一个端到端的神经问句生成模型;通过在多项数据集上的实验证明,该方法生成的人工智能数据集用于训练问答模型,其性能远超过基于无监督学习的问答模型的现有成果。
Sep, 2021
本文介绍了我们使用传统语言学方法和多种机器学习技术生成英语非结构化文本问句的框架,并且加入了问题评估模块,最终证明我们的生成问题质量优于其他最好的系统,并且与人类创建的问题相当。
May, 2022
通过引入QG-Bench,这是一个多语种,多域基准,对现有的问答数据集进行转换,提出了鲁棒的QG基准和基于精细调整的生成语言模型,并对其进行了有效性和适应性分析。
Oct, 2022
SG-CQG是一个用于回答无答案设置下如何生成与要求自然的对话的方法,它通过语义图和具有明确控制信号的分类器来解决what-to-ask和how-to-ask的挑战。同时,提出了新的评估指标Conv-Distinct,并在实验中取得了最先进的表现。
May, 2023
我们提出了一种新的多样性评估度量,用于评估每个实例的前K个生成问题的多样性,并确保它们与事实相关。同时,我们引入了一个双模型框架,通过两种选择策略将外部自然问题与生成模型相结合,以生成多样化的问题。实验结果表明,我们的方法生成了高度多样化的问题,并改善了问题回答任务的性能。
Sep, 2023
在本文中,我们介绍了第一个自动评估QUD解析的框架,将QUD的理论约束转化为具体的协议。我们提出了QUDeval,一个细粒度评估的QUD问题数据集,其中包含来自经过微调的系统和LLMs生成的2,190个QUD问题。使用QUDeval,我们发现满足QUD的所有约束对于现代LLMs仍然具有挑战性,并且现有的评估指标很难近似解析器的质量。令人鼓舞的是,由人工撰写的QUD问题在我们的人类评估者中得到了很高的评分,这表明在语言建模方面取得进一步的进展可以改善QUD解析和评估。
Oct, 2023