学习提问以回答问题:获取 GPT-2 和 BERT 的最大优势
本研究提出了一种基于神经编码器 - 解码器模型的自动问题生成方法,可以根据给定的段落生成多样化、有意义的问题并利用 SQuAD 数据集进行了初步实验研究,实验结果显示该方法可以产生流畅且多样化的问题。
Apr, 2017
该研究采用基于注意力机制的序列自学习模型进行阅读理解中基于句子的自动问题生成,相比于之前的工作,该模型不依赖于手工规则或复杂的自然语言处理技术,并在人工和自动评估中都呈现出更加自然和困难的问题。
Apr, 2017
我们提出了一种基于查询的生成模型,用于解决问题生成和问题回答两个任务, 在查询理解方面,该模型使用经典的编码器 - 解码器框架,通过与多个角度的文章进行匹配来执行查询理解。在进行培训时,我们利用政策梯度强化学习算法来克服暴露偏差,这是由于交叉熵损失的序列学习而引起的主要问题。
Sep, 2017
Question generation is a natural language generation task that can be achieved with a single Transformer-based unidirectional language model, which outperforms QG baselines and produces high-quality questions that are relevant to their context paragraph and easy to answer, utilizing transfer learning without relying on auxiliary data.
May, 2020
本文提出一种基于神经网络的两阶段机制来生成问题 - 答案对,第一阶段采用 Pointer Networks 编码句子中的关键答案,第二阶段采用序列到序列模型生成问题,最终采用全局注意力和答案编码生成最相关的问题。实验结果表明我们的方法在生成问题的质量上显著优于现有方法,是自动阅读理解评估的又一步。
Mar, 2018
本文提出了一种新的方法,利用 Transformer 模型进行抽取式问答。该方法利用预训练的生成式模型,并结合内部 cross-attention 机制实现了良好的表现,同时使用较少的参数,使模型能够进行幻觉式推断,并提高模型重排相关段落的能力。
Oct, 2021
本文旨在研究和比较不同的预训练语言模型在回答问题的能力上的表现,通过使用 Bert-BiLSTM 结构模型的效果来检验双向流的加入是否能够提高模型性能,并发现 RoBERTa 和 BART 表现最佳。
Oct, 2021
本研究借鉴自然语言处理和大型语言模型相结合的方法,采用自然文本提示来制作课程内容,有效提高了儿童好奇心问题的生成能力,同时发现开放式训练内容更适合培养好奇心问题发现的技能。
Nov, 2022
本文描述了一个架构,利用原始外部知识,基于无监督学习的技术,使得更小的模型可以回答与事实有关的问题,其目的在于能够显式地添加知识,而无需进行大量的训练。
Nov, 2019
在自然语言处理中,通过将共指信息作为辅助监督注入到目前现有的预训练模型中,能够提升模型在需要进行复杂和长距离推理的任务中的表现,从而超过目前最大的 GPT-2 模型,同时仅含有一小部分的参数。
Nov, 2019