QBERT: 用于处理问题的通用模型
本文旨在研究和比较不同的预训练语言模型在回答问题的能力上的表现,通过使用 Bert-BiLSTM 结构模型的效果来检验双向流的加入是否能够提高模型性能,并发现 RoBERTa 和 BART 表现最佳。
Oct, 2021
Question generation is a natural language generation task that can be achieved with a single Transformer-based unidirectional language model, which outperforms QG baselines and produces high-quality questions that are relevant to their context paragraph and easy to answer, utilizing transfer learning without relying on auxiliary data.
May, 2020
本文研究在知识库问答(KBQA)中,为了增强模型的泛化能力,建议模型应具有三个内置泛化层面:i.i.d、组合和零样本,并提出一种新颖的基于 BERT 的 KBQA 模型,此外构建和发布一个高质量的数据集 GrailQA,为三个泛化层面提供评估设置。实验证明,预训练的上下文嵌入(如 BERT)在 KBQA 的泛化中起着重要的作用。
Nov, 2020
本研究通过对知识图谱建立的基于神经网络(包括 BERT 和 BiLSTM)的简单问题回答模型进行评估,探究在数据稀疏的情况下 BERT 模型的表现。
Jan, 2020
本研究通过定量分析之前研究中提出的几种方法,比较它们在三个不同教育领域包含不同类型问题的公开真实数据集上的表现,发现基于 Transformer 的模型在跨不同教育领域的 MCQs、科学题和数学题等方面表现最佳,超越其他方法甚至在较小的数据集上也表现得更好。
May, 2023
本文介绍了一种使用少量手工制作特征便可回答广泛话题的问题,通过学习单词和知识库组成的低维嵌入来评估自然语言问题的候选答案的系统。通过使用问题和其答案的结构化表示以及问题改写对模型进行训练,在文献竞赛基准测试上获得了竞争性的结果。
Jun, 2014
通过引入 QG-Bench,这是一个多语种,多域基准,对现有的问答数据集进行转换,提出了鲁棒的 QG 基准和基于精细调整的生成语言模型,并对其进行了有效性和适应性分析。
Oct, 2022
本文研究阅读理解(RC)数据集之间的通用性和现有数据集对提高新数据集表现的贡献,使用 Bert 等上下文表示方法,证明在一个或多个数据集上训练,并在目标数据集上进行转移学习可以显著提高 RC 表现,同时发现在多个来源 RC 数据集上训练可以降低新 RC 数据集的示例收集成本,并提出了基于 MultiQA 的模型,取得了五个 RC 数据集的最先进的表现。
May, 2019
本文通过评估五个数据集上的基于 BERT 的模型来研究模型是否从问答数据集中学习阅读理解,发现没有一个数据集能够具备全部实验的鲁棒性,并且发现了数据集和评估方法的不足,最后建议构建更好的 QA 数据集以评估阅读理解任务的问答能力。
Apr, 2020