ACLMay, 2019

MultiQA:阅读理解中泛化和迁移的实证研究

TL;DR本文研究阅读理解(RC)数据集之间的通用性和现有数据集对提高新数据集表现的贡献,使用 Bert 等上下文表示方法,证明在一个或多个数据集上训练,并在目标数据集上进行转移学习可以显著提高 RC 表现,同时发现在多个来源 RC 数据集上训练可以降低新 RC 数据集的示例收集成本,并提出了基于 MultiQA 的模型,取得了五个 RC 数据集的最先进的表现。