EMNLPMay, 2022

通过生成困难背景教学多步骤 QA 的广泛推理技能

TL;DR利用自然语言问句的分解来指导模型学习不同宽度的推理,在构建约 900 种不同推理模式数据的同时提高了典型语言模型在 4 个多步问题问答数据集上的 F1 表现,具有更高的鲁棒性,使得在两个对比数据集上 F1 点数提高了 5-8 个点。