Apr, 2024

通过合成问题生成实现对话问答的一致性训练

TL;DR通过模型化历史信息,在对话问答(QA)环境中高效地处理用户查询至关重要。本文引入了一种新的模型无关方法,称为 CoTaH(一致性训练增强历史),利用合成问题增强历史信息,并通过一致性训练训练模型,使推理过程能够鲁棒地处理无关的历史信息。我们的模型在建模对话 QA 设置时,首次使用问题生成作为数据增强的形式,并通过引入一种常见的建模错误,提出了一个新的基准模型和对比实验,表明了结果的提升,特别是在处理包含大量历史背景的问题时。源代码可在我们的 GitHub 页面找到。