EMNLPOct, 2023

对话推理的对比学习

TL;DR推理,尤其是归纳过程中产生的推理,是我们通过补充发言者隐含或明示传达的信息来进行对话的重要组成部分。然而,尽管最近的大型语言模型在推理任务方面取得了显著进展,但它们在归纳推理(不是所有信息都在上下文中出现)方面的表现远远落后于演绎推理。在本文中,我们通过基于语义信息差异定义的任务难度来分析模型的行为,从而区分归纳和演绎推理(Johnson-Laird,1988 年,1993 年)。我们的分析揭示了对话背景和所需推理之间信息差异的显著挑战,缓解这种信息差,我们研究了一种对比学习的方法,通过提供负样本进行训练。我们的实验表明,负样本有助于模型理解错误之处并改善推理生成。