ACLMay, 2022

部分输入基线表明自然语言推理模型可以忽略上下文

TL;DR我们研究了最先进的 NLI 模型是否能够覆盖部分输入基线所做出的默认推断,并引入一个由紊乱的前提组成的评估集来检查 RoBERTa 模型对编辑内容的敏感性。我们的结果表明,尽管训练数据集存在技术性问题,但 NLI 模型仍然能够学习到依赖于上下文的条件和推理能力。