ACLJul, 2019

不要以为前提成立:减轻自然语言推理中的人为误差

TL;DR提出两种概率方法以构建更稳健的模型,让其更好地跨数据集进行传递,解决了自然语言推理数据集中存在的偏见问题。通过在含有偏差的数据集上进行训练,并在不含偏差数据集上进行测试,结果表明这些方法能够使模型更加稳健,相比基线模型在 12 个自然语言推理数据集中,有 9 个传输效果更好。