Aug, 2018

通过对抗正则化神经 NLI 模型以整合逻辑背景知识

TL;DR本文研究了自动生成对抗样本的问题,通过最大化一种度量对抗样本的破坏程度的数量,并利用语言模型生成语言合理的样本,我们将识别此类对抗样本的问题减少为组合优化问题,并提出了一种对抗性规范化神经 NLI 模型以融入背景知识的方法,在 SNLI 和 MultiNLI 数据集上,我们的方法没有总是提高预测准确性,但在对抗性制作的数据集上,我们的方法显著并一致地增加了预测准确性,提高了 79.6%的相对改进,并大大减少了背景知识的违反数量。此外,我们还展示了对抗性样本在模型架构之间的转移作用,以及对抗性训练程序如何提高向对抗性样本的鲁棒性。