Oct, 2020

反事实增强的 SNLI 训练数据不比未增强的数据具有更好的泛化性能

TL;DR本研究发现,通过常规众包技术建立的反事实数据增强自然语言阅读理解数据集,不利于训练模型的泛化性和鲁棒性,并且在成本考虑上使用此种方法带来的收益很少。