May, 2022

数据推理学习之悖论

TL;DR本研究考察了在自然语言中可以用 BERT 模型来训练端到端地解决逻辑推理问题吗?通过监察矛盾的现象,研究发现 BERT 虽然能够在某些测试实例中达到近乎完美的准确率,但却不能在完全相同的问题空间中泛化到其它数据分布上。我们展示了这是因为 BERT 并没有学习正确的推理函数,而是学习了逻辑推理问题中固有的统计特征。此研究结果自然推广到其他神经模型,并揭示了学习推理与学习利用统计特征在 NLP 基准测试中高绩效之间的根本差异。