May, 2021

理解非理解:在语言模型中建模否定

TL;DR本文针对自然语言中否定句的建构,借助负面通用语句的反向学习目标,优化了 BERT 语言模型,将 negated LAMA 数据集的平均 top1 错误率降至 4%,并在 negated NLI 基准测试中看到了一些改进。