ACLMay, 2019

Winograd Schema Challenge 的惊人强大技巧

TL;DR本文探讨了在类似代词消歧问题的数据集上进行微调对于三种语言模型在 Winograd Schema Challenge (WSC) 数据集上表现的影响,并生成了一个大规模的无监督 WSC-like 数据集,通过细调 BERT 语言模型在引入的及 WSCR 数据集上,WSC273 和 WNLI 的总体准确率分别达到了 72.5% 和 74.7%,相较于先前的最优方案提高了 8.8% 和 9.6%。此外,我们的微调模型在 Denis Trichelair 等人(2018)引入的 “复杂” 子集上也更加稳健。