ACLDec, 2018

超越语言建模的句子级预训练:你能告诉我如何通过芝麻街吗?

TL;DR本文首次对 19 个候选预训练任务进行了系统研究,比较了它们作为语言建模替代方案和互补方案的不同表现。研究结果支持使用语言建模,尤其是结合预先训练的其他标记数据任务。然而,研究结果混杂,显示出一些令人担忧的趋势,同时也展示出更复杂的多任务和转移学习技术的发展作为进一步研究的途径。