ACLOct, 2019

掩蔽语言模型评分

TL;DR通过掩码语言模型的伪对数似然得分,我们证明该方法在各种任务中优于自回归语言模型。RoBERTa 减小端到端 LibriSpeech 模型的 WER,同时增加低资源翻译的 BLEU 得分,这个成功要归功于伪对数似然得分的无监督表达,而不具有从左到右的偏见。