ACLJul, 2019
SpanBERT:通过表示和预测跨度来提高预训练
SpanBERT: Improving Pre-training by Representing and Predicting Spans
Mandar Joshi, Danqi Chen, Yinhan Liu, Daniel S. Weld, Luke Zettlemoyer...
TL;DR本论文提出了 SpanBERT 预训练方法,扩展了 BERT 的掩蔽方式和训练方式,使其在跨度选择和指代消解等任务中表现出比 BERT 和基线更优秀的性能,包括在 SQuAD、OntoNotes 和 TACRED 等各种基准测试上都取得了更好的结果。