Aug, 2019

序列标注的小型实用BERT模型

TL;DR我们提出了一种实用的方案来训练一个单一的多语言序列标注模型,这个模型在单个CPU上运行,能够给出最先进的结果,足够小和快速。从一个公共的多语言BERT检查点开始,我们的最终模型比最先进的多语言基线模型更加准确,并且速度更快,6倍更小。我们证明了我们的模型特别是在低资源语言上表现出色,并且可以在混合输入文本上工作,而不需要对混合示例进行明确的训练。我们通过70棵树库和48种语言的词汇标注和形态预测来展示我们方法的有效性。