Apr, 2020
重新审视中文自然语言处理预训练模型
Revisiting Pre-Trained Models for Chinese Natural Language Processing
TL;DR本研究探讨了中文预训练语言模型的有效性,并向社区发布了中文预训练语言模型系列。我们还提出了一个简单但有效的模型MacBERT,该模型在多个方面优于RoBERTa,特别是掩蔽策略采用了MLM进行修正。我们在八个中文NLP任务上进行了大量实验,实验结果表明MacBERT在许多NLP任务上都可以达到最先进的性能,并提供了一些研究细节的发现,这可能有助于未来的研究。