Aug, 2019

NEZHA: 用于中文语言理解的神经上下文表示

TL;DRNEZHA是对中文语言理解进行预训练的语言模型,基于BERT,并经过一系列优化策略,包括Functional Relative Positional Encoding编码方案、Whole Word Masking策略、Mixed Precision Training和LAMB Optimizer等,实验证明NEZHA在多个中文NLU任务上达到了最先进的性能。