BriefGPT.xyz
Ask
alpha
关键词
nezha
搜索结果 - 2
使用字节级子词训练多语言预训练语言模型
本文介绍了使用 Byte-Level BPE 技术训练 NEZHA 多语言预训练语言模型,并通过多语言 NLU 任务验证其性能显着优于 Google 多语言 BERT 和原始 NEZHA 模型。
PDF
3 years ago
NEZHA: 用于中文语言理解的神经上下文表示
NEZHA 是对中文语言理解进行预训练的语言模型,基于 BERT,并经过一系列优化策略,包括 Functional Relative Positional Encoding 编码方案、Whole Word Masking 策略、Mixed
→
PDF
5 years ago
Prev
Next