Jan, 2021
KoreALBERT:针对韩语语言理解的轻量级 BERT 模型预训练
KoreALBERT: Pretraining a Lite BERT Model for Korean Language Understanding
Hyunjae Lee, Jaewoong Yoon, Bonggyu Hwang, Seongho Joe, Seungjai Min...
TL;DR该研究开发并预训练了 KoreALBERT 模型,实现了针对韩语理解的单语言 ALBERT 模型,采用新的训练目标 - WOP,与现有的 MLM 和 SOP 方法结合,尽管参数较少,但预训练的 KoreALBERT 在 6 项不同的 NLU 任务中表现优异,并提升了韩语多句子编码相关的下游任务表现。