Jan, 2021

KoreALBERT:针对韩语语言理解的轻量级 BERT 模型预训练

TL;DR该研究开发并预训练了 KoreALBERT 模型,实现了针对韩语理解的单语言 ALBERT 模型,采用新的训练目标 - WOP,与现有的 MLM 和 SOP 方法结合,尽管参数较少,但预训练的 KoreALBERT 在 6 项不同的 NLU 任务中表现优异,并提升了韩语多句子编码相关的下游任务表现。