Sep, 2023

混合 Distil-BERT:用于孟加拉语、英语和印地语的混合语言建模

TL;DR该论文介绍了 Tri-Distil-BERT,一个用孟加拉语、英语和印地语进行预训练的多语言模型,以及在混合代码数据上微调的 Mixed-Distil-BERT 模型。这两个模型在多个 NLP 任务上进行评估,并展示出与更大的模型(如 mBERT 和 XLM-R)相竞争的性能。我们的两层预训练方法为多语言和混合代码语言理解提供了高效的选择,推动了该领域的进步。