Mar, 2022
汉迪语和马拉提语命名实体识别中的单语 BERT 与多语 BERT 对比研究
Mono vs Multilingual BERT: A Case Study in Hindi and Marathi Named Entity Recognition
Onkar Litake, Maithili Sabane, Parth Patil, Aparna Ranade, Raviraj Joshi
TL;DR本文研究低资源印度语言 Hindi 和 Marathi 的命名实体识别 (NER),使用 base-BERT,RoBERTa 和 AlBERT 等变体进行了基准测试,并在不同单语和多语 Transformer 模型之间进行了详细比较,发现 MahaRoBERTa 单语模型在 Marathi NER 方面表现最佳,而多语言 XLM-RoBERTa 在 Hindi NER 方面表现最佳。文中还进行了跨语言评估和提出了简单基线。