Jun, 2023
预训练语言模型在土耳其地址解析中的比较
Comparison of Pre-trained Language Models for Turkish Address Parsing
Muhammed Cihat Ünal, Betül Aygün, Aydın Gerek
TL;DR本文研究了使用 Transformer 模型 Bert、DistilBert、ELECTRA 和 RoBERTa,以及多层感知器 MLP 对土耳其地图数据进行多语言和土耳其语 fine-tune 的实验,结果表明土耳其语特定模型与多语言 fine-tuning 的相比略微更好,并且 BERT 变种对于地址类别分类的效果非常好。