Jun, 2023
预训练语言模型在土耳其地址解析中的比较
Comparison of Pre-trained Language Models for Turkish Address Parsing
TL;DR本文研究了使用Transformer模型Bert、DistilBert、ELECTRA和RoBERTa,以及多层感知器MLP对土耳其地图数据进行多语言和土耳其语 fine-tune 的实验,结果表明土耳其语特定模型与多语言fine-tuning的相比略微更好,并且BERT变种对于地址类别分类的效果非常好。