Mar, 2021

Twi的上下文文本嵌入

TL;DR本研究提出了第一例为Twi或Akan开发的预训练变压器语言模型,为命名实体识别、神经机器翻译、情感分析和词性标注等应用领域的进展铺平了道路。通过ABENA和BAKO等四种不同类型的BERT模型,此项研究对Akuapem和Asante方言的Twi语言进行预训练,并通过简单的情感分类示例来展示其使用和开源模型的Hugging Face模型库。