Apr, 2022
通过多语言自适应微调将预训练语言模型改进到非洲语言
Multilingual Language Model Adaptive Fine-Tuning: A Study on African
Languages
TL;DR本文通过多语言自适应微调方法,改进了前馈神经网络(AfriBERTa和XLM-R)模型,使其适配17种最常用的非洲语言及其他3种在非洲大陆广泛使用的高资源语言,在NER、新闻主题分类和情感分类等自然语言处理任务中具有竞争性,且需要的磁盘空间明显少于单个语言的自适应微调方法。同时,本文的适配模型还能够改善参数效率微调方法的零-shot跨语言转移能力。