Apr, 2024

ANGOFA:利用OFA嵌入初始化和合成数据的安哥拉语言模型

TL;DR通过引入四个针对安哥拉语言进行微调的针对预先训练语言模型(PLM)进行定制的PLM,采用多语言自适应微调(MAFT)方法,本文调查了在下游任务中通过信息嵌入初始化和合成数据来增强MAFT模型性能的作用,将基线模型在SOTA AfroXLMR-base(通过MAFT开发的)和OFA(有效的嵌入初始化)上分别提高了12.3和3.8个百分点。