Apr, 2022
语言模型与跨语言序列标注之间的桥梁
Bridging the Gap between Language Models and Cross-Lingual Sequence
Labeling
TL;DR本篇论文提出Cross-lingual Language Informative Span Masking (CLISM)和ContrAstive-Consistency Regularization (CACR)两种方法来缩小预先训练和微调阶段之间的差距,并以多语言对齐为目标对跨语言机器阅读理解(xMRC)进行改进。实验结果表明,这些方法在多个xSL基准测试中取得了显著优越的结果,并且在只有几百个训练示例可用的少量数据设置中超过了以前的最新方法。