EMNLPJun, 2021

双语对齐预训练用于零样本跨语言转移

TL;DR本文提出了一种利用统计对齐信息作为先验知识以指导跨语言词语预测的预训练任务 Word-Exchange Aligning Model(WEAM),并在多语种机器阅读理解任务 MLQA 和自然语言接口任务 XNLI 上进行评估,结果表明 WEAM 可以显著提高零 - shot 性能。