Apr, 2021
AmericasNLI: 评估真正低资源语言中预训练多语种模型的零样本自然语言理解
AmericasNLI: Evaluating Zero-shot Natural Language Understanding of
Pretrained Multilingual Models in Truly Low-resource Languages
TL;DR探索是否可以在未见过的语言上进行高级语义任务的零-shot学习。通过AmericasNLI,测试了零-shot和翻译法等多种方法,结果发现XLM-R的零-shot表现很差,但通过持续预训练和对假设模型的考虑,有所提高。意外的是,用翻译不好的数据训练的表现最好。