ICLRFeb, 2020

多语种上下文词表示的对齐

TL;DR提出了一种测量和加强上下文嵌入对齐的程序,证明其在分析和改进多语言 BERT 方面非常有用。在我们的对齐程序之后,BERT 在零 - shot 任务中表现显著提高。使用上下文版本的 Word Retrieval 任务,我们发现 BERT 存在系统性缺陷,在我们的对齐程序下得到了纠正。这些结果支持上下文对齐作为理解大型多语言预训练模型的一个有用概念。