Feb, 2020

多语种上下文词表示的对齐

TL;DR提出了一种测量和加强上下文嵌入对齐的程序,证明其在分析和改进多语言BERT方面非常有用。在我们的对齐程序之后,BERT在零-shot任务中表现显著提高。使用上下文版本的Word Retrieval任务,我们发现BERT存在系统性缺陷,在我们的对齐程序下得到了纠正。这些结果支持上下文对齐作为理解大型多语言预训练模型的一个有用概念。