Sep, 2020
多语言BERT的跨语言对齐方法: 一项比较研究
Cross-lingual Alignment Methods for Multilingual BERT: A Comparative
Study
TL;DR本文分析了不同形式的跨语言监督和各种对齐方法对 Multilingual BERT 在零-shot设置下的转移能力的影响,比较了平行语料库 vs. 字典导向的监督和旋转 vs. 微调对齐方法,针对两个任务(名称实体识别和语义槽填充),我们评估了不同对齐方法在八种语言上的性能,并提出了一种新的规范化方法,该方法不断改进基于旋转的对齐性能,特别是远距离和在语言类型上不同的语言。此外,我们还发现对于任务和转移语言的接近程度,不同的对齐方法存在偏差,平行语料库的监督力度通常优于字典对齐。