EMNLPSep, 2019

零 - shot 依赖句法分析的跨语言 BERT 转换

TL;DR本文利用公共预训练的 BERT 模型提出了学习跨语言表征在上下文空间中的新方法 ——Cross-Lingual BERT Transformation (CLBT),其中通过线性变换将训练不同语言的上下文化嵌入与上下文词对齐并结合实验证明了该方法可在无需训练就能在跨语言解析的领域中取得优势,其效果明显优于使用静态嵌入的之前的最先进技术,比较证明了本方法与最近被提出的使用大规模平行数据训练的交叉语言模型 XLM 的竞争力。