Sep, 2019
零-shot依赖句法分析的跨语言BERT转换
Cross-Lingual BERT Transformation for Zero-Shot Dependency Parsing
TL;DR本文利用公共预训练的BERT模型提出了学习跨语言表征在上下文空间中的新方法——Cross-Lingual BERT Transformation (CLBT),其中通过线性变换将训练不同语言的上下文化嵌入与上下文词对齐并结合实验证明了该方法可在无需训练就能在跨语言解析的领域中取得优势,其效果明显优于使用静态嵌入的之前的最先进技术,比较证明了本方法与最近被提出的使用大规模平行数据训练的交叉语言模型XLM的竞争力。