ACLApr, 2022

学习语义解耦表示以实现多语言机器阅读理解中的零样本跨语言转移

TL;DR本文提出一种新颖的多语言机器阅读理解框架,配备 Siamese Semantic Disentanglement Model(SSDM),用于在多语言预训练模型中学习的表示中分离语义和句法,以明确将语义知识转移到目标语言;实验证明,该方法比基于 mBERT 和 XLM-100 的模型更为有效。