ACLApr, 2022
学习语义解耦表示以实现多语言机器阅读理解中的零样本跨语言转移
Learning Disentangled Semantic Representations for Zero-Shot Cross-Lingual Transfer in Multilingual Machine Reading Comprehension
Linjuan Wu, Shaojuan Wu, Xiaowang Zhang, Deyi Xiong, Shizhan Chen...
TL;DR本文提出一种新颖的多语言机器阅读理解框架,配备 Siamese Semantic Disentanglement Model(SSDM),用于在多语言预训练模型中学习的表示中分离语义和句法,以明确将语义知识转移到目标语言;实验证明,该方法比基于 mBERT 和 XLM-100 的模型更为有效。