ACLFeb, 2019

多语境语境表示改善跨语言转移

TL;DR通过使用 Rosita 方法,我们训练了一个单一的语言模型,从多种语言的文本中产生了多语种上下文词表示。我们应用这种方法于英语 / 阿拉伯语和英语 / 汉语等不同语言对的建模,并应用于依存句法分析、语义角色标记和命名实体识别,与单语言和非上下文变体进行了比较。我们的结果进一步证明了使用多种语言共享表示的多语种学习的好处。