Apr, 2023

使用预训练语言模型进行零样本多语言词义消歧

TL;DR本文使用 Contextual Word-Level Translation 扩展了 Pretrained Language Models 来探究 PLM 对跨语言词义的捕捉能力,进而提高零样本单词语义消歧的效果,结果表明我们的方法在多种语言上的效果均好于监督学习基线。