Sep, 2019

BERT 可以有任何意义吗?使用上下文嵌入进行可解释的词义消歧

TL;DR介绍一种利用最近邻分类法和上下文表示词嵌入进行词义消歧的简单而有效的方法,并比较不同的上下文表示模型在该任务上的表现。使用标准的词义消歧数据集表明,在这项任务上,与现有技术相比,已取得了改进。另外还展示了预训练的 BERT 模型能够将多义词与嵌入空间的不同 “意义” 区域联系起来,而 ELMo 和 Flair NLP 似乎没有这种能力。