May, 2022

ArabGlossBERT: 基于上下文 - 词汇解释对的 BERT 微调用于 WSD

TL;DR本文介绍了使用预训练的 transformer 模型(例如 BERT)对阿拉伯语词义消歧(WSD)进行微调的工作。我们将 WSD 任务视为句子对二进制分类任务,并针对三个预先训练的阿拉伯 BERT 模型进行了微调,通过构建标记的阿拉伯文本 - 义项对数据集,实现了很好的结果(84% 的准确性)并使用不同的监督信号强调上下文中的目标词。