ACLApr, 2021

非参数少样本学习用于词义消歧

TL;DR本文提出了一种基于 MetricWSD 的非参数的少样本学习方法,通过进行情节性训练,并学习计算给定单词的不同意义之间的距离,将高频词的学习度量空间转移到低频的单词中,从而避免了在自然语言处理中监督式全单词 WSD 的一个重要挑战中的数据不平衡问题。该方法在不依赖任何词汇资源的情况下,能够获得强大的性能,并通过联合 WSD 评估基准实现了 75.1 F1 得分的良好表现。