AAAIApr, 2019

稀有词汇:上下文嵌入的主要问题及关注模拟的解决方案

TL;DR本文讨论使用语言建模目标预训练深度神经网络架构对自然语言处理任务的大幅改进。在此基础上,利用 Attentive Mimicking 这一方法适应于深度语言模型的 embeddings。作者提出一个单词级别的近似的过程,使得即使基础语言模型使用基于子词的标记化也能使用 Attentive Mimicking。通过作者自己创建的数据集进行评估,将经过改进的 Attentive Mimicking 加入 BERT 确实大大提高了其对稀有单词的理解能力。