ACLMay, 2021

BERT 对 NLP 的意义相当于 AlexNet 对 CV:预训练语言模型如何识别类比?

TL;DR本文研究基于 transformer 的语言模型在识别类比方面的能力,并使用从教育环境中获取的基准数据集以及更常用的数据集进行分析。结果发现,预训练的语言模型能够在一定程度上识别出类比,但对于抽象和复杂关系的处理仍然存在挑战,且结果高度敏感于模型架构和超参数。整体而言,GPT-2 和 RoBERTa 的表现较好,而使用 BERT 的配置无法胜过词嵌入模型。这些研究结果提出了未来工作的重要问题,即预训练的语言模型如何以及在多大程度上捕捉抽象语义关系的知识。