Sep, 2024
探究预训练语言模型子层中多义词的上下文定位
Probing Context Localization of Polysemous Words in Pre-trained Language
Model Sub-Layers
TL;DR本研究解决了预训练语言模型中多义词的上下文表示能力不足的问题。通过实证实验,我们发现不同子层对于多义词的上下文表示有显著影响,尤其是在句子中词的位置和上下文长度方面。主要发现表明,在短上下文窗口中,BERT的上层子层对于特定位置的词拥有较高的上下文能力,但这种能力不能广泛推广至其他位置和上下文大小。