Jan, 2021
派生形态学提高BERT对复杂词汇的解释力:超神秘并不超神
Superbizarre Is Not Superb: Improving BERT's Interpretations of Complex
Words with Derivational Morphology
TL;DR本研究以BERT为例,探究预训练语言模型的输入分割如何影响其复杂单词的语义表示,揭示了PLMs可以解释为串行双路模型,最有意义的输入标记应该允许在新词汇上进行最佳泛化。通过一系列的语义探测任务,我们证明了有派生输入分割的DelBERT能够显著地优于WordPiece分割的BERT。减少子词切分的输入标记或许能够提高PLMs的泛化性能。