Jan, 2021

派生形态学提高BERT对复杂词汇的解释力:超神秘并不超神

TL;DR本研究以BERT为例,探究预训练语言模型的输入分割如何影响其复杂单词的语义表示,揭示了PLMs可以解释为串行双路模型,最有意义的输入标记应该允许在新词汇上进行最佳泛化。通过一系列的语义探测任务,我们证明了有派生输入分割的DelBERT能够显著地优于WordPiece分割的BERT。减少子词切分的输入标记或许能够提高PLMs的泛化性能。