Apr, 2021

学习去除:面向各向同性的预训练BERT嵌入

TL;DR研究表明预训练语言模型,如BERT,在自然语言处理方面具有更广泛的应用价值。本文探究和分析预训练BERT嵌入的几何特征,提出一种基于可学习权重的简单而有效的方法,可以更好地处理向量的同一性问题,并在三项标准任务中获得较好的性能表现。