Apr, 2021
学习去除:面向各向同性的预训练 BERT 嵌入
Learning to Remove: Towards Isotropic Pre-trained BERT Embedding
Yuxin Liang, Rui Cao, Jie Zheng, Jie Ren, Ling Gao
TL;DR研究表明预训练语言模型,如 BERT,在自然语言处理方面具有更广泛的应用价值。本文探究和分析预训练 BERT 嵌入的几何特征,提出一种基于可学习权重的简单而有效的方法,可以更好地处理向量的同一性问题,并在三项标准任务中获得较好的性能表现。