BriefGPT.xyz
Apr, 2021
学习去除:面向各向同性的预训练BERT嵌入
Learning to Remove: Towards Isotropic Pre-trained BERT Embedding
HTML
PDF
Yuxin Liang, Rui Cao, Jie Zheng, Jie Ren, Ling Gao
TL;DR
研究表明预训练语言模型,如BERT,在自然语言处理方面具有更广泛的应用价值。本文探究和分析预训练BERT嵌入的几何特征,提出一种基于可学习权重的简单而有效的方法,可以更好地处理向量的同一性问题,并在三项标准任务中获得较好的性能表现。
Abstract
pre-trained language models
such as
bert
have become a more common choice of natural language processing (
nlp
) tasks. Research in word rep
→