EMNLPNov, 2020

关于预训练语言模型中句子嵌入的研究

TL;DR本篇论文提出通过使 BERT 句子嵌入分布变换成平滑和各向同性的高斯分布,从而提高 BERT 在各种语义文本相似度任务中的表现。实验证明,我们提出的 BERT-flow 方法在各种任务中显著优于现有状态下的句子嵌入方法。