优化语句表示以提升语义和检索速度
本篇论文提出通过使 BERT 句子嵌入分布变换成平滑和各向同性的高斯分布,从而提高 BERT 在各种语义文本相似度任务中的表现。实验证明,我们提出的 BERT-flow 方法在各种任务中显著优于现有状态下的句子嵌入方法。
Nov, 2020
本研究使用 Normalizing Flow 和 whitening 等无监督的后处理方法,提出一种基于令牌和序列的方法来处理密集检索模型的表示,优化 BERT 表示的各向同性分布,实验结果表明,这种方法可以显著提高文档排序的性能,并在处理不同的测试数据集时具有潜在的鲁棒性。
Sep, 2022
本研究对四种预训练模型进行了大量实验研究,并得出三个主要发现:平均所有令牌比仅使用 [CLS] 向量更好;同时使用顶部和底部层优于仅使用顶部层;基于简单白化的向量标准化策略能够成倍提高性能。
Apr, 2021
通过对多个预训练的多语种语言模型进行研究,探究其输出中的异常维度和它们对各种跨语言语义相似性任务表现的影响。通常使用在平行资源上进行微调的 sentence transformers 在这些任务中表现更好,且表示更各向同性。研究人员通过不同的操作(例如消除异常维度、聚类基于同性等操作)来改进多语种表示。
Jun, 2023
研究表明预训练语言模型,如 BERT,在自然语言处理方面具有更广泛的应用价值。本文探究和分析预训练 BERT 嵌入的几何特征,提出一种基于可学习权重的简单而有效的方法,可以更好地处理向量的同一性问题,并在三项标准任务中获得较好的性能表现。
Apr, 2021
该研究提出了一种名为 Diagonal Attention Pooling (Ditto) 的无监督方法来解决 BERT 等预训练语言模型中句子表示的各向异性问题,通过基于模型的重要性估计对单词进行加权,改进了语义文本相似度 (STS) 任务的性能。
May, 2023
本文提出了一种基于白化的对比学习方法,该方法将白化和对比学习相结合,提高了特征空间的一致性和对齐性,通过在通道轴上随机分组并独立白化,从而增加单个样本的多个扭曲形式,进一步增强对比学习中的正样本多样性,对七种语义文本相似度任务进行广泛实验,表明本方法在对比学习基准上取得了持续的改进并设置了新的最高水平。
May, 2023
本文研究了预训练语言模型中的同向性问题,提出了一种新的网络正则化方法:同向批量归一化(IsoBN),用于解决优化学习中掌握主要因素的问题,从而获得更多同向表现,提高了七项自然语言理解任务约 1.0 的绝对增量。
May, 2020