SimCSE: 简单的对比学习句子嵌入
提出了一种增强的无监督句子嵌入方法 (ESimCSE),通过简单的文本操作和动量对比,来提高 SimCSE 在句子语义相似度任务方面的性能,与已有的无监督学习方法相比表现更好。
Sep, 2021
本文研究了对比学习中存在的偏见问题,提出了一种名为 DebCSE 的新型对比框架,通过逆倾向加权抽样方法选择高质量的正负样本对,以消除各种偏见的影响,从而提高句子嵌入的质量。在语义文本相似性基准测试中,DebCSE 的平均 Spearman 相关系数为 80.33%,显著优于最新的最先进模型。
Sep, 2023
本文从处理 dropout 噪声和解决特征损坏两个角度,提出了两种改进对比学习的方法,均能提高句子嵌入的性能,实验证明,将两种方法结合使用,相较于基于 BERT 基础的强基线模型 SimCSE,性能提升了 1.8 个点;同时,这些方法还能适用于 DiffCSE 等其他有着强鲁棒性的模型。
May, 2023
本文介绍了 DiffCSE,一个无监督的对比学习框架,可以学习敏感于原始句子和编辑后句子之间差异的句子嵌入,通过朴素的掩码和掩码语言模型中的采样获得编辑后的句子,证明了 DiffSCE 是一种等变对比学习,并在语义文本相似性任务中取得了超越无监督 SimCSE 的最先进结果。
Apr, 2022
本文提出了 mSimCSE,在英文数据上进行对比学习,不需要平行数据,可以学习高质量的通用跨语种句子嵌入。在无监督和弱监督设置中,mSimCSE 在跨语种检索和多语 STS 任务上显著改进了先前的句子嵌入方法。在检索低资源语言和多语 STS 任务上,无监督的 mSimCSE 表现与完全监督的方法相当。当跨语言 NLI 数据可用时,性能可以进一步提高。
Nov, 2022
本研究提出了 SynCSE,通过利用大型语言模型合成数据样本,训练具有良好性能的句子嵌入,对比试验结果显示 SynCSE 在无监督基准模型的基础上具有更好的性能。
May, 2023
本文提出了一种信息聚合的对比学习框架 InfoCSE 用于学习无监督的句子嵌入,该框架引入了一个额外的掩蔽语言模型任务和一个经过精心设计的网络来强制 [CLS] 位置的表示聚合更密集的句子信息,并在语义文本相似性(STS)任务上取得了超越 SimCSE 的表现,平均 Spearman 相关性增加了 2.60%(BERT-base)和 1.77%(BERT-large),成为无监督句子表示学习方法中的最新成果。
Oct, 2022
该论文提出了一种简单有效的平滑策略 (Gaussian Smoothing InfoNCE),以解决在使用较大 batch size 时信息噪声过多导致性能下降的问题,在标准语义文本相似度任务 (STS) 上表现超过了目前最先进的无监督学习方法 (unsup-SimCSE)
Sep, 2021
该论文介绍了基于信息熵的对比学习框架 miCSE,它在少样本学习的句子嵌入方面取得了显著进展,并对多个基准数据集优于其他现有方法,是一种简单易实现的自监督学习方法,将打开更为高效而强大的自监督学习方法以实现更好的句子嵌入。
Nov, 2022