通过比较对比句子嵌入方法中的标准基准 SimCSE 与计算机视觉社区中被称为维度对比的自监督损失函数和方法,我们发现使用维度对比目标训练的自监督嵌入能够在下游任务中胜过 SimCSE 而无需辅助损失函数。
Oct, 2023
本研究基于自监督对比学习方法,提出了一种名为 InfoCSE 的新型框架,用于解决手工数据注释不可靠的问题,通过迭代的自我监督和数据标注反馈,实现了句子表示模型和数据注释方法的相互协作,有效提高了自监督学习的效果。实验证明,该方法在三个基准数据集上取得了显著的改善。
Feb, 2022
本文介绍了一种简单的对比学习框架 SimCSE,通过无监督和监督学习两种方法,显著提高了句子嵌入的性能,适用于语义文本相似性任务。
Apr, 2021
我们提出了一种自适应重建对比句子嵌入(SARCSE)框架,通过使用自动编码器对句子中的所有单词进行重建,帮助模型在聚合单词时保留更多细粒度的语义。实验结果表明,与强基准 SimCSE 相比,SARCSE 在 7 个 STS 任务中取得了显着改进。
Feb, 2024
我们提出了一种称为自监督跨视图训练(SCT)的框架,以缩小大型和小型预训练语言模型(PLM)之间性能差距,并在 7 个语义文本相似性(STS)基准测试中通过与 5 个基准和最先进的竞争对手的比较,在参数数量从 4M 到 340M 范围内的 5 个 PLMs 上证明 STC 在 21 个案例中的 18 个中胜过竞争对手,对于参数少于 100M 的 PLMs 表现出色。
Nov, 2023
本文介绍了 DiffCSE,一个无监督的对比学习框架,可以学习敏感于原始句子和编辑后句子之间差异的句子嵌入,通过朴素的掩码和掩码语言模型中的采样获得编辑后的句子,证明了 DiffSCE 是一种等变对比学习,并在语义文本相似性任务中取得了超越无监督 SimCSE 的最先进结果。
Apr, 2022
本文介绍一种名为自对比学习(SSCL)的简单方法,用于学习无监督的句子表示,并基于该方法构建一个插入式对比框架,从而提高性能,并在语义文本相似度和转移数据集上超越了不同强大基线(如 BERT 和 SimCSE)。
May, 2023
本文从处理 dropout 噪声和解决特征损坏两个角度,提出了两种改进对比学习的方法,均能提高句子嵌入的性能,实验证明,将两种方法结合使用,相较于基于 BERT 基础的强基线模型 SimCSE,性能提升了 1.8 个点;同时,这些方法还能适用于 DiffCSE 等其他有着强鲁棒性的模型。
本文提出了一种基于 Longfomer 的文档编码器,使用最新的无监督对比学习方法 SimCSE 进行训练,结合基于函数 Bregman 散度的凸神经网络以提高输出文档表示的质量,实验证明该方法在法律和生物医学领域的三个长文档主题分类任务中优于基线模型。
本文提出了一种密集的语义对比学习框架,用于多颗粒度表示学习,以模拟语义类别决策边界以满足下游的密集预测任务,实验证明我们的模型优于现有的方法,包括目标检测、语义分割和实例分割。
Sep, 2021