本研究对自监督学习中采用对比学习方法的常见预训练任务及各种方法进行了广泛的回顾,并通过图像分类,目标检测和动作识别等多个下游任务的性能比较,探讨了当前方法的限制以及未来发展方向。
Oct, 2020
本文介绍了一种简单的对比学习框架 SimCSE,通过无监督和监督学习两种方法,显著提高了句子嵌入的性能,适用于语义文本相似性任务。
Apr, 2021
通过短语重构提出一种新的生成式自监督学习方法,其产生的句子表示在句子文本相似性方面表现与对比式方法相当。
Apr, 2022
本文探讨了施加对比方法与协方差为基础的非对比方法的理论相似性,说明在合理的假设下它们是等效的。作者介绍了一些改进和变化,证明了这种理论结果,提出了更好的网络设计和超参数调整,可以让不同的 SOTA 方法更好地融合,以建立更好的自监督学习方法。
Jun, 2022
本研究提出了 SynCSE,通过利用大型语言模型合成数据样本,训练具有良好性能的句子嵌入,对比试验结果显示 SynCSE 在无监督基准模型的基础上具有更好的性能。
May, 2023
本文提出了 IS-CSE 方法用于平滑特征空间中的嵌入,实现句子嵌入的无监督学习,进而在标准的语义文本相似度(STS)任务中取得更好的结果。
本文提出了一种多模态多任务的 Transformer 模型,通过对句子和非语言数据对比学习的方式来提高句子编码器的性能,并在基准测试中获得了更高质量的语义文本相似性结果。
Sep, 2022
本研究基于自监督对比学习方法,提出了一种名为 InfoCSE 的新型框架,用于解决手工数据注释不可靠的问题,通过迭代的自我监督和数据标注反馈,实现了句子表示模型和数据注释方法的相互协作,有效提高了自监督学习的效果。实验证明,该方法在三个基准数据集上取得了显著的改善。
Feb, 2022
我们提出了一种自适应重建对比句子嵌入(SARCSE)框架,通过使用自动编码器对句子中的所有单词进行重建,帮助模型在聚合单词时保留更多细粒度的语义。实验结果表明,与强基准 SimCSE 相比,SARCSE 在 7 个 STS 任务中取得了显着改进。
Feb, 2024
本研究提出了一种简单而有效的对比学习框架来解决 Contrastive Self-supervised Learning (CSL) 中样本不足问题,将同一个输入的不同视角拉近,不同输入的视角推远,提高了视觉表征的质量,并在 ImageNet-1K 数据集上表现出了超越完全监督训练版本的性能。
Aug, 2022