这篇论文提出一种名为 SCL 的学习范式,支持图卷积神经网络,同时加入了数据预处理过程中节点之间的相似度计算和节点复制的数据增强方法,经实验证明可以提高推荐准确度和抗干扰能力。
Jan, 2022
提出了一种用于顺序推荐的对比学习多任务模型 CL4SRec,在传统的下一个项目预测任务的基础上,从原始用户行为序列中提取更有意义的用户模式,并进一步有效地编码用户表示,通过构建自我监督信号和数据增强等手段,来解决数据稀疏性和参数优化问题,并在四个公共数据集上实现了业界领先的性能。
Oct, 2020
通过利用自我监督的推荐算法,本文提出了一种名为 RecDCL 的方法,它采用对比学习,解决了数据稀疏性和特征维度的问题,并在推荐任务中取得了优于现有模型的效果。
Jan, 2024
本文通过系统分析不同的自监督对比学习策略及变量间的相互作用,发现使用 Transformer 模型综合优化 Mean Squared Error (MSE) 损失和自监督对比学习 (SSCL) 是进行时间序列预测的最有效的方法,并可优化预测结果的准确性。
Jun, 2023
本文提出一种半监督对比学习 (Semi-supervised Contrastive Learning,简称 SsCL) 的训练策略,将自监督学习中著名的对比损失与半监督学习中的交叉熵损失相结合,进而联合优化两个目标,并使用神经网络来实现。结果表明,SsCL 产生了更具有区分性的表示,并对于少样本学习非常有益。在使用 ResNet50 作为后端的 ImageNet 数据集上,SsCL 分别以 1% 和 10% 的标记样本获得了 60.2% 和 72.1% 的 top-1 精度,这比基线要好得多,也优于以前的半监督学习和自监督学习方法。
May, 2021
本文提出了一种 Mixed Supervised Graph Contrastive Learning for Recommendation (MixSGCL) 方法,通过将推荐和无监督对比损失的训练整合为一个监督对比学习损失,解决了当前基于图对比学习的推荐系统中优化方向不一致的问题,并通过节点和边的混合使得系统能够从现有的用户 - 物品交互中挖掘更多的直接监督协同过滤信号,从而提高了准确性和效率。
Apr, 2024
该论文提出了 SCCL 框架,使用对比学习来帮助无监督聚类,有效提升类别间距离,进而在短文本聚类中达到更好的结果。研究表明,SCCL 能够显著提高精度和归一化互信息,同时有效结合自下而上的实例判别和自上而下的聚类来实现更好的聚类效果。
Mar, 2021
本文提出了一种基于 score-matching 函数的自监督对比学习方法 ScoreCL,通过自适应加权每对数据,改善了现有方法的性能,并在 CIFAR-10、CIFAR-100 和 ImageNet-100 上领先了多种方法,证明了其普适性。
本研究基于自监督对比学习方法,提出了一种名为 InfoCSE 的新型框架,用于解决手工数据注释不可靠的问题,通过迭代的自我监督和数据标注反馈,实现了句子表示模型和数据注释方法的相互协作,有效提高了自监督学习的效果。实验证明,该方法在三个基准数据集上取得了显著的改善。
Feb, 2022
本文提出了一种称为 ESCL 的方法,该方法通过等变学习任务鼓励学习到的表示对某些类型的转换敏感,从而利用敏感的变换,以改善语义文本相似度任务的对比学习,并且通过在多任务学习的角度上共享模型参数来简化算法实现。最终的结果表明,该方法与以前的方法相比在使用更少的学习参数的情况下可以获得更好的结果。
Mar, 2023