本研究利用 DualCL 框架将分类器参数作为增广样本,与输入样本结合运用对比学习方法,在五个基准文本分类数据集上表现出较高的分类准确性,并证实了 DualCL 框架在学习具有判别性的表示方面的能力。
Jan, 2022
采用对比学习和适应性正负样本的特征提取框架来提取无监督、半监督和有监督的单视图特征,该框架可以更好地处理噪音数据和提高特征提取的准确性。
本文提出了一种针对对抗性对比学习的新算法 CLAE,通过使用对抗性样本增强数据并在优化时考虑一个批次中的所有图片,能够更好地定义正负样本,充分提高自监督学习任务的性能和学习能力。
Oct, 2020
通过开发严密的理论来剖析和确定无监督损失中能够帮助改善鲁棒监督损失的成分,并进行适当实验证实我们的发现。
Nov, 2023
提出了一种名为 Positive-Unlabeled Contrastive Learning(PUCL)的新型对比学习方法,通过将负样本视为无标签样本,并利用正样本信息来修正对比损失,从而纠正了负采样偏差并提高了性能。
Jan, 2024
该研究提出了一种名为 Contrastive Learning with Stronger Augmentations(CLSA)的新的对比学习方法,利用数据扩增引入样本多样性,从而提高检索能力,实验结果表明该方法在 ImageNet 数据集上的表现接近有监督结果。
Apr, 2021
本文介绍了一种新的神经网络训练框架,通过将对比学习与对抗训练相结合,增强了模型对对抗攻击的鲁棒性,同时保持高干净度的准确性。作者发现对比学习有助于提高对抗性鲁棒性,并使用 CIFAR-10 数据集验证了他们的方法,发现其优于其他监督和自监督方法。
Mar, 2022
该论文介绍了使用对比学习(CL)进行无监督图表示学习的方法。作者通过探究使用域不可知图形扩充的高性能图像对比学习和 DAGAs 对图形对比学习的影响,提出了几个检查机制和设计任务感知扩充的策略,以提高模型的准确性。
Nov, 2021
该论文提出了一种 Pseudo Contrastive Learning (PCL) 的通用框架,该框架通过生成可靠的对比对来解决生成高质量伪标签的问题,通过对负样本进行 dropout 来实现数据增强。 最终,实验证明该方法在五个真实世界的图上均优于其他普遍技术。
Feb, 2023
本文提出了一种新的自适应增强方法,通过设计基于节点中心性和节点属性的增强策略来保留图的内在结构和属性信息,并验证此方法在节点分类任务中优于现有方法和监督学习模型。