连锁原型对比学习
通过解决先验任务从无标签数据集中选择和比较 anchor、negative 和 positive 特征来学习有用的表示,我们提出了一个概念性框架,该框架从数据增强管道、编码器选择、表示提取、相似性度量和损失函数五个方面表征对比自监督学习方法。我们分析了三种主要的 CSL 方法 - AMDIM、CPC 和 SimCLR-,并表明它们是这个框架下的特殊情况。通过设计 Yet Another DIM(YADIM),我们展示了我们框架的效用,该方法在 CIFAR-10、STL-10 和 ImageNet 上取得了竞争性结果,并且对编码器的选择和表示提取策略更具鲁棒性。为了支持正在进行的 CSL 研究,我们发布了此概念框架的 PyTorch 实现,以及 AMDIM、CPC(V2)、SimCLR、BYOL、Moco(V2)和 YADIM 的标准化实现。
Aug, 2020
通过对比自监督学习与 supervised learning 在对抗鲁棒性上的表现,本文发现 contrastive self-supervised learning 的数据表示倾向于在单位超球面上均匀分布,这导致其比 supervised learning 更容易受到干扰,作者提出了一种有效的方法来检测与消除训练中的 false negative pairs,并将其应用于对比自监督学习中,成功缩小了对抗鲁棒性方面与 supervised learning 之间的差距,提高了模型的性能。
Jul, 2022
本文提出了一种名为对比半监督学习(Contrastive Semi-supervised Learning, CSL)的方法,通过挑选正负样本来替代直接预测教师生成的伪标签,并将其应用于翻译公共社交媒体视频的挑战任务中,从而比标准的交叉熵伪标签(CE-PL)减少了 8% 的 WER。
Mar, 2021
我们提出了一种修改对比损失函数来调整学习特征嵌入几何结构的方法,通过使用原型在每个批次中引导学习嵌入和原型的几何一致性,并在深度神经网络上基于基准视觉数据集进行了一系列实验证实。
Oct, 2023
本研究对自监督学习中采用对比学习方法的常见预训练任务及各种方法进行了广泛的回顾,并通过图像分类,目标检测和动作识别等多个下游任务的性能比较,探讨了当前方法的限制以及未来发展方向。
Oct, 2020
本研究提出了两种基于对比自监督学习(CSSL)的方法来缓解过拟合的问题,具体地,我们使用 CSSL 对图形编码器进行预训练,并在标记后的图形上调整预先训练的编码器。我们还开发了一个基于 CSSL 的正则化器,同时解决监督分类任务和无监督 CSSL 任务。通过数据增强的方式,定义了对比损失来学习图形编码器。实验结果表明,我们提出的方法在各种图形分类数据集上都非常有效。
Sep, 2020
通过对 SimSiam 两个非对比损失方法进行实证分析,研究发现 SimSiam 对数据集规模和模型大小非常敏感,并提出用崩溃度量来衡量降维崩溃的程度,进而预测下游任务性能。同时,采用持续学习模式作为规范器可以预防模型的崩溃,并提出一种持续和多轮训练的混合方式,该方式能够在 ImageNet 上使用 ResNet-18 显著提高线性探针精度。
Sep, 2022
通过比较对比句子嵌入方法中的标准基准 SimCSE 与计算机视觉社区中被称为维度对比的自监督损失函数和方法,我们发现使用维度对比目标训练的自监督嵌入能够在下游任务中胜过 SimCSE 而无需辅助损失函数。
Oct, 2023
本文提出了一种新的对比学习框架,将其无缝地整合到预训练阶段和元训练阶段,以提高少样本分类的性能,并使用交叉视图的情节训练机制进行最近的质心分类,并采用基于距离缩放的对比损失。
Sep, 2022
本文提出一种半监督对比学习 (Semi-supervised Contrastive Learning,简称 SsCL) 的训练策略,将自监督学习中著名的对比损失与半监督学习中的交叉熵损失相结合,进而联合优化两个目标,并使用神经网络来实现。结果表明,SsCL 产生了更具有区分性的表示,并对于少样本学习非常有益。在使用 ResNet50 作为后端的 ImageNet 数据集上,SsCL 分别以 1% 和 10% 的标记样本获得了 60.2% 和 72.1% 的 top-1 精度,这比基线要好得多,也优于以前的半监督学习和自监督学习方法。
May, 2021