改进的动量对比学习基线
本研究针对发音者验证(SV)探索了自我监督表示学习方法,其中,提出了一种动量对比学习框架的简单对比学习方法(SimCLR),使用排队机制的 MoCo 说话人嵌入系统来维护大量负面例子,通过波形的变形处理方法等方式以规范化两个随机部分的内在发音人的变异性,进一步将提出的 MoCo 说话人嵌入引入到典型的内存银行中,并对半监督框架进行推广,取得了与现有技术相当的性能。
Dec, 2020
通过自我监督学习的方法,采用不同的损失函数,在三个医学成像数据集上,比标准的 MoCo 方法表现更好,特别是在低标记数据情况下,平均增益为 5%,通过更高的特征重用性和更早学习信息提示,提出的预训练方法能够让模型在低标记数据清中呈现更好表现,为预训练方法提供了更多证据。
Oct, 2021
提出 Unified Momentum Contrast (UniMoCo) 方法,支持任意比例的有标签数据和无标签数据的训练,在理论和实践上优于有监督对比损失,对于无监督、半监督和监督视觉表示学习具有很好的泛化能力。
Mar, 2021
SimCLR 是一种简单的对比学习框架,通过定义有效的预测任务、引入可学习的非线性变换以及使用大型批次和更多的训练步骤来提高对比学习的效果,在 ImageNet 数据集上实现了比以往方法更好的自监督和半监督学习结果。
Feb, 2020
该篇论文论述了一种名为 Extended Momentum Contrast (XMoCo) 的自我监督表示学习方法,该方法利用新的跨一致性正则化损失来扩展 MoCo 家族配置中动量编码器单元的框架,以处理消极样本交互所存在的特定差异和相似性。
Jun, 2022
本文介绍了一种名为神经形态的动力对比学习(NeuroMoCo)的方法,该方法通过自监督预训练的方式有效激发了脉冲神经网络的潜力,并使用适用于时间特征的 MixInfoNCE 损失函数进一步提高了神经形态数据集的分类准确性,实验证明其在 DVS-CIFAR10、DVS128Gesture 和 N-Caltech101 数据集上均取得了新的最先进结果,分别为 83.6%、98.62% 和 84.4%。
Jun, 2024
本文提出了一种网络监督下的表示学习方法 —— 动量原型(MoPro),它能够在线修正标签噪声、删除分布之外的样本以及学习表示,实现了最先进的 WebVision 数据集性能,以及更好的图像分类和检测任务性能。
Sep, 2020
本文介绍了使用对比学习方法 Momentum Contrast(MoCo)的改进版本 MoCo-CXR,将其应用于胸部 X 线检测的路径学疾病识别,并探讨了其对预训练模型表征和初始化的改进效果,结果表明 MoCo-CXR 的预训练模型优于未经过 MoCo-CXR 的模型,并证明预训练模型提供的最大好处是能够应用于胸部 X 线数据集和任务的模型表征和可转移性。
Oct, 2020
本文提出了一种 Motion Sensitive Contrastive Learning (MSCL) 方法,将光流获取的运动信息注入到 RGB 帧中,强化特征学习,通过局部运动对比学习(LMCL),以及流旋转增强(FRA)和运动差分采样(MDS)等方法对其进行扩展,对标准基准数据集进行了广泛的实验,提高了 UCF101 和 Something-Something v2 的视频分类性能,并显著提高了 UCF101 的视频检索性能。
Aug, 2022