基于对比正样本挖掘的无监督 3D 动作表示学习
本文提出了一种利用极端数据增强和丰富信息挖掘来改进运动表示学习的对比学习框架 (AimCLR),通过大量实验得出了其在三个数据集上的显着优越性。
Dec, 2021
本文提出了级联正例检索(CPR)方法,用于多视角、多模式的自我监督视频表示学习,该方法在各项评估指标上优于之前的方法,并且在 UCF101 上实现了 56.7%的 Top-1 视频检索准确度.
Jan, 2022
我们提出了 Prompted Contrast with Masked Motion Modeling (PCM3) 方法,通过互惠方式集成了对比学习和遮挡预测任务,极大地提高了在不同下游任务中的泛化能力。通过减少学习两个不同训练任务造成的干扰,并通过掩模预测为对比学习提供了新视角,指导了高级语义信息的预测训练。与现有的工作相比,在三个大规模数据集上进行了大量实验证明了 PCM3 方法的卓越泛化能力。
Aug, 2023
本文提出了一种基于骨架的自监督动作识别框架,采用跨流对比学习来设计硬样本对,结合积极变换策略,提高了对复杂动作模式的处理能力,并表现出优于三个基准数据集的效果。
May, 2023
本研究提出了一种基于语义正例对集合(SPPS)的方法,它可以降低在表示学习期间丢失重要特征的风险,并在 ImageNet,STL-10 和 CIFAR-10 数据集上验证了该方法的可行性。
Jun, 2023
PCRP 网络提出了一种结合了原型聚类和反向预测的无监督表示学习框架,利用潜在变量隐式编码序列之间的语义相似性,并通过期望最大化算法进行优化,实现了在骨骼动作识别中超越监督学习方法的效果。
Nov, 2020
本文提出了一种针对骨架动作识别的对抗性强化增强方法(A^2MC),通过攻击和强化的协作方式生成高质量的数据样本,提高对骨骼结构的识别准确度。
Apr, 2023
在过去的几年中,对比学习在视觉无监督表示学习的成功中起到了核心作用。我们仔细审查现有的多视图方法,并提出了一种通用的多视图策略,可以提高任何对比或非对比方法的学习速度和性能。我们首先分析了 CMC 的全图范例,并通过实验证明,在小的学习率和早期训练阶段,K 个视图的学习速度可以提高 K 次。然后,我们通过混合仅采用裁剪增强的视图、采用 SwAV 多裁剪中的小尺寸视图、修改负采样来升级 CMC 的全图。得到的多视图策略被称为 ECPP(高效组合正样本对)。我们通过将 ECPP 应用于 SimCLR,并评估其对 CIFAR-10 和 ImageNet-100 的线性评估性能来调查 ECPP 的有效性。对于每个基准,我们都取得了最先进的性能。在 ImageNet-100 的情况下,ECPP 提升后的 SimCLR 优于有监督学习。
Jan, 2024
本研究提出了一种使用多视角补充监督信号的交叉视图对比学习框架,该框架涵盖了单视图对比学习和交叉视图一致性知识挖掘模块,能够在无监督设置下实现 NTU-60 和 NTU-120 数据集上卓越的动作识别结果。
Apr, 2021
对比学习中通过综合考虑正负样本以及使用软硬权重策略来挖掘样本,分析并挖掘接近正样本的潜在负样本,相较于传统的自监督方法,该方法在 CIFAR10、CIFAR100 和 TinyImagenet 上分别达到了 88.57%、61.10% 和 36.69% 的准确率。
Nov, 2023