通过分析时间序列数据增强使用信息理论,并总结最常采用的增强方法,我们提出了一种参数增强的对比学习框架 AutoTCL,它可以自适应地支持时间序列表示学习,无缝集成在不同的主干编码器中,实验证明在一元预测任务和分类任务中,我们的方法分别比领先的基准方法平均降低 6.5% 和 4.7% 的误差,并提高 1.2% 的平均准确率。
Feb, 2024
介绍了一种新的自监督对比学习方法,旨在从未标记的视频中学习表示。该方法利用新的约束条件,以建立对时间变换等价的表示,并更好地捕捉视频动态。实验表明,时间等变表示在 UCF101,HMDB51 和 Diving48 的视频检索和动作识别基准测试中实现了最先进的结果。
Dec, 2021
本研究提出了一种基于信息论的新的对时间序列数据进行自适应数据增强的对比学习方法 InfoTS,并在各种数据集上进行了实验以展示其强有力的性能表现。
Mar, 2023
提出了一种新颖的 Temporal Graph representation learning with Adaptive augmentation Contrastive (TGAC) 模型,该模型通过将先验知识与时间信息相结合,对时态图进行自适应增强,并通过定义增强之间的相互视角对比和内部视角对比来构建对比目标函数,以减少网络中的噪声。广泛的实验证明,该模型优于其他时态图表示学习方法。
Nov, 2023
本文提出了一种学习高效自适应数据增强策略的对比学习框架,通过在训练过程中持续生成新的数据增强策略,无需任何监督,有效生成高质量的正负对,进而提升对比学习性能。实验证明,使用视图相关的增强策略训练优于使用所有视图共享的独立策略,在多个数据集和对比学习框架上验证了方法的一致优越性。
May, 2024
在自监督音频 - 视觉表示学习方面的最新进展中,引入了 EquiAV 框架,通过利用等变性来实现音频 - 视觉对比学习,并通过共享的基于注意力的转换预测器实现特征聚合,从而提供了稳健的监督。EquiAV 在各种音频 - 视觉基准测试中优于之前的工作。
Mar, 2024
本文提出一种新的跨架构对比学习(CACL)框架,用于自监督视频表示学习,使用 3D CNN 和视频变换器并行生成对比学习中多样化的正对,同时引入了一个具有明确视频序列编辑距离预测能力的时间自监督学习模块,用于学习强大的时序性表示,在 UCF101 和 HMDB51 数据集上表现卓越,超越 VideoMoCo 和 MoCo + BE 等现有技术。
May, 2022
我们提出了一种协作版对比学习方法,利用数据驱动的采样来利用多个输入视频视图之间的隐式关系,以应对该问题,并在动作识别这一下游任务上取得了竞争性能表现。
Apr, 2021
本文引入了一种基于对比损失的自监督对比视频表示学习方法,利用在嵌入空间中相同短视频的两个增强剪辑进行学习,同时将来自不同视频的剪辑分开。这种自我监督学习方法需要好的数据增强和虚拟时间和模拟空间的知识,在 Kinetics-600 数据集上,该方法可以超过 ImageNet 和 SimCLR 的性能,达到 70.4% 的 top-1 准确率
Aug, 2020
本文提出了一种名为 ACA 的算法,利用对数据的增强进行自我监督学习。该算法通过对数据的增强进行特征提取得到数据的增强分布,然后采用对比损失将其映射到低维空间中,实现有效的数据降维,从而提高了数据的相似性计算效率。
Jun, 2022