全局特征和超列特征之间的跨情境学习的自监督表示学习
提出了基于全局和局部特征表示的多网络对比学习框架,通过多个网络引入自监督对比学习的全局和局部特征信息,并通过对比由多个网络生成的嵌入对来学习图像不同尺度上的特征信息,并扩展对比样本数,提高了模型的训练效率。在三个基准数据集上的线性评估结果表明,我们的方法优于几种现有的经典自监督学习方法。
Jun, 2023
本文提出了一种新的本地对比特征学习(LoCL)框架,其主题是从表格数据中学习本地模式 / 特征。利用特征相关性创建最大生成树并将其分解,使用卷积学习特征,受对比和重构损失控制,与其他领先方法相比在公共表格数据集上实验表明提出的方法的有效性。
Nov, 2022
提出一种新的自监督视频表示学习技术,通过将学习目标分解为两个对比子任务并分层进行,强调空间和时间特征,从而鼓励多尺度理解。通过实验表明,可以将增强作为规则化进行操作来指导网络在对比学习中学习所需的语义,并提出一种方式,使模型可以在多个尺度上分别捕捉空间和时间特征。还介绍了一种克服不同层次上实例不变性差异的方法。将代码公开。
Nov, 2020
本文提出了一种新的自监督学习方法 CLD,通过交叉等级判别来发现和整合实例相似性,显著改善对高度相关,长尾分布和平衡数据集的自监督学习,并在许多基准测试中取得了新的最佳性能。
Aug, 2020
该研究提出了一种基于段落的视频级对比学习方法,它使用全局上下文形成正样本,同时还结合了一个时间顺序正则化项来确保视频的时序结构,实验证明该方法在动作分类、动作定位和视频检索等任务上能够超越现有的最先进方法。
Aug, 2021
提出了一种新的自我监督推荐框架 HCCF,它利用超图增强交叉视角对比学习体系结构共同捕捉本地和全局协作关系,结合超图结构编码和自我监督学习来增强推荐系统的表示质量,并通过三个基准数据集的广泛实验证明了其优越性和稀疏用户交互数据的鲁棒性。
Apr, 2022
本文提出了一种基于上下文感知的时空对比学习(ConST-CL)的方法,该方法成功地实现了学习细粒度视频表示,利用区域预文本任务引导模型从一个视角到另一个视角转换,并整合整体和局部表示的并行学习过程。我们在多个数据集上评估了所学得的表示,并展示了 ConST-CL 在 6 个数据集上取得了具有竞争力的结果,包括 Kinetics,UCF,HMDB,AVA-Kinetics,AVA 和 OTB。
Dec, 2021
本篇研究提出了一种基于图神经网络和图对比学习的协作过滤框架,通过自我监督学习进行自适应增强,实现目的的解耦和噪声抑制,将学习到的解耦表示与全局上下文结合,相比于现有的解决方案,具有更好的性能表现。
May, 2023
本文提出 Cross-X 学习,一种简单而有效的方法,利用不同图像之间和不同网络层之间的关系进行多尺度特征学习,包括一个跨类别跨语义的正则化器和一个跨层正则化器,该方法通过实验分析表明其鲁棒性、有效性和最新的性能在五个基准数据集上。
Sep, 2019