通过在自我监督模型中添加一个模块,限制编码表示对仿射变换进行预测,可以提高学习过程的性能和效率,在各种现代自我监督模型中进行实验证明了性能改进,并对仿射变换的组成部分和关键架构设计进行了消融研究。
Feb, 2024
为了避免生成数据不敏感的特点,同时获取更具普适性的表示,我们提出了一种辅助自监督损失 AugSelf,它学习两个随机样本之间的增强参数差异,并可以轻松地纳入最先进的表征学习方法中,稳定提高了监督和无监督方法的表征迁移性能。
Nov, 2021
本文研究了自监督学习中编码器和映射器的关系,发现数据增强策略的增加会导致映射器变得更加不变,从而学习将数据投影到低维空间中,具有理论和实验结果的几何学解释。
May, 2022
在视频流的场景中,通过流变换目标使神经网络预测另一个帧的特征,实现了一种新的自我监督学习表示框架,学习到的高分辨率原始视频表示可用于静态图片的下游任务,例如语义分割、实例分割和目标检测,超越了 SimCLR 和 BYOL 等先前最先进算法得到的表示。
Jan, 2021
通过自监督学习,本文提出的单一统一任务学习方法能够有效地提高模型的准确性,并且在各种全监督学习场景下均具有广泛的适用性。
Oct, 2019
提出一种简单而有效的自监督框架,用于音频 - 视觉表示学习,以定位视频中的声音源。通过系统地研究数据增强的效果,揭示出数据增强的组成对学习有用的表示起到了至关重要的作用,并且实验证明了该模型在两个声音定位基准测试上显著优于以前的方法。
Jun, 2022
本文提出了一种名为 MAST 的方法,通过学习不同数据增强的先验知识来在单个特征空间中根据任务要求建模不变性,实现在不知道任务信息的前提下进行自监督特征学习,并通过不确定性建模来解决强增强的相似性失配问题,结果表明该方法可显著提高自监督学习通用性和泛化性能。
Mar, 2023
利用异构自监督学习的互补性,通过在基础模型中引入异构的辅助头部架构,提出了异构自监督学习(HSSL)方法,并发现基础模型的表示质量随着架构差异的增加而提高。该方法与各种自监督方法兼容,在图像分类、语义分割、实例分割和目标检测等各种下游任务中表现优秀。
Oct, 2023
自我监督学习通过使用生成模型生成语义一致的图像增强,丰富了学习强大视觉表示的方法,并显著提高了学习到的视觉表征的质量。
Mar, 2024
通过关注上下文,我们提出了一种能够对不同变换具有适应性的通用表示学习算法,该算法通过学习等变性而不是不变性,使模型能够在给定少量示例作为上下文时,将所有相关特征编码为通用表示,并在等变性相关任务上展现出明显的性能提升。
May, 2024