对比损失的有趣特性
本文研究基于对比学习的监督式分类学习策略,提出了一种混合网络结构,用于从不平衡的数据中学习更好的图像表征,以提高分类精度。具体而言,我们探索了两种对比损失的变体,以推动特征学习,从而实现更好的分类器。实验结果表明,基于对比学习的混合网络在长尾分类中优于传统方法。
Mar, 2021
本文指出只考虑增强方法和对比损失等因素不能充分解释对比学习的成功,需要考虑算法和函数类的归纳偏差,特别是对于线性表示,加入函数类的归纳偏差可以让对比学习在更宽松的条件下工作。
Feb, 2022
提出了基于全局和局部特征表示的多网络对比学习框架,通过多个网络引入自监督对比学习的全局和局部特征信息,并通过对比由多个网络生成的嵌入对来学习图像不同尺度上的特征信息,并扩展对比样本数,提高了模型的训练效率。在三个基准数据集上的线性评估结果表明,我们的方法优于几种现有的经典自监督学习方法。
Jun, 2023
本文提供了第一个统一的理论框架,旨在确定对比学习 (CL) 学习了哪些特征。我们的分析表明,(随机) 梯度下降向查找更简单解决方案的偏见是导致子类表示崩溃和抑制更难的类相关特征的关键因素。此外,我们提出了增加嵌入维度和提高数据增强质量作为两个理论动机解决 {特征抑制}。我们还首次理论解释了为什么同时使用监督和无监督 CL 会产生更高质量的表示,即使用常用的随机梯度方法。
May, 2023
使用 InfoNCE 系列的 feedforward 模型通过隐式反转观察数据的基础生成模型来实现使学习到的表示方法适用于大量下游任务的目标,这种理论强调了对比学习,生成建模和非线性独立成分分析之间的基本联系,为推导出更有效的对比损失提供了理论基础。
Feb, 2021
本文提出了一种对比学习方法,该方法不需要先前知道特定于任务的不变性,使用多头网络构建不同的嵌入空间来捕捉可变及不变的因素 以提高视觉表示的效果,并发现不变空间和变化空间的连接在包括数据破坏等各种下游分类任务中表现最佳。
Aug, 2020
以自监督对比学习为基础,提出了一种新颖的多阶段对比学习框架 (MCL),旨在解决特征抑制问题,从而学习到更全面的表示,并能够提升各种下游任务的性能。
Feb, 2024
本文通过研究在 12 个不同领域和物体检测任务中的线性评估、全网络转移和少样本识别等方面,系统地探讨了对比学习的不同方法学习到的表示的可迁移性,结果表明对比方法学习到的表示很容易适应不同的任务。除此之外,自监督对比损失与交叉熵 / 监督对比损失的联合目标可增强这些模型的可迁移性。
Mar, 2021