ProbMCL:简单的多标签视觉分类概率对比学习
通过对半监督语义分割进行对比学习取得了巨大突破,但是由于有限的注释,模型自身生成的无标签图像上的引导 inevitably 存在噪音,扰乱了无监督训练过程。为了解决这个问题,我们提出了一个强大的基于对比的 S4 框架,称为概率表示对比学习 (PRCL) 框架来增强无监督训练过程的鲁棒性。我们将逐像素表示建模为多元高斯分布的概率表示 (PR), 并通过调整模糊表示的贡献度来容忍对比学习中的不准确引导的风险。此外,我们通过收集整个训练过程中所有 PR 生成全局分布原型 (GDP)。由于 GDP 包含相同类别的所有表示的信息,它在表示中即使存在噪声也是鲁棒的,并且承载着表示的类内差异。此外,我们基于 GDP 生成虚拟负样本 (VNs) 来参与对比学习过程。在两个公开基准测试上进行的大量实验证明了我们 PRCL 框架的优越性。
Feb, 2024
本文提出了一个基于概率理论的 Probabilistic Representation Contrastive Learning(PRCL)框架,通过将像素到表示的映射建模为多维高斯分布的概率,可以调节不确定性表示的贡献,提高表示的可靠性,从而提高了语义分割的性能,并在 Pascal VOC 和 CityScapes 上进行了充分的实验验证。
Oct, 2022
这篇论文介绍了一种新颖的概率方法,名为 Partial Multi-label Learning(部分多标签学习),在这种方法中,每个训练实例对应一组候选标签,其中只有一部分是正确的;与现有方法相比,它不需要次优的消岐,因此可以应用于任何深度架构;在人工和真实数据集上进行的实验证明,Partial Multi-label Learning 在候选集中噪声高的情况下表现出色,优于现有方法。
Mar, 2024
该研究提出了一种新的端到端训练框架 ——KMCL(基于核的多标签对比学习),以解决模型和数据中心设计的缺点。KMCL 通过将嵌入特征转化为高斯 RKHS 中指数核的混合,然后进行目标损失编码,包括重构损失、非对称分类损失和对比损失来捕捉标签相关性。该框架同时考虑特征编码器的不确定性,并保持较低的计算量。通过对图像分类任务进行广泛实验,展示了 KMCL 相对于 SOTA 方法的一致改进。PyTorch 实现详见 https://github.com/mahdihosseini/KMCL。
Jul, 2023
本研究提出了一个新的部分标签学习的设置,其中只标注了训练图像的子集,每个图像只有一个正标签,其余训练图像保持未标注状态。通过使用端到端的深度神经网络 PLMCL,可以同时学习产生对部分标注和未标注的训练图像都具有信心的伪标签。通过考虑伪标签更新的速度,使用新的基于动量的法则来更新软伪标签,以帮助防止在早期训练阶段陷入低信心的局部最小值。此外,还提供了适应不同标签的逐渐递增学习的自适应 “自信度调度器”。实验结果表明,我们的 PLMCL 方法在三个不同数据集上的多标签分类中,表现比许多现有的基于多标签分类方法更好。
Aug, 2022
提出增强图卷积网络(AGCN++)并使用部分标签编码器(PLE)对多标签连续学习(MLCL)进行跨任务标签关系构建、避免灾难性遗忘等处理,实验结果表明该方法是有效的。
Nov, 2022
本文介绍了一种名为 Multi-Level Contrastive Learning for Dense Prediction Task (MCL) 的自监督学习方法,该方法通过实现一种装配多尺度图像的贡献任务,显式地编码绝对位置和比例信息,从而使神经网络能够学习区域语义表示。实验表明,MCL 在各种数据集上始终优于最新的现有方法。
Apr, 2023
通过引入样本对间对比学习和原型 - 样本对比学习,提出了一种新颖的语义感知双对比学习框架,通过联合训练三个模块,准确捕捉与图像内容相关的判别性标签级特征,并在五个具有挑战性的大规模公共数据集上实验证明了该方法的有效性优于现有技术。
Jul, 2023
Mutual Contrastive Learning (MCL) is a powerful method for improving feature representations for visual recognition tasks through the mutual interaction and transfer of contrastive distributions among a cohort of networks, achieved through the use of Interactive Contrastive Learning (ICL) to aggregate cross-network embedding information.
Apr, 2021
对比学习中,为了实现正样本对高相似度要求和负样本对低相似度要求,提出了使用多个投影头的自适应多头对比学习(AMCL)方法,通过使用每个投影头生成不同特征集合,以及通过自适应温度进行加权和正则化,针对问题进行改进。
Oct, 2023