该篇论文论述了一种名为 Extended Momentum Contrast (XMoCo) 的自我监督表示学习方法,该方法利用新的跨一致性正则化损失来扩展 MoCo 家族配置中动量编码器单元的框架,以处理消极样本交互所存在的特定差异和相似性。
Jun, 2022
本文中提出的聚类特征对比正则化方法在半监督学习中取得了最先进的结果,通过聚类伪标签的归属特征来更新模型,以便更有效地将标记信息传播到更多未标记样本。
Jan, 2022
提出一种新型半监督语义分割方法,结合像素级 L2 损失和像素对比损失以实现两个分割模型规则:图像增强之间的标签空间一致性性质和不同像素之间的特征空间对比性质,采用 DeepLab-v3+ 结构和多个数据集进行了广泛的实验,表现出最先进的性能。
Aug, 2021
本文将需要自我学习来改进现有模型的数据集偏差性进行了深入研究,并成功地在不同类型数据集上改善了模型,同时介绍了一种具有多尺度裁剪、强数据增强和近邻策略的改进自监督学习方法,并通过 MoCo 模型在语义分割和视频实例分割任务中实现了优秀的效果。
Jun, 2021
用于视觉表示学习的动量对比(MoCo)利用队列和移动平均编码器构建动态字典,并提供具有竞争力的结果并实现下游任务的迁移。
Nov, 2019
提出了 ContrastiveCrop,一种用于 Siamese 表示学习的更好对比对的生成方法,该方法采用全无监督方式提出了基于语义的目标定位策略并进一步设计了中心抑制采样来扩大裁剪区域的方差,成功提高了自我监督学习中 SimCLR,MoCo,BYOL,SimSiam 等方法的分类准确率,同时在基于 ImageNet-1K 预训练的下游检测和分割任务上取得了优异的结果。
Feb, 2022
我们提出了一种协作版对比学习方法,利用数据驱动的采样来利用多个输入视频视图之间的隐式关系,以应对该问题,并在动作识别这一下游任务上取得了竞争性能表现。
Apr, 2021
本文提出了一种基于掩模对比学习(CMP)的自监督视觉表示法,利用区域级特征对比而不是视角层级特征对比,以消除隐式的语义一致性假设并实现正样本的无假设定位。使用专门的掩模预测头解决了掩模和非掩模特征之间的域差异,实验结果表明该方法在自然数据集上获得了可比较的性能,并且在大量下游任务上比 MoCo V2 表现更强。
提出了一种基于弱监督对比学习的框架 (WCL),该框架使用两个投影头进行正则的实例区分任务,一头使用基于图形的方法找到相似的样本并生成弱标签,另一头使用这些弱标签进行有监督的对比学习任务,以拉近相似图像之间的距离。WCL 旨在解决现有对比学习框架中的类冲突问题,并在不同的数据集上提高了自监督表示品质,尤其是在半监督学习中达到了新的最优结果。
Oct, 2021
本文提出了基于区域级别对比和一致性学习框架 (RC^2L) 的半监督语义分割方法,通过引入区域级别损失,包括 Region Mask Contrastive (RMC) 损失、Region Feature Contrastive (RFC) 损失、Region Class Consistency (RCC) 损失和 Semantic Mask Consistency (SMC) 损失,实现了更好的稳定性和性能。在 PASCAL VOC 2012 和 Cityscapes 数据集上的实验结果表明,所提出的方法优于现有最先进方法。
Apr, 2022