非对称式补丁采样用于对比学习
本文提出了一种新的图像混合方法 PatchMix,用于对比学习中的视觉 Transformer,以对图像之间的相似性进行建模,并证明该方法比现有的方法在多项实验中表现更好。
Jun, 2023
提出了 ContrastiveCrop,一种用于 Siamese 表示学习的更好对比对的生成方法,该方法采用全无监督方式提出了基于语义的目标定位策略并进一步设计了中心抑制采样来扩大裁剪区域的方差,成功提高了自我监督学习中 SimCLR,MoCo,BYOL,SimSiam 等方法的分类准确率,同时在基于 ImageNet-1K 预训练的下游检测和分割任务上取得了优异的结果。
Feb, 2022
本研究通过生成精心设计的负样本,表明对比学习可以学习到更具有鲁棒性的表示,减少对低级特征的依赖,而我们通过纹理和面板增强的方式生成负样本,在特定的 ImageNet 数据集上分类时表现出一定的可行性
Oct, 2021
本研究提出了一种基于语义正例对集合(SPPS)的方法,它可以降低在表示学习期间丢失重要特征的风险,并在 ImageNet,STL-10 和 CIFAR-10 数据集上验证了该方法的可行性。
Jun, 2023
提出了一种基于对比学习的图像翻译方法,通过最大化两个元素之间的互信息来鼓励相应图像块之间的相似性,从而实现不同领域之间的图像转换,该方法可在单个图像条件下进行一侧图像转换,同时提高了合成图像的质量和减少了训练时间。
Jul, 2020
对比学习中通过综合考虑正负样本以及使用软硬权重策略来挖掘样本,分析并挖掘接近正样本的潜在负样本,相较于传统的自监督方法,该方法在 CIFAR10、CIFAR100 和 TinyImagenet 上分别达到了 88.57%、61.10% 和 36.69% 的准确率。
Nov, 2023
本文提出了一种特征级方法,即采样合成难负样本用于对比学习(SSCL),以更有效地利用更难的负样本。该方法通过混合负样本生成更多且更难的负样本,然后通过控制锚定样本与其他负样本的对比度的方式进行采样,并且考虑到假负样本的可能性进一步消除了负样本。这种方法提高了不同图像数据集的分类性能,并可以轻松集成到现有方法中。
Apr, 2023
论文提出了一种通过对比 RGB-D 数据的点 - 像素对,实现自监督预训练模型的方法,进而在多模态 RGB-D 扫描中为场景理解提供更多的灵活性,实现更好的预训练效果。
Dec, 2020
提出了一种能够在缺少真实标签情况下,通过对不同标签数据进行负采样,纠正样本中同标签数据的影响的去偏置对比损失函数,实验证明该函数在视觉、语言和强化学习领域的表示学习中均优于现有的方法,并建立了下游分类任务的泛化界限。
Jul, 2020
研究表明,在自监督学习中使用 hard negatives, 数据混合等技术可以提高视觉表示的质量,本文提出了一种基于特征水平的硬负例混合策略,并在多个任务上验证其有效性。
Oct, 2020