自我监督训练样本困难度平衡用于局部描述符学习
本文介绍了一种基于在线负样本对挖掘的自我监督深度学习范式,包括学生教师网络、正负样本对挖掘和三元组式的损失函数等,实验表明该方法可以有效地提高标签效率并在 ILSVRC-2012 上表现优异。
Feb, 2022
对比学习中通过综合考虑正负样本以及使用软硬权重策略来挖掘样本,分析并挖掘接近正样本的潜在负样本,相较于传统的自监督方法,该方法在 CIFAR10、CIFAR100 和 TinyImagenet 上分别达到了 88.57%、61.10% 和 36.69% 的准确率。
Nov, 2023
研究表明,在自监督学习中使用 hard negatives, 数据混合等技术可以提高视觉表示的质量,本文提出了一种基于特征水平的硬负例混合策略,并在多个任务上验证其有效性。
Oct, 2020
提出了一种新的监督对比学习目标 SCHaNe,在细调阶段引入了硬负样本采样,实验结果表明,在各种基准测试中,SCHaNe 在 Top-1 准确率上优于强基准 BEiT-3,少样本学习设置中取得了 3.32% 的显著增益和完整数据集细调中的 3.41% 的显著增益,这一目标在 ImageNet-1k 上取得了 86.14% 的准确率,并且改进的嵌入效果更好,可以解释实验中观察到的改进效果。
Aug, 2023
本文提供了一种分析负样本使用对自监督学习下游任务的影响的新框架,证明了在一些实际场景下,使用更多负样本可以提高分类性能,并使用 coupon collector's 问题隐式地将下游任务的监督损失纳入到自监督损失中。
Feb, 2021
本文提出了一种特征级方法,即采样合成难负样本用于对比学习(SSCL),以更有效地利用更难的负样本。该方法通过混合负样本生成更多且更难的负样本,然后通过控制锚定样本与其他负样本的对比度的方式进行采样,并且考虑到假负样本的可能性进一步消除了负样本。这种方法提高了不同图像数据集的分类性能,并可以轻松集成到现有方法中。
Apr, 2023
本文研究自监督学习在大规模数据集上的应用,提出了一种基于对比学习与聚类的硬负样本挖掘方法(DnC),在 less-curated 数据集上的预训练,可以显著提高自监督学习在后续任务上的表现效果,并与目前在高度筛选数据集上的最新水平保持竞争力。
May, 2021
提出了一种能够在缺少真实标签情况下,通过对不同标签数据进行负采样,纠正样本中同标签数据的影响的去偏置对比损失函数,实验证明该函数在视觉、语言和强化学习领域的表示学习中均优于现有的方法,并建立了下游分类任务的泛化界限。
Jul, 2020