实例判别式自监督表示学习中负样本的理解
本文研究噪声对比估计中负样本数量与下游分类性能的关系,并在简单理论模型中表明,由于采样底层潜在类所导致的 “collision-coverage” 权衡,负样本数量不会影响(人口)对比损失所优化的表示。同时,给出了我们框架中最优表示的结构特征,为噪声对比估计提供了实证支持。
May, 2022
本研究针对之前的理论研究所存在的两个缺点建立了一种新的下限与上限模型,证明了 contrastive loss 可以作为下游 loss 的替代目标函数,同时也提示了更大的 negative sample size 可以提高下游分类,这在合成、视觉和语言数据集上的实验证实了。
Oct, 2021
提出了一种能够在缺少真实标签情况下,通过对不同标签数据进行负采样,纠正样本中同标签数据的影响的去偏置对比损失函数,实验证明该函数在视觉、语言和强化学习领域的表示学习中均优于现有的方法,并建立了下游分类任务的泛化界限。
Jul, 2020
该研究讨论了无监督学习中噪声对比学习的技术以及负样本的数量对其效果的影响,包括从理论和实践两个层面考察了负样本在 NLP 和视觉领域中的作用和效果。
Jun, 2021
本文介绍了一种基于在线负样本对挖掘的自我监督深度学习范式,包括学生教师网络、正负样本对挖掘和三元组式的损失函数等,实验表明该方法可以有效地提高标签效率并在 ILSVRC-2012 上表现优异。
Feb, 2022
本文研究图表示学习中的负采样对于优化目标和结果方差的重要性,并提出了一种基于自对比近似和 Metropolis-Hastings 加速的负采样方法,MCNS,应用于链接预测、节点分类等任务,并在 19 个实验设置中证明了其优越性。
May, 2020
本文提出了一种特征级方法,即采样合成难负样本用于对比学习(SSCL),以更有效地利用更难的负样本。该方法通过混合负样本生成更多且更难的负样本,然后通过控制锚定样本与其他负样本的对比度的方式进行采样,并且考虑到假负样本的可能性进一步消除了负样本。这种方法提高了不同图像数据集的分类性能,并可以轻松集成到现有方法中。
Apr, 2023
本文提出了一种理论框架以分析对比学习的算法,并引入潜在类别假设,该框架使我们能够在平均分类任务上证明学习表示的性能。同时,该文还表明,学习表示可以降低下游任务的(标记)样本复杂度。
Feb, 2019