本文通过建立多模态对称矩阵分解和对称矩阵分解的内在联系,证明了多模态对比学习在图像下游任务中的泛化保证,并通过统一模型表明多模态对比学习隐含地通过文本对生成了伪正对,从而具有更多的语义一致和多样性正对,可显著提高基于自我监督的对比学习在图像分类中的性能。
Jun, 2023
该论文提出了 SCCL 框架,使用对比学习来帮助无监督聚类,有效提升类别间距离,进而在短文本聚类中达到更好的结果。研究表明,SCCL 能够显著提高精度和归一化互信息,同时有效结合自下而上的实例判别和自上而下的聚类来实现更好的聚类效果。
Mar, 2021
该论文研究了自监督学习中的对比学习策略,分析了边缘对梯度的调控作用,并提出了可能的改进方向,实验证明这些特性有助于获取更好的表征,并能够提高在数据集中的性能表现。
研究表明,在自监督学习中使用 hard negatives, 数据混合等技术可以提高视觉表示的质量,本文提出了一种基于特征水平的硬负例混合策略,并在多个任务上验证其有效性。
Oct, 2020
本文提出了一种特征级方法,即采样合成难负样本用于对比学习(SSCL),以更有效地利用更难的负样本。该方法通过混合负样本生成更多且更难的负样本,然后通过控制锚定样本与其他负样本的对比度的方式进行采样,并且考虑到假负样本的可能性进一步消除了负样本。这种方法提高了不同图像数据集的分类性能,并可以轻松集成到现有方法中。
Apr, 2023
该研究提出了一种新的端到端训练框架 ——KMCL(基于核的多标签对比学习),以解决模型和数据中心设计的缺点。KMCL 通过将嵌入特征转化为高斯 RKHS 中指数核的混合,然后进行目标损失编码,包括重构损失、非对称分类损失和对比损失来捕捉标签相关性。该框架同时考虑特征编码器的不确定性,并保持较低的计算量。通过对图像分类任务进行广泛实验,展示了 KMCL 相对于 SOTA 方法的一致改进。PyTorch 实现详见 https://github.com/mahdihosseini/KMCL。
Jul, 2023
提出了一种名为 Positive-Unlabeled Contrastive Learning(PUCL)的新型对比学习方法,通过将负样本视为无标签样本,并利用正样本信息来修正对比损失,从而纠正了负采样偏差并提高了性能。
Jan, 2024
我们通过 “对称” 形式的对比损失重新思考正负样本对的采样方式,并引入了在监督设置中被广泛采用的 AM-Softmax 和 AAM-Softmax 等边缘,展示了对称对比损失的有效性,以及 Additive Margin 和 Additive Angular Margin 能够通过改善讲话人可分性来减少错误识别。最终,通过结合这两种技术并训练一个更大的模型,我们在 VoxCeleb1 测试集上取得了 7.50% 的 EER 和 0.5804 的 minDCF,优于其他对比自监督方法在讲话人验证上的表现。
对比学习中,为了实现正样本对高相似度要求和负样本对低相似度要求,提出了使用多个投影头的自适应多头对比学习(AMCL)方法,通过使用每个投影头生成不同特征集合,以及通过自适应温度进行加权和正则化,针对问题进行改进。
Oct, 2023
本文提出了一种语义对比学习的方法(SCL),将距离的聚类结构引入到无标注数据的特征空间中,并通过优化实例视觉相似性和聚类决策边界的一致性来推理出语义上的实体类别,以在发现未知类别决策边界方面具有显着优势。实验证明,SCL 在六个物体识别基准测试中优于最先进的对比学习和深度聚类方法,尤其是在更具挑战性的精细和较大的数据集上。