我们提出了一种修改对比损失函数来调整学习特征嵌入几何结构的方法,通过使用原型在每个批次中引导学习嵌入和原型的几何一致性,并在深度神经网络上基于基准视觉数据集进行了一系列实验证实。
Oct, 2023
本文提出了针对图像 - 文本预训练的简单对数损失函数,其中使用 sigmoid 函数,从而可以放大批量大小,并实现更好的性能表现。
Mar, 2023
本研究探讨了多模态表示学习中对称 InfoNCE 损失的理论理解,通过点间互信息的视角展示了达到预训练最优相似度的编码器在下游分类任务中提供了良好的表示。我们基于理论结果,提出了一种新的多模态对比学习相似度度量方法,并利用非线性核函数增强了其能力。通过在 Conceptual Caption 数据集上进行多模态表示模型的预训练,并在常用基准数据集上进行零样本分类和线性分类的评估,验证了所提方法的有效性。
Apr, 2024
本研究探讨了在最小化损失时,编码器输出空间内所寻求的类别性空间几何是否存在本质差异。同时提供实证证据表明,两种损失函数的优化行为存在显著不同,这将对神经网络的训练产生影响。
Feb, 2021
通过分析一个简单的多模态对比学习模型的训练动态,我们展示了对比对是提高学习效率和平衡学习表示非常重要的因素。特别地,正对会驱使模型在增加条件数的代价下对齐表示,而负对将减小条件数,保持表示的平衡。
Apr, 2023
本文通过实验证明:监督对比损失学习到的嵌入空间的几何结构形成正交框架,而交叉熵损失学习到的嵌入空间的几何结构高度依赖于类大小;同时,通过选取不同的数据分组算法,加快正交框架的出现,为监督学习提供一种新的训练策略
Jun, 2023
本文中,我们提出了一些基线模型,将对比学习与最近的自监督学习进展相结合,用于生成多模态表示。除了使用对比性损失,我们还使用了已被证明对视觉自监督学习成功的损失函数来对齐图像和文本模态。而使用更有效的数据增广技术可以提高模型性能,使我们在四个标准数据集上获得了最先进的性能。
May, 2023
本文研究了对比学习的等价性和理论基础,并建立了对比学习与谱聚类算法之间的等价性。同时,我们探讨了多模态对象是如何相似地嵌入在一起的,并提出了一种新的核混合损失,相较标准高斯核在几个视觉数据集上有更好的表现。
本文提出了一种基于边界的理论框架,并推导出了一种新的有监督对比损失(epsilon-SupInfoNCE)和一种有效的去偏差正则化损失(FairKL),这些方法可以用于从偏差数据中学习无偏模型,并在多个偏差数据集上实现了最先进的性能。
Nov, 2022
本文介绍一种利用对比损失函数来鼓励可学习特征的类内紧凑性和类间可分性的方法用于语音情感识别,结果表明该方法在 IEMOCAP 数据库上表现出比基准系统更好的性能。
Oct, 2019