本文提出了一种基于实例区分的方法 PairSupCon,旨在通过高级分类概念编码在语义蕴含和矛盾理解之间建立联系。该方法在各种下游任务中均取得了极好的效果,超过了先前的最先进方法。
Sep, 2021
利用信息最小化的对比学习模型 (InforMin-CL) 实现了无监督句子表示学习,通过最大化正实例之间的互信息并最小化其信息熵来保留有用信息和丢弃多余信息。实验结果表明,该模型在包括监督和无监督任务在内的十四个下游任务中取得了最先进的性能。
Sep, 2022
本研究将 Barlow Twins 方法的算法设计与 Hilbert-Schmidt 独立准则(HSIC)联系起来,并将其作为一种不需要负样本的对比学习方法,通过这个视角,我们认为 Barlow Twins 提出了一种可能性,即将自监督学习思想的两大流派:非对比和对比方法结合起来,这在避免与非对比方法一样需要大型训练批次和负样本配对以及避免对比方法的对称网络设计等方面发挥了最佳实践的优势。
Apr, 2021
文章提出了一种名为 Dual Contrastive Learning (DCL) 的新颖人脸伪造检测框架,该框架结合了硬样本选择策略和不同粒度的对比学习,并通过构建正负对数据从而学习通用特征表示。实验结果表明了我们方法的泛化性能超越了现有技术水平。
Dec, 2021
对比学习中,为了实现正样本对高相似度要求和负样本对低相似度要求,提出了使用多个投影头的自适应多头对比学习(AMCL)方法,通过使用每个投影头生成不同特征集合,以及通过自适应温度进行加权和正则化,针对问题进行改进。
Oct, 2023
本文研究了对比学习的等价性和理论基础,并建立了对比学习与谱聚类算法之间的等价性。同时,我们探讨了多模态对象是如何相似地嵌入在一起的,并提出了一种新的核混合损失,相较标准高斯核在几个视觉数据集上有更好的表现。
Mar, 2023
通过最大化巴洛双生损失来提高神经机器翻译性能,从而得到含义丰富的表示,并通过语言分类和与最先进的方法进行对比,评估我们表示的语言无关性。
Jan, 2024
提出了一种基于对比学习的图像翻译方法,通过最大化两个元素之间的互信息来鼓励相应图像块之间的相似性,从而实现不同领域之间的图像转换,该方法可在单个图像条件下进行一侧图像转换,同时提高了合成图像的质量和减少了训练时间。
Jul, 2020
本文提出了一种通过对比学习来改善科学文档表示的方法 —— 使用引文图嵌入进行所控制的最近邻抽样来学习连续的相似度,内容主要涉及对比学习、科学文档表示、引文图嵌入、相似度语义以及相关研究。
Feb, 2022
本文提出了一种基于对比学习框架的预训练语言模型微调方法,通过硬样本挖掘和使用不同 iable 的数据扩增技术,达到了在无标记或有标记数据上提高句子表示质量的目的。实验证明,该方法在半监督和监督学习设置下都优于现有对比学习方法,并且对标注数据更加高效。
Oct, 2022